過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
探検
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2009/09/25(金) 23:35:57ID:htTJHAHB0
DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
2009/09/26(土) 00:20:49ID:vz+4woN2P
巡集更新されてるな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
2009/09/26(土) 10:23:56ID:oaSHciNs0
>>418
そのリンク先のベクターが一時的に消えてたんだよ。
そのリンク先のベクターが一時的に消えてたんだよ。
2009/09/27(日) 13:50:11ID:ms06DL850
ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
2009/09/29(火) 22:52:47ID:jvpQY2ni0
巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
2009/09/30(水) 10:39:36ID:VYCIQ4+X0
>>423
みんなで幸せになろうよw
みんなで幸せになろうよw
2009/10/20(火) 23:48:32ID:38/cKrSL0
>>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
2009/10/20(火) 23:53:17ID:38/cKrSL0
427名無しさん@お腹いっぱい。
2009/11/17(火) 01:19:05ID:yVWqHF3k0 401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
2009/12/06(日) 23:39:56ID:Xd69xJs/0
Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
気が向いたらランゲージファイル公開するわ
2009/12/07(月) 08:38:55ID:DFn9YnAw0
もうVer.5になってなかったっけ?
430428
2009/12/08(火) 23:22:21ID:D9b5l12j0 Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
2010/01/06(水) 13:07:10ID:kDFT625l0
432名無しさん@お腹いっぱい。
2010/01/06(水) 17:25:24ID:z5X944lK0 それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
感染先は Bee.exe で実行ファイル
2010/01/06(水) 20:00:01ID:kDFT625l0
2010/01/06(水) 20:12:18ID:RzwWHhyF0
巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
435名無しさん@お腹いっぱい。
2010/01/06(水) 22:43:12ID:z5X944lK0 誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
2010/01/12(火) 00:02:23ID:mBZ3Hlbu0
やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
2010/01/14(木) 17:34:33ID:BnCvLsD90
ふつうにwiki保存できてるけど・・・
2010/01/14(木) 19:38:01ID:yv0Hxe320
wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
2010/01/15(金) 03:59:54ID:59bOFj/P0
ScrapBookつかえ
2010/01/17(日) 16:30:03ID:MxrdNVKG0
webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
2010/01/28(木) 14:33:42ID:hxTP88ae0
ソース見てCSSとか足らないファイル無いか確かめて見れ
443名無しさん@お腹いっぱい。
2010/01/28(木) 15:06:42ID:+eB2y8gU0 WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。
今までオートパイロットで WebAuto 以上のものにあったことが無い
今までオートパイロットで WebAuto 以上のものにあったことが無い
2010/01/29(金) 01:51:12ID:pdIiOyGT0
忍者ブログがちゃんと取り込めるお勧めってある?
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
2010/01/31(日) 12:58:52ID:LRfrwAhF0
他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
2010/02/13(土) 23:30:04ID:i791U1t40
gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
2010/02/14(日) 16:30:15ID:ekI+lMw50
なんかいろいろ調べてたんですが
robots.txtに User-agent: * Disallow: / って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる
でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ
で いいのかなぁ。。。
robots.txtに User-agent: * Disallow: / って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる
でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ
で いいのかなぁ。。。
2010/02/16(火) 19:55:21ID:S5I004NN0
Proxomitron を使っているのなら、User-Agent を書き換えるよりも
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。
どっちみち User-Agent の書き換えは推奨するけど。
デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。
どっちみち User-Agent の書き換えは推奨するけど。
デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
2010/02/16(火) 23:36:40ID:eb20GwbO0
robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
2010/02/17(水) 19:44:59ID:C0QOwpgt0
盲点突かれてもう目が点
ありがちょ
ありがちょ
2010/02/18(木) 10:36:09ID:cDYue5wv0
>>450
もともと盲点は見えないから突かれても問題ない
もともと盲点は見えないから突かれても問題ない
452名無しさん@お腹いっぱい。
2010/04/04(日) 05:53:01ID:OKHjYikf0453名無しさん@お腹いっぱい。
2010/04/16(金) 01:50:11ID:LJzX0FMt0 twitterのプロフ検索サイトや
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
454名無しさん@お腹いっぱい。
2010/05/27(木) 11:26:34ID:ieOwLYqC0 あげ
2010/05/27(木) 11:48:03ID:dz2Xu6+80
wgetでサイトまるごと採ろうとしてるけど
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
2010/07/17(土) 18:45:54ID:geoOLYIs0
scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
457名無しさん@お腹いっぱい。
2010/10/02(土) 03:16:36ID:tOtD8Seh0 wgetのGUI版があったので貼っとく
VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
2010/10/07(木) 20:51:42ID:8vo6Uaef0
moe.imouto.org終了のお知らせか・・・
2010/10/15(金) 01:29:54ID:TBUV4Okd0
>>443の書き込み見てWebAutoを使ってみたけど
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
2010/10/23(土) 09:06:37ID:lnHUl5BB0
巡集の1.7.1A→1.7.2のバージョンアップで、
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
461名無しさん@お腹いっぱい。
2010/10/25(月) 22:58:32ID:72FsLqyA0 何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
2010/10/26(火) 23:59:32ID:9JgHvqPN0
ローカルに保存したwikiを
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
463名無しさん@お腹いっぱい。
2010/11/05(金) 00:04:14ID:9BGnuHFv0 更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう
Firefoxのアドオンのほうが幸せになれるのかもしれんな
GetHTMLwの作者はどうなったのですが
最近、更新がないようですが
あげ
Firefoxのアドオンのほうが幸せになれるのかもしれんな
GetHTMLwの作者はどうなったのですが
最近、更新がないようですが
あげ
2010/11/08(月) 15:27:20ID:qDJ9LufK0
今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
2010/11/08(月) 22:17:48ID:y6Jx/ALlP
最近「〜けど〜けど」「〜ので〜ので」「〜だから〜だから」みたくたった1文の構成すら出来ない奴が増えたな
2010/11/09(火) 11:16:37ID:frlQOzh00
最近句読点すら使えない奴増えたよな
2010/11/09(火) 23:59:38ID:sTHTzJsZ0
i.aspの付いているaspで生成されている(?)携帯サイト
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
2010/11/10(水) 14:11:03ID:lmrHRm4k0
魔法のiらんどなら巡集でフィルタ設定して取ってる
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
469467
2010/11/12(金) 12:06:32ID:UOQQ0O0Q0 情報をありがとうございます。
巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?
あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?
あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
2010/11/13(土) 10:33:10ID:tSkOmlSC0
自分の場合Firefox、Opera辺りならD&Dすれば
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない
ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない
ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
471名無しさん@お腹いっぱい。
2010/11/14(日) 09:57:13ID:89KNH7or0 ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
472467
2010/11/20(土) 15:24:55ID:O0cud1UJ0 返答が遅くなってしまい申し訳ありません。
余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。
aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。
aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
2010/11/20(土) 20:10:20ID:213w5ulb0
頻繁にファイルを直接選択してブラウザで見たいというのでなければ
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
474467
2010/11/20(土) 21:34:10ID:O0cud1UJ0475名無しさん@お腹いっぱい。
2010/11/21(日) 14:57:29ID:vODtUEkF0 それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね
ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね
ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
476467
2010/11/21(日) 21:09:43ID:IaD1YDka0 >>475
Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。
Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。
当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。
Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。
当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
477名無しさん@お腹いっぱい。
2010/12/25(土) 16:50:14ID:iR3S9Wga0 winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
478名無しさん@お腹いっぱい。
2010/12/31(金) 02:53:13ID:57SW0Dqp0 >>476
俺はIE詳しくないから検索の手助けになりそうな情報だけ
ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね
だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定
「関連付け MIME」なんかでググったらでてこないかな
ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。
俺はIE詳しくないから検索の手助けになりそうな情報だけ
ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね
だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定
「関連付け MIME」なんかでググったらでてこないかな
ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。
479名無しさん@お腹いっぱい。
2010/12/31(金) 17:14:16ID:X5j+/04f0 PC
2011/01/03(月) 12:57:19ID:98ttV4VF0
ComGetter
2011/01/04(火) 00:18:27ID:MGz4r0zS0
CompleteGetterのRFunc:1とかRFunc:2って何ですか?
2011/01/06(木) 20:13:45ID:1jij3k+00
フレーム付のページを一括で保存できるソフトってありますか?
2011/01/08(土) 17:58:29ID:0w5F53fBP
484名無しさん@お腹いっぱい。
2011/01/25(火) 17:35:02ID:4v6efgTR0 ttp://liargame.jp/index.html
このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
485名無しさん@お腹いっぱい。
2011/01/26(水) 17:28:22ID:9LvkE2vX0 そういう場合はXaxonのネットレコーダーしかないな。
486名無しさん@お腹いっぱい。
2011/01/27(木) 02:50:00ID:JYGImn8Z02011/02/08(火) 21:09:45ID:ihfk+Bz20
http://www.nhk.or.jp/artbs/photo/009.html
上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
2011/02/08(火) 21:40:58ID:kmLZd/z+0
できるよ
よく使われてるjava scriptだろ
よく使われてるjava scriptだろ
489名無しさん@お腹いっぱい。
2011/02/09(水) 00:09:09ID:2QpVybi70 フォーラム系を保存したいのですが
良いソフトありますか?
良いソフトありますか?
2011/02/09(水) 00:45:25ID:S3LS3a5p0
491名無しさん@お腹いっぱい。
2011/02/12(土) 01:21:50ID:dChV5rWn0 決定的なソフトは現れないかねえ
新しいソフトですら現れていないわけだが
新しいソフトですら現れていないわけだが
2011/02/13(日) 22:02:23ID:6bZnuHuB0
>>489
ない
ない
2011/02/13(日) 22:56:17ID:sFgYj0cn0
龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから
してとりこめない。
どんなソフトを使えば取り込めますか?
してとりこめない。
どんなソフトを使えば取り込めますか?
494名無しさん@お腹いっぱい。
2011/02/19(土) 23:58:21.21ID:4N0fBC/Y0 巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか?
いろいろ設定を変えてみたけれど駄目でした。
いろいろ設定を変えてみたけれど駄目でした。
2011/02/21(月) 17:39:50.04ID:mCsnFxG/0
winhttrackというサイトミラーソフトを使用しています。
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。
Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。
まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。
Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。
まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?
496名無しさん@お腹いっぱい。
2011/02/23(水) 17:08:22.81ID:1tqryiUd02011/02/26(土) 14:52:25.55ID:eI0hwifQ0
(´・ω・`)知らんがな
2011/03/18(金) 09:56:13.02ID:8uboNOZD0
巡集のように絶対パスを相対パスに(http://〜index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある?
それか、同等の機能を持ったソフトとか…。
携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
それか、同等の機能を持ったソフトとか…。
携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
499名無しさん@お腹いっぱい。
2011/03/18(金) 10:00:43.45ID:8uboNOZD0 あ、Wが抜けてた。GetHTMLWです。
2011/03/18(金) 16:41:32.10ID:A+5wOcCe0
(´・ω・`)知らんがな
2011/03/18(金) 19:49:28.02ID:8uboNOZD0
(´・ω・`)そうだよね
502名無しさん@お腹いっぱい。
2011/03/25(金) 17:50:39.65ID:gecN6pF70 Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
503名無しさん@お腹いっぱい。
2011/03/31(木) 22:19:17.73ID:JplTcRyR02011/04/01(金) 18:04:55.06ID:xRp+kGAS0
2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
2011/04/01(金) 23:32:30.09ID:I3kOVvUq0
>>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
506503
2011/04/08(金) 06:39:02.29ID:O8PDBMZ+0 回答が・・・どなたか回答を(´;ω;`)ブワッ
2011/04/08(金) 11:12:59.21ID:sdwIAebP0
httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgiを
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
2011/04/08(金) 17:38:56.19ID:toP+TA3e0
2011/04/08(金) 18:05:22.63ID:ODoWyqCr0
いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
510名無しさん@お腹いっぱい。
2011/04/10(日) 07:51:17.21ID:2EVaxSnc0 >>506
m9(^Д^)プギャーーー!!!
m9(^Д^)プギャーーー!!!
2011/04/10(日) 22:26:02.67ID:r6raCUVJ0
巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
2011/04/10(日) 22:35:08.17ID:r6raCUVJ0
ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
513名無しさん@お腹いっぱい。
2011/04/22(金) 10:30:47.67ID:d7+lWIHr0 一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
サイトを丸ごと取り込めるフリーソフトないでしょうか?
2011/05/06(金) 08:08:27.47ID:evJF6buF0
ここは過疎っているので他で聞いてみます
2011/05/11(水) 10:55:51.25ID:HcEd9XAn0
>>513
cronでwgetをまわすといいよ
cronでwgetをまわすといいよ
2011/06/24(金) 18:03:34.03ID:m9RhzJyk0
どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
2011/07/01(金) 00:09:52.24ID:anPvOplt0
巨大フォーラムを取り込めるソフト
ありませんか?
ありませんか?
2011/07/31(日) 23:09:41.06ID:/04LhjsQ0
タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
ダウンロードできるようなソフトはないでしょうか?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【サッカー】U-17日本代表、激闘PK戦制す 北朝鮮撃破で6大会ぶり8強入り U17W杯 [久太郎★]
- 「国民の憤りを引き起こした」中国側“高市首相発言の撤回改めて要求” [どどん★]
- 【インバウンド】中国からの“渡航自粛”…ツアー1000人分の直前キャンセル「キャンセル料は免除してくれ」 ことしいっぱいキャンセルに [1ゲットロボ★]
- 【芸能】日中関係悪化でエンタメ業界に大ダメージ… JO1の中国でのイベント中止、邦画は公開延期、STARTOアイドルへの影響も [冬月記者★]
- XやChatGPTで広範囲の通信障害 投稿や閲覧できず [蚤の市★]
- 【サッカー】日本代表、ボリビアに3発快勝 森保監督通算100試合目を飾る…鎌田、町野、中村がゴール [久太郎★]
- Perfume・あ~ちゃんの結婚相手の一般男性、吉田カバンの社長と判明 [977261419]
- 地球から無限km先の場所ってどうなっているの?
- 自民党議員「高市は先人が築き上げた日中関係を壊した。外務省が謝罪に言ってるが自分で責任を取れ」 [834922174]
- 日本、高市のお陰で破滅に近づくwwwwwwww
- AIアーティストだけど作品公開する
- 岡田克也「軽々しく存立危機事態とか言うべきじゃない」高市早苗「台湾で武力攻撃が発生したらどう考えても日本の存立危機事態」 [931948549]
