過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
探検
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2007/12/19(水) 08:36:06ID:rzYFr4Wu0
うはw
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
2007/12/19(水) 11:15:42ID:9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
2007/12/25(火) 11:11:24ID:GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
2007/12/25(火) 11:35:48ID:PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
2007/12/29(土) 07:39:53ID:qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
2007/12/30(日) 23:06:29ID:qlo4Nzf+0
はい
2008/01/13(日) 17:24:55ID:IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
IE6ならアドレスバー右のアイコンドラッグでもいい
2008/01/16(水) 15:18:18ID:ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
2008/01/16(水) 16:23:20ID:OFGCoOwC0
&や=で区切られてるURLをDLするんじゃないかと
2008/01/16(水) 16:23:53ID:OFGCoOwC0
?とか
2008/01/18(金) 16:46:29ID:IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
2008/01/18(金) 17:33:47ID:A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
2008/01/18(金) 18:31:47ID:gw9zl8ah0
URLを晒せば誰かが解析してくれるよ
213211
2008/01/18(金) 18:54:52ID:tCWJ6AtX0 トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
2008/01/18(金) 22:09:06ID:gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
海外では ~ ってあまり使われないのか
2008/01/24(木) 06:32:37ID:JD3lJ93I0
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
2008/01/24(木) 07:32:08ID:oN1Lok+h0
株にはまりすぎて開発してる暇がなくなったんじゃ
2008/01/25(金) 06:37:21ID:NApTe0zp0
ベクターの作者ページへのリンクが
2008/01/25(金) 07:44:23ID:Uo5ZCYg70
どうした?
219名無しさん@お腹いっぱい。
2008/01/25(金) 17:45:12ID:pOdyTSFw0 http://bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
2008/01/25(金) 22:06:45ID:VQ1m2IF90
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
2008/01/25(金) 22:12:43ID:xmvyWrR/0
2008/01/26(土) 19:25:30ID:h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
2008/01/26(土) 20:07:25ID:BB78zvk50
>2階層以上取り込めません
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
2008/01/26(土) 20:50:47ID:h3xkz2eJ0
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
2008/01/26(土) 22:17:45ID:Vw9+2j2y0
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
2008/01/26(土) 22:20:24ID:Vw9+2j2y0
続き
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
227名無しさん@お腹いっぱい。
2008/01/26(土) 23:17:56ID:Nych28nF0 219です。
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
2008/01/26(土) 23:34:13ID:Vw9+2j2y0
2008/01/27(日) 04:41:59ID:2s4iBkil0
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
230名無しさん@お腹いっぱい。
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0 初心者にお勧めの物ってどれになりますか?
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
2008/01/27(日) 10:20:40ID:suXR9EeP0
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
俺がロックフェラーならパトロンになってやるんだが
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
2008/01/27(日) 11:58:42ID:2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
中身を「フィルタ」で検索してみるがよろし
2008/01/27(日) 12:50:55ID:Xxz+W6Ae0
2008/01/27(日) 13:39:28ID:s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
2008/01/27(日) 19:04:30ID:2s4iBkil0
2008/01/30(水) 01:36:11ID:NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
これはどうしようもないの?
それとも他のならできる?
2008/02/08(金) 00:48:18ID:LyUhp1gB0
http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
2008/02/11(月) 20:21:44ID:dYHnvlVd0
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
241名無しさん@お腹いっぱい。
2008/02/12(火) 01:13:13ID:jIBSXkqy0 Super Capture ってなくなっちゃったんですか?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
2008/02/12(火) 15:44:15ID:pEdZWnO30
243名無しさん@お腹いっぱい。
2008/02/12(火) 21:02:05ID:Ftzz/E6Q0 http://www.gymfan.de/gym_pic.html
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
244名無しさん@お腹いっぱい。
2008/02/12(火) 22:45:39ID:S2Vi01b30 取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
2008/02/12(火) 23:31:39ID:v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
246名無しさん@お腹いっぱい。
2008/02/12(火) 23:48:23ID:jIBSXkqy0 >>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
2008/02/13(水) 01:43:15ID:95oy4e+k0
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
2008/02/13(水) 01:49:38ID:mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
なんなら -screen くっつけて検索汁。
2008/02/13(水) 01:53:22ID:zIVsZC2A0
251名無しさん@お腹いっぱい。
2008/03/02(日) 15:32:26ID:SlT8oVxO0252名無しさん@お腹いっぱい。
2008/03/02(日) 22:55:44ID:XBPQmEY902008/03/04(火) 23:58:34ID:8O1P5E4A0
irvineでも巡集でもURLを直接指定すればええやん
2008/03/18(火) 21:59:21ID:ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
2008/03/19(水) 12:43:47ID:YKorTSpT0
>>254
んなわけない
んなわけない
2008/03/20(木) 01:58:21ID:m223Zsx40
ありがとうございます!
257名無しさん@お腹いっぱい。
2008/03/24(月) 04:25:21ID:w4eXPHNQ0 サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
258名無しさん@お腹いっぱい。
2008/04/11(金) 08:00:28ID:JS6+SD8u0 そろそろ答えてください
2008/04/13(日) 20:04:32ID:oGL9AkZ60
まだだ、まだ答えんよ
2008/04/14(月) 19:23:15ID:v2R7+9CM0
雨は使ったことない(´・ω・`)
2008/04/18(金) 04:55:05ID:UhKCBHwm0
巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
2008/04/18(金) 05:11:53ID:Ye4EJlp40
>>261
フィルタを使えばいけます
フィルタを使えばいけます
2008/04/18(金) 14:35:41ID:UhKCBHwm0
その設定をおねがいします><
2008/04/22(火) 07:20:07ID:ZhYRKd640
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
265名無しさん@お腹いっぱい。
2008/04/26(土) 12:43:45ID:bWElsVFw0 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
2008/04/26(土) 14:34:15ID:xuojH8LA0
ダイアログに出ているタイトル
267名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:02ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
268名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:26ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
2008/05/05(月) 18:19:45ID:cHvd4SHv0
あるわけねーだろ
2008/05/05(月) 18:23:28ID:Mg38eEgV0
メモ帳
271名無しさん@お腹いっぱい。
2008/05/05(月) 18:34:59ID:t9WSIx9k0 そうですか・・・残念だぴょん・・・・・・
2008/05/05(月) 19:01:15ID:6J6AlWWJ0
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
273名無しさん@お腹いっぱい。
2008/05/05(月) 19:27:05ID:t9WSIx9k0 >>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
2008/05/05(月) 19:29:51ID:GHBwk8a80
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
おそらく保存どころか読みさえできなくなると思う
2008/05/05(月) 19:36:07ID:Mg38eEgV0
2008/05/06(火) 04:34:03ID:pWIAuxdS0
>>273
FirefoxだったらScrapBookをすすめるんだがな。
FirefoxだったらScrapBookをすすめるんだがな。
2008/05/06(火) 19:54:31ID:SBxlMPDL0
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
2008/05/10(土) 04:00:05ID:g0wuH1J20
日本語でおk
2008/05/11(日) 17:13:40ID:5I6LyxnA0
website explorer使ってる人俺以外にもいるのかな
2008/05/11(日) 20:39:05ID:OLc5kE2C0
使ってるけど丸ごと取り込みには使わないな
2008/05/12(月) 10:37:10ID:9PCKZ1Jr0
Firefox使いの俺はFownThemAll!とScrapBookだ。
2008/05/12(月) 22:24:48ID:tJ0QtoQm0
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
2008/05/12(月) 23:42:25ID:zqRUnBa00
ダウンロードソフトはダウンロード板の管轄じゃないの?
2008/05/13(火) 02:25:08ID:ErVJOT7a0
285282
2008/05/13(火) 06:41:48ID:/touQVIB0 スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
ご丁寧に教えていただきありがとうございました。
2008/05/27(火) 10:00:24ID:qJm5C59n0
gzipで送信されるページに対応した取り込みソフトはございませんか?
2008/05/30(金) 01:20:05ID:obDTDq910
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
こういうソフトもそろそろ時代遅れなのかしら…
2008/06/03(火) 01:59:41ID:V0GOfPnQ0
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
2008/06/03(火) 07:40:12ID:d5RR0Fde0
2008/06/03(火) 20:59:37ID:V0GOfPnQ0
>>289
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
291名無しさん@お腹いっぱい。
2008/06/16(月) 23:48:15ID:4NFpHfXZ0 あげ
2008/06/17(火) 07:58:10ID:iH/5XAaL0
なにか対象の指定の仕方に問題があるような気がする。
2008/07/29(火) 03:34:12ID:NXDRQEUV0
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
扱いでまとめてダウンロードできるソフトはありませんか?
294名無しさん@お腹いっぱい。
2008/08/14(木) 12:22:21ID:z6Dy8mh40 weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
2008/08/22(金) 18:44:21ID:jiDXkNV10
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
2008/08/25(月) 13:39:00ID:6nouZRD10
2008/08/31(日) 01:18:45ID:ISN52Ea80
女神板は2chじゃないから
298名無しさん@お腹いっぱい。
2008/09/10(水) 10:20:54ID:TJ6Ap/Sl0 ここの移転先教えてくれ
http://sdn255.web.fc2.com/
http://sdn255.web.fc2.com/
299HrSPwiYUsMDh
2008/09/10(水) 10:26:13ID:ddMYkNpg0 g7z0zX <a href="http://baqkzgurctep.com/">baqkzgurctep</a>, [url=http://knccjehvsqoe.com/]knccjehvsqoe[/url], [link=http://fyoddmbvukja.com/]fyoddmbvukja[/link], http://kfeaukherzmc.com/
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国外務省局長 「ポケットに手を入れていたのは寒いから」 日本との局長級会談で ★2 [お断り★]
- 高市首相答弁を“引き出した”立民・岡田克也氏が改めて説明「なぜ慎重な答弁をされなかったのか。非常に残念に思っている」 ★7 [ぐれ★]
- 中国、日本行き“50万人”キャンセル 渡航自粛でコロナ禍以来最大 ★3 [お断り★]
- 「母の部屋に安倍氏が表紙の機関誌が」「(安倍氏が被害者なのは)不思議に思いませんでした」山上被告の妹が証言 [おっさん友の会★]
- 【外交】元台湾総統・馬英九氏、高市首相発言に「台湾を危険にさらす」台湾海峡の問題は「両岸の中国人が自ら話し合うべき」★2 [1ゲットロボ★]
- 【芸能】俳優・野村宏伸 テレビドラマの制作費やギャラの現状訴え 「比べものにならない位、今は低くて…」 [冬月記者★]
- 高市早苗がいつまで引きこもってるかガチ予想スレ [358382861]
- 【実況】博衣こよりのえちえちフログロ学力テスト🧪★5
- エッヂ落ちた?
- 【悲報】ヤフコメ民「中国が水産物を輸入禁止にするなら、日本国民向けに安く販売すればいい。中国依存から脱するべき」 [153736977]
- 中国発の日本行きチケット、50万枚キャンセルwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww✈ [329329848]
- 【ぺこ専🐰】なんG 兎田ぺこら実況スレ🏡【ホロライブ▶】
