過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2007/08/15(水) 22:32:55ID:HzWu+63s0
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず
変更が必要な箇所はオプションの項目を見ればわかるはず
2007/08/15(水) 22:43:51ID:k3HM8b2B0
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。
俺、最新版はヘルプ見ないで使ってたよ。
2007/08/25(土) 07:27:47ID:wJoGTH6/0
10日書き込み無し。
巡集も消えたまま。
巡集も消えたまま。
2007/08/25(土) 14:25:43ID:3h2qNoKX0
まだだ・・・っ!まだ終わら(ry
2007/08/27(月) 01:53:20ID:YfjxAlx50
寿限無取り込みできないからなぁ巡集は。
2007/08/27(月) 07:47:02ID:pl/iWHG90
できると何度言えば
2007/09/01(土) 16:53:11ID:UEbpedFs0
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
175名無しさん@お腹いっぱい。
2007/09/15(土) 17:34:27ID:shGMdTNK0 巡集みたいにJavascriptを辿ってくれるソフトはないものか
2007/09/16(日) 02:04:46ID:dftJqUuf0
2007/09/17(月) 11:06:49ID:wfwucYIg0
あるのか!サンクス
2007/09/17(月) 11:22:10ID:wfwucYIg0
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
179名無しさん@お腹いっぱい。
2007/10/03(水) 21:43:58ID:pWzSNQy50180名無しさん@お腹いっぱい。
2007/10/06(土) 10:56:58ID:2ZPpgW+10 このスレこんなに人がいないんだ・・・
2007/10/06(土) 16:02:36ID:BjxdSh550
しょこタン可愛いな。
182名無しさん@お腹いっぱい。
2007/10/08(月) 20:24:11ID:LFWOR3Ya0183名無しさん@お腹いっぱい。
2007/10/09(火) 22:54:00ID:uQB0ZqdW0 Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
2007/10/10(水) 08:28:33ID:7BTa/w3d0
>>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです
Irvineのことは専用スレへ
http://pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
http://pc11.2ch.net/test/read.cgi/software/1190549945/
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです
Irvineのことは専用スレへ
http://pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
http://pc11.2ch.net/test/read.cgi/software/1190549945/
185名無しさん@お腹いっぱい。
2007/10/18(木) 23:24:07ID:7tXtR67v0 巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです
2007/10/18(木) 23:36:32ID:HXM7GKrN0
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか
それでも無理なら、Proxomitron経由にしちゃうとか
187185
2007/10/19(金) 09:27:44ID:io5KB4Vk0188185
2007/10/19(金) 09:29:49ID:io5KB4Vk0 どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに
○落ちてきたchk_proxy3.cgiというファイルに
2007/10/25(木) 08:06:59ID:X9NjLM0s0
ttp://fantasticland.web.infoseek.co.jp/index.html
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
2007/10/25(木) 08:25:35ID:X9NjLM0s0
初期設定保存→初期設定で保存
2007/10/25(木) 20:52:21ID:MXXrESKM0
落とせないのはたぶん↓これのせい
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
2007/10/25(木) 22:22:35ID:X9NjLM0s0
193名無しさん@お腹いっぱい。
2007/11/20(火) 19:31:24ID:UO8+XWOH0 ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
2007/11/20(火) 20:35:52ID:+BL7nhGN0
iriaかIrvine
195名無しさん@お腹いっぱい。
2007/11/21(水) 18:58:15ID:TdDk4QuK0 すいません
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
2007/11/21(水) 19:52:04ID:yPEtRi6u0
FWがブロックしてんじゃないの?
197名無しさん@お腹いっぱい。
2007/12/06(木) 21:50:51ID:R8U55YGP0 ttp://www.rolfinger.com/
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
198名無しさん@お腹いっぱい。
2007/12/19(水) 03:03:46ID:9yuHwmFr0 gethtml (コマンドラインの方)で
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
2007/12/19(水) 08:26:38ID:rzYFr4Wu0
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
2007/12/19(水) 08:36:06ID:rzYFr4Wu0
うはw
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
2007/12/19(水) 11:15:42ID:9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
2007/12/25(火) 11:11:24ID:GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
2007/12/25(火) 11:35:48ID:PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
2007/12/29(土) 07:39:53ID:qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
2007/12/30(日) 23:06:29ID:qlo4Nzf+0
はい
2008/01/13(日) 17:24:55ID:IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
IE6ならアドレスバー右のアイコンドラッグでもいい
2008/01/16(水) 15:18:18ID:ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
2008/01/16(水) 16:23:20ID:OFGCoOwC0
&や=で区切られてるURLをDLするんじゃないかと
2008/01/16(水) 16:23:53ID:OFGCoOwC0
?とか
2008/01/18(金) 16:46:29ID:IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
2008/01/18(金) 17:33:47ID:A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
2008/01/18(金) 18:31:47ID:gw9zl8ah0
URLを晒せば誰かが解析してくれるよ
213211
2008/01/18(金) 18:54:52ID:tCWJ6AtX0 トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
2008/01/18(金) 22:09:06ID:gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
海外では ~ ってあまり使われないのか
2008/01/24(木) 06:32:37ID:JD3lJ93I0
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
2008/01/24(木) 07:32:08ID:oN1Lok+h0
株にはまりすぎて開発してる暇がなくなったんじゃ
2008/01/25(金) 06:37:21ID:NApTe0zp0
ベクターの作者ページへのリンクが
2008/01/25(金) 07:44:23ID:Uo5ZCYg70
どうした?
219名無しさん@お腹いっぱい。
2008/01/25(金) 17:45:12ID:pOdyTSFw0 http://bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
2008/01/25(金) 22:06:45ID:VQ1m2IF90
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
2008/01/25(金) 22:12:43ID:xmvyWrR/0
2008/01/26(土) 19:25:30ID:h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
2008/01/26(土) 20:07:25ID:BB78zvk50
>2階層以上取り込めません
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
2008/01/26(土) 20:50:47ID:h3xkz2eJ0
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
2008/01/26(土) 22:17:45ID:Vw9+2j2y0
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
2008/01/26(土) 22:20:24ID:Vw9+2j2y0
続き
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
227名無しさん@お腹いっぱい。
2008/01/26(土) 23:17:56ID:Nych28nF0 219です。
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
2008/01/26(土) 23:34:13ID:Vw9+2j2y0
2008/01/27(日) 04:41:59ID:2s4iBkil0
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
230名無しさん@お腹いっぱい。
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0 初心者にお勧めの物ってどれになりますか?
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
2008/01/27(日) 10:20:40ID:suXR9EeP0
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
俺がロックフェラーならパトロンになってやるんだが
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
2008/01/27(日) 11:58:42ID:2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
中身を「フィルタ」で検索してみるがよろし
2008/01/27(日) 12:50:55ID:Xxz+W6Ae0
2008/01/27(日) 13:39:28ID:s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
2008/01/27(日) 19:04:30ID:2s4iBkil0
2008/01/30(水) 01:36:11ID:NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
これはどうしようもないの?
それとも他のならできる?
2008/02/08(金) 00:48:18ID:LyUhp1gB0
http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
2008/02/11(月) 20:21:44ID:dYHnvlVd0
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
241名無しさん@お腹いっぱい。
2008/02/12(火) 01:13:13ID:jIBSXkqy0 Super Capture ってなくなっちゃったんですか?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
2008/02/12(火) 15:44:15ID:pEdZWnO30
243名無しさん@お腹いっぱい。
2008/02/12(火) 21:02:05ID:Ftzz/E6Q0 http://www.gymfan.de/gym_pic.html
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
244名無しさん@お腹いっぱい。
2008/02/12(火) 22:45:39ID:S2Vi01b30 取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
2008/02/12(火) 23:31:39ID:v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
246名無しさん@お腹いっぱい。
2008/02/12(火) 23:48:23ID:jIBSXkqy0 >>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
2008/02/13(水) 01:43:15ID:95oy4e+k0
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
2008/02/13(水) 01:49:38ID:mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
なんなら -screen くっつけて検索汁。
2008/02/13(水) 01:53:22ID:zIVsZC2A0
251名無しさん@お腹いっぱい。
2008/03/02(日) 15:32:26ID:SlT8oVxO0252名無しさん@お腹いっぱい。
2008/03/02(日) 22:55:44ID:XBPQmEY902008/03/04(火) 23:58:34ID:8O1P5E4A0
irvineでも巡集でもURLを直接指定すればええやん
2008/03/18(火) 21:59:21ID:ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
2008/03/19(水) 12:43:47ID:YKorTSpT0
>>254
んなわけない
んなわけない
2008/03/20(木) 01:58:21ID:m223Zsx40
ありがとうございます!
257名無しさん@お腹いっぱい。
2008/03/24(月) 04:25:21ID:w4eXPHNQ0 サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
258名無しさん@お腹いっぱい。
2008/04/11(金) 08:00:28ID:JS6+SD8u0 そろそろ答えてください
2008/04/13(日) 20:04:32ID:oGL9AkZ60
まだだ、まだ答えんよ
2008/04/14(月) 19:23:15ID:v2R7+9CM0
雨は使ったことない(´・ω・`)
2008/04/18(金) 04:55:05ID:UhKCBHwm0
巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
2008/04/18(金) 05:11:53ID:Ye4EJlp40
>>261
フィルタを使えばいけます
フィルタを使えばいけます
2008/04/18(金) 14:35:41ID:UhKCBHwm0
その設定をおねがいします><
2008/04/22(火) 07:20:07ID:ZhYRKd640
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
265名無しさん@お腹いっぱい。
2008/04/26(土) 12:43:45ID:bWElsVFw0 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
2008/04/26(土) 14:34:15ID:xuojH8LA0
ダイアログに出ているタイトル
267名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:02ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
268名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:26ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- ネット殺到「高市総理の責任」「完全に高市リスク」「負けるな」中国が水産物輸入停止→流石に総理批判の声も「どう責任取る?」 ★4 [樽悶★]
- 【🐼🇨🇳】「高市総理VS中国」で日本からパンダはゼロに? 上野動物園「パンダ返還期限」まであと3カ月… [BFU★]
- 「“なり得る”って言っただけだから…」高市早苗“存立危機”答弁後に漏らした本音 ★3 [Hitzeschleier★]
- 歩道で93歳男性が女子大学生の自転車にはねられ意識不明 坂を下った先「気付いたときには目の前に」 [七波羅探題★]
- 【速報】 米大使声明 「日本を支えていく」「中国が威圧的手段に訴えるのは断ち難い悪癖」 [お断り★]
- 中国外務省局長 「ポケットに手を入れていたのは寒いから」 日本との局長級会談で ★4 [お断り★]
- 日本「中国のレアアースに71%依存してます。2024年のデータです」 ネトウヨ「え?youtube解説と違うんだけど」 [633746646]
- テレビ局各社が高市首相を一切批判せず中国批判を展開 安倍時代の報道完全復活 [633746646]
- 🍣にゃっはろ🌸~スシろ~🏡
- ネトウヨ諸君、言葉を慎みたまえ。中国側は俺がネトウヨに何言われたかも監視してる [805596214]
- ドラクエ7プロデューサー「リメイク版でエピソードを大幅カットしたのは忙しい現代人に配慮した結果です」 [153736977]
- 石破が首相のままで良かった件、高市に代わって滅茶苦茶なの分かってたのに、メディア(読売)裏金議員、ビジウヨの罪は大きいと思う [943688309]
