お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
0134名無しさん@お腹いっぱい。
垢版 |
2007/07/20(金) 11:53:51ID:IJa0GjXb0
巡集がメタタグで巡回拒否するのをとっぱらって
ブログDLの機能を充実させてくれたら最強だと思うんだけどな
作者はまだ株にはまってんの?
0136名無しさん@お腹いっぱい。
垢版 |
2007/07/20(金) 17:39:00ID:D7l7CXE60
Ctrlキー押しながらってやつ?
METAタグを読まないことによる弊害があるってことだけど
そこんところはどうなの?
0139名無しさん@お腹いっぱい。
垢版 |
2007/07/20(金) 21:25:37ID:VkN+zF+r0
「まともなの」が具体的には言えないただの口先野郎ってことじゃね?

そういう俺もこの手のソフトは何種類も入れてるがなーw
0141名無しさん@お腹いっぱい。
垢版 |
2007/07/20(金) 21:43:06ID:VkN+zF+r0
後出しの釣り宣言は寒いっすよ先輩
まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから
使い分けなんなりくらいすればと
0142名無しさん@お腹いっぱい。
垢版 |
2007/07/20(金) 23:57:02ID:jNElRSxC0
>>139
>「まともなの」が具体的には言えないただの口先野郎ってことじゃね?
>
>そういう俺もこの手のソフトは何種類も入れてるがなーw

かわいそうにw
0144名無しさん@お腹いっぱい。
垢版 |
2007/07/21(土) 23:46:00ID:eQqNd7ws0
ブログか…とりあえず取り込みたいページ挙げてみたら?(相手には迷惑だろうけど)
正直取りに行く興味はわかない
0147名無しさん@お腹いっぱい。
垢版 |
2007/07/22(日) 02:58:27ID:KKhFyJY+0
31 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/03/12(月) 09:08:50 ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。

これって現バージョンでも有効なん?
0148名無しさん@お腹いっぱい。
垢版 |
2007/07/22(日) 08:39:41ID:AU6DfnCq0
606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk
>>181
Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、


これ回避できなくなっていませんか?


612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606
Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避


613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612
ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?


614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。
0152名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 00:41:28ID:j9RPW2Jd0
ここは>>125みたいなソフトの話ではないの?
ページを丸ごと保存する場合だけの話?
0155名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 05:49:52ID:cR7sHFPq0
しかし、ダウンロードソフトって、いつからこんなに派手な行動をするようになったの?
ダウンロードできるものの上にポインターをおくと、
アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。
YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが
わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに
いれるかどうか選択画面があったけど、スタートアップにはいれていない。
それなのに、常駐しているみたいに勝手にたちあがる。
ダウンオタにはたまらなく魅力的なソフトだろ。
ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。
0158名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 17:04:09ID:qUygctRD0
phpで書かれているサイトで気付いたんだけど、
phpそのものはルートディレクトリに置かれているように見えるけど、
画像の相対参照を見たら、実はもう1個下の階層で動いていた

scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ
0161名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 22:09:06ID:UW4kC6EQ0
>>160
>>107と同じ
0165名無しさん@お腹いっぱい。
垢版 |
2007/08/07(火) 22:53:48ID:8FY65nq50
株日記も消えてる・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。
0167名無しさん@お腹いっぱい。
垢版 |
2007/08/15(水) 21:42:41ID:xF/zK2Ra0
>>163
ヘルプのページのミラーってあるの?
親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz
0168名無しさん@お腹いっぱい。
垢版 |
2007/08/15(水) 22:32:55ID:HzWu+63s0
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず
0169名無しさん@お腹いっぱい。
垢版 |
2007/08/15(水) 22:43:51ID:k3HM8b2B0
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。
0174名無しさん@お腹いっぱい。
垢版 |
2007/09/01(土) 16:53:11ID:UEbpedFs0
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
0175名無しさん@お腹いっぱい。
垢版 |
2007/09/15(土) 17:34:27ID:shGMdTNK0
巡集みたいにJavascriptを辿ってくれるソフトはないものか
0178名無しさん@お腹いっぱい。
垢版 |
2007/09/17(月) 11:22:10ID:wfwucYIg0
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
0179名無しさん@お腹いっぱい。
垢版 |
2007/10/03(水) 21:43:58ID:pWzSNQy50
具体的に
http://news.livedoor.com/article/detail/3312533/
このページとそこから下の各画像ページを落としたいのですが、
可能なソフトはありますか?
0180名無しさん@お腹いっぱい。
垢版 |
2007/10/06(土) 10:56:58ID:2ZPpgW+10
このスレこんなに人がいないんだ・・・
0183名無しさん@お腹いっぱい。
垢版 |
2007/10/09(火) 22:54:00ID:uQB0ZqdW0
Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
0185名無しさん@お腹いっぱい。
垢版 |
2007/10/18(木) 23:24:07ID:7tXtR67v0
巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです

0186名無しさん@お腹いっぱい。
垢版 |
2007/10/18(木) 23:36:32ID:HXM7GKrN0
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか
0187185
垢版 |
2007/10/19(金) 09:27:44ID:io5KB4Vk0
できました!
試しに風呂敷確認君で巡集を使ってみたら
chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました
ありがとうございました>>186
0188185
垢版 |
2007/10/19(金) 09:29:49ID:io5KB4Vk0
どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに
0189名無しさん@お腹いっぱい。
垢版 |
2007/10/25(木) 08:06:59ID:X9NjLM0s0
ttp://fantasticland.web.infoseek.co.jp/index.html

上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
0191名無しさん@お腹いっぱい。
垢版 |
2007/10/25(木) 20:52:21ID:MXXrESKM0
落とせないのはたぶん↓これのせい

>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。

取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
0193名無しさん@お腹いっぱい。
垢版 |
2007/11/20(火) 19:31:24ID:UO8+XWOH0
ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
0195名無しさん@お腹いっぱい。
垢版 |
2007/11/21(水) 18:58:15ID:TdDk4QuK0
すいません
不足してました
ページとしての体裁を保ってです

これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
0197名無しさん@お腹いっぱい。
垢版 |
2007/12/06(木) 21:50:51ID:R8U55YGP0
ttp://www.rolfinger.com/

みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
0198名無しさん@お腹いっぱい。
垢版 |
2007/12/19(水) 03:03:46ID:9yuHwmFr0
gethtml (コマンドラインの方)で
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
0199名無しさん@お腹いっぱい。
垢版 |
2007/12/19(水) 08:26:38ID:rzYFr4Wu0
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。

経験的にGetHTMLWはチャンクのデコード周りにバグがある。

チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。

HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
0200名無しさん@お腹いっぱい。
垢版 |
2007/12/19(水) 08:36:06ID:rzYFr4Wu0
うはw

試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw

HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
0201名無しさん@お腹いっぱい。
垢版 |
2007/12/19(水) 11:15:42ID:9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
0202名無しさん@お腹いっぱい。
垢版 |
2007/12/25(火) 11:11:24ID:GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
0203名無しさん@お腹いっぱい。
垢版 |
2007/12/25(火) 11:35:48ID:PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?

ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
0204名無しさん@お腹いっぱい。
垢版 |
2007/12/29(土) 07:39:53ID:qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。

このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。

どなたか良いアドバイスをお願いします。

84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm

85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました

こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
0206名無しさん@お腹いっぱい。
垢版 |
2008/01/13(日) 17:24:55ID:IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
0207名無しさん@お腹いっぱい。
垢版 |
2008/01/16(水) 15:18:18ID:ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?

クエリー
データベースからデータを取り出すためのフォーマット

と意味を調べたのですが、いまいちピンと来ません
0210名無しさん@お腹いっぱい。
垢版 |
2008/01/18(金) 16:46:29ID:IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
0211名無しさん@お腹いっぱい。
垢版 |
2008/01/18(金) 17:33:47ID:A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。

1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加

↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
0213211
垢版 |
2008/01/18(金) 18:54:52ID:tCWJ6AtX0
トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/

サイトメニューは画面下部。

1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル

2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi

と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
0214名無しさん@お腹いっぱい。
垢版 |
2008/01/18(金) 22:09:06ID:gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
0222名無しさん@お腹いっぱい。
垢版 |
2008/01/26(土) 19:25:30ID:h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
0223名無しさん@お腹いっぱい。
垢版 |
2008/01/26(土) 20:07:25ID:BB78zvk50
>2階層以上取り込めません

リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
0227名無しさん@お腹いっぱい。
垢版 |
2008/01/26(土) 23:17:56ID:Nych28nF0
219です。

mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv

このURLはどう見つければよいのですか?

0230名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0
初心者にお勧めの物ってどれになりますか? 

weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
0231名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
0233名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況