過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2007/02/06(火) 19:14:55ID:/qPOMJxv0
【アップローダー】
必ずPCからの閲覧を許可に設定して下さい。
動画の場合「保存許可」や「ダウンロード許可」も設定して下さい。
■静止画専用 イメぴた(http://imepita.jp) 送信先アドレス:p@imepita.jp (1ページに1枚・追加不可)
■動画専用 UPdoga(http://www.updoga.com/) 送信先アドレス:upp@updoga.com (PCからの投稿不可)
■@ピタ(http://pita.st/) 送信先アドレス:up@pita.st (4:20am〜4:40am 定期メンテ)
■ナショナルアドレス(http://new.cx/) 送信先アドレス:up@new.cx (8:00pm〜4:00amはPCからの閲覧不可)
■ピクト(http://www.pic.to/) 送信先アドレス:up@pic.to (7:00pm〜4:00amはPCからの閲覧不可)
■あぷあぷ(http://upup.be/) 送信先アドレス:up@upup.be (最大6枚/500kb・動画可)
※@ピタ利用の際のお願い
@ピタはauユーザーが動画を見れませんので、携帯向けにナショナルアドレスにもアップロードして頂くか、
【静止画】@ピタ【動画】UPdoga という様に使い分けをして頂けると幸いです。
お手数をおかけしますが宜しくお願いします。
必ずPCからの閲覧を許可に設定して下さい。
動画の場合「保存許可」や「ダウンロード許可」も設定して下さい。
■静止画専用 イメぴた(http://imepita.jp) 送信先アドレス:p@imepita.jp (1ページに1枚・追加不可)
■動画専用 UPdoga(http://www.updoga.com/) 送信先アドレス:upp@updoga.com (PCからの投稿不可)
■@ピタ(http://pita.st/) 送信先アドレス:up@pita.st (4:20am〜4:40am 定期メンテ)
■ナショナルアドレス(http://new.cx/) 送信先アドレス:up@new.cx (8:00pm〜4:00amはPCからの閲覧不可)
■ピクト(http://www.pic.to/) 送信先アドレス:up@pic.to (7:00pm〜4:00amはPCからの閲覧不可)
■あぷあぷ(http://upup.be/) 送信先アドレス:up@upup.be (最大6枚/500kb・動画可)
※@ピタ利用の際のお願い
@ピタはauユーザーが動画を見れませんので、携帯向けにナショナルアドレスにもアップロードして頂くか、
【静止画】@ピタ【動画】UPdoga という様に使い分けをして頂けると幸いです。
お手数をおかけしますが宜しくお願いします。
2007/02/06(火) 19:17:04ID:iHoHF+zi0
そ れ P l a g g e r で
2007/02/06(火) 19:22:12ID:SEh3Iu6i0
巡集
http://sdn255.web.fc2.com/
GetHTML
http://www.vector.co.jp/soft/win95/net/se077066.html
GetHTMLW
http://www.vector.co.jp/soft/win95/net/se077067.html
WeBoX
http://www-nishio.ist.osaka-u.ac.jp/~nakamura/webox/index.html
GetYou!
http://www.vector.co.jp/soft/win95/net/se076215.html
Offline Explorer(30ドル、英語、買うまでお勧めできるかというとちょっと…)
http://www.metaproducts.com/mp/mpProducts_Detail.asp?id=1
WinHTTrack(サイトは英語、中身は日本語)
http://www.httrack.com/page/2/en/index.html
<解説ページ> http://hetoheto.hp.infoseek.co.jp/022HTTrack/mokuji.htm
Teleport Pro(39.95ドル)
http://tenmax.com/teleport/pro/home.htm
ダウンローダー総合スレ
http://pc9.2ch.net/test/read.cgi/software/1162627679/
【Berry】画像掲示板巡回ソフトその2【moeBBS他】
http://pc9.2ch.net/test/read.cgi/software/1160984698/
【サイト取り込み】WeBoX part5【ダウンロード】
http://pc9.2ch.net/test/read.cgi/software/1133114304/
http://sdn255.web.fc2.com/
GetHTML
http://www.vector.co.jp/soft/win95/net/se077066.html
GetHTMLW
http://www.vector.co.jp/soft/win95/net/se077067.html
WeBoX
http://www-nishio.ist.osaka-u.ac.jp/~nakamura/webox/index.html
GetYou!
http://www.vector.co.jp/soft/win95/net/se076215.html
Offline Explorer(30ドル、英語、買うまでお勧めできるかというとちょっと…)
http://www.metaproducts.com/mp/mpProducts_Detail.asp?id=1
WinHTTrack(サイトは英語、中身は日本語)
http://www.httrack.com/page/2/en/index.html
<解説ページ> http://hetoheto.hp.infoseek.co.jp/022HTTrack/mokuji.htm
Teleport Pro(39.95ドル)
http://tenmax.com/teleport/pro/home.htm
ダウンローダー総合スレ
http://pc9.2ch.net/test/read.cgi/software/1162627679/
【Berry】画像掲示板巡回ソフトその2【moeBBS他】
http://pc9.2ch.net/test/read.cgi/software/1160984698/
【サイト取り込み】WeBoX part5【ダウンロード】
http://pc9.2ch.net/test/read.cgi/software/1133114304/
2007/02/06(火) 19:23:28ID:SEh3Iu6i0
適当にリンクを拾ってみました
スレを斜め読みすると過去の書き込みの情報がかなり重要だと思うのですがとても追い切れません
スレを斜め読みすると過去の書き込みの情報がかなり重要だと思うのですがとても追い切れません
2007/02/08(木) 04:53:43ID:g+iNFN1T0
>>1おつ
2007/02/08(木) 17:26:52ID:WWG7vakV0
乙
2007/02/10(土) 18:26:33ID:vydLZCQW0
未だに、更新のあるソフトの中でまともなのが無い件
9名無しさん@お腹いっぱい。
2007/02/11(日) 21:23:36ID:jHpRrofD0 更新ないソフトでまともなのは?
10名無しさん@お腹いっぱい。
2007/02/15(木) 01:26:37ID:Pl5f6i4o0 hpに画像がサーバー外の画像のリンクから
画像を読み出して表示してるバナー広告とかサムネイル
みたいな場合でキャプチャみたいにその外部の画像の表示もそのまま
ローカルに保存できるソフトってありますか?
キャプチャでもいいんですがそれだとリンクが使えないので
画像を読み出して表示してるバナー広告とかサムネイル
みたいな場合でキャプチャみたいにその外部の画像の表示もそのまま
ローカルに保存できるソフトってありますか?
キャプチャでもいいんですがそれだとリンクが使えないので
2007/02/15(木) 16:38:15ID:xGyut0QH0
普通にできるだろ
2007/02/17(土) 21:22:38ID:Bvr9jzjZ0
フレームも含めて全体を取り込む事ができないツールばっかりだな
2007/02/18(日) 22:37:03ID:B7D3YFzL0
できるけど
2007/02/20(火) 15:09:45ID:e2t4e5vo0
wikiを保存できるソフトって無いかな?
2007/02/20(火) 23:10:34ID:d0tVJ95D0
ズームイン
2007/02/22(木) 19:07:07ID:4/p4xaLh0
wikiってなんであんな糞なの?
項目名に日本語が含まれてるだけでブラウザでまともに保存すらできないし、
保存できたとしても、リンクのアドレスが文字化けしてめちゃくちゃ。
項目名に日本語が含まれてるだけでブラウザでまともに保存すらできないし、
保存できたとしても、リンクのアドレスが文字化けしてめちゃくちゃ。
2007/02/24(土) 19:03:37ID:mPdOutYY0
ローカルに保存するなってことだろう
どうしても必要ならGetHTMLWのProxyMode2でいけないこともない
どうしても必要ならGetHTMLWのProxyMode2でいけないこともない
2007/02/25(日) 09:58:28ID:3/oOlfpO0
巡集でインターネットアーカイブを取り込める方法はあるんでしょうか?
2007/02/25(日) 10:19:57ID:+miNcfmr0
>>18
あえて言おう、Weboxとw
あえて言おう、Weboxとw
2007/02/25(日) 14:28:16ID:3/oOlfpO0
2007/02/25(日) 23:45:44ID:eNlSPLFM0
巡集うpキタ
ver 1.7.1A (2007/02/25)
*ブログサイトのダウンロード精度を向上。
*User-Agentのランダム設定で落ちるバグを修正。
ver 1.7.1A (2007/02/25)
*ブログサイトのダウンロード精度を向上。
*User-Agentのランダム設定で落ちるバグを修正。
2007/02/26(月) 12:53:05ID:CEVJf6Ud0
>>18
できるけど
できるけど
2007/02/28(水) 23:14:28ID:SH0Duyi80
ウェブオートがないね?相変わらず愛用してるんだけど
2007/03/03(土) 11:40:21ID:wPSSr1HZ0
Local Website Archive
ttp://aignes.com/download.htm
どうでそ
ttp://aignes.com/download.htm
どうでそ
2007/03/10(土) 01:51:22ID:1W/LjUSi0
巡集が連邦のTOPでふれられてるな・・・・
2007/03/10(土) 10:13:23ID:mcy/iIRK0
見てきた
巡集作者の株日記って面白いのか
今度ゆっくり見てみよう
巡集作者の株日記って面白いのか
今度ゆっくり見てみよう
2007/03/10(土) 17:03:30ID:uULWbJDt0
>>14
firefoxの拡張のscrapbook。
簡単で、まともに保存できるのはこれくらいの気がする。
ただ、時間がかなりかかる(待機時間があるため)。
この待機時間がなければ、もっと軽快なんだけど。
firefoxの拡張のscrapbook。
簡単で、まともに保存できるのはこれくらいの気がする。
ただ、時間がかなりかかる(待機時間があるため)。
この待機時間がなければ、もっと軽快なんだけど。
28名無しさん@お腹いっぱい。
2007/03/11(日) 09:36:46ID:m++gCE8F0 朝鮮人の糞サイトがどうしようもねー。
全てのページをひとつのphpで振り分けやがる上に、ページ表示のバリエーションの条件をURLにぶちこんでいるから全てのパターンを拾いやがる。
同じベージを何百回も落としてる感じ。死ねよ。
全てのページをひとつのphpで振り分けやがる上に、ページ表示のバリエーションの条件をURLにぶちこんでいるから全てのパターンを拾いやがる。
同じベージを何百回も落としてる感じ。死ねよ。
2007/03/11(日) 11:11:38ID:7FjXboN90
チョンサイトなんか取り込む価値ないだろ
2007/03/12(月) 01:40:40ID:g6wu4dAt0
巡集はそこはかとなくバージョンアップしているけどどこでバージョン上げたらいいか分からないな
未だに勝手知ったる古いバージョンのまま
未だに勝手知ったる古いバージョンのまま
2007/03/12(月) 09:08:50ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。
これって現バージョンでも有効なん?
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。
これって現バージョンでも有効なん?
32こまったさん
2007/03/21(水) 23:32:49ID:SFbcr1In0 他の掲示板にも書込みしたのですが返信がないのでこちらにも書かせて
いただきます。パソコンのソフトを探しています。
まずキャプチャソフトで、そのページの画面に表示されている部分だけではなく
上から下まで全てキャプチャ出来るソフトでなおかつjpegなど画像形式での保存ではなくhtml形式で保存が出来るソフト。
もっと具体的な内容なのですが、例えば
・ttp://www.windsor-hotels.co.jp/0601/hotel/main.html
のサイトのキャプチャをしたいのですがどうしても、保存しても真っ白になって表示されたり、
00/100のように表示されてしまいます。
次に、最近多いFlashを使用したWebサイトをFlashも含めて丸ごとサイト自体を保存できるソフト。
・ttp://www.actors.jp/home.htm
のサイトを丸ごとインターネットで接続して閲覧しているときと同じように保存したいのですが、
それもどうしても真っ白になって表示されたりしてしまいます。
を探しています。いずれもFlashのみの保存ではなくWebページ全体での保存が希望です。
フリーソフトでもシェアソフトでも構いません。
今までベクターで検索したり、色々と購入して試してきましたが理想通りに保存できず・・・。
皆さんの知識を教えていただければ助かります。よろしくお願いします。
いただきます。パソコンのソフトを探しています。
まずキャプチャソフトで、そのページの画面に表示されている部分だけではなく
上から下まで全てキャプチャ出来るソフトでなおかつjpegなど画像形式での保存ではなくhtml形式で保存が出来るソフト。
もっと具体的な内容なのですが、例えば
・ttp://www.windsor-hotels.co.jp/0601/hotel/main.html
のサイトのキャプチャをしたいのですがどうしても、保存しても真っ白になって表示されたり、
00/100のように表示されてしまいます。
次に、最近多いFlashを使用したWebサイトをFlashも含めて丸ごとサイト自体を保存できるソフト。
・ttp://www.actors.jp/home.htm
のサイトを丸ごとインターネットで接続して閲覧しているときと同じように保存したいのですが、
それもどうしても真っ白になって表示されたりしてしまいます。
を探しています。いずれもFlashのみの保存ではなくWebページ全体での保存が希望です。
フリーソフトでもシェアソフトでも構いません。
今までベクターで検索したり、色々と購入して試してきましたが理想通りに保存できず・・・。
皆さんの知識を教えていただければ助かります。よろしくお願いします。
2007/03/22(木) 01:20:24ID:6cAWaJRR0
マルチポスト乙
2007/03/22(木) 03:29:11ID:mWobe70O0
>今までベクターで検索したり、色々と購入して試してきましたが
詳しく。
詳しく。
35こまったさん
2007/03/22(木) 05:05:00ID:9uATb/Gl0 >>34
今まで試してきたソフトは沢山ありすぎますが記載させていただきます。
<キャプチャソフト>
HyperShot/Instant Camera/SCap/Super Capture (スーパーキャプチャー)
WebScan/メモメモ+/Atropos/AutoCapture/ClipDesk/CrenaHtml2jpg
EasyCapture 2002/EzCutter/GOLD Japan Snap/IECapture/MiCapture
PHARMACY/ViewletBuilder4 PRO/WebExe/Webよ止まれ 〜EternalWeb〜
WinCapture/WinCatch!!/WinShot/みやきゃっぷ/ワンタッチ全画面キャプチャ
ワンタッチ全画面キャプチャ2/画像キャプチャ「おとりなさい」/画面キャプチャ君
画面ライター
<ダウンロードソフト>
1・2のHTMLダウンロード From CGI/INTERNET POWER DOWNLOAD 3.0
iScrap/ダウンロードNinja 4 for Windows/ダウンロードSpider4
驚速ダウンロードSUPER/紙copi/AutoURL!/CompleteGetter
EasyWebHunter/File Picker/Firefox/FlashGet (JetCar)/GetHTML
GetHTMLW/PageDown/webget/WeBoX/WEB収集ブラウザ/ダウンローダー雨
波乗野郎
になります。よろしくお願いします。
今まで試してきたソフトは沢山ありすぎますが記載させていただきます。
<キャプチャソフト>
HyperShot/Instant Camera/SCap/Super Capture (スーパーキャプチャー)
WebScan/メモメモ+/Atropos/AutoCapture/ClipDesk/CrenaHtml2jpg
EasyCapture 2002/EzCutter/GOLD Japan Snap/IECapture/MiCapture
PHARMACY/ViewletBuilder4 PRO/WebExe/Webよ止まれ 〜EternalWeb〜
WinCapture/WinCatch!!/WinShot/みやきゃっぷ/ワンタッチ全画面キャプチャ
ワンタッチ全画面キャプチャ2/画像キャプチャ「おとりなさい」/画面キャプチャ君
画面ライター
<ダウンロードソフト>
1・2のHTMLダウンロード From CGI/INTERNET POWER DOWNLOAD 3.0
iScrap/ダウンロードNinja 4 for Windows/ダウンロードSpider4
驚速ダウンロードSUPER/紙copi/AutoURL!/CompleteGetter
EasyWebHunter/File Picker/Firefox/FlashGet (JetCar)/GetHTML
GetHTMLW/PageDown/webget/WeBoX/WEB収集ブラウザ/ダウンローダー雨
波乗野郎
になります。よろしくお願いします。
2007/03/22(木) 09:07:08ID:Vttpzofp0
巡集は?
2007/03/22(木) 16:16:32ID:mWobe70O0
>>35
ブラウザのファイルメニューから保存を選択すればよろしい。
ブラウザのファイルメニューから保存を選択すればよろしい。
2007/03/22(木) 20:14:11ID:NBcFje480
2007/03/23(金) 06:25:27ID:PBBDt6fb0
> 巡集は?
それ Plagger で。
それ Plagger で。
2007/03/23(金) 08:47:04ID:vfc6iUOY0
めんどくさそう
ttp://www.otsune.com/fswiki/plagger.html
ttp://www.otsune.com/fswiki/plagger.html
42名無しさん@お腹いっぱい。
2007/03/25(日) 21:49:09ID:QJr1/7Rw0 ダウンロードリストにて出力ファイル、フォルダ等を指定して
ダウンロードできるようなソフトってありますでしょうか?
ダウンロードできるようなソフトってありますでしょうか?
2007/03/25(日) 22:40:31ID:0FOGxNpt0
44名無しさん@お腹いっぱい。
2007/04/25(水) 20:11:26ID:5UFLTEQ+0 GETHTMLWで取得終了しましたが、トップページからリンクされている
別のサイトのページが取得できていませんでした。
別のサイトのページだけ取得するにはどうすればいいでしょうか。
別のサイトのページが取得できていませんでした。
別のサイトのページだけ取得するにはどうすればいいでしょうか。
2007/04/25(水) 21:12:34ID:tskrCebI0
ttp://jugem.jp
ここのブログを使ったサイトをDLしたいのですが
巡集ではうまく落とすことができず困っています
「ダウンロードするURL」欄にhttp:/******.jugem.jpといれて
ダウンロード開始ボタンを押しているのに
そのページにリンクされてるページがDLできないのです
どなたかブログを丸ごと取り込むコツを教えてください
また巡集以外で簡単に取り込めるソフトがあればおしえてください
ここのブログを使ったサイトをDLしたいのですが
巡集ではうまく落とすことができず困っています
「ダウンロードするURL」欄にhttp:/******.jugem.jpといれて
ダウンロード開始ボタンを押しているのに
そのページにリンクされてるページがDLできないのです
どなたかブログを丸ごと取り込むコツを教えてください
また巡集以外で簡単に取り込めるソフトがあればおしえてください
2007/04/25(水) 22:06:10ID:MVpOPi4X0
ttp://***.jugem.jp/?month=200506
ttp://***.jugem.jp/?month=200507
こんなのがログみたいだから、
連番作成して適当なダウンローダーで落としたらどうかな
サイト構造の維持は厳しいだろうけど
ttp://***.jugem.jp/?month=200507
こんなのがログみたいだから、
連番作成して適当なダウンローダーで落としたらどうかな
サイト構造の維持は厳しいだろうけど
2007/04/25(水) 22:45:13ID:tskrCebI0
2007/05/03(木) 19:13:33ID:qXeb/TgM0
TeleportがSWFリンク辿ってくれたらなあ…
49名無しさん@お腹いっぱい。
2007/05/11(金) 21:12:46ID:deAEqze90 HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
2007/05/11(金) 21:38:41ID:mMovTTY80
>>48
遅レスながら同意
遅レスながら同意
2007/05/11(金) 21:44:26ID:i6HOkKUj0
NT一本で十分だろ。
2007/05/11(金) 21:44:57ID:i6HOkKUj0
スレチすいませんでした。
2007/05/12(土) 16:53:59ID:t4vHNRDV0
GETHTMLWが8になったね
2007/05/13(日) 15:18:33ID:p2YpN1ad0
SDP Downloaderについての質問です。
このソフトでcmm://〜.wmvというファイルをダウンロードしているんですが、
何度やっても99%のところで止まってしまいます。
どうすれば100%にできるんでしょうか?
このソフトでcmm://〜.wmvというファイルをダウンロードしているんですが、
何度やっても99%のところで止まってしまいます。
どうすれば100%にできるんでしょうか?
2007/05/13(日) 16:26:52ID:q23NirUR0
今の取り込みソフトって、ロールオーバーって取り込めるソフトが大半なの?
それとも全く無いの?
昔、ダウンロードNINJAで1→2→3と試してもことごとく出来なかったから、
もう取り込みはあきらめてしまったのだが。
できるんなら、また取り込みやってみようかなと思うんだが。
それとも全く無いの?
昔、ダウンロードNINJAで1→2→3と試してもことごとく出来なかったから、
もう取り込みはあきらめてしまったのだが。
できるんなら、また取り込みやってみようかなと思うんだが。
2007/05/13(日) 17:16:29ID:WJenwP960
2007/05/14(月) 15:34:51ID:v+uhQcsb0
XPSP2
巡集 ver 1.7.1A
巡集のlog開いた時の「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
前使ってた時は、小さかったんですが、新しく入れなおしたら、ちょっと大きくなってました。
ブラウザの文字の大きさの設定は「最大」ですが
前の巡集は、ブラウザの設定で言うと「中」の大きさでした。
後 「2007/05/14 15:11 : webサイト名 : URL」
とかってなってますが、URLの部分を消した状態で保存する事って出来ないでしょうか?
両方ともlogをメモ帳とかで開いて、書き換えるしかないですか?
文字の大きさは、何もしなくても小さかったと思うんですが・・・。
今のlogは↓のようになっています、どなたか教えてください。
長くなってすいません、よろしくお願いします。
<html>
<head>
<META http-equiv="Content-Type" content="text/html; charset=Shift_JIS">
<title>HTML参照</title>
</head>
<body>
2007/05/14 15:11 : <a href="ファイルが保存されているパス">タイトル</a> : <font color=red>URL</font><br>
</body>
</html>
巡集 ver 1.7.1A
巡集のlog開いた時の「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
前使ってた時は、小さかったんですが、新しく入れなおしたら、ちょっと大きくなってました。
ブラウザの文字の大きさの設定は「最大」ですが
前の巡集は、ブラウザの設定で言うと「中」の大きさでした。
後 「2007/05/14 15:11 : webサイト名 : URL」
とかってなってますが、URLの部分を消した状態で保存する事って出来ないでしょうか?
両方ともlogをメモ帳とかで開いて、書き換えるしかないですか?
文字の大きさは、何もしなくても小さかったと思うんですが・・・。
今のlogは↓のようになっています、どなたか教えてください。
長くなってすいません、よろしくお願いします。
<html>
<head>
<META http-equiv="Content-Type" content="text/html; charset=Shift_JIS">
<title>HTML参照</title>
</head>
<body>
2007/05/14 15:11 : <a href="ファイルが保存されているパス">タイトル</a> : <font color=red>URL</font><br>
</body>
</html>
2007/05/14(月) 16:18:41ID:934RTAGf0
>「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
巡集は関係ないんじゃないか?
使ってるブラウザの設定の問題だろ
>URLの部分を消した状態で保存する事って出来ないでしょうか?
なぜ消したいのかが理解できないが、「URLの部分」だけ消すことはできない
HTML参照(log)そのものを残したくないなら設定→保存→履歴HTMLのチェックを外せばいい
巡集は関係ないんじゃないか?
使ってるブラウザの設定の問題だろ
>URLの部分を消した状態で保存する事って出来ないでしょうか?
なぜ消したいのかが理解できないが、「URLの部分」だけ消すことはできない
HTML参照(log)そのものを残したくないなら設定→保存→履歴HTMLのチェックを外せばいい
5957
2007/05/14(月) 16:21:11ID:v+uhQcsb02007/05/14(月) 16:57:50ID:934RTAGf0
>>59
俺の巡集logにはそんな記述はないので、小さくなってたと思いますと言われても
ああそうですかとしか答えられない
後半は無理。
>「URLの部分」だけ消すことはできない
って書いただろ?
それでもあえて消したいなら、自分で書きかえるか全部消すしかないってことですよ
俺の巡集logにはそんな記述はないので、小さくなってたと思いますと言われても
ああそうですかとしか答えられない
後半は無理。
>「URLの部分」だけ消すことはできない
って書いただろ?
それでもあえて消したいなら、自分で書きかえるか全部消すしかないってことですよ
2007/05/14(月) 17:05:06ID:AYp/+A+V0
漏れならSpeeeedでスタイルシートを挿入して
URLの部分を消すけどね
それだとログの追加時におかしくなる可能性はあるけども
このソフトは時々行方知れずになったから
探せば文字小な過去ヴァージョンをうpしてるところもあるんじゃないの
URLの部分を消すけどね
それだとログの追加時におかしくなる可能性はあるけども
このソフトは時々行方知れずになったから
探せば文字小な過去ヴァージョンをうpしてるところもあるんじゃないの
2007/05/14(月) 17:09:46ID:934RTAGf0
念のために昔のバージョン1.44とと1.56と最新バージョン1.7.1Aのlogを比べてみたけど
全く同じだったよ
全く同じだったよ
2007/05/14(月) 17:15:39ID:934RTAGf0
もしかして1.00とかの超初期バージョンの話なのか?
だったら作者さんに要望を出したほうが早いんじゃないかねえ
だったら作者さんに要望を出したほうが早いんじゃないかねえ
64名無しさん@お腹いっぱい。
2007/05/23(水) 11:48:30ID:p9K8Da5+0 rapgetでプロクシリストごと登録してひたすら待ってるんですが
いっこうに落ちてきません。これって自動的にリストにあるプロクシを
切り替えるんですよね?!(´・ω・`)
いっこうに落ちてきません。これって自動的にリストにあるプロクシを
切り替えるんですよね?!(´・ω・`)
2007/05/23(水) 11:57:25ID:Ht77tPJ30
2007/05/24(木) 18:28:19ID:P17Tzbhp0
巡集の最新版で、下記HPを保存しようとしましたが
画像が保存できませんでした。設定を何も変更していないのがいけないのでしょうか?
ttp://blog.goo.ne.jp/japanarts_mballet/
weBOXでは取り込みできましたが、後からの閲覧の簡単さからすると巡集が嬉しいのですが
どうすれば、画像も取り込めるようになりますか?
画像が保存できませんでした。設定を何も変更していないのがいけないのでしょうか?
ttp://blog.goo.ne.jp/japanarts_mballet/
weBOXでは取り込みできましたが、後からの閲覧の簡単さからすると巡集が嬉しいのですが
どうすれば、画像も取り込めるようになりますか?
2007/05/24(木) 18:56:12ID:BTZH/2CX0
プログラムはあなたが望んだように動くのではない
あなたが命じたように動く
あなたが命じたように動く
2007/05/27(日) 07:01:51ID:vY46+4wG0
晒すなよくず
2007/05/27(日) 09:54:24ID:84NDCMzr0
サイト管理人降臨?
2007/06/03(日) 09:43:11ID:gej6GeXW0
このCM映像ダウンロードしたいのですが、可能なソフトないでしょうか?
http://www.suntory.co.jp/softdrink/oolongtea/cm/album.html
http://www.suntory.co.jp/softdrink/oolongtea/cm/album.html
2007/06/03(日) 09:50:45ID:jVi4CScL0
72名無しさん@お腹いっぱい。
2007/06/07(木) 04:27:10ID:w9jL1zcV0 ダウンロードソフトって、どうして必要なのか、わからなくて、
とりあえず、無料のソフトをおもいきり、いれてみた。
それで、インターネットをブラウジングしていると、動画とか音楽のサイトを
見ていると、わけのわからないアイコンがいくつも出てくる。
邪魔だから消す目的で、適当にいじると、勝手にダウンロードが始まって、
ビビった。それも、複数のソフトで同じファイルを同時ダウンロードするんだね。
これで、やっとダウンロードソフトの意味がわかった。
急いで、アンイストールしたのはいうまでもない。
つくづく漏れってパソコン暦長いのにアホだと思ったよ。
とりあえず、無料のソフトをおもいきり、いれてみた。
それで、インターネットをブラウジングしていると、動画とか音楽のサイトを
見ていると、わけのわからないアイコンがいくつも出てくる。
邪魔だから消す目的で、適当にいじると、勝手にダウンロードが始まって、
ビビった。それも、複数のソフトで同じファイルを同時ダウンロードするんだね。
これで、やっとダウンロードソフトの意味がわかった。
急いで、アンイストールしたのはいうまでもない。
つくづく漏れってパソコン暦長いのにアホだと思ったよ。
2007/06/07(木) 12:18:09ID:+MIU/Wbh0
文才があるな
2007/06/08(金) 12:43:31ID:llkTmUkg0
>>72
必要な理由
ブラウザの右クリックで保存するよりも速いから
ダウンロード後のファイルの整理をしやすいから
等など色々理由はあるけどここでいう「ダウンロード」は
閉鎖前のサイトをダウンロードしてローカルで閲覧したりとかそーゆー・・・
必要な理由
ブラウザの右クリックで保存するよりも速いから
ダウンロード後のファイルの整理をしやすいから
等など色々理由はあるけどここでいう「ダウンロード」は
閉鎖前のサイトをダウンロードしてローカルで閲覧したりとかそーゆー・・・
75名無しさん@お腹いっぱい。
2007/06/09(土) 22:41:03ID:HLXTvkEK0 まるごとダウンロードと書いてあっても、swfの取り込みは簡単でないね。
swf取り込んでも、ページに配置されてなかったりとか、、。
みんなどうしてんの?
swf取り込んでも、ページに配置されてなかったりとか、、。
みんなどうしてんの?
2007/06/09(土) 22:46:06ID:4465SMjJ0
そんなの糞サイトだと罵る
ダウンロードするしないに限らずね
ダウンロードするしないに限らずね
2007/06/10(日) 00:04:43ID:LgHJT65n0
swfは専用のやつを使ったほうが良い
78名無しさん@お腹いっぱい。
2007/06/10(日) 00:41:01ID:NtDqBrEQ0 htmlとswfは関連付けたままで落としたいのだが、、
無理なのかな?
ところで、ここにいるやつらはどんなサイトを落としているの?
無理なのかな?
ところで、ここにいるやつらはどんなサイトを落としているの?
2007/06/10(日) 00:56:20ID:LgHJT65n0
それなら巡集はどうよ
単純な作りのものなら大抵のものは落とせるはず
単純な作りのものなら大抵のものは落とせるはず
2007/06/10(日) 02:41:43ID:Uw9zFxYD0
丸ごと落としたいサイトがめっきり減ったのが
ソフトをあまり詳しく調べなくなった大きな要因だな(苦笑
ソフトをあまり詳しく調べなくなった大きな要因だな(苦笑
2007/06/16(土) 09:07:23ID:KdRb8Kiy0
巡集でJUGEMのブログを保存してみたんですが、
http://****.jugem.jp/ では最初のページしか保存されず、カテゴリごとに保存しても
コメントやその他のリンクを開くと「ページを表示できません」になってしまいます。
丸ごと保存するには何か設定が必要なんでしょうか?
http://****.jugem.jp/ では最初のページしか保存されず、カテゴリごとに保存しても
コメントやその他のリンクを開くと「ページを表示できません」になってしまいます。
丸ごと保存するには何か設定が必要なんでしょうか?
2007/06/16(土) 09:50:07ID:JrRpMphm0
>>81
最新版の1.7.1Aで公式ブログのhttp://info.jugem.jp/で実験してみた
残りファイル数が1万を超えそうになったから途中までしか試してないし結構適当だけど
・URL欄にhttp://info.jugem.jp/
・取得設定でクエリー(ファイル・HTML両方)にチェック
・URLフィルタの上部「以下の文字列に〜」と「上記のURLに〜」にチェックして
*/info.jugem.jp/*を登録
あとは自分で試行錯誤してください
最新版の1.7.1Aで公式ブログのhttp://info.jugem.jp/で実験してみた
残りファイル数が1万を超えそうになったから途中までしか試してないし結構適当だけど
・URL欄にhttp://info.jugem.jp/
・取得設定でクエリー(ファイル・HTML両方)にチェック
・URLフィルタの上部「以下の文字列に〜」と「上記のURLに〜」にチェックして
*/info.jugem.jp/*を登録
あとは自分で試行錯誤してください
2007/06/16(土) 09:56:46ID:JrRpMphm0
あと、ブログのDLは普通のサイト以上に鯖に負担がかかるので
頻繁にダウンするのはやめたほうがいいかも
頻繁にダウンするのはやめたほうがいいかも
2007/06/16(土) 09:59:28ID:JrRpMphm0
なんどもすまぬ
×・取得設定でクエリー(ファイル・HTML両方)にチェック
○・取得設定でクエリー(ファイル・HTML両方)にチェックを追加
×・取得設定でクエリー(ファイル・HTML両方)にチェック
○・取得設定でクエリー(ファイル・HTML両方)にチェックを追加
2007/06/16(土) 10:22:30ID:KdRb8Kiy0
2007/06/17(日) 17:01:09ID:5bFjc7r40
>>49 :名無しさん@お腹いっぱい。 :2007/05/11(金) 21:12:46 ID:deAEqze90
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
同じく同意
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
同じく同意
2007/06/17(日) 19:46:05ID:cpCk+QSv0
ない
2007/06/21(木) 00:06:58ID:pUUtjIyw0
しかし埋め込み動画や細工のかかった音楽と違って
一気にダウンロードしてやろうと思うサイトがぼこぼこできるわけじゃないというのが
このスレの盛り上がらない原因かも
自分も落とす目的サイトを失ったまま腐らせてるソフトがいくつも…
一気にダウンロードしてやろうと思うサイトがぼこぼこできるわけじゃないというのが
このスレの盛り上がらない原因かも
自分も落とす目的サイトを失ったまま腐らせてるソフトがいくつも…
2007/06/21(木) 07:56:56ID:RyvgTM1J0
前におまえら何落としてるんだ?と聞いた奴がいたけど
俺はネット小説サイトをダウンしてる
小説は読むのに時間がかかるからどうしてもネットに繋ぎっぱなしになるけど
そゆのはなんだか怖いので、一気に落として好きなときに読む
俺はネット小説サイトをダウンしてる
小説は読むのに時間がかかるからどうしてもネットに繋ぎっぱなしになるけど
そゆのはなんだか怖いので、一気に落として好きなときに読む
2007/06/21(木) 15:56:26ID:pIa8QOUC0
>>89
まさか今時ダイヤルアップなの??
まさか今時ダイヤルアップなの??
2007/06/21(木) 17:12:58ID:L7lfwHZK0
うんにゃ。ブロードバンドですよ
ネットに繋ぎっぱなしが嫌いなだけ
ネットに繋ぎっぱなしが嫌いなだけ
2007/06/21(木) 19:25:55ID:pIa8QOUC0
>>91
常時接続なのに、わざわざルータとかモデムの電源切ってる、って事?
常時接続なのに、わざわざルータとかモデムの電源切ってる、って事?
2007/06/21(木) 23:01:30ID:A1Kcs3kZ0
30分以上ネットに接続してないと自動で切れるようにルーターの設定してる
どのルーターにもそういう機能あるだろ?
いちいち設定画面を呼び出して切るのなんて面倒なことはしないよ
どのルーターにもそういう機能あるだろ?
いちいち設定画面を呼び出して切るのなんて面倒なことはしないよ
2007/06/21(木) 23:12:24ID:pUUtjIyw0
常時ファイルの受け渡しをしている我が家のPCルーターでは(ry
2007/06/22(金) 12:58:08ID:tgIIcn/Y0
自動でやるにしても、一々切る意味がサッパリ分からん。
2007/06/22(金) 21:30:54ID:oY0InkBF0
Windowsはセキュリティホールの塊だから繋ぎっ放しでなんか進入されたら嫌
かといって他のOSだと仕事にならんし
かといって他のOSだと仕事にならんし
2007/06/23(土) 09:29:22ID:rIzu0jgZ0
animeEDENで使えるダウンロードするソフトとか知りませんか????
フラッシュゲットは使えませんでした。よろしければ教えて下さい。
フラッシュゲットは使えませんでした。よろしければ教えて下さい。
98名無しさん@お腹いっぱい。
2007/06/23(土) 15:42:14ID:cxs0M3OE0 age
2007/06/23(土) 19:54:44ID:8uttgXUI0
weboxみたいな糞じゃなくて
もっとまともなの無い?
もっとまともなの無い?
2007/06/23(土) 20:18:04ID:h2a2iVoP0
2007/06/24(日) 12:48:27ID:vyIwC8Dh0
俺も
有料でもいいから
使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
有料でもいいから
使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
2007/06/24(日) 12:51:00ID:BKpQ2BQw0
age
2007/06/24(日) 14:04:27ID:W4JWzNtg0
> 使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
define "使い勝手が良く"
define "まともに動く"
define "使い勝手が良く"
define "まともに動く"
2007/06/24(日) 16:19:01ID:rw6d1fYO0
フリーはGetHTMLと巡集とWeBoXがあれば事足りる
2007/06/24(日) 23:20:22ID:5kmu6rvm0
>>104
シェアは?
シェアは?
2007/06/24(日) 23:29:43ID:R0y8b7g00
やっぱ「このサイトのあれはどう落とすんですか?」みたいな音楽や動画を落とす質問も
あまりこないからこのスレ流行らないのかな
あまりこないからこのスレ流行らないのかな
107名無しさん@お腹いっぱい。
2007/06/25(月) 00:45:53ID:K6zCrBFq0 >>82
81じゃないですが
その方法で1.71Aで試してもHTMLとして取得できません。
_day=20051015
こんなかんじの拡張子のないファイルがダウンロードされてしまいます。
巡集ではむりなのでしょうか。
81じゃないですが
その方法で1.71Aで試してもHTMLとして取得できません。
_day=20051015
こんなかんじの拡張子のないファイルがダウンロードされてしまいます。
巡集ではむりなのでしょうか。
2007/06/25(月) 01:16:12ID:S2S8ZHTX0
中身はHTMLじゃないの
2007/06/25(月) 07:34:26ID:MF8Xgs1n0
だね
2007/06/25(月) 07:36:46ID:MF8Xgs1n0
2007/06/28(木) 17:58:02ID:BW5JcD+Y0
巡集、設定も簡単で良いんだけど、サイトによっては固まる事があるんで
もう少し安定性が欲しいね。
もう少し安定性が欲しいね。
2007/06/28(木) 20:11:42ID:lM1iLQ6/0
それは鯖側の問題でわ
2007/06/28(木) 21:00:16ID:L41fKHeH0
>>112
いや、WebAutoだと問題無く落ちて来るんでソフト側の問題だと思う
いや、WebAutoだと問題無く落ちて来るんでソフト側の問題だと思う
2007/06/28(木) 22:32:12ID:bcAsTfsR0
今までの経験だと、フィルタ設定が邪魔をしていることがあった。
115111,113
2007/06/28(木) 22:47:44ID:PaBI4yQU0 ちなみに固まるのは↓のサイトで、毎回同じページで止まる
フィルタも外してみたり、設定も一通り試してみたんだけどね
http://gamerssquare.kanpaku.jp/
処理が止まる時に表示されてる情報は↓
タイトル: -ゲーム攻略・いきなり許婚!〜姫様のお輿入れ〜(ハ
Referer: http://gamerssquare.kanpaku.jp/kouryaku1.html
推定残りファイル数: 8728
ダウンロード完了数: 1256
フィルタも外してみたり、設定も一通り試してみたんだけどね
http://gamerssquare.kanpaku.jp/
処理が止まる時に表示されてる情報は↓
タイトル: -ゲーム攻略・いきなり許婚!〜姫様のお輿入れ〜(ハ
Referer: http://gamerssquare.kanpaku.jp/kouryaku1.html
推定残りファイル数: 8728
ダウンロード完了数: 1256
2007/06/29(金) 07:15:33ID:/hYK4rPc0
晒してんじゃねーよくず
2007/06/29(金) 07:53:28ID:ACHmcAQj0
最新バージョン使ってる?
2007/06/29(金) 08:38:08ID:tVmtezGr0
>>117
1.7.1A使ってる
1.7.1A使ってる
2007/06/29(金) 12:13:07ID:reaf/Fky0
2007/06/29(金) 17:17:52ID:5XaCw8jN0
試しにデフォ設定で仕掛けてみたけど
No Responseのファイルが多いなあ
負荷がかかると弾くようになってるとか?
No Responseのファイルが多いなあ
負荷がかかると弾くようになってるとか?
2007/06/29(金) 19:01:49ID:eQCjGEX50
>>120
検証thx!
やっぱり他の環境でも問題あるみたいですね
しかし、WebAutoだと上手く行くのは何か処理が違うのか…
出来れば巡集1本に絞りたいんだけど、しばらくは2本立てで行くしかないかな
検証thx!
やっぱり他の環境でも問題あるみたいですね
しかし、WebAutoだと上手く行くのは何か処理が違うのか…
出来れば巡集1本に絞りたいんだけど、しばらくは2本立てで行くしかないかな
2007/07/07(土) 17:08:31ID:Tb+R8x9h0
Flashの多重構造のページは、どうやっても落とせないのかな。
Flashの中に絶対パスが入ってると、どうやってもローカルだけでは無理だよね…
Flashの中に絶対パスが入ってると、どうやってもローカルだけでは無理だよね…
2007/07/09(月) 03:09:31ID:oVQcI/2j0
メンテが行われてるやつで、まともな丸ごと取り込みソフトプリーズ
2007/07/09(月) 10:01:37ID:sjq9Vusg0
125名無しさん@お腹いっぱい。
2007/07/16(月) 15:55:23ID:dH1p+oBA0 エロサイトのさ、動画だけを勝手にダウンロードしてくれるソフトある?
2007/07/16(月) 17:23:39ID:phqg+eth0
127名無しさん@お腹いっぱい。
2007/07/17(火) 11:18:23ID:eiV0COaA0 W-ZERO3 esで50くらいRSSに登録してあるブログの未読記事をサクサク読みたいと思っています。(速度は×2です。)
まず母艦の巡集でDLしたものをmobisyncで同期して読もうと試みたのですが、
巡集でDL時に差分のみDLができない。
更新分だけ読みたいのに全部DL⇒全部同期
その結果、データ同期に非常に時間がかかる
フォルダ階層が複雑で見難い
ということで、上記問題をクリアしたダウンローダーはありますでしょうか。有償でも構いません。
まず母艦の巡集でDLしたものをmobisyncで同期して読もうと試みたのですが、
巡集でDL時に差分のみDLができない。
更新分だけ読みたいのに全部DL⇒全部同期
その結果、データ同期に非常に時間がかかる
フォルダ階層が複雑で見難い
ということで、上記問題をクリアしたダウンローダーはありますでしょうか。有償でも構いません。
2007/07/17(火) 12:05:51ID:AMtOc9ci0
ない
2007/07/17(火) 12:13:20ID:+o4jIrbj0
>>123
>>4の中で継続的に更新があるのはもう外国産のばかり
国産ものはかろうじて3ヶ月とか5ヶ月前に1回程度
この手のソフトは更新が止まってることが絶対的な価値じゃないので…
ちなみに
WeBoX
http://webox.sakura.ne.jp/software/webox/
ページ移動してました
>>4の中で継続的に更新があるのはもう外国産のばかり
国産ものはかろうじて3ヶ月とか5ヶ月前に1回程度
この手のソフトは更新が止まってることが絶対的な価値じゃないので…
ちなみに
WeBoX
http://webox.sakura.ne.jp/software/webox/
ページ移動してました
2007/07/17(火) 18:25:18ID:3CDTJq3J0
WeBoXマンセー
2007/07/20(金) 02:24:59ID:jNElRSxC0
今、まともなのを有料でもいいから作ったら売れるはず
もう3種類ぐらいのツールをあれこれ使い倒してやっと
そこそこダウンロード出来るってのはいやすぎるwww
もう3種類ぐらいのツールをあれこれ使い倒してやっと
そこそこダウンロード出来るってのはいやすぎるwww
2007/07/20(金) 02:45:08ID:A3U8hVXH0
> 今、まともなのを有料でもいいから作ったら売れるはず
その「まともなの」の要件を定義してくれれば作ってやるぜ。
その「まともなの」の要件を定義してくれれば作ってやるぜ。
2007/07/20(金) 10:39:02ID:jNElRSxC0
2007/07/20(金) 11:53:51ID:IJa0GjXb0
巡集がメタタグで巡回拒否するのをとっぱらって
ブログDLの機能を充実させてくれたら最強だと思うんだけどな
作者はまだ株にはまってんの?
ブログDLの機能を充実させてくれたら最強だと思うんだけどな
作者はまだ株にはまってんの?
2007/07/20(金) 14:39:59ID:GiA8S2Rz0
巡回拒否解除の方法は過去スレを読めば分かる
2007/07/20(金) 17:39:00ID:D7l7CXE60
Ctrlキー押しながらってやつ?
METAタグを読まないことによる弊害があるってことだけど
そこんところはどうなの?
METAタグを読まないことによる弊害があるってことだけど
そこんところはどうなの?
2007/07/20(金) 17:42:38ID:D7l7CXE60
ごめん見逃してた
バイナリエディタで云々てことか
バイナリエディタで云々てことか
2007/07/20(金) 21:22:04ID:A3U8hVXH0
>>133
意味わかんね
意味わかんね
2007/07/20(金) 21:25:37ID:VkN+zF+r0
「まともなの」が具体的には言えないただの口先野郎ってことじゃね?
そういう俺もこの手のソフトは何種類も入れてるがなーw
そういう俺もこの手のソフトは何種類も入れてるがなーw
2007/07/20(金) 21:39:25ID:A3U8hVXH0
まあ、定義が出てきたところで釣り宣言する予定ではあった。
2007/07/20(金) 21:43:06ID:VkN+zF+r0
後出しの釣り宣言は寒いっすよ先輩
まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから
使い分けなんなりくらいすればと
まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから
使い分けなんなりくらいすればと
2007/07/20(金) 23:57:02ID:jNElRSxC0
2007/07/21(土) 23:39:55ID:5rR7bwwf0
Jugem取り込みはどれが適してるの?
巡集は正常に取得できないので抜きで
巡集は正常に取得できないので抜きで
2007/07/21(土) 23:46:00ID:eQqNd7ws0
ブログか…とりあえず取り込みたいページ挙げてみたら?(相手には迷惑だろうけど)
正直取りに行く興味はわかない
正直取りに行く興味はわかない
2007/07/22(日) 01:40:06ID:AU6DfnCq0
>>143
できますが何か?
できますが何か?
2007/07/22(日) 02:56:15ID:KKhFyJY+0
2007/07/22(日) 02:58:27ID:KKhFyJY+0
31 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/03/12(月) 09:08:50 ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。
これって現バージョンでも有効なん?
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。
これって現バージョンでも有効なん?
2007/07/22(日) 08:39:41ID:AU6DfnCq0
606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk
>>181
Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
〜
これ回避できなくなっていませんか?
612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606
Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612
ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?
614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。
>>181
Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
〜
これ回避できなくなっていませんか?
612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606
Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612
ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?
614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。
2007/07/22(日) 09:30:24ID:b5dtrcSy0
ググればキャッシュで読める
2007/07/30(月) 22:40:42ID:EerNmg9U0
β1339
2007/07/30(月) 22:52:02ID:ouuQO56l0
どこっすか?
152名無しさん@お腹いっぱい。
2007/08/06(月) 00:41:28ID:j9RPW2Jd0 ここは>>125みたいなソフトの話ではないの?
ページを丸ごと保存する場合だけの話?
ページを丸ごと保存する場合だけの話?
2007/08/06(月) 01:00:18ID:jhVJeDzL0
オカンに「エロ動画とかエロ画像を根こそぎDLしといて」って頼め。
2007/08/06(月) 01:42:36ID:uM1LJPuz0
155名無しさん@お腹いっぱい。
2007/08/06(月) 05:49:52ID:cR7sHFPq0 しかし、ダウンロードソフトって、いつからこんなに派手な行動をするようになったの?
ダウンロードできるものの上にポインターをおくと、
アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。
YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが
わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに
いれるかどうか選択画面があったけど、スタートアップにはいれていない。
それなのに、常駐しているみたいに勝手にたちあがる。
ダウンオタにはたまらなく魅力的なソフトだろ。
ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。
ダウンロードできるものの上にポインターをおくと、
アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。
YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが
わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに
いれるかどうか選択画面があったけど、スタートアップにはいれていない。
それなのに、常駐しているみたいに勝手にたちあがる。
ダウンオタにはたまらなく魅力的なソフトだろ。
ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。
2007/08/06(月) 08:54:05ID:3ve9QpmD0
2007/08/06(月) 12:02:10ID:ZR1S+mu70
2007/08/06(月) 17:04:09ID:qUygctRD0
phpで書かれているサイトで気付いたんだけど、
phpそのものはルートディレクトリに置かれているように見えるけど、
画像の相対参照を見たら、実はもう1個下の階層で動いていた
scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ
phpそのものはルートディレクトリに置かれているように見えるけど、
画像の相対参照を見たら、実はもう1個下の階層で動いていた
scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ
2007/08/06(月) 18:25:43ID:UW4kC6EQ0
2007/08/06(月) 21:01:05ID:iz1Y6S0t0
2007/08/06(月) 22:21:28ID:iz1Y6S0t0
2007/08/07(火) 20:40:19ID:zDYP6yL/0
巡集のHP消えた?
2007/08/07(火) 21:20:31ID:rmt4tXIP0
無くなってるね
移転の告知とかも見た覚えがないけど
移転の告知とかも見た覚えがないけど
2007/08/07(火) 22:53:48ID:8FY65nq50
株日記も消えてる・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。
2007/08/07(火) 23:01:24ID:Rnkdrzsb0
うーん
これは本気で夜逃げでもしたかねえ
心配だ
これは本気で夜逃げでもしたかねえ
心配だ
2007/08/15(水) 21:42:41ID:xF/zK2Ra0
2007/08/15(水) 22:32:55ID:HzWu+63s0
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず
変更が必要な箇所はオプションの項目を見ればわかるはず
2007/08/15(水) 22:43:51ID:k3HM8b2B0
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。
俺、最新版はヘルプ見ないで使ってたよ。
2007/08/25(土) 07:27:47ID:wJoGTH6/0
10日書き込み無し。
巡集も消えたまま。
巡集も消えたまま。
2007/08/25(土) 14:25:43ID:3h2qNoKX0
まだだ・・・っ!まだ終わら(ry
2007/08/27(月) 01:53:20ID:YfjxAlx50
寿限無取り込みできないからなぁ巡集は。
2007/08/27(月) 07:47:02ID:pl/iWHG90
できると何度言えば
2007/09/01(土) 16:53:11ID:UEbpedFs0
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
175名無しさん@お腹いっぱい。
2007/09/15(土) 17:34:27ID:shGMdTNK0 巡集みたいにJavascriptを辿ってくれるソフトはないものか
2007/09/16(日) 02:04:46ID:dftJqUuf0
2007/09/17(月) 11:06:49ID:wfwucYIg0
あるのか!サンクス
2007/09/17(月) 11:22:10ID:wfwucYIg0
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
179名無しさん@お腹いっぱい。
2007/10/03(水) 21:43:58ID:pWzSNQy50180名無しさん@お腹いっぱい。
2007/10/06(土) 10:56:58ID:2ZPpgW+10 このスレこんなに人がいないんだ・・・
2007/10/06(土) 16:02:36ID:BjxdSh550
しょこタン可愛いな。
182名無しさん@お腹いっぱい。
2007/10/08(月) 20:24:11ID:LFWOR3Ya0183名無しさん@お腹いっぱい。
2007/10/09(火) 22:54:00ID:uQB0ZqdW0 Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
2007/10/10(水) 08:28:33ID:7BTa/w3d0
>>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです
Irvineのことは専用スレへ
http://pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
http://pc11.2ch.net/test/read.cgi/software/1190549945/
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです
Irvineのことは専用スレへ
http://pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
http://pc11.2ch.net/test/read.cgi/software/1190549945/
185名無しさん@お腹いっぱい。
2007/10/18(木) 23:24:07ID:7tXtR67v0 巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです
2007/10/18(木) 23:36:32ID:HXM7GKrN0
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか
それでも無理なら、Proxomitron経由にしちゃうとか
187185
2007/10/19(金) 09:27:44ID:io5KB4Vk0188185
2007/10/19(金) 09:29:49ID:io5KB4Vk0 どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに
○落ちてきたchk_proxy3.cgiというファイルに
2007/10/25(木) 08:06:59ID:X9NjLM0s0
ttp://fantasticland.web.infoseek.co.jp/index.html
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
2007/10/25(木) 08:25:35ID:X9NjLM0s0
初期設定保存→初期設定で保存
2007/10/25(木) 20:52:21ID:MXXrESKM0
落とせないのはたぶん↓これのせい
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
2007/10/25(木) 22:22:35ID:X9NjLM0s0
193名無しさん@お腹いっぱい。
2007/11/20(火) 19:31:24ID:UO8+XWOH0 ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
2007/11/20(火) 20:35:52ID:+BL7nhGN0
iriaかIrvine
195名無しさん@お腹いっぱい。
2007/11/21(水) 18:58:15ID:TdDk4QuK0 すいません
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
2007/11/21(水) 19:52:04ID:yPEtRi6u0
FWがブロックしてんじゃないの?
197名無しさん@お腹いっぱい。
2007/12/06(木) 21:50:51ID:R8U55YGP0 ttp://www.rolfinger.com/
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
198名無しさん@お腹いっぱい。
2007/12/19(水) 03:03:46ID:9yuHwmFr0 gethtml (コマンドラインの方)で
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
2007/12/19(水) 08:26:38ID:rzYFr4Wu0
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
2007/12/19(水) 08:36:06ID:rzYFr4Wu0
うはw
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
2007/12/19(水) 11:15:42ID:9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
2007/12/25(火) 11:11:24ID:GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
2007/12/25(火) 11:35:48ID:PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
2007/12/29(土) 07:39:53ID:qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
2007/12/30(日) 23:06:29ID:qlo4Nzf+0
はい
2008/01/13(日) 17:24:55ID:IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
IE6ならアドレスバー右のアイコンドラッグでもいい
2008/01/16(水) 15:18:18ID:ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
2008/01/16(水) 16:23:20ID:OFGCoOwC0
&や=で区切られてるURLをDLするんじゃないかと
2008/01/16(水) 16:23:53ID:OFGCoOwC0
?とか
2008/01/18(金) 16:46:29ID:IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
2008/01/18(金) 17:33:47ID:A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
2008/01/18(金) 18:31:47ID:gw9zl8ah0
URLを晒せば誰かが解析してくれるよ
213211
2008/01/18(金) 18:54:52ID:tCWJ6AtX0 トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
2008/01/18(金) 22:09:06ID:gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
海外では ~ ってあまり使われないのか
2008/01/24(木) 06:32:37ID:JD3lJ93I0
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
2008/01/24(木) 07:32:08ID:oN1Lok+h0
株にはまりすぎて開発してる暇がなくなったんじゃ
2008/01/25(金) 06:37:21ID:NApTe0zp0
ベクターの作者ページへのリンクが
2008/01/25(金) 07:44:23ID:Uo5ZCYg70
どうした?
219名無しさん@お腹いっぱい。
2008/01/25(金) 17:45:12ID:pOdyTSFw0 http://bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
2008/01/25(金) 22:06:45ID:VQ1m2IF90
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
2008/01/25(金) 22:12:43ID:xmvyWrR/0
2008/01/26(土) 19:25:30ID:h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
2008/01/26(土) 20:07:25ID:BB78zvk50
>2階層以上取り込めません
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
2008/01/26(土) 20:50:47ID:h3xkz2eJ0
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
2008/01/26(土) 22:17:45ID:Vw9+2j2y0
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
2008/01/26(土) 22:20:24ID:Vw9+2j2y0
続き
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
227名無しさん@お腹いっぱい。
2008/01/26(土) 23:17:56ID:Nych28nF0 219です。
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
2008/01/26(土) 23:34:13ID:Vw9+2j2y0
2008/01/27(日) 04:41:59ID:2s4iBkil0
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
230名無しさん@お腹いっぱい。
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0 初心者にお勧めの物ってどれになりますか?
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
2008/01/27(日) 10:20:40ID:suXR9EeP0
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
俺がロックフェラーならパトロンになってやるんだが
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
2008/01/27(日) 11:58:42ID:2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
中身を「フィルタ」で検索してみるがよろし
2008/01/27(日) 12:50:55ID:Xxz+W6Ae0
2008/01/27(日) 13:39:28ID:s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
2008/01/27(日) 19:04:30ID:2s4iBkil0
2008/01/30(水) 01:36:11ID:NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
これはどうしようもないの?
それとも他のならできる?
2008/02/08(金) 00:48:18ID:LyUhp1gB0
http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
2008/02/11(月) 20:21:44ID:dYHnvlVd0
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
241名無しさん@お腹いっぱい。
2008/02/12(火) 01:13:13ID:jIBSXkqy0 Super Capture ってなくなっちゃったんですか?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
2008/02/12(火) 15:44:15ID:pEdZWnO30
243名無しさん@お腹いっぱい。
2008/02/12(火) 21:02:05ID:Ftzz/E6Q0 http://www.gymfan.de/gym_pic.html
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
244名無しさん@お腹いっぱい。
2008/02/12(火) 22:45:39ID:S2Vi01b30 取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
2008/02/12(火) 23:31:39ID:v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
246名無しさん@お腹いっぱい。
2008/02/12(火) 23:48:23ID:jIBSXkqy0 >>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
2008/02/13(水) 01:43:15ID:95oy4e+k0
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
2008/02/13(水) 01:49:38ID:mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
なんなら -screen くっつけて検索汁。
2008/02/13(水) 01:53:22ID:zIVsZC2A0
251名無しさん@お腹いっぱい。
2008/03/02(日) 15:32:26ID:SlT8oVxO0252名無しさん@お腹いっぱい。
2008/03/02(日) 22:55:44ID:XBPQmEY902008/03/04(火) 23:58:34ID:8O1P5E4A0
irvineでも巡集でもURLを直接指定すればええやん
2008/03/18(火) 21:59:21ID:ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
2008/03/19(水) 12:43:47ID:YKorTSpT0
>>254
んなわけない
んなわけない
2008/03/20(木) 01:58:21ID:m223Zsx40
ありがとうございます!
257名無しさん@お腹いっぱい。
2008/03/24(月) 04:25:21ID:w4eXPHNQ0 サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
258名無しさん@お腹いっぱい。
2008/04/11(金) 08:00:28ID:JS6+SD8u0 そろそろ答えてください
2008/04/13(日) 20:04:32ID:oGL9AkZ60
まだだ、まだ答えんよ
2008/04/14(月) 19:23:15ID:v2R7+9CM0
雨は使ったことない(´・ω・`)
2008/04/18(金) 04:55:05ID:UhKCBHwm0
巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
2008/04/18(金) 05:11:53ID:Ye4EJlp40
>>261
フィルタを使えばいけます
フィルタを使えばいけます
2008/04/18(金) 14:35:41ID:UhKCBHwm0
その設定をおねがいします><
2008/04/22(火) 07:20:07ID:ZhYRKd640
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
265名無しさん@お腹いっぱい。
2008/04/26(土) 12:43:45ID:bWElsVFw0 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
2008/04/26(土) 14:34:15ID:xuojH8LA0
ダイアログに出ているタイトル
267名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:02ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
268名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:26ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
2008/05/05(月) 18:19:45ID:cHvd4SHv0
あるわけねーだろ
2008/05/05(月) 18:23:28ID:Mg38eEgV0
メモ帳
271名無しさん@お腹いっぱい。
2008/05/05(月) 18:34:59ID:t9WSIx9k0 そうですか・・・残念だぴょん・・・・・・
2008/05/05(月) 19:01:15ID:6J6AlWWJ0
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
273名無しさん@お腹いっぱい。
2008/05/05(月) 19:27:05ID:t9WSIx9k0 >>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
2008/05/05(月) 19:29:51ID:GHBwk8a80
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
おそらく保存どころか読みさえできなくなると思う
2008/05/05(月) 19:36:07ID:Mg38eEgV0
2008/05/06(火) 04:34:03ID:pWIAuxdS0
>>273
FirefoxだったらScrapBookをすすめるんだがな。
FirefoxだったらScrapBookをすすめるんだがな。
2008/05/06(火) 19:54:31ID:SBxlMPDL0
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
2008/05/10(土) 04:00:05ID:g0wuH1J20
日本語でおk
2008/05/11(日) 17:13:40ID:5I6LyxnA0
website explorer使ってる人俺以外にもいるのかな
2008/05/11(日) 20:39:05ID:OLc5kE2C0
使ってるけど丸ごと取り込みには使わないな
2008/05/12(月) 10:37:10ID:9PCKZ1Jr0
Firefox使いの俺はFownThemAll!とScrapBookだ。
2008/05/12(月) 22:24:48ID:tJ0QtoQm0
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
2008/05/12(月) 23:42:25ID:zqRUnBa00
ダウンロードソフトはダウンロード板の管轄じゃないの?
2008/05/13(火) 02:25:08ID:ErVJOT7a0
285282
2008/05/13(火) 06:41:48ID:/touQVIB0 スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
ご丁寧に教えていただきありがとうございました。
2008/05/27(火) 10:00:24ID:qJm5C59n0
gzipで送信されるページに対応した取り込みソフトはございませんか?
2008/05/30(金) 01:20:05ID:obDTDq910
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
こういうソフトもそろそろ時代遅れなのかしら…
2008/06/03(火) 01:59:41ID:V0GOfPnQ0
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
2008/06/03(火) 07:40:12ID:d5RR0Fde0
2008/06/03(火) 20:59:37ID:V0GOfPnQ0
>>289
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
291名無しさん@お腹いっぱい。
2008/06/16(月) 23:48:15ID:4NFpHfXZ0 あげ
2008/06/17(火) 07:58:10ID:iH/5XAaL0
なにか対象の指定の仕方に問題があるような気がする。
2008/07/29(火) 03:34:12ID:NXDRQEUV0
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
扱いでまとめてダウンロードできるソフトはありませんか?
294名無しさん@お腹いっぱい。
2008/08/14(木) 12:22:21ID:z6Dy8mh40 weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
2008/08/22(金) 18:44:21ID:jiDXkNV10
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
2008/08/25(月) 13:39:00ID:6nouZRD10
2008/08/31(日) 01:18:45ID:ISN52Ea80
女神板は2chじゃないから
298名無しさん@お腹いっぱい。
2008/09/10(水) 10:20:54ID:TJ6Ap/Sl0 ここの移転先教えてくれ
http://sdn255.web.fc2.com/
http://sdn255.web.fc2.com/
299HrSPwiYUsMDh
2008/09/10(水) 10:26:13ID:ddMYkNpg0 g7z0zX <a href="http://baqkzgurctep.com/">baqkzgurctep</a>, [url=http://knccjehvsqoe.com/]knccjehvsqoe[/url], [link=http://fyoddmbvukja.com/]fyoddmbvukja[/link], http://kfeaukherzmc.com/
300名無しさん@お腹いっぱい。
2008/09/10(水) 10:53:49ID:TJ6Ap/Sl0 準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
2008/09/10(水) 11:19:00ID:iOGDU/hx0
他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である
自力で解決出来ないことはコインの両面である
302名無しさん@お腹いっぱい。
2008/09/10(水) 12:06:11ID:TJ6Ap/Sl0 ちょw
たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
303London
2008/09/10(水) 12:13:50ID:iwCGOnB80 wAetOc <a href="http://jphcmeellktk.com/">jphcmeellktk</a>, [url=http://auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=http://unnngecegnmn.com/]unnngecegnmn[/link], http://hxtuikvjgkcq.com/
2008/09/10(水) 12:18:18ID:Cga7s0C10
ファイル名を変えたらリンクが正しく動作しなくなるだろ…
2008/09/10(水) 16:40:55ID:aLDvX6Aj0
巡集の作者、もしかして株で死んじゃったとか・・・?
306名無しさん@お腹いっぱい。
2008/09/10(水) 23:10:10ID:TJ6Ap/Sl0 不吉なこと言うなダニよ
ソース公開して欲しい
ソース公開して欲しい
2008/09/10(水) 23:35:48ID:S8J67L6Y0
巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな
後者に金を払う気があるかは本人次第
Teleport Pro(俺はUltra)
この2本立てで困ったことないな
後者に金を払う気があるかは本人次第
2008/09/13(土) 15:46:14ID:Dn+RZDfP0
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
白紙ページを延々とダウンロードするので鯖にも悪いし
2008/09/14(日) 20:11:32ID:ukWyxLCq0
禁止URLとかの機能使えばいいじゃん。
2008/09/23(火) 18:50:45ID:twI/75ox0
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
2008/09/24(水) 01:46:37ID:hKMSKtdw0
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。
一、か二かどっち?
二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;
↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。
一、か二かどっち?
二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;
↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。
2008/09/24(水) 13:41:28ID:1PhPO/s90
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
313名無しさん@お腹いっぱい。
2008/10/06(月) 15:35:55ID:eO1CMKz50 こんなソフトありませんか?スレから来ました。
fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。
現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?
コマンドラインで使う類のソフトでもかまいません。
fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。
現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?
コマンドラインで使う類のソフトでもかまいません。
314313
2008/10/06(月) 16:31:57ID:eO1CMKz50 Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html
外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
http://www.oshiete-kun.net/archives/2008/02/getleft.html
外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
315313
2008/10/06(月) 18:17:34ID:eO1CMKz50 wgetで試行錯誤してみたらうまくいきました。
wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)
urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
puts file
urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq
以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/
--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)
urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
puts file
urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq
以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/
--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
316313
2008/10/06(月) 18:21:17ID:eO1CMKz50 wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
この辺、Unix系の板で聞いてみます。
2008/10/07(火) 00:37:00ID:k78/uLlJ0
318313
2008/10/07(火) 05:40:38ID:hu35XLEh0 >>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。
Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm
wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB
この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。
Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm
wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB
この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
2008/10/07(火) 06:33:16ID:k78/uLlJ0
>>318
ありがとうございます!これでやってみます。
ありがとうございます!これでやってみます。
320名無しさん@お腹いっぱい。
2008/10/07(火) 07:56:16ID:pjeOFoUzO パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
2008/10/09(木) 19:17:17ID:rJyyGwzD0
巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?
フォルダ排除と設定ファイル排除しかない?
2008/10/11(土) 23:38:49ID:UlAef+iX0
2008/10/14(火) 05:43:24ID:CWdTo3bh0
ttp://users.ugent.be/~bpuype/wget/
2008/10/18(土) 09:14:27ID:NA8ZY32U0
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も
ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
保存したWebページをPDF/JPEGファイルへ書き出す機能も
ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
2008/10/20(月) 21:48:39ID:SV8NrUaK0
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。
1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。
2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
認証必要なサイトのDLのためにいろいろ試したので…。
1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。
2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
2008/10/20(月) 21:49:38ID:SV8NrUaK0
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz
4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。
どうでもいいですが、DLしたサイトは東進 過去問データベースです。
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz
4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。
どうでもいいですが、DLしたサイトは東進 過去問データベースです。
2008/10/20(月) 23:16:00ID:vXNKs2Pn0
報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
2008/10/21(火) 06:16:41ID:r9pcwQQ+0
追記
Teleport Proは65530ファイルでDLを打ち切る様子。
Teleport Proは65530ファイルでDLを打ち切る様子。
2008/10/22(水) 14:47:13ID:Uty5mEif0
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
2008/10/26(日) 22:56:41ID:Z0qQpGL90
2008/11/08(土) 09:57:14ID:HMLV6FJZ0
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
2008/11/09(日) 05:43:33ID:r9fZofmi0
Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?
ありませんか?
2008/11/10(月) 12:34:07ID:RJUgrUkx0
うん
2008/11/12(水) 09:40:33ID:199gHslN0
dlkey突破できる奴が有れば…
2008/11/15(土) 02:12:07ID:0sXE2VgW0
JustDiver 2.0
2008/11/17(月) 23:17:57ID:bYSAyiWi0
HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。
デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。
デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
2008/11/26(水) 22:46:57ID:AvoPmSlt0
338337
2008/11/27(木) 07:07:22ID:1gPOJKDS0 巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。
http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*
残りはコメントです。 引き続きよろしくお願いします。 orz
画像については何とかなったのではとおもいます。
http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*
残りはコメントです。 引き続きよろしくお願いします。 orz
2008/11/27(木) 10:21:47ID:o5f/E9xS0
「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。
予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。
沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。
予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。
沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
2008/12/30(火) 21:06:37ID:qDOzkieX0
もうこういうソフトは需要がないかねえ…
2008/12/30(火) 21:58:34ID:P2sFxOkY0
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
2008/12/30(火) 21:59:18ID:qDOzkieX0
動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない
保存できるソフトを聞いたことがない
2008/12/30(火) 22:10:50ID:fX4eASw70
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
2008/12/31(水) 09:18:41ID:rscijB3A0
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る
特にゲーム攻略のWikiとかはよく消えてるから困る
2009/01/02(金) 01:44:45ID:OLqz4XAA0
FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。
ファイル一覧のページで一階層のみ保存、とか。
346名無しさん@お腹いっぱい。
2009/01/03(土) 23:05:19ID:PUJY1CSF0 Gethtmlについての質問です。
オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。
DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。
DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
2009/01/04(日) 10:03:30ID:7KtylUIv0
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
2009/01/04(日) 10:40:47ID:agtqcM4Z0
2009/01/04(日) 11:31:36ID:1GxGvmcA0
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
350名無しさん@お腹いっぱい。
2009/01/04(日) 12:47:15ID:zOoDAii/0 アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
2009/01/04(日) 20:29:51ID:thlvUT4J0
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
2009/01/06(火) 19:35:25ID:HKJ+mumj0
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
2009/01/06(火) 23:49:18ID:HKJ+mumj0
どうやらWeBOXで出来ますね、すみませんでした
354名無しさん@お腹いっぱい。
2009/01/12(月) 18:55:19ID:mtFSF/p40以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。
http://www.gamebanshee.com/neverwinternights/
うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。
宜しくお願いします。
2009/01/12(月) 19:09:18ID:Ad7xK/MA0
あ
2009/01/14(水) 04:56:44ID:XsghDILe0
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。
だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。
だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
2009/01/15(木) 04:50:49ID:14aIogQH0
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
358名無しさん@お腹いっぱい。
2009/01/15(木) 22:38:28ID:SkpOdVD30 >>356 様
ご回答ありがとうございます。
スタイルシートについて、いろいろと調べたのですが、
リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、
新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。
このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
ご回答ありがとうございます。
スタイルシートについて、いろいろと調べたのですが、
リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、
新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。
このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
359名無しさん@お腹いっぱい。
2009/01/22(木) 10:04:12ID:72T0n0l+0 ↑
あっ ↑ は、>>354からの書き込みです。
あっ ↑ は、>>354からの書き込みです。
2009/01/22(木) 10:13:00ID:LOPrZeW60
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません
当然俺は分かりません
2009/02/08(日) 16:33:12ID:1ew7wZVH0
あああ
2009/02/17(火) 21:27:34ID:swvN60Nx0
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
2009/03/03(火) 08:01:05ID:hIoIaLsc0
無理
2009/03/04(水) 02:02:52ID:iOzdqfhq0
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
2009/03/04(水) 12:44:56ID:kOsE1mcy0
2009/03/04(水) 20:52:19ID:iOzdqfhq0
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
2009/03/04(水) 22:03:51ID:SjWqihRZ0
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
2009/03/05(木) 08:05:04ID:5euH1yl80
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage
ttp://foobar2000.xrea.jp/index.php?FrontPage
2009/03/05(木) 15:20:36ID:y2etLDHA0
管理側ですぐばれてアク禁
2009/03/05(木) 19:05:28ID:5euH1yl80
>>369
そうなのか、諦めるわ
そうなのか、諦めるわ
2009/03/05(木) 22:13:12ID:QC0/AZnI0
この程度でなるわけねー
2009/03/05(木) 22:51:07ID:5euH1yl80
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
2009/03/06(金) 00:54:24ID:xnM4IX3Z0
firefoxのscrapbookでのんびりと保存するのがベターかな
2009/03/06(金) 14:01:59ID:i20Uaw0U0
2009/03/06(金) 15:00:53ID:PmwxrF/V0
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
2009/03/07(土) 15:46:28ID:EX6aOmt+0
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
2009/03/20(金) 22:02:39ID:JSyDiuTFP
hosyu
2009/03/29(日) 05:41:06ID:t09wwLl20
懐かしい話だ
379名無しさん@お腹いっぱい。
2009/04/01(水) 18:48:18ID:sW1brWClO CSS内の画像リンクも辿って保存してくれるソフトありますか?
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
380379
2009/04/02(木) 11:54:11ID:CFvsFsE+O すみません。解決しました。
2009/04/03(金) 06:23:23ID:oDGPoJNA0
俺と今後の為にどのソフトで解決したのかkwsk
2009/04/04(土) 14:46:47ID:izV7zIzI0
オラも知りたい
2009/04/04(土) 19:11:59ID:g6yEv4mBO
ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
384名無しさん@お腹いっぱい。
2009/04/05(日) 04:43:52ID:F1AvQ3H50 scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
2009/04/05(日) 13:25:58ID:5dZaffZs0
すみませんが、質問です。
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?
具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html
この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/
も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。
このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。
今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。
しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。
この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?
具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html
この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/
も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。
このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。
今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。
しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。
この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
2009/04/05(日) 14:25:28ID:At+ZdFLO0
wiki取り込む方法見つかった?
2009/04/10(金) 22:39:16ID:vy87VD8G0
CGIページをきちんと保存、再生できるソフトないの?
巡集だと再生するときカオスになる・・・
巡集だと再生するときカオスになる・・・
2009/04/11(土) 15:12:26ID:FJDV+iB10
http://pc12.2ch.net/test/read.cgi/software/1239155686/l50
【RunAsData】シェアウェアの試用期限クラック【HookDate】
アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。
http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します
http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧
#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
【RunAsData】シェアウェアの試用期限クラック【HookDate】
アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。
http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します
http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧
#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
389名無しさん@お腹いっぱい。
2009/05/17(日) 13:23:31ID:/NzZAjoN0390名無しさん@お腹いっぱい。
2009/05/25(月) 14:50:50ID:03qdJTKV0 話題もないねえ…
2009/05/25(月) 16:29:47ID:Y24nZ+jT0
じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
2009/06/08(月) 10:51:52ID:AufSz18I0
t t p : / / g . e - h e n t a i . o r g /
ここ取り込める?
画像だけでもいいんだけど
向こうに知られるとまずいから
アドレスは切った
ここ取り込める?
画像だけでもいいんだけど
向こうに知られるとまずいから
アドレスは切った
2009/06/08(月) 11:34:03ID:8JvAcKuU0
Refererくらい理解してから書き込めよ
2009/06/08(月) 21:29:18ID:AufSz18I0
Refererは理解してる、が
取り込みソフト拒否されてるっぽいんだよねここ
取り込みソフト拒否されてるっぽいんだよねここ
2009/06/10(水) 19:59:37ID:/w+HilEi0
PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
2009/06/11(木) 09:32:33ID:CI9JV7KS0
とりあえずyahooの質問集でもクグッて質問しような?
ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
2009/06/11(木) 10:13:00ID:CI9JV7KS0
ああ、それと。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。
下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。
下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
2009/06/13(土) 01:37:45ID:HDt2gcxv0
wikiまるごと保存できるソフトなイノ?
2009/06/14(日) 01:10:44ID:7qssCspA0
400名無しさん@お腹いっぱい。
2009/06/23(火) 17:45:38ID:rUYeky/o0 >>398
フリーじゃないけど
A1 Website Download
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
フリーじゃないけど
A1 Website Download
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
401名無しさん@お腹いっぱい。
2009/06/27(土) 22:03:23ID:i2oYT4kJ0 巡集って
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
2009/06/27(土) 22:14:37ID:DjFTSHEj0
手作業でリネーム
取り込む先のフォルダの名前を指定する
好きなのを選べ
取り込む先のフォルダの名前を指定する
好きなのを選べ
2009/07/18(土) 09:37:45ID:fBBs6NrU0
波乗野朗使ってるんですが、スタイルシートに対応していないのか、最近のWEBサイトを取り込むとガタガタに崩れてしまいます。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
404名無しさん@お腹いっぱい。
2009/08/01(土) 12:57:23ID:yPfvTWSQ0Bulk Image Downloader
これまでFree版を使用していたんだけど、有料onlyになったのかな?
CODEを入力しないと、起動しなくなった。FireFOXのアドオンもダメ。。。
便利だったのに、な。
http://antibody-software.com/web/index.php?option=com_content&task=view&id=33&Itemid=30
2009/08/07(金) 11:31:36ID:O6rKHi3B0
ブログの画像だけを取り込むソフトないですか?
web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
2009/08/14(金) 01:11:21ID:g2iL4TTl0
VIPダウンろーだ
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
407名無しさん@お腹いっぱい。
2009/08/16(日) 15:42:19ID:F1VFlTYE0 >405
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
408名無しさん@お腹いっぱい。
2009/08/16(日) 15:49:36ID:F1VFlTYE0 >>405
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
2009/08/17(月) 23:27:34ID:zCh7YkeM0
javascript追跡に対応してるソフトってありますか?
2009/08/18(火) 19:59:35ID:QE4ZdWoG0
imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
2009/08/19(水) 15:14:37ID:qmXb8rBu0
> imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
2009/08/20(木) 14:50:28ID:gE/IvJew0
imagefap一括DLしたくして↓のページでやったんだけど
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html
ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html
ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
413410
2009/08/21(金) 02:07:18ID:kCD6o2M50 >>411
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます
prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます
prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
2009/09/13(日) 22:20:00ID:4oE3F4nr0
まとめサイト(blog)の広告部分を取り除いて保存してくれるソフトないもんかな
紙copiで保存して余計な部分を(ry
→サイズの大きなページで紙copiがザ・ワールド
BullzipやPrimoでPDFにして余計な部(ry
→サイズの大きな(ryで一般保護法ナントカ
mhtで保存しておいて余計な部分を手動で削除する方法
→mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry
Wordにコピー&ペーストして(ry
→レイアウトが原形を留めてくれない
Proxomitronで広告をフィルタリング
→フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた
とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
→オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
紙copiで保存して余計な部分を(ry
→サイズの大きなページで紙copiがザ・ワールド
BullzipやPrimoでPDFにして余計な部(ry
→サイズの大きな(ryで一般保護法ナントカ
mhtで保存しておいて余計な部分を手動で削除する方法
→mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry
Wordにコピー&ペーストして(ry
→レイアウトが原形を留めてくれない
Proxomitronで広告をフィルタリング
→フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた
とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
→オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
2009/09/14(月) 12:23:55ID:PB1HOZh+0
>>414
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
2009/09/24(木) 20:00:50ID:V1YBGQBI0
巡集使ってみたいのですがページが消えていてどこ探してもみつかりません。
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
2009/09/24(木) 22:31:22ID:n+r1nZD00
巡集消えてるね。
いいソフトだったのに残念だ。
いいソフトだったのに残念だ。
2009/09/25(金) 22:12:28ID:kaj3Edae0
消えてねえよ、ここで更新チェックしとけ
ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
2009/09/25(金) 23:35:57ID:htTJHAHB0
DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
2009/09/26(土) 00:20:49ID:vz+4woN2P
巡集更新されてるな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
2009/09/26(土) 10:23:56ID:oaSHciNs0
>>418
そのリンク先のベクターが一時的に消えてたんだよ。
そのリンク先のベクターが一時的に消えてたんだよ。
2009/09/27(日) 13:50:11ID:ms06DL850
ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
2009/09/29(火) 22:52:47ID:jvpQY2ni0
巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
2009/09/30(水) 10:39:36ID:VYCIQ4+X0
>>423
みんなで幸せになろうよw
みんなで幸せになろうよw
2009/10/20(火) 23:48:32ID:38/cKrSL0
>>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
2009/10/20(火) 23:53:17ID:38/cKrSL0
427名無しさん@お腹いっぱい。
2009/11/17(火) 01:19:05ID:yVWqHF3k0 401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
2009/12/06(日) 23:39:56ID:Xd69xJs/0
Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
気が向いたらランゲージファイル公開するわ
2009/12/07(月) 08:38:55ID:DFn9YnAw0
もうVer.5になってなかったっけ?
430428
2009/12/08(火) 23:22:21ID:D9b5l12j0 Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
2010/01/06(水) 13:07:10ID:kDFT625l0
432名無しさん@お腹いっぱい。
2010/01/06(水) 17:25:24ID:z5X944lK0 それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
感染先は Bee.exe で実行ファイル
2010/01/06(水) 20:00:01ID:kDFT625l0
2010/01/06(水) 20:12:18ID:RzwWHhyF0
巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
435名無しさん@お腹いっぱい。
2010/01/06(水) 22:43:12ID:z5X944lK0 誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
2010/01/12(火) 00:02:23ID:mBZ3Hlbu0
やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
2010/01/14(木) 17:34:33ID:BnCvLsD90
ふつうにwiki保存できてるけど・・・
2010/01/14(木) 19:38:01ID:yv0Hxe320
wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
2010/01/15(金) 03:59:54ID:59bOFj/P0
ScrapBookつかえ
2010/01/17(日) 16:30:03ID:MxrdNVKG0
webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
2010/01/28(木) 14:33:42ID:hxTP88ae0
ソース見てCSSとか足らないファイル無いか確かめて見れ
443名無しさん@お腹いっぱい。
2010/01/28(木) 15:06:42ID:+eB2y8gU0 WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。
今までオートパイロットで WebAuto 以上のものにあったことが無い
今までオートパイロットで WebAuto 以上のものにあったことが無い
2010/01/29(金) 01:51:12ID:pdIiOyGT0
忍者ブログがちゃんと取り込めるお勧めってある?
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
2010/01/31(日) 12:58:52ID:LRfrwAhF0
他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
2010/02/13(土) 23:30:04ID:i791U1t40
gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
2010/02/14(日) 16:30:15ID:ekI+lMw50
なんかいろいろ調べてたんですが
robots.txtに User-agent: * Disallow: / って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる
でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ
で いいのかなぁ。。。
robots.txtに User-agent: * Disallow: / って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる
でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ
で いいのかなぁ。。。
2010/02/16(火) 19:55:21ID:S5I004NN0
Proxomitron を使っているのなら、User-Agent を書き換えるよりも
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。
どっちみち User-Agent の書き換えは推奨するけど。
デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。
どっちみち User-Agent の書き換えは推奨するけど。
デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
2010/02/16(火) 23:36:40ID:eb20GwbO0
robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
2010/02/17(水) 19:44:59ID:C0QOwpgt0
盲点突かれてもう目が点
ありがちょ
ありがちょ
2010/02/18(木) 10:36:09ID:cDYue5wv0
>>450
もともと盲点は見えないから突かれても問題ない
もともと盲点は見えないから突かれても問題ない
452名無しさん@お腹いっぱい。
2010/04/04(日) 05:53:01ID:OKHjYikf0453名無しさん@お腹いっぱい。
2010/04/16(金) 01:50:11ID:LJzX0FMt0 twitterのプロフ検索サイトや
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
454名無しさん@お腹いっぱい。
2010/05/27(木) 11:26:34ID:ieOwLYqC0 あげ
2010/05/27(木) 11:48:03ID:dz2Xu6+80
wgetでサイトまるごと採ろうとしてるけど
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
2010/07/17(土) 18:45:54ID:geoOLYIs0
scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
457名無しさん@お腹いっぱい。
2010/10/02(土) 03:16:36ID:tOtD8Seh0 wgetのGUI版があったので貼っとく
VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
2010/10/07(木) 20:51:42ID:8vo6Uaef0
moe.imouto.org終了のお知らせか・・・
2010/10/15(金) 01:29:54ID:TBUV4Okd0
>>443の書き込み見てWebAutoを使ってみたけど
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
2010/10/23(土) 09:06:37ID:lnHUl5BB0
巡集の1.7.1A→1.7.2のバージョンアップで、
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
461名無しさん@お腹いっぱい。
2010/10/25(月) 22:58:32ID:72FsLqyA0 何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
2010/10/26(火) 23:59:32ID:9JgHvqPN0
ローカルに保存したwikiを
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
463名無しさん@お腹いっぱい。
2010/11/05(金) 00:04:14ID:9BGnuHFv0 更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう
Firefoxのアドオンのほうが幸せになれるのかもしれんな
GetHTMLwの作者はどうなったのですが
最近、更新がないようですが
あげ
Firefoxのアドオンのほうが幸せになれるのかもしれんな
GetHTMLwの作者はどうなったのですが
最近、更新がないようですが
あげ
2010/11/08(月) 15:27:20ID:qDJ9LufK0
今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
2010/11/08(月) 22:17:48ID:y6Jx/ALlP
最近「〜けど〜けど」「〜ので〜ので」「〜だから〜だから」みたくたった1文の構成すら出来ない奴が増えたな
2010/11/09(火) 11:16:37ID:frlQOzh00
最近句読点すら使えない奴増えたよな
2010/11/09(火) 23:59:38ID:sTHTzJsZ0
i.aspの付いているaspで生成されている(?)携帯サイト
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
2010/11/10(水) 14:11:03ID:lmrHRm4k0
魔法のiらんどなら巡集でフィルタ設定して取ってる
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
469467
2010/11/12(金) 12:06:32ID:UOQQ0O0Q0 情報をありがとうございます。
巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?
あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?
あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
2010/11/13(土) 10:33:10ID:tSkOmlSC0
自分の場合Firefox、Opera辺りならD&Dすれば
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない
ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない
ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
471名無しさん@お腹いっぱい。
2010/11/14(日) 09:57:13ID:89KNH7or0 ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
472467
2010/11/20(土) 15:24:55ID:O0cud1UJ0 返答が遅くなってしまい申し訳ありません。
余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。
aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。
aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
2010/11/20(土) 20:10:20ID:213w5ulb0
頻繁にファイルを直接選択してブラウザで見たいというのでなければ
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
474467
2010/11/20(土) 21:34:10ID:O0cud1UJ0475名無しさん@お腹いっぱい。
2010/11/21(日) 14:57:29ID:vODtUEkF0 それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね
ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね
ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
476467
2010/11/21(日) 21:09:43ID:IaD1YDka0 >>475
Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。
Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。
当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。
Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。
当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
477名無しさん@お腹いっぱい。
2010/12/25(土) 16:50:14ID:iR3S9Wga0 winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
478名無しさん@お腹いっぱい。
2010/12/31(金) 02:53:13ID:57SW0Dqp0 >>476
俺はIE詳しくないから検索の手助けになりそうな情報だけ
ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね
だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定
「関連付け MIME」なんかでググったらでてこないかな
ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。
俺はIE詳しくないから検索の手助けになりそうな情報だけ
ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね
だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定
「関連付け MIME」なんかでググったらでてこないかな
ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。
479名無しさん@お腹いっぱい。
2010/12/31(金) 17:14:16ID:X5j+/04f0 PC
2011/01/03(月) 12:57:19ID:98ttV4VF0
ComGetter
2011/01/04(火) 00:18:27ID:MGz4r0zS0
CompleteGetterのRFunc:1とかRFunc:2って何ですか?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 日本語が話せない「外国籍」の子が急増中、授業がストップ、教室から脱走も…先生にも大きな負担「日本語支援」追いつかず★2 [七波羅探題★]
- 【芸能】デパートで見つけたランドセルが衝撃価格! つまみ枝豆「どこかで規制しないと」に共感の声殺到 「全て同感」「高すぎますね」 [冬月記者★]
- アメリカ、入国時に「日本人を含む外国人観光客の最大5年分のSNS履歴の提出」義務化 過去10年間に使用のメールアドレスや電話番号等も [Hitzeschleier★]
- 「もうキモくてキモくて…」29歳女性が語る“おぢアタック”の実態。「俺ならイケるかも」年下女性を狙う勘違い中年男性に共通点が★3 [Hitzeschleier★]
- 「暖房が使えない」「食費が高くて子どもの栄養が…」 物価高に苦しむ子育て世帯、政府に期待する支援は [蚤の市★]
- 【速報】年収の壁の自民案判明、26年は168万円 [蚤の市★]
- お昼のまったり🍵😶‍🌫🤏すこすこハウス🏡
- 🌺マリオサンシャインみたいな「夏」を感じられるゲーム🍹🥺🏝
- 「ミニトマトがボウルに入ってるから使ったら残りはラップして輪ゴムしといてー」👉アスペ系旦那、とんでもない行動に出てしまう [242521385]
- ネトウヨ「中国ロシアとの戦争?日本にはアメリカがついてるので100%勝ちますよ」 [165981677]
- 自閉症児の父親「中絶しておけば良かった。 家族が欲しかったのに、手に入れたのは人間たまごっち」 [777114754]
- 【悲報】高市政権、中国軍機のレーダー照射について国際社会に発信へ [115996789]
