過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2015/02/22(日) 09:44:28.45ID:w+6nav8q0
あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
すいません今から少し勉強してみますw
2015/02/22(日) 10:07:10.81ID:OvZIuqnD0
動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
2015/02/22(日) 11:29:20.03ID:w+6nav8q0
2015/02/22(日) 22:33:22.35ID:VhCspjFi0
>>595
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
2015/02/23(月) 01:42:25.02ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
2015/02/23(月) 07:28:24.10ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/24(火) 03:45:07.05ID:UGZgzTpW0
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
600名無しさん@お腹いっぱい。
2015/03/19(木) 21:35:16.72ID:788O9MZS0 FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
2015/03/19(木) 21:45:38.13ID:UF2HDIz30
最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
2015/05/28(木) 11:20:32.26ID:LpX/6Zfv0
Craving Explorerはウイルスらしいよ
プログラム終了してもプロセス残ってる
プログラム終了してもプロセス残ってる
2015/05/29(金) 10:35:41.67ID:WyPaR80i0
>>602
右上の[x]でタスクトレイに残る仕様
右上の[x]でタスクトレイに残る仕様
2015/06/02(火) 16:45:58.44ID:eHZ6wgAA0
2015/06/03(水) 04:41:04.14ID:MMwqrRbf0
>>602-603
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
2015/06/03(水) 08:28:27.52ID:6glLSngY0
>>605
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
2015/06/03(水) 08:49:07.34ID:MMwqrRbf0
>606
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
2015/06/03(水) 11:08:30.82ID:sOBS0atv0
2015/06/03(水) 11:17:36.16ID:6glLSngY0
Cravingの作者のページの「今すぐダウンロード」クリックしたら
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
2015/06/03(水) 20:13:57.38ID:xxSSNGCM0
さてはお前Flashプラグインと一緒にMcafee入たことあるだろ
2015/06/03(水) 23:20:17.02ID:x11Br7AU0
ウイルスバスター(笑)
2015/06/03(水) 23:22:05.55ID:6glLSngY0
ウイルスドクターじゃないよ
2015/06/04(木) 08:52:23.60ID:I3isPSnx0
ウイルスバスターは無いわー
有名なESETに乗り換えを検討したら?
有名なESETに乗り換えを検討したら?
2015/06/07(日) 10:25:26.52ID:rCRTcimQ0
FLASHXの動画をDLしたいんだが
2015/08/02(日) 19:53:58.97ID:vgZfvBkf0
website explorerに代わるものが未だに見つけられん
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
2015/08/02(日) 20:50:12.96ID:RKoieSBh0
2015/08/09(日) 10:50:50.55ID:QRZYOF0T0
巡集でWIKIみたいなURLにパーセントが入ってるサイトのダウンロードって無理ですかね?
このサイト何ですけど
http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
このサイト何ですけど
http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
2015/08/10(月) 07:22:02.59ID:wkSgRzj+0
>>617
詳細設定 > 取得設定 > URLの%を変換しないをON
詳細設定 > 取得設定 > URLの%を変換しないをON
2015/08/10(月) 11:09:00.22ID:KuK/+Yns0
2015/08/10(月) 20:31:22.79ID:wkSgRzj+0
>>619
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ
とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ
とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
2015/08/10(月) 22:34:19.56ID:KuK/+Yns0
2015/08/10(月) 23:39:18.03ID:wkSgRzj+0
2015/08/10(月) 23:44:06.31ID:C51cH/kB0
今のところwikiを丸ごと落とせるソフトはないよ
2015/08/11(火) 12:32:34.98ID:JcoulAXO0
了解しました。ありがとうございます
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?
http://kumaabaron.web.fc2.com/jiten_v1_2.html
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?
http://kumaabaron.web.fc2.com/jiten_v1_2.html
2015/08/11(火) 18:03:15.18ID:8J9/zggO0
巡集で落とすとjsファイル中の改行正しく取れてないみたい
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
2015/08/11(火) 19:20:34.97ID:m59hdRKx0
すいませんどこをどう置き換えればいいのか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
2015/08/11(火) 19:27:29.30ID:m59hdRKx0
保存して上書きの事なら駄目でした
2015/08/11(火) 20:10:39.42ID:8J9/zggO0
2015/08/11(火) 22:46:49.44ID:m59hdRKx0
IEなら見れましたが、Chromeだと駄目ですね
ちょい調べてみます
ちょい調べてみます
2015/08/11(火) 23:07:04.85ID:8J9/zggO0
>>629
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
2015/08/11(火) 23:14:42.52ID:m59hdRKx0
できました。・゚・(ノД`)・゚・。
ありがとうございます
ありがとうございます
ありがとうございます
ありがとうございます
ありがとうございます
ありがとうございます
632名無しさん@お腹いっぱい。
2015/08/20(木) 10:22:17.25ID:/wUo6m5X0 http://ameblo.jp/daisuke18/imagelist.html
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
2015/08/20(木) 18:13:40.56ID:igW2lWLi0
2015/08/20(木) 19:38:10.11ID:/wUo6m5X0
レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
2015/08/20(木) 19:59:27.07ID:/wUo6m5X0
あ、DCさくらの説明にそれっぽいことが書かれています。 今から試してみます。
2015/08/20(木) 22:21:32.84ID:TgfH37KW0
>>632
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず
ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が
htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず
ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が
htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
2015/08/22(土) 13:58:52.53ID:Rly0uQHr0
さらにレス付けている方がいるとは思わず、返事遅れてすいません。
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
2015/08/22(土) 14:27:25.21ID:Rly0uQHr0
http://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1496147004
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
2015/08/22(土) 21:11:25.27ID:9v9ZaUJD0
>>638
私立メロン高校パソコン部
私立メロン高校パソコン部
2015/08/22(土) 23:07:36.74ID:Rly0uQHr0
レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
2015/08/22(土) 23:21:35.55ID:Rly0uQHr0
あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
2015/08/23(日) 01:44:40.52ID:fJ53XnBu0
さすがに情報後出し教えて君過ぎるので
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で
手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で
手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
2015/08/24(月) 17:49:10.84ID:YlI3KiMU0
また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。
もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。
もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
2015/08/24(月) 21:25:35.93ID:AwVEz0ch0
リスト作れとか図々しすぎてわろた
2015/08/30(日) 23:00:32.47ID:BDWlhiRC0
相手が女かもと思って途中までめっちゃ親切なのウケるw
2015/09/02(水) 08:25:19.39ID:uqeCSoBo0
dcさくらでできたけど
2015/09/02(水) 09:09:40.88ID:cTN0L3v+0
画像ページを開いてから落とすのは出来るけど
画像リストページからリンク先の画像は取れなくね
画像リストページからリンク先の画像は取れなくね
2015/09/02(水) 23:31:30.02ID:7+MYnnXj0
Irisで何でもできる
インテリジェントな処理はケースバイケースで自作
リトライしながら複数スレッドで落としてくれるだけで十分有り難い
その部分まで組もうと思うと大変
インテリジェントな処理はケースバイケースで自作
リトライしながら複数スレッドで落としてくれるだけで十分有り難い
その部分まで組もうと思うと大変
2015/09/03(木) 06:44:44.56ID:/G1C3ynY0
dcさくらの場合コンテンツ抽出を繰り返せば目的にたどりつく
2015/09/06(日) 06:23:14.24ID:zvG+R+wu0
index.htmlを除外するにはどうしたらいいのでしょうか
フィルタ設定しても絶対にトップページをダウンロードしてしまいます
フィルタ設定しても絶対にトップページをダウンロードしてしまいます
2015/09/06(日) 06:39:07.92ID:zvG+R+wu0
あ、使用ソフトは巡集です
よろしくお願いします
よろしくお願いします
2015/09/06(日) 07:15:24.82ID:zvG+R+wu0
謎解けました
お騒がせしてすいませんでした
お騒がせしてすいませんでした
2015/09/18(金) 00:26:24.20ID:TYpmDXyN0
Win8.1でホームページ取り込みをするにはどのそふとがよいですか?
2015/10/26(月) 17:44:06.21ID:zHYr0+XK0
教えてくんを甘やかしすぎw
2015/11/04(水) 00:19:37.48ID:h9eq5OR90
?付きアドレスを正しく、もしくは強制的にローカル参照ファイルとして取り込んでくれるものはもう無理かな。あとjavascript使ってるやつ。
teleportと巡集とhttrack試したけど、どれか1つのツールだけでOKってのは無いね。
?がついてるURLページを何度も何度もとりに行ってhtmlと画像の同じファイルが100個以上出来たり、
jsもcssもちゃんと取り込めてるのにマウスオーバーとかの処理が出来てなかったり、
相対パスを正しく認識出来ず、ローカルファイルへのリンク書き換えも対象ファイルの取り込みも無視されたり。
複数のツールをサイトごとに使い分けるのがベターかも。
teleportと巡集とhttrack試したけど、どれか1つのツールだけでOKってのは無いね。
?がついてるURLページを何度も何度もとりに行ってhtmlと画像の同じファイルが100個以上出来たり、
jsもcssもちゃんと取り込めてるのにマウスオーバーとかの処理が出来てなかったり、
相対パスを正しく認識出来ず、ローカルファイルへのリンク書き換えも対象ファイルの取り込みも無視されたり。
複数のツールをサイトごとに使い分けるのがベターかも。
2015/12/03(木) 15:48:33.53ID:B0Usj2+U0
VisualWget使ってみた
%E3%81%82〜
こういった日本語含むパーセントエンコードされたURLって落とすの不可?
漢字がバグったようなURLになって止まってしまう
restrict-file-names=nocontrol を追加したら少し進むがやっぱ止まる
wget使ってる人どうやってるの
ご助言くだされ
%E3%81%82〜
こういった日本語含むパーセントエンコードされたURLって落とすの不可?
漢字がバグったようなURLになって止まってしまう
restrict-file-names=nocontrol を追加したら少し進むがやっぱ止まる
wget使ってる人どうやってるの
ご助言くだされ
2015/12/06(日) 02:07:33.03ID:F8C9cYsk0
こんなところにバグレポ&パッチ書いても仕方ない気はするけど書いとく。
GetHTMLW/GetHTMLのバグ
・取得中、取得するURLに拡張子が無い場合にフリーズ、強制終了することがある
原因はNULLポインタへのアクセス。
関数 get_extptr(hdrlistw.cpp、138-144行) が、NULLポインタを返す
可能性があるにもかかわらず、その対処を怠っていたこと。
どうなっているかは次のアドレス/行番号を参照
(GetHTMLW 8.3.0)GetHTMLW.exe
0040FF5B-0040FF6D (実行ファイル上:00F55B-00F56D)
(GetHTML5.3.1) GetHTML.exe
004089AB-004089BD (実行ファイル上:007FAB-007FBD)
(GetHTML5.3.1) hdrlistw.cpp、510-511行
> q = get_extptr(p);
> if (*q == '.') {
パッチ(変更箇所のみ)
(GetHTMLW 8.3.0)
0040FF64 90 NOP
0040FF65 90 NOP
0040FF66 90 NOP
0040FF67 90 NOP
0040FF68 90 NOP
0040FF69 83F8 00 CMP EAX,0
0040FF6C 74 33 JE SHORT GETHTMLW.0040FFA1
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)
(GetHTML5.3.1の)hdrlistw.cpp、510-511行
q = get_extptr(p);
if (q != NULL) {
GetHTMLW/GetHTMLのバグ
・取得中、取得するURLに拡張子が無い場合にフリーズ、強制終了することがある
原因はNULLポインタへのアクセス。
関数 get_extptr(hdrlistw.cpp、138-144行) が、NULLポインタを返す
可能性があるにもかかわらず、その対処を怠っていたこと。
どうなっているかは次のアドレス/行番号を参照
(GetHTMLW 8.3.0)GetHTMLW.exe
0040FF5B-0040FF6D (実行ファイル上:00F55B-00F56D)
(GetHTML5.3.1) GetHTML.exe
004089AB-004089BD (実行ファイル上:007FAB-007FBD)
(GetHTML5.3.1) hdrlistw.cpp、510-511行
> q = get_extptr(p);
> if (*q == '.') {
パッチ(変更箇所のみ)
(GetHTMLW 8.3.0)
0040FF64 90 NOP
0040FF65 90 NOP
0040FF66 90 NOP
0040FF67 90 NOP
0040FF68 90 NOP
0040FF69 83F8 00 CMP EAX,0
0040FF6C 74 33 JE SHORT GETHTMLW.0040FFA1
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)
(GetHTML5.3.1の)hdrlistw.cpp、510-511行
q = get_extptr(p);
if (q != NULL) {
2015/12/06(日) 22:48:50.52ID:5T85n6PV0
うちのは7.12だな
2015/12/06(日) 23:28:00.92ID:F8C9cYsk0
>>658
とするとこのバグは無いはず。
あと、7.12のままなのは1ホストからの同時取得数制限が掛かる直前のバージョン
ということもあると思うけど、7.13以降は定義ファイルを書けば以前と同じ状況に緩和できる。
(Waitも挿入できるからアクセス過多で弾かれないようにもできるかもね)
-------------------------------------
>>657追記
条件は次の4つで、これが実装されているのは GetHTMLW 8.0.0/GetHTML 5.0.0 以降。
1:(拡張子の無い)そのURLのデータを既に取得している
2:そのURLは更新されている(オプションにより内容、httpヘッダで返される時刻が)
3:そのURLから再取得しようとする
4:「取得条件設定」の「E:旧データを保存」が有効になっている
で、この時に>>657で示した既存ファイルのリネームルーチン内でNULLポインタに
アクセスする状況になる。
とするとこのバグは無いはず。
あと、7.12のままなのは1ホストからの同時取得数制限が掛かる直前のバージョン
ということもあると思うけど、7.13以降は定義ファイルを書けば以前と同じ状況に緩和できる。
(Waitも挿入できるからアクセス過多で弾かれないようにもできるかもね)
-------------------------------------
>>657追記
条件は次の4つで、これが実装されているのは GetHTMLW 8.0.0/GetHTML 5.0.0 以降。
1:(拡張子の無い)そのURLのデータを既に取得している
2:そのURLは更新されている(オプションにより内容、httpヘッダで返される時刻が)
3:そのURLから再取得しようとする
4:「取得条件設定」の「E:旧データを保存」が有効になっている
で、この時に>>657で示した既存ファイルのリネームルーチン内でNULLポインタに
アクセスする状況になる。
2015/12/14(月) 17:06:21.83ID:KBPfaGx40
アメブロの保存をしている方がいたら教えて欲しいのですが、
アメブロの保存に向いているソフトはなんでしょうか?
今はscrapbookを使っているのですが、ダウンロードと構築に膨大な時間がかかったわりに
後で見返すと途中でリンクが繋がっておらず歯抜けになっていたりして残念な思いをしました。
アメブロの保存に向いているソフトはなんでしょうか?
今はscrapbookを使っているのですが、ダウンロードと構築に膨大な時間がかかったわりに
後で見返すと途中でリンクが繋がっておらず歯抜けになっていたりして残念な思いをしました。
2015/12/14(月) 22:46:11.88ID:6tGKNCvD0
動的にページが生成されるから、データが大量になるよな
2016/01/11(月) 18:47:22.66ID:yIrp54MT0
>>657のパッチ(バイナリ書換えのみ)が別のバグ作ってたことに
今更気づいたので修正済みのパッチ貼っとく
(GetHTMLW 8.3.0)
0040FF64 83F8 00 CMP EAX,0
0040FF67 74 38 JE SHORT GETHTMLW.0040FFA1
0040FF69 8A03 MOV AL,BYTE PTR DS:[EBX]
0040FF6B 90 NOP
0040FF6C 90 NOP
0040FF6D 90 NOP
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)
(GetHTMLW 5.3.1)
004089B4 83F8 00 CMP EAX,0
004089B7 74 38 JE SHORT gethtml.004089F1
004089B9 8A03 MOV AL,BYTE PTR DS:[EBX]
004089BB 90 NOP
004089BC 90 NOP
004089BD 90 NOP
(exeファイル上では-0x400A00;007FB4-007FBDの範囲)
今更気づいたので修正済みのパッチ貼っとく
(GetHTMLW 8.3.0)
0040FF64 83F8 00 CMP EAX,0
0040FF67 74 38 JE SHORT GETHTMLW.0040FFA1
0040FF69 8A03 MOV AL,BYTE PTR DS:[EBX]
0040FF6B 90 NOP
0040FF6C 90 NOP
0040FF6D 90 NOP
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)
(GetHTMLW 5.3.1)
004089B4 83F8 00 CMP EAX,0
004089B7 74 38 JE SHORT gethtml.004089F1
004089B9 8A03 MOV AL,BYTE PTR DS:[EBX]
004089BB 90 NOP
004089BC 90 NOP
004089BD 90 NOP
(exeファイル上では-0x400A00;007FB4-007FBDの範囲)
2016/01/22(金) 16:47:20.82ID:Ej+GshLN0
ハーメルンを取り込めるソフトないかな?
2016/01/22(金) 16:49:06.73ID:D+wPDphN0
ありますん!
2016/01/22(金) 17:04:36.04ID:ewi1rt/Q0
あの投稿サイトなら、気に入った作品をお気に入りに入れて、一括表示したのをファイル名に日付込みで保存したほうが確実だし管理しやすいわ
なお、リンクを右クリックしてリンク先を保存、だと、保存失敗することがある
なお、リンクを右クリックしてリンク先を保存、だと、保存失敗することがある
666名無しさん@お腹いっぱい。
2016/02/01(月) 17:49:03.62ID:gsi73ib40 東京ローダーなるものがあるが、これは果たして問題ないのだろうか??
動画ダウンロードソフトになるが、数年経ち、数万人が使っているというのに情報がない。
使えるソフトならば情報がないほうが不自然だが、
それでいて評判が悪いという話も聞かない。
ウイルスだというものや、安全だというものは耳にするが、具体的な内容はどちらもない。
ないない尽しでよくわからないソフトだ。Adobe Airのだが、これは果たして使えるダウンロードソフトなのだろうか。
動画ダウンロードソフトになるが、数年経ち、数万人が使っているというのに情報がない。
使えるソフトならば情報がないほうが不自然だが、
それでいて評判が悪いという話も聞かない。
ウイルスだというものや、安全だというものは耳にするが、具体的な内容はどちらもない。
ないない尽しでよくわからないソフトだ。Adobe Airのだが、これは果たして使えるダウンロードソフトなのだろうか。
2016/03/04(金) 08:16:51.90ID:H8nzEw4i0
ハーメルンが常時SSL化になって巡集やGetHTMLで取り込めなくなったんだけど
この状態で取り込めるソフト無い?
この状態で取り込めるソフト無い?
2016/03/07(月) 21:33:23.26ID:iFNTWIIk0
wgetで
ttp://pentan.info/server/linux/wget_error_ssl.html
ttp://pentan.info/server/linux/wget_error_ssl.html
669名無しさん@お腹いっぱい。
2016/03/12(土) 17:14:26.69ID:TLIZAu0l0 TBSオンデマンドをダウンロードするのはどうしたらいいんだろう?
無料放送中だから違法にはならないと思う。
http://www.tbs.co.jp/muryou-douga/smp/never-let-me-go/009.html
無料放送中だから違法にはならないと思う。
http://www.tbs.co.jp/muryou-douga/smp/never-let-me-go/009.html
2016/03/13(日) 06:08:38.80ID:CuSjab960
【DL】動画の保存方法総合スレ【保存】part24 [無断転載禁止]©2ch.net
http://potato.2ch.net/test/read.cgi/streaming/1449473346/
http://potato.2ch.net/test/read.cgi/streaming/1449473346/
2016/03/13(日) 06:21:15.88ID:DclDScKY0
>>670
ありがとう!
ありがとう!
2016/03/13(日) 06:22:49.11ID:DclDScKY0
673名無しさん@お腹いっぱい。
2016/04/09(土) 05:19:40.75ID:e3wpWblj0 Windows10(home 64bit)で使えるいいダウンローダーないかな?
前のPCで使ってたIrvineみたいなリジューム機能のあるやつ
突然前のPC壊れて新しいの買ったけど調べたら
Irvineは7までしか対応してないんだよなぁ・・・・・・
前のPCで使ってたIrvineみたいなリジューム機能のあるやつ
突然前のPC壊れて新しいの買ったけど調べたら
Irvineは7までしか対応してないんだよなぁ・・・・・・
2016/04/18(月) 20:32:26.68ID:mvqqjHuJ0
>>673
有料でも良いなら、Internet Download Managerはどうかな?
https://www.internetdownloadmanager.com
リジューム機能もあるし、ファイルの分割ダウンロードをするので、ダウンロード速度が驚異的に早い。
Windows10にも対応していみたいだよ。
有料でも良いなら、Internet Download Managerはどうかな?
https://www.internetdownloadmanager.com
リジューム機能もあるし、ファイルの分割ダウンロードをするので、ダウンロード速度が驚異的に早い。
Windows10にも対応していみたいだよ。
2016/05/27(金) 12:30:14.11ID:KuWnDvU40
巡集とHTTRACK、どっちにしようか悩むわぁー
2016/05/27(金) 16:05:49.10ID:EXP4nyrp0
>>675
今、Httrack使い始めたけどいい感じ。スクリプトもしっかり処理してくれる。
ただ、ID認証が標準の機能では弾かれるので困ってる。
いろんなの試したけどホント完全なものってないね。
有料でもいいから、出してほしい。
今、Httrack使い始めたけどいい感じ。スクリプトもしっかり処理してくれる。
ただ、ID認証が標準の機能では弾かれるので困ってる。
いろんなの試したけどホント完全なものってないね。
有料でもいいから、出してほしい。
2016/06/04(土) 08:23:42.85ID:MrNt3Pin0
FirefoxのアドオンDownloadHelperを使ってるがこのごろYouTubeでさえ
ダウンロード出来ないときがある、Firefoxと愛称が良いダウンローダーないですか?
ダウンロード出来ないときがある、Firefoxと愛称が良いダウンローダーないですか?
2016/06/17(金) 16:42:03.83ID:3bWsLJSE0
WEBBOXというの使ってみたんだけど
FC2のサイト保存だけいないね
エラーになってどっか飛ばされてもとにもどる
なんだこれ
FC2のサイト保存だけいないね
エラーになってどっか飛ばされてもとにもどる
なんだこれ
2016/08/10(水) 16:21:37.70ID:P/MwGFZI0
Helperが糞ダサくなったしね
2016/08/28(日) 19:53:07.99ID:yppS+Hfg0
他人のツイログを丸ごと保存したいんですが、おすすめのソフトとかありますか?
2016/08/31(水) 15:31:36.70ID:N3wIesmL0
とある学校のサイトの授業動画をダウンロードしたいんだけど、
どうしても複数ファイルに分割されてしまう。
おそらくm2tsって形式だと思うんだけど、まとめて1ファイルもしくは
一式を一度にダウンロードする方法ってないかな?
一度ダウンロードしておけばスマホで出先で勉強できるんだけど、
毎回アクセスするとパケットがすぐに上限に達してしまう。
なんとかならないかな?
どうしても複数ファイルに分割されてしまう。
おそらくm2tsって形式だと思うんだけど、まとめて1ファイルもしくは
一式を一度にダウンロードする方法ってないかな?
一度ダウンロードしておけばスマホで出先で勉強できるんだけど、
毎回アクセスするとパケットがすぐに上限に達してしまう。
なんとかならないかな?
2016/08/31(水) 15:35:15.88ID:N3wIesmL0
>>681
m3u8だった。
m3u8だった。
683名無しさん@お腹いっぱい。
2016/08/31(水) 19:25:13.20ID:FsXAU5t30 >>681
OBS
OBS
2016/08/31(水) 21:45:16.22ID:N3wIesmL0
2016/09/01(木) 09:25:08.59ID:dlF7Lhlk0
m3u8は動画ファイルではない
686680
2016/09/01(木) 18:32:24.60ID:YK3BgmXO0 誰か助けてつかあさい(´・ω・`)
2016/09/02(金) 12:58:35.56ID:kPzHxTOt0
>>684
馬鹿には無理
馬鹿には無理
2016/09/02(金) 14:34:30.24ID:RFLIKJAx0
>>680
一番無難なのは、ツイログではなくTweenで他人のツイートを手操作で最大限表示した後に
(Twitter側の都合により3200件までという制限があるけど)別途.tsvテキスト形式で保存する事
だと思う。
自分のツイートなら、Twitter側の標準機能で保存したのを
そのままFTPソフトで適当なWebスペースに丸ごとアップロードするだけで
Webページとして公開できるけどな。
一番無難なのは、ツイログではなくTweenで他人のツイートを手操作で最大限表示した後に
(Twitter側の都合により3200件までという制限があるけど)別途.tsvテキスト形式で保存する事
だと思う。
自分のツイートなら、Twitter側の標準機能で保存したのを
そのままFTPソフトで適当なWebスペースに丸ごとアップロードするだけで
Webページとして公開できるけどな。
2016/09/02(金) 18:29:47.14ID:kJeZJ2GI0
2016/09/02(金) 19:47:47.42ID:RFLIKJAx0
>689
ならば時間がかかるけど適当なPDF作成ソフトで保存する程度で我慢するしかないのでは?
AcrobatやpdfFactoryなどを使えば、例えば計15ページ分の記事なら15回分の操作で1ファイルに全ページ保存できるよ。
俺自身はAcrobat11を愛用してるが、ツイログの保存は未だやった事ないから実際どんな具合なのかは何とも言えんが。
ならば時間がかかるけど適当なPDF作成ソフトで保存する程度で我慢するしかないのでは?
AcrobatやpdfFactoryなどを使えば、例えば計15ページ分の記事なら15回分の操作で1ファイルに全ページ保存できるよ。
俺自身はAcrobat11を愛用してるが、ツイログの保存は未だやった事ないから実際どんな具合なのかは何とも言えんが。
2016/09/03(土) 11:53:47.49ID:fDYi/RnN0
うーん巡集とかでは無理ですかね・・・
2016/09/03(土) 12:06:49.97ID:8Ijb08g30
既に知ってるフリーソフトがあるなら、まず自分で試せよ(w
■ このスレッドは過去ログ倉庫に格納されています
