過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
探検
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2011/01/08(土) 17:58:29ID:0w5F53fBP
484名無しさん@お腹いっぱい。
2011/01/25(火) 17:35:02ID:4v6efgTR0 ttp://liargame.jp/index.html
このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
485名無しさん@お腹いっぱい。
2011/01/26(水) 17:28:22ID:9LvkE2vX0 そういう場合はXaxonのネットレコーダーしかないな。
486名無しさん@お腹いっぱい。
2011/01/27(木) 02:50:00ID:JYGImn8Z02011/02/08(火) 21:09:45ID:ihfk+Bz20
http://www.nhk.or.jp/artbs/photo/009.html
上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
2011/02/08(火) 21:40:58ID:kmLZd/z+0
できるよ
よく使われてるjava scriptだろ
よく使われてるjava scriptだろ
489名無しさん@お腹いっぱい。
2011/02/09(水) 00:09:09ID:2QpVybi70 フォーラム系を保存したいのですが
良いソフトありますか?
良いソフトありますか?
2011/02/09(水) 00:45:25ID:S3LS3a5p0
491名無しさん@お腹いっぱい。
2011/02/12(土) 01:21:50ID:dChV5rWn0 決定的なソフトは現れないかねえ
新しいソフトですら現れていないわけだが
新しいソフトですら現れていないわけだが
2011/02/13(日) 22:02:23ID:6bZnuHuB0
>>489
ない
ない
2011/02/13(日) 22:56:17ID:sFgYj0cn0
龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから
してとりこめない。
どんなソフトを使えば取り込めますか?
してとりこめない。
どんなソフトを使えば取り込めますか?
494名無しさん@お腹いっぱい。
2011/02/19(土) 23:58:21.21ID:4N0fBC/Y0 巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか?
いろいろ設定を変えてみたけれど駄目でした。
いろいろ設定を変えてみたけれど駄目でした。
2011/02/21(月) 17:39:50.04ID:mCsnFxG/0
winhttrackというサイトミラーソフトを使用しています。
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。
Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。
まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。
Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。
まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?
496名無しさん@お腹いっぱい。
2011/02/23(水) 17:08:22.81ID:1tqryiUd02011/02/26(土) 14:52:25.55ID:eI0hwifQ0
(´・ω・`)知らんがな
2011/03/18(金) 09:56:13.02ID:8uboNOZD0
巡集のように絶対パスを相対パスに(http://〜index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある?
それか、同等の機能を持ったソフトとか…。
携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
それか、同等の機能を持ったソフトとか…。
携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
499名無しさん@お腹いっぱい。
2011/03/18(金) 10:00:43.45ID:8uboNOZD0 あ、Wが抜けてた。GetHTMLWです。
2011/03/18(金) 16:41:32.10ID:A+5wOcCe0
(´・ω・`)知らんがな
2011/03/18(金) 19:49:28.02ID:8uboNOZD0
(´・ω・`)そうだよね
502名無しさん@お腹いっぱい。
2011/03/25(金) 17:50:39.65ID:gecN6pF70 Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
503名無しさん@お腹いっぱい。
2011/03/31(木) 22:19:17.73ID:JplTcRyR02011/04/01(金) 18:04:55.06ID:xRp+kGAS0
2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
2011/04/01(金) 23:32:30.09ID:I3kOVvUq0
>>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
506503
2011/04/08(金) 06:39:02.29ID:O8PDBMZ+0 回答が・・・どなたか回答を(´;ω;`)ブワッ
2011/04/08(金) 11:12:59.21ID:sdwIAebP0
httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgiを
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
2011/04/08(金) 17:38:56.19ID:toP+TA3e0
2011/04/08(金) 18:05:22.63ID:ODoWyqCr0
いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
510名無しさん@お腹いっぱい。
2011/04/10(日) 07:51:17.21ID:2EVaxSnc0 >>506
m9(^Д^)プギャーーー!!!
m9(^Д^)プギャーーー!!!
2011/04/10(日) 22:26:02.67ID:r6raCUVJ0
巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
2011/04/10(日) 22:35:08.17ID:r6raCUVJ0
ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
513名無しさん@お腹いっぱい。
2011/04/22(金) 10:30:47.67ID:d7+lWIHr0 一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
サイトを丸ごと取り込めるフリーソフトないでしょうか?
2011/05/06(金) 08:08:27.47ID:evJF6buF0
ここは過疎っているので他で聞いてみます
2011/05/11(水) 10:55:51.25ID:HcEd9XAn0
>>513
cronでwgetをまわすといいよ
cronでwgetをまわすといいよ
2011/06/24(金) 18:03:34.03ID:m9RhzJyk0
どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
2011/07/01(金) 00:09:52.24ID:anPvOplt0
巨大フォーラムを取り込めるソフト
ありませんか?
ありませんか?
2011/07/31(日) 23:09:41.06ID:/04LhjsQ0
タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
ダウンロードできるようなソフトはないでしょうか?
519名無しさん@お腹いっぱい。
2011/08/03(水) 18:19:10.27ID:Mv+vARYm0520名無しさん@お腹いっぱい。
2011/08/04(木) 13:05:41.67ID:F0yCqkP40 >>517
そんなもの無い
そんなもの無い
2011/08/09(火) 14:00:52.43ID:4UZXVX1S0
2011/08/12(金) 21:49:19.50ID:A+bFfX8v0
523名無しさん@お腹いっぱい。
2011/09/16(金) 21:02:29.29ID:XaOvb9j60 使ってみた。
524名無しさん@お腹いっぱい。
2011/09/16(金) 21:04:15.07ID:XaOvb9j60 サンプル専門で収集してる人には便利かな。
根こそぎDLするから見るの疲れるけど。
根こそぎDLするから見るの疲れるけど。
525名無しさん@お腹いっぱい。
2011/10/11(火) 10:04:42.08ID:Afz9Up6l02011/10/19(水) 22:07:26.98ID:1qVRjeoL0
PC板の総合質問スレで質問したらソフトウエア板でということでした
ここでいいんでしょうか
すみません
どこで聞いたらいいかわからないので
RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます
しかしダウンローダーが出てこないのです
RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません
どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
ここでいいんでしょうか
すみません
どこで聞いたらいいかわからないので
RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます
しかしダウンローダーが出てこないのです
RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません
どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
527名無しさん@お腹いっぱい。
2011/10/20(木) 04:10:43.21ID:vn7BtAJfO age
2011/10/31(月) 22:02:13.50ID:fAJuLs4d0
フォーラム系の膨大なページがあるサイトをダウンロードしたいのですが、
何か良いソフトないでしょうか?
何か良いソフトないでしょうか?
2011/11/01(火) 00:45:22.29ID:77d+tSbQ0
今ならFirefox+Scrapbookあたり
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
2011/11/03(木) 22:44:54.09ID:CDi4kRgv0
>>529
遅れましたが、ありがとう。
遅れましたが、ありがとう。
2011/12/28(水) 23:52:41.72ID:cNlQoXC/0
t
2012/02/10(金) 22:43:16.54ID:dGH4LKHB0
昔使っていたOfflineExplorerが素晴らしく使いやすかったので
改めて買おうとしたら高すぎ英語意味わからなすぎでワラタww
http://www.metaproducts.com/mp/offline_explorer.htm
Lifetime upgradeライセンスで将来のアップグレードが無料で手に入るらしいのに
Download protectionを別につけられるってどういうこっちゃ
物が確かなのはわかってるんだけどぼったくり会社っぽくて怖すぎる
改めて買おうとしたら高すぎ英語意味わからなすぎでワラタww
http://www.metaproducts.com/mp/offline_explorer.htm
Lifetime upgradeライセンスで将来のアップグレードが無料で手に入るらしいのに
Download protectionを別につけられるってどういうこっちゃ
物が確かなのはわかってるんだけどぼったくり会社っぽくて怖すぎる
533名無しさん@お腹いっぱい。
2012/03/21(水) 23:07:58.30ID:6xVa6Whz0 一点質問なんですが2つのフォルダーでデータやり取りしているサイトはどのようにすればダウンロードできるでしょうか
http://Aに一覧があり
http//Bにデータが保存されている場合。
現在小説家になろうの小説を取り込めないか実施しております。
ご協力お願いします
http://Aに一覧があり
http//Bにデータが保存されている場合。
現在小説家になろうの小説を取り込めないか実施しております。
ご協力お願いします
2012/03/21(水) 23:21:36.48ID:2iY4RaFW0
Aにリンクがあるなら、それを辿ればいいだけじゃないの
2012/03/21(水) 23:23:14.22ID:6xVa6Whz0
>>534
丸ごと取り込む場合下位フォルダーしか保存できなくありません?
丸ごと取り込む場合下位フォルダーしか保存できなくありません?
2012/03/21(水) 23:51:23.76ID:qtiw2xAE0
そこはオプションしだいかと思います。ドメインが違うのなら取得対象ドメインとしてBを追加していないのではないでしょうか。
2012/08/11(土) 17:24:02.33ID:aXr1ntpO0
巡集はhttpsで始まるサイトは取り込めない?
あとUser-Agentで設定できる文字列の長さが短めに制限されてる
作者様に要望を出したいけど連絡の取りようが
あとUser-Agentで設定できる文字列の長さが短めに制限されてる
作者様に要望を出したいけど連絡の取りようが
2012/12/02(日) 11:23:29.14ID:8M7pkU6S0
age
2012/12/06(木) 12:17:35.17ID:2D/ha+t00
age
2012/12/23(日) 17:37:36.10ID:PKf790AM0
cssファイルの中で指定されている別のcssファイルや画像をすべて取り込めるソフトはありますか?
541名無しさん@お腹いっぱい。
2013/01/25(金) 17:48:17.77ID:nl3cHeHZ0 URLに全角文字が含まれていてもオッケーなソフトってないですか?
2013/01/27(日) 23:57:59.32ID:zpNPQWLC0
巡集でWikiをローカル保存する事は出来た。
出来たけど…レイアウトがまるで再現されてない。
スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。
何か上手い手は無いものか…
出来たけど…レイアウトがまるで再現されてない。
スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。
何か上手い手は無いものか…
2013/01/28(月) 01:13:12.86ID:cCjA9N780
それはスタイルシートの再現が出来てないだけだと思うが
544名無しさん@お腹いっぱい。
2013/03/13(水) 23:23:31.58ID:COFrzmvM0 2chのある板のスレを全て丸ごと取り込めるダウンロードソフトってありませんかね?
例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。
Website Explorer
波乗野郎
ComGetter64
試したこの中では駄目でした。
外部rリンクをOKにしても駄目です。
正直困っております。
っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ)
どのソフトなら
http://anago.2ch.net/software/subback.html
ここから一階層分だけダウンロードできるんでしょうか
例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。
Website Explorer
波乗野郎
ComGetter64
試したこの中では駄目でした。
外部rリンクをOKにしても駄目です。
正直困っております。
っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ)
どのソフトなら
http://anago.2ch.net/software/subback.html
ここから一階層分だけダウンロードできるんでしょうか
2013/03/13(水) 23:36:53.85ID:a7RRbjQQ0
ない
あるとしても即座に規制かかっておしまい
あるとしても即座に規制かかっておしまい
2013/03/16(土) 14:39:56.55ID:mET6QTJ90
普通に専ブラで片っ端から取得すればいいんじゃね?
2013/03/16(土) 15:44:08.33ID:DB2dBeO60
それが面倒だから訊いてるんだろうな
2013/03/18(月) 14:51:56.25ID:xxqiRn4w0
規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
2013/03/18(月) 15:45:44.28ID:n/vUs3WZ0
ソースみるとリンク先はIDだけだけど実際には
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
2013/03/25(月) 03:05:59.46ID:f95fsGFY0
atroposってprntscrnキーを設定することはできないの?
2013/05/12(日) 06:29:55.05ID:homI4KHO0
gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
割と弾かれてるんだな
余裕で乗り越えたけど
2013/05/14(火) 19:02:11.80ID:yDZ7TQI70
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
2013/05/26(日) 23:57:36.73ID:og6d6/gf0
報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
554名無しさん@お腹いっぱい。
2013/05/31(金) 21:55:18.53ID:uZUQOv7m0 GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
OSはwindows vistaです。
2013/09/14(土) 22:13:24.97ID:CXBwsMJ/0
555 get !
556名無しさん@お腹いっぱい。
2013/10/14(月) 14:28:53.91ID:kSUr/BCk0 ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
2014/01/17(金) 21:27:59.74ID:4BAKXmKO0
保守
2014/02/28(金) 04:38:18.23ID:PtzNWAqB0
ATWIKIのサイトを取り込むコツないかな?
2014/02/28(金) 12:57:50.30ID:QvnC3EMh0
>>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
2014/04/12(土) 00:01:33.91ID:piRO/wAX0
フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
561560
2014/04/14(月) 17:58:54.73ID:r8sCxR980 すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました
取り込む速度も瞬殺でこのソフトすげえ
取り込む速度も瞬殺でこのソフトすげえ
562名無しさん@お腹いっぱい。
2014/05/08(木) 05:15:50.10ID:S+GF45Tc0 アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
2014/05/08(木) 19:02:13.75ID:Ejo0hQ3D0
>>562
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
564名無しさん@お腹いっぱい。
2014/05/10(土) 10:48:33.83ID:Ne1h6I/L0 ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
どんなソフトを使ったらいいでしょうか?
2014/05/10(土) 21:00:37.39ID:FkoA4TlM0
>>564
IEでおk
IEでおk
2014/05/12(月) 23:45:03.04ID:i13e208b0
wget以外でパス付きのサイトダウンロードするソフトない?
2014/06/05(木) 00:11:41.72ID:qF77yrzL0
2014/06/05(木) 07:15:01.12ID:UBg0CeAy0
古いVer.だとなお速いぞ
2014/06/05(木) 08:02:02.37ID:0/gSZuHj0
Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
相手方の負担を考えなければ実に快適だな。
2014/06/06(金) 00:00:03.18ID:EiBQjR9Q0
うちのも7.12.0だな
2014/06/06(金) 09:16:33.67ID:BP3ACk690
おれ使ってるのは7.11.5だった
2014/06/06(金) 10:55:15.35ID:zlKKgRCS0
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
2014/06/15(日) 09:25:01.74ID:hsbulYYi0
>>567
スレ離れてて遅レスになったけどもうできた?
スレ離れてて遅レスになったけどもうできた?
2014/06/16(月) 23:00:28.10ID:m0YS9fWe0
2014/06/17(火) 06:39:41.44ID:B5QBqdwa0
atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
2014/06/17(火) 09:10:09.25ID:x5D8mRI50
wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
htmlソースを取り込んでも意味無いんじゃないか
2014/06/17(火) 12:33:19.19ID:B5QBqdwa0
構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
2014/06/17(火) 12:51:38.14ID:x5D8mRI50
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
2014/06/17(火) 13:55:07.26ID:W7OE9+f10
>>574
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
2014/06/17(火) 15:11:46.11ID:6Cl5a3940
φ(.. )メモメモ
2014/06/17(火) 21:18:13.55ID:n2xsu56C0
582名無しさん@お腹いっぱい。
2014/08/17(日) 15:30:32.21ID:ir6+HsPe0 会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
2014/09/18(木) 14:15:22.01ID:ttWc5ZOa0
m9
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【次の一手】台湾問題で小林よしのり氏が私見「まさに戦争前夜」「ただちに徴兵制を敷いて、高市支持者を最前線へ」… ★5 [BFU★]
- 【野球】大谷翔平、佐々木朗希、山本由伸らがWBC辞退なら広がる不協和音… 『過去イチ盛り上がらない大会』になる可能性も★2 [冬月記者★]
- 【国際】ロシアはすでに戦争準備段階――ポーランド軍トップが警告 [ぐれ★]
- 「町中華」の“息切れ倒産”が増加 ブームにも支えられ職人技で踏ん張ってきたが… 大手チェーンは値上げでも絶好調 [ぐれ★]
- 【news23】小川彩佳アナ「ここまでの広がりになるということを、高市総理はどれだけ想像できていたんでしょうね」 日中問題特集で [冬月記者★]
- 毛寧(もう・ねい)報道官「中国に日本の水産品の市場は無い」 高市首相の国会答弁に「中国民衆の強い怒り」 ★2 [ぐれ★]
- 【高市売り】円安、止まらず!凄い勢いで暴落中。157円へ [219241683]
- 俺「お湯を流してと…」シンク「ボンッw」
- 【悲報】ヤフコメ民「中国が水産物を輸入禁止にするなら、日本国民向けに安く販売すればいい。中国依存から脱するべき」 [153736977]
- ヤフコメ「中国への輸出がなくなる事で、日本国内で美味しくいただける事に感謝します」👈やたら政権寄りなのはなぜ?(´・ω・`) [399259198]
- もう寝ます
- 1,000万円のBMWに擦ってしまった札幌のガキ、捕らえられてガチで詰む [329329848]
