過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
502名無しさん@お腹いっぱい。
2011/03/25(金) 17:50:39.65ID:gecN6pF70 Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
503名無しさん@お腹いっぱい。
2011/03/31(木) 22:19:17.73ID:JplTcRyR02011/04/01(金) 18:04:55.06ID:xRp+kGAS0
2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
2011/04/01(金) 23:32:30.09ID:I3kOVvUq0
>>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
506503
2011/04/08(金) 06:39:02.29ID:O8PDBMZ+0 回答が・・・どなたか回答を(´;ω;`)ブワッ
2011/04/08(金) 11:12:59.21ID:sdwIAebP0
httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgiを
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
2011/04/08(金) 17:38:56.19ID:toP+TA3e0
2011/04/08(金) 18:05:22.63ID:ODoWyqCr0
いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
510名無しさん@お腹いっぱい。
2011/04/10(日) 07:51:17.21ID:2EVaxSnc0 >>506
m9(^Д^)プギャーーー!!!
m9(^Д^)プギャーーー!!!
2011/04/10(日) 22:26:02.67ID:r6raCUVJ0
巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
2011/04/10(日) 22:35:08.17ID:r6raCUVJ0
ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
513名無しさん@お腹いっぱい。
2011/04/22(金) 10:30:47.67ID:d7+lWIHr0 一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
サイトを丸ごと取り込めるフリーソフトないでしょうか?
2011/05/06(金) 08:08:27.47ID:evJF6buF0
ここは過疎っているので他で聞いてみます
2011/05/11(水) 10:55:51.25ID:HcEd9XAn0
>>513
cronでwgetをまわすといいよ
cronでwgetをまわすといいよ
2011/06/24(金) 18:03:34.03ID:m9RhzJyk0
どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
2011/07/01(金) 00:09:52.24ID:anPvOplt0
巨大フォーラムを取り込めるソフト
ありませんか?
ありませんか?
2011/07/31(日) 23:09:41.06ID:/04LhjsQ0
タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
ダウンロードできるようなソフトはないでしょうか?
519名無しさん@お腹いっぱい。
2011/08/03(水) 18:19:10.27ID:Mv+vARYm0520名無しさん@お腹いっぱい。
2011/08/04(木) 13:05:41.67ID:F0yCqkP40 >>517
そんなもの無い
そんなもの無い
2011/08/09(火) 14:00:52.43ID:4UZXVX1S0
2011/08/12(金) 21:49:19.50ID:A+bFfX8v0
523名無しさん@お腹いっぱい。
2011/09/16(金) 21:02:29.29ID:XaOvb9j60 使ってみた。
524名無しさん@お腹いっぱい。
2011/09/16(金) 21:04:15.07ID:XaOvb9j60 サンプル専門で収集してる人には便利かな。
根こそぎDLするから見るの疲れるけど。
根こそぎDLするから見るの疲れるけど。
525名無しさん@お腹いっぱい。
2011/10/11(火) 10:04:42.08ID:Afz9Up6l02011/10/19(水) 22:07:26.98ID:1qVRjeoL0
PC板の総合質問スレで質問したらソフトウエア板でということでした
ここでいいんでしょうか
すみません
どこで聞いたらいいかわからないので
RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます
しかしダウンローダーが出てこないのです
RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません
どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
ここでいいんでしょうか
すみません
どこで聞いたらいいかわからないので
RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます
しかしダウンローダーが出てこないのです
RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません
どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
527名無しさん@お腹いっぱい。
2011/10/20(木) 04:10:43.21ID:vn7BtAJfO age
2011/10/31(月) 22:02:13.50ID:fAJuLs4d0
フォーラム系の膨大なページがあるサイトをダウンロードしたいのですが、
何か良いソフトないでしょうか?
何か良いソフトないでしょうか?
2011/11/01(火) 00:45:22.29ID:77d+tSbQ0
今ならFirefox+Scrapbookあたり
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
2011/11/03(木) 22:44:54.09ID:CDi4kRgv0
>>529
遅れましたが、ありがとう。
遅れましたが、ありがとう。
2011/12/28(水) 23:52:41.72ID:cNlQoXC/0
t
2012/02/10(金) 22:43:16.54ID:dGH4LKHB0
昔使っていたOfflineExplorerが素晴らしく使いやすかったので
改めて買おうとしたら高すぎ英語意味わからなすぎでワラタww
http://www.metaproducts.com/mp/offline_explorer.htm
Lifetime upgradeライセンスで将来のアップグレードが無料で手に入るらしいのに
Download protectionを別につけられるってどういうこっちゃ
物が確かなのはわかってるんだけどぼったくり会社っぽくて怖すぎる
改めて買おうとしたら高すぎ英語意味わからなすぎでワラタww
http://www.metaproducts.com/mp/offline_explorer.htm
Lifetime upgradeライセンスで将来のアップグレードが無料で手に入るらしいのに
Download protectionを別につけられるってどういうこっちゃ
物が確かなのはわかってるんだけどぼったくり会社っぽくて怖すぎる
533名無しさん@お腹いっぱい。
2012/03/21(水) 23:07:58.30ID:6xVa6Whz0 一点質問なんですが2つのフォルダーでデータやり取りしているサイトはどのようにすればダウンロードできるでしょうか
http://Aに一覧があり
http//Bにデータが保存されている場合。
現在小説家になろうの小説を取り込めないか実施しております。
ご協力お願いします
http://Aに一覧があり
http//Bにデータが保存されている場合。
現在小説家になろうの小説を取り込めないか実施しております。
ご協力お願いします
2012/03/21(水) 23:21:36.48ID:2iY4RaFW0
Aにリンクがあるなら、それを辿ればいいだけじゃないの
2012/03/21(水) 23:23:14.22ID:6xVa6Whz0
>>534
丸ごと取り込む場合下位フォルダーしか保存できなくありません?
丸ごと取り込む場合下位フォルダーしか保存できなくありません?
2012/03/21(水) 23:51:23.76ID:qtiw2xAE0
そこはオプションしだいかと思います。ドメインが違うのなら取得対象ドメインとしてBを追加していないのではないでしょうか。
2012/08/11(土) 17:24:02.33ID:aXr1ntpO0
巡集はhttpsで始まるサイトは取り込めない?
あとUser-Agentで設定できる文字列の長さが短めに制限されてる
作者様に要望を出したいけど連絡の取りようが
あとUser-Agentで設定できる文字列の長さが短めに制限されてる
作者様に要望を出したいけど連絡の取りようが
2012/12/02(日) 11:23:29.14ID:8M7pkU6S0
age
2012/12/06(木) 12:17:35.17ID:2D/ha+t00
age
2012/12/23(日) 17:37:36.10ID:PKf790AM0
cssファイルの中で指定されている別のcssファイルや画像をすべて取り込めるソフトはありますか?
541名無しさん@お腹いっぱい。
2013/01/25(金) 17:48:17.77ID:nl3cHeHZ0 URLに全角文字が含まれていてもオッケーなソフトってないですか?
2013/01/27(日) 23:57:59.32ID:zpNPQWLC0
巡集でWikiをローカル保存する事は出来た。
出来たけど…レイアウトがまるで再現されてない。
スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。
何か上手い手は無いものか…
出来たけど…レイアウトがまるで再現されてない。
スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。
何か上手い手は無いものか…
2013/01/28(月) 01:13:12.86ID:cCjA9N780
それはスタイルシートの再現が出来てないだけだと思うが
544名無しさん@お腹いっぱい。
2013/03/13(水) 23:23:31.58ID:COFrzmvM0 2chのある板のスレを全て丸ごと取り込めるダウンロードソフトってありませんかね?
例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。
Website Explorer
波乗野郎
ComGetter64
試したこの中では駄目でした。
外部rリンクをOKにしても駄目です。
正直困っております。
っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ)
どのソフトなら
http://anago.2ch.net/software/subback.html
ここから一階層分だけダウンロードできるんでしょうか
例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。
Website Explorer
波乗野郎
ComGetter64
試したこの中では駄目でした。
外部rリンクをOKにしても駄目です。
正直困っております。
っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ)
どのソフトなら
http://anago.2ch.net/software/subback.html
ここから一階層分だけダウンロードできるんでしょうか
2013/03/13(水) 23:36:53.85ID:a7RRbjQQ0
ない
あるとしても即座に規制かかっておしまい
あるとしても即座に規制かかっておしまい
2013/03/16(土) 14:39:56.55ID:mET6QTJ90
普通に専ブラで片っ端から取得すればいいんじゃね?
2013/03/16(土) 15:44:08.33ID:DB2dBeO60
それが面倒だから訊いてるんだろうな
2013/03/18(月) 14:51:56.25ID:xxqiRn4w0
規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
2013/03/18(月) 15:45:44.28ID:n/vUs3WZ0
ソースみるとリンク先はIDだけだけど実際には
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
2013/03/25(月) 03:05:59.46ID:f95fsGFY0
atroposってprntscrnキーを設定することはできないの?
2013/05/12(日) 06:29:55.05ID:homI4KHO0
gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
割と弾かれてるんだな
余裕で乗り越えたけど
2013/05/14(火) 19:02:11.80ID:yDZ7TQI70
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
2013/05/26(日) 23:57:36.73ID:og6d6/gf0
報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
554名無しさん@お腹いっぱい。
2013/05/31(金) 21:55:18.53ID:uZUQOv7m0 GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
OSはwindows vistaです。
2013/09/14(土) 22:13:24.97ID:CXBwsMJ/0
555 get !
556名無しさん@お腹いっぱい。
2013/10/14(月) 14:28:53.91ID:kSUr/BCk0 ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
2014/01/17(金) 21:27:59.74ID:4BAKXmKO0
保守
2014/02/28(金) 04:38:18.23ID:PtzNWAqB0
ATWIKIのサイトを取り込むコツないかな?
2014/02/28(金) 12:57:50.30ID:QvnC3EMh0
>>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
2014/04/12(土) 00:01:33.91ID:piRO/wAX0
フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
561560
2014/04/14(月) 17:58:54.73ID:r8sCxR980 すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました
取り込む速度も瞬殺でこのソフトすげえ
取り込む速度も瞬殺でこのソフトすげえ
562名無しさん@お腹いっぱい。
2014/05/08(木) 05:15:50.10ID:S+GF45Tc0 アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
2014/05/08(木) 19:02:13.75ID:Ejo0hQ3D0
>>562
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
564名無しさん@お腹いっぱい。
2014/05/10(土) 10:48:33.83ID:Ne1h6I/L0 ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
どんなソフトを使ったらいいでしょうか?
2014/05/10(土) 21:00:37.39ID:FkoA4TlM0
>>564
IEでおk
IEでおk
2014/05/12(月) 23:45:03.04ID:i13e208b0
wget以外でパス付きのサイトダウンロードするソフトない?
2014/06/05(木) 00:11:41.72ID:qF77yrzL0
2014/06/05(木) 07:15:01.12ID:UBg0CeAy0
古いVer.だとなお速いぞ
2014/06/05(木) 08:02:02.37ID:0/gSZuHj0
Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
相手方の負担を考えなければ実に快適だな。
2014/06/06(金) 00:00:03.18ID:EiBQjR9Q0
うちのも7.12.0だな
2014/06/06(金) 09:16:33.67ID:BP3ACk690
おれ使ってるのは7.11.5だった
2014/06/06(金) 10:55:15.35ID:zlKKgRCS0
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
2014/06/15(日) 09:25:01.74ID:hsbulYYi0
>>567
スレ離れてて遅レスになったけどもうできた?
スレ離れてて遅レスになったけどもうできた?
2014/06/16(月) 23:00:28.10ID:m0YS9fWe0
2014/06/17(火) 06:39:41.44ID:B5QBqdwa0
atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
2014/06/17(火) 09:10:09.25ID:x5D8mRI50
wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
htmlソースを取り込んでも意味無いんじゃないか
2014/06/17(火) 12:33:19.19ID:B5QBqdwa0
構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
2014/06/17(火) 12:51:38.14ID:x5D8mRI50
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
2014/06/17(火) 13:55:07.26ID:W7OE9+f10
>>574
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
2014/06/17(火) 15:11:46.11ID:6Cl5a3940
φ(.. )メモメモ
2014/06/17(火) 21:18:13.55ID:n2xsu56C0
582名無しさん@お腹いっぱい。
2014/08/17(日) 15:30:32.21ID:ir6+HsPe0 会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
2014/09/18(木) 14:15:22.01ID:ttWc5ZOa0
m9
2014/11/13(木) 11:21:59.28ID:BOi0pnCs0
●
585名無しさん@お腹いっぱい。
2014/12/07(日) 19:49:42.73ID:c2gBrHWI0 ようつべ
2014/12/26(金) 16:15:32.96ID:7VvUAsKm0
/:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::|
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ:::::::::::// ヽ:::::::::::|
|::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/ ヽ::::::::|
ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙ ノ:::/ ,,;;;;;;,, ,,,,ヽ:::::l
):::::::::::::::::::::::::::::::::::::::::::::::/ ノ/ __,'''i: ('''__):::l
)::::::::::::::::::::::::::::::::::::::::::::::::::/  ̄ ̄ン:. :「 ̄`ヾ
1:::::::::::::::::::::::「 `┤l:::::::::::::::::l  ̄ , ヽ ̄ l
`l:::::::::::::::::::::ヽ :l li:::::::::::::/ ヽ /´ `l |
ヽ::::::::::::::::::::::\_」 lヽ::::/ .l !:-●,__ ノ /
ノ:::::::::::::::::::::::::::ノ | l `゙゙ i ,,;;;;;;;;;;;;;;;;;;;;, /ヽ
,/ ヽ::::::::::::::::::::::( l l::::::::.. /.:''/´ ̄_ソ / `ヽ
ヽ:::::::::::::::ヽ | l:::::::::::... /::// ̄ ̄_ソ / \ ヴッ!!
ヽ:::::::\| l::::::::::::::::... / :::.ゝ` ̄ ̄/ / ヽ
ヽ:::l l:::::::::::::::::::..  ̄ ̄;;'' / ヽ
l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ l
l l '''''''''''''''''''''''''''''''''''''' ̄l | |
http://www.youtube.com/watch?v=z2qK2lhk9O0
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ:::::::::::// ヽ:::::::::::|
|::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/ ヽ::::::::|
ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙ ノ:::/ ,,;;;;;;,, ,,,,ヽ:::::l
):::::::::::::::::::::::::::::::::::::::::::::::/ ノ/ __,'''i: ('''__):::l
)::::::::::::::::::::::::::::::::::::::::::::::::::/  ̄ ̄ン:. :「 ̄`ヾ
1:::::::::::::::::::::::「 `┤l:::::::::::::::::l  ̄ , ヽ ̄ l
`l:::::::::::::::::::::ヽ :l li:::::::::::::/ ヽ /´ `l |
ヽ::::::::::::::::::::::\_」 lヽ::::/ .l !:-●,__ ノ /
ノ:::::::::::::::::::::::::::ノ | l `゙゙ i ,,;;;;;;;;;;;;;;;;;;;;, /ヽ
,/ ヽ::::::::::::::::::::::( l l::::::::.. /.:''/´ ̄_ソ / `ヽ
ヽ:::::::::::::::ヽ | l:::::::::::... /::// ̄ ̄_ソ / \ ヴッ!!
ヽ:::::::\| l::::::::::::::::... / :::.ゝ` ̄ ̄/ / ヽ
ヽ:::l l:::::::::::::::::::..  ̄ ̄;;'' / ヽ
l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ l
l l '''''''''''''''''''''''''''''''''''''' ̄l | |
http://www.youtube.com/watch?v=z2qK2lhk9O0
2015/02/02(月) 14:02:34.40ID:JkiDLaz40
t
588名無しさん@お腹いっぱい。
2015/02/11(水) 13:24:59.59ID:EIUIF3gW0 wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
2015/02/11(水) 16:20:02.81ID:A3iM2ZFo0
はい
2015/02/22(日) 02:36:04.73ID:w+6nav8q0
2015/02/22(日) 07:44:19.56ID:VhCspjFi0
>>590
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/22(日) 09:34:46.89ID:w+6nav8q0
初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
2015/02/22(日) 09:44:28.45ID:w+6nav8q0
あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
すいません今から少し勉強してみますw
2015/02/22(日) 10:07:10.81ID:OvZIuqnD0
動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
2015/02/22(日) 11:29:20.03ID:w+6nav8q0
2015/02/22(日) 22:33:22.35ID:VhCspjFi0
>>595
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
2015/02/23(月) 01:42:25.02ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
2015/02/23(月) 07:28:24.10ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/24(火) 03:45:07.05ID:UGZgzTpW0
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
600名無しさん@お腹いっぱい。
2015/03/19(木) 21:35:16.72ID:788O9MZS0 FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
2015/03/19(木) 21:45:38.13ID:UF2HDIz30
最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
2015/05/28(木) 11:20:32.26ID:LpX/6Zfv0
Craving Explorerはウイルスらしいよ
プログラム終了してもプロセス残ってる
プログラム終了してもプロセス残ってる
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 高市首相答弁を“引き出した”立民・岡田克也氏が改めて説明「なぜ慎重な答弁をされなかったのか。非常に残念に思っている」 ★2 [ぐれ★]
- 【速報】中国、水産物輸入停止と通達 「処理水」理由、日本政府へ ★7 [おっさん友の会★]
- 【次の一手】台湾問題で小林よしのり氏が私見「まさに戦争前夜」「ただちに徴兵制を敷いて、高市支持者を最前線へ」… [BFU★]
- 中国側が首相答弁の撤回要求、日本側拒否★7 [夜のけいちゃん★]
- 【速報】中国外務省報道官 高市首相発言撤回なければ「断固たる対抗措置」 [蚤の市★]
- 「高市人気」どこに? 自民候補が福島市長選で大敗、葛飾区議選でも苦戦 衆院早期解散論に冷や水 [1ゲットロボ★]
- 高市はわかっていない、発言撤回や中国に謝罪してもネトウヨは「さすが!」「実を取った!」と持て囃してくれることを [452836546]
- 高市早苗「つい言い過ぎた」公邸で一人ひきこもる😲 [861717324]
- 日本人、ついに気づく「あれ、日本が対中国で取れる対抗措置ってなくない…?」 [931948549]
- 中国「水産物輸入停止は高市首相の発言が理由」 [256556981]
- 日本行きの航空便が50万件キャンセル。日本人「中国依存度が異常に高かったからちょうどいい😏」 [441660812]
- 中国「次に禁止してほしいものを教えて」 [358382861]
