過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2013/03/16(土) 15:44:08.33ID:DB2dBeO60
それが面倒だから訊いてるんだろうな
2013/03/18(月) 14:51:56.25ID:xxqiRn4w0
規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
2013/03/18(月) 15:45:44.28ID:n/vUs3WZ0
ソースみるとリンク先はIDだけだけど実際には
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
2013/03/25(月) 03:05:59.46ID:f95fsGFY0
atroposってprntscrnキーを設定することはできないの?
2013/05/12(日) 06:29:55.05ID:homI4KHO0
gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
割と弾かれてるんだな
余裕で乗り越えたけど
2013/05/14(火) 19:02:11.80ID:yDZ7TQI70
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
2013/05/26(日) 23:57:36.73ID:og6d6/gf0
報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
554名無しさん@お腹いっぱい。
2013/05/31(金) 21:55:18.53ID:uZUQOv7m0 GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
OSはwindows vistaです。
2013/09/14(土) 22:13:24.97ID:CXBwsMJ/0
555 get !
556名無しさん@お腹いっぱい。
2013/10/14(月) 14:28:53.91ID:kSUr/BCk0 ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
2014/01/17(金) 21:27:59.74ID:4BAKXmKO0
保守
2014/02/28(金) 04:38:18.23ID:PtzNWAqB0
ATWIKIのサイトを取り込むコツないかな?
2014/02/28(金) 12:57:50.30ID:QvnC3EMh0
>>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
2014/04/12(土) 00:01:33.91ID:piRO/wAX0
フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
561560
2014/04/14(月) 17:58:54.73ID:r8sCxR980 すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました
取り込む速度も瞬殺でこのソフトすげえ
取り込む速度も瞬殺でこのソフトすげえ
562名無しさん@お腹いっぱい。
2014/05/08(木) 05:15:50.10ID:S+GF45Tc0 アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
2014/05/08(木) 19:02:13.75ID:Ejo0hQ3D0
>>562
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
564名無しさん@お腹いっぱい。
2014/05/10(土) 10:48:33.83ID:Ne1h6I/L0 ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
どんなソフトを使ったらいいでしょうか?
2014/05/10(土) 21:00:37.39ID:FkoA4TlM0
>>564
IEでおk
IEでおk
2014/05/12(月) 23:45:03.04ID:i13e208b0
wget以外でパス付きのサイトダウンロードするソフトない?
2014/06/05(木) 00:11:41.72ID:qF77yrzL0
2014/06/05(木) 07:15:01.12ID:UBg0CeAy0
古いVer.だとなお速いぞ
2014/06/05(木) 08:02:02.37ID:0/gSZuHj0
Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
相手方の負担を考えなければ実に快適だな。
2014/06/06(金) 00:00:03.18ID:EiBQjR9Q0
うちのも7.12.0だな
2014/06/06(金) 09:16:33.67ID:BP3ACk690
おれ使ってるのは7.11.5だった
2014/06/06(金) 10:55:15.35ID:zlKKgRCS0
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
2014/06/15(日) 09:25:01.74ID:hsbulYYi0
>>567
スレ離れてて遅レスになったけどもうできた?
スレ離れてて遅レスになったけどもうできた?
2014/06/16(月) 23:00:28.10ID:m0YS9fWe0
2014/06/17(火) 06:39:41.44ID:B5QBqdwa0
atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
2014/06/17(火) 09:10:09.25ID:x5D8mRI50
wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
htmlソースを取り込んでも意味無いんじゃないか
2014/06/17(火) 12:33:19.19ID:B5QBqdwa0
構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
2014/06/17(火) 12:51:38.14ID:x5D8mRI50
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
2014/06/17(火) 13:55:07.26ID:W7OE9+f10
>>574
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
2014/06/17(火) 15:11:46.11ID:6Cl5a3940
φ(.. )メモメモ
2014/06/17(火) 21:18:13.55ID:n2xsu56C0
582名無しさん@お腹いっぱい。
2014/08/17(日) 15:30:32.21ID:ir6+HsPe0 会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
2014/09/18(木) 14:15:22.01ID:ttWc5ZOa0
m9
2014/11/13(木) 11:21:59.28ID:BOi0pnCs0
●
585名無しさん@お腹いっぱい。
2014/12/07(日) 19:49:42.73ID:c2gBrHWI0 ようつべ
2014/12/26(金) 16:15:32.96ID:7VvUAsKm0
/:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::|
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ:::::::::::// ヽ:::::::::::|
|::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/ ヽ::::::::|
ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙ ノ:::/ ,,;;;;;;,, ,,,,ヽ:::::l
):::::::::::::::::::::::::::::::::::::::::::::::/ ノ/ __,'''i: ('''__):::l
)::::::::::::::::::::::::::::::::::::::::::::::::::/  ̄ ̄ン:. :「 ̄`ヾ
1:::::::::::::::::::::::「 `┤l:::::::::::::::::l  ̄ , ヽ ̄ l
`l:::::::::::::::::::::ヽ :l li:::::::::::::/ ヽ /´ `l |
ヽ::::::::::::::::::::::\_」 lヽ::::/ .l !:-●,__ ノ /
ノ:::::::::::::::::::::::::::ノ | l `゙゙ i ,,;;;;;;;;;;;;;;;;;;;;, /ヽ
,/ ヽ::::::::::::::::::::::( l l::::::::.. /.:''/´ ̄_ソ / `ヽ
ヽ:::::::::::::::ヽ | l:::::::::::... /::// ̄ ̄_ソ / \ ヴッ!!
ヽ:::::::\| l::::::::::::::::... / :::.ゝ` ̄ ̄/ / ヽ
ヽ:::l l:::::::::::::::::::..  ̄ ̄;;'' / ヽ
l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ l
l l '''''''''''''''''''''''''''''''''''''' ̄l | |
http://www.youtube.com/watch?v=z2qK2lhk9O0
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ:::::::::::// ヽ:::::::::::|
|::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/ ヽ::::::::|
ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙ ノ:::/ ,,;;;;;;,, ,,,,ヽ:::::l
):::::::::::::::::::::::::::::::::::::::::::::::/ ノ/ __,'''i: ('''__):::l
)::::::::::::::::::::::::::::::::::::::::::::::::::/  ̄ ̄ン:. :「 ̄`ヾ
1:::::::::::::::::::::::「 `┤l:::::::::::::::::l  ̄ , ヽ ̄ l
`l:::::::::::::::::::::ヽ :l li:::::::::::::/ ヽ /´ `l |
ヽ::::::::::::::::::::::\_」 lヽ::::/ .l !:-●,__ ノ /
ノ:::::::::::::::::::::::::::ノ | l `゙゙ i ,,;;;;;;;;;;;;;;;;;;;;, /ヽ
,/ ヽ::::::::::::::::::::::( l l::::::::.. /.:''/´ ̄_ソ / `ヽ
ヽ:::::::::::::::ヽ | l:::::::::::... /::// ̄ ̄_ソ / \ ヴッ!!
ヽ:::::::\| l::::::::::::::::... / :::.ゝ` ̄ ̄/ / ヽ
ヽ:::l l:::::::::::::::::::..  ̄ ̄;;'' / ヽ
l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ l
l l '''''''''''''''''''''''''''''''''''''' ̄l | |
http://www.youtube.com/watch?v=z2qK2lhk9O0
2015/02/02(月) 14:02:34.40ID:JkiDLaz40
t
588名無しさん@お腹いっぱい。
2015/02/11(水) 13:24:59.59ID:EIUIF3gW0 wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
2015/02/11(水) 16:20:02.81ID:A3iM2ZFo0
はい
2015/02/22(日) 02:36:04.73ID:w+6nav8q0
2015/02/22(日) 07:44:19.56ID:VhCspjFi0
>>590
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/22(日) 09:34:46.89ID:w+6nav8q0
初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
2015/02/22(日) 09:44:28.45ID:w+6nav8q0
あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
すいません今から少し勉強してみますw
2015/02/22(日) 10:07:10.81ID:OvZIuqnD0
動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
2015/02/22(日) 11:29:20.03ID:w+6nav8q0
2015/02/22(日) 22:33:22.35ID:VhCspjFi0
>>595
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
2015/02/23(月) 01:42:25.02ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
2015/02/23(月) 07:28:24.10ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/24(火) 03:45:07.05ID:UGZgzTpW0
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
600名無しさん@お腹いっぱい。
2015/03/19(木) 21:35:16.72ID:788O9MZS0 FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
2015/03/19(木) 21:45:38.13ID:UF2HDIz30
最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
2015/05/28(木) 11:20:32.26ID:LpX/6Zfv0
Craving Explorerはウイルスらしいよ
プログラム終了してもプロセス残ってる
プログラム終了してもプロセス残ってる
2015/05/29(金) 10:35:41.67ID:WyPaR80i0
>>602
右上の[x]でタスクトレイに残る仕様
右上の[x]でタスクトレイに残る仕様
2015/06/02(火) 16:45:58.44ID:eHZ6wgAA0
2015/06/03(水) 04:41:04.14ID:MMwqrRbf0
>>602-603
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
2015/06/03(水) 08:28:27.52ID:6glLSngY0
>>605
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
2015/06/03(水) 08:49:07.34ID:MMwqrRbf0
>606
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
2015/06/03(水) 11:08:30.82ID:sOBS0atv0
2015/06/03(水) 11:17:36.16ID:6glLSngY0
Cravingの作者のページの「今すぐダウンロード」クリックしたら
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
2015/06/03(水) 20:13:57.38ID:xxSSNGCM0
さてはお前Flashプラグインと一緒にMcafee入たことあるだろ
2015/06/03(水) 23:20:17.02ID:x11Br7AU0
ウイルスバスター(笑)
2015/06/03(水) 23:22:05.55ID:6glLSngY0
ウイルスドクターじゃないよ
2015/06/04(木) 08:52:23.60ID:I3isPSnx0
ウイルスバスターは無いわー
有名なESETに乗り換えを検討したら?
有名なESETに乗り換えを検討したら?
2015/06/07(日) 10:25:26.52ID:rCRTcimQ0
FLASHXの動画をDLしたいんだが
2015/08/02(日) 19:53:58.97ID:vgZfvBkf0
website explorerに代わるものが未だに見つけられん
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
2015/08/02(日) 20:50:12.96ID:RKoieSBh0
2015/08/09(日) 10:50:50.55ID:QRZYOF0T0
巡集でWIKIみたいなURLにパーセントが入ってるサイトのダウンロードって無理ですかね?
このサイト何ですけど
http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
このサイト何ですけど
http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
2015/08/10(月) 07:22:02.59ID:wkSgRzj+0
>>617
詳細設定 > 取得設定 > URLの%を変換しないをON
詳細設定 > 取得設定 > URLの%を変換しないをON
2015/08/10(月) 11:09:00.22ID:KuK/+Yns0
2015/08/10(月) 20:31:22.79ID:wkSgRzj+0
>>619
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ
とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ
とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
2015/08/10(月) 22:34:19.56ID:KuK/+Yns0
2015/08/10(月) 23:39:18.03ID:wkSgRzj+0
2015/08/10(月) 23:44:06.31ID:C51cH/kB0
今のところwikiを丸ごと落とせるソフトはないよ
2015/08/11(火) 12:32:34.98ID:JcoulAXO0
了解しました。ありがとうございます
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?
http://kumaabaron.web.fc2.com/jiten_v1_2.html
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?
http://kumaabaron.web.fc2.com/jiten_v1_2.html
2015/08/11(火) 18:03:15.18ID:8J9/zggO0
巡集で落とすとjsファイル中の改行正しく取れてないみたい
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
2015/08/11(火) 19:20:34.97ID:m59hdRKx0
すいませんどこをどう置き換えればいいのか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
2015/08/11(火) 19:27:29.30ID:m59hdRKx0
保存して上書きの事なら駄目でした
2015/08/11(火) 20:10:39.42ID:8J9/zggO0
2015/08/11(火) 22:46:49.44ID:m59hdRKx0
IEなら見れましたが、Chromeだと駄目ですね
ちょい調べてみます
ちょい調べてみます
2015/08/11(火) 23:07:04.85ID:8J9/zggO0
>>629
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
2015/08/11(火) 23:14:42.52ID:m59hdRKx0
できました。・゚・(ノД`)・゚・。
ありがとうございます
ありがとうございます
ありがとうございます
ありがとうございます
ありがとうございます
ありがとうございます
632名無しさん@お腹いっぱい。
2015/08/20(木) 10:22:17.25ID:/wUo6m5X0 http://ameblo.jp/daisuke18/imagelist.html
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
2015/08/20(木) 18:13:40.56ID:igW2lWLi0
2015/08/20(木) 19:38:10.11ID:/wUo6m5X0
レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
2015/08/20(木) 19:59:27.07ID:/wUo6m5X0
あ、DCさくらの説明にそれっぽいことが書かれています。 今から試してみます。
2015/08/20(木) 22:21:32.84ID:TgfH37KW0
>>632
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず
ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が
htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず
ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が
htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
2015/08/22(土) 13:58:52.53ID:Rly0uQHr0
さらにレス付けている方がいるとは思わず、返事遅れてすいません。
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
2015/08/22(土) 14:27:25.21ID:Rly0uQHr0
http://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1496147004
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
2015/08/22(土) 21:11:25.27ID:9v9ZaUJD0
>>638
私立メロン高校パソコン部
私立メロン高校パソコン部
2015/08/22(土) 23:07:36.74ID:Rly0uQHr0
レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
2015/08/22(土) 23:21:35.55ID:Rly0uQHr0
あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
2015/08/23(日) 01:44:40.52ID:fJ53XnBu0
さすがに情報後出し教えて君過ぎるので
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で
手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で
手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
2015/08/24(月) 17:49:10.84ID:YlI3KiMU0
また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。
もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。
もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
2015/08/24(月) 21:25:35.93ID:AwVEz0ch0
リスト作れとか図々しすぎてわろた
2015/08/30(日) 23:00:32.47ID:BDWlhiRC0
相手が女かもと思って途中までめっちゃ親切なのウケるw
2015/09/02(水) 08:25:19.39ID:uqeCSoBo0
dcさくらでできたけど
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【次の一手】台湾問題で小林よしのり氏が私見「まさに戦争前夜」「ただちに徴兵制を敷いて、高市支持者を最前線へ」… ★5 [BFU★]
- 「母の部屋に安倍氏が表紙の機関誌が」「(安倍氏が被害者なのは)不思議に思いませんでした」山上被告の妹が証言 [おっさん友の会★]
- 【news23】小川彩佳アナ「ここまでの広がりになるということを、高市総理はどれだけ想像できていたんでしょうね」 日中問題特集で [冬月記者★]
- 【野球】大谷翔平、佐々木朗希、山本由伸らがWBC辞退なら広がる不協和音… 『過去イチ盛り上がらない大会』になる可能性も★2 [冬月記者★]
- 【国際】ロシアはすでに戦争準備段階――ポーランド軍トップが警告 [ぐれ★]
- 毛寧(もう・ねい)報道官「中国に日本の水産品の市場は無い」 高市首相の国会答弁に「中国民衆の強い怒り」 ★2 [ぐれ★]
