お勧めダウンロード(丸ごと取り込み)ソフト3

■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
2013/03/16(土) 15:44:08.33ID:DB2dBeO60
それが面倒だから訊いてるんだろうな
2013/03/18(月) 14:51:56.25ID:xxqiRn4w0
規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
2013/03/18(月) 15:45:44.28ID:n/vUs3WZ0
ソースみるとリンク先はIDだけだけど実際には
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
2013/03/25(月) 03:05:59.46ID:f95fsGFY0
atroposってprntscrnキーを設定することはできないの?
2013/05/12(日) 06:29:55.05ID:homI4KHO0
gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
2013/05/14(火) 19:02:11.80ID:yDZ7TQI70
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
2013/05/26(日) 23:57:36.73ID:og6d6/gf0
報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
554名無しさん@お腹いっぱい。
垢版 |
2013/05/31(金) 21:55:18.53ID:uZUQOv7m0
GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
2013/09/14(土) 22:13:24.97ID:CXBwsMJ/0
555 get !
556名無しさん@お腹いっぱい。
垢版 |
2013/10/14(月) 14:28:53.91ID:kSUr/BCk0
ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
2014/01/17(金) 21:27:59.74ID:4BAKXmKO0
保守
2014/02/28(金) 04:38:18.23ID:PtzNWAqB0
ATWIKIのサイトを取り込むコツないかな?
2014/02/28(金) 12:57:50.30ID:QvnC3EMh0
>>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず

-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html

最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
2014/04/12(土) 00:01:33.91ID:piRO/wAX0
フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
561560
垢版 |
2014/04/14(月) 17:58:54.73ID:r8sCxR980
すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました
取り込む速度も瞬殺でこのソフトすげえ
562名無しさん@お腹いっぱい。
垢版 |
2014/05/08(木) 05:15:50.10ID:S+GF45Tc0
アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。

ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
2014/05/08(木) 19:02:13.75ID:Ejo0hQ3D0
>>562
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね

それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
564名無しさん@お腹いっぱい。
垢版 |
2014/05/10(土) 10:48:33.83ID:Ne1h6I/L0
ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
2014/05/10(土) 21:00:37.39ID:FkoA4TlM0
>>564
IEでおk
2014/05/12(月) 23:45:03.04ID:i13e208b0
wget以外でパス付きのサイトダウンロードするソフトない?
2014/06/05(木) 00:11:41.72ID:qF77yrzL0
>>561
マジ?教えてお願い。
フォレスト何年もあきらめてたorz
GetHTMLWで出来たってこと?
2014/06/05(木) 07:15:01.12ID:UBg0CeAy0
古いVer.だとなお速いぞ
2014/06/05(木) 08:02:02.37ID:0/gSZuHj0
Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
2014/06/06(金) 00:00:03.18ID:EiBQjR9Q0
うちのも7.12.0だな
2014/06/06(金) 09:16:33.67ID:BP3ACk690
おれ使ってるのは7.11.5だった
2014/06/06(金) 10:55:15.35ID:zlKKgRCS0
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
2014/06/15(日) 09:25:01.74ID:hsbulYYi0
>>567
スレ離れてて遅レスになったけどもうできた?
2014/06/16(月) 23:00:28.10ID:m0YS9fWe0
>>573
できてないよorz
GetHTMLWでいいの?
フォレストとりこめたなんてすごいよ
よくわかったね
2014/06/17(火) 06:39:41.44ID:B5QBqdwa0
atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
2014/06/17(火) 09:10:09.25ID:x5D8mRI50
wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
2014/06/17(火) 12:33:19.19ID:B5QBqdwa0
構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
2014/06/17(火) 12:51:38.14ID:x5D8mRI50
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
2014/06/17(火) 13:55:07.26ID:W7OE9+f10
>>574
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
2014/06/17(火) 15:11:46.11ID:6Cl5a3940
φ(.. )メモメモ
2014/06/17(火) 21:18:13.55ID:n2xsu56C0
>>579
レスありがと
やってみるよ
できたら報告にきます
報告なければできなかったということで
あいつアホだったかとでも思っててくださいw
582名無しさん@お腹いっぱい。
垢版 |
2014/08/17(日) 15:30:32.21ID:ir6+HsPe0
会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。

それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。

数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。

これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
2014/09/18(木) 14:15:22.01ID:ttWc5ZOa0
m9
2014/11/13(木) 11:21:59.28ID:BOi0pnCs0
585名無しさん@お腹いっぱい。
垢版 |
2014/12/07(日) 19:49:42.73ID:c2gBrHWI0
ようつべ
2014/12/26(金) 16:15:32.96ID:7VvUAsKm0
    /:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::|
    l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
    l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ::::::::::://   ヽ:::::::::::|
    |::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/      ヽ::::::::|
   ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙  ノ:::/ ,,;;;;;;,,    ,,,,ヽ:::::l
   ):::::::::::::::::::::::::::::::::::::::::::::::/    ノ/ __,'''i: ('''__):::l  
  )::::::::::::::::::::::::::::::::::::::::::::::::::/         ̄ ̄ン:. :「 ̄`ヾ   
 1:::::::::::::::::::::::「 `┤l:::::::::::::::::l          ̄   ,  ヽ ̄ l   
  `l:::::::::::::::::::::ヽ  :l li:::::::::::::/        ヽ  /´   `l  |
  ヽ::::::::::::::::::::::\_」 lヽ::::/         .l  !:-●,__ ノ  /      
  ノ:::::::::::::::::::::::::::ノ | l `゙゙           i ,,;;;;;;;;;;;;;;;;;;;;,  /ヽ       
,/ ヽ::::::::::::::::::::::(  l l::::::::..         /.:''/´ ̄_ソ  /  `ヽ
     ヽ:::::::::::::::ヽ | l:::::::::::...      /::// ̄ ̄_ソ  /    \   ヴッ!!
        ヽ:::::::\| l::::::::::::::::...    / :::.ゝ` ̄ ̄/ /       ヽ
           ヽ:::l l:::::::::::::::::::..      ̄ ̄;;'' /         ヽ
              l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ            l
              l l '''''''''''''''''''''''''''''''''''''' ̄l |             |

http://www.youtube.com/watch?v=z2qK2lhk9O0
2015/02/02(月) 14:02:34.40ID:JkiDLaz40
588名無しさん@お腹いっぱい。
垢版 |
2015/02/11(水) 13:24:59.59ID:EIUIF3gW0
wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
2015/02/11(水) 16:20:02.81ID:A3iM2ZFo0
はい
2015/02/22(日) 02:36:04.73ID:w+6nav8q0
http://xenobladedata.web.fc2.com/
このサイトを巡集やらいろんなソフト使って保存してもレイアウトが崩れてしまいます
どなたか助けてください(´;ω;`)
2015/02/22(日) 07:44:19.56ID:VhCspjFi0
>>590
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/22(日) 09:34:46.89ID:w+6nav8q0
初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
2015/02/22(日) 09:44:28.45ID:w+6nav8q0
あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
2015/02/22(日) 10:07:10.81ID:OvZIuqnD0
動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
2015/02/22(日) 11:29:20.03ID:w+6nav8q0
一応できましたw
>>591さんと>>594さん本当にありがとうございました
追加するのがめんどくさいので、まとめて追加するソフトでも探してきますw
2015/02/22(日) 22:33:22.35ID:VhCspjFi0
>>595
うまくいったみたいで何より

CSSのURLはソース見て追いかけるしかないかなあ

フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
2015/02/23(月) 01:42:25.02ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
2015/02/23(月) 07:28:24.10ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから

取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/24(火) 03:45:07.05ID:UGZgzTpW0
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
600名無しさん@お腹いっぱい。
垢版 |
2015/03/19(木) 21:35:16.72ID:788O9MZS0
FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
2015/03/19(木) 21:45:38.13ID:UF2HDIz30
最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
2015/05/28(木) 11:20:32.26ID:LpX/6Zfv0
Craving Explorerはウイルスらしいよ
プログラム終了してもプロセス残ってる
2015/05/29(金) 10:35:41.67ID:WyPaR80i0
>>602
右上の[x]でタスクトレイに残る仕様
2015/06/02(火) 16:45:58.44ID:eHZ6wgAA0
>>603
そうなのかあ。でもデフォルトで残すのはどうもねえ。
気色悪いからFreemakeVideoDownloaderにしたよ。
2015/06/03(水) 04:41:04.14ID:MMwqrRbf0
>>602-603
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
2015/06/03(水) 08:28:27.52ID:6glLSngY0
>>605
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
2015/06/03(水) 08:49:07.34ID:MMwqrRbf0
>606
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
2015/06/03(水) 11:08:30.82ID:sOBS0atv0
>>607
606は胡散臭いソフトにありがちなデフォでチェックが入っているのを見逃してインストールしただけだよ
普通に回避できる
2015/06/03(水) 11:17:36.16ID:6glLSngY0
Cravingの作者のページの「今すぐダウンロード」クリックしたら
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
2015/06/03(水) 20:13:57.38ID:xxSSNGCM0
さてはお前Flashプラグインと一緒にMcafee入たことあるだろ
2015/06/03(水) 23:20:17.02ID:x11Br7AU0
ウイルスバスター(笑)
2015/06/03(水) 23:22:05.55ID:6glLSngY0
ウイルスドクターじゃないよ
2015/06/04(木) 08:52:23.60ID:I3isPSnx0
ウイルスバスターは無いわー
有名なESETに乗り換えを検討したら?
2015/06/07(日) 10:25:26.52ID:rCRTcimQ0
FLASHXの動画をDLしたいんだが
2015/08/02(日) 19:53:58.97ID:vgZfvBkf0
website explorerに代わるものが未だに見つけられん
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
2015/08/02(日) 20:50:12.96ID:RKoieSBh0
>>615
website explorer、この前久々に新しいバージョンが出てたよ
あと似たようなソフトだと、Cyotek WebCopyが近い感じだと思う
こっちは今でも開発中
2015/08/09(日) 10:50:50.55ID:QRZYOF0T0
巡集でWIKIみたいなURLにパーセントが入ってるサイトのダウンロードって無理ですかね?
このサイト何ですけど

http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
2015/08/10(月) 07:22:02.59ID:wkSgRzj+0
>>617
詳細設定 > 取得設定 > URLの%を変換しないをON
2015/08/10(月) 11:09:00.22ID:KuK/+Yns0
それすでに試したけど駄目でしたね
wgetを使わないと無理なのかな?

http://android-smart.com/2011/07/%E3%80%8C%E5%B7%A1%E9%9B%86%E3%80%8D%E3%81%A7%E4%B8%8A%E6%89%8B%E3%81%8F%E4%B8%B8%E3%81%94%E3%81%A8%E4%BF%9D%E5%AD%98%E3%81%A7%E3%81%8D%E3%81%AA%E3%81%84%E3%82%B5%E3%82%A4%E3%83%88%E3%81%AB%E3%81%AF.html
2015/08/10(月) 20:31:22.79ID:wkSgRzj+0
>>619
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ

とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
2015/08/10(月) 22:34:19.56ID:KuK/+Yns0
>>620
親切にありがとうございます
できれば巡集がいいのですが、無理そうですかね?
2015/08/10(月) 23:39:18.03ID:wkSgRzj+0
>>621
巡集で落としたファイルを見た感じ
wikiとかの動的なページの取り込みに完全対応していないみたいだから
どうにもならないと思う
2015/08/10(月) 23:44:06.31ID:C51cH/kB0
今のところwikiを丸ごと落とせるソフトはないよ
2015/08/11(火) 12:32:34.98ID:JcoulAXO0
了解しました。ありがとうございます
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?

http://kumaabaron.web.fc2.com/jiten_v1_2.html
2015/08/11(火) 18:03:15.18ID:8J9/zggO0
巡集で落とすとjsファイル中の改行正しく取れてないみたい
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
2015/08/11(火) 19:20:34.97ID:m59hdRKx0
すいませんどこをどう置き換えればいいのか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
2015/08/11(火) 19:27:29.30ID:m59hdRKx0
保存して上書きの事なら駄目でした
2015/08/11(火) 20:10:39.42ID:8J9/zggO0
いやそのままの意味だが
>>625のURLのjiten_v1_2.jsを
巡集のファイルの保存先にあるjiten_v1_2.jsに上書き
2015/08/11(火) 22:46:49.44ID:m59hdRKx0
IEなら見れましたが、Chromeだと駄目ですね
ちょい調べてみます
2015/08/11(火) 23:07:04.85ID:8J9/zggO0
>>629
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
2015/08/11(火) 23:14:42.52ID:m59hdRKx0
できました。・゚・(ノД`)・゚・。
ありがとうございます
ありがとうございます
ありがとうございます
632名無しさん@お腹いっぱい。
垢版 |
2015/08/20(木) 10:22:17.25ID:/wUo6m5X0
http://ameblo.jp/daisuke18/imagelist.html
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
2015/08/20(木) 18:13:40.56ID:igW2lWLi0
>>632
そこではためしてないけどfirefoxだったらdown them allってアドオンでできそう
あとはDCさくら とか
2015/08/20(木) 19:38:10.11ID:/wUo6m5X0
レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
2015/08/20(木) 19:59:27.07ID:/wUo6m5X0
あ、DCさくらの説明にそれっぽいことが書かれています。 今から試してみます。
2015/08/20(木) 22:21:32.84ID:TgfH37KW0
>>632
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず

ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が

htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
2015/08/22(土) 13:58:52.53ID:Rly0uQHr0
さらにレス付けている方がいるとは思わず、返事遅れてすいません。
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
2015/08/22(土) 14:27:25.21ID:Rly0uQHr0
http://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1496147004
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
2015/08/22(土) 21:11:25.27ID:9v9ZaUJD0
>>638
私立メロン高校パソコン部
2015/08/22(土) 23:07:36.74ID:Rly0uQHr0
レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
2015/08/22(土) 23:21:35.55ID:Rly0uQHr0
あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
2015/08/23(日) 01:44:40.52ID:fJ53XnBu0
さすがに情報後出し教えて君過ぎるので
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で

手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
2015/08/24(月) 17:49:10.84ID:YlI3KiMU0
また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。

もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
2015/08/24(月) 21:25:35.93ID:AwVEz0ch0
リスト作れとか図々しすぎてわろた
2015/08/30(日) 23:00:32.47ID:BDWlhiRC0
相手が女かもと思って途中までめっちゃ親切なのウケるw
2015/09/02(水) 08:25:19.39ID:uqeCSoBo0
dcさくらでできたけど
■ このスレッドは過去ログ倉庫に格納されています