X



お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
0596名無しさん@お腹いっぱい。
垢版 |
2015/02/22(日) 22:33:22.35ID:VhCspjFi0
>>595
うまくいったみたいで何より

CSSのURLはソース見て追いかけるしかないかなあ

フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
0597名無しさん@お腹いっぱい。
垢版 |
2015/02/23(月) 01:42:25.02ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
0598名無しさん@お腹いっぱい。
垢版 |
2015/02/23(月) 07:28:24.10ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから

取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
0599名無しさん@お腹いっぱい。
垢版 |
2015/02/24(火) 03:45:07.05ID:UGZgzTpW0
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
0600名無しさん@お腹いっぱい。
垢版 |
2015/03/19(木) 21:35:16.72ID:788O9MZS0
FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
0605名無しさん@お腹いっぱい。
垢版 |
2015/06/03(水) 04:41:04.14ID:MMwqrRbf0
>>602-603
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
0606名無しさん@お腹いっぱい。
垢版 |
2015/06/03(水) 08:28:27.52ID:6glLSngY0
>>605
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
0607名無しさん@お腹いっぱい。
垢版 |
2015/06/03(水) 08:49:07.34ID:MMwqrRbf0
>606
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
0608名無しさん@お腹いっぱい。
垢版 |
2015/06/03(水) 11:08:30.82ID:sOBS0atv0
>>607
606は胡散臭いソフトにありがちなデフォでチェックが入っているのを見逃してインストールしただけだよ
普通に回避できる
0609名無しさん@お腹いっぱい。
垢版 |
2015/06/03(水) 11:17:36.16ID:6glLSngY0
Cravingの作者のページの「今すぐダウンロード」クリックしたら
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
0615名無しさん@お腹いっぱい。
垢版 |
2015/08/02(日) 19:53:58.97ID:vgZfvBkf0
website explorerに代わるものが未だに見つけられん
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
0616名無しさん@お腹いっぱい。
垢版 |
2015/08/02(日) 20:50:12.96ID:RKoieSBh0
>>615
website explorer、この前久々に新しいバージョンが出てたよ
あと似たようなソフトだと、Cyotek WebCopyが近い感じだと思う
こっちは今でも開発中
0620名無しさん@お腹いっぱい。
垢版 |
2015/08/10(月) 20:31:22.79ID:wkSgRzj+0
>>619
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ

とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
0622名無しさん@お腹いっぱい。
垢版 |
2015/08/10(月) 23:39:18.03ID:wkSgRzj+0
>>621
巡集で落としたファイルを見た感じ
wikiとかの動的なページの取り込みに完全対応していないみたいだから
どうにもならないと思う
0625名無しさん@お腹いっぱい。
垢版 |
2015/08/11(火) 18:03:15.18ID:8J9/zggO0
巡集で落とすとjsファイル中の改行正しく取れてないみたい
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
0630名無しさん@お腹いっぱい。
垢版 |
2015/08/11(火) 23:07:04.85ID:8J9/zggO0
>>629
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
0631名無しさん@お腹いっぱい。
垢版 |
2015/08/11(火) 23:14:42.52ID:m59hdRKx0
できました。・゚・(ノД`)・゚・。
ありがとうございます
ありがとうございます
ありがとうございます
0632名無しさん@お腹いっぱい。
垢版 |
2015/08/20(木) 10:22:17.25ID:/wUo6m5X0
http://ameblo.jp/daisuke18/imagelist.html
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
0634名無しさん@お腹いっぱい。
垢版 |
2015/08/20(木) 19:38:10.11ID:/wUo6m5X0
レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
0636名無しさん@お腹いっぱい。
垢版 |
2015/08/20(木) 22:21:32.84ID:TgfH37KW0
>>632
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず

ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が

htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
0637名無しさん@お腹いっぱい。
垢版 |
2015/08/22(土) 13:58:52.53ID:Rly0uQHr0
さらにレス付けている方がいるとは思わず、返事遅れてすいません。
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
0638名無しさん@お腹いっぱい。
垢版 |
2015/08/22(土) 14:27:25.21ID:Rly0uQHr0
http://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1496147004
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
0640名無しさん@お腹いっぱい。
垢版 |
2015/08/22(土) 23:07:36.74ID:Rly0uQHr0
レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
0641名無しさん@お腹いっぱい。
垢版 |
2015/08/22(土) 23:21:35.55ID:Rly0uQHr0
あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
0642名無しさん@お腹いっぱい。
垢版 |
2015/08/23(日) 01:44:40.52ID:fJ53XnBu0
さすがに情報後出し教えて君過ぎるので
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で

手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
0643名無しさん@お腹いっぱい。
垢版 |
2015/08/24(月) 17:49:10.84ID:YlI3KiMU0
また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。

もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
0647名無しさん@お腹いっぱい。
垢版 |
2015/09/02(水) 09:09:40.88ID:cTN0L3v+0
画像ページを開いてから落とすのは出来るけど
画像リストページからリンク先の画像は取れなくね
0648名無しさん@お腹いっぱい。
垢版 |
2015/09/02(水) 23:31:30.02ID:7+MYnnXj0
Irisで何でもできる
インテリジェントな処理はケースバイケースで自作
リトライしながら複数スレッドで落としてくれるだけで十分有り難い
その部分まで組もうと思うと大変
0650名無しさん@お腹いっぱい。
垢版 |
2015/09/06(日) 06:23:14.24ID:zvG+R+wu0
index.htmlを除外するにはどうしたらいいのでしょうか
フィルタ設定しても絶対にトップページをダウンロードしてしまいます
0655名無しさん@お腹いっぱい。
垢版 |
2015/11/04(水) 00:19:37.48ID:h9eq5OR90
?付きアドレスを正しく、もしくは強制的にローカル参照ファイルとして取り込んでくれるものはもう無理かな。あとjavascript使ってるやつ。
teleportと巡集とhttrack試したけど、どれか1つのツールだけでOKってのは無いね。

?がついてるURLページを何度も何度もとりに行ってhtmlと画像の同じファイルが100個以上出来たり、
jsもcssもちゃんと取り込めてるのにマウスオーバーとかの処理が出来てなかったり、
相対パスを正しく認識出来ず、ローカルファイルへのリンク書き換えも対象ファイルの取り込みも無視されたり。
複数のツールをサイトごとに使い分けるのがベターかも。
0656名無しさん@お腹いっぱい。
垢版 |
2015/12/03(木) 15:48:33.53ID:B0Usj2+U0
VisualWget使ってみた

%E3%81%82〜
こういった日本語含むパーセントエンコードされたURLって落とすの不可?
漢字がバグったようなURLになって止まってしまう
restrict-file-names=nocontrol を追加したら少し進むがやっぱ止まる

wget使ってる人どうやってるの
ご助言くだされ
0657名無しさん@お腹いっぱい。
垢版 |
2015/12/06(日) 02:07:33.03ID:F8C9cYsk0
こんなところにバグレポ&パッチ書いても仕方ない気はするけど書いとく。

GetHTMLW/GetHTMLのバグ
・取得中、取得するURLに拡張子が無い場合にフリーズ、強制終了することがある
原因はNULLポインタへのアクセス。
関数 get_extptr(hdrlistw.cpp、138-144行) が、NULLポインタを返す
可能性があるにもかかわらず、その対処を怠っていたこと。

どうなっているかは次のアドレス/行番号を参照
(GetHTMLW 8.3.0)GetHTMLW.exe
0040FF5B-0040FF6D (実行ファイル上:00F55B-00F56D)
(GetHTML5.3.1) GetHTML.exe
004089AB-004089BD (実行ファイル上:007FAB-007FBD)
(GetHTML5.3.1) hdrlistw.cpp、510-511行
> q = get_extptr(p);
> if (*q == '.') {

パッチ(変更箇所のみ)
(GetHTMLW 8.3.0)
0040FF64 90 NOP
0040FF65 90 NOP
0040FF66 90 NOP
0040FF67 90 NOP
0040FF68 90 NOP
0040FF69 83F8 00 CMP EAX,0
0040FF6C 74 33 JE SHORT GETHTMLW.0040FFA1
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)

(GetHTML5.3.1の)hdrlistw.cpp、510-511行
q = get_extptr(p);
if (q != NULL) {
0659名無しさん@お腹いっぱい。
垢版 |
2015/12/06(日) 23:28:00.92ID:F8C9cYsk0
>>658
とするとこのバグは無いはず。
あと、7.12のままなのは1ホストからの同時取得数制限が掛かる直前のバージョン
ということもあると思うけど、7.13以降は定義ファイルを書けば以前と同じ状況に緩和できる。
(Waitも挿入できるからアクセス過多で弾かれないようにもできるかもね)

-------------------------------------
>>657追記
条件は次の4つで、これが実装されているのは GetHTMLW 8.0.0/GetHTML 5.0.0 以降。
 1:(拡張子の無い)そのURLのデータを既に取得している
 2:そのURLは更新されている(オプションにより内容、httpヘッダで返される時刻が)
 3:そのURLから再取得しようとする
 4:「取得条件設定」の「E:旧データを保存」が有効になっている
で、この時に>>657で示した既存ファイルのリネームルーチン内でNULLポインタに
アクセスする状況になる。
0660名無しさん@そうだ選挙に行こう
垢版 |
2015/12/14(月) 17:06:21.83ID:KBPfaGx40
アメブロの保存をしている方がいたら教えて欲しいのですが、
アメブロの保存に向いているソフトはなんでしょうか?

今はscrapbookを使っているのですが、ダウンロードと構築に膨大な時間がかかったわりに
後で見返すと途中でリンクが繋がっておらず歯抜けになっていたりして残念な思いをしました。
0662名無しさん@お腹いっぱい。
垢版 |
2016/01/11(月) 18:47:22.66ID:yIrp54MT0
>>657のパッチ(バイナリ書換えのみ)が別のバグ作ってたことに
今更気づいたので修正済みのパッチ貼っとく
(GetHTMLW 8.3.0)
0040FF64 83F8 00 CMP EAX,0
0040FF67 74 38   JE SHORT GETHTMLW.0040FFA1
0040FF69 8A03    MOV AL,BYTE PTR DS:[EBX]
0040FF6B 90     NOP
0040FF6C 90     NOP
0040FF6D 90     NOP
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)

(GetHTMLW 5.3.1)
004089B4 83F8 00 CMP EAX,0
004089B7 74 38   JE SHORT gethtml.004089F1
004089B9 8A03   MOV AL,BYTE PTR DS:[EBX]
004089BB 90     NOP
004089BC 90     NOP
004089BD 90     NOP
(exeファイル上では-0x400A00;007FB4-007FBDの範囲)
0665名無しさん@お腹いっぱい。
垢版 |
2016/01/22(金) 17:04:36.04ID:ewi1rt/Q0
あの投稿サイトなら、気に入った作品をお気に入りに入れて、一括表示したのをファイル名に日付込みで保存したほうが確実だし管理しやすいわ
なお、リンクを右クリックしてリンク先を保存、だと、保存失敗することがある
0666名無しさん@お腹いっぱい。
垢版 |
2016/02/01(月) 17:49:03.62ID:gsi73ib40
東京ローダーなるものがあるが、これは果たして問題ないのだろうか??
動画ダウンロードソフトになるが、数年経ち、数万人が使っているというのに情報がない。
使えるソフトならば情報がないほうが不自然だが、
それでいて評判が悪いという話も聞かない。
ウイルスだというものや、安全だというものは耳にするが、具体的な内容はどちらもない。
ないない尽しでよくわからないソフトだ。Adobe Airのだが、これは果たして使えるダウンロードソフトなのだろうか。
0667名無しさん@お腹いっぱい。
垢版 |
2016/03/04(金) 08:16:51.90ID:H8nzEw4i0
ハーメルンが常時SSL化になって巡集やGetHTMLで取り込めなくなったんだけど
この状態で取り込めるソフト無い?
0673名無しさん@お腹いっぱい。
垢版 |
2016/04/09(土) 05:19:40.75ID:e3wpWblj0
Windows10(home 64bit)で使えるいいダウンローダーないかな?
前のPCで使ってたIrvineみたいなリジューム機能のあるやつ
突然前のPC壊れて新しいの買ったけど調べたら
Irvineは7までしか対応してないんだよなぁ・・・・・・
0676名無しさん@お腹いっぱい。
垢版 |
2016/05/27(金) 16:05:49.10ID:EXP4nyrp0
>>675
今、Httrack使い始めたけどいい感じ。スクリプトもしっかり処理してくれる。
ただ、ID認証が標準の機能では弾かれるので困ってる。
いろんなの試したけどホント完全なものってないね。
有料でもいいから、出してほしい。
0677名無しさん@お腹いっぱい。
垢版 |
2016/06/04(土) 08:23:42.85ID:MrNt3Pin0
FirefoxのアドオンDownloadHelperを使ってるがこのごろYouTubeでさえ
ダウンロード出来ないときがある、Firefoxと愛称が良いダウンローダーないですか?
0678名無しさん@お腹いっぱい。
垢版 |
2016/06/17(金) 16:42:03.83ID:3bWsLJSE0
WEBBOXというの使ってみたんだけど
FC2のサイト保存だけいないね
エラーになってどっか飛ばされてもとにもどる
なんだこれ
0681名無しさん@お腹いっぱい。
垢版 |
2016/08/31(水) 15:31:36.70ID:N3wIesmL0
とある学校のサイトの授業動画をダウンロードしたいんだけど、
どうしても複数ファイルに分割されてしまう。
おそらくm2tsって形式だと思うんだけど、まとめて1ファイルもしくは
一式を一度にダウンロードする方法ってないかな?

一度ダウンロードしておけばスマホで出先で勉強できるんだけど、
毎回アクセスするとパケットがすぐに上限に達してしまう。
なんとかならないかな?
0683名無しさん@お腹いっぱい。
垢版 |
2016/08/31(水) 19:25:13.20ID:FsXAU5t30
>>681
OBS
0686680
垢版 |
2016/09/01(木) 18:32:24.60ID:YK3BgmXO0
誰か助けてつかあさい(´・ω・`)
0688名無しさん@お腹いっぱい。
垢版 |
2016/09/02(金) 14:34:30.24ID:RFLIKJAx0
>>680
一番無難なのは、ツイログではなくTweenで他人のツイートを手操作で最大限表示した後に
(Twitter側の都合により3200件までという制限があるけど)別途.tsvテキスト形式で保存する事
だと思う。
自分のツイートなら、Twitter側の標準機能で保存したのを
そのままFTPソフトで適当なWebスペースに丸ごとアップロードするだけで
Webページとして公開できるけどな。
0689名無しさん@お腹いっぱい。
垢版 |
2016/09/02(金) 18:29:47.14ID:kJeZJ2GI0
>>688
言い忘れがあってすいません
その人ツイログは残ってるんですけどツイッターは消えてるんですよね・・・
0690名無しさん@お腹いっぱい。
垢版 |
2016/09/02(金) 19:47:47.42ID:RFLIKJAx0
>689
ならば時間がかかるけど適当なPDF作成ソフトで保存する程度で我慢するしかないのでは?
AcrobatやpdfFactoryなどを使えば、例えば計15ページ分の記事なら15回分の操作で1ファイルに全ページ保存できるよ。
俺自身はAcrobat11を愛用してるが、ツイログの保存は未だやった事ないから実際どんな具合なのかは何とも言えんが。
0694名無しさん@お腹いっぱい。
垢版 |
2016/09/04(日) 10:29:47.78ID:B7EZkThQ0
>>692
いや巡集は試したんですけど駄目でしたw
設定はよくわからないんでほぼいじってないですけどね

>>693
プログラムはわからないんですけど一応方法はあるんですね
貴重な情報ありがとうございます
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況