X



お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
0230名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0
初心者にお勧めの物ってどれになりますか? 

weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
0231名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
0233名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
0234名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 11:58:42ID:2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
0235名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 12:50:55ID:Xxz+W6Ae0
>>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。
0236名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 13:39:28ID:s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
0237名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 19:04:30ID:2s4iBkil0
>>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。
0238名無しさん@お腹いっぱい。
垢版 |
2008/01/30(水) 01:36:11ID:NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
0239名無しさん@お腹いっぱい。
垢版 |
2008/02/08(金) 00:48:18ID:LyUhp1gB0
http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
0241名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 01:13:13ID:jIBSXkqy0
Super Capture ってなくなっちゃったんですか?

すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
0243名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 21:02:05ID:Ftzz/E6Q0
http://www.gymfan.de/gym_pic.html

↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。

どうやればうまくできるか分かる人いませんか?
0244名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 22:45:39ID:S2Vi01b30
取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
0245名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 23:31:39ID:v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。

>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
0246名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 23:48:23ID:jIBSXkqy0
>>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。

Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html

イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。

Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。

Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/


Super Captureがダウンロードできるところがあったら、教えてください。

0248名無しさん@お腹いっぱい。
垢版 |
2008/02/13(水) 01:49:38ID:mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
0250243
垢版 |
2008/02/13(水) 13:10:32ID:E8CaTYjJ0
>>245
サンキュ。設定いじったら巡集でできた。
0251名無しさん@お腹いっぱい。
垢版 |
2008/03/02(日) 15:32:26ID:SlT8oVxO0
 
0252名無しさん@お腹いっぱい。
垢版 |
2008/03/02(日) 22:55:44ID:XBPQmEY90
以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
http://music.lionsgate.com/rambo/
0254名無しさん@お腹いっぱい。
垢版 |
2008/03/18(火) 21:59:21ID:ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
0257名無しさん@お腹いっぱい。
垢版 |
2008/03/24(月) 04:25:21ID:w4eXPHNQ0
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
0258名無しさん@お腹いっぱい。
垢版 |
2008/04/11(金) 08:00:28ID:JS6+SD8u0
そろそろ答えてください
0265名無しさん@お腹いっぱい。
垢版 |
2008/04/26(土) 12:43:45ID:bWElsVFw0
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
0267名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 18:11:02ID:t9WSIx9k0
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
0268名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 18:11:26ID:t9WSIx9k0
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
0271名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 18:34:59ID:t9WSIx9k0
そうですか・・・残念だぴょん・・・・・・
0273名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 19:27:05ID:t9WSIx9k0
>>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
0277名無しさん@お腹いっぱい。
垢版 |
2008/05/06(火) 19:54:31ID:SBxlMPDL0
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
0282名無しさん@お腹いっぱい。
垢版 |
2008/05/12(月) 22:24:48ID:tJ0QtoQm0
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
0285282
垢版 |
2008/05/13(火) 06:41:48ID:/touQVIB0
スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
0287名無しさん@お腹いっぱい。
垢版 |
2008/05/30(金) 01:20:05ID:obDTDq910
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
0288名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 01:59:41ID:V0GOfPnQ0
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
0289名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 07:40:12ID:d5RR0Fde0
>>288
No ResponseになるURLをフィルタさせる

もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある
0290名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 20:59:37ID:V0GOfPnQ0
>>289

こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・

保存先のブログはシーサーです。
0291名無しさん@お腹いっぱい。
垢版 |
2008/06/16(月) 23:48:15ID:4NFpHfXZ0
あげ
0293名無しさん@お腹いっぱい。
垢版 |
2008/07/29(火) 03:34:12ID:NXDRQEUV0
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
0294名無しさん@お腹いっぱい。
垢版 |
2008/08/14(木) 12:22:21ID:z6Dy8mh40
weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
0295名無しさん@お腹いっぱい。
垢版 |
2008/08/22(金) 18:44:21ID:jiDXkNV10
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?

UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
0300名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 10:53:49ID:TJ6Ap/Sl0
準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
0302名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 12:06:11ID:TJ6Ap/Sl0
ちょw

たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
0306名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 23:10:10ID:TJ6Ap/Sl0
不吉なこと言うなダニよ

ソース公開して欲しい
0308名無しさん@お腹いっぱい。
垢版 |
2008/09/13(土) 15:46:14ID:Dn+RZDfP0
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
0310名無しさん@お腹いっぱい。
垢版 |
2008/09/23(火) 18:50:45ID:twI/75ox0
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
0311名無しさん@お腹いっぱい。
垢版 |
2008/09/24(水) 01:46:37ID:hKMSKtdw0
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。

一、か二かどっち?

二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;

↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。

0312名無しさん@お腹いっぱい。
垢版 |
2008/09/24(水) 13:41:28ID:1PhPO/s90
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
0313名無しさん@お腹いっぱい。
垢版 |
2008/10/06(月) 15:35:55ID:eO1CMKz50
こんなソフトありませんか?スレから来ました。

fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。

現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?

コマンドラインで使う類のソフトでもかまいません。
0314313
垢版 |
2008/10/06(月) 16:31:57ID:eO1CMKz50
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html

外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。

could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
0315313
垢版 |
2008/10/06(月) 18:17:34ID:eO1CMKz50
wgetで試行錯誤してみたらうまくいきました。

wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)

urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
  puts file
  urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq

以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/

--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
0316313
垢版 |
2008/10/06(月) 18:21:17ID:eO1CMKz50
wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
0317名無しさん@お腹いっぱい。
垢版 |
2008/10/07(火) 00:37:00ID:k78/uLlJ0
>>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。
0318313
垢版 |
2008/10/07(火) 05:40:38ID:hu35XLEh0
>>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。

Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm

wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB

この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
0320名無しさん@お腹いっぱい。
垢版 |
2008/10/07(火) 07:56:16ID:pjeOFoUzO
パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
0322名無しさん@お腹いっぱい。
垢版 |
2008/10/11(土) 23:38:49ID:UlAef+iX0
>>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
0324名無しさん@お腹いっぱい。
垢版 |
2008/10/18(土) 09:14:27ID:NA8ZY32U0
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も

ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
0325名無しさん@お腹いっぱい。
垢版 |
2008/10/20(月) 21:48:39ID:SV8NrUaK0
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。

1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。

2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
0326名無しさん@お腹いっぱい。
垢版 |
2008/10/20(月) 21:49:38ID:SV8NrUaK0
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz

4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。

どうでもいいですが、DLしたサイトは東進 過去問データベースです。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況