お勧めダウンロード(丸ごと取り込み)ソフト3

■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
2008/09/10(水) 11:19:00ID:iOGDU/hx0
他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である
302名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 12:06:11ID:TJ6Ap/Sl0
ちょw

たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
303London
垢版 |
2008/09/10(水) 12:13:50ID:iwCGOnB80
wAetOc <a href="http://jphcmeellktk.com/">jphcmeellktk</a>, [url=http://auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=http://unnngecegnmn.com/]unnngecegnmn[/link], http://hxtuikvjgkcq.com/
2008/09/10(水) 12:18:18ID:Cga7s0C10
ファイル名を変えたらリンクが正しく動作しなくなるだろ…
2008/09/10(水) 16:40:55ID:aLDvX6Aj0
巡集の作者、もしかして株で死んじゃったとか・・・?
306名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 23:10:10ID:TJ6Ap/Sl0
不吉なこと言うなダニよ

ソース公開して欲しい
2008/09/10(水) 23:35:48ID:S8J67L6Y0
巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな

後者に金を払う気があるかは本人次第
2008/09/13(土) 15:46:14ID:Dn+RZDfP0
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
2008/09/14(日) 20:11:32ID:ukWyxLCq0
禁止URLとかの機能使えばいいじゃん。
2008/09/23(火) 18:50:45ID:twI/75ox0
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
2008/09/24(水) 01:46:37ID:hKMSKtdw0
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。

一、か二かどっち?

二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;

↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。

2008/09/24(水) 13:41:28ID:1PhPO/s90
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
313名無しさん@お腹いっぱい。
垢版 |
2008/10/06(月) 15:35:55ID:eO1CMKz50
こんなソフトありませんか?スレから来ました。

fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。

現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?

コマンドラインで使う類のソフトでもかまいません。
314313
垢版 |
2008/10/06(月) 16:31:57ID:eO1CMKz50
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html

外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。

could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
315313
垢版 |
2008/10/06(月) 18:17:34ID:eO1CMKz50
wgetで試行錯誤してみたらうまくいきました。

wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)

urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
  puts file
  urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq

以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/

--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
316313
垢版 |
2008/10/06(月) 18:21:17ID:eO1CMKz50
wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
2008/10/07(火) 00:37:00ID:k78/uLlJ0
>>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。
318313
垢版 |
2008/10/07(火) 05:40:38ID:hu35XLEh0
>>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。

Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm

wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB

この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
2008/10/07(火) 06:33:16ID:k78/uLlJ0
>>318
ありがとうございます!これでやってみます。
320名無しさん@お腹いっぱい。
垢版 |
2008/10/07(火) 07:56:16ID:pjeOFoUzO
パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
2008/10/09(木) 19:17:17ID:rJyyGwzD0
巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?
2008/10/11(土) 23:38:49ID:UlAef+iX0
>>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
2008/10/14(火) 05:43:24ID:CWdTo3bh0
ttp://users.ugent.be/~bpuype/wget/
2008/10/18(土) 09:14:27ID:NA8ZY32U0
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も

ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
2008/10/20(月) 21:48:39ID:SV8NrUaK0
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。

1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。

2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
2008/10/20(月) 21:49:38ID:SV8NrUaK0
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz

4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。

どうでもいいですが、DLしたサイトは東進 過去問データベースです。
2008/10/20(月) 23:16:00ID:vXNKs2Pn0
報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
2008/10/21(火) 06:16:41ID:r9pcwQQ+0
追記
Teleport Proは65530ファイルでDLを打ち切る様子。
2008/10/22(水) 14:47:13ID:Uty5mEif0
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
2008/10/26(日) 22:56:41ID:Z0qQpGL90
>>328
使えにゃい。

>>329 スレ違い 紙とか。
2008/11/08(土) 09:57:14ID:HMLV6FJZ0
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
2008/11/09(日) 05:43:33ID:r9fZofmi0
Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?
2008/11/10(月) 12:34:07ID:RJUgrUkx0
うん
2008/11/12(水) 09:40:33ID:199gHslN0
dlkey突破できる奴が有れば…
2008/11/15(土) 02:12:07ID:0sXE2VgW0
JustDiver 2.0
2008/11/17(月) 23:17:57ID:bYSAyiWi0
HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。

デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
2008/11/26(水) 22:46:57ID:AvoPmSlt0
http://www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz
338337
垢版 |
2008/11/27(木) 07:07:22ID:1gPOJKDS0
巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。

http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*


残りはコメントです。 引き続きよろしくお願いします。 orz
2008/11/27(木) 10:21:47ID:o5f/E9xS0
「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。

予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。

沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
2008/12/30(火) 21:06:37ID:qDOzkieX0
もうこういうソフトは需要がないかねえ…
2008/12/30(火) 21:58:34ID:P2sFxOkY0
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
2008/12/30(火) 21:59:18ID:qDOzkieX0
動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない
2008/12/30(火) 22:10:50ID:fX4eASw70
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
2008/12/31(水) 09:18:41ID:rscijB3A0
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る
2009/01/02(金) 01:44:45ID:OLqz4XAA0
FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。
346名無しさん@お腹いっぱい。
垢版 |
2009/01/03(土) 23:05:19ID:PUJY1CSF0
Gethtmlについての質問です。

オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。

DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
2009/01/04(日) 10:03:30ID:7KtylUIv0
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
2009/01/04(日) 10:40:47ID:agtqcM4Z0
>>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。
2009/01/04(日) 11:31:36ID:1GxGvmcA0
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
350名無しさん@お腹いっぱい。
垢版 |
2009/01/04(日) 12:47:15ID:zOoDAii/0
アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
2009/01/04(日) 20:29:51ID:thlvUT4J0
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
2009/01/06(火) 19:35:25ID:HKJ+mumj0
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
2009/01/06(火) 23:49:18ID:HKJ+mumj0
どうやらWeBOXで出来ますね、すみませんでした
354名無しさん@お腹いっぱい。
垢版 |
2009/01/12(月) 18:55:19ID:mtFSF/p40

以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。

http://www.gamebanshee.com/neverwinternights/

うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。

宜しくお願いします。
2009/01/12(月) 19:09:18ID:Ad7xK/MA0
2009/01/14(水) 04:56:44ID:XsghDILe0
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。

だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
2009/01/15(木) 04:50:49ID:14aIogQH0
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
358名無しさん@お腹いっぱい。
垢版 |
2009/01/15(木) 22:38:28ID:SkpOdVD30
>>356
ご回答ありがとうございます。

スタイルシートについて、いろいろと調べたのですが、

リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、

新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。

このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
359名無しさん@お腹いっぱい。
垢版 |
2009/01/22(木) 10:04:12ID:72T0n0l+0
  ↑
あっ ↑ は、>>354からの書き込みです。
2009/01/22(木) 10:13:00ID:LOPrZeW60
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません
2009/02/08(日) 16:33:12ID:1ew7wZVH0
あああ
2009/02/17(火) 21:27:34ID:swvN60Nx0
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
2009/03/03(火) 08:01:05ID:hIoIaLsc0
無理
2009/03/04(水) 02:02:52ID:iOzdqfhq0
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
2009/03/04(水) 12:44:56ID:kOsE1mcy0
>>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を
2009/03/04(水) 20:52:19ID:iOzdqfhq0
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
2009/03/04(水) 22:03:51ID:SjWqihRZ0
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
2009/03/05(木) 08:05:04ID:5euH1yl80
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage
2009/03/05(木) 15:20:36ID:y2etLDHA0
管理側ですぐばれてアク禁
2009/03/05(木) 19:05:28ID:5euH1yl80
>>369
そうなのか、諦めるわ
2009/03/05(木) 22:13:12ID:QC0/AZnI0
この程度でなるわけねー
2009/03/05(木) 22:51:07ID:5euH1yl80
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
2009/03/06(金) 00:54:24ID:xnM4IX3Z0
firefoxのscrapbookでのんびりと保存するのがベターかな
2009/03/06(金) 14:01:59ID:i20Uaw0U0
>>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。
2009/03/06(金) 15:00:53ID:PmwxrF/V0
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
2009/03/07(土) 15:46:28ID:EX6aOmt+0
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
2009/03/20(金) 22:02:39ID:JSyDiuTFP
hosyu
2009/03/29(日) 05:41:06ID:t09wwLl20
懐かしい話だ
379名無しさん@お腹いっぱい。
垢版 |
2009/04/01(水) 18:48:18ID:sW1brWClO
CSS内の画像リンクも辿って保存してくれるソフトありますか?
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
380379
垢版 |
2009/04/02(木) 11:54:11ID:CFvsFsE+O
すみません。解決しました。
2009/04/03(金) 06:23:23ID:oDGPoJNA0
俺と今後の為にどのソフトで解決したのかkwsk
2009/04/04(土) 14:46:47ID:izV7zIzI0
オラも知りたい
2009/04/04(土) 19:11:59ID:g6yEv4mBO
ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
384名無しさん@お腹いっぱい。
垢版 |
2009/04/05(日) 04:43:52ID:F1AvQ3H50
scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
2009/04/05(日) 13:25:58ID:5dZaffZs0
すみませんが、質問です。
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?

具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html

この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/

も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。

このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。

今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。

しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。

この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
2009/04/05(日) 14:25:28ID:At+ZdFLO0
wiki取り込む方法見つかった?
2009/04/10(金) 22:39:16ID:vy87VD8G0
CGIページをきちんと保存、再生できるソフトないの?
巡集だと再生するときカオスになる・・・
2009/04/11(土) 15:12:26ID:FJDV+iB10
http://pc12.2ch.net/test/read.cgi/software/1239155686/l50
【RunAsData】シェアウェアの試用期限クラック【HookDate】

アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。

http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します

http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧

#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
389名無しさん@お腹いっぱい。
垢版 |
2009/05/17(日) 13:23:31ID:/NzZAjoN0
 
390名無しさん@お腹いっぱい。
垢版 |
2009/05/25(月) 14:50:50ID:03qdJTKV0
話題もないねえ…
2009/05/25(月) 16:29:47ID:Y24nZ+jT0
じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
2009/06/08(月) 10:51:52ID:AufSz18I0
t t p : / / g . e - h e n t a i . o r g /
ここ取り込める?
画像だけでもいいんだけど

向こうに知られるとまずいから
アドレスは切った
2009/06/08(月) 11:34:03ID:8JvAcKuU0
Refererくらい理解してから書き込めよ
2009/06/08(月) 21:29:18ID:AufSz18I0
Refererは理解してる、が
取り込みソフト拒否されてるっぽいんだよねここ
2009/06/10(水) 19:59:37ID:/w+HilEi0
PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
2009/06/11(木) 09:32:33ID:CI9JV7KS0
とりあえずyahooの質問集でもクグッて質問しような?

ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
2009/06/11(木) 10:13:00ID:CI9JV7KS0
ああ、それと。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。

下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
2009/06/13(土) 01:37:45ID:HDt2gcxv0
wikiまるごと保存できるソフトなイノ?
2009/06/14(日) 01:10:44ID:7qssCspA0
>>394
このスレからhttp://g.e-hentai.org/
へのrefererの話をしていると思われ
400名無しさん@お腹いっぱい。
垢版 |
2009/06/23(火) 17:45:38ID:rUYeky/o0
>>398
フリーじゃないけど
A1 Website Download 
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
401名無しさん@お腹いっぱい。
垢版 |
2009/06/27(土) 22:03:23ID:i2oYT4kJ0
巡集って
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
■ このスレッドは過去ログ倉庫に格納されています
大学生アイラと影の怪物と戦うリョウが、深夜3時3分の静止した世界で交錯する超常スリラーの概要

ニューススポーツなんでも実況