お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
>>227 >>220 に誘導されてるだろ 向こうのスレで聞いておいで gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね 初心者にお勧めの物ってどれになりますか? weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。 いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。 初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。 準州の作者はいいセンスしてたよなあ 俺がロックフェラーならパトロンになってやるんだが >>231 巡集使ってみました。gethtmlwよりわかりやすいです。 URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか? readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか? gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて 中身を「フィルタ」で検索してみるがよろし >>234 gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが 巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。 >>225 レスありがとうございます。 右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ されているという意味だと思っていました。 WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの ですが・・・ お手数お掛けしました。 ありがとうございます。 >>235 ちょっと勘違いしてしまった。これは失礼。 巡集だと、そう難しいものでもないとは思うけども。 具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。 巡集でarchiveを保存しようとするとエラーになるんだけど これはどうしようもないの? それとも他のならできる? http://mayura.jp/blog/ このblogがうまく取り込めない。 顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php にリンクされているのが原因だと思うんだけれど。 うまい方法は無いかな? ネトラン推奨 ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html Super Capture ってなくなっちゃったんですか? すごく便利だったのに…。 どこかにダウンロードできるとこ、ないですかね? >>241 ググレカレー。 落とせるところがちらほらあるジャマイカ。 http://www.gymfan.de/gym_pic.html ↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/ というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/ というところに置いてあるようです。 FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。 どうやればうまくできるか分かる人いませんか? 取り込みソフトってそんなに便利なのかね。 というより、そんなに沢山取り込んでなんか得するのか? よくわからん。 >>244 君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。 閉鎖したお気に入りサイトを記念に残しておきたいとか、 オフライン環境でも活用したい情報満載だとか、 日替わりのエロ画像を残さずコレクションしたいとか、 世の中には君と価値観の違う人がたくさんいるってことだよ。 >>243 巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして http://www.gymfan.de/1999/bg1999_1.html の取得を試してみたら ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん? >>242 自分が欲しいのは↓ここで紹介されてるSuper Capture です。 Super Capture - ベクターソフトニュース http://www.vector.co.jp/magazine/softnews/050730/n0507301.html イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/ ) はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ ちゃいました。 Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで 違うようなのですが…。 Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp http://super-screen-capture.jp.brothersoft.com/ Super Captureがダウンロードできるところがあったら、教えてください。 web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。 なんなら -screen くっつけて検索汁。 >>245 サンキュ。設定いじったら巡集でできた。 以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、 適当なソフトはあるでしょうか? http://music.lionsgate.com/rambo/ irvineでも巡集でもURLを直接指定すればええやん すみません、質問なのです ダウンロードソフトって目的のサイトがweb上に上げているものすべて、 .htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか? サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか? 英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな 巡集の設定で聞きたいんですが http://www.itmedia.co.jp/help/tips/linux/install.html このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど どう設定したらいけますか? 普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。 「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか? 2ちゃんで ある板のスレを全部保存したいのですが なんかいいソフトはありませんか? 2ちゃんで ある板のスレを全部保存したいのですが なんかいいソフトはありませんか? >>268 2ch専ブラはログを常に保存しているが、これじゃダメなのか? >>272 どうしてもhtmlで保存したいんです 専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが その方法だとスレッドタイトルがファイルの名前に出てこないので 開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです 端的に言うと規制の対象になるよ おそらく保存どころか読みさえできなくなると思う >>273 設定でスレッドタイトル=ファイル名は可能 >>273 FirefoxだったらScrapBookをすすめるんだがな。 最近「丸ごと取り込み」したいソフトに特に会わないなあ ソフトの更新がほとんどないのもそのせいかも テンプレのソフトを見ても下の海外のものしか更新がない website explorer使ってる人俺以外にもいるのかな Firefox使いの俺はFownThemAll!とScrapBookだ。 お邪魔します。 ttp://de-lax.com/mg/login/dl.html の動画をダウンロードしたいのですが、 GetASFStream SWF Cache Viewer で試してみたところうまくいきませんでした。 どなたかいいフリーソフトをご存知でしたら教えてください。 よろしくお願いいたします。 (会員登録はttp://de-lax.com/freemembers.htmlから。 無料かつ手軽で、すぐに登録解除できます) ダウンロードソフトはダウンロード板の管轄じゃないの? スレ違い失礼しました。 ご丁寧に教えていただきありがとうございました。 gzipで送信されるページに対応した取り込みソフトはございませんか? 最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね こういうソフトもそろそろ時代遅れなのかしら… 巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降 保存ができなくなるんですが・・・ 誰か解決策わかる方がいたらお願いします。 保存先はブログです。 >>288 No ResponseになるURLをフィルタさせる もしくはもう1個巡集を起動してダウンロード エラーが出るたびに繰り返せば全て保存出来る ような覚えがある >>289 こんな早くレスもらえると思ってませんでした。 巡集2個で回してみたところ、しばらくはダウンロードするんですが やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を 繰り返さなければならなくなりました・・・ 保存先のブログはシーサーです。 なにか対象の指定の仕方に問題があるような気がする。 ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ 扱いでまとめてダウンロードできるソフトはありませんか? weboxは、保存した元のサイトページが更新されると なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています 更新されないように設定できる、HP取り込みソフトはありませんか? フリーでもシェアでもかまいません。 Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま で来ないのですが、何かチェックすべきところはありますか? UAC は切っていて、管理者として実行し、 Windows ファイアウォールで除外ソフトにしてもだめでした。 2chの女神板に貼り付いてるキモオタ共歓喜だな > > ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード > http://www.savethevenus.com/ > 準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。 他人にきちんと説明出来ないことと 自力で解決出来ないことはコインの両面である ちょw たとえば、 ブログタイトルhogeというのがあって hogeの9月8日の日記のタイトル名がhoge-hageだとしたら 現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの! ファイル名を変えたらリンクが正しく動作しなくなるだろ… 巡集の作者、もしかして株で死んじゃったとか・・・? 巡集 Teleport Pro(俺はUltra) この2本立てで困ったことないな 後者に金を払う気があるかは本人次第 ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか? 白紙ページを延々とダウンロードするので鯖にも悪いし 結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。 料理レシピサイトを落としたいんだけど以前落とした時は 検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない? ちなみにエキサイトのレシピサイトを落としたい。 >>273 ID:t9WSIx9k0 一、●持ちしか見れないある板のスレ全部を保存したい。 二、一で保存したものを再うpしたい。 一、か二かどっち? 二だとしたらやってはいけないようだ(ソースらしきもの)↓ http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691 >やめてくれっていわれたんで(^^; ↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。 >273 亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。 こんなソフトありませんか?スレから来ました。 fc2などの画像サーバーが独立したWebサイトにも対応した 丸ごととりこみ保存するソフトを探しています。 現在は WeBoXをつかっているのですが、 fc2のブログなどでは、画像サーバーが別サーバーなので 同じブログ内でもリンク先画像などが取り込むことができません。 このような状況に対応できるダウンローダーはありませんでしょうか? コマンドラインで使う類のソフトでもかまいません。 Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net http://www.oshiete-kun.net/archives/2008/02/getleft.html 外部リンクを1リンクだけたどって保存できればよいのか?ということで、 こちらのソフトを使ってみているのですが、 下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。 困ってしまいました・・・。 could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory while executing "file size $fileName" (procedure "DownloadLinks" line 39) invoked from within "DownloadLinks $urlList $referer $level" (procedure "Descargar::ControlDownloading" line 21) invoked from within "Descargar::ControlDownloading $requestedUrl 1" (procedure "StartDownload" line 76) invoked from within "StartDownload $requestedUrl" (procedure "AutomaticDownload" line 21) invoked from within "AutomaticDownload [mainWin::UrlListSelectedUrl]" invoked from within ".extFrame.iconFrame.left.start invoke " invoked from within ".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } " (command bound to event) wgetで試行錯誤してみたらうまくいきました。 wgetで一旦htmlのみを取得し、 Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの) urls = [] Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file| puts file urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq end puts urls.uniq 以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。 wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/ --convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、 あと、fc2は.htmlとなっていてもどうやら動的生成なようで カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。 (一回やらかしました) wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・ この辺、Unix系の板で聞いてみます。 >>313 横レスすみません。レスとても参考になりました。 wgetをwinXPで使いたいのですが DLできるところ教えてください。 >>317 私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、 それでインストールしましたが、 ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。 Wget for Windows http://gnuwin32.sourceforge.net/packages/wget.htm wget(Windows版) - 俺の基地 http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB この辺ではないでしょうか?試してはないですが。 wgetはコマンドラインのツールなので注意です。 私はバッチファイルを書いて実行してます。 >>318 ありがとうございます!これでやってみます。 パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい 巡集ってDLしたファイルを消す方法って フォルダ排除と設定ファイル排除しかない? >>320 パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。 ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。 ttp://users.ugent.be/~bpuype/wget/ マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」 保存したWebページをPDF/JPEGファイルへ書き出す機能も ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html 苦闘の末DLがうまくいったので記念カキコ。(無駄に長い 認証必要なサイトのDLのためにいろいろ試したので…。 1. Website Explorer ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。 認証も手軽にできて、細かい設定無しにDLしやすかったのですが、 膨大なデータ(100000ファイル超)のサイトの場合、 解析時のキャッシュが増えるにつれて、かなり処理が重くなる。 負けずに数日動かしていたのですが、 私が馬鹿やってエラー落ちしたので別ソフトを探しました。 2. WinHTTrack 複数URL指定ができていい感じ? いくつかのサイトを落とすときに利用して気に入った。 しかし、認証に弱い…。 認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。 どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、 charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。 3.WeBoX DLを試しても一部のファイルしか落ちてこなくて使い物にならない。 恐らく、私が使い方を理解してないのが原因orz 4. Teleport Pro レビューが少ないのは、日本語化されてないし、有料だからですかね…? サイトの認証は簡単に成功しました。 DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、 ちょいちょい触ってるうちに理解しました。 結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。 どうでもいいですが、DLしたサイトは東進 過去問データベースです。 報告どうも よく分からないけど海外製のが一番うまくいったりする場合もあるのね ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる