お勧めダウンロード(丸ごと取り込み)ソフト3

■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
2009/09/25(金) 23:35:57ID:htTJHAHB0
DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。

ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
2009/09/26(土) 00:20:49ID:vz+4woN2P
巡集更新されてるな

ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。

しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
2009/09/26(土) 10:23:56ID:oaSHciNs0
>>418
そのリンク先のベクターが一時的に消えてたんだよ。
2009/09/27(日) 13:50:11ID:ms06DL850
ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
2009/09/29(火) 22:52:47ID:jvpQY2ni0
巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
2009/09/30(水) 10:39:36ID:VYCIQ4+X0
>>423
みんなで幸せになろうよw
2009/10/20(火) 23:48:32ID:38/cKrSL0
>>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?

俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。

良いソフトは無いかしら。
2009/10/20(火) 23:53:17ID:38/cKrSL0
>>425に追記

「URLは一定だけど中身が変わるファイルの、自動的な定期保存」が希望といっても良い。
427名無しさん@お腹いっぱい。
垢版 |
2009/11/17(火) 01:19:05ID:yVWqHF3k0
401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
2009/12/06(日) 23:39:56ID:Xd69xJs/0
Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
2009/12/07(月) 08:38:55ID:DFn9YnAw0
もうVer.5になってなかったっけ?
430428
垢版 |
2009/12/08(火) 23:22:21ID:D9b5l12j0
Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
2010/01/06(水) 13:07:10ID:kDFT625l0
>>425
俺もそれ探したけど、見つからんかった。

Beeってこれ?
http://crocro.com/pc/soft/bee/intro/intro_soft.html
432名無しさん@お腹いっぱい。
垢版 |
2010/01/06(水) 17:25:24ID:z5X944lK0
それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
2010/01/06(水) 20:00:01ID:kDFT625l0
>>432
誤検知だから大丈夫
うちはAviraだけど、beeServer_start.exe ってのも誤検知した。
2010/01/06(水) 20:12:18ID:RzwWHhyF0
巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
435名無しさん@お腹いっぱい。
垢版 |
2010/01/06(水) 22:43:12ID:z5X944lK0
誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
2010/01/07(木) 19:43:31ID:WixZAyedP
正露丸の方がいい!正露丸は必需品これ絶対ね!基地外漏りたぽ全部寄越せや
2010/01/12(火) 00:02:23ID:mBZ3Hlbu0
やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
2010/01/14(木) 17:34:33ID:BnCvLsD90
ふつうにwiki保存できてるけど・・・
2010/01/14(木) 19:38:01ID:yv0Hxe320
wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る

ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
2010/01/15(金) 03:59:54ID:59bOFj/P0
ScrapBookつかえ
2010/01/17(日) 16:30:03ID:MxrdNVKG0
webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
2010/01/28(木) 14:33:42ID:hxTP88ae0
ソース見てCSSとか足らないファイル無いか確かめて見れ
443名無しさん@お腹いっぱい。
垢版 |
2010/01/28(木) 15:06:42ID:+eB2y8gU0
WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。

今までオートパイロットで WebAuto 以上のものにあったことが無い
2010/01/29(金) 01:51:12ID:pdIiOyGT0
忍者ブログがちゃんと取り込めるお勧めってある?

表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
2010/01/31(日) 12:58:52ID:LRfrwAhF0
他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
2010/02/13(土) 23:30:04ID:i791U1t40
gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?

対象サイトはup.pandoravote.netっていうアップロダサイトです
2010/02/14(日) 16:30:15ID:ekI+lMw50
なんかいろいろ調べてたんですが
robots.txtに  User-agent: * Disallow: /  って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる

でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ

で いいのかなぁ。。。
2010/02/16(火) 19:55:21ID:S5I004NN0
Proxomitron を使っているのなら、User-Agent を書き換えるよりも
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。

どっちみち User-Agent の書き換えは推奨するけど。

デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
2010/02/16(火) 23:36:40ID:eb20GwbO0
robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
2010/02/17(水) 19:44:59ID:C0QOwpgt0
盲点突かれてもう目が点



ありがちょ
2010/02/18(木) 10:36:09ID:cDYue5wv0
>>450
もともと盲点は見えないから突かれても問題ない
452名無しさん@お腹いっぱい。
垢版 |
2010/04/04(日) 05:53:01ID:OKHjYikf0
 
453名無しさん@お腹いっぱい。
垢版 |
2010/04/16(金) 01:50:11ID:LJzX0FMt0
twitterのプロフ検索サイトや
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
454名無しさん@お腹いっぱい。
垢版 |
2010/05/27(木) 11:26:34ID:ieOwLYqC0
あげ
2010/05/27(木) 11:48:03ID:dz2Xu6+80
wgetでサイトまるごと採ろうとしてるけど
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
2010/07/17(土) 18:45:54ID:geoOLYIs0
scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
457名無しさん@お腹いっぱい。
垢版 |
2010/10/02(土) 03:16:36ID:tOtD8Seh0
wgetのGUI版があったので貼っとく

VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
2010/10/07(木) 20:51:42ID:8vo6Uaef0
moe.imouto.org終了のお知らせか・・・
2010/10/15(金) 01:29:54ID:TBUV4Okd0
>>443の書き込み見てWebAutoを使ってみたけど
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
2010/10/23(土) 09:06:37ID:lnHUl5BB0
巡集の1.7.1A→1.7.2のバージョンアップで、
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
461名無しさん@お腹いっぱい。
垢版 |
2010/10/25(月) 22:58:32ID:72FsLqyA0
何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
2010/10/26(火) 23:59:32ID:9JgHvqPN0
ローカルに保存したwikiを
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
463名無しさん@お腹いっぱい。
垢版 |
2010/11/05(金) 00:04:14ID:9BGnuHFv0
更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう
Firefoxのアドオンのほうが幸せになれるのかもしれんな

GetHTMLwの作者はどうなったのですが
最近、更新がないようですが

あげ
2010/11/08(月) 15:27:20ID:qDJ9LufK0
今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
2010/11/08(月) 22:17:48ID:y6Jx/ALlP
最近「〜けど〜けど」「〜ので〜ので」「〜だから〜だから」みたくたった1文の構成すら出来ない奴が増えたな
2010/11/09(火) 11:16:37ID:frlQOzh00
最近句読点すら使えない奴増えたよな
2010/11/09(火) 23:59:38ID:sTHTzJsZ0
i.aspの付いているaspで生成されている(?)携帯サイト
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
2010/11/10(水) 14:11:03ID:lmrHRm4k0
魔法のiらんどなら巡集でフィルタ設定して取ってる
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
469467
垢版 |
2010/11/12(金) 12:06:32ID:UOQQ0O0Q0
情報をありがとうございます。

巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?

あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
2010/11/13(土) 10:33:10ID:tSkOmlSC0
自分の場合Firefox、Opera辺りならD&Dすれば
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない

ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
471名無しさん@お腹いっぱい。
垢版 |
2010/11/14(日) 09:57:13ID:89KNH7or0
ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
472467
垢版 |
2010/11/20(土) 15:24:55ID:O0cud1UJ0
返答が遅くなってしまい申し訳ありません。

余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。

aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
2010/11/20(土) 20:10:20ID:213w5ulb0
頻繁にファイルを直接選択してブラウザで見たいというのでなければ
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
474467
垢版 |
2010/11/20(土) 21:34:10ID:O0cud1UJ0
>>473

その方法だと、スタートページは正しく表示されるのですが、
そこからリンクしているそれぞれのページを見に行くときに、
結局同じ問題が生じて正しく表示されなくなってしまうみたいです。
475名無しさん@お腹いっぱい。
垢版 |
2010/11/21(日) 14:57:29ID:vODtUEkF0
それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね

ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
476467
垢版 |
2010/11/21(日) 21:09:43ID:IaD1YDka0
>>475

Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。

Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。

当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
477名無しさん@お腹いっぱい。
垢版 |
2010/12/25(土) 16:50:14ID:iR3S9Wga0
winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
478名無しさん@お腹いっぱい。
垢版 |
2010/12/31(金) 02:53:13ID:57SW0Dqp0
>>476
俺はIE詳しくないから検索の手助けになりそうな情報だけ

ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね

だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定

「関連付け MIME」なんかでググったらでてこないかな


ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。

479名無しさん@お腹いっぱい。
垢版 |
2010/12/31(金) 17:14:16ID:X5j+/04f0
PC
2011/01/03(月) 12:57:19ID:98ttV4VF0
ComGetter
2011/01/04(火) 00:18:27ID:MGz4r0zS0
CompleteGetterのRFunc:1とかRFunc:2って何ですか?
2011/01/06(木) 20:13:45ID:1jij3k+00
フレーム付のページを一括で保存できるソフトってありますか?
2011/01/08(土) 17:58:29ID:0w5F53fBP
>>482
>>1-481
484名無しさん@お腹いっぱい。
垢版 |
2011/01/25(火) 17:35:02ID:4v6efgTR0
ttp://liargame.jp/index.html

このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
485名無しさん@お腹いっぱい。
垢版 |
2011/01/26(水) 17:28:22ID:9LvkE2vX0
そういう場合はXaxonのネットレコーダーしかないな。
486名無しさん@お腹いっぱい。
垢版 |
2011/01/27(木) 02:50:00ID:JYGImn8Z0
>>484
ほぼ全面Flashやがな。


2011/02/08(火) 21:09:45ID:ihfk+Bz20
http://www.nhk.or.jp/artbs/photo/009.html

上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
2011/02/08(火) 21:40:58ID:kmLZd/z+0
できるよ
よく使われてるjava scriptだろ
489名無しさん@お腹いっぱい。
垢版 |
2011/02/09(水) 00:09:09ID:2QpVybi70
フォーラム系を保存したいのですが
良いソフトありますか?
2011/02/09(水) 00:45:25ID:S3LS3a5p0
>>488
winhttrackみたいなミラーソフトでは、無理だったのだけれど
どうすれば、保存できるようになるの?
491名無しさん@お腹いっぱい。
垢版 |
2011/02/12(土) 01:21:50ID:dChV5rWn0
決定的なソフトは現れないかねえ
新しいソフトですら現れていないわけだが
2011/02/13(日) 22:02:23ID:6bZnuHuB0
>>489
ない
2011/02/13(日) 22:56:17ID:sFgYj0cn0
龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから
してとりこめない。
どんなソフトを使えば取り込めますか?
494名無しさん@お腹いっぱい。
垢版 |
2011/02/19(土) 23:58:21.21ID:4N0fBC/Y0
巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか?
いろいろ設定を変えてみたけれど駄目でした。
2011/02/21(月) 17:39:50.04ID:mCsnFxG/0
winhttrackというサイトミラーソフトを使用しています。
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。

Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。

まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?

496名無しさん@お腹いっぱい。
垢版 |
2011/02/23(水) 17:08:22.81ID:1tqryiUd0
>>495
ですが、パソコンを使用しているときには、そういった状態になりにくく
使用せず放置すると、CHKDSKが必要な状態になりやすくなります
なぜなんでしょうか?
2011/02/26(土) 14:52:25.55ID:eI0hwifQ0
(´・ω・`)知らんがな
2011/03/18(金) 09:56:13.02ID:8uboNOZD0
巡集のように絶対パスを相対パスに(http://〜index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある?
それか、同等の機能を持ったソフトとか…。

携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
499名無しさん@お腹いっぱい。
垢版 |
2011/03/18(金) 10:00:43.45ID:8uboNOZD0
あ、Wが抜けてた。GetHTMLWです。
2011/03/18(金) 16:41:32.10ID:A+5wOcCe0
(´・ω・`)知らんがな
2011/03/18(金) 19:49:28.02ID:8uboNOZD0
(´・ω・`)そうだよね
502名無しさん@お腹いっぱい。
垢版 |
2011/03/25(金) 17:50:39.65ID:gecN6pF70
Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
503名無しさん@お腹いっぱい。
垢版 |
2011/03/31(木) 22:19:17.73ID:JplTcRyR0
VISTAでIE7使ってるんだけど、日テレのサイト取り込むには何がお勧め?(´・ω・`)
例えばこんなの

http://www.ntv.co.jp/chienari/
2011/04/01(金) 18:04:55.06ID:xRp+kGAS0
2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?

今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
2011/04/01(金) 23:32:30.09ID:I3kOVvUq0
>>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能

普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
506503
垢版 |
2011/04/08(金) 06:39:02.29ID:O8PDBMZ+0
回答が・・・どなたか回答を(´;ω;`)ブワッ
2011/04/08(金) 11:12:59.21ID:sdwIAebP0
httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgi
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
2011/04/08(金) 17:38:56.19ID:toP+TA3e0
>>505
2ちゃんねる専用ビューアってフリーソフトみたいなものですか?
もう少し詳しくお願いします

あと、芸能人のやってるアメブロを保存するには何を使うのがいいですか?
2011/04/08(金) 18:05:22.63ID:ODoWyqCr0
いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
510名無しさん@お腹いっぱい。
垢版 |
2011/04/10(日) 07:51:17.21ID:2EVaxSnc0
>>506
m9(^Д^)プギャーーー!!!
2011/04/10(日) 22:26:02.67ID:r6raCUVJ0
巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
2011/04/10(日) 22:35:08.17ID:r6raCUVJ0
ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
513名無しさん@お腹いっぱい。
垢版 |
2011/04/22(金) 10:30:47.67ID:d7+lWIHr0
一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
2011/05/06(金) 08:08:27.47ID:evJF6buF0
ここは過疎っているので他で聞いてみます
2011/05/11(水) 10:55:51.25ID:HcEd9XAn0
>>513
cronでwgetをまわすといいよ
2011/06/24(金) 18:03:34.03ID:m9RhzJyk0
どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
2011/07/01(金) 00:09:52.24ID:anPvOplt0
巨大フォーラムを取り込めるソフト
ありませんか?
2011/07/31(日) 23:09:41.06ID:/04LhjsQ0
タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
■ このスレッドは過去ログ倉庫に格納されています
大学生アイラと影の怪物と戦うリョウが、深夜3時3分の静止した世界で交錯する超常スリラーの概要

ニューススポーツなんでも実況