過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
探検
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2009/01/04(日) 10:03:30ID:7KtylUIv0
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
2009/01/04(日) 10:40:47ID:agtqcM4Z0
2009/01/04(日) 11:31:36ID:1GxGvmcA0
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
350名無しさん@お腹いっぱい。
2009/01/04(日) 12:47:15ID:zOoDAii/0 アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
2009/01/04(日) 20:29:51ID:thlvUT4J0
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
2009/01/06(火) 19:35:25ID:HKJ+mumj0
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
2009/01/06(火) 23:49:18ID:HKJ+mumj0
どうやらWeBOXで出来ますね、すみませんでした
354名無しさん@お腹いっぱい。
2009/01/12(月) 18:55:19ID:mtFSF/p40以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。
http://www.gamebanshee.com/neverwinternights/
うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。
宜しくお願いします。
2009/01/12(月) 19:09:18ID:Ad7xK/MA0
あ
2009/01/14(水) 04:56:44ID:XsghDILe0
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。
だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。
だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
2009/01/15(木) 04:50:49ID:14aIogQH0
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
358名無しさん@お腹いっぱい。
2009/01/15(木) 22:38:28ID:SkpOdVD30 >>356 様
ご回答ありがとうございます。
スタイルシートについて、いろいろと調べたのですが、
リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、
新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。
このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
ご回答ありがとうございます。
スタイルシートについて、いろいろと調べたのですが、
リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、
新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。
このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
359名無しさん@お腹いっぱい。
2009/01/22(木) 10:04:12ID:72T0n0l+0 ↑
あっ ↑ は、>>354からの書き込みです。
あっ ↑ は、>>354からの書き込みです。
2009/01/22(木) 10:13:00ID:LOPrZeW60
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません
当然俺は分かりません
2009/02/08(日) 16:33:12ID:1ew7wZVH0
あああ
2009/02/17(火) 21:27:34ID:swvN60Nx0
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
2009/03/03(火) 08:01:05ID:hIoIaLsc0
無理
2009/03/04(水) 02:02:52ID:iOzdqfhq0
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
2009/03/04(水) 12:44:56ID:kOsE1mcy0
2009/03/04(水) 20:52:19ID:iOzdqfhq0
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
2009/03/04(水) 22:03:51ID:SjWqihRZ0
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
2009/03/05(木) 08:05:04ID:5euH1yl80
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage
ttp://foobar2000.xrea.jp/index.php?FrontPage
2009/03/05(木) 15:20:36ID:y2etLDHA0
管理側ですぐばれてアク禁
2009/03/05(木) 19:05:28ID:5euH1yl80
>>369
そうなのか、諦めるわ
そうなのか、諦めるわ
2009/03/05(木) 22:13:12ID:QC0/AZnI0
この程度でなるわけねー
2009/03/05(木) 22:51:07ID:5euH1yl80
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
2009/03/06(金) 00:54:24ID:xnM4IX3Z0
firefoxのscrapbookでのんびりと保存するのがベターかな
2009/03/06(金) 14:01:59ID:i20Uaw0U0
2009/03/06(金) 15:00:53ID:PmwxrF/V0
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
2009/03/07(土) 15:46:28ID:EX6aOmt+0
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
2009/03/20(金) 22:02:39ID:JSyDiuTFP
hosyu
2009/03/29(日) 05:41:06ID:t09wwLl20
懐かしい話だ
379名無しさん@お腹いっぱい。
2009/04/01(水) 18:48:18ID:sW1brWClO CSS内の画像リンクも辿って保存してくれるソフトありますか?
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
380379
2009/04/02(木) 11:54:11ID:CFvsFsE+O すみません。解決しました。
2009/04/03(金) 06:23:23ID:oDGPoJNA0
俺と今後の為にどのソフトで解決したのかkwsk
2009/04/04(土) 14:46:47ID:izV7zIzI0
オラも知りたい
2009/04/04(土) 19:11:59ID:g6yEv4mBO
ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
384名無しさん@お腹いっぱい。
2009/04/05(日) 04:43:52ID:F1AvQ3H50 scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
2009/04/05(日) 13:25:58ID:5dZaffZs0
すみませんが、質問です。
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?
具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html
この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/
も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。
このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。
今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。
しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。
この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?
具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html
この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/
も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。
このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。
今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。
しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。
この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
2009/04/05(日) 14:25:28ID:At+ZdFLO0
wiki取り込む方法見つかった?
2009/04/10(金) 22:39:16ID:vy87VD8G0
CGIページをきちんと保存、再生できるソフトないの?
巡集だと再生するときカオスになる・・・
巡集だと再生するときカオスになる・・・
2009/04/11(土) 15:12:26ID:FJDV+iB10
http://pc12.2ch.net/test/read.cgi/software/1239155686/l50
【RunAsData】シェアウェアの試用期限クラック【HookDate】
アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。
http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します
http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧
#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
【RunAsData】シェアウェアの試用期限クラック【HookDate】
アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。
http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します
http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧
#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
389名無しさん@お腹いっぱい。
2009/05/17(日) 13:23:31ID:/NzZAjoN0390名無しさん@お腹いっぱい。
2009/05/25(月) 14:50:50ID:03qdJTKV0 話題もないねえ…
2009/05/25(月) 16:29:47ID:Y24nZ+jT0
じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
2009/06/08(月) 10:51:52ID:AufSz18I0
t t p : / / g . e - h e n t a i . o r g /
ここ取り込める?
画像だけでもいいんだけど
向こうに知られるとまずいから
アドレスは切った
ここ取り込める?
画像だけでもいいんだけど
向こうに知られるとまずいから
アドレスは切った
2009/06/08(月) 11:34:03ID:8JvAcKuU0
Refererくらい理解してから書き込めよ
2009/06/08(月) 21:29:18ID:AufSz18I0
Refererは理解してる、が
取り込みソフト拒否されてるっぽいんだよねここ
取り込みソフト拒否されてるっぽいんだよねここ
2009/06/10(水) 19:59:37ID:/w+HilEi0
PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
2009/06/11(木) 09:32:33ID:CI9JV7KS0
とりあえずyahooの質問集でもクグッて質問しような?
ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
2009/06/11(木) 10:13:00ID:CI9JV7KS0
ああ、それと。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。
下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。
下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
2009/06/13(土) 01:37:45ID:HDt2gcxv0
wikiまるごと保存できるソフトなイノ?
2009/06/14(日) 01:10:44ID:7qssCspA0
400名無しさん@お腹いっぱい。
2009/06/23(火) 17:45:38ID:rUYeky/o0 >>398
フリーじゃないけど
A1 Website Download
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
フリーじゃないけど
A1 Website Download
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
401名無しさん@お腹いっぱい。
2009/06/27(土) 22:03:23ID:i2oYT4kJ0 巡集って
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
2009/06/27(土) 22:14:37ID:DjFTSHEj0
手作業でリネーム
取り込む先のフォルダの名前を指定する
好きなのを選べ
取り込む先のフォルダの名前を指定する
好きなのを選べ
2009/07/18(土) 09:37:45ID:fBBs6NrU0
波乗野朗使ってるんですが、スタイルシートに対応していないのか、最近のWEBサイトを取り込むとガタガタに崩れてしまいます。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
404名無しさん@お腹いっぱい。
2009/08/01(土) 12:57:23ID:yPfvTWSQ0Bulk Image Downloader
これまでFree版を使用していたんだけど、有料onlyになったのかな?
CODEを入力しないと、起動しなくなった。FireFOXのアドオンもダメ。。。
便利だったのに、な。
http://antibody-software.com/web/index.php?option=com_content&task=view&id=33&Itemid=30
2009/08/07(金) 11:31:36ID:O6rKHi3B0
ブログの画像だけを取り込むソフトないですか?
web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
2009/08/14(金) 01:11:21ID:g2iL4TTl0
VIPダウンろーだ
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
407名無しさん@お腹いっぱい。
2009/08/16(日) 15:42:19ID:F1VFlTYE0 >405
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
408名無しさん@お腹いっぱい。
2009/08/16(日) 15:49:36ID:F1VFlTYE0 >>405
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
2009/08/17(月) 23:27:34ID:zCh7YkeM0
javascript追跡に対応してるソフトってありますか?
2009/08/18(火) 19:59:35ID:QE4ZdWoG0
imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
2009/08/19(水) 15:14:37ID:qmXb8rBu0
> imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
2009/08/20(木) 14:50:28ID:gE/IvJew0
imagefap一括DLしたくして↓のページでやったんだけど
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html
ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html
ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
413410
2009/08/21(金) 02:07:18ID:kCD6o2M50 >>411
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます
prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます
prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
2009/09/13(日) 22:20:00ID:4oE3F4nr0
まとめサイト(blog)の広告部分を取り除いて保存してくれるソフトないもんかな
紙copiで保存して余計な部分を(ry
→サイズの大きなページで紙copiがザ・ワールド
BullzipやPrimoでPDFにして余計な部(ry
→サイズの大きな(ryで一般保護法ナントカ
mhtで保存しておいて余計な部分を手動で削除する方法
→mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry
Wordにコピー&ペーストして(ry
→レイアウトが原形を留めてくれない
Proxomitronで広告をフィルタリング
→フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた
とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
→オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
紙copiで保存して余計な部分を(ry
→サイズの大きなページで紙copiがザ・ワールド
BullzipやPrimoでPDFにして余計な部(ry
→サイズの大きな(ryで一般保護法ナントカ
mhtで保存しておいて余計な部分を手動で削除する方法
→mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry
Wordにコピー&ペーストして(ry
→レイアウトが原形を留めてくれない
Proxomitronで広告をフィルタリング
→フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた
とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
→オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
2009/09/14(月) 12:23:55ID:PB1HOZh+0
>>414
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
2009/09/24(木) 20:00:50ID:V1YBGQBI0
巡集使ってみたいのですがページが消えていてどこ探してもみつかりません。
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
2009/09/24(木) 22:31:22ID:n+r1nZD00
巡集消えてるね。
いいソフトだったのに残念だ。
いいソフトだったのに残念だ。
2009/09/25(金) 22:12:28ID:kaj3Edae0
消えてねえよ、ここで更新チェックしとけ
ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
2009/09/25(金) 23:35:57ID:htTJHAHB0
DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
2009/09/26(土) 00:20:49ID:vz+4woN2P
巡集更新されてるな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
2009/09/26(土) 10:23:56ID:oaSHciNs0
>>418
そのリンク先のベクターが一時的に消えてたんだよ。
そのリンク先のベクターが一時的に消えてたんだよ。
2009/09/27(日) 13:50:11ID:ms06DL850
ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
2009/09/29(火) 22:52:47ID:jvpQY2ni0
巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
2009/09/30(水) 10:39:36ID:VYCIQ4+X0
>>423
みんなで幸せになろうよw
みんなで幸せになろうよw
2009/10/20(火) 23:48:32ID:38/cKrSL0
>>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
2009/10/20(火) 23:53:17ID:38/cKrSL0
427名無しさん@お腹いっぱい。
2009/11/17(火) 01:19:05ID:yVWqHF3k0 401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
2009/12/06(日) 23:39:56ID:Xd69xJs/0
Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
気が向いたらランゲージファイル公開するわ
2009/12/07(月) 08:38:55ID:DFn9YnAw0
もうVer.5になってなかったっけ?
430428
2009/12/08(火) 23:22:21ID:D9b5l12j0 Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
2010/01/06(水) 13:07:10ID:kDFT625l0
432名無しさん@お腹いっぱい。
2010/01/06(水) 17:25:24ID:z5X944lK0 それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
感染先は Bee.exe で実行ファイル
2010/01/06(水) 20:00:01ID:kDFT625l0
2010/01/06(水) 20:12:18ID:RzwWHhyF0
巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
435名無しさん@お腹いっぱい。
2010/01/06(水) 22:43:12ID:z5X944lK0 誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
2010/01/12(火) 00:02:23ID:mBZ3Hlbu0
やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
2010/01/14(木) 17:34:33ID:BnCvLsD90
ふつうにwiki保存できてるけど・・・
2010/01/14(木) 19:38:01ID:yv0Hxe320
wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
2010/01/15(金) 03:59:54ID:59bOFj/P0
ScrapBookつかえ
2010/01/17(日) 16:30:03ID:MxrdNVKG0
webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
2010/01/28(木) 14:33:42ID:hxTP88ae0
ソース見てCSSとか足らないファイル無いか確かめて見れ
443名無しさん@お腹いっぱい。
2010/01/28(木) 15:06:42ID:+eB2y8gU0 WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。
今までオートパイロットで WebAuto 以上のものにあったことが無い
今までオートパイロットで WebAuto 以上のものにあったことが無い
2010/01/29(金) 01:51:12ID:pdIiOyGT0
忍者ブログがちゃんと取り込めるお勧めってある?
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
2010/01/31(日) 12:58:52ID:LRfrwAhF0
他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
2010/02/13(土) 23:30:04ID:i791U1t40
gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国側が首相答弁の撤回要求、日本側拒否★3 [夜のけいちゃん★]
- 中国側が首相答弁の撤回要求、日本側拒否★4 [夜のけいちゃん★]
- 被爆者は「怒りが腹の底から湧いてくる」高市首相“非核三原則見直し報道”に被爆地で懸念や憤りの声《長崎》 [1ゲットロボ★]
- 債券・円・株「トリプル安」に…長期金利1.755%まで上昇、円は対ユーロで史上最安値 ★2 [蚤の市★]
- 【中国外務省】日中関係悪化は高市氏に責任と名指しで非難… ★7 [BFU★]
- 日本行き空路49万件キャンセル 中国自粛呼びかけ 日本行きチケット予約の約32%に相当 ★6 [ぐれ★]
- 中国「台湾統一という偉業を成し遂げる」⇦これに反発してるやつ全員アメリカの手先です [271912485]
- 【悲報】中国から輸入した物を食べ、輸入した服を着て、輸入したスマホ弄ってる日本人「中国と戦争するぞ!」 [616817505]
- ネトウヨ「中国人の来日自粛で数千兆円単位の損失?中国に賠償を要求すべき!」 戦後賠償をチャラにしてもらった恩を忘れてて草 [314039747]
- 社民党、新垣氏の離党承認 所属衆院議員ゼロに [377482965]
- リアルで下ネタ言える人すごい 恥ずかしさが勝って言えない
- 日本人が学習しない理由ってなんなのさ… [819729701]
