過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
お勧めダウンロード(丸ごと取り込み)ソフト3
■ このスレッドは過去ログ倉庫に格納されています
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
2007/10/25(木) 08:06:59ID:X9NjLM0s0
ttp://fantasticland.web.infoseek.co.jp/index.html
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
2007/10/25(木) 08:25:35ID:X9NjLM0s0
初期設定保存→初期設定で保存
2007/10/25(木) 20:52:21ID:MXXrESKM0
落とせないのはたぶん↓これのせい
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
2007/10/25(木) 22:22:35ID:X9NjLM0s0
193名無しさん@お腹いっぱい。
2007/11/20(火) 19:31:24ID:UO8+XWOH0 ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
2007/11/20(火) 20:35:52ID:+BL7nhGN0
iriaかIrvine
195名無しさん@お腹いっぱい。
2007/11/21(水) 18:58:15ID:TdDk4QuK0 すいません
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
2007/11/21(水) 19:52:04ID:yPEtRi6u0
FWがブロックしてんじゃないの?
197名無しさん@お腹いっぱい。
2007/12/06(木) 21:50:51ID:R8U55YGP0 ttp://www.rolfinger.com/
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
198名無しさん@お腹いっぱい。
2007/12/19(水) 03:03:46ID:9yuHwmFr0 gethtml (コマンドラインの方)で
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
2007/12/19(水) 08:26:38ID:rzYFr4Wu0
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
2007/12/19(水) 08:36:06ID:rzYFr4Wu0
うはw
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
2007/12/19(水) 11:15:42ID:9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
2007/12/25(火) 11:11:24ID:GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
2007/12/25(火) 11:35:48ID:PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
2007/12/29(土) 07:39:53ID:qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
2007/12/30(日) 23:06:29ID:qlo4Nzf+0
はい
2008/01/13(日) 17:24:55ID:IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
IE6ならアドレスバー右のアイコンドラッグでもいい
2008/01/16(水) 15:18:18ID:ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
2008/01/16(水) 16:23:20ID:OFGCoOwC0
&や=で区切られてるURLをDLするんじゃないかと
2008/01/16(水) 16:23:53ID:OFGCoOwC0
?とか
2008/01/18(金) 16:46:29ID:IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
2008/01/18(金) 17:33:47ID:A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
2008/01/18(金) 18:31:47ID:gw9zl8ah0
URLを晒せば誰かが解析してくれるよ
213211
2008/01/18(金) 18:54:52ID:tCWJ6AtX0 トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
2008/01/18(金) 22:09:06ID:gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
海外では ~ ってあまり使われないのか
2008/01/24(木) 06:32:37ID:JD3lJ93I0
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
2008/01/24(木) 07:32:08ID:oN1Lok+h0
株にはまりすぎて開発してる暇がなくなったんじゃ
2008/01/25(金) 06:37:21ID:NApTe0zp0
ベクターの作者ページへのリンクが
2008/01/25(金) 07:44:23ID:Uo5ZCYg70
どうした?
219名無しさん@お腹いっぱい。
2008/01/25(金) 17:45:12ID:pOdyTSFw0 http://bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
2008/01/25(金) 22:06:45ID:VQ1m2IF90
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
2008/01/25(金) 22:12:43ID:xmvyWrR/0
2008/01/26(土) 19:25:30ID:h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
2008/01/26(土) 20:07:25ID:BB78zvk50
>2階層以上取り込めません
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
2008/01/26(土) 20:50:47ID:h3xkz2eJ0
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
2008/01/26(土) 22:17:45ID:Vw9+2j2y0
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
2008/01/26(土) 22:20:24ID:Vw9+2j2y0
続き
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
227名無しさん@お腹いっぱい。
2008/01/26(土) 23:17:56ID:Nych28nF0 219です。
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
2008/01/26(土) 23:34:13ID:Vw9+2j2y0
2008/01/27(日) 04:41:59ID:2s4iBkil0
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
230名無しさん@お腹いっぱい。
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0 初心者にお勧めの物ってどれになりますか?
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
2008/01/27(日) 10:20:40ID:suXR9EeP0
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
俺がロックフェラーならパトロンになってやるんだが
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
2008/01/27(日) 11:58:42ID:2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
中身を「フィルタ」で検索してみるがよろし
2008/01/27(日) 12:50:55ID:Xxz+W6Ae0
2008/01/27(日) 13:39:28ID:s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
2008/01/27(日) 19:04:30ID:2s4iBkil0
2008/01/30(水) 01:36:11ID:NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
これはどうしようもないの?
それとも他のならできる?
2008/02/08(金) 00:48:18ID:LyUhp1gB0
http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
2008/02/11(月) 20:21:44ID:dYHnvlVd0
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
241名無しさん@お腹いっぱい。
2008/02/12(火) 01:13:13ID:jIBSXkqy0 Super Capture ってなくなっちゃったんですか?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
2008/02/12(火) 15:44:15ID:pEdZWnO30
243名無しさん@お腹いっぱい。
2008/02/12(火) 21:02:05ID:Ftzz/E6Q0 http://www.gymfan.de/gym_pic.html
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
244名無しさん@お腹いっぱい。
2008/02/12(火) 22:45:39ID:S2Vi01b30 取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
2008/02/12(火) 23:31:39ID:v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
246名無しさん@お腹いっぱい。
2008/02/12(火) 23:48:23ID:jIBSXkqy0 >>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
2008/02/13(水) 01:43:15ID:95oy4e+k0
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
2008/02/13(水) 01:49:38ID:mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
なんなら -screen くっつけて検索汁。
2008/02/13(水) 01:53:22ID:zIVsZC2A0
251名無しさん@お腹いっぱい。
2008/03/02(日) 15:32:26ID:SlT8oVxO0252名無しさん@お腹いっぱい。
2008/03/02(日) 22:55:44ID:XBPQmEY902008/03/04(火) 23:58:34ID:8O1P5E4A0
irvineでも巡集でもURLを直接指定すればええやん
2008/03/18(火) 21:59:21ID:ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
2008/03/19(水) 12:43:47ID:YKorTSpT0
>>254
んなわけない
んなわけない
2008/03/20(木) 01:58:21ID:m223Zsx40
ありがとうございます!
257名無しさん@お腹いっぱい。
2008/03/24(月) 04:25:21ID:w4eXPHNQ0 サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
258名無しさん@お腹いっぱい。
2008/04/11(金) 08:00:28ID:JS6+SD8u0 そろそろ答えてください
2008/04/13(日) 20:04:32ID:oGL9AkZ60
まだだ、まだ答えんよ
2008/04/14(月) 19:23:15ID:v2R7+9CM0
雨は使ったことない(´・ω・`)
2008/04/18(金) 04:55:05ID:UhKCBHwm0
巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
2008/04/18(金) 05:11:53ID:Ye4EJlp40
>>261
フィルタを使えばいけます
フィルタを使えばいけます
2008/04/18(金) 14:35:41ID:UhKCBHwm0
その設定をおねがいします><
2008/04/22(火) 07:20:07ID:ZhYRKd640
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
265名無しさん@お腹いっぱい。
2008/04/26(土) 12:43:45ID:bWElsVFw0 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
2008/04/26(土) 14:34:15ID:xuojH8LA0
ダイアログに出ているタイトル
267名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:02ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
268名無しさん@お腹いっぱい。
2008/05/05(月) 18:11:26ID:t9WSIx9k0 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
なんかいいソフトはありませんか?
2008/05/05(月) 18:19:45ID:cHvd4SHv0
あるわけねーだろ
2008/05/05(月) 18:23:28ID:Mg38eEgV0
メモ帳
271名無しさん@お腹いっぱい。
2008/05/05(月) 18:34:59ID:t9WSIx9k0 そうですか・・・残念だぴょん・・・・・・
2008/05/05(月) 19:01:15ID:6J6AlWWJ0
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
273名無しさん@お腹いっぱい。
2008/05/05(月) 19:27:05ID:t9WSIx9k0 >>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
2008/05/05(月) 19:29:51ID:GHBwk8a80
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
おそらく保存どころか読みさえできなくなると思う
2008/05/05(月) 19:36:07ID:Mg38eEgV0
2008/05/06(火) 04:34:03ID:pWIAuxdS0
>>273
FirefoxだったらScrapBookをすすめるんだがな。
FirefoxだったらScrapBookをすすめるんだがな。
2008/05/06(火) 19:54:31ID:SBxlMPDL0
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
2008/05/10(土) 04:00:05ID:g0wuH1J20
日本語でおk
2008/05/11(日) 17:13:40ID:5I6LyxnA0
website explorer使ってる人俺以外にもいるのかな
2008/05/11(日) 20:39:05ID:OLc5kE2C0
使ってるけど丸ごと取り込みには使わないな
2008/05/12(月) 10:37:10ID:9PCKZ1Jr0
Firefox使いの俺はFownThemAll!とScrapBookだ。
2008/05/12(月) 22:24:48ID:tJ0QtoQm0
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
2008/05/12(月) 23:42:25ID:zqRUnBa00
ダウンロードソフトはダウンロード板の管轄じゃないの?
2008/05/13(火) 02:25:08ID:ErVJOT7a0
285282
2008/05/13(火) 06:41:48ID:/touQVIB0 スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
ご丁寧に教えていただきありがとうございました。
2008/05/27(火) 10:00:24ID:qJm5C59n0
gzipで送信されるページに対応した取り込みソフトはございませんか?
2008/05/30(金) 01:20:05ID:obDTDq910
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
こういうソフトもそろそろ時代遅れなのかしら…
2008/06/03(火) 01:59:41ID:V0GOfPnQ0
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【速報】中国、水産物輸入停止と通達 「処理水」理由、日本政府へ ★3 [おっさん友の会★]
- 【速報】中国、水産物輸入停止と通達 日本政府に ★2 [おっさん友の会★]
- 高市首相答弁を“引き出した”立民・岡田克也氏が改めて説明「なぜ慎重な答弁をされなかったのか。非常に残念に思っている」 [ぐれ★]
- 中国側が首相答弁の撤回要求、日本側拒否★6 [夜のけいちゃん★]
- 【速報】 米大使「はっきりさせておこう、米国は尖閣諸島含め日本の防衛に全面コミット、中国がどうしようが変わらない」 [お断り★]
- 「厚かましい挑発的発言だ」中国国連大使が高市首相発言に強く反発 日本の常任理事国入りに明確に反対 [ぐれ★]
- 【高市訃報】ホタテ業者、死亡😇😇😇 [573041775]
- 【高市悲報】マルハニチロ ニッスイ キョクヨー スシロー、急落 下落 [165981677]
- 「日本の保守層のご機嫌を取りながら、中国、ロシア、アメリカのご機嫌も取る」👈こういう総理がいれば良かったよな [762037879]
- 【悲報】もし中国と戦争になったら「プロ野球選手」も徴兵されるの🤔 [616817505]
- 【速報】中国、水産物輸入停止★2 [989870298]
- 【終国悲報】高市早苗、たったの10日で莫大な経済的損失を叩き出す [165981677]
