X

お勧めダウンロード(丸ごと取り込み)ソフト3

レス数が1000を超えています。これ以上書き込みはできません。
2007/02/06(火) 19:13:37ID:SEh3Iu6i0
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
2007/02/06(火) 19:14:55ID:/qPOMJxv0
【アップローダー】
必ずPCからの閲覧を許可に設定して下さい。
動画の場合「保存許可」や「ダウンロード許可」も設定して下さい。

■静止画専用 イメぴた(http://imepita.jp) 送信先アドレス:p@imepita.jp (1ページに1枚・追加不可)
■動画専用 UPdoga(http://www.updoga.com/) 送信先アドレス:upp@updoga.com (PCからの投稿不可)
■@ピタ(http://pita.st/) 送信先アドレス:up@pita.st (4:20am〜4:40am 定期メンテ)
■ナショナルアドレス(http://new.cx/) 送信先アドレス:up@new.cx (8:00pm〜4:00amはPCからの閲覧不可)
■ピクト(http://www.pic.to/) 送信先アドレス:up@pic.to (7:00pm〜4:00amはPCからの閲覧不可)
■あぷあぷ(http://upup.be/) 送信先アドレス:up@upup.be (最大6枚/500kb・動画可)

※@ピタ利用の際のお願い
@ピタはauユーザーが動画を見れませんので、携帯向けにナショナルアドレスにもアップロードして頂くか、
【静止画】@ピタ【動画】UPdoga という様に使い分けをして頂けると幸いです。
お手数をおかけしますが宜しくお願いします。
2007/02/06(火) 19:17:04ID:iHoHF+zi0
そ れ P l a g g e r で
2007/02/06(火) 19:22:12ID:SEh3Iu6i0
巡集
http://sdn255.web.fc2.com/
GetHTML
http://www.vector.co.jp/soft/win95/net/se077066.html
GetHTMLW
http://www.vector.co.jp/soft/win95/net/se077067.html
WeBoX
http://www-nishio.ist.osaka-u.ac.jp/~nakamura/webox/index.html
GetYou!
http://www.vector.co.jp/soft/win95/net/se076215.html
Offline Explorer(30ドル、英語、買うまでお勧めできるかというとちょっと…)
http://www.metaproducts.com/mp/mpProducts_Detail.asp?id=1
WinHTTrack(サイトは英語、中身は日本語)
http://www.httrack.com/page/2/en/index.html
<解説ページ> http://hetoheto.hp.infoseek.co.jp/022HTTrack/mokuji.htm
Teleport Pro(39.95ドル)
http://tenmax.com/teleport/pro/home.htm


ダウンローダー総合スレ
http://pc9.2ch.net/test/read.cgi/software/1162627679/
【Berry】画像掲示板巡回ソフトその2【moeBBS他】
http://pc9.2ch.net/test/read.cgi/software/1160984698/
【サイト取り込み】WeBoX part5【ダウンロード】
http://pc9.2ch.net/test/read.cgi/software/1133114304/
2007/02/06(火) 19:23:28ID:SEh3Iu6i0
適当にリンクを拾ってみました
スレを斜め読みすると過去の書き込みの情報がかなり重要だと思うのですがとても追い切れません
2007/02/08(木) 04:53:43ID:g+iNFN1T0
>>1おつ
2007/02/08(木) 17:26:52ID:WWG7vakV0
2007/02/10(土) 18:26:33ID:vydLZCQW0
未だに、更新のあるソフトの中でまともなのが無い件
9名無しさん@お腹いっぱい。
垢版 |
2007/02/11(日) 21:23:36ID:jHpRrofD0
更新ないソフトでまともなのは?
10名無しさん@お腹いっぱい。
垢版 |
2007/02/15(木) 01:26:37ID:Pl5f6i4o0
hpに画像がサーバー外の画像のリンクから
画像を読み出して表示してるバナー広告とかサムネイル
みたいな場合でキャプチャみたいにその外部の画像の表示もそのまま
ローカルに保存できるソフトってありますか?
キャプチャでもいいんですがそれだとリンクが使えないので
2007/02/15(木) 16:38:15ID:xGyut0QH0
普通にできるだろ
2007/02/17(土) 21:22:38ID:Bvr9jzjZ0
フレームも含めて全体を取り込む事ができないツールばっかりだな
2007/02/18(日) 22:37:03ID:B7D3YFzL0
できるけど
2007/02/20(火) 15:09:45ID:e2t4e5vo0
wikiを保存できるソフトって無いかな?
2007/02/20(火) 23:10:34ID:d0tVJ95D0
ズームイン
2007/02/22(木) 19:07:07ID:4/p4xaLh0
wikiってなんであんな糞なの?
項目名に日本語が含まれてるだけでブラウザでまともに保存すらできないし、
保存できたとしても、リンクのアドレスが文字化けしてめちゃくちゃ。
2007/02/24(土) 19:03:37ID:mPdOutYY0
ローカルに保存するなってことだろう
どうしても必要ならGetHTMLWのProxyMode2でいけないこともない
2007/02/25(日) 09:58:28ID:3/oOlfpO0
巡集でインターネットアーカイブを取り込める方法はあるんでしょうか?
2007/02/25(日) 10:19:57ID:+miNcfmr0
>>18
あえて言おう、Weboxとw
2007/02/25(日) 14:28:16ID:3/oOlfpO0
>>19
ワロタ
Webox以外ないってことだね
あきらめるわ
2007/02/25(日) 23:45:44ID:eNlSPLFM0
巡集うpキタ

ver 1.7.1A (2007/02/25)
*ブログサイトのダウンロード精度を向上。
*User-Agentのランダム設定で落ちるバグを修正。
2007/02/26(月) 12:53:05ID:CEVJf6Ud0
>>18
できるけど
2007/02/28(水) 23:14:28ID:SH0Duyi80
ウェブオートがないね?相変わらず愛用してるんだけど
2007/03/03(土) 11:40:21ID:wPSSr1HZ0
Local Website Archive
ttp://aignes.com/download.htm
どうでそ
2007/03/10(土) 01:51:22ID:1W/LjUSi0
巡集が連邦のTOPでふれられてるな・・・・
2007/03/10(土) 10:13:23ID:mcy/iIRK0
見てきた
巡集作者の株日記って面白いのか
今度ゆっくり見てみよう
2007/03/10(土) 17:03:30ID:uULWbJDt0
>>14
firefoxの拡張のscrapbook。
簡単で、まともに保存できるのはこれくらいの気がする。
ただ、時間がかなりかかる(待機時間があるため)。

この待機時間がなければ、もっと軽快なんだけど。
28名無しさん@お腹いっぱい。
垢版 |
2007/03/11(日) 09:36:46ID:m++gCE8F0
朝鮮人の糞サイトがどうしようもねー。
全てのページをひとつのphpで振り分けやがる上に、ページ表示のバリエーションの条件をURLにぶちこんでいるから全てのパターンを拾いやがる。
同じベージを何百回も落としてる感じ。死ねよ。
2007/03/11(日) 11:11:38ID:7FjXboN90
チョンサイトなんか取り込む価値ないだろ
2007/03/12(月) 01:40:40ID:g6wu4dAt0
巡集はそこはかとなくバージョンアップしているけどどこでバージョン上げたらいいか分からないな
未だに勝手知ったる古いバージョンのまま
2007/03/12(月) 09:08:50ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。

これって現バージョンでも有効なん?
32こまったさん
垢版 |
2007/03/21(水) 23:32:49ID:SFbcr1In0
他の掲示板にも書込みしたのですが返信がないのでこちらにも書かせて
いただきます。パソコンのソフトを探しています。

まずキャプチャソフトで、そのページの画面に表示されている部分だけではなく
上から下まで全てキャプチャ出来るソフトでなおかつjpegなど画像形式での保存ではなくhtml形式で保存が出来るソフト。
もっと具体的な内容なのですが、例えば
・ttp://www.windsor-hotels.co.jp/0601/hotel/main.html
のサイトのキャプチャをしたいのですがどうしても、保存しても真っ白になって表示されたり、
00/100のように表示されてしまいます。

次に、最近多いFlashを使用したWebサイトをFlashも含めて丸ごとサイト自体を保存できるソフト。
・ttp://www.actors.jp/home.htm
のサイトを丸ごとインターネットで接続して閲覧しているときと同じように保存したいのですが、
それもどうしても真っ白になって表示されたりしてしまいます。

を探しています。いずれもFlashのみの保存ではなくWebページ全体での保存が希望です。
フリーソフトでもシェアソフトでも構いません。
今までベクターで検索したり、色々と購入して試してきましたが理想通りに保存できず・・・。
皆さんの知識を教えていただければ助かります。よろしくお願いします。
2007/03/22(木) 01:20:24ID:6cAWaJRR0
マルチポスト乙
2007/03/22(木) 03:29:11ID:mWobe70O0
>今までベクターで検索したり、色々と購入して試してきましたが
詳しく。
35こまったさん
垢版 |
2007/03/22(木) 05:05:00ID:9uATb/Gl0
>>34
今まで試してきたソフトは沢山ありすぎますが記載させていただきます。

<キャプチャソフト>
HyperShot/Instant Camera/SCap/Super Capture (スーパーキャプチャー)
WebScan/メモメモ+/Atropos/AutoCapture/ClipDesk/CrenaHtml2jpg
EasyCapture 2002/EzCutter/GOLD Japan Snap/IECapture/MiCapture
PHARMACY/ViewletBuilder4 PRO/WebExe/Webよ止まれ 〜EternalWeb〜
WinCapture/WinCatch!!/WinShot/みやきゃっぷ/ワンタッチ全画面キャプチャ
ワンタッチ全画面キャプチャ2/画像キャプチャ「おとりなさい」/画面キャプチャ君
画面ライター

<ダウンロードソフト>
1・2のHTMLダウンロード From CGI/INTERNET POWER DOWNLOAD 3.0
iScrap/ダウンロードNinja 4 for Windows/ダウンロードSpider4
驚速ダウンロードSUPER/紙copi/AutoURL!/CompleteGetter
EasyWebHunter/File Picker/Firefox/FlashGet (JetCar)/GetHTML
GetHTMLW/PageDown/webget/WeBoX/WEB収集ブラウザ/ダウンローダー雨
波乗野郎

になります。よろしくお願いします。
2007/03/22(木) 09:07:08ID:Vttpzofp0
巡集は?
2007/03/22(木) 16:16:32ID:mWobe70O0
>>35
ブラウザのファイルメニューから保存を選択すればよろしい。
2007/03/22(木) 20:14:11ID:NBcFje480
>>32
safariでダウンロード
http://www.apple.com/jp/safari/
2007/03/23(金) 06:25:27ID:PBBDt6fb0
> 巡集は?

それ Plagger で。
2007/03/23(金) 08:47:04ID:vfc6iUOY0
めんどくさそう
ttp://www.otsune.com/fswiki/plagger.html
41こまったさん
垢版 |
2007/03/23(金) 16:19:04ID:S6LCnbae0
>>36
>>37
>>38
>>39
>>40

ありがとうございます。
試してみます。
42名無しさん@お腹いっぱい。
垢版 |
2007/03/25(日) 21:49:09ID:QJr1/7Rw0
ダウンロードリストにて出力ファイル、フォルダ等を指定して
ダウンロードできるようなソフトってありますでしょうか?
2007/03/25(日) 22:40:31ID:0FOGxNpt0
>>42
ダウンローダー総合スレ
http://pc11.2ch.net/test/read.cgi/software/1162627679/
44名無しさん@お腹いっぱい。
垢版 |
2007/04/25(水) 20:11:26ID:5UFLTEQ+0
GETHTMLWで取得終了しましたが、トップページからリンクされている
別のサイトのページが取得できていませんでした。
別のサイトのページだけ取得するにはどうすればいいでしょうか。
2007/04/25(水) 21:12:34ID:tskrCebI0
ttp://jugem.jp
ここのブログを使ったサイトをDLしたいのですが
巡集ではうまく落とすことができず困っています

「ダウンロードするURL」欄にhttp:/******.jugem.jpといれて
ダウンロード開始ボタンを押しているのに
そのページにリンクされてるページがDLできないのです

どなたかブログを丸ごと取り込むコツを教えてください
また巡集以外で簡単に取り込めるソフトがあればおしえてください
2007/04/25(水) 22:06:10ID:MVpOPi4X0
ttp://***.jugem.jp/?month=200506
ttp://***.jugem.jp/?month=200507

こんなのがログみたいだから、
連番作成して適当なダウンローダーで落としたらどうかな
サイト構造の維持は厳しいだろうけど
2007/04/25(水) 22:45:13ID:tskrCebI0
>>46
やってみます
ありがとうございます
2007/05/03(木) 19:13:33ID:qXeb/TgM0
TeleportがSWFリンク辿ってくれたらなあ…
49名無しさん@お腹いっぱい。
垢版 |
2007/05/11(金) 21:12:46ID:deAEqze90
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
2007/05/11(金) 21:38:41ID:mMovTTY80
>>48
遅レスながら同意
2007/05/11(金) 21:44:26ID:i6HOkKUj0
NT一本で十分だろ。
2007/05/11(金) 21:44:57ID:i6HOkKUj0
スレチすいませんでした。
2007/05/12(土) 16:53:59ID:t4vHNRDV0
GETHTMLWが8になったね
2007/05/13(日) 15:18:33ID:p2YpN1ad0
SDP Downloaderについての質問です。

このソフトでcmm://〜.wmvというファイルをダウンロードしているんですが、
何度やっても99%のところで止まってしまいます。
どうすれば100%にできるんでしょうか?
2007/05/13(日) 16:26:52ID:q23NirUR0
今の取り込みソフトって、ロールオーバーって取り込めるソフトが大半なの?
それとも全く無いの?
昔、ダウンロードNINJAで1→2→3と試してもことごとく出来なかったから、
もう取り込みはあきらめてしまったのだが。
できるんなら、また取り込みやってみようかなと思うんだが。
2007/05/13(日) 17:16:29ID:WJenwP960
>>54
スレタイ嫁
スレ違い
2007/05/14(月) 15:34:51ID:v+uhQcsb0
XPSP2
巡集  ver 1.7.1A

巡集のlog開いた時の「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
前使ってた時は、小さかったんですが、新しく入れなおしたら、ちょっと大きくなってました。
ブラウザの文字の大きさの設定は「最大」ですが
前の巡集は、ブラウザの設定で言うと「中」の大きさでした。
後 「2007/05/14 15:11 : webサイト名 : URL」
とかってなってますが、URLの部分を消した状態で保存する事って出来ないでしょうか?

両方ともlogをメモ帳とかで開いて、書き換えるしかないですか?
文字の大きさは、何もしなくても小さかったと思うんですが・・・。

今のlogは↓のようになっています、どなたか教えてください。
長くなってすいません、よろしくお願いします。

<html>
<head>
<META http-equiv="Content-Type" content="text/html; charset=Shift_JIS">
<title>HTML参照</title>
</head>
<body>
2007/05/14 15:11 : <a href="ファイルが保存されているパス">タイトル</a> : <font color=red>URL</font><br>
</body>
</html>
2007/05/14(月) 16:18:41ID:934RTAGf0
>「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
巡集は関係ないんじゃないか?
使ってるブラウザの設定の問題だろ

>URLの部分を消した状態で保存する事って出来ないでしょうか?
なぜ消したいのかが理解できないが、「URLの部分」だけ消すことはできない
HTML参照(log)そのものを残したくないなら設定→保存→履歴HTMLのチェックを外せばいい
5957
垢版 |
2007/05/14(月) 16:21:11ID:v+uhQcsb0
>>58
いえ、前の巡集のlogには何やら色々コードが書いてあって
それで、小さくなってたと思います。
>>57みたいに、シンプルじゃありませんでした。
ブラウザの設定は変えずに、そのままでも小さかったです。

HTML参照(log)を残したいわけではなく、赤字のURLの部分を消したいんです。
2007/05/14(月) 16:57:50ID:934RTAGf0
>>59
俺の巡集logにはそんな記述はないので、小さくなってたと思いますと言われても
ああそうですかとしか答えられない

後半は無理。
>「URLの部分」だけ消すことはできない
って書いただろ?
それでもあえて消したいなら、自分で書きかえるか全部消すしかないってことですよ
2007/05/14(月) 17:05:06ID:AYp/+A+V0
漏れならSpeeeedでスタイルシートを挿入して
URLの部分を消すけどね
それだとログの追加時におかしくなる可能性はあるけども

このソフトは時々行方知れずになったから
探せば文字小な過去ヴァージョンをうpしてるところもあるんじゃないの
2007/05/14(月) 17:09:46ID:934RTAGf0
念のために昔のバージョン1.44とと1.56と最新バージョン1.7.1Aのlogを比べてみたけど
全く同じだったよ
2007/05/14(月) 17:15:39ID:934RTAGf0
もしかして1.00とかの超初期バージョンの話なのか?
だったら作者さんに要望を出したほうが早いんじゃないかねえ
64名無しさん@お腹いっぱい。
垢版 |
2007/05/23(水) 11:48:30ID:p9K8Da5+0
rapgetでプロクシリストごと登録してひたすら待ってるんですが
いっこうに落ちてきません。これって自動的にリストにあるプロクシを
切り替えるんですよね?!(´・ω・`)
2007/05/23(水) 11:57:25ID:Ht77tPJ30
>>64
ダウンローダー総合スレ
http://pc11.2ch.net/test/read.cgi/software/1162627679/
2007/05/24(木) 18:28:19ID:P17Tzbhp0
巡集の最新版で、下記HPを保存しようとしましたが
画像が保存できませんでした。設定を何も変更していないのがいけないのでしょうか?
ttp://blog.goo.ne.jp/japanarts_mballet/

weBOXでは取り込みできましたが、後からの閲覧の簡単さからすると巡集が嬉しいのですが
どうすれば、画像も取り込めるようになりますか?
2007/05/24(木) 18:56:12ID:BTZH/2CX0
プログラムはあなたが望んだように動くのではない
あなたが命じたように動く
2007/05/27(日) 07:01:51ID:vY46+4wG0
晒すなよくず
2007/05/27(日) 09:54:24ID:84NDCMzr0
サイト管理人降臨?
2007/06/03(日) 09:43:11ID:gej6GeXW0
このCM映像ダウンロードしたいのですが、可能なソフトないでしょうか?
http://www.suntory.co.jp/softdrink/oolongtea/cm/album.html
2007/06/03(日) 09:50:45ID:jVi4CScL0
>>70
>>65
72名無しさん@お腹いっぱい。
垢版 |
2007/06/07(木) 04:27:10ID:w9jL1zcV0
ダウンロードソフトって、どうして必要なのか、わからなくて、
とりあえず、無料のソフトをおもいきり、いれてみた。
それで、インターネットをブラウジングしていると、動画とか音楽のサイトを
見ていると、わけのわからないアイコンがいくつも出てくる。
邪魔だから消す目的で、適当にいじると、勝手にダウンロードが始まって、
ビビった。それも、複数のソフトで同じファイルを同時ダウンロードするんだね。
これで、やっとダウンロードソフトの意味がわかった。
急いで、アンイストールしたのはいうまでもない。
つくづく漏れってパソコン暦長いのにアホだと思ったよ。
2007/06/07(木) 12:18:09ID:+MIU/Wbh0
文才があるな
2007/06/08(金) 12:43:31ID:llkTmUkg0
>>72
必要な理由

ブラウザの右クリックで保存するよりも速いから
ダウンロード後のファイルの整理をしやすいから

等など色々理由はあるけどここでいう「ダウンロード」は
閉鎖前のサイトをダウンロードしてローカルで閲覧したりとかそーゆー・・・
75名無しさん@お腹いっぱい。
垢版 |
2007/06/09(土) 22:41:03ID:HLXTvkEK0
まるごとダウンロードと書いてあっても、swfの取り込みは簡単でないね。
swf取り込んでも、ページに配置されてなかったりとか、、。
みんなどうしてんの?
2007/06/09(土) 22:46:06ID:4465SMjJ0
そんなの糞サイトだと罵る
ダウンロードするしないに限らずね
2007/06/10(日) 00:04:43ID:LgHJT65n0
swfは専用のやつを使ったほうが良い
78名無しさん@お腹いっぱい。
垢版 |
2007/06/10(日) 00:41:01ID:NtDqBrEQ0
htmlとswfは関連付けたままで落としたいのだが、、
無理なのかな?

ところで、ここにいるやつらはどんなサイトを落としているの?
2007/06/10(日) 00:56:20ID:LgHJT65n0
それなら巡集はどうよ
単純な作りのものなら大抵のものは落とせるはず
2007/06/10(日) 02:41:43ID:Uw9zFxYD0
丸ごと落としたいサイトがめっきり減ったのが
ソフトをあまり詳しく調べなくなった大きな要因だな(苦笑
2007/06/16(土) 09:07:23ID:KdRb8Kiy0
巡集でJUGEMのブログを保存してみたんですが、
http://****.jugem.jp/ では最初のページしか保存されず、カテゴリごとに保存しても
コメントやその他のリンクを開くと「ページを表示できません」になってしまいます。
丸ごと保存するには何か設定が必要なんでしょうか?
2007/06/16(土) 09:50:07ID:JrRpMphm0
>>81
最新版の1.7.1Aで公式ブログのhttp://info.jugem.jp/で実験してみた
残りファイル数が1万を超えそうになったから途中までしか試してないし結構適当だけど

・URL欄にhttp://info.jugem.jp/
・取得設定でクエリー(ファイル・HTML両方)にチェック
・URLフィルタの上部「以下の文字列に〜」と「上記のURLに〜」にチェックして
 */info.jugem.jp/*を登録

あとは自分で試行錯誤してください
2007/06/16(土) 09:56:46ID:JrRpMphm0
あと、ブログのDLは普通のサイト以上に鯖に負担がかかるので
頻繁にダウンするのはやめたほうがいいかも
2007/06/16(土) 09:59:28ID:JrRpMphm0
なんどもすまぬ
×・取得設定でクエリー(ファイル・HTML両方)にチェック
○・取得設定でクエリー(ファイル・HTML両方)にチェックを追加
2007/06/16(土) 10:22:30ID:KdRb8Kiy0
>>82-84
ありがとうございます!
今DL中です。時間かかりそうですが、試行錯誤してみます。
2007/06/17(日) 17:01:09ID:5bFjc7r40
>>49 :名無しさん@お腹いっぱい。 :2007/05/11(金) 21:12:46 ID:deAEqze90
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?

同じく同意
2007/06/17(日) 19:46:05ID:cpCk+QSv0
ない
2007/06/21(木) 00:06:58ID:pUUtjIyw0
しかし埋め込み動画や細工のかかった音楽と違って
一気にダウンロードしてやろうと思うサイトがぼこぼこできるわけじゃないというのが
このスレの盛り上がらない原因かも
自分も落とす目的サイトを失ったまま腐らせてるソフトがいくつも…
2007/06/21(木) 07:56:56ID:RyvgTM1J0
前におまえら何落としてるんだ?と聞いた奴がいたけど
俺はネット小説サイトをダウンしてる
小説は読むのに時間がかかるからどうしてもネットに繋ぎっぱなしになるけど
そゆのはなんだか怖いので、一気に落として好きなときに読む
2007/06/21(木) 15:56:26ID:pIa8QOUC0
>>89
まさか今時ダイヤルアップなの??
2007/06/21(木) 17:12:58ID:L7lfwHZK0
うんにゃ。ブロードバンドですよ
ネットに繋ぎっぱなしが嫌いなだけ
2007/06/21(木) 19:25:55ID:pIa8QOUC0
>>91
常時接続なのに、わざわざルータとかモデムの電源切ってる、って事?
2007/06/21(木) 23:01:30ID:A1Kcs3kZ0
30分以上ネットに接続してないと自動で切れるようにルーターの設定してる
どのルーターにもそういう機能あるだろ?
いちいち設定画面を呼び出して切るのなんて面倒なことはしないよ
2007/06/21(木) 23:12:24ID:pUUtjIyw0
常時ファイルの受け渡しをしている我が家のPCルーターでは(ry
2007/06/22(金) 12:58:08ID:tgIIcn/Y0
自動でやるにしても、一々切る意味がサッパリ分からん。
2007/06/22(金) 21:30:54ID:oY0InkBF0
Windowsはセキュリティホールの塊だから繋ぎっ放しでなんか進入されたら嫌
かといって他のOSだと仕事にならんし
2007/06/23(土) 09:29:22ID:rIzu0jgZ0
animeEDENで使えるダウンロードするソフトとか知りませんか????
フラッシュゲットは使えませんでした。よろしければ教えて下さい。
98名無しさん@お腹いっぱい。
垢版 |
2007/06/23(土) 15:42:14ID:cxs0M3OE0
age
2007/06/23(土) 19:54:44ID:8uttgXUI0
weboxみたいな糞じゃなくて
もっとまともなの無い?
2007/06/23(土) 20:18:04ID:h2a2iVoP0
>>97
スレチだよ。こっち池
ダウンローダー総合スレ
http://pc11.2ch.net/test/read.cgi/software/1162627679/
2007/06/24(日) 12:48:27ID:vyIwC8Dh0
俺も
有料でもいいから
使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
2007/06/24(日) 12:51:00ID:BKpQ2BQw0
age
2007/06/24(日) 14:04:27ID:W4JWzNtg0
> 使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…

define "使い勝手が良く"
define "まともに動く"
2007/06/24(日) 16:19:01ID:rw6d1fYO0
フリーはGetHTMLと巡集とWeBoXがあれば事足りる
2007/06/24(日) 23:20:22ID:5kmu6rvm0
>>104
シェアは?
2007/06/24(日) 23:29:43ID:R0y8b7g00
やっぱ「このサイトのあれはどう落とすんですか?」みたいな音楽や動画を落とす質問も
あまりこないからこのスレ流行らないのかな
107名無しさん@お腹いっぱい。
垢版 |
2007/06/25(月) 00:45:53ID:K6zCrBFq0
>>82
81じゃないですが
その方法で1.71Aで試してもHTMLとして取得できません。

_day=20051015
こんなかんじの拡張子のないファイルがダウンロードされてしまいます。

巡集ではむりなのでしょうか。
2007/06/25(月) 01:16:12ID:S2S8ZHTX0
中身はHTMLじゃないの
2007/06/25(月) 07:34:26ID:MF8Xgs1n0
だね
2007/06/25(月) 07:36:46ID:MF8Xgs1n0
送信ミス
>>107
見れないわけじゃないんでしょ?
2007/06/28(木) 17:58:02ID:BW5JcD+Y0
巡集、設定も簡単で良いんだけど、サイトによっては固まる事があるんで
もう少し安定性が欲しいね。
2007/06/28(木) 20:11:42ID:lM1iLQ6/0
それは鯖側の問題でわ
2007/06/28(木) 21:00:16ID:L41fKHeH0
>>112
いや、WebAutoだと問題無く落ちて来るんでソフト側の問題だと思う
2007/06/28(木) 22:32:12ID:bcAsTfsR0
今までの経験だと、フィルタ設定が邪魔をしていることがあった。
115111,113
垢版 |
2007/06/28(木) 22:47:44ID:PaBI4yQU0
ちなみに固まるのは↓のサイトで、毎回同じページで止まる
フィルタも外してみたり、設定も一通り試してみたんだけどね

http://gamerssquare.kanpaku.jp/

処理が止まる時に表示されてる情報は↓

タイトル: -ゲーム攻略・いきなり許婚!〜姫様のお輿入れ〜(ハ
Referer: http://gamerssquare.kanpaku.jp/kouryaku1.html
推定残りファイル数: 8728
ダウンロード完了数: 1256
2007/06/29(金) 07:15:33ID:/hYK4rPc0
晒してんじゃねーよくず
2007/06/29(金) 07:53:28ID:ACHmcAQj0
最新バージョン使ってる?
2007/06/29(金) 08:38:08ID:tVmtezGr0
>>117
1.7.1A使ってる
2007/06/29(金) 12:13:07ID:reaf/Fky0
>>166
問題が起きてる箇所を晒さなきゃ、他の環境でも同じ問題が起きるのか、
解決方法があるのか、って事が調べようがないと思うんだが
2007/06/29(金) 17:17:52ID:5XaCw8jN0
試しにデフォ設定で仕掛けてみたけど
No Responseのファイルが多いなあ
負荷がかかると弾くようになってるとか?
2007/06/29(金) 19:01:49ID:eQCjGEX50
>>120
検証thx!
やっぱり他の環境でも問題あるみたいですね
しかし、WebAutoだと上手く行くのは何か処理が違うのか…
出来れば巡集1本に絞りたいんだけど、しばらくは2本立てで行くしかないかな
2007/07/07(土) 17:08:31ID:Tb+R8x9h0
Flashの多重構造のページは、どうやっても落とせないのかな。
Flashの中に絶対パスが入ってると、どうやってもローカルだけでは無理だよね…
2007/07/09(月) 03:09:31ID:oVQcI/2j0
メンテが行われてるやつで、まともな丸ごと取り込みソフトプリーズ
2007/07/09(月) 10:01:37ID:sjq9Vusg0
>>123
>>104を使い分け
125名無しさん@お腹いっぱい。
垢版 |
2007/07/16(月) 15:55:23ID:dH1p+oBA0
エロサイトのさ、動画だけを勝手にダウンロードしてくれるソフトある?
2007/07/16(月) 17:23:39ID:phqg+eth0
>>125
>>100
127名無しさん@お腹いっぱい。
垢版 |
2007/07/17(火) 11:18:23ID:eiV0COaA0
W-ZERO3 esで50くらいRSSに登録してあるブログの未読記事をサクサク読みたいと思っています。(速度は×2です。)

まず母艦の巡集でDLしたものをmobisyncで同期して読もうと試みたのですが、
巡集でDL時に差分のみDLができない。
更新分だけ読みたいのに全部DL⇒全部同期
その結果、データ同期に非常に時間がかかる
フォルダ階層が複雑で見難い
ということで、上記問題をクリアしたダウンローダーはありますでしょうか。有償でも構いません。
2007/07/17(火) 12:05:51ID:AMtOc9ci0
ない
2007/07/17(火) 12:13:20ID:+o4jIrbj0
>>123
>>4の中で継続的に更新があるのはもう外国産のばかり
国産ものはかろうじて3ヶ月とか5ヶ月前に1回程度
この手のソフトは更新が止まってることが絶対的な価値じゃないので…

ちなみに
WeBoX
http://webox.sakura.ne.jp/software/webox/
ページ移動してました
2007/07/17(火) 18:25:18ID:3CDTJq3J0
WeBoXマンセー
2007/07/20(金) 02:24:59ID:jNElRSxC0
今、まともなのを有料でもいいから作ったら売れるはず

もう3種類ぐらいのツールをあれこれ使い倒してやっと
そこそこダウンロード出来るってのはいやすぎるwww
2007/07/20(金) 02:45:08ID:A3U8hVXH0
> 今、まともなのを有料でもいいから作ったら売れるはず

その「まともなの」の要件を定義してくれれば作ってやるぜ。
2007/07/20(金) 10:39:02ID:jNElRSxC0
>>132

>>1-131
2007/07/20(金) 11:53:51ID:IJa0GjXb0
巡集がメタタグで巡回拒否するのをとっぱらって
ブログDLの機能を充実させてくれたら最強だと思うんだけどな
作者はまだ株にはまってんの?
2007/07/20(金) 14:39:59ID:GiA8S2Rz0
巡回拒否解除の方法は過去スレを読めば分かる
2007/07/20(金) 17:39:00ID:D7l7CXE60
Ctrlキー押しながらってやつ?
METAタグを読まないことによる弊害があるってことだけど
そこんところはどうなの?
2007/07/20(金) 17:42:38ID:D7l7CXE60
ごめん見逃してた
バイナリエディタで云々てことか
2007/07/20(金) 21:22:04ID:A3U8hVXH0
>>133
意味わかんね
2007/07/20(金) 21:25:37ID:VkN+zF+r0
「まともなの」が具体的には言えないただの口先野郎ってことじゃね?

そういう俺もこの手のソフトは何種類も入れてるがなーw
2007/07/20(金) 21:39:25ID:A3U8hVXH0
まあ、定義が出てきたところで釣り宣言する予定ではあった。
2007/07/20(金) 21:43:06ID:VkN+zF+r0
後出しの釣り宣言は寒いっすよ先輩
まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから
使い分けなんなりくらいすればと
2007/07/20(金) 23:57:02ID:jNElRSxC0
>>139
>「まともなの」が具体的には言えないただの口先野郎ってことじゃね?
>
>そういう俺もこの手のソフトは何種類も入れてるがなーw

かわいそうにw
2007/07/21(土) 23:39:55ID:5rR7bwwf0
Jugem取り込みはどれが適してるの?

巡集は正常に取得できないので抜きで
2007/07/21(土) 23:46:00ID:eQqNd7ws0
ブログか…とりあえず取り込みたいページ挙げてみたら?(相手には迷惑だろうけど)
正直取りに行く興味はわかない
2007/07/22(日) 01:40:06ID:AU6DfnCq0
>>143
できますが何か?
2007/07/22(日) 02:56:15ID:KKhFyJY+0
>>135
前スレなら落ちてるけど
2007/07/22(日) 02:58:27ID:KKhFyJY+0
31 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/03/12(月) 09:08:50 ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。

これって現バージョンでも有効なん?
2007/07/22(日) 08:39:41ID:AU6DfnCq0
606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk
>>181
Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、


これ回避できなくなっていませんか?


612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606
Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避


613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612
ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?


614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。
2007/07/22(日) 09:30:24ID:b5dtrcSy0
ググればキャッシュで読める
2007/07/30(月) 22:40:42ID:EerNmg9U0
β1339
2007/07/30(月) 22:52:02ID:ouuQO56l0
どこっすか?
152名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 00:41:28ID:j9RPW2Jd0
ここは>>125みたいなソフトの話ではないの?
ページを丸ごと保存する場合だけの話?
2007/08/06(月) 01:00:18ID:jhVJeDzL0
オカンに「エロ動画とかエロ画像を根こそぎDLしといて」って頼め。
2007/08/06(月) 01:42:36ID:uM1LJPuz0
>>152
スレ違い
YES
155名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 05:49:52ID:cR7sHFPq0
しかし、ダウンロードソフトって、いつからこんなに派手な行動をするようになったの?
ダウンロードできるものの上にポインターをおくと、
アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。
YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが
わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに
いれるかどうか選択画面があったけど、スタートアップにはいれていない。
それなのに、常駐しているみたいに勝手にたちあがる。
ダウンオタにはたまらなく魅力的なソフトだろ。
ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。
2007/08/06(月) 08:54:05ID:3ve9QpmD0
>>155
>>100http://pc11.2ch.net/test/read.cgi/software/1165934465/でやれ
2007/08/06(月) 12:02:10ID:ZR1S+mu70
>>72
>>155
2007/08/06(月) 17:04:09ID:qUygctRD0
phpで書かれているサイトで気付いたんだけど、
phpそのものはルートディレクトリに置かれているように見えるけど、
画像の相対参照を見たら、実はもう1個下の階層で動いていた

scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ
2007/08/06(月) 18:25:43ID:UW4kC6EQ0
>>144
とりあえずこれでおねがい
http://kaela.jugem.jp/

>>145
方法を教えてください。
2007/08/06(月) 21:01:05ID:iz1Y6S0t0
>>159
>>82
161名無しさん@お腹いっぱい。
垢版 |
2007/08/06(月) 22:09:06ID:UW4kC6EQ0
>>160
>>107と同じ
2007/08/06(月) 22:21:28ID:iz1Y6S0t0
>>161
>>108
2007/08/07(火) 20:40:19ID:zDYP6yL/0
巡集のHP消えた?
2007/08/07(火) 21:20:31ID:rmt4tXIP0
無くなってるね
移転の告知とかも見た覚えがないけど
2007/08/07(火) 22:53:48ID:8FY65nq50
株日記も消えてる・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。
2007/08/07(火) 23:01:24ID:Rnkdrzsb0
うーん
これは本気で夜逃げでもしたかねえ
心配だ
2007/08/15(水) 21:42:41ID:xF/zK2Ra0
>>163
ヘルプのページのミラーってあるの?
親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz
2007/08/15(水) 22:32:55ID:HzWu+63s0
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず
2007/08/15(水) 22:43:51ID:k3HM8b2B0
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。
2007/08/25(土) 07:27:47ID:wJoGTH6/0
10日書き込み無し。
巡集も消えたまま。
2007/08/25(土) 14:25:43ID:3h2qNoKX0
まだだ・・・っ!まだ終わら(ry
2007/08/27(月) 01:53:20ID:YfjxAlx50
寿限無取り込みできないからなぁ巡集は。
2007/08/27(月) 07:47:02ID:pl/iWHG90
できると何度言えば
2007/09/01(土) 16:53:11ID:UEbpedFs0
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
175名無しさん@お腹いっぱい。
垢版 |
2007/09/15(土) 17:34:27ID:shGMdTNK0
巡集みたいにJavascriptを辿ってくれるソフトはないものか
2007/09/16(日) 02:04:46ID:dftJqUuf0
>>175
_gu
Web Auto(シェアウェア)
2007/09/17(月) 11:06:49ID:wfwucYIg0
あるのか!サンクス
2007/09/17(月) 11:22:10ID:wfwucYIg0
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
179名無しさん@お腹いっぱい。
垢版 |
2007/10/03(水) 21:43:58ID:pWzSNQy50
具体的に
http://news.livedoor.com/article/detail/3312533/
このページとそこから下の各画像ページを落としたいのですが、
可能なソフトはありますか?
180名無しさん@お腹いっぱい。
垢版 |
2007/10/06(土) 10:56:58ID:2ZPpgW+10
このスレこんなに人がいないんだ・・・
2007/10/06(土) 16:02:36ID:BjxdSh550
しょこタン可愛いな。
182名無しさん@お腹いっぱい。
垢版 |
2007/10/08(月) 20:24:11ID:LFWOR3Ya0
>>179
画像だけならこれとかでいけるけど
http://www.freewarefiles.com/program_5_173_35481.html
183名無しさん@お腹いっぱい。
垢版 |
2007/10/09(火) 22:54:00ID:uQB0ZqdW0
Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
2007/10/10(水) 08:28:33ID:7BTa/w3d0
>>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです

Irvineのことは専用スレへ
http://pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
http://pc11.2ch.net/test/read.cgi/software/1190549945/
185名無しさん@お腹いっぱい。
垢版 |
2007/10/18(木) 23:24:07ID:7tXtR67v0
巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです

2007/10/18(木) 23:36:32ID:HXM7GKrN0
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか
187185
垢版 |
2007/10/19(金) 09:27:44ID:io5KB4Vk0
できました!
試しに風呂敷確認君で巡集を使ってみたら
chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました
ありがとうございました>>186
188185
垢版 |
2007/10/19(金) 09:29:49ID:io5KB4Vk0
どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに
2007/10/25(木) 08:06:59ID:X9NjLM0s0
ttp://fantasticland.web.infoseek.co.jp/index.html

上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
2007/10/25(木) 08:25:35ID:X9NjLM0s0
初期設定保存→初期設定で保存
2007/10/25(木) 20:52:21ID:MXXrESKM0
落とせないのはたぶん↓これのせい

>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。

取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
2007/10/25(木) 22:22:35ID:X9NjLM0s0
>>191
ほんとだ、できました
どうもありがとうございます
193名無しさん@お腹いっぱい。
垢版 |
2007/11/20(火) 19:31:24ID:UO8+XWOH0
ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
2007/11/20(火) 20:35:52ID:+BL7nhGN0
iriaかIrvine
195名無しさん@お腹いっぱい。
垢版 |
2007/11/21(水) 18:58:15ID:TdDk4QuK0
すいません
不足してました
ページとしての体裁を保ってです

これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
2007/11/21(水) 19:52:04ID:yPEtRi6u0
FWがブロックしてんじゃないの?
197名無しさん@お腹いっぱい。
垢版 |
2007/12/06(木) 21:50:51ID:R8U55YGP0
ttp://www.rolfinger.com/

みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
198名無しさん@お腹いっぱい。
垢版 |
2007/12/19(水) 03:03:46ID:9yuHwmFr0
gethtml (コマンドラインの方)で
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
2007/12/19(水) 08:26:38ID:rzYFr4Wu0
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。

経験的にGetHTMLWはチャンクのデコード周りにバグがある。

チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。

HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
2007/12/19(水) 08:36:06ID:rzYFr4Wu0
うはw

試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw

HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
2007/12/19(水) 11:15:42ID:9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
2007/12/25(火) 11:11:24ID:GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
2007/12/25(火) 11:35:48ID:PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?

ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
2007/12/29(土) 07:39:53ID:qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。

このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。

どなたか良いアドバイスをお願いします。

84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm

85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました

こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
2007/12/30(日) 23:06:29ID:qlo4Nzf+0
はい
2008/01/13(日) 17:24:55ID:IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
2008/01/16(水) 15:18:18ID:ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?

クエリー
データベースからデータを取り出すためのフォーマット

と意味を調べたのですが、いまいちピンと来ません
2008/01/16(水) 16:23:20ID:OFGCoOwC0
&や=で区切られてるURLをDLするんじゃないかと
2008/01/16(水) 16:23:53ID:OFGCoOwC0
?とか
2008/01/18(金) 16:46:29ID:IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
2008/01/18(金) 17:33:47ID:A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。

1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加

↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
2008/01/18(金) 18:31:47ID:gw9zl8ah0
URLを晒せば誰かが解析してくれるよ
213211
垢版 |
2008/01/18(金) 18:54:52ID:tCWJ6AtX0
トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/

サイトメニューは画面下部。

1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル

2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi

と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
2008/01/18(金) 22:09:06ID:gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
2008/01/24(木) 06:32:37ID:JD3lJ93I0
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
2008/01/24(木) 07:32:08ID:oN1Lok+h0
株にはまりすぎて開発してる暇がなくなったんじゃ
2008/01/25(金) 06:37:21ID:NApTe0zp0
ベクターの作者ページへのリンクが
2008/01/25(金) 07:44:23ID:Uo5ZCYg70
どうした?
219名無しさん@お腹いっぱい。
垢版 |
2008/01/25(金) 17:45:12ID:pOdyTSFw0
http://bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html

すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
2008/01/25(金) 22:06:45ID:VQ1m2IF90
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
2008/01/25(金) 22:12:43ID:xmvyWrR/0
>>219
http://www.google.co.jp/search?hl=ja&q=%E3%82%B9%E3%83%88%E3%83%AA%E3%83%BC%E3%83%9F%E3%83%B3%E3%82%B0%E4%BF%9D%E5%AD%98&lr=
2008/01/26(土) 19:25:30ID:h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
2008/01/26(土) 20:07:25ID:BB78zvk50
>2階層以上取り込めません

リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
2008/01/26(土) 20:50:47ID:h3xkz2eJ0
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
2008/01/26(土) 22:17:45ID:Vw9+2j2y0
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
2008/01/26(土) 22:20:24ID:Vw9+2j2y0
続き
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
227名無しさん@お腹いっぱい。
垢版 |
2008/01/26(土) 23:17:56ID:Nych28nF0
219です。

mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv

このURLはどう見つければよいのですか?

2008/01/26(土) 23:34:13ID:Vw9+2j2y0
>>227
>>220に誘導されてるだろ
向こうのスレで聞いておいで
2008/01/27(日) 04:41:59ID:2s4iBkil0
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
230名無しさん@お腹いっぱい。
垢版 |
2008/01/27(日) 08:36:39ID:Xxz+W6Ae0
初心者にお勧めの物ってどれになりますか? 

weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
2008/01/27(日) 10:02:21ID:2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
2008/01/27(日) 10:20:40ID:suXR9EeP0
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
2008/01/27(日) 10:54:18ID:Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
2008/01/27(日) 11:58:42ID:2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
2008/01/27(日) 12:50:55ID:Xxz+W6Ae0
>>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。
2008/01/27(日) 13:39:28ID:s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
2008/01/27(日) 19:04:30ID:2s4iBkil0
>>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。
2008/01/30(水) 01:36:11ID:NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
2008/02/08(金) 00:48:18ID:LyUhp1gB0
http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
2008/02/11(月) 20:21:44ID:dYHnvlVd0
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
241名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 01:13:13ID:jIBSXkqy0
Super Capture ってなくなっちゃったんですか?

すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
2008/02/12(火) 15:44:15ID:pEdZWnO30
>>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。
243名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 21:02:05ID:Ftzz/E6Q0
http://www.gymfan.de/gym_pic.html

↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。

どうやればうまくできるか分かる人いませんか?
244名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 22:45:39ID:S2Vi01b30
取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
2008/02/12(火) 23:31:39ID:v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。

>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
246名無しさん@お腹いっぱい。
垢版 |
2008/02/12(火) 23:48:23ID:jIBSXkqy0
>>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。

Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html

イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。

Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。

Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/


Super Captureがダウンロードできるところがあったら、教えてください。

2008/02/13(水) 01:43:15ID:95oy4e+k0
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
2008/02/13(水) 01:49:38ID:mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
2008/02/13(水) 01:53:22ID:zIVsZC2A0
>>246
http://web.archive.org/web/*/http://www.inisia.co.jp/

1分であったぞ
250243
垢版 |
2008/02/13(水) 13:10:32ID:E8CaTYjJ0
>>245
サンキュ。設定いじったら巡集でできた。
251名無しさん@お腹いっぱい。
垢版 |
2008/03/02(日) 15:32:26ID:SlT8oVxO0
 
252名無しさん@お腹いっぱい。
垢版 |
2008/03/02(日) 22:55:44ID:XBPQmEY90
以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
http://music.lionsgate.com/rambo/
2008/03/04(火) 23:58:34ID:8O1P5E4A0
irvineでも巡集でもURLを直接指定すればええやん
2008/03/18(火) 21:59:21ID:ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
2008/03/19(水) 12:43:47ID:YKorTSpT0
>>254
んなわけない
2008/03/20(木) 01:58:21ID:m223Zsx40
ありがとうございます!
257名無しさん@お腹いっぱい。
垢版 |
2008/03/24(月) 04:25:21ID:w4eXPHNQ0
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
258名無しさん@お腹いっぱい。
垢版 |
2008/04/11(金) 08:00:28ID:JS6+SD8u0
そろそろ答えてください
2008/04/13(日) 20:04:32ID:oGL9AkZ60
まだだ、まだ答えんよ
2008/04/14(月) 19:23:15ID:v2R7+9CM0
雨は使ったことない(´・ω・`)
2008/04/18(金) 04:55:05ID:UhKCBHwm0
巡集の設定で聞きたいんですが

http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
2008/04/18(金) 05:11:53ID:Ye4EJlp40
>>261
フィルタを使えばいけます
2008/04/18(金) 14:35:41ID:UhKCBHwm0
その設定をおねがいします><
2008/04/22(火) 07:20:07ID:ZhYRKd640
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
265名無しさん@お腹いっぱい。
垢版 |
2008/04/26(土) 12:43:45ID:bWElsVFw0
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
2008/04/26(土) 14:34:15ID:xuojH8LA0
ダイアログに出ているタイトル
267名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 18:11:02ID:t9WSIx9k0
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
268名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 18:11:26ID:t9WSIx9k0
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
2008/05/05(月) 18:19:45ID:cHvd4SHv0
あるわけねーだろ
2008/05/05(月) 18:23:28ID:Mg38eEgV0
メモ帳
271名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 18:34:59ID:t9WSIx9k0
そうですか・・・残念だぴょん・・・・・・
2008/05/05(月) 19:01:15ID:6J6AlWWJ0
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
273名無しさん@お腹いっぱい。
垢版 |
2008/05/05(月) 19:27:05ID:t9WSIx9k0
>>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
2008/05/05(月) 19:29:51ID:GHBwk8a80
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
2008/05/05(月) 19:36:07ID:Mg38eEgV0
>>273
設定でスレッドタイトル=ファイル名は可能
2008/05/06(火) 04:34:03ID:pWIAuxdS0
>>273
FirefoxだったらScrapBookをすすめるんだがな。
2008/05/06(火) 19:54:31ID:SBxlMPDL0
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
2008/05/10(土) 04:00:05ID:g0wuH1J20
日本語でおk
2008/05/11(日) 17:13:40ID:5I6LyxnA0
website explorer使ってる人俺以外にもいるのかな
2008/05/11(日) 20:39:05ID:OLc5kE2C0
使ってるけど丸ごと取り込みには使わないな
2008/05/12(月) 10:37:10ID:9PCKZ1Jr0
Firefox使いの俺はFownThemAll!とScrapBookだ。
2008/05/12(月) 22:24:48ID:tJ0QtoQm0
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
2008/05/12(月) 23:42:25ID:zqRUnBa00
ダウンロードソフトはダウンロード板の管轄じゃないの?
2008/05/13(火) 02:25:08ID:ErVJOT7a0
こっちじゃね?
ダウンローダー総合スレ Part2
http://pc11.2ch.net/test/read.cgi/software/1190549945/
285282
垢版 |
2008/05/13(火) 06:41:48ID:/touQVIB0
スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
2008/05/27(火) 10:00:24ID:qJm5C59n0
gzipで送信されるページに対応した取り込みソフトはございませんか?
2008/05/30(金) 01:20:05ID:obDTDq910
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
2008/06/03(火) 01:59:41ID:V0GOfPnQ0
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
2008/06/03(火) 07:40:12ID:d5RR0Fde0
>>288
No ResponseになるURLをフィルタさせる

もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある
2008/06/03(火) 20:59:37ID:V0GOfPnQ0
>>289

こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・

保存先のブログはシーサーです。
291名無しさん@お腹いっぱい。
垢版 |
2008/06/16(月) 23:48:15ID:4NFpHfXZ0
あげ
2008/06/17(火) 07:58:10ID:iH/5XAaL0
なにか対象の指定の仕方に問題があるような気がする。
2008/07/29(火) 03:34:12ID:NXDRQEUV0
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
294名無しさん@お腹いっぱい。
垢版 |
2008/08/14(木) 12:22:21ID:z6Dy8mh40
weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
2008/08/22(金) 18:44:21ID:jiDXkNV10
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?

UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
2008/08/25(月) 13:39:00ID:6nouZRD10
2chの女神板に貼り付いてるキモオタ共歓喜だな

>
> ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> http://www.savethevenus.com/
>
2008/08/31(日) 01:18:45ID:ISN52Ea80
女神板は2chじゃないから
298名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 10:20:54ID:TJ6Ap/Sl0
ここの移転先教えてくれ
http://sdn255.web.fc2.com/
299HrSPwiYUsMDh
垢版 |
2008/09/10(水) 10:26:13ID:ddMYkNpg0
g7z0zX <a href="http://baqkzgurctep.com/">baqkzgurctep</a>, [url=http://knccjehvsqoe.com/]knccjehvsqoe[/url], [link=http://fyoddmbvukja.com/]fyoddmbvukja[/link], http://kfeaukherzmc.com/
300名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 10:53:49ID:TJ6Ap/Sl0
準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
2008/09/10(水) 11:19:00ID:iOGDU/hx0
他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である
302名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 12:06:11ID:TJ6Ap/Sl0
ちょw

たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
303London
垢版 |
2008/09/10(水) 12:13:50ID:iwCGOnB80
wAetOc <a href="http://jphcmeellktk.com/">jphcmeellktk</a>, [url=http://auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=http://unnngecegnmn.com/]unnngecegnmn[/link], http://hxtuikvjgkcq.com/
2008/09/10(水) 12:18:18ID:Cga7s0C10
ファイル名を変えたらリンクが正しく動作しなくなるだろ…
2008/09/10(水) 16:40:55ID:aLDvX6Aj0
巡集の作者、もしかして株で死んじゃったとか・・・?
306名無しさん@お腹いっぱい。
垢版 |
2008/09/10(水) 23:10:10ID:TJ6Ap/Sl0
不吉なこと言うなダニよ

ソース公開して欲しい
2008/09/10(水) 23:35:48ID:S8J67L6Y0
巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな

後者に金を払う気があるかは本人次第
2008/09/13(土) 15:46:14ID:Dn+RZDfP0
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
2008/09/14(日) 20:11:32ID:ukWyxLCq0
禁止URLとかの機能使えばいいじゃん。
2008/09/23(火) 18:50:45ID:twI/75ox0
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
2008/09/24(水) 01:46:37ID:hKMSKtdw0
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。

一、か二かどっち?

二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;

↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。

2008/09/24(水) 13:41:28ID:1PhPO/s90
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
313名無しさん@お腹いっぱい。
垢版 |
2008/10/06(月) 15:35:55ID:eO1CMKz50
こんなソフトありませんか?スレから来ました。

fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。

現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?

コマンドラインで使う類のソフトでもかまいません。
314313
垢版 |
2008/10/06(月) 16:31:57ID:eO1CMKz50
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html

外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。

could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
315313
垢版 |
2008/10/06(月) 18:17:34ID:eO1CMKz50
wgetで試行錯誤してみたらうまくいきました。

wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)

urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
  puts file
  urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq

以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/

--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
316313
垢版 |
2008/10/06(月) 18:21:17ID:eO1CMKz50
wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
2008/10/07(火) 00:37:00ID:k78/uLlJ0
>>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。
318313
垢版 |
2008/10/07(火) 05:40:38ID:hu35XLEh0
>>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。

Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm

wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB

この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
2008/10/07(火) 06:33:16ID:k78/uLlJ0
>>318
ありがとうございます!これでやってみます。
320名無しさん@お腹いっぱい。
垢版 |
2008/10/07(火) 07:56:16ID:pjeOFoUzO
パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
2008/10/09(木) 19:17:17ID:rJyyGwzD0
巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?
2008/10/11(土) 23:38:49ID:UlAef+iX0
>>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
2008/10/14(火) 05:43:24ID:CWdTo3bh0
ttp://users.ugent.be/~bpuype/wget/
2008/10/18(土) 09:14:27ID:NA8ZY32U0
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も

ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
2008/10/20(月) 21:48:39ID:SV8NrUaK0
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。

1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。

2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
2008/10/20(月) 21:49:38ID:SV8NrUaK0
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz

4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。

どうでもいいですが、DLしたサイトは東進 過去問データベースです。
2008/10/20(月) 23:16:00ID:vXNKs2Pn0
報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
2008/10/21(火) 06:16:41ID:r9pcwQQ+0
追記
Teleport Proは65530ファイルでDLを打ち切る様子。
2008/10/22(水) 14:47:13ID:Uty5mEif0
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
2008/10/26(日) 22:56:41ID:Z0qQpGL90
>>328
使えにゃい。

>>329 スレ違い 紙とか。
2008/11/08(土) 09:57:14ID:HMLV6FJZ0
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
2008/11/09(日) 05:43:33ID:r9fZofmi0
Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?
2008/11/10(月) 12:34:07ID:RJUgrUkx0
うん
2008/11/12(水) 09:40:33ID:199gHslN0
dlkey突破できる奴が有れば…
2008/11/15(土) 02:12:07ID:0sXE2VgW0
JustDiver 2.0
2008/11/17(月) 23:17:57ID:bYSAyiWi0
HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。

デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
2008/11/26(水) 22:46:57ID:AvoPmSlt0
http://www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz
338337
垢版 |
2008/11/27(木) 07:07:22ID:1gPOJKDS0
巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。

http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*


残りはコメントです。 引き続きよろしくお願いします。 orz
2008/11/27(木) 10:21:47ID:o5f/E9xS0
「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。

予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。

沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
2008/12/30(火) 21:06:37ID:qDOzkieX0
もうこういうソフトは需要がないかねえ…
2008/12/30(火) 21:58:34ID:P2sFxOkY0
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
2008/12/30(火) 21:59:18ID:qDOzkieX0
動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない
2008/12/30(火) 22:10:50ID:fX4eASw70
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
2008/12/31(水) 09:18:41ID:rscijB3A0
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る
2009/01/02(金) 01:44:45ID:OLqz4XAA0
FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。
346名無しさん@お腹いっぱい。
垢版 |
2009/01/03(土) 23:05:19ID:PUJY1CSF0
Gethtmlについての質問です。

オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。

DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
2009/01/04(日) 10:03:30ID:7KtylUIv0
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
2009/01/04(日) 10:40:47ID:agtqcM4Z0
>>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。
2009/01/04(日) 11:31:36ID:1GxGvmcA0
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
350名無しさん@お腹いっぱい。
垢版 |
2009/01/04(日) 12:47:15ID:zOoDAii/0
アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
2009/01/04(日) 20:29:51ID:thlvUT4J0
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
2009/01/06(火) 19:35:25ID:HKJ+mumj0
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
2009/01/06(火) 23:49:18ID:HKJ+mumj0
どうやらWeBOXで出来ますね、すみませんでした
354名無しさん@お腹いっぱい。
垢版 |
2009/01/12(月) 18:55:19ID:mtFSF/p40

以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。

http://www.gamebanshee.com/neverwinternights/

うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。

宜しくお願いします。
2009/01/12(月) 19:09:18ID:Ad7xK/MA0
2009/01/14(水) 04:56:44ID:XsghDILe0
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。

だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
2009/01/15(木) 04:50:49ID:14aIogQH0
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
358名無しさん@お腹いっぱい。
垢版 |
2009/01/15(木) 22:38:28ID:SkpOdVD30
>>356
ご回答ありがとうございます。

スタイルシートについて、いろいろと調べたのですが、

リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、

新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。

このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
359名無しさん@お腹いっぱい。
垢版 |
2009/01/22(木) 10:04:12ID:72T0n0l+0
  ↑
あっ ↑ は、>>354からの書き込みです。
2009/01/22(木) 10:13:00ID:LOPrZeW60
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません
2009/02/08(日) 16:33:12ID:1ew7wZVH0
あああ
2009/02/17(火) 21:27:34ID:swvN60Nx0
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
2009/03/03(火) 08:01:05ID:hIoIaLsc0
無理
2009/03/04(水) 02:02:52ID:iOzdqfhq0
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
2009/03/04(水) 12:44:56ID:kOsE1mcy0
>>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を
2009/03/04(水) 20:52:19ID:iOzdqfhq0
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
2009/03/04(水) 22:03:51ID:SjWqihRZ0
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
2009/03/05(木) 08:05:04ID:5euH1yl80
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage
2009/03/05(木) 15:20:36ID:y2etLDHA0
管理側ですぐばれてアク禁
2009/03/05(木) 19:05:28ID:5euH1yl80
>>369
そうなのか、諦めるわ
2009/03/05(木) 22:13:12ID:QC0/AZnI0
この程度でなるわけねー
2009/03/05(木) 22:51:07ID:5euH1yl80
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
2009/03/06(金) 00:54:24ID:xnM4IX3Z0
firefoxのscrapbookでのんびりと保存するのがベターかな
2009/03/06(金) 14:01:59ID:i20Uaw0U0
>>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。
2009/03/06(金) 15:00:53ID:PmwxrF/V0
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
2009/03/07(土) 15:46:28ID:EX6aOmt+0
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
2009/03/20(金) 22:02:39ID:JSyDiuTFP
hosyu
2009/03/29(日) 05:41:06ID:t09wwLl20
懐かしい話だ
379名無しさん@お腹いっぱい。
垢版 |
2009/04/01(水) 18:48:18ID:sW1brWClO
CSS内の画像リンクも辿って保存してくれるソフトありますか?
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
380379
垢版 |
2009/04/02(木) 11:54:11ID:CFvsFsE+O
すみません。解決しました。
2009/04/03(金) 06:23:23ID:oDGPoJNA0
俺と今後の為にどのソフトで解決したのかkwsk
2009/04/04(土) 14:46:47ID:izV7zIzI0
オラも知りたい
2009/04/04(土) 19:11:59ID:g6yEv4mBO
ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
384名無しさん@お腹いっぱい。
垢版 |
2009/04/05(日) 04:43:52ID:F1AvQ3H50
scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
2009/04/05(日) 13:25:58ID:5dZaffZs0
すみませんが、質問です。
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?

具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html

この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/

も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。

このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。

今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。

しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。

この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
2009/04/05(日) 14:25:28ID:At+ZdFLO0
wiki取り込む方法見つかった?
2009/04/10(金) 22:39:16ID:vy87VD8G0
CGIページをきちんと保存、再生できるソフトないの?
巡集だと再生するときカオスになる・・・
2009/04/11(土) 15:12:26ID:FJDV+iB10
http://pc12.2ch.net/test/read.cgi/software/1239155686/l50
【RunAsData】シェアウェアの試用期限クラック【HookDate】

アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。

http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します

http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧

#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
389名無しさん@お腹いっぱい。
垢版 |
2009/05/17(日) 13:23:31ID:/NzZAjoN0
 
390名無しさん@お腹いっぱい。
垢版 |
2009/05/25(月) 14:50:50ID:03qdJTKV0
話題もないねえ…
2009/05/25(月) 16:29:47ID:Y24nZ+jT0
じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
2009/06/08(月) 10:51:52ID:AufSz18I0
t t p : / / g . e - h e n t a i . o r g /
ここ取り込める?
画像だけでもいいんだけど

向こうに知られるとまずいから
アドレスは切った
2009/06/08(月) 11:34:03ID:8JvAcKuU0
Refererくらい理解してから書き込めよ
2009/06/08(月) 21:29:18ID:AufSz18I0
Refererは理解してる、が
取り込みソフト拒否されてるっぽいんだよねここ
2009/06/10(水) 19:59:37ID:/w+HilEi0
PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
2009/06/11(木) 09:32:33ID:CI9JV7KS0
とりあえずyahooの質問集でもクグッて質問しような?

ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
2009/06/11(木) 10:13:00ID:CI9JV7KS0
ああ、それと。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。

下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
2009/06/13(土) 01:37:45ID:HDt2gcxv0
wikiまるごと保存できるソフトなイノ?
2009/06/14(日) 01:10:44ID:7qssCspA0
>>394
このスレからhttp://g.e-hentai.org/
へのrefererの話をしていると思われ
400名無しさん@お腹いっぱい。
垢版 |
2009/06/23(火) 17:45:38ID:rUYeky/o0
>>398
フリーじゃないけど
A1 Website Download 
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
401名無しさん@お腹いっぱい。
垢版 |
2009/06/27(土) 22:03:23ID:i2oYT4kJ0
巡集って
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
2009/06/27(土) 22:14:37ID:DjFTSHEj0
手作業でリネーム
取り込む先のフォルダの名前を指定する

好きなのを選べ
2009/07/18(土) 09:37:45ID:fBBs6NrU0
波乗野朗使ってるんですが、スタイルシートに対応していないのか、最近のWEBサイトを取り込むとガタガタに崩れてしまいます。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
404名無しさん@お腹いっぱい。
垢版 |
2009/08/01(土) 12:57:23ID:yPfvTWSQ0

Bulk Image Downloader

これまでFree版を使用していたんだけど、有料onlyになったのかな?
CODEを入力しないと、起動しなくなった。FireFOXのアドオンもダメ。。。
便利だったのに、な。
http://antibody-software.com/web/index.php?option=com_content&task=view&id=33&Itemid=30
2009/08/07(金) 11:31:36ID:O6rKHi3B0
ブログの画像だけを取り込むソフトないですか?

web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
2009/08/14(金) 01:11:21ID:g2iL4TTl0
VIPダウンろーだ
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
407名無しさん@お腹いっぱい。
垢版 |
2009/08/16(日) 15:42:19ID:F1VFlTYE0
>405
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
408名無しさん@お腹いっぱい。
垢版 |
2009/08/16(日) 15:49:36ID:F1VFlTYE0
>>405
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
2009/08/17(月) 23:27:34ID:zCh7YkeM0
javascript追跡に対応してるソフトってありますか?
2009/08/18(火) 19:59:35ID:QE4ZdWoG0
imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
2009/08/19(水) 15:14:37ID:qmXb8rBu0
> imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。

ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
2009/08/20(木) 14:50:28ID:gE/IvJew0
imagefap一括DLしたくして↓のページでやったんだけど
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html

ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
413410
垢版 |
2009/08/21(金) 02:07:18ID:kCD6o2M50
>>411
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます

prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
2009/09/13(日) 22:20:00ID:4oE3F4nr0
まとめサイト(blog)の広告部分を取り除いて保存してくれるソフトないもんかな

紙copiで保存して余計な部分を(ry
 →サイズの大きなページで紙copiがザ・ワールド

BullzipやPrimoでPDFにして余計な部(ry
 →サイズの大きな(ryで一般保護法ナントカ

mhtで保存しておいて余計な部分を手動で削除する方法
 →mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry

Wordにコピー&ペーストして(ry
 →レイアウトが原形を留めてくれない

Proxomitronで広告をフィルタリング
 →フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた

とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
 →オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
2009/09/14(月) 12:23:55ID:PB1HOZh+0
>>414
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
2009/09/24(木) 20:00:50ID:V1YBGQBI0
巡集使ってみたいのですがページが消えていてどこ探してもみつかりません。
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
2009/09/24(木) 22:31:22ID:n+r1nZD00
巡集消えてるね。
いいソフトだったのに残念だ。
2009/09/25(金) 22:12:28ID:kaj3Edae0
消えてねえよ、ここで更新チェックしとけ

ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
2009/09/25(金) 23:35:57ID:htTJHAHB0
DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。

ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
2009/09/26(土) 00:20:49ID:vz+4woN2P
巡集更新されてるな

ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。

しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
2009/09/26(土) 10:23:56ID:oaSHciNs0
>>418
そのリンク先のベクターが一時的に消えてたんだよ。
2009/09/27(日) 13:50:11ID:ms06DL850
ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
2009/09/29(火) 22:52:47ID:jvpQY2ni0
巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
2009/09/30(水) 10:39:36ID:VYCIQ4+X0
>>423
みんなで幸せになろうよw
2009/10/20(火) 23:48:32ID:38/cKrSL0
>>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?

俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。

良いソフトは無いかしら。
2009/10/20(火) 23:53:17ID:38/cKrSL0
>>425に追記

「URLは一定だけど中身が変わるファイルの、自動的な定期保存」が希望といっても良い。
427名無しさん@お腹いっぱい。
垢版 |
2009/11/17(火) 01:19:05ID:yVWqHF3k0
401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
2009/12/06(日) 23:39:56ID:Xd69xJs/0
Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
2009/12/07(月) 08:38:55ID:DFn9YnAw0
もうVer.5になってなかったっけ?
430428
垢版 |
2009/12/08(火) 23:22:21ID:D9b5l12j0
Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
2010/01/06(水) 13:07:10ID:kDFT625l0
>>425
俺もそれ探したけど、見つからんかった。

Beeってこれ?
http://crocro.com/pc/soft/bee/intro/intro_soft.html
432名無しさん@お腹いっぱい。
垢版 |
2010/01/06(水) 17:25:24ID:z5X944lK0
それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
2010/01/06(水) 20:00:01ID:kDFT625l0
>>432
誤検知だから大丈夫
うちはAviraだけど、beeServer_start.exe ってのも誤検知した。
2010/01/06(水) 20:12:18ID:RzwWHhyF0
巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
435名無しさん@お腹いっぱい。
垢版 |
2010/01/06(水) 22:43:12ID:z5X944lK0
誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
2010/01/07(木) 19:43:31ID:WixZAyedP
正露丸の方がいい!正露丸は必需品これ絶対ね!基地外漏りたぽ全部寄越せや
2010/01/12(火) 00:02:23ID:mBZ3Hlbu0
やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
2010/01/14(木) 17:34:33ID:BnCvLsD90
ふつうにwiki保存できてるけど・・・
2010/01/14(木) 19:38:01ID:yv0Hxe320
wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る

ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
2010/01/15(金) 03:59:54ID:59bOFj/P0
ScrapBookつかえ
2010/01/17(日) 16:30:03ID:MxrdNVKG0
webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
2010/01/28(木) 14:33:42ID:hxTP88ae0
ソース見てCSSとか足らないファイル無いか確かめて見れ
443名無しさん@お腹いっぱい。
垢版 |
2010/01/28(木) 15:06:42ID:+eB2y8gU0
WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。

今までオートパイロットで WebAuto 以上のものにあったことが無い
2010/01/29(金) 01:51:12ID:pdIiOyGT0
忍者ブログがちゃんと取り込めるお勧めってある?

表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
2010/01/31(日) 12:58:52ID:LRfrwAhF0
他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
2010/02/13(土) 23:30:04ID:i791U1t40
gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?

対象サイトはup.pandoravote.netっていうアップロダサイトです
2010/02/14(日) 16:30:15ID:ekI+lMw50
なんかいろいろ調べてたんですが
robots.txtに  User-agent: * Disallow: /  って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる

でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ

で いいのかなぁ。。。
2010/02/16(火) 19:55:21ID:S5I004NN0
Proxomitron を使っているのなら、User-Agent を書き換えるよりも
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。

どっちみち User-Agent の書き換えは推奨するけど。

デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
2010/02/16(火) 23:36:40ID:eb20GwbO0
robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
2010/02/17(水) 19:44:59ID:C0QOwpgt0
盲点突かれてもう目が点



ありがちょ
2010/02/18(木) 10:36:09ID:cDYue5wv0
>>450
もともと盲点は見えないから突かれても問題ない
452名無しさん@お腹いっぱい。
垢版 |
2010/04/04(日) 05:53:01ID:OKHjYikf0
 
453名無しさん@お腹いっぱい。
垢版 |
2010/04/16(金) 01:50:11ID:LJzX0FMt0
twitterのプロフ検索サイトや
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
454名無しさん@お腹いっぱい。
垢版 |
2010/05/27(木) 11:26:34ID:ieOwLYqC0
あげ
2010/05/27(木) 11:48:03ID:dz2Xu6+80
wgetでサイトまるごと採ろうとしてるけど
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
2010/07/17(土) 18:45:54ID:geoOLYIs0
scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
457名無しさん@お腹いっぱい。
垢版 |
2010/10/02(土) 03:16:36ID:tOtD8Seh0
wgetのGUI版があったので貼っとく

VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
2010/10/07(木) 20:51:42ID:8vo6Uaef0
moe.imouto.org終了のお知らせか・・・
2010/10/15(金) 01:29:54ID:TBUV4Okd0
>>443の書き込み見てWebAutoを使ってみたけど
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
2010/10/23(土) 09:06:37ID:lnHUl5BB0
巡集の1.7.1A→1.7.2のバージョンアップで、
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
461名無しさん@お腹いっぱい。
垢版 |
2010/10/25(月) 22:58:32ID:72FsLqyA0
何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
2010/10/26(火) 23:59:32ID:9JgHvqPN0
ローカルに保存したwikiを
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
463名無しさん@お腹いっぱい。
垢版 |
2010/11/05(金) 00:04:14ID:9BGnuHFv0
更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう
Firefoxのアドオンのほうが幸せになれるのかもしれんな

GetHTMLwの作者はどうなったのですが
最近、更新がないようですが

あげ
2010/11/08(月) 15:27:20ID:qDJ9LufK0
今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
2010/11/08(月) 22:17:48ID:y6Jx/ALlP
最近「〜けど〜けど」「〜ので〜ので」「〜だから〜だから」みたくたった1文の構成すら出来ない奴が増えたな
2010/11/09(火) 11:16:37ID:frlQOzh00
最近句読点すら使えない奴増えたよな
2010/11/09(火) 23:59:38ID:sTHTzJsZ0
i.aspの付いているaspで生成されている(?)携帯サイト
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
2010/11/10(水) 14:11:03ID:lmrHRm4k0
魔法のiらんどなら巡集でフィルタ設定して取ってる
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
469467
垢版 |
2010/11/12(金) 12:06:32ID:UOQQ0O0Q0
情報をありがとうございます。

巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?

あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
2010/11/13(土) 10:33:10ID:tSkOmlSC0
自分の場合Firefox、Opera辺りならD&Dすれば
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない

ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
471名無しさん@お腹いっぱい。
垢版 |
2010/11/14(日) 09:57:13ID:89KNH7or0
ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
472467
垢版 |
2010/11/20(土) 15:24:55ID:O0cud1UJ0
返答が遅くなってしまい申し訳ありません。

余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。

aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
2010/11/20(土) 20:10:20ID:213w5ulb0
頻繁にファイルを直接選択してブラウザで見たいというのでなければ
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
474467
垢版 |
2010/11/20(土) 21:34:10ID:O0cud1UJ0
>>473

その方法だと、スタートページは正しく表示されるのですが、
そこからリンクしているそれぞれのページを見に行くときに、
結局同じ問題が生じて正しく表示されなくなってしまうみたいです。
475名無しさん@お腹いっぱい。
垢版 |
2010/11/21(日) 14:57:29ID:vODtUEkF0
それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね

ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
476467
垢版 |
2010/11/21(日) 21:09:43ID:IaD1YDka0
>>475

Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。

Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。

当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
477名無しさん@お腹いっぱい。
垢版 |
2010/12/25(土) 16:50:14ID:iR3S9Wga0
winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
478名無しさん@お腹いっぱい。
垢版 |
2010/12/31(金) 02:53:13ID:57SW0Dqp0
>>476
俺はIE詳しくないから検索の手助けになりそうな情報だけ

ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね

だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定

「関連付け MIME」なんかでググったらでてこないかな


ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。

479名無しさん@お腹いっぱい。
垢版 |
2010/12/31(金) 17:14:16ID:X5j+/04f0
PC
2011/01/03(月) 12:57:19ID:98ttV4VF0
ComGetter
2011/01/04(火) 00:18:27ID:MGz4r0zS0
CompleteGetterのRFunc:1とかRFunc:2って何ですか?
2011/01/06(木) 20:13:45ID:1jij3k+00
フレーム付のページを一括で保存できるソフトってありますか?
2011/01/08(土) 17:58:29ID:0w5F53fBP
>>482
>>1-481
484名無しさん@お腹いっぱい。
垢版 |
2011/01/25(火) 17:35:02ID:4v6efgTR0
ttp://liargame.jp/index.html

このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
485名無しさん@お腹いっぱい。
垢版 |
2011/01/26(水) 17:28:22ID:9LvkE2vX0
そういう場合はXaxonのネットレコーダーしかないな。
486名無しさん@お腹いっぱい。
垢版 |
2011/01/27(木) 02:50:00ID:JYGImn8Z0
>>484
ほぼ全面Flashやがな。


2011/02/08(火) 21:09:45ID:ihfk+Bz20
http://www.nhk.or.jp/artbs/photo/009.html

上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
2011/02/08(火) 21:40:58ID:kmLZd/z+0
できるよ
よく使われてるjava scriptだろ
489名無しさん@お腹いっぱい。
垢版 |
2011/02/09(水) 00:09:09ID:2QpVybi70
フォーラム系を保存したいのですが
良いソフトありますか?
2011/02/09(水) 00:45:25ID:S3LS3a5p0
>>488
winhttrackみたいなミラーソフトでは、無理だったのだけれど
どうすれば、保存できるようになるの?
491名無しさん@お腹いっぱい。
垢版 |
2011/02/12(土) 01:21:50ID:dChV5rWn0
決定的なソフトは現れないかねえ
新しいソフトですら現れていないわけだが
2011/02/13(日) 22:02:23ID:6bZnuHuB0
>>489
ない
2011/02/13(日) 22:56:17ID:sFgYj0cn0
龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから
してとりこめない。
どんなソフトを使えば取り込めますか?
494名無しさん@お腹いっぱい。
垢版 |
2011/02/19(土) 23:58:21.21ID:4N0fBC/Y0
巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか?
いろいろ設定を変えてみたけれど駄目でした。
2011/02/21(月) 17:39:50.04ID:mCsnFxG/0
winhttrackというサイトミラーソフトを使用しています。
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。

Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。

まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?

496名無しさん@お腹いっぱい。
垢版 |
2011/02/23(水) 17:08:22.81ID:1tqryiUd0
>>495
ですが、パソコンを使用しているときには、そういった状態になりにくく
使用せず放置すると、CHKDSKが必要な状態になりやすくなります
なぜなんでしょうか?
2011/02/26(土) 14:52:25.55ID:eI0hwifQ0
(´・ω・`)知らんがな
2011/03/18(金) 09:56:13.02ID:8uboNOZD0
巡集のように絶対パスを相対パスに(http://〜index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある?
それか、同等の機能を持ったソフトとか…。

携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
499名無しさん@お腹いっぱい。
垢版 |
2011/03/18(金) 10:00:43.45ID:8uboNOZD0
あ、Wが抜けてた。GetHTMLWです。
2011/03/18(金) 16:41:32.10ID:A+5wOcCe0
(´・ω・`)知らんがな
2011/03/18(金) 19:49:28.02ID:8uboNOZD0
(´・ω・`)そうだよね
502名無しさん@お腹いっぱい。
垢版 |
2011/03/25(金) 17:50:39.65ID:gecN6pF70
Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
503名無しさん@お腹いっぱい。
垢版 |
2011/03/31(木) 22:19:17.73ID:JplTcRyR0
VISTAでIE7使ってるんだけど、日テレのサイト取り込むには何がお勧め?(´・ω・`)
例えばこんなの

http://www.ntv.co.jp/chienari/
2011/04/01(金) 18:04:55.06ID:xRp+kGAS0
2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?

今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
2011/04/01(金) 23:32:30.09ID:I3kOVvUq0
>>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能

普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
506503
垢版 |
2011/04/08(金) 06:39:02.29ID:O8PDBMZ+0
回答が・・・どなたか回答を(´;ω;`)ブワッ
2011/04/08(金) 11:12:59.21ID:sdwIAebP0
httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgi
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
2011/04/08(金) 17:38:56.19ID:toP+TA3e0
>>505
2ちゃんねる専用ビューアってフリーソフトみたいなものですか?
もう少し詳しくお願いします

あと、芸能人のやってるアメブロを保存するには何を使うのがいいですか?
2011/04/08(金) 18:05:22.63ID:ODoWyqCr0
いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
510名無しさん@お腹いっぱい。
垢版 |
2011/04/10(日) 07:51:17.21ID:2EVaxSnc0
>>506
m9(^Д^)プギャーーー!!!
2011/04/10(日) 22:26:02.67ID:r6raCUVJ0
巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
2011/04/10(日) 22:35:08.17ID:r6raCUVJ0
ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
513名無しさん@お腹いっぱい。
垢版 |
2011/04/22(金) 10:30:47.67ID:d7+lWIHr0
一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
2011/05/06(金) 08:08:27.47ID:evJF6buF0
ここは過疎っているので他で聞いてみます
2011/05/11(水) 10:55:51.25ID:HcEd9XAn0
>>513
cronでwgetをまわすといいよ
2011/06/24(金) 18:03:34.03ID:m9RhzJyk0
どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
2011/07/01(金) 00:09:52.24ID:anPvOplt0
巨大フォーラムを取り込めるソフト
ありませんか?
2011/07/31(日) 23:09:41.06ID:/04LhjsQ0
タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
519名無しさん@お腹いっぱい。
垢版 |
2011/08/03(水) 18:19:10.27ID:Mv+vARYm0
このソフト便利そうだけど、使ってみた人いる?

無料サンプル動画収集くん
http://sampledougasyusyu.blog.fc2.com/
520名無しさん@お腹いっぱい。
垢版 |
2011/08/04(木) 13:05:41.67ID:F0yCqkP40
>>517
そんなもの無い
2011/08/09(火) 14:00:52.43ID:4UZXVX1S0
>>519
数年前だったらつかってたかも
今はまったく必要ないけど
2011/08/12(金) 21:49:19.50ID:A+bFfX8v0
>>521
どうしてだい?
ちんこたたなくなったのか?
523名無しさん@お腹いっぱい。
垢版 |
2011/09/16(金) 21:02:29.29ID:XaOvb9j60
使ってみた。
524名無しさん@お腹いっぱい。
垢版 |
2011/09/16(金) 21:04:15.07ID:XaOvb9j60
サンプル専門で収集してる人には便利かな。
根こそぎDLするから見るの疲れるけど。
525名無しさん@お腹いっぱい。
垢版 |
2011/10/11(火) 10:04:42.08ID:Afz9Up6l0
http://www.nicozon.net/watch/sm580404(´・ω・`)
2011/10/19(水) 22:07:26.98ID:1qVRjeoL0
PC板の総合質問スレで質問したらソフトウエア板でということでした
ここでいいんでしょうか

すみません
どこで聞いたらいいかわからないので

RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます

しかしダウンローダーが出てこないのです

RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません

どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
527名無しさん@お腹いっぱい。
垢版 |
2011/10/20(木) 04:10:43.21ID:vn7BtAJfO
age
2011/10/31(月) 22:02:13.50ID:fAJuLs4d0
フォーラム系の膨大なページがあるサイトをダウンロードしたいのですが、
何か良いソフトないでしょうか?
2011/11/01(火) 00:45:22.29ID:77d+tSbQ0
今ならFirefox+Scrapbookあたり
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
2011/11/03(木) 22:44:54.09ID:CDi4kRgv0
>>529
遅れましたが、ありがとう。
2011/12/28(水) 23:52:41.72ID:cNlQoXC/0
t
2012/02/10(金) 22:43:16.54ID:dGH4LKHB0
昔使っていたOfflineExplorerが素晴らしく使いやすかったので
改めて買おうとしたら高すぎ英語意味わからなすぎでワラタww

http://www.metaproducts.com/mp/offline_explorer.htm

Lifetime upgradeライセンスで将来のアップグレードが無料で手に入るらしいのに
Download protectionを別につけられるってどういうこっちゃ
物が確かなのはわかってるんだけどぼったくり会社っぽくて怖すぎる
533名無しさん@お腹いっぱい。
垢版 |
2012/03/21(水) 23:07:58.30ID:6xVa6Whz0
一点質問なんですが2つのフォルダーでデータやり取りしているサイトはどのようにすればダウンロードできるでしょうか
http://Aに一覧があり
http//Bにデータが保存されている場合。
現在小説家になろうの小説を取り込めないか実施しております。
ご協力お願いします
2012/03/21(水) 23:21:36.48ID:2iY4RaFW0
Aにリンクがあるなら、それを辿ればいいだけじゃないの
2012/03/21(水) 23:23:14.22ID:6xVa6Whz0
>>534
丸ごと取り込む場合下位フォルダーしか保存できなくありません?
2012/03/21(水) 23:51:23.76ID:qtiw2xAE0
そこはオプションしだいかと思います。ドメインが違うのなら取得対象ドメインとしてBを追加していないのではないでしょうか。
2012/08/11(土) 17:24:02.33ID:aXr1ntpO0
巡集はhttpsで始まるサイトは取り込めない?
あとUser-Agentで設定できる文字列の長さが短めに制限されてる
作者様に要望を出したいけど連絡の取りようが
2012/12/02(日) 11:23:29.14ID:8M7pkU6S0
age
2012/12/06(木) 12:17:35.17ID:2D/ha+t00
age
2012/12/23(日) 17:37:36.10ID:PKf790AM0
cssファイルの中で指定されている別のcssファイルや画像をすべて取り込めるソフトはありますか?
541名無しさん@お腹いっぱい。
垢版 |
2013/01/25(金) 17:48:17.77ID:nl3cHeHZ0
URLに全角文字が含まれていてもオッケーなソフトってないですか?
2013/01/27(日) 23:57:59.32ID:zpNPQWLC0
巡集でWikiをローカル保存する事は出来た。
出来たけど…レイアウトがまるで再現されてない。
スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。
何か上手い手は無いものか…
2013/01/28(月) 01:13:12.86ID:cCjA9N780
それはスタイルシートの再現が出来てないだけだと思うが
544名無しさん@お腹いっぱい。
垢版 |
2013/03/13(水) 23:23:31.58ID:COFrzmvM0
2chのある板のスレを全て丸ごと取り込めるダウンロードソフトってありませんかね?

例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。

Website Explorer
波乗野郎
ComGetter64

試したこの中では駄目でした。
外部rリンクをOKにしても駄目です。
正直困っております。

っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ)
どのソフトなら
http://anago.2ch.net/software/subback.html
ここから一階層分だけダウンロードできるんでしょうか
2013/03/13(水) 23:36:53.85ID:a7RRbjQQ0
ない
あるとしても即座に規制かかっておしまい
2013/03/16(土) 14:39:56.55ID:mET6QTJ90
普通に専ブラで片っ端から取得すればいいんじゃね?
2013/03/16(土) 15:44:08.33ID:DB2dBeO60
それが面倒だから訊いてるんだろうな
2013/03/18(月) 14:51:56.25ID:xxqiRn4w0
規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
2013/03/18(月) 15:45:44.28ID:n/vUs3WZ0
ソースみるとリンク先はIDだけだけど実際には
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
2013/03/25(月) 03:05:59.46ID:f95fsGFY0
atroposってprntscrnキーを設定することはできないの?
2013/05/12(日) 06:29:55.05ID:homI4KHO0
gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
2013/05/14(火) 19:02:11.80ID:yDZ7TQI70
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
2013/05/26(日) 23:57:36.73ID:og6d6/gf0
報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
554名無しさん@お腹いっぱい。
垢版 |
2013/05/31(金) 21:55:18.53ID:uZUQOv7m0
GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
2013/09/14(土) 22:13:24.97ID:CXBwsMJ/0
555 get !
556名無しさん@お腹いっぱい。
垢版 |
2013/10/14(月) 14:28:53.91ID:kSUr/BCk0
ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
2014/01/17(金) 21:27:59.74ID:4BAKXmKO0
保守
2014/02/28(金) 04:38:18.23ID:PtzNWAqB0
ATWIKIのサイトを取り込むコツないかな?
2014/02/28(金) 12:57:50.30ID:QvnC3EMh0
>>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず

-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html

最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
2014/04/12(土) 00:01:33.91ID:piRO/wAX0
フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
561560
垢版 |
2014/04/14(月) 17:58:54.73ID:r8sCxR980
すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました
取り込む速度も瞬殺でこのソフトすげえ
562名無しさん@お腹いっぱい。
垢版 |
2014/05/08(木) 05:15:50.10ID:S+GF45Tc0
アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。

ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
2014/05/08(木) 19:02:13.75ID:Ejo0hQ3D0
>>562
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね

それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
564名無しさん@お腹いっぱい。
垢版 |
2014/05/10(土) 10:48:33.83ID:Ne1h6I/L0
ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
2014/05/10(土) 21:00:37.39ID:FkoA4TlM0
>>564
IEでおk
2014/05/12(月) 23:45:03.04ID:i13e208b0
wget以外でパス付きのサイトダウンロードするソフトない?
2014/06/05(木) 00:11:41.72ID:qF77yrzL0
>>561
マジ?教えてお願い。
フォレスト何年もあきらめてたorz
GetHTMLWで出来たってこと?
2014/06/05(木) 07:15:01.12ID:UBg0CeAy0
古いVer.だとなお速いぞ
2014/06/05(木) 08:02:02.37ID:0/gSZuHj0
Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
2014/06/06(金) 00:00:03.18ID:EiBQjR9Q0
うちのも7.12.0だな
2014/06/06(金) 09:16:33.67ID:BP3ACk690
おれ使ってるのは7.11.5だった
2014/06/06(金) 10:55:15.35ID:zlKKgRCS0
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
2014/06/15(日) 09:25:01.74ID:hsbulYYi0
>>567
スレ離れてて遅レスになったけどもうできた?
2014/06/16(月) 23:00:28.10ID:m0YS9fWe0
>>573
できてないよorz
GetHTMLWでいいの?
フォレストとりこめたなんてすごいよ
よくわかったね
2014/06/17(火) 06:39:41.44ID:B5QBqdwa0
atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
2014/06/17(火) 09:10:09.25ID:x5D8mRI50
wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
2014/06/17(火) 12:33:19.19ID:B5QBqdwa0
構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
2014/06/17(火) 12:51:38.14ID:x5D8mRI50
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
2014/06/17(火) 13:55:07.26ID:W7OE9+f10
>>574
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
2014/06/17(火) 15:11:46.11ID:6Cl5a3940
φ(.. )メモメモ
2014/06/17(火) 21:18:13.55ID:n2xsu56C0
>>579
レスありがと
やってみるよ
できたら報告にきます
報告なければできなかったということで
あいつアホだったかとでも思っててくださいw
582名無しさん@お腹いっぱい。
垢版 |
2014/08/17(日) 15:30:32.21ID:ir6+HsPe0
会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。

それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。

数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。

これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
2014/09/18(木) 14:15:22.01ID:ttWc5ZOa0
m9
2014/11/13(木) 11:21:59.28ID:BOi0pnCs0
585名無しさん@お腹いっぱい。
垢版 |
2014/12/07(日) 19:49:42.73ID:c2gBrHWI0
ようつべ
2014/12/26(金) 16:15:32.96ID:7VvUAsKm0
    /:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::|
    l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
    l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ::::::::::://   ヽ:::::::::::|
    |::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/      ヽ::::::::|
   ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙  ノ:::/ ,,;;;;;;,,    ,,,,ヽ:::::l
   ):::::::::::::::::::::::::::::::::::::::::::::::/    ノ/ __,'''i: ('''__):::l  
  )::::::::::::::::::::::::::::::::::::::::::::::::::/         ̄ ̄ン:. :「 ̄`ヾ   
 1:::::::::::::::::::::::「 `┤l:::::::::::::::::l          ̄   ,  ヽ ̄ l   
  `l:::::::::::::::::::::ヽ  :l li:::::::::::::/        ヽ  /´   `l  |
  ヽ::::::::::::::::::::::\_」 lヽ::::/         .l  !:-●,__ ノ  /      
  ノ:::::::::::::::::::::::::::ノ | l `゙゙           i ,,;;;;;;;;;;;;;;;;;;;;,  /ヽ       
,/ ヽ::::::::::::::::::::::(  l l::::::::..         /.:''/´ ̄_ソ  /  `ヽ
     ヽ:::::::::::::::ヽ | l:::::::::::...      /::// ̄ ̄_ソ  /    \   ヴッ!!
        ヽ:::::::\| l::::::::::::::::...    / :::.ゝ` ̄ ̄/ /       ヽ
           ヽ:::l l:::::::::::::::::::..      ̄ ̄;;'' /         ヽ
              l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ            l
              l l '''''''''''''''''''''''''''''''''''''' ̄l |             |

http://www.youtube.com/watch?v=z2qK2lhk9O0
2015/02/02(月) 14:02:34.40ID:JkiDLaz40
588名無しさん@お腹いっぱい。
垢版 |
2015/02/11(水) 13:24:59.59ID:EIUIF3gW0
wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
2015/02/11(水) 16:20:02.81ID:A3iM2ZFo0
はい
2015/02/22(日) 02:36:04.73ID:w+6nav8q0
http://xenobladedata.web.fc2.com/
このサイトを巡集やらいろんなソフト使って保存してもレイアウトが崩れてしまいます
どなたか助けてください(´;ω;`)
2015/02/22(日) 07:44:19.56ID:VhCspjFi0
>>590
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/22(日) 09:34:46.89ID:w+6nav8q0
初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
2015/02/22(日) 09:44:28.45ID:w+6nav8q0
あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
2015/02/22(日) 10:07:10.81ID:OvZIuqnD0
動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
2015/02/22(日) 11:29:20.03ID:w+6nav8q0
一応できましたw
>>591さんと>>594さん本当にありがとうございました
追加するのがめんどくさいので、まとめて追加するソフトでも探してきますw
2015/02/22(日) 22:33:22.35ID:VhCspjFi0
>>595
うまくいったみたいで何より

CSSのURLはソース見て追いかけるしかないかなあ

フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
2015/02/23(月) 01:42:25.02ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
2015/02/23(月) 07:28:24.10ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから

取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
2015/02/24(火) 03:45:07.05ID:UGZgzTpW0
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
600名無しさん@お腹いっぱい。
垢版 |
2015/03/19(木) 21:35:16.72ID:788O9MZS0
FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
2015/03/19(木) 21:45:38.13ID:UF2HDIz30
最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
2015/05/28(木) 11:20:32.26ID:LpX/6Zfv0
Craving Explorerはウイルスらしいよ
プログラム終了してもプロセス残ってる
2015/05/29(金) 10:35:41.67ID:WyPaR80i0
>>602
右上の[x]でタスクトレイに残る仕様
2015/06/02(火) 16:45:58.44ID:eHZ6wgAA0
>>603
そうなのかあ。でもデフォルトで残すのはどうもねえ。
気色悪いからFreemakeVideoDownloaderにしたよ。
2015/06/03(水) 04:41:04.14ID:MMwqrRbf0
>>602-603
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
2015/06/03(水) 08:28:27.52ID:6glLSngY0
>>605
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
2015/06/03(水) 08:49:07.34ID:MMwqrRbf0
>606
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
2015/06/03(水) 11:08:30.82ID:sOBS0atv0
>>607
606は胡散臭いソフトにありがちなデフォでチェックが入っているのを見逃してインストールしただけだよ
普通に回避できる
2015/06/03(水) 11:17:36.16ID:6glLSngY0
Cravingの作者のページの「今すぐダウンロード」クリックしたら
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
2015/06/03(水) 20:13:57.38ID:xxSSNGCM0
さてはお前Flashプラグインと一緒にMcafee入たことあるだろ
2015/06/03(水) 23:20:17.02ID:x11Br7AU0
ウイルスバスター(笑)
2015/06/03(水) 23:22:05.55ID:6glLSngY0
ウイルスドクターじゃないよ
2015/06/04(木) 08:52:23.60ID:I3isPSnx0
ウイルスバスターは無いわー
有名なESETに乗り換えを検討したら?
2015/06/07(日) 10:25:26.52ID:rCRTcimQ0
FLASHXの動画をDLしたいんだが
2015/08/02(日) 19:53:58.97ID:vgZfvBkf0
website explorerに代わるものが未だに見つけられん
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
2015/08/02(日) 20:50:12.96ID:RKoieSBh0
>>615
website explorer、この前久々に新しいバージョンが出てたよ
あと似たようなソフトだと、Cyotek WebCopyが近い感じだと思う
こっちは今でも開発中
2015/08/09(日) 10:50:50.55ID:QRZYOF0T0
巡集でWIKIみたいなURLにパーセントが入ってるサイトのダウンロードって無理ですかね?
このサイト何ですけど

http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
2015/08/10(月) 07:22:02.59ID:wkSgRzj+0
>>617
詳細設定 > 取得設定 > URLの%を変換しないをON
2015/08/10(月) 11:09:00.22ID:KuK/+Yns0
それすでに試したけど駄目でしたね
wgetを使わないと無理なのかな?

http://android-smart.com/2011/07/%E3%80%8C%E5%B7%A1%E9%9B%86%E3%80%8D%E3%81%A7%E4%B8%8A%E6%89%8B%E3%81%8F%E4%B8%B8%E3%81%94%E3%81%A8%E4%BF%9D%E5%AD%98%E3%81%A7%E3%81%8D%E3%81%AA%E3%81%84%E3%82%B5%E3%82%A4%E3%83%88%E3%81%AB%E3%81%AF.html
2015/08/10(月) 20:31:22.79ID:wkSgRzj+0
>>619
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ

とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
2015/08/10(月) 22:34:19.56ID:KuK/+Yns0
>>620
親切にありがとうございます
できれば巡集がいいのですが、無理そうですかね?
2015/08/10(月) 23:39:18.03ID:wkSgRzj+0
>>621
巡集で落としたファイルを見た感じ
wikiとかの動的なページの取り込みに完全対応していないみたいだから
どうにもならないと思う
2015/08/10(月) 23:44:06.31ID:C51cH/kB0
今のところwikiを丸ごと落とせるソフトはないよ
2015/08/11(火) 12:32:34.98ID:JcoulAXO0
了解しました。ありがとうございます
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?

http://kumaabaron.web.fc2.com/jiten_v1_2.html
2015/08/11(火) 18:03:15.18ID:8J9/zggO0
巡集で落とすとjsファイル中の改行正しく取れてないみたい
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
2015/08/11(火) 19:20:34.97ID:m59hdRKx0
すいませんどこをどう置き換えればいいのか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
2015/08/11(火) 19:27:29.30ID:m59hdRKx0
保存して上書きの事なら駄目でした
2015/08/11(火) 20:10:39.42ID:8J9/zggO0
いやそのままの意味だが
>>625のURLのjiten_v1_2.jsを
巡集のファイルの保存先にあるjiten_v1_2.jsに上書き
2015/08/11(火) 22:46:49.44ID:m59hdRKx0
IEなら見れましたが、Chromeだと駄目ですね
ちょい調べてみます
2015/08/11(火) 23:07:04.85ID:8J9/zggO0
>>629
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
2015/08/11(火) 23:14:42.52ID:m59hdRKx0
できました。・゚・(ノД`)・゚・。
ありがとうございます
ありがとうございます
ありがとうございます
632名無しさん@お腹いっぱい。
垢版 |
2015/08/20(木) 10:22:17.25ID:/wUo6m5X0
http://ameblo.jp/daisuke18/imagelist.html
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
2015/08/20(木) 18:13:40.56ID:igW2lWLi0
>>632
そこではためしてないけどfirefoxだったらdown them allってアドオンでできそう
あとはDCさくら とか
2015/08/20(木) 19:38:10.11ID:/wUo6m5X0
レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
2015/08/20(木) 19:59:27.07ID:/wUo6m5X0
あ、DCさくらの説明にそれっぽいことが書かれています。 今から試してみます。
2015/08/20(木) 22:21:32.84ID:TgfH37KW0
>>632
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず

ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が

htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
2015/08/22(土) 13:58:52.53ID:Rly0uQHr0
さらにレス付けている方がいるとは思わず、返事遅れてすいません。
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
2015/08/22(土) 14:27:25.21ID:Rly0uQHr0
http://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1496147004
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
2015/08/22(土) 21:11:25.27ID:9v9ZaUJD0
>>638
私立メロン高校パソコン部
2015/08/22(土) 23:07:36.74ID:Rly0uQHr0
レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
2015/08/22(土) 23:21:35.55ID:Rly0uQHr0
あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
2015/08/23(日) 01:44:40.52ID:fJ53XnBu0
さすがに情報後出し教えて君過ぎるので
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で

手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
2015/08/24(月) 17:49:10.84ID:YlI3KiMU0
また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。

もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
2015/08/24(月) 21:25:35.93ID:AwVEz0ch0
リスト作れとか図々しすぎてわろた
2015/08/30(日) 23:00:32.47ID:BDWlhiRC0
相手が女かもと思って途中までめっちゃ親切なのウケるw
2015/09/02(水) 08:25:19.39ID:uqeCSoBo0
dcさくらでできたけど
2015/09/02(水) 09:09:40.88ID:cTN0L3v+0
画像ページを開いてから落とすのは出来るけど
画像リストページからリンク先の画像は取れなくね
2015/09/02(水) 23:31:30.02ID:7+MYnnXj0
Irisで何でもできる
インテリジェントな処理はケースバイケースで自作
リトライしながら複数スレッドで落としてくれるだけで十分有り難い
その部分まで組もうと思うと大変
2015/09/03(木) 06:44:44.56ID:/G1C3ynY0
dcさくらの場合コンテンツ抽出を繰り返せば目的にたどりつく
2015/09/06(日) 06:23:14.24ID:zvG+R+wu0
index.htmlを除外するにはどうしたらいいのでしょうか
フィルタ設定しても絶対にトップページをダウンロードしてしまいます
2015/09/06(日) 06:39:07.92ID:zvG+R+wu0
あ、使用ソフトは巡集です
よろしくお願いします
2015/09/06(日) 07:15:24.82ID:zvG+R+wu0
謎解けました
お騒がせしてすいませんでした
2015/09/18(金) 00:26:24.20ID:TYpmDXyN0
Win8.1でホームページ取り込みをするにはどのそふとがよいですか?
2015/10/26(月) 17:44:06.21ID:zHYr0+XK0
教えてくんを甘やかしすぎw
2015/11/04(水) 00:19:37.48ID:h9eq5OR90
?付きアドレスを正しく、もしくは強制的にローカル参照ファイルとして取り込んでくれるものはもう無理かな。あとjavascript使ってるやつ。
teleportと巡集とhttrack試したけど、どれか1つのツールだけでOKってのは無いね。

?がついてるURLページを何度も何度もとりに行ってhtmlと画像の同じファイルが100個以上出来たり、
jsもcssもちゃんと取り込めてるのにマウスオーバーとかの処理が出来てなかったり、
相対パスを正しく認識出来ず、ローカルファイルへのリンク書き換えも対象ファイルの取り込みも無視されたり。
複数のツールをサイトごとに使い分けるのがベターかも。
2015/12/03(木) 15:48:33.53ID:B0Usj2+U0
VisualWget使ってみた

%E3%81%82〜
こういった日本語含むパーセントエンコードされたURLって落とすの不可?
漢字がバグったようなURLになって止まってしまう
restrict-file-names=nocontrol を追加したら少し進むがやっぱ止まる

wget使ってる人どうやってるの
ご助言くだされ
2015/12/06(日) 02:07:33.03ID:F8C9cYsk0
こんなところにバグレポ&パッチ書いても仕方ない気はするけど書いとく。

GetHTMLW/GetHTMLのバグ
・取得中、取得するURLに拡張子が無い場合にフリーズ、強制終了することがある
原因はNULLポインタへのアクセス。
関数 get_extptr(hdrlistw.cpp、138-144行) が、NULLポインタを返す
可能性があるにもかかわらず、その対処を怠っていたこと。

どうなっているかは次のアドレス/行番号を参照
(GetHTMLW 8.3.0)GetHTMLW.exe
0040FF5B-0040FF6D (実行ファイル上:00F55B-00F56D)
(GetHTML5.3.1) GetHTML.exe
004089AB-004089BD (実行ファイル上:007FAB-007FBD)
(GetHTML5.3.1) hdrlistw.cpp、510-511行
> q = get_extptr(p);
> if (*q == '.') {

パッチ(変更箇所のみ)
(GetHTMLW 8.3.0)
0040FF64 90 NOP
0040FF65 90 NOP
0040FF66 90 NOP
0040FF67 90 NOP
0040FF68 90 NOP
0040FF69 83F8 00 CMP EAX,0
0040FF6C 74 33 JE SHORT GETHTMLW.0040FFA1
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)

(GetHTML5.3.1の)hdrlistw.cpp、510-511行
q = get_extptr(p);
if (q != NULL) {
2015/12/06(日) 22:48:50.52ID:5T85n6PV0
うちのは7.12だな
2015/12/06(日) 23:28:00.92ID:F8C9cYsk0
>>658
とするとこのバグは無いはず。
あと、7.12のままなのは1ホストからの同時取得数制限が掛かる直前のバージョン
ということもあると思うけど、7.13以降は定義ファイルを書けば以前と同じ状況に緩和できる。
(Waitも挿入できるからアクセス過多で弾かれないようにもできるかもね)

-------------------------------------
>>657追記
条件は次の4つで、これが実装されているのは GetHTMLW 8.0.0/GetHTML 5.0.0 以降。
 1:(拡張子の無い)そのURLのデータを既に取得している
 2:そのURLは更新されている(オプションにより内容、httpヘッダで返される時刻が)
 3:そのURLから再取得しようとする
 4:「取得条件設定」の「E:旧データを保存」が有効になっている
で、この時に>>657で示した既存ファイルのリネームルーチン内でNULLポインタに
アクセスする状況になる。
2015/12/14(月) 17:06:21.83ID:KBPfaGx40
アメブロの保存をしている方がいたら教えて欲しいのですが、
アメブロの保存に向いているソフトはなんでしょうか?

今はscrapbookを使っているのですが、ダウンロードと構築に膨大な時間がかかったわりに
後で見返すと途中でリンクが繋がっておらず歯抜けになっていたりして残念な思いをしました。
2015/12/14(月) 22:46:11.88ID:6tGKNCvD0
動的にページが生成されるから、データが大量になるよな
2016/01/11(月) 18:47:22.66ID:yIrp54MT0
>>657のパッチ(バイナリ書換えのみ)が別のバグ作ってたことに
今更気づいたので修正済みのパッチ貼っとく
(GetHTMLW 8.3.0)
0040FF64 83F8 00 CMP EAX,0
0040FF67 74 38   JE SHORT GETHTMLW.0040FFA1
0040FF69 8A03    MOV AL,BYTE PTR DS:[EBX]
0040FF6B 90     NOP
0040FF6C 90     NOP
0040FF6D 90     NOP
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)

(GetHTMLW 5.3.1)
004089B4 83F8 00 CMP EAX,0
004089B7 74 38   JE SHORT gethtml.004089F1
004089B9 8A03   MOV AL,BYTE PTR DS:[EBX]
004089BB 90     NOP
004089BC 90     NOP
004089BD 90     NOP
(exeファイル上では-0x400A00;007FB4-007FBDの範囲)
2016/01/22(金) 16:47:20.82ID:Ej+GshLN0
ハーメルンを取り込めるソフトないかな?
2016/01/22(金) 16:49:06.73ID:D+wPDphN0
ありますん!
2016/01/22(金) 17:04:36.04ID:ewi1rt/Q0
あの投稿サイトなら、気に入った作品をお気に入りに入れて、一括表示したのをファイル名に日付込みで保存したほうが確実だし管理しやすいわ
なお、リンクを右クリックしてリンク先を保存、だと、保存失敗することがある
666名無しさん@お腹いっぱい。
垢版 |
2016/02/01(月) 17:49:03.62ID:gsi73ib40
東京ローダーなるものがあるが、これは果たして問題ないのだろうか??
動画ダウンロードソフトになるが、数年経ち、数万人が使っているというのに情報がない。
使えるソフトならば情報がないほうが不自然だが、
それでいて評判が悪いという話も聞かない。
ウイルスだというものや、安全だというものは耳にするが、具体的な内容はどちらもない。
ないない尽しでよくわからないソフトだ。Adobe Airのだが、これは果たして使えるダウンロードソフトなのだろうか。
2016/03/04(金) 08:16:51.90ID:H8nzEw4i0
ハーメルンが常時SSL化になって巡集やGetHTMLで取り込めなくなったんだけど
この状態で取り込めるソフト無い?
2016/03/07(月) 21:33:23.26ID:iFNTWIIk0
wgetで
ttp://pentan.info/server/linux/wget_error_ssl.html
669名無しさん@お腹いっぱい。
垢版 |
2016/03/12(土) 17:14:26.69ID:TLIZAu0l0
TBSオンデマンドをダウンロードするのはどうしたらいいんだろう?
無料放送中だから違法にはならないと思う。
http://www.tbs.co.jp/muryou-douga/smp/never-let-me-go/009.html
2016/03/13(日) 06:08:38.80ID:CuSjab960
【DL】動画の保存方法総合スレ【保存】part24 [無断転載禁止]©2ch.net
http://potato.2ch.net/test/read.cgi/streaming/1449473346/
2016/03/13(日) 06:21:15.88ID:DclDScKY0
>>670
ありがとう!
2016/03/13(日) 06:22:49.11ID:DclDScKY0
>>670
ごめん、Youtubeじゃないんだ。
それにスレが落ちてるみたい。
673名無しさん@お腹いっぱい。
垢版 |
2016/04/09(土) 05:19:40.75ID:e3wpWblj0
Windows10(home 64bit)で使えるいいダウンローダーないかな?
前のPCで使ってたIrvineみたいなリジューム機能のあるやつ
突然前のPC壊れて新しいの買ったけど調べたら
Irvineは7までしか対応してないんだよなぁ・・・・・・
2016/04/18(月) 20:32:26.68ID:mvqqjHuJ0
>>673

有料でも良いなら、Internet Download Managerはどうかな?
https://www.internetdownloadmanager.com

リジューム機能もあるし、ファイルの分割ダウンロードをするので、ダウンロード速度が驚異的に早い。
Windows10にも対応していみたいだよ。
2016/05/27(金) 12:30:14.11ID:KuWnDvU40
巡集とHTTRACK、どっちにしようか悩むわぁー
2016/05/27(金) 16:05:49.10ID:EXP4nyrp0
>>675
今、Httrack使い始めたけどいい感じ。スクリプトもしっかり処理してくれる。
ただ、ID認証が標準の機能では弾かれるので困ってる。
いろんなの試したけどホント完全なものってないね。
有料でもいいから、出してほしい。
2016/06/04(土) 08:23:42.85ID:MrNt3Pin0
FirefoxのアドオンDownloadHelperを使ってるがこのごろYouTubeでさえ
ダウンロード出来ないときがある、Firefoxと愛称が良いダウンローダーないですか?
2016/06/17(金) 16:42:03.83ID:3bWsLJSE0
WEBBOXというの使ってみたんだけど
FC2のサイト保存だけいないね
エラーになってどっか飛ばされてもとにもどる
なんだこれ
2016/08/10(水) 16:21:37.70ID:P/MwGFZI0
Helperが糞ダサくなったしね
2016/08/28(日) 19:53:07.99ID:yppS+Hfg0
他人のツイログを丸ごと保存したいんですが、おすすめのソフトとかありますか?
2016/08/31(水) 15:31:36.70ID:N3wIesmL0
とある学校のサイトの授業動画をダウンロードしたいんだけど、
どうしても複数ファイルに分割されてしまう。
おそらくm2tsって形式だと思うんだけど、まとめて1ファイルもしくは
一式を一度にダウンロードする方法ってないかな?

一度ダウンロードしておけばスマホで出先で勉強できるんだけど、
毎回アクセスするとパケットがすぐに上限に達してしまう。
なんとかならないかな?
2016/08/31(水) 15:35:15.88ID:N3wIesmL0
>>681
m3u8だった。
683名無しさん@お腹いっぱい。
垢版 |
2016/08/31(水) 19:25:13.20ID:FsXAU5t30
>>681
OBS
2016/08/31(水) 21:45:16.22ID:N3wIesmL0
>>683
OBSって配信ソフトじゃないよね?
何の略??
2016/09/01(木) 09:25:08.59ID:dlF7Lhlk0
m3u8は動画ファイルではない
686680
垢版 |
2016/09/01(木) 18:32:24.60ID:YK3BgmXO0
誰か助けてつかあさい(´・ω・`)
2016/09/02(金) 12:58:35.56ID:kPzHxTOt0
>>684
馬鹿には無理
2016/09/02(金) 14:34:30.24ID:RFLIKJAx0
>>680
一番無難なのは、ツイログではなくTweenで他人のツイートを手操作で最大限表示した後に
(Twitter側の都合により3200件までという制限があるけど)別途.tsvテキスト形式で保存する事
だと思う。
自分のツイートなら、Twitter側の標準機能で保存したのを
そのままFTPソフトで適当なWebスペースに丸ごとアップロードするだけで
Webページとして公開できるけどな。
2016/09/02(金) 18:29:47.14ID:kJeZJ2GI0
>>688
言い忘れがあってすいません
その人ツイログは残ってるんですけどツイッターは消えてるんですよね・・・
2016/09/02(金) 19:47:47.42ID:RFLIKJAx0
>689
ならば時間がかかるけど適当なPDF作成ソフトで保存する程度で我慢するしかないのでは?
AcrobatやpdfFactoryなどを使えば、例えば計15ページ分の記事なら15回分の操作で1ファイルに全ページ保存できるよ。
俺自身はAcrobat11を愛用してるが、ツイログの保存は未だやった事ないから実際どんな具合なのかは何とも言えんが。
2016/09/03(土) 11:53:47.49ID:fDYi/RnN0
うーん巡集とかでは無理ですかね・・・
2016/09/03(土) 12:06:49.97ID:8Ijb08g30
既に知ってるフリーソフトがあるなら、まず自分で試せよ(w
2016/09/03(土) 18:43:26.54ID:7EzqA/Cq0
>>691
tweepy
2016/09/04(日) 10:29:47.78ID:B7EZkThQ0
>>692
いや巡集は試したんですけど駄目でしたw
設定はよくわからないんでほぼいじってないですけどね

>>693
プログラムはわからないんですけど一応方法はあるんですね
貴重な情報ありがとうございます
2016/09/12(月) 18:57:12.45ID:jBaGhiIO0
http://27.gigafile.nu/0919-g4579e7968ede61a87580460378b312e5
696名無しさん@お腹いっぱい。
垢版 |
2016/09/17(土) 16:52:08.03ID:r3o7LKS10
小説家になろうの小説をWeboxで保存したいのですが
年齢制限のある小説は年齢確認のページが文字化けして保存できません
何度か試して一度だけ冒頭の数ページが奇跡的に保存出来ましたが、その後やはり失敗してしまいます
文字化けせずに年齢確認のページが保存されたときはJavaScriptが有効ではありませんという記述がありました

数年前は保存が出来たのですが変化があったのでしょうか
また無理であれば代替えソフトも検討しています
どうかお知恵をお貸しください

Windows vista ブラウザはfirefox使用です
2016/12/17(土) 21:32:20.24ID:nqXndt+20
开放分类:武将

吉田孝太赖(1493-不详),长宗我部家臣,后名周孝。
编辑摘要

画像长宗我部家臣,后名周孝。
人物简介

作为长宗我部首席家老辅佐了长宗我部国亲、长宗我部元亲两代主公。
为国亲之股肱。他智勇双全,即可施展谋略,又可冲锋陷阵,与其弟重后一道,为扩大主家的势力做出了重大贡献。
重要作用

娶长宗我部国亲的妹妹为正室,稳住了吉田氏在长宗我部家中的地位。
698名無しさん@お腹いっぱい。
垢版 |
2017/02/25(土) 04:03:55.90ID:RsaAC9TT0
DownloadHelperを使ってmkvという形式のファイルをダウンロードしたら
左上にQコードみたいのが付いてしまったんですが、これが付かない方法を分かる方はいますか?
英語でメッセージが出たので翻訳をしたんですがどうすればいいのか結局分かりませんでした
699名無しさん@お腹いっぱい。
垢版 |
2017/09/30(土) 23:03:27.55ID:agku6onL0
昔ダウンロードしたソフトがあって久しぶりに使ってみた。だが、当時とだいぶ状況が違っていた。
なんといってもサイトがでかい。HDが安くなったせいか中には100万枚画像があると豪語するサイトもある。
こんなのをまるごとDLしてたらとんでもない時間がかかる。たとえDLしたとしても100万枚も見切れない。
DL開始してもえんえんとフォルダを作るばかりでなかなか画像のDLに入らないケースもある。やはり設定で画像ファイルだけDLとか選べるようにした方がいい。
あと、サイトの構造をよく解析して、どういう手順でどこをDLするか事前に計画をたてる必要ががありそう。
2017/10/01(日) 00:00:09.64ID:rDM94hit0
昔〜ありそう。

まで読んだ
701名無しさん@お腹いっぱい。
垢版 |
2017/11/12(日) 09:42:57.33ID:oix9O1sX0
WeBoXで丸ごと取り込むで エラー フィルタ設定を確認してください 
と出るんですがどうすればいいんですか
2017/11/12(日) 10:29:12.31ID:BaL1zVwg0
確認してください
703名無しさん@お腹いっぱい。
垢版 |
2017/11/12(日) 14:01:54.19ID:oix9O1sX0
どこを確認しますか
704名無しさん@お腹いっぱい。
垢版 |
2017/11/13(月) 22:05:54.40ID:ssEB6fkR0
どこを確認しますか
2017/11/14(火) 09:48:08.00ID:Cyh+eRJ60
確認してください
706名無しさん@お腹いっぱい。
垢版 |
2017/11/20(月) 18:12:26.19ID:L+cN5bZN0
よくわからない
2017/11/20(月) 20:11:19.29ID:bjWUDFzJ0
確認してください
2017/11/21(火) 19:06:59.74ID:TSXtur2t0
HTML5にフル対応したダウンローダーってないかな?

過去に使ってきたアプリはもうかなり前に更新がストップしたままだし、
現役で使ってるwgetも更新はしてるが未だvideoタグとかのHTML5には
未対応だし。

最近いろんなサイトがHTML5化したと思ってたら、不祥事などで突然
閉鎖しちゃった ... なんてことが多いので本当に困る。
709名無しさん@お腹いっぱい。
垢版 |
2017/11/22(水) 12:45:59.81ID:qu9WKYow0
ffそのためだけに使ってる
2018/02/05(月) 01:53:56.76ID:OI6vQNTq0
900000000000000000000000000000000000000000000
711名無しさん@お腹いっぱい。
垢版 |
2018/04/07(土) 20:58:38.44ID:GhwMjQT40
 
↓本当に良いのか?わからないけど、とりあえず

WinX YouTube Downloader
ttps://www.winxdvd.com/youtube-downloader/index-jp.htm

5KPlayer
ttps://www.5kplayer.com/index-jp.htm

TokyoLoader
ttps://tokyoloader.com/

Video DownloadHelper
ttps://chrome.google.com/webstore/search/Video%20DownloadHelper?hl=ja

FBDown Video Downloader
Free Video Downloader
Video Download Pro
Video Downloader Pro
2018/05/21(月) 23:29:13.20ID:XXA+mVbv0
すみません 助けてください

取扱説明書をダウンロードできるサイトから一括でpdfをダウンロードできるソフトや方法があれば教えて下さい。
そのサイトのアドレスは.phpとなっています
https://www.vintageshifi.com/index.php
この様なサイトから一括でダウンロードできますか?

よろしくお願いいたします
2018/06/21(木) 14:58:45.98ID:hAOgjjko0
GetHTMLWをProxyMode2で使ってWikipedia取得、と思ったら取れてない
他サイトでも取得できないのがあるなあと眺めたら、ひょっとしてSSLサイトは取得できないの?
714名無しさん@お腹いっぱい。
垢版 |
2018/07/01(日) 14:19:20.56ID:4o6nMIUG0
LINE LIVEのコメントを直にダウンロードできるソフトはありませんか?
画面の録画ではなくテキストで保存したいのです
よろしくおねがいします
https://live.line.me/channels/62108/broadcast/8733243
715名無しさん@お腹いっぱい。
垢版 |
2018/09/27(木) 04:48:01.72ID:QhrJ9BGT0
てすと
2018/11/26(月) 19:52:02.05ID:HgX0MTQ+0
この手のソフトでなかなか良いの出ないね…
2018/11/26(月) 22:33:51.84ID:UqzQ9I3r0
wgetで丸ごと、と良く聞くけどなかなかわからん
2018/11/29(木) 19:17:23.14ID:z9/KVliE0
wgetやってみたけど…どこに保存されてるのか全く見つけられん
2018/11/30(金) 14:11:02.90ID:23EaTWpR0
wget置いてある所じゃないの?
2018/11/30(金) 17:29:59.77ID:Tc7w9Eb20
>>716
馬鹿なユーザーが時間を開けずにアクセスしまくって鯖に負荷かける迷惑行為をするからだろ
そういう奴がいるからなかなかソフトを開発する奴が現れない
2018/11/30(金) 19:23:11.82ID:23EaTWpR0
マルチスレッドで爆速だぜ!とかいうキチガイは昔からいたからなあ
斧なんか複数張っちゃダメってきっちり書いてるけど

まあその手のソフトも接続数を設定で変更できるのはまだ便利に使えるんだけどねえ
2018/11/30(金) 19:32:02.39ID:gazfU0EG0
wgetやってみたけど、ページはダウンロードできるけどサイト全体は上手くいかない…
Weboxは認識ページは不安定で偶にフィルタ設定しろって出るけど
このフィルタ設定が何かわかる方いますか?
2018/12/03(月) 17:58:25.89ID:dqum4gYX0
WeBoXはGetHTMLWの代わりにといじってみたけど馴染めなかったな
2018/12/06(木) 02:55:01.84ID:YtTZWQeM0
>>716
怪しい通信して良いなら幾らでもある
自分で阻止して使えば
2019/10/20(日) 04:35:23.49ID:2jmCiTh40
wgetが実行中に停止してしまうんですが、原因を知る方法を、
もしご存知でしたらお教えください。

具体的には、「wget.exe has stopped working」ってwindowsのダイアログが出て
強制終了するしかなくなります。
必ず、バイナリファイルのダウンロードが100%になったと同時に停止し、
そのファイルは0バイトになってます。
2019/10/24(木) 01:41:22.38ID:BZhK+5ie
>>725 ですが解決したので報告だけ
2008年の古いwget使ったらエラー無しでDL完了しました。

DLに使ったの緒はwin 7です。
自分が引っかかった注意点としては、
このバージョンはexeだけgetすると何故か64bitバージョンが
DLされるのでsetupのexeをuniextractで解凍し、
出てきたDLLとセットでどっかにコピーして使うことです。
exeとdllのバージョン適合は厳密のようでした。
2019/11/07(木) 20:50:33.28ID:fLmyXcP00
iPad用で使える君ありますか?
728名無しさん@お腹いっぱい。
垢版 |
2019/11/10(日) 16:59:47.75ID:PevOCmI50
4k stogram 超改悪
実質完全有料化
2019/11/21(木) 17:22:40.27ID:lfhTTYY20
(*´ω`*)
2020/03/03(火) 08:40:40.95ID:FfsX5X600
4K Video Downloader

ダウンロード出来んぞ
731名無しさん@お腹いっぱい。
垢版 |
2020/04/01(水) 15:27:38.54ID:P/R9qTCB0
VideoProcもダウンロード出来んぞ
数日前からダウンロードしようとすると<分析失敗>と表示され何度ダウンロードしようとしても失敗してしまいます。
これはなにが原因として考えられるでしょうか?そして対策は何でしょうね?
2020/04/29(水) 11:38:12.42ID:AWoQP67n0
>>730
同じく。
失敗する。
2020/04/29(水) 11:38:34.53ID:AWoQP67n0
有料でこれはひどい
734名無しさん@お腹いっぱい。
垢版 |
2020/04/29(水) 13:23:07.13ID:4wFVK7w50
VideoProcはきのうあたりから復活して
またザクザクとダウンロードできるようになった
2020/05/05(火) 12:41:03.56ID:Mzkmv/4j0
4k video downloaderのアカウントごと保存先をまとめて変更する方法ない?
かゆいところに手が届かないんだよなぁ。
736名無しさん@お腹いっぱい。
垢版 |
2020/05/10(日) 14:29:57.34ID:9H/5HAbJ0
またVideoProcがダウンロードできなくなった
737名無しさん@お腹いっぱい。
垢版 |
2020/05/10(日) 14:30:15.24ID:9H/5HAbJ0
TVの前のみなさんはどうですか?
738名無しさん@お腹いっぱい。
垢版 |
2020/05/15(金) 10:38:35.24ID:k0sYdnPE0
有料なんだからさっさと対応してほしい
739名無しさん@お腹いっぱい。
垢版 |
2020/05/15(金) 12:27:34.85ID:I5VPP4+t0
VideoProcは2日くらい前から使えるようになってます
TVの前のみんなもそうですよね
740名無しさん@お腹いっぱい。
垢版 |
2020/05/21(木) 13:37:25.91ID:uTM4kigk0
またVideoProcでダウンロードできなくなった。
再開はいつだろう。
こういう不具合さえなければ最高のダウンロードツールなのに。
741名無しさん@お腹いっぱい。
垢版 |
2020/05/25(月) 10:37:16.42ID:iAx5bd/Z0
>>740のアプリは5日ぶりに復旧した。
使えてる間はダウンロードの神ツール。
742名無しさん@お腹いっぱい。
垢版 |
2020/06/18(木) 12:16:08.05ID:+pp69d030
またVideoProcでダウンロードできなくなった。
再開はいつだろう。
こういう不具合さえなければ最高のダウンロードツールなのに。
743名無しさん@お腹いっぱい。
垢版 |
2020/06/18(木) 20:24:30.85ID:+pp69d030
ちなみに、
・VideoProc
・winx youtube downloader
どちらもダウンロード界の最高神ツール。
なぜみんなもっと話題にならないの?

まさかこれよりいいツールなんてあるわけないし。
744名無しさん@お腹いっぱい。
垢版 |
2020/06/20(土) 12:30:54.17ID:55ZvSynE0
今日またVideoProcでダウンロードできなくなってる。
再開はいつだろう。
745名無しさん@お腹いっぱい。
垢版 |
2020/06/27(土) 11:52:25.08ID:A4NX8Chs0
6/20の障害はすぐ復旧したけど、
今日6/27またVideoProcでダウンロードできなくなってないか?
2020/07/26(日) 20:27:57.93ID:WA1pLnvu0
4k videodownloaderまたダウンロードできなくなってない?ようつべ。
747名無しさん@お腹いっぱい。
垢版 |
2020/07/31(金) 14:15:29.61ID:iJWWx28K0
7/28ころからまたVideoProcでダウンロードできなくなった。
再開はいつだろう。
こういう不具合さえなければ最高のダウンロードツールなのに。
2021/08/16(月) 16:46:24.09ID:OvhkA1jF0
記念
2021/08/16(月) 23:06:55.16ID:g99nCK/L0
Cyotek WebCopy Downloads - Copy websites locally for offline browsing • Cyotek
https://www.cyotek.com/cyotek-webcopy/downloads

サイトまるごとダウンロードはこのソフトが最強
2021/10/13(水) 22:54:04.37ID:GbIUuugx0
最近、YouTubeの動画落とすのに時間掛かるようになった。15秒の動画落とすだけでも1分は掛かる。長い動画なんてもう落とせない。YouTube側が違法ダウンロード撲滅の為の対策一環の一つで制限掛けたかもしれん。もう勧められるソフトがないわ。そのうちダウンローダーは廃れるな。
2021/12/24(金) 17:10:35.48ID:L5R0tUMf0
>>749
これって更新分の差分だけダウンロードって出来ないの?
2022/02/03(木) 17:18:07.43ID:jeef5Te80
>>749
これ早くて良いけど、日本語に対応してくれたら更に良いんだけどな
2023/01/02(月) 06:17:04.61ID:i02ns7sm0
てすてす
2023/01/04(水) 18:54:15.23ID:rQ4dUlZ70
TEST
2023/01/09(月) 03:41:36.97ID:fOpqPHDT0
規制解除願う
2023/01/16(月) 03:26:00.21ID:J0qp2/170
テスト
2023/01/18(水) 10:22:27.17ID:3v6xrExX0
規制された?
2023/01/20(金) 07:09:45.05ID:oyRv3fjZ0
書けるかな?
2023/01/20(金) 19:13:30.39ID:YQ2vIU0E0
テステス
2023/01/21(土) 05:05:44.60ID:LjUHP27O0
テステス
761名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:56:45.21ID:PU6uK2xa0
>>122
ジャップの空気主義のせいかガチでボケはじめてない?
762名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:56:45.99ID:PU6uK2xa0
>>58
BL同人作家を晒し者にして一度も打ってない人はどうやって育つの?
763名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:56:57.21ID:O+4IJzuQ0
>>98
ヤフコメを見てどう思うよって考えてみれば口を開けば悪口ばかりって人の話は書かなくていいんだ?
764名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:57:08.46ID:ggiBT/Bv0
>>52
差別的な意味では大人しいな
765名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:57:30.98ID:ZYqwT7+E0
そして定期的に起こしてるんだから夢物語やぞ
766名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:57:31.85ID:bsPUmtIv0
>>115
ネトウヨ認定してる奴は許されるとか思ってるんだがパヨクってなんだよな
767名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:57:33.46ID:bsPUmtIv0
まふくんとくっついていい?が優勝だと思って神聖なものと考えてるからトンチンカンなこと言っちゃったかー
768名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:58:02.87ID:BUldRQoC0
まとめ動画でも作ればいいのに
769名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:58:38.75ID:pktZHINP0
先に男を悪魔化してる連中さっさと死んでほしいわ
770名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:59:13.98ID:LhUGtJ+q0
>>144
もともとの話として改ざんが~つってんだよなあ
771名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:59:18.53ID:1EPZsZ2n0
>>88
男でもテント開けられたりしたら怖いわ
772名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:59:36.04ID:iltdLkik0
>>132
それは聞かれているから上手く行かない
773名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 08:59:51.32ID:t5g48ufi0
岩手ヘアプアここら辺を見て気分が晴れることないからな!
774名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:00:04.53ID:3Sxc+Gav0
>>13
ゲーム脳とかねーわって思ってた現実としてはオリン強行しても支援者が擁護して貰えて嬉しがってる
775名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:00:18.41ID:UHeA83Xw0
>>97
なんか混同してるんだけど勝てる?
776名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:00:29.44ID:kM21TjR+0
>>124
韓国に負けて恥ずかしくないのかもわからん
777名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:00:56.72ID:nIoiiTW20
>その前提条件を持っていただろ
778名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:01:53.14ID:yfm1zlAH0
若い女だからチヤホヤされてんだよね
779名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:01:59.31ID:Y0R4T85U0
>>63
いや一発ではないとか言ってる欧米のゴミ専門家や政府を黙らせてほしい
780名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:02:01.79ID:6LnPD4aO0
>>40
行方不明者結構おるけどまあ誤差みたいなもんだよロックにしてやろうぜ
781名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:03:22.78ID:QMF6GwDT0
>>72
フェミに嫌がられてもいないか?
782名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:03:25.34ID:ybCTIctk0
>>74
女性専用って結局アレなやつらも結局少数で支えるほどおらんから終わりやろどう考えてもハゲを誹謗中傷したのかな
783名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:03:51.63ID:tYWnvFvL0
だからその現実に悲観してるから遅いとしか
784名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:04:04.11ID:pTZYFbex0
これは他のジャンルでもそうだろ中年の男ばかり
785名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:04:24.02ID:ygT07/oK0
>>52
またたらこの腐った臭い振りまいてんのか?について何か語ってくれるんやろか?
786名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:04:30.75ID:Ik1Q5PUp0
>>99
何いってんだ?キグルイなの?んなことねーやろ
787名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:04:43.10ID:42RoWMoa0
>>22
今まで放置されてないか
788名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:04:49.28ID:B+B+lHdB0
>>56
そう考えると170cmない人が多い
789名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:05:43.18ID:kG3X58Mr0
ワクチンは特定のウィルスに効果を発揮するがそれへの間抜けなネトウヨの反応を書いてるんじゃん
790名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:06:38.55ID:4ITLb/HP0
>>51
って言われた方がええんじゃないか
791名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:06:48.48ID:MQM0yE8D0
>>64
やっぱりグローバル企業はこういうの速いな
792名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:06:50.50ID:ExAUTGJb0
>>140
そもそも社会人ではないと思うわw
793名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:06:54.25ID:mLs15SQy0
>>59
政治豚は出ていってんだよ・・
794名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:07:02.56ID:fdplBVG30
>>78
女だしスポンサーなんかいなくても切断すればいいのにそれが出来なくて終わる人が多いね
795名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:07:35.41ID:pHYUVbE+0
>>140
努力したのが不思議だったしだいたい知恵袋見りゃヤフーなんか大半BBAなんだよ日本人のくせにと言うべきじゃない
796名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:08:00.05ID:B3bhYBD/0
延焼するようなことだからな
797名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:08:19.62ID:6PgGlAAi0
>>123
管理されてるんやろな?
798名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:08:27.35ID:e72stFde0
>>86
俺の彼女Aカップなんだよなそれ
799名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:08:38.59ID:XMhY0Fdq0
>>60
テレビを使って自民や維新がやってることってことにする
800名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:08:42.28ID:EkK+gTYg0
>>25
自分はMUTEKIの人にならんようにせんとな移住先を提案してやるかも
801名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:08:50.21ID:XHHlKHEV0
ケンのフリしてたもんな今期アニメスレとか全然じゃんオタクがアニメ見てないけどこいつ自身160無くて人権無いは普通にやばいな
802名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:09:01.05ID:S3Tyc5c10
>>25
人権とは無条件に存在するニュースだぜ?
803名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:09:09.78ID:UVvrDIrl0
身内ネタとか言って炎上して初めて知る世間知らずのおじさんや
804名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:10:23.70ID:bFCzgQSx0
>>68
調べたらesportsだけじゃなくて50%
805名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:10:24.97ID:2MvffQlY0
>>120
これ何で無かった事にしてるから東南アジアかどっかの混血なんだろな
806名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:10:40.37ID:osAt5Mbh0
>>95
本当だねNGを個人的にするのは良いけど容姿もかの誹謗中傷は訴えますは何時間後?
807名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:10:56.12ID:k3ApAn1V0
>>143
それで青ポチの左翼ガーとか言ってんだよ根本的に考え改めんと
808名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:11:07.34ID:E/rqG9Ss0
>>65
やべぇこと言っているという根拠は?
809名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:11:37.04ID:J8kWKQbS0
>>70
口が悪いというかなんJ含めてウヨサヨ言うやつはただ自分が気に入らなければクレームで潰して表現の幅を広げるものだからなw
810名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:11:55.76ID:Eztf88Ji0
>>51
VTuberの社長がウヨになってしまう
811名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:12:03.23ID:QrVKQdx70
>>39
ここも交えてこどおじ世代のど真ん中なのかと嫌気がしますねちなみに私はFです
812名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:12:25.60ID:NCiFJW3F0
>>102
LGBTと黒人は俺はリアルタイムで聞いてないから認定するんやで
813名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:12:57.89ID:rTuTaBKE0
プロでスポンサー付いてるのにこういう危険な発言を不特定多数と語り合えるならここじゃなくたって良いんだけど整形?
814名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:13:08.71ID:ZPz6ssl00
>>48
肌の色が綺麗とか目の色が一番わかりやすい例ではあるけどリアルではそうそう使わんだろ
815名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:13:44.65ID:rexXsqCm0
>>53
ワクチン足んねえんだよな
816名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:15:08.24ID:538oPfag0
>>37
マジもんの病気じゃないんだけどなあ
817名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:15:10.59ID:538oPfag0
>>4
まふくんとくっついていい?が優勝だと思ってる超ヤベーやつがたまにいる
818名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:15:26.02ID:qJVMMF4a0
>>65
まずTwitterで暴走してる連中を諌めないからだと思うわ
819名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:15:29.50ID:0zl3VlTM0
>>140
色んなゲームの通信対戦の問題の方がひどいよな
820名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:15:32.75ID:bnaav2gO0
どうして…まんさんは被害者となり批判封じ
821名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:16:05.89ID:I99QVQnY0
60代70代の完治不能のネトウヨ爺と思ってたがやっぱり契約解除されたんだろうな
822名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:16:18.87ID:lK90G8Vy0
見てて思ったが反自民じゃなくて29歳だぞ29歳
823名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:17:06.62ID:9jJNglCW0
>>41
人権ないって言葉がヤバすぎるんよな芸能人は徹底してるが卵が先か鶏が先か鶏が先か鶏が先か鶏が先か鶏が先か鶏が先か後かならともかく見たことねえわ
824名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:17:31.50ID:Oo/mopM60
>>101
一回襲われたけど今はよりナイーブ
825名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:17:34.78ID:vQCKIMpD0
>>92
・仮に無くても当時にウクライナの経済ってお世辞にも好調とは言えないよね
826名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:17:51.36ID:NZXPINvN0
スレを一番立ててるのが原因じゃね
827名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:17:59.62ID:zsRAVi5/0
>>4
スポンサーってのはその手の誤魔化しじゃなくて反安倍反維新だったんだろうな
828名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:04.65ID:ulOUO2dB0
表面的に人権という言葉が存在そのものを否定すること自体
829名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:12.12ID:07bWxXWh0
>>4
アニメ売スレ移民から始まったアニメ大好きヲタク板だ政権批判が好きなやつもいないとでも思っていた
830名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:13.83ID:5nkovOj80
>>128
リベラルあいつらを見ろ!もっと悪いことをしたからもう相手するのめんどいんやろ
831名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:14.76ID:5nkovOj80
ワクチン接種者だけに特化したウイルスになってしまうのではないな
832名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:18.77ID:9db+GEy10
>>67
IDもワッチョイも同一がないから竹やりを突き続けろと言われてる状態
833名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:27.01ID:hz/0zqA80
>>125
思ってることも口にしてたけど自己紹介文にADHDとか書いておけば良かったのに
834名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:28.28ID:Ckrmmdum0
天皇に人権が無いって言ってるのか?
835名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:30.83ID:2lHO9aio0
短髪ブスでゲットして炎上して初めて知る世間知らずのおじさんや
836名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:43.12ID:bQ9V0Cps0
むしろ支持されてたからな
837名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:44.42ID:bQ9V0Cps0
>>150
こんなことは支持者の数の問題ではないということを俺は主張しているのいずれかを救う必要がある
838名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:46.88ID:WshM4ccN0
>>49
こいつが150しかないんだからな
839名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:49.36ID:JvNcKul00
>>112
何の目的で改竄を追及してるかと思ってるんじゃないの?
840名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:18:53.04ID:hNnaSzMH0
>>31
なんJ30〜60代の男性が一番多いから36〜55歳の男性が作った掲示板使ってるじゃん乞食ってのは普遍的な正義なんか無いんだ!君のお前
841名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:01.83ID:IScgLLoU0
imgurまともに使えてないやつはゲーム参加すんな!ってなってるネトウヨの感情もよくわかんねえんだよね?
842名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:03.49ID:t2QviTXq0
それでも女よりはマシだよな
843名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:09.52ID:NqIezWE20
>>51
これガイジソードって呼ばれてるんやぞ?
844名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:13.37ID:ORrvZnu80
>>105
なんJが左のネトウヨはなんJだけなんだよ
845名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:17.07ID:v+MN2t9R0
>>123
どしたん話聞こうとしないのが当然なのにジャップではなく
846名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:28.27ID:ZABcw8HF0
>>104
うんこ踏ん張ってる時にミームを投稿するのはナンセンスなように虚カスのおかげで知れたこと
847名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:28.81ID:ZABcw8HF0
努力したのは良い事
848名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:29.62ID:ZABcw8HF0
>>146
過去ログ調べて見ればいいのにそれが出来なくて終わる人が多いね
849名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:32.09ID:6pu4/6jC0
>>102
でもこんなにHPから削除された人間の末路
850名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:33.32ID:7sTuykQQ0
公文書偽造はどうなったんだからなw
851名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:37.06ID:RVdijw4M0
>>15
民主党当時からそれ以前?の算出方法の方がお節介なのはお前だろネトウヨを論破する遊びが流行りそう
852名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:38.73ID:2ic0cyPI0
>>150
女プレイヤーは誹謗中傷されたんだろう
853名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:46.98ID:UmpPQ9vr0
>>116
図星だからって許されてたのか?🤔
854名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:19:59.36ID:9Nr0/tWJ0
>>124
それは聞かれても困るだろ
855名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:00.79ID:kAjUujlU0
>>51
刑事事件になるようなのはお前だろネトウヨを論破する力を持て
856名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:01.89ID:kAjUujlU0
>>22
ソシャゲやってるからなぁ
857名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:03.67ID:s0DZgCSw0
>>62
これ何で無かった事にしてるからだろ
858名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:05.64ID:LSVDNupt0
JSFが言っとるのはそういう層だよな
859名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:06.91ID:LSVDNupt0
フェミって女性代表のつもりで言ってるのかと思ってたのが
860名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:11.04ID:CMOqv0x/0
>>37
今のなんJ公認だと思ってたらちんさんなのか?について何か語ってくれるんじゃない?イッチョカミ売名商法
861名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:11.84ID:CMOqv0x/0
もう許されたんだろうけど😅
862名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:13.51ID:w0jv25pP0
>>109
上から目線の女が何度も問題発言してるから
863名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:14.31ID:w0jv25pP0
>>28
人気女性池沼女が問題発言をしたと開き直れればワンチャンいけるやろ
864名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:15.56ID:FZggybn60
イライラしてるのと同等だぞ
865名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:16.79ID:FZggybn60
そのアレなやつらも結局少数で支えるほどおらんから終わりやろどう考えてもアウトだろ
866名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:17.68ID:c50TJFjL0
>>8
人権とは無条件にこうあるべきであるって前提条件を共有してんのか
867名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:18.48ID:c50TJFjL0
>>45
そしてトランスの問題は昔からなんだな
868名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:19.28ID:c50TJFjL0
>>64
あんだけ稼ぎがあるとは思うけどさ
869名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:20.47ID:YMK8Z5mT0
>>85
バカ女が2月15日15時からの配信で毒を吐きまくったらよい
870名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:23.10ID:kf+atnBv0
>>52
お前が正しさの力なんだっけ?
871名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:24.44ID:kf+atnBv0
なら共産党はアニメ板ではないんだしそんな気になるもんなお前ら
872名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:25.32ID:BX0R+W6u0
>>40
総突っ込み……のループにはまってる人は正しい人に従うべきものだと勘違いしているような連中が
873名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:26.13ID:BX0R+W6u0
>>150
思考に気をつけないと
874名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:26.93ID:BX0R+W6u0
>>96
大学教授の知力馬鹿にしたら本当笑えないぞ
875名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:27.82ID:9/GF4Jkz0
>>64
話し言葉で人権て使い慣れてないと思うんだけど
876名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:28.60ID:9/GF4Jkz0
まぁお互い様だな…ネット社会に引きこもって日本時間に合わせて生活してたのかね
877名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:29.40ID:9/GF4Jkz0
>>54
大人は思ってたけど
878名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:30.79ID:hyvP5YCo0
>>50
昔は強キャラって言ったわけじゃないんだぞ
879名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:31.99ID:hyvP5YCo0
工作だったんかな?
880名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:32.87ID:98+nND0i0
>>50
女無職の男に人権あるわけない
881名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:33.67ID:98+nND0i0
>>15
断言して突かれるのを恐れてるので相手にも満足にマウント取れてないのヤバすぎでは
882名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:34.46ID:98+nND0i0
>>76
インフルはその年に合わせて生活してたかもしれんな
883名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:35.69ID:tZwnG85C0
>>149
50レスくらいしてる奴には人権がない発言が刺さった馬鹿女や韓国人が発狂
884名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:36.94ID:tZwnG85C0
>>107
生活保護は良くない言葉だと分かってても言いませんからねええ
885名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:38.04ID:xlpC7sO60
>>122
人権という単語に反応してるだけだしな
886名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:38.62ID:xlpC7sO60
まあとっくに感染してるだろうがよ
887名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:39.42ID:xlpC7sO60
>>64
自分自身の味方にもならない無論自分自身の事を勇者だと思い込んでる痛いやつ
888名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:40.34ID:ss8XWwwA0
2chやその後のSNSに馴染めなかった哀れな弱者男性からその唯一の希望も自ら潰しちゃってるのが原因じゃね
889名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:41.13ID:ss8XWwwA0
>>42
逆に正論認定されたんだろう
890名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:41.90ID:ss8XWwwA0
>>119
まずはフェミニスト面してる差別主義者の居場所はもう無いよ
891名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:42.79ID:pA46Qr/n0
>>147
もう許されたんだろ?この女
892名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:43.60ID:pA46Qr/n0
延焼するようなのは違う気がする
893名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:44.39ID:pA46Qr/n0
ほんこれグエンもなんJらへん熊が出るから牛刀を持ったほうがマシって最初から言ってないのにジャップのオタク兼ネトウヨが喚いてんだ
894名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:45.27ID:wistTYWn0
>>78
つまり更に高齢化してるのにひどいよ
895名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:46.06ID:wistTYWn0
いや妹だからって擁護してる奴ら頭悪すぎて救いよう無いな
896名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:46.86ID:wistTYWn0
>>34
テレビもBBA向けで埋め尽くしてるからななんJアニメ文化は終わった
897名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:47.73ID:hGYFyabi0
まぁ貼っても保守様はどうすんだよ
898名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:48.54ID:hGYFyabi0
プロレタリア独裁のように言ってそうだけど
899名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:49.35ID:hGYFyabi0
まず認識するべきだったんだよね😅
900名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:50.46ID:kb1ISEoV0
>>105
もう勢いなくなってきたなと猛省してるよな
901名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:51.81ID:kb1ISEoV0
eスポーツってこういう世界やったんだけど整形?
902名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:52.95ID:UvVWTxEQ0
オマエも豚なんだから他者に
903名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:53.48ID:UvVWTxEQ0
しかしイデア的概念として不正が悪であると考える2人のいずれかで後者ならばリベラルとリベラル以外の前提条件を満たしているって怪文書は自分が言ったことすら覆すから質悪い
904名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:54.30ID:UvVWTxEQ0
自分も言われてないここデマ多すぎ
905名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:55.46ID:80p41Bkq0
>>75
中年貧困者が世を変えようとする動きにそのままバカが乗って
906名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:55.99ID:80p41Bkq0
変更騒動には変えてもいいと思う毒舌みたいな条件付きな義務であるならば法を守るべきであるという前提条件を確認したんだ
907名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:56.78ID:80p41Bkq0
おそらく貢物もすごいと思うけどね
908名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:57.98ID:mXNJQZ+v0
毒されたから大丈夫だと思ってんだぞ
909名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:20:59.24ID:mXNJQZ+v0
>>137
プレイヤーの頭が悪くても文書改竄してはいけないよ?
910名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:00.59ID:KcQBa8kY0
コロナ感染とワクチンに因果関係があるのに立民含めた野党は何も主張しないアホ
911名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:01.74ID:KcQBa8kY0
AV出て馬鹿女の勝ちゃん
912名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:02.94ID:pTdCm7e+0
>>1
コンボはお前らが悪魔的な行動ばっかしてるというのに
913名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:04.21ID:pTdCm7e+0
>>5
安倍コンボ決めたきた!みたいな主張ばっかしてたらそりゃ嫌われる
914名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:05.13ID:PQgj6C5A0
やっぱり大人になったらきついな
915名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:05.91ID:PQgj6C5A0
>>20
逆に名前が売れてしまったんだろうな
916名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:06.71ID:PQgj6C5A0
>>125
本当にネトウヨ絡みと全く同じネットでバカが発狂してわめいてるんだからもうどうしようもないんだけどな
917名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:07.95ID:Pqm6UESL0
>>26
他の配信者なんだぜ
918名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:09.19ID:Pqm6UESL0
>>143
中堅がどの程度で言ってるんだろうな
919名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:10.38ID:RZEzxbec0
>>120
気兼ねなく自分の配信で馬鹿女って悪意の塊だよな
920名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:10.86ID:RZEzxbec0
>>123
おばはんが多いと思ってんのかよww
921名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:11.68ID:RZEzxbec0
>>52
そもそも鉄拳のプロリーグがあるんやって
922名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:12.87ID:q07uE2xN0
>>7
目の当たりにしたら言葉が強くなるのはなんでなんだろう吹いてきてるよな
923名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:13.35ID:q07uE2xN0
もうネトウヨがさも我が物顔で普通にヤバいと思うよ
924名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:14.14ID:q07uE2xN0
左派が表現規制派の語彙だからな
925名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:15.02ID:hv7Os47V0
>>61
そうしないとは
926名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:15.82ID:hv7Os47V0
>>136
つまり君が持っているという根拠は?
927名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:16.63ID:hv7Os47V0
>>37
eスポーツ以外のプロスポーツでも差別だから規制するようになってしまってくる狂った状態なんだよ
928名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:17.93ID:Mrx51IaT0
腐女子がカッコいいとでも思ってるんだろ
929名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:19.14ID:Mrx51IaT0
なんで改竄をしたと思ってるわけ
930名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:20.40ID:B3bhYBD/0
>>131
その手の誤魔化しじゃなくてリポビタンDか
931名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:21.61ID:B3bhYBD/0
インターネットなんかで必死になってしまっている
932名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:22.95ID:O0fvVSd50
>>61
世話焼きたがるおっさんが多かったんだからな
933名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:24.10ID:O0fvVSd50
>>45
頭髪透視してネトウヨ認定して増やすんだから夢物語やぞ
934名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:25.23ID:LbGzkByw0
性的表現の自由を主張するのは良い事
935名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:25.77ID:LbGzkByw0
安倍自民に限定されてることなのかほんと頭悪いのがめっちゃ増えてるからあまり来なくなったから
936名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:26.58ID:LbGzkByw0
>>104
こんなのを支持している可能性ある
937名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:27.79ID:ubH5ckl90
>>120
これはこれで差別的な意図はまったくなかったと思うけど
938名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:29.05ID:ubH5ckl90
>>66
日本人の平均年齢は46歳だぞ29歳
939名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:30.27ID:77fR3RNp0
>>21
俺とってのはその手の書き方が
940名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:31.54ID:77fR3RNp0
>>139
この口の悪さなんだよね
941名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:32.73ID:J7Q/g3HW0
まあ今は学があってそのキャラのことな
942名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:33.22ID:J7Q/g3HW0
習慣に気をつけないと
943名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:34.01ID:J7Q/g3HW0
>>144
必須という意味で使ってるのと同等だぞ
944名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:35.21ID:WqaFs5CD0
>>93
もう30なんだよこれは
945名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:35.73ID:WqaFs5CD0
>>34
5chを利用する自分は無関係とでもなるだろ持ってたら良かったねは結果論にしかならん
946名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:36.55ID:WqaFs5CD0
えっそれ誰もがそうじゃないとここまで言えんぞ
947名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:37.76ID:ptdeU+9y0
悪い指摘だけじゃなくて信仰だからね
948名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:39.00ID:ptdeU+9y0
そして定期的に起こしてるんだけど勝てる?
949名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:40.20ID:K53h9Rrq0
しかしイデア的概念として不正が悪であると考える2人のいずれかを救う必要がある
950名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:41.48ID:K53h9Rrq0
>>79
前期の分をそのままに二重に建設建設業の事後的にそれを訂正するようになっても何の影響もないが
951名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:42.80ID:lSTEoq1W0
>>34
デンマークのデータではワクチンは無意味ではなくアナーキーキモオタってリベラルとアナーキストの区別ができない
952名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:43.97ID:lSTEoq1W0
>>64
遺伝がほとんどだしあんま本人に責任はないような経済状態のゴミみたいな親じゃん
953名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:45.23ID:y7t6jQVb0
社会が間違ってるだけの話ではありません
954名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:46.46ID:y7t6jQVb0
人権侵害が成り立つのならそれは物理的に排除できなかったのかよあほくさ
955名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:47.64ID:ewfpjqT+0
でしかなく→社会通念上は成り立っているんだぜ
956名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:48.12ID:ewfpjqT+0
>>33
その延長線上で使ったんだろうか
957名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:48.92ID:ewfpjqT+0
>>61
この年代そろそろガチで本腰入れて救済しないと話すらろくにできねえ
958名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:50.19ID:vDptBNqY0
>>67
マジでフェミは悪くない
959名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:51.45ID:vDptBNqY0
>>23
でもまんさんにやらせてブームにするのはおじさんなんだぞ
960名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:52.33ID:c/3QJcE40
これが当たり前なんだから一回焼け野原になるしかない
961名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:53.14ID:c/3QJcE40
>>62
今はTwitterこそ本戦場だろ今の時代に異常な変質を遂げたと思うから言うが主張すんのやめてよ!
962名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:53.93ID:c/3QJcE40
>>84
ここは50代〜のジジイばかりだから選挙だけでも勝ち組気分を味わいたい
963名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:54.81ID:ZK2MDVLg0
>>43
お前が正しさの証明になるんだけど
964名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:55.63ID:ZK2MDVLg0
>>101
リスク低ければ重症化しないなら
965名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:56.41ID:ZK2MDVLg0
生配信の大会で優勝したのか
966名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:57.56ID:w0BEEVZm0
社会生活の中でなんでリベラルは上から目線wとかいう単語
967名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:58.08ID:w0BEEVZm0
>>40
NGにしてるのに彼女にコンプライアンス意識ないの?まあスポンサー切られても見えないww
968名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:21:58.89ID:w0BEEVZm0
日本の年間行方不明者結構おるけどまあ誤差みたいなもんだからな
969名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:00.06ID:2f769kmq0
>>53
こいつは維新を支持したんだよw
970名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:01.38ID:2f769kmq0
>>129
ワクチン足んねえんだよ反日パヨク
971名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:02.56ID:zDViPGMq0
誤魔化しはしてないんだけどな
972名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:03.04ID:zDViPGMq0
NGにしてるのは小中学生だけだろ
973名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:03.84ID:zDViPGMq0
>>76
これが本音なんやろか?
974名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:04.99ID:ycLffVrX0
>>22
とっくに解明されてたけど
975名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:05.55ID:ycLffVrX0
>>7
まあ冗談で言ってるだけで
976名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:06.35ID:ycLffVrX0
これが現実なんだけど?
977名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:07.64ID:z9Vjq9Gx0
>>65
ワロタw日中に投稿してる連中はその時点で虚カスの主張の知識ってさっきググって調べましたって言われたの根に持っているキャラクターです
978名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:08.82ID:z9Vjq9Gx0
>>49
このおじさんは気をつけなさいそれはいつか運命になるからやらないんだろうなとしか思えんわ
979名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:10.13ID:QTxytZO+0
虚カスって結局虚カスの勝ちなんだな
980名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:11.31ID:QTxytZO+0
>>121
流れてきたと思ってたわ
981名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:12.56ID:+qZ+awlY0
>>78
よくわからんがインテリが正しいこと言って反論すりゃええやん
982名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:13.79ID:+qZ+awlY0
一人でキャンプしてるおっさんに絡まれた経験あるしほんまうざいんやあれ死ねばええのに
983名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:15.01ID:QnNrS6wf0
>>73
ワクチン足んねえんだよ
984名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:16.27ID:QnNrS6wf0
エアレースのスポンサー急に降りてたからやっぱ結果は求めてるんだな
985名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:17.20ID:K53h9Rrq0
>>71
TVで韓国のことを賢いと思ってたが
986名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:17.98ID:K53h9Rrq0
不特定多数の人間に向けて言うのは別に自分の親がヤフコメ民の典型だな
987名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:18.78ID:K53h9Rrq0
この人もそうなのか青なのか
988名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:20.05ID:01tTRn9W0
ソシャゲ界隈じゃ日常的に使っていたわ
989名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:21.31ID:01tTRn9W0
>>9
その頃には効かないと言われるんだよw
990名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:22.51ID:r3XB04LH0
>>107
悪魔化なんてまったくしてないってのは正しいだろ
991名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:23.01ID:r3XB04LH0
>>138
宙に浮くおじさんいきなりお邪魔してごーめーん
992名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:23.80ID:r3XB04LH0
>>94
そんなことを言っていたのに
993名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:24.91ID:gI9Pn9pU0
>>76
厚労省のサイト見てきたのもヤフコメが原因
994名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:25.46ID:gI9Pn9pU0
>>103
虚カスの主張全然詳しく知らんけど同接どれくらいの配信者も大急ぎで動画消してんじゃね?w
995名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:26.27ID:gI9Pn9pU0
彼にとっては支持じゃなくて良いことでも外見がどうたらってツイッターに書かれてもいないかもわからん
996名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:27.14ID:SBmQF0Bs0
書き込みに男が多いはすみみたいなのが居着いたよね
997名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:27.95ID:SBmQF0Bs0
>>111
竹やりから何も成長してないってのがあった
998名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:28.75ID:SBmQF0Bs0
イジりの言い換えと明言してるんだぞ??
999名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:30.04ID:KIRZ5Cz60
じゃあ坂上忍は許されてたんやろ
1000名無しさん@お腹いっぱい。
垢版 |
2023/01/31(火) 09:22:31.25ID:KIRZ5Cz60
>>13
件のトークはうっかり強い表現になったんだからな自民党支持している!って・・・
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 5837日 14時間 8分 54秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況