ProxydomoはProxomitronのクローンソフトProximodoを基にして作られたプロクシフィルタリングソフトです
---- 配布・公式サイト ----
amate/Proxydomo
https://github.com/amate/Proxydomo
lafe @ ウィキ - Proxydomo
http://www31.atwiki.jp/lafe/pages/37.html
---- 関連スレ ----
【前スレ】Proxomitron Part 31
http://peace.2ch.net/test/read.cgi/win/1328625684/
Proxomitron フィルター作成スレッド Part15
http://anago.2ch.net/test/read.cgi/software/1383031170/
【Proxomitron】 proximodo 【後継】
http://pc11.2ch.net/test/read.cgi/software/1110563904/
探検
【Proxomitron】 Proxydomo 【Proximodo】 [転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
2014/11/20(木) 16:04:08.07ID:Q4ADF6yH02018/05/08(火) 16:09:18.71ID:VxVilK3l0
それはWin10のバージョン
2018/05/08(火) 16:45:20.04ID:fMcMbzLm0
2018/05/08(火) 22:43:56.43ID:Cg2gJBL20
>>621
Win10 RS3だけどIE11で使えたよ
Win10 RS3だけどIE11で使えたよ
2018/05/08(火) 22:49:29.25ID:J4M4f0Wm0
送信ヘッダフィルタを作る→ヘッダ名をAcceptにする→OKで閉じる
→再度開く→ヘッダ名が勝手にAccept-Languageになっている
→この時点では内部的にはちゃんとAcceptだが、そのままOK押して閉じてしまうとAccept-Languageになってしまう
→再度開く→ヘッダ名が勝手にAccept-Languageになっている
→この時点では内部的にはちゃんとAcceptだが、そのままOK押して閉じてしまうとAccept-Languageになってしまう
2018/05/08(火) 22:55:01.42ID:8wM5JgmK0
他で普通に通信できてて何で「domoはwin10で使えない?」って質問になるんだ
2018/05/08(火) 23:11:16.19ID:/MV2Ebou0
それもそうだし、ログすら見ようとしないのが何ともねえ
大方、セキュリティソフトのプラグインが噛んでるとかのような気もするが
大方、セキュリティソフトのプラグインが噛んでるとかのような気もするが
2018/05/09(水) 00:15:00.48ID:ZSKfuFza0
ログ見てもまっさらなんだもの・・・どうしろと
https://iecvlist.microsoft.com/ がrecentに残ってるくらい
あとwin10触り始めてる最中だからよくわかってないのは確か
ごめんね
>>626
古いのだといいのかな
てか最新でも俺は使えてるって人いないのかな
https://iecvlist.microsoft.com/ がrecentに残ってるくらい
あとwin10触り始めてる最中だからよくわかってないのは確か
ごめんね
>>626
古いのだといいのかな
てか最新でも俺は使えてるって人いないのかな
2018/05/09(水) 00:24:09.71ID:gMmKzKkw0
まっさらっていうのも情報なんやで
2018/05/09(水) 11:54:16.30ID:sPsN2b+j0
起動したとき、ポートの受け待ちはされてるか確認
netstat -a -p tcp
これで127.0.0.1:指定ポートがLISTENING状態にあるかどうか
netstat -a -p tcp
これで127.0.0.1:指定ポートがLISTENING状態にあるかどうか
2018/05/10(木) 00:10:28.26ID:U/NLApYP0
TCP 127.0.0.1:6060 DESKTOP-LMFMB29:0 LISTENING
ってなってるからこれでいいのかしら
使用ポートは6060ね
ってなってるからこれでいいのかしら
使用ポートは6060ね
2018/05/10(木) 01:16:00.01ID:tMuzNvGQ0
2018/05/10(木) 06:58:14.44ID:F19H2iIe0
単にIE側の串設定とちってるだけとか
636名無しさん@お腹いっぱい。
2018/05/13(日) 23:02:20.90ID:5ZrtIVTz0 やっと原因がわかったよクソが
ダメ元で全部許可してあげたら通信できた
一個一個リストの上から外していって、windows_ie_ac_001ってののチェック外すとIEでも通信できなかった
こいつか・・・
ダメ元で全部許可してあげたら通信できた
一個一個リストの上から外していって、windows_ie_ac_001ってののチェック外すとIEでも通信できなかった
こいつか・・・
2018/05/13(日) 23:25:39.13ID:ingTgpXg0
調べたら拡張保護モードか
https://blogs.msdn.microsoft.com/ieinternals/2012/03/23/understanding-enhanced-protected-mode/
Loopback-blockedって思いっきり書いてるわ
そりゃ繋がらんわな…
自分の環境でもIEの設定で拡張保護モードを有効にしたら繋がらなくなるのを確認したわ
https://blogs.msdn.microsoft.com/ieinternals/2012/03/23/understanding-enhanced-protected-mode/
Loopback-blockedって思いっきり書いてるわ
そりゃ繋がらんわな…
自分の環境でもIEの設定で拡張保護モードを有効にしたら繋がらなくなるのを確認したわ
638名無しさん@お腹いっぱい。
2018/05/13(日) 23:26:16.90ID:TdPErhtc0 で、ググる限りwindows_ie_ac_001ってのは拡張保護モード関連?
こいつが生きてるとスクリプトも動かないし、かざぐるマウスがwin10のIEで使えないのもこれのせい
いつ有効にしたか覚えてないけど、今後はインスコするたびに拡張保護モードは殺すことを心に誓った
こいつが生きてるとスクリプトも動かないし、かざぐるマウスがwin10のIEで使えないのもこれのせい
いつ有効にしたか覚えてないけど、今後はインスコするたびに拡張保護モードは殺すことを心に誓った
2018/05/15(火) 00:27:32.73ID:Rh10TGgl0
遅すぎ
firewall関連疑われたら最初に全部無効にしてみるもんだろ
firewall関連疑われたら最初に全部無効にしてみるもんだろ
2018/06/01(金) 20:14:16.46ID:CR0DcnPz0
5chブラウザに貼られた動画のURLもdomoを経由してしまうわけですが
音声が微妙に変化したりよろしくないのでどうにか回避する方法ありませんか
音声が微妙に変化したりよろしくないのでどうにか回避する方法ありませんか
2018/06/07(木) 15:45:30.58ID:vIaMrbWa0
最近のページで増えてきたUnicodeの
エスケープとアンケスケープコマンドがほしい
「\u3042」←→「あ」みたいな
エスケープとアンケスケープコマンドがほしい
「\u3042」←→「あ」みたいな
2018/06/07(木) 19:03:40.49ID:S+jlGSR20
utf16-leか
2018/06/07(木) 20:16:31.66ID:vIaMrbWa0
弄りたいのはJavaScriptやJSON内で
エスケープされた日本語文字列なのでUTF-16で。
抜き出してもそのまま出力できないので辛い
エスケープされた日本語文字列なのでUTF-16で。
抜き出してもそのまま出力できないので辛い
2018/06/08(金) 04:13:22.64ID:btAZdBvj0
>>643
javascriptでなら内部コード(つまり普通の漢字の文字列)に変換できる
偶然うまくいっただけで、これで正しい方法なのかは知らん
var txt1="\\u3042\\u3044\\u3046";
var txt2;
txt2=eval('"'+txt1+'"');
document.write(txt1+" -> "+txt2+"\r\n");
javascriptでなら内部コード(つまり普通の漢字の文字列)に変換できる
偶然うまくいっただけで、これで正しい方法なのかは知らん
var txt1="\\u3042\\u3044\\u3046";
var txt2;
txt2=eval('"'+txt1+'"');
document.write(txt1+" -> "+txt2+"\r\n");
2018/06/08(金) 04:15:34.18ID:btAZdBvj0
あ、ごめん
そういうことじゃないのか
そういうことじゃないのか
2018/06/08(金) 05:20:30.98ID:dvVSmMB00
>>643
pixivだとして
JavaScript内の(文字列)utf16-leをcp932にしても意味ないよ?
具体的な使用方法書かなければ回答のしようがない
たとえば
cp932しか対応してないrssリーダーとかでhtml形式を扱う為にProxomitronを経由してるなら
最初からperlでスクリプト組むべき
pixivだとして
JavaScript内の(文字列)utf16-leをcp932にしても意味ないよ?
具体的な使用方法書かなければ回答のしようがない
たとえば
cp932しか対応してないrssリーダーとかでhtml形式を扱う為にProxomitronを経由してるなら
最初からperlでスクリプト組むべき
2018/06/08(金) 05:33:15.47ID:CW6tEdQn0
単にフィルターにズラズラ書くのが面倒とか見難いとかじゃないの
2018/06/08(金) 08:05:17.66ID:dK69Ves80
>>646
cp932とかの文字コード間エンコードでなく単にJSのunescapeしたいんだろ
となるとutf16-leじゃなくてutf16-beじゃね?
utf16-be版$UESCが欲しいってことだな
cp932とかの文字コード間エンコードでなく単にJSのunescapeしたいんだろ
となるとutf16-leじゃなくてutf16-beじゃね?
utf16-be版$UESCが欲しいってことだな
2018/06/08(金) 19:03:30.26ID:dvVSmMB00
>>648
utf16-beだった
utf16-beだった
2018/06/19(火) 04:33:23.23ID:u7meGaU/0
ある部分が後から読み込まれるようなページに、フィルタをかけることは出来ますか?
因みに、先に読み込まれる部分にフィルタをかけると、思い通りに動作するので、URLマッチ等は間違っていません。
因みに、先に読み込まれる部分にフィルタをかけると、思い通りに動作するので、URLマッチ等は間違っていません。
2018/06/19(火) 07:58:06.17ID:j7eTeQlr0
できます
2018/06/19(火) 17:40:47.13ID:lqquMW1c0
>>651
その方法を教えて下さい
その方法を教えて下さい
2018/06/19(火) 20:30:26.51ID:R9/s09Mo0
後から読み込まれる部分の実際のレスポンスデータを見てフィルタ書けばいい
Ajaxか何かでリクエストが発生するなら、呼び出し元ページのURLと違ってマッチしない場合があるから要確認
レスポンスの Content-Type ヘッダが JavaScript や XML になってるなら、ヘッダを書き換えるか $FILTER(true) でフィルタリング出来るようにしてやる
Ajaxか何かでリクエストが発生するなら、呼び出し元ページのURLと違ってマッチしない場合があるから要確認
レスポンスの Content-Type ヘッダが JavaScript や XML になってるなら、ヘッダを書き換えるか $FILTER(true) でフィルタリング出来るようにしてやる
2018/06/20(水) 16:56:45.43ID:7Bcg2rST0
2018/06/30(土) 12:12:07.73ID:jF7snp/40
テレビ王国がhttpsしか繋がらなくなった為、開発終了の非対応ソフトで
http://tv.so-net.ne.jp/chart/cs/skylist.action
↓
https://tv.so-net.ne.jp/chart/cs/skylist.action
[HTTP headers]
Key = "URL: tv"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/\0$RDIR(https://tv.so-net.ne.jp/chart/\0)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
とかだけでは無理なのでしょうか?
http://tv.so-net.ne.jp/chart/cs/skylist.action
↓
https://tv.so-net.ne.jp/chart/cs/skylist.action
[HTTP headers]
Key = "URL: tv"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/\0$RDIR(https://tv.so-net.ne.jp/chart/\0)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
とかだけでは無理なのでしょうか?
2018/06/30(土) 15:07:52.50ID:+SdGskNY0
[HTTP headers]
Key = "URL: new filter"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/cs/skylist.action$URL(http://)"
Bounds = ""
Limit = 256
Match = "http://tv.so-net.ne.jp/chart/cs/skylist.action"
Replace = "http://\xhttps.tv.so-net.ne.jp/chart/cs/skylist.action"
そういうときはURLコマンドの\xhttps.を使う
Key = "URL: new filter"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/cs/skylist.action$URL(http://)"
Bounds = ""
Limit = 256
Match = "http://tv.so-net.ne.jp/chart/cs/skylist.action"
Replace = "http://\xhttps.tv.so-net.ne.jp/chart/cs/skylist.action"
そういうときはURLコマンドの\xhttps.を使う
2018/06/30(土) 18:09:13.90ID:jF7snp/40
2018/07/10(火) 00:54:11.54ID:4HuaFGKr0
モニタのサイズによってはフィルタ編集のフォントが少々見づらい程小さくなってしまうのですが、
このフォントを大きくするにはシステム全体のフォントごと大きくするしかないのでしょうか?
このフォントを大きくするにはシステム全体のフォントごと大きくするしかないのでしょうか?
2018/07/10(火) 02:09:35.99ID:UoeOWgAx0
2018/07/10(火) 07:04:36.21ID:4HuaFGKr0
2018/07/21(土) 09:44:48.93ID:ERM8g6Um0
Proxydomoって同じフィルタをもう一回インポートするとダブっちゃうんだけど、そういうもの?
2018/07/21(土) 09:59:17.70ID:Yy3DSwCw0
はい
2018/07/21(土) 14:20:32.56ID:ERM8g6Um0
じゃあきらめる
2018/07/26(木) 04:55:47.93ID:RkOVXW5s0
ちょっとスレチだけどhostsスレでスルーされたので質問
どんなHost:ヘッダを送っても必ず空ページを返すIPアドレスってないですか?
hostsで遮断した広告を127.0.0.1送りにするとエラー画面が表示されて汚いので、信用できるどこか送りにしたい(ローカルHTTPdは立てられない)
どんなHost:ヘッダを送っても必ず空ページを返すIPアドレスってないですか?
hostsで遮断した広告を127.0.0.1送りにするとエラー画面が表示されて汚いので、信用できるどこか送りにしたい(ローカルHTTPdは立てられない)
2018/07/27(金) 00:15:41.89ID:q0XSUVIx0
tp://local.ptron/hoge.html
とかにすればいいよ
用意したhtmldomoのhtmlフォルダへ
とかにすればいいよ
用意したhtmldomoのhtmlフォルダへ
2018/07/27(金) 09:33:35.88ID:Xja9Im790
>(ローカルHTTPdは立てられない)
この時点で無視案件でしょ
質問内容からしてソフトをインストールする気はないようだし・・・
>>664
firefoxにRequestPolicy入れて使え
ttp://egg.5ch.net/ を表示したら許可指定するまでegg.5ch.net以外からは読み込まないってプラグイン
この時点で無視案件でしょ
質問内容からしてソフトをインストールする気はないようだし・・・
>>664
firefoxにRequestPolicy入れて使え
ttp://egg.5ch.net/ を表示したら許可指定するまでegg.5ch.net以外からは読み込まないってプラグイン
2018/07/27(金) 20:27:49.96ID:u37rL6wq0
スルーされたんじゃなくて、ねぇのよ
何をリクエストされても空を返すだけのサイトなんて
何をリクエストされても空を返すだけのサイトなんて
2018/07/27(金) 21:45:48.60ID:mOmp+yEC0
2018/07/29(日) 21:31:49.23ID:sjgiL9Ip0
そりゃ可能だわな
けれどそれが誰でも自由に使えるものとして公開されているかは別の話
けれどそれが誰でも自由に使えるものとして公開されているかは別の話
2018/07/30(月) 04:57:55.00ID:O2UQvl1E0
ぐぐればperlで書いてあるHTTPdは落ちてる
あとは改変するだけ
あとは改変するだけ
2018/07/30(月) 06:57:22.85ID:M0Tgc+Pj0
2018/07/30(月) 10:25:25.98ID:gY8Zd52H0
元の質問無視してhttpd立てればおkと言われても
2018/07/31(火) 03:38:36.39ID:Sx/elMLx0
そもそもの質問がスレ違いだからまともに答えてくれる人が居ないだけ
674664
2018/07/31(火) 11:00:31.46ID:cPisCThd0 ひょっとしたらexample.comみたいに何かあるかなと思ったのですが、やっぱりないですよね
ありがとうございました
ありがとうございました
2018/07/31(火) 12:32:05.63ID:D7MT4PYP0
>>674
間違ってるかもしれないけど、試しにローカルファイルへ$JUMPリダイレクトすると
何故かサイズ0で返ってくる($REDIRは503エラーとなった)
[HTTP headers]
Key = "URL: URL REDIR"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "http://dummy.com/test.html"
Replace = "$JUMP(http://file//z:/x.html)"
間違ってるかもしれないけど、試しにローカルファイルへ$JUMPリダイレクトすると
何故かサイズ0で返ってくる($REDIRは503エラーとなった)
[HTTP headers]
Key = "URL: URL REDIR"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "http://dummy.com/test.html"
Replace = "$JUMP(http://file//z:/x.html)"
2018/07/31(火) 14:20:03.80ID:WmsY4puZ0
そもそもhostsとか言ってる時点でproxo使ってねえだろ
677名無しさん@お腹いっぱい。
2018/08/03(金) 18:33:04.29ID:Vj9bXIeD0 post文字列を書き換える方法を教えてください
よろしくお願いします
よろしくお願いします
2018/08/03(金) 20:01:50.33ID:Eun5xCLc0
2018/08/03(金) 21:50:21.69ID:Vj9bXIeD0
>>678
ありがとうございます
とあるツールが直接吐き出すリクエストを書き換えたいのでその方法は使えないんですよね…
phpとかちんぷんかんぷんなので他の方法を探すことにします
しかし、Proxydomoはとても有用なソフトだと思うんですが、
ヘッダを書き換えられるのにpostは不可というのは片手落ちというか、非常に惜しいですね…
ありがとうございます
とあるツールが直接吐き出すリクエストを書き換えたいのでその方法は使えないんですよね…
phpとかちんぷんかんぷんなので他の方法を探すことにします
しかし、Proxydomoはとても有用なソフトだと思うんですが、
ヘッダを書き換えられるのにpostは不可というのは片手落ちというか、非常に惜しいですね…
2018/08/13(月) 14:52:28.58ID:ilsWbKpN0
v1.106で効かなくなった
ログには表示されてる
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Active = TRUE
Multi = FALSE
Limit = 256
Match = "text/(^html)|application/(rss|json)"
Replace = "$FILTER(true)"
ログには表示されてる
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Active = TRUE
Multi = FALSE
Limit = 256
Match = "text/(^html)|application/(rss|json)"
Replace = "$FILTER(true)"
2018/08/13(月) 14:55:20.63ID:ilsWbKpN0
これが原因か
どう修正すればいいものか
>Content-Typeは受信ヘッダフィルターで処理されたものを見るようにした
どう修正すればいいものか
>Content-Typeは受信ヘッダフィルターで処理されたものを見るようにした
2018/08/13(月) 15:03:03.77ID:UpqIANon0
>>681
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "(text/(^html)|application/(rss|json))\0\1"
Replace = "\0\1$FILTER(true)"
そのフィルタじゃそもそもContent-Typeが消されるからまずいんじゃ
消してもブラウザが良しなにやってくれてたんでしょうが
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "(text/(^html)|application/(rss|json))\0\1"
Replace = "\0\1$FILTER(true)"
そのフィルタじゃそもそもContent-Typeが消されるからまずいんじゃ
消してもブラウザが良しなにやってくれてたんでしょうが
2018/08/13(月) 15:06:12.96ID:ilsWbKpN0
それは今まで手元のフィルタが不備だったのに動作してたのがおかしいという見解なんでしょうか
2018/08/13(月) 15:15:48.09ID:UpqIANon0
フィルタが動作してるのはおかしくないが
ブラウザにContent-Typeが通知されないのはまずかったかと
そこに書いてるのだけなら大した問題にはならないとは思うが
ブラウザにContent-Typeが通知されないのはまずかったかと
そこに書いてるのだけなら大した問題にはならないとは思うが
2018/08/13(月) 15:26:49.27ID:ilsWbKpN0
ありがとうございました
2018/08/13(月) 16:40:01.12ID:0zSJBx500
わざわざ取り込んで吐き出さなくても
Matchで$FILTER(true)したあと(^?)?とかでマッチ失敗させればいいんだぞ
Matchで$FILTER(true)したあと(^?)?とかでマッチ失敗させればいいんだぞ
2018/08/15(水) 01:27:41.94ID:dEcfLCR10
Proxydomo64 v1.105 / Windows7
$RDIRを使うとContent-Typeが変わってしまう
リクエストは動画投稿サイトの動画ファイルなんだがフィルターがマッチすると
video/mp4がapplication/octet-streamになってしまう
どうにかならないですかね
[HTTP headers]
Key = "URL: hoge foo12345678"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = FALSE
Multi = FALSE
URL = "vod.hoge.com/video/foo12345678*"
Bounds = ""
Limit = 256
Match = "*"
Replace = "$RDIR(http://file//X:/video/foo12345678.mp4)"
$RDIRを使うとContent-Typeが変わってしまう
リクエストは動画投稿サイトの動画ファイルなんだがフィルターがマッチすると
video/mp4がapplication/octet-streamになってしまう
どうにかならないですかね
[HTTP headers]
Key = "URL: hoge foo12345678"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = FALSE
Multi = FALSE
URL = "vod.hoge.com/video/foo12345678*"
Bounds = ""
Limit = 256
Match = "*"
Replace = "$RDIR(http://file//X:/video/foo12345678.mp4)"
2018/08/17(金) 12:53:27.68ID:sVkC9P6a0
その変換後のURLって表記正しいの?
っていうかローカルのファイルなんて読み込めるの?
そんな事可能だったらセキュリティガバガバじゃね?
っていうかローカルのファイルなんて読み込めるの?
そんな事可能だったらセキュリティガバガバじゃね?
2018/08/24(金) 15:05:25.22ID:Dyqq2L5a0
Proxomitron 時代から続いている疑問。
中身が空白だったり何もなかったりで余白だけができる要素にマッチさせて消すフィルタなのですが、テストではマッチしているのに実際の使用ではなぜか働きません。
$NEST(<(div|p)\1,>)(\s|\ |$NEST(<(span|br|font),>)| |\ |</(span|font)>)+</$TST(\1)>
(<p> </p> )+{1,*}
1行めは書きかけですが、このようにしたいと思っているもの。
反応がないので2行めのように簡略化してみたものの、これもテストでしか動作しません。
対象のサンプル
<div>
<p> </p>
<p> </p>
</div>
どうすれば希望通りになるのでしょうか。
お知恵を貸してください。
中身が空白だったり何もなかったりで余白だけができる要素にマッチさせて消すフィルタなのですが、テストではマッチしているのに実際の使用ではなぜか働きません。
$NEST(<(div|p)\1,>)(\s|\ |$NEST(<(span|br|font),>)| |\ |</(span|font)>)+</$TST(\1)>
(<p> </p> )+{1,*}
1行めは書きかけですが、このようにしたいと思っているもの。
反応がないので2行めのように簡略化してみたものの、これもテストでしか動作しません。
対象のサンプル
<div>
<p> </p>
<p> </p>
</div>
どうすれば希望通りになるのでしょうか。
お知恵を貸してください。
2018/08/24(金) 15:11:07.78ID:Dyqq2L5a0
1行めがうまくエスケープできませんでした。
|\ | ではなく |\&#160;| です。
|\ | ではなく |\&#160;| です。
2018/08/24(金) 16:33:35.98ID:+ahDiObR0
そもそも$NESTの使い方がおかしいような
$NESTのstart_matchは複数回呼ばれるから$TSTとの組み合わせは意図した動作にならないだろう
(<p> </p> )+{1,*}
二行目のこれはちゃんと動いたけど
ttp://www.geocities.jp/lafe_be/
フィルターのチェックを忘れてるとかWebページフィルターを有効にしてないというオチじゃないの
$NESTのstart_matchは複数回呼ばれるから$TSTとの組み合わせは意図した動作にならないだろう
(<p> </p> )+{1,*}
二行目のこれはちゃんと動いたけど
ttp://www.geocities.jp/lafe_be/
フィルターのチェックを忘れてるとかWebページフィルターを有効にしてないというオチじゃないの
2018/08/25(土) 14:02:45.65ID:VnXiw8ha0
>691
どうもありがとうございます。
$NEST の使い方はまだよく理解できない部分がありますので、自分のほうの問題ですね。
<p[^>]+>(\s|\ |$NEST(<(span|br|b|font),>)| |\ |</(span|b|font)>)+(</p>|(^(^<p>)))
このように $NEST $TST を使わないものも書いていますが、同じ結果になります。
[Patterns]
Name = "test"
Active = TRUE
Limit = 96
Match = "(<p> </p> )+{1,*}"
ttp://www.geocities.jp/lafe_be/
では私の環境でもマッチしました。
ttp://tokiwa-ran.hatenablog.com/
ではこちらではいかがでしょうか。私の環境ではマッチしませんでした。
共有のコンピュータを利用している都合で Proxydomo 最新版の使用には支障があるため、1.100 での実行結果です。
Proxomitron 4.5+7 でもマッチしません。
いずれもほかのページフィルタはマッチします。
どうもありがとうございます。
$NEST の使い方はまだよく理解できない部分がありますので、自分のほうの問題ですね。
<p[^>]+>(\s|\ |$NEST(<(span|br|b|font),>)| |\ |</(span|b|font)>)+(</p>|(^(^<p>)))
このように $NEST $TST を使わないものも書いていますが、同じ結果になります。
[Patterns]
Name = "test"
Active = TRUE
Limit = 96
Match = "(<p> </p> )+{1,*}"
ttp://www.geocities.jp/lafe_be/
では私の環境でもマッチしました。
ttp://tokiwa-ran.hatenablog.com/
ではこちらではいかがでしょうか。私の環境ではマッチしませんでした。
共有のコンピュータを利用している都合で Proxydomo 最新版の使用には支障があるため、1.100 での実行結果です。
Proxomitron 4.5+7 でもマッチしません。
いずれもほかのページフィルタはマッチします。
2018/08/25(土) 14:26:50.76ID:bw17btTf0
>>692
そのサイトのソース見て分かったわ
そのサイトの<p> </p>で囲まれているのはスペース(0x20)ではなく、
ノーブレイクスペースっていう特殊なスペースなんだ(0xA0)
オミトロンの仕様で半角スペースがマッチするのは
NUL(0x00) , HT(0x09) , LF(0x0A) , CR(0x0D) , SPC(0x20)
だけで、0xA0は含まれていないのでマッチしなかったっていうわけだ
(<p>( |[%A0]+)</p> )+{1,*}
と書き換えればマッチするはず
そのサイトのソース見て分かったわ
そのサイトの<p> </p>で囲まれているのはスペース(0x20)ではなく、
ノーブレイクスペースっていう特殊なスペースなんだ(0xA0)
オミトロンの仕様で半角スペースがマッチするのは
NUL(0x00) , HT(0x09) , LF(0x0A) , CR(0x0D) , SPC(0x20)
だけで、0xA0は含まれていないのでマッチしなかったっていうわけだ
(<p>( |[%A0]+)</p> )+{1,*}
と書き換えればマッチするはず
2018/08/26(日) 00:25:51.73ID:jgJoNLxL0
>>693
\sってdomoとかmodoでは使えないんだっけか
\sってdomoとかmodoでは使えないんだっけか
2018/08/26(日) 00:40:01.31ID:AVCDLyV10
2018/08/26(日) 12:56:30.96ID:G2VxT68X0
>693-695
おかげさまで長年の疑問が解決しました。どうもありがとうございます。
「ブロックリストは"[%aa][%ab][%ac]"などのエンコードがされている場合、元の文字列にデコードして、ファイルの文字コードをUTF8として保存してください」
と domo の説明にあるので [%A0] が使えるのかと思ったのですが、これで通りました。
ttp://gosyujin.github.io/2013/08/26/utf8-space-c2a0/
ttps://blog.fenrir-inc.com/jp/2011/06/post_51.html
non-breaking space のほかにも空白に見える文字はいくつかあるようです。
直接関係ありませんが、google 検索結果のフィルタを書いているときにゼロ幅の制御文字が含まれていて対応に苦慮したことを思い出しました。
おかげさまで長年の疑問が解決しました。どうもありがとうございます。
「ブロックリストは"[%aa][%ab][%ac]"などのエンコードがされている場合、元の文字列にデコードして、ファイルの文字コードをUTF8として保存してください」
と domo の説明にあるので [%A0] が使えるのかと思ったのですが、これで通りました。
ttp://gosyujin.github.io/2013/08/26/utf8-space-c2a0/
ttps://blog.fenrir-inc.com/jp/2011/06/post_51.html
non-breaking space のほかにも空白に見える文字はいくつかあるようです。
直接関係ありませんが、google 検索結果のフィルタを書いているときにゼロ幅の制御文字が含まれていて対応に苦慮したことを思い出しました。
697名無しさん@お腹いっぱい。
2018/09/05(水) 04:53:48.87ID:3b7Nose/0 いつもお世話になっております。
$FILE()を初めて使ってみたのですが、
[HTTP headers]
Key = "URL: okikae"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "google.co.jp/aaa*"
Bounds = ""
Limit = 1024
Match = "htt●://google.co.jp/(aaa*)\0"
Replace = "$RDIR("
"$FILE(略/u.txt)"
"\0)"
で、u.txtは、httpから始まるURLを一行記載して、Windowsのメモ帳でUTF-8で保存しました。
実際にページを読み込んでみると使えず、
ログウインドウには、h ttpと、2文字目にスペースのようなものが入っていて、これが原因かなという気がしてます。
Webページフィルタのテストウインドウでu.txtを使った場合、スペースらしきものは入ってません。
間違ってる部分のご指摘お願いします。
$FILE()を初めて使ってみたのですが、
[HTTP headers]
Key = "URL: okikae"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "google.co.jp/aaa*"
Bounds = ""
Limit = 1024
Match = "htt●://google.co.jp/(aaa*)\0"
Replace = "$RDIR("
"$FILE(略/u.txt)"
"\0)"
で、u.txtは、httpから始まるURLを一行記載して、Windowsのメモ帳でUTF-8で保存しました。
実際にページを読み込んでみると使えず、
ログウインドウには、h ttpと、2文字目にスペースのようなものが入っていて、これが原因かなという気がしてます。
Webページフィルタのテストウインドウでu.txtを使った場合、スペースらしきものは入ってません。
間違ってる部分のご指摘お願いします。
2018/09/05(水) 07:04:34.59ID:jbpUsDZu0
2018/09/21(金) 01:03:03.28ID:vMxolz3j0
初めてお世話になります。
$USEPROXYを使って5chだけProxyを通そうと思ったのですが
[HTTP headers]
Key = "URL: Proxy ON (Out)"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "[^/]++.5ch.net|[^/]++.bbspink.com"
Bounds = ""
Limit = 256
Match = ""
Replace = "$USEPROXY(True)"
どうにもうまく動作しないと言うか、
URLがhttpだと動作するのですがhttpsだと動作してくれません。
どこかが間違っているのか、そもそも$USEPROXYはhttpsでは動作しないのか、
どうかご教授よろしくお願いします。
$USEPROXYを使って5chだけProxyを通そうと思ったのですが
[HTTP headers]
Key = "URL: Proxy ON (Out)"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "[^/]++.5ch.net|[^/]++.bbspink.com"
Bounds = ""
Limit = 256
Match = ""
Replace = "$USEPROXY(True)"
どうにもうまく動作しないと言うか、
URLがhttpだと動作するのですがhttpsだと動作してくれません。
どこかが間違っているのか、そもそも$USEPROXYはhttpsでは動作しないのか、
どうかご教授よろしくお願いします。
700699
2018/09/21(金) 01:50:26.39ID:vMxolz3j0 すいません自己解決しました。
バイパスリストにhttps全部入れてたのをすっかり忘れてました…。
バイパスリストに例外指定として追記して解決しました。
バイパスリストにhttps全部入れてたのをすっかり忘れてました…。
バイパスリストに例外指定として追記して解決しました。
701名無しさん@お腹いっぱい。
2018/10/12(金) 18:29:26.35ID:umW4MkX+0 よろしくお願いします
とあるページ(hoge.htm)のソースが
1, 2, 3, ...
となっているのに対して
hoge.htm?num=1とアクセスすると
2, 3, ... が残り
hoge.htm?num=2とアクセスすると
3, ... だけが残るようなフィルターを作りたいのですが
Match = "$URL(hoge.htm?num=\1)[#0:\1], "
Replace = ""
上手くいかないです
どう修正すればいいですか
代替のコマンドとかあるのでしょうか
とあるページ(hoge.htm)のソースが
1, 2, 3, ...
となっているのに対して
hoge.htm?num=1とアクセスすると
2, 3, ... が残り
hoge.htm?num=2とアクセスすると
3, ... だけが残るようなフィルターを作りたいのですが
Match = "$URL(hoge.htm?num=\1)[#0:\1], "
Replace = ""
上手くいかないです
どう修正すればいいですか
代替のコマンドとかあるのでしょうか
2018/10/12(金) 20:43:40.33ID:Ge+sM7af0
そこでは変数展開できない
だからそのコードが意図した動作はできないが
ページ内で昇順に並んでるなら
URL = "hoge.htm\?num=\1$SET(num=\1)"
Match = "(^(^$TST(num),))$STOP()|[#0:*],"
こうも書けるだろう
だからそのコードが意図した動作はできないが
ページ内で昇順に並んでるなら
URL = "hoge.htm\?num=\1$SET(num=\1)"
Match = "(^(^$TST(num),))$STOP()|[#0:*],"
こうも書けるだろう
2018/10/12(金) 20:56:08.71ID:umW4MkX+0
(^(^...))は文字を消費しないのでマッチしても消えないと思うのですが...
$TSTは気づきませんでした。ありがとうございます。
$TSTは気づきませんでした。ありがとうございます。
2018/10/12(金) 21:05:35.79ID:tJm7lpom0
あ、一致するとこまで消すのか
直前までだと勘違いして、わざわざ先読みにしてしまった
直前までだと勘違いして、わざわざ先読みにしてしまった
2018/10/13(土) 11:31:46.41ID:+eKBHwmy0
701です
教えていただいたフィルターを使ってみたのですが
低頻度ではありますが例えばhoge.htm?num=2に対して2, 3, ...になることがたまに起こります
$STOP()が読まれた瞬間に置換が行われずフィルターが切られるのでしょうか
>>702のように数字を1つ増やして先読みさせると今の所おかしくはならないので修正してみます
ありがとうございます
教えていただいたフィルターを使ってみたのですが
低頻度ではありますが例えばhoge.htm?num=2に対して2, 3, ...になることがたまに起こります
$STOP()が読まれた瞬間に置換が行われずフィルターが切られるのでしょうか
>>702のように数字を1つ増やして先読みさせると今の所おかしくはならないので修正してみます
ありがとうございます
2018/11/03(土) 20:09:11.95ID:54oalD0t0
Proxomitron でいうところの http://file//path って使用可能なんでしょうか。
私の使い方が誤っているだけなのか、502 Bad Gateway になってしまいます。
bypass リストに local.ptron/(^test/) こんな風に書けば、http://file//path でなくても一応対応できるようですが……。
ただし Proxomitron でしか通用せず、Proxydomo では使えません。
私の使い方が誤っているだけなのか、502 Bad Gateway になってしまいます。
bypass リストに local.ptron/(^test/) こんな風に書けば、http://file//path でなくても一応対応できるようですが……。
ただし Proxomitron でしか通用せず、Proxydomo では使えません。
2018/11/04(日) 00:46:13.02ID:+D7YHoNs0
firefoxを使っていてIEで見ろと警告出す特定のサイトだけUSER-AGENTを偽装したいんだけど、
どのようにすれば良いですか?偽装自体は出来てます
どのようにすれば良いですか?偽装自体は出来てます
2018/11/04(日) 00:47:28.24ID:+D7YHoNs0
URLパターン、範囲のマッチのところがいまいちピンとこないです
2018/11/04(日) 03:21:53.16ID:aSvzWuZ30
2018/11/04(日) 04:07:59.16ID:+D7YHoNs0
かいけつしますたありがとう
711706
2018/11/04(日) 18:36:13.05ID:mzoldws/0 >>709
どうもありがとうございます。
ネットのない環境にサンプルを持ち込んでフィルタを書けるとうれしい状況でして。
Proxomitron で書けるだけ書いて Proxydomo に移植してみます。
どうもありがとうございます。
ネットのない環境にサンプルを持ち込んでフィルタを書けるとうれしい状況でして。
Proxomitron で書けるだけ書いて Proxydomo に移植してみます。
2018/11/05(月) 17:16:18.30ID:iVyOq4np0
2018/11/21(水) 15:15:52.77ID:1qfqCVJB0
DLsiteがSSLになってdomo通らなくなった
2018/11/21(水) 22:16:35.09ID:W0ou3/bU0
おまおれ
2018/11/22(木) 10:21:02.26ID:2V3Gj4yn0
証明書入れてSSLフィルタリングすればいいんでない、と試していたけど通らんな
2018/11/22(木) 22:24:48.28ID:pQnMoHQ60
サーバーの設定と証明書の設定が噛み合わないんだろうけど
無学な俺にはどうにもできない
無学な俺にはどうにもできない
2018/11/24(土) 21:13:51.08ID:T2dsWL6e0
www.kintetsu.co.jp
www.enfold.jp
www.nihonsekkei.co.jp
blog.so-net.ne.jpのブログ記事内画像(*.c.blog.so-net.ne.jp)
とか同じ証書書使ってるところ軒並みダメみたいね
www.enfold.jp
www.nihonsekkei.co.jp
blog.so-net.ne.jpのブログ記事内画像(*.c.blog.so-net.ne.jp)
とか同じ証書書使ってるところ軒並みダメみたいね
718名無しさん@お腹いっぱい。
2018/11/25(日) 12:16:04.60ID:Dm2Vk15B0 ublockで充分っすわ。
読み込みはやいのとcpu上がらないのが楽。
オミコとかももうフィルタ書くの面倒。
読み込みはやいのとcpu上がらないのが楽。
オミコとかももうフィルタ書くの面倒。
2018/11/25(日) 12:56:08.67ID:qPiVkkvQ0
なんでここみてんの?
720名無しさん@お腹いっぱい。
2018/11/25(日) 13:58:34.49ID:Dm2Vk15B0 >>719
オミコのほうが楽かな?って検索してたらここへ来ただけです。すみませんでした。
オミコのほうが楽かな?って検索してたらここへ来ただけです。すみませんでした。
2018/11/25(日) 18:46:31.41ID:Dm2Vk15B0
だけど、よく調べたらadblock形式通るって凄いかも。なんか久しぶりに熱くなったw
追悼
追悼
2018/11/27(火) 08:22:00.48ID:J/hnZmVq0
adblock形式ってリスト読み込むけど
どんなフィルタになるんですか?サッパリですわ。しかもcpu暴れて昔を思い出しました。
どんなフィルタになるんですか?サッパリですわ。しかもcpu暴れて昔を思い出しました。
723名無しさん@お腹いっぱい。
2018/11/27(火) 13:41:17.73ID:qJsLGjTZ0 [HTTP headers]
Key = "URL: touhu"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "$LST(touhu)"
Bounds = ""
Limit = 256
Match = ""
Replace = "\k"
普通のキルリストと同じようにする
Key = "URL: touhu"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "$LST(touhu)"
Bounds = ""
Limit = 256
Match = ""
Replace = "\k"
普通のキルリストと同じようにする
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- バリ島で男子生徒ら集団万引きか、防犯カメラ映像が拡散 京都の大谷中学・高校が「窃盗行為」謝罪★3 [七波羅探題★]
- 【速報】 米トランプ政権声明 「中国が台湾を奪おうとする、いかなる試みも阻止する」 中国「レッドラインだ」 [お断り★]
- 高市内閣「支持」64%「不支持」19% NHK世論調査 ★2 [少考さん★]
- 【東京】玉川高島屋「シャネル」で窃盗容疑 バッグ210万円相当、無職少年(18)逮捕 買い取り店で身分証提示できず売却失敗 [ぐれ★]
- 【維新】奥下衆院議員 政治資金でキャバクラとラウンジに支出 費用は返金へ 「国民の皆さんからすれば『税金で』という思いが強い」 [ぐれ★]
- 高市首相「多様なコメの増産を進める」 方針転換への懸念払拭狙いか ★2 [どどん★]
- ラーメンと電車とアニメとV好きなネトウヨ [907330772]
- ニュー速(嫌儲)「撮り鉄を叩いているのはネトウヨ。ケンモメンは撮り鉄を叩かない。撮り鉄は嫌儲公認趣味」 [932029429]
- まったりおじゃる丸まったり待機スレ🏡
- 女っていらないよな
- イーノック、そんな装備で大丈夫か?
- 国民の半分が日中戦争を支持しているという現実…冷静に考えるとヤバイよ? [819729701]
