【Proxomitron】 Proxydomo 【Proximodo】 [転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
サポートの切れたOSはネットにつなげなければ何も問題起きない。 過去に厳重な警戒を突破して、地下金庫内のネットにつながっていないPCをハッキングしたクラッカーがいたらしいが。 スレチかもだけどProxHTTPSProxyMIIだったら
ブラウザ[平文]フロントサーバー[平文]オミトロン[平文]リアサーバー[暗号]インターネット
みたいにできる? httpsのページを表示する代わりに、ローカルのファイルを表示したいのですが、
こんな感じにしてもダメ(応答なしor502 BAD gateway)でした
JUMPの場合は表示したい内容になるのですが、それだと意味が無く…
どんな感じにしたらURLそのままでローカルのファイルを表示できますか?
[HTTP headers]
Key = "URL: okikaeru "
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "どめいん/aaa/"
Bounds = ""
Limit = 256
Match = "https://どめいん/aaa/*"
Replace = "$RDIR(http://ろーかるぷとろん/baka.txt)$STOP()" >>609
[HTTP headers]
Key = "URL: test"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "(egg.5ch.net/test/read.cgi/software/1416467048*)\0$RDIR(http://local.ptron/certificate_error.html)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
こっちではちゃんとリダイレクトされてるんだが レスありがとうございます
>>609
できました!!!
この場合ですと、元URLの一部を\1などにして、$RDIRの一部として使いたい場合はどうしたらいいのでしょうか? どうもこうも普通に使うだけ
egg.5ch.net/test/read.cgi/software/\1$RDIR(http://local.ptron/\1) 具体的なサイトになるんだが
twinaviへのSSL接続が失敗する
他のサイトは問題なく繋がる
フィルタを全部外しても同じ
バイパスにすると繋がる
証明書を消してもバイパスになるので繋がる
証明書を新しくしても種類を変えても繋がらない
初期化しても同じ >>614
ttps://twinavi.jp/
windows10
Proxydomo64 v1.105
firefoxでもvivalidでもironでも繋がるけど Proxydomo v1.105
Win8.1 32bit
Chrome 65.0.3325.181
ERR_CONNECTION_RESET って出る ツイナビ普通に繋がる
flashplayerのインストーラーがバイパスじゃないと繋がらない ipv6周り問題かもしれない
v1.98あたりの古いバージョンなら繋がるかも get.adobe.comをバイパスすればいいじゃん(いいじゃん)
慎重を期するならfpdownload.adobe.comも [#n:n]の表現で数字の変数をセットして
[#$GET(HOGE):$GET(HAGE)]みたいにできないですかね? もしかしてdomoってwin10で使えない?
1803を新規インスコしてdomo立ち上げてみたけどIEじゃ”プロキシ サーバーは応答していません”て言われて繋がらない
証明書を個人とルート証明機関と中間証明機関に置いてもダメ
1709なら・・・と思ったらこっちでもだんまり
試しに管理者で動かしても無理
Enable AppContainer LoopbackってIEには必要ないのよね?
何か他の設定が必要なのかしら 1803って何のバージョンだろ
ソースからビルドしてるんなら、取り合えずバイナリリリースのv1.105で試してみたら? >>622
IEとdomoはリストに無かったので許可で追加してみましたが変わらず
edgeはリストに入ってて許可にチェックありました
でもedgeにfirefoxにironportableもcyberfoxportableも普通に通信できてるんですよね
IEだけ”○○○からの応答を待っています〜”で待たされた挙句ダメっていう
>>623
>624の言う通りwin10のことね
1709がRS3で1803が先週出たRS4 >>621
Win10 RS3だけどIE11で使えたよ 送信ヘッダフィルタを作る→ヘッダ名をAcceptにする→OKで閉じる
→再度開く→ヘッダ名が勝手にAccept-Languageになっている
→この時点では内部的にはちゃんとAcceptだが、そのままOK押して閉じてしまうとAccept-Languageになってしまう 他で普通に通信できてて何で「domoはwin10で使えない?」って質問になるんだ それもそうだし、ログすら見ようとしないのが何ともねえ
大方、セキュリティソフトのプラグインが噛んでるとかのような気もするが ログ見てもまっさらなんだもの・・・どうしろと
https://iecvlist.microsoft.com/ がrecentに残ってるくらい
あとwin10触り始めてる最中だからよくわかってないのは確か
ごめんね
>>626
古いのだといいのかな
てか最新でも俺は使えてるって人いないのかな 起動したとき、ポートの受け待ちはされてるか確認
netstat -a -p tcp
これで127.0.0.1:指定ポートがLISTENING状態にあるかどうか TCP 127.0.0.1:6060 DESKTOP-LMFMB29:0 LISTENING
ってなってるからこれでいいのかしら
使用ポートは6060ね >>633
変だねえ、それで動作しないなんて
当然httpも試してるよね? やっと原因がわかったよクソが
ダメ元で全部許可してあげたら通信できた
一個一個リストの上から外していって、windows_ie_ac_001ってののチェック外すとIEでも通信できなかった
こいつか・・・ 調べたら拡張保護モードか
https://blogs.msdn.microsoft.com/ieinternals/2012/03/23/understanding-enhanced-protected-mode/
Loopback-blockedって思いっきり書いてるわ
そりゃ繋がらんわな…
自分の環境でもIEの設定で拡張保護モードを有効にしたら繋がらなくなるのを確認したわ で、ググる限りwindows_ie_ac_001ってのは拡張保護モード関連?
こいつが生きてるとスクリプトも動かないし、かざぐるマウスがwin10のIEで使えないのもこれのせい
いつ有効にしたか覚えてないけど、今後はインスコするたびに拡張保護モードは殺すことを心に誓った 遅すぎ
firewall関連疑われたら最初に全部無効にしてみるもんだろ 5chブラウザに貼られた動画のURLもdomoを経由してしまうわけですが
音声が微妙に変化したりよろしくないのでどうにか回避する方法ありませんか 最近のページで増えてきたUnicodeの
エスケープとアンケスケープコマンドがほしい
「\u3042」←→「あ」みたいな 弄りたいのはJavaScriptやJSON内で
エスケープされた日本語文字列なのでUTF-16で。
抜き出してもそのまま出力できないので辛い >>643
javascriptでなら内部コード(つまり普通の漢字の文字列)に変換できる
偶然うまくいっただけで、これで正しい方法なのかは知らん
var txt1="\\u3042\\u3044\\u3046";
var txt2;
txt2=eval('"'+txt1+'"');
document.write(txt1+" -> "+txt2+"\r\n"); >>643
pixivだとして
JavaScript内の(文字列)utf16-leをcp932にしても意味ないよ?
具体的な使用方法書かなければ回答のしようがない
たとえば
cp932しか対応してないrssリーダーとかでhtml形式を扱う為にProxomitronを経由してるなら
最初からperlでスクリプト組むべき 単にフィルターにズラズラ書くのが面倒とか見難いとかじゃないの >>646
cp932とかの文字コード間エンコードでなく単にJSのunescapeしたいんだろ
となるとutf16-leじゃなくてutf16-beじゃね?
utf16-be版$UESCが欲しいってことだな ある部分が後から読み込まれるようなページに、フィルタをかけることは出来ますか?
因みに、先に読み込まれる部分にフィルタをかけると、思い通りに動作するので、URLマッチ等は間違っていません。 後から読み込まれる部分の実際のレスポンスデータを見てフィルタ書けばいい
Ajaxか何かでリクエストが発生するなら、呼び出し元ページのURLと違ってマッチしない場合があるから要確認
レスポンスの Content-Type ヘッダが JavaScript や XML になってるなら、ヘッダを書き換えるか $FILTER(true) でフィルタリング出来るようにしてやる >>653
リクエストされるURLをログウィンドウで見つけれたので、
修正し動作出来ました。 テレビ王国がhttpsしか繋がらなくなった為、開発終了の非対応ソフトで
http://tv.so-net.ne.jp/chart/cs/skylist.action
↓
https://tv.so-net.ne.jp/chart/cs/skylist.action
[HTTP headers]
Key = "URL: tv"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/\0$RDIR(https://tv.so-net.ne.jp/chart/\0)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
とかだけでは無理なのでしょうか? [HTTP headers]
Key = "URL: new filter"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/cs/skylist.action$URL(http://)"
Bounds = ""
Limit = 256
Match = "http://tv.so-net.ne.jp/chart/cs/skylist.action"
Replace = "http://\xhttps.tv.so-net.ne.jp/chart/cs/skylist.action"
そういうときはURLコマンドの\xhttps.を使う >>656
有り難う御座います。
無事 TVスケジューラー2 使えるようになりました。 モニタのサイズによってはフィルタ編集のフォントが少々見づらい程小さくなってしまうのですが、
このフォントを大きくするにはシステム全体のフォントごと大きくするしかないのでしょうか? >>659
有難うございます
ちゃんと更新履歴に書いてあったんですね、お手数おかけしました Proxydomoって同じフィルタをもう一回インポートするとダブっちゃうんだけど、そういうもの? ちょっとスレチだけどhostsスレでスルーされたので質問
どんなHost:ヘッダを送っても必ず空ページを返すIPアドレスってないですか?
hostsで遮断した広告を127.0.0.1送りにするとエラー画面が表示されて汚いので、信用できるどこか送りにしたい(ローカルHTTPdは立てられない) tp://local.ptron/hoge.html
とかにすればいいよ
用意したhtmldomoのhtmlフォルダへ >(ローカルHTTPdは立てられない)
この時点で無視案件でしょ
質問内容からしてソフトをインストールする気はないようだし・・・
>>664
firefoxにRequestPolicy入れて使え
ttp://egg.5ch.net/ を表示したら許可指定するまでegg.5ch.net以外からは読み込まないってプラグイン スルーされたんじゃなくて、ねぇのよ
何をリクエストされても空を返すだけのサイトなんて >>667
>何をリクエストされても空を返すだけ
ローカルで(perlでスクリプト書いて)HTTPd立てれば可能 そりゃ可能だわな
けれどそれが誰でも自由に使えるものとして公開されているかは別の話 ぐぐればperlで書いてあるHTTPdは落ちてる
あとは改変するだけ >>670
出来るかどうかとかそういう話じゃねぇから
そんな鯖が公開されてて、しかも信用出来るとかいう基地外みたいな話 元の質問無視してhttpd立てればおkと言われても そもそもの質問がスレ違いだからまともに答えてくれる人が居ないだけ ひょっとしたらexample.comみたいに何かあるかなと思ったのですが、やっぱりないですよね
ありがとうございました >>674
間違ってるかもしれないけど、試しにローカルファイルへ$JUMPリダイレクトすると
何故かサイズ0で返ってくる($REDIRは503エラーとなった)
[HTTP headers]
Key = "URL: URL REDIR"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "http://dummy.com/test.html"
Replace = "$JUMP(http://file//z:/x.html)" そもそもhostsとか言ってる時点でproxo使ってねえだろ post文字列を書き換える方法を教えてください
よろしくお願いします >>677
>>2のWiki > RAQ 参照
form要素内の書き換えで済む程度なら、他の置換と同じ要領でやればいい >>678
ありがとうございます
とあるツールが直接吐き出すリクエストを書き換えたいのでその方法は使えないんですよね…
phpとかちんぷんかんぷんなので他の方法を探すことにします
しかし、Proxydomoはとても有用なソフトだと思うんですが、
ヘッダを書き換えられるのにpostは不可というのは片手落ちというか、非常に惜しいですね… v1.106で効かなくなった
ログには表示されてる
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Active = TRUE
Multi = FALSE
Limit = 256
Match = "text/(^html)|application/(rss|json)"
Replace = "$FILTER(true)" これが原因か
どう修正すればいいものか
>Content-Typeは受信ヘッダフィルターで処理されたものを見るようにした >>681
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "(text/(^html)|application/(rss|json))\0\1"
Replace = "\0\1$FILTER(true)"
そのフィルタじゃそもそもContent-Typeが消されるからまずいんじゃ
消してもブラウザが良しなにやってくれてたんでしょうが それは今まで手元のフィルタが不備だったのに動作してたのがおかしいという見解なんでしょうか フィルタが動作してるのはおかしくないが
ブラウザにContent-Typeが通知されないのはまずかったかと
そこに書いてるのだけなら大した問題にはならないとは思うが わざわざ取り込んで吐き出さなくても
Matchで$FILTER(true)したあと(^?)?とかでマッチ失敗させればいいんだぞ Proxydomo64 v1.105 / Windows7
$RDIRを使うとContent-Typeが変わってしまう
リクエストは動画投稿サイトの動画ファイルなんだがフィルターがマッチすると
video/mp4がapplication/octet-streamになってしまう
どうにかならないですかね
[HTTP headers]
Key = "URL: hoge foo12345678"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = FALSE
Multi = FALSE
URL = "vod.hoge.com/video/foo12345678*"
Bounds = ""
Limit = 256
Match = "*"
Replace = "$RDIR(http://file//X:/video/foo12345678.mp4)" その変換後のURLって表記正しいの?
っていうかローカルのファイルなんて読み込めるの?
そんな事可能だったらセキュリティガバガバじゃね? Proxomitron 時代から続いている疑問。
中身が空白だったり何もなかったりで余白だけができる要素にマッチさせて消すフィルタなのですが、テストではマッチしているのに実際の使用ではなぜか働きません。
$NEST(<(div|p)\1,>)(\s|\ |$NEST(<(span|br|font),>)| |\ |</(span|font)>)+</$TST(\1)>
(<p> </p> )+{1,*}
1行めは書きかけですが、このようにしたいと思っているもの。
反応がないので2行めのように簡略化してみたものの、これもテストでしか動作しません。
対象のサンプル
<div>
<p> </p>
<p> </p>
</div>
どうすれば希望通りになるのでしょうか。
お知恵を貸してください。 1行めがうまくエスケープできませんでした。
|\ | ではなく |\&#160;| です。 そもそも$NESTの使い方がおかしいような
$NESTのstart_matchは複数回呼ばれるから$TSTとの組み合わせは意図した動作にならないだろう
(<p> </p> )+{1,*}
二行目のこれはちゃんと動いたけど
ttp://www.geocities.jp/lafe_be/
フィルターのチェックを忘れてるとかWebページフィルターを有効にしてないというオチじゃないの >691
どうもありがとうございます。
$NEST の使い方はまだよく理解できない部分がありますので、自分のほうの問題ですね。
<p[^>]+>(\s|\ |$NEST(<(span|br|b|font),>)| |\ |</(span|b|font)>)+(</p>|(^(^<p>)))
このように $NEST $TST を使わないものも書いていますが、同じ結果になります。
[Patterns]
Name = "test"
Active = TRUE
Limit = 96
Match = "(<p> </p> )+{1,*}"
ttp://www.geocities.jp/lafe_be/
では私の環境でもマッチしました。
ttp://tokiwa-ran.hatenablog.com/
ではこちらではいかがでしょうか。私の環境ではマッチしませんでした。
共有のコンピュータを利用している都合で Proxydomo 最新版の使用には支障があるため、1.100 での実行結果です。
Proxomitron 4.5+7 でもマッチしません。
いずれもほかのページフィルタはマッチします。 >>692
そのサイトのソース見て分かったわ
そのサイトの<p> </p>で囲まれているのはスペース(0x20)ではなく、
ノーブレイクスペースっていう特殊なスペースなんだ(0xA0)
オミトロンの仕様で半角スペースがマッチするのは
NUL(0x00) , HT(0x09) , LF(0x0A) , CR(0x0D) , SPC(0x20)
だけで、0xA0は含まれていないのでマッチしなかったっていうわけだ
(<p>( |[%A0]+)</p> )+{1,*}
と書き換えればマッチするはず >>693
\sってdomoとかmodoでは使えないんだっけか >>694
proxydomoでも\sは使えるけど、それぞれの仕様は
\sは1個以上の空白文字
スペースは0個以上の空白文字
空白文字は上に挙げた5つのことだから
\sに変えたところでマッチはしない >693-695
おかげさまで長年の疑問が解決しました。どうもありがとうございます。
「ブロックリストは"[%aa][%ab][%ac]"などのエンコードがされている場合、元の文字列にデコードして、ファイルの文字コードをUTF8として保存してください」
と domo の説明にあるので [%A0] が使えるのかと思ったのですが、これで通りました。
ttp://gosyujin.github.io/2013/08/26/utf8-space-c2a0/
ttps://blog.fenrir-inc.com/jp/2011/06/post_51.html
non-breaking space のほかにも空白に見える文字はいくつかあるようです。
直接関係ありませんが、google 検索結果のフィルタを書いているときにゼロ幅の制御文字が含まれていて対応に苦慮したことを思い出しました。 いつもお世話になっております。
$FILE()を初めて使ってみたのですが、
[HTTP headers]
Key = "URL: okikae"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "google.co.jp/aaa*"
Bounds = ""
Limit = 1024
Match = "htt●://google.co.jp/(aaa*)\0"
Replace = "$RDIR("
"$FILE(略/u.txt)"
"\0)"
で、u.txtは、httpから始まるURLを一行記載して、Windowsのメモ帳でUTF-8で保存しました。
実際にページを読み込んでみると使えず、
ログウインドウには、h ttpと、2文字目にスペースのようなものが入っていて、これが原因かなという気がしてます。
Webページフィルタのテストウインドウでu.txtを使った場合、スペースらしきものは入ってません。
間違ってる部分のご指摘お願いします。 >>697
BOMが入ってるせいだな
メモ帳以外のソフトを使ってBOMを付けずに保存してみ 初めてお世話になります。
$USEPROXYを使って5chだけProxyを通そうと思ったのですが
[HTTP headers]
Key = "URL: Proxy ON (Out)"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "[^/]++.5ch.net|[^/]++.bbspink.com"
Bounds = ""
Limit = 256
Match = ""
Replace = "$USEPROXY(True)"
どうにもうまく動作しないと言うか、
URLがhttpだと動作するのですがhttpsだと動作してくれません。
どこかが間違っているのか、そもそも$USEPROXYはhttpsでは動作しないのか、
どうかご教授よろしくお願いします。 すいません自己解決しました。
バイパスリストにhttps全部入れてたのをすっかり忘れてました…。
バイパスリストに例外指定として追記して解決しました。 よろしくお願いします
とあるページ(hoge.htm)のソースが
1, 2, 3, ...
となっているのに対して
hoge.htm?num=1とアクセスすると
2, 3, ... が残り
hoge.htm?num=2とアクセスすると
3, ... だけが残るようなフィルターを作りたいのですが
Match = "$URL(hoge.htm?num=\1)[#0:\1], "
Replace = ""
上手くいかないです
どう修正すればいいですか
代替のコマンドとかあるのでしょうか そこでは変数展開できない
だからそのコードが意図した動作はできないが
ページ内で昇順に並んでるなら
URL = "hoge.htm\?num=\1$SET(num=\1)"
Match = "(^(^$TST(num),))$STOP()|[#0:*],"
こうも書けるだろう (^(^...))は文字を消費しないのでマッチしても消えないと思うのですが...
$TSTは気づきませんでした。ありがとうございます。 あ、一致するとこまで消すのか
直前までだと勘違いして、わざわざ先読みにしてしまった 701です
教えていただいたフィルターを使ってみたのですが
低頻度ではありますが例えばhoge.htm?num=2に対して2, 3, ...になることがたまに起こります
$STOP()が読まれた瞬間に置換が行われずフィルターが切られるのでしょうか
>>702のように数字を1つ増やして先読みさせると今の所おかしくはならないので修正してみます
ありがとうございます ■ このスレッドは過去ログ倉庫に格納されています