【Proxomitron】 Proxydomo 【Proximodo】 [転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
元々のomitronの\s、\wも正規表現とは違うからそれに倣ったのはいいんだけど
その\s、\w自体がちょっとわかりにくいんだよね
\s:1個以上、後ろを見ない
\w:0個以上、後ろを見たり見なかったり +が1以上の繰り返しじゃないから
\dが正規表現の仕様[0-9]だと\d+が
オミトロンだと\d+{1,*}と長くなってしまう
どうせwidth="\d+px"みたいなことがやりたいんだから
width="\dpx"と書けた方がいいんじゃない
\wはオミトロン側の仕様に合わせちゃったから仕方ない うむ、\sと\dはこれで便利だと思うが
omtironの\wの仕様はどうも使えねーよなあ
この文字種で、「空マッチあり」「グループ末尾では貪欲」という挙動には使い道がない、落とし穴にしかならない >>584
正規表現を使ったあとだと混乱するよね
まあ今更だが 移行コストが殆どないのが強みだったからしょうがない
書くときにちょっと戸惑うことはあるけど、一度書けばいいものだし別に不満はないな
仕様変更で今更フィルタ全部書き直しになるのもどうかと思うし
そもそも今更正規表現が使えても需要がどれだけあるかが疑問
需要があったらPriboxyが席巻してるだろうし 作者の人ホントありがとう。
httpsのフィルタリングできるようになったよ。 検索 → https://$LST(list)
list.txt → (www|).twitter.com/
対象 → https//twitter.com/
結果 → マッチ
リストの記述ミスで「.」があるからマッチしないはずなのにマッチしてしまう
リストの他のパターン
[^/]++.twitter.com/ → マッチなし
[^.]+.twitter.com/ → マッチ 置換するテキスト欄で
改行1個入れると
XML上でCRCRLFになってるけど
何で? std::wofstreamにstd::ios::binaryを渡していないので
暗黙的に改行コードの変換が行われているため
読み込み時にもstd::ios::binaryを渡していないので
これが原因で問題になることはないはず XML直接編集するとき注意が必要だな。
CRLFだけにしてしまうと
GUI上で改行と認識されない。 \n見つけると、小脳で頭に\r足すバグM$テロ凶行。
alert(\r\n含むテケスト) >> ctrl + c等でも、判る。
中で、(\n|\r\n)混在しとるから、よ〜直さんじゃろ(。・ω・。)y━・~~ サブの化石XPでProxomitronから乗り換えようと思ったら起動しなかったでござる
「プロシージャエントリポイント GetUserDefaultLocaleName がダイナミックリンクライブラリ KERNEL32.dll から見つかりませんでした」
>>1のURL見たらXPで動くかもと期待したが残念 いい加減XPを捨てろってことだよ、サポ切れから何年経つと思ってんだよ まあ実際使い易かったな、XPは
今は10がメインでサブを7にしているけれども 至上最強ロングセラーOSはほぼ旧エロゲ専用マシンなのだが
そのまま調べ物する時にSSLをバイパスさせると重くてなー
しかなくSSLでもフィルタリングできるコレを試してみたくなったわけ
メインはサクサクなんでProxomitronだけでこと足りている サポートの切れたOSはネットにつなげなければ何も問題起きない。 過去に厳重な警戒を突破して、地下金庫内のネットにつながっていないPCをハッキングしたクラッカーがいたらしいが。 スレチかもだけどProxHTTPSProxyMIIだったら
ブラウザ[平文]フロントサーバー[平文]オミトロン[平文]リアサーバー[暗号]インターネット
みたいにできる? httpsのページを表示する代わりに、ローカルのファイルを表示したいのですが、
こんな感じにしてもダメ(応答なしor502 BAD gateway)でした
JUMPの場合は表示したい内容になるのですが、それだと意味が無く…
どんな感じにしたらURLそのままでローカルのファイルを表示できますか?
[HTTP headers]
Key = "URL: okikaeru "
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "どめいん/aaa/"
Bounds = ""
Limit = 256
Match = "https://どめいん/aaa/*"
Replace = "$RDIR(http://ろーかるぷとろん/baka.txt)$STOP()" >>609
[HTTP headers]
Key = "URL: test"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "(egg.5ch.net/test/read.cgi/software/1416467048*)\0$RDIR(http://local.ptron/certificate_error.html)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
こっちではちゃんとリダイレクトされてるんだが レスありがとうございます
>>609
できました!!!
この場合ですと、元URLの一部を\1などにして、$RDIRの一部として使いたい場合はどうしたらいいのでしょうか? どうもこうも普通に使うだけ
egg.5ch.net/test/read.cgi/software/\1$RDIR(http://local.ptron/\1) 具体的なサイトになるんだが
twinaviへのSSL接続が失敗する
他のサイトは問題なく繋がる
フィルタを全部外しても同じ
バイパスにすると繋がる
証明書を消してもバイパスになるので繋がる
証明書を新しくしても種類を変えても繋がらない
初期化しても同じ >>614
ttps://twinavi.jp/
windows10
Proxydomo64 v1.105
firefoxでもvivalidでもironでも繋がるけど Proxydomo v1.105
Win8.1 32bit
Chrome 65.0.3325.181
ERR_CONNECTION_RESET って出る ツイナビ普通に繋がる
flashplayerのインストーラーがバイパスじゃないと繋がらない ipv6周り問題かもしれない
v1.98あたりの古いバージョンなら繋がるかも get.adobe.comをバイパスすればいいじゃん(いいじゃん)
慎重を期するならfpdownload.adobe.comも [#n:n]の表現で数字の変数をセットして
[#$GET(HOGE):$GET(HAGE)]みたいにできないですかね? もしかしてdomoってwin10で使えない?
1803を新規インスコしてdomo立ち上げてみたけどIEじゃ”プロキシ サーバーは応答していません”て言われて繋がらない
証明書を個人とルート証明機関と中間証明機関に置いてもダメ
1709なら・・・と思ったらこっちでもだんまり
試しに管理者で動かしても無理
Enable AppContainer LoopbackってIEには必要ないのよね?
何か他の設定が必要なのかしら 1803って何のバージョンだろ
ソースからビルドしてるんなら、取り合えずバイナリリリースのv1.105で試してみたら? >>622
IEとdomoはリストに無かったので許可で追加してみましたが変わらず
edgeはリストに入ってて許可にチェックありました
でもedgeにfirefoxにironportableもcyberfoxportableも普通に通信できてるんですよね
IEだけ”○○○からの応答を待っています〜”で待たされた挙句ダメっていう
>>623
>624の言う通りwin10のことね
1709がRS3で1803が先週出たRS4 >>621
Win10 RS3だけどIE11で使えたよ 送信ヘッダフィルタを作る→ヘッダ名をAcceptにする→OKで閉じる
→再度開く→ヘッダ名が勝手にAccept-Languageになっている
→この時点では内部的にはちゃんとAcceptだが、そのままOK押して閉じてしまうとAccept-Languageになってしまう 他で普通に通信できてて何で「domoはwin10で使えない?」って質問になるんだ それもそうだし、ログすら見ようとしないのが何ともねえ
大方、セキュリティソフトのプラグインが噛んでるとかのような気もするが ログ見てもまっさらなんだもの・・・どうしろと
https://iecvlist.microsoft.com/ がrecentに残ってるくらい
あとwin10触り始めてる最中だからよくわかってないのは確か
ごめんね
>>626
古いのだといいのかな
てか最新でも俺は使えてるって人いないのかな 起動したとき、ポートの受け待ちはされてるか確認
netstat -a -p tcp
これで127.0.0.1:指定ポートがLISTENING状態にあるかどうか TCP 127.0.0.1:6060 DESKTOP-LMFMB29:0 LISTENING
ってなってるからこれでいいのかしら
使用ポートは6060ね >>633
変だねえ、それで動作しないなんて
当然httpも試してるよね? やっと原因がわかったよクソが
ダメ元で全部許可してあげたら通信できた
一個一個リストの上から外していって、windows_ie_ac_001ってののチェック外すとIEでも通信できなかった
こいつか・・・ 調べたら拡張保護モードか
https://blogs.msdn.microsoft.com/ieinternals/2012/03/23/understanding-enhanced-protected-mode/
Loopback-blockedって思いっきり書いてるわ
そりゃ繋がらんわな…
自分の環境でもIEの設定で拡張保護モードを有効にしたら繋がらなくなるのを確認したわ で、ググる限りwindows_ie_ac_001ってのは拡張保護モード関連?
こいつが生きてるとスクリプトも動かないし、かざぐるマウスがwin10のIEで使えないのもこれのせい
いつ有効にしたか覚えてないけど、今後はインスコするたびに拡張保護モードは殺すことを心に誓った 遅すぎ
firewall関連疑われたら最初に全部無効にしてみるもんだろ 5chブラウザに貼られた動画のURLもdomoを経由してしまうわけですが
音声が微妙に変化したりよろしくないのでどうにか回避する方法ありませんか 最近のページで増えてきたUnicodeの
エスケープとアンケスケープコマンドがほしい
「\u3042」←→「あ」みたいな 弄りたいのはJavaScriptやJSON内で
エスケープされた日本語文字列なのでUTF-16で。
抜き出してもそのまま出力できないので辛い >>643
javascriptでなら内部コード(つまり普通の漢字の文字列)に変換できる
偶然うまくいっただけで、これで正しい方法なのかは知らん
var txt1="\\u3042\\u3044\\u3046";
var txt2;
txt2=eval('"'+txt1+'"');
document.write(txt1+" -> "+txt2+"\r\n"); >>643
pixivだとして
JavaScript内の(文字列)utf16-leをcp932にしても意味ないよ?
具体的な使用方法書かなければ回答のしようがない
たとえば
cp932しか対応してないrssリーダーとかでhtml形式を扱う為にProxomitronを経由してるなら
最初からperlでスクリプト組むべき 単にフィルターにズラズラ書くのが面倒とか見難いとかじゃないの >>646
cp932とかの文字コード間エンコードでなく単にJSのunescapeしたいんだろ
となるとutf16-leじゃなくてutf16-beじゃね?
utf16-be版$UESCが欲しいってことだな ある部分が後から読み込まれるようなページに、フィルタをかけることは出来ますか?
因みに、先に読み込まれる部分にフィルタをかけると、思い通りに動作するので、URLマッチ等は間違っていません。 後から読み込まれる部分の実際のレスポンスデータを見てフィルタ書けばいい
Ajaxか何かでリクエストが発生するなら、呼び出し元ページのURLと違ってマッチしない場合があるから要確認
レスポンスの Content-Type ヘッダが JavaScript や XML になってるなら、ヘッダを書き換えるか $FILTER(true) でフィルタリング出来るようにしてやる >>653
リクエストされるURLをログウィンドウで見つけれたので、
修正し動作出来ました。 テレビ王国がhttpsしか繋がらなくなった為、開発終了の非対応ソフトで
http://tv.so-net.ne.jp/chart/cs/skylist.action
↓
https://tv.so-net.ne.jp/chart/cs/skylist.action
[HTTP headers]
Key = "URL: tv"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/\0$RDIR(https://tv.so-net.ne.jp/chart/\0)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
とかだけでは無理なのでしょうか? [HTTP headers]
Key = "URL: new filter"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/cs/skylist.action$URL(http://)"
Bounds = ""
Limit = 256
Match = "http://tv.so-net.ne.jp/chart/cs/skylist.action"
Replace = "http://\xhttps.tv.so-net.ne.jp/chart/cs/skylist.action"
そういうときはURLコマンドの\xhttps.を使う >>656
有り難う御座います。
無事 TVスケジューラー2 使えるようになりました。 モニタのサイズによってはフィルタ編集のフォントが少々見づらい程小さくなってしまうのですが、
このフォントを大きくするにはシステム全体のフォントごと大きくするしかないのでしょうか? >>659
有難うございます
ちゃんと更新履歴に書いてあったんですね、お手数おかけしました Proxydomoって同じフィルタをもう一回インポートするとダブっちゃうんだけど、そういうもの? ちょっとスレチだけどhostsスレでスルーされたので質問
どんなHost:ヘッダを送っても必ず空ページを返すIPアドレスってないですか?
hostsで遮断した広告を127.0.0.1送りにするとエラー画面が表示されて汚いので、信用できるどこか送りにしたい(ローカルHTTPdは立てられない) tp://local.ptron/hoge.html
とかにすればいいよ
用意したhtmldomoのhtmlフォルダへ >(ローカルHTTPdは立てられない)
この時点で無視案件でしょ
質問内容からしてソフトをインストールする気はないようだし・・・
>>664
firefoxにRequestPolicy入れて使え
ttp://egg.5ch.net/ を表示したら許可指定するまでegg.5ch.net以外からは読み込まないってプラグイン スルーされたんじゃなくて、ねぇのよ
何をリクエストされても空を返すだけのサイトなんて >>667
>何をリクエストされても空を返すだけ
ローカルで(perlでスクリプト書いて)HTTPd立てれば可能 そりゃ可能だわな
けれどそれが誰でも自由に使えるものとして公開されているかは別の話 ぐぐればperlで書いてあるHTTPdは落ちてる
あとは改変するだけ >>670
出来るかどうかとかそういう話じゃねぇから
そんな鯖が公開されてて、しかも信用出来るとかいう基地外みたいな話 元の質問無視してhttpd立てればおkと言われても そもそもの質問がスレ違いだからまともに答えてくれる人が居ないだけ ひょっとしたらexample.comみたいに何かあるかなと思ったのですが、やっぱりないですよね
ありがとうございました >>674
間違ってるかもしれないけど、試しにローカルファイルへ$JUMPリダイレクトすると
何故かサイズ0で返ってくる($REDIRは503エラーとなった)
[HTTP headers]
Key = "URL: URL REDIR"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "http://dummy.com/test.html"
Replace = "$JUMP(http://file//z:/x.html)" そもそもhostsとか言ってる時点でproxo使ってねえだろ post文字列を書き換える方法を教えてください
よろしくお願いします >>677
>>2のWiki > RAQ 参照
form要素内の書き換えで済む程度なら、他の置換と同じ要領でやればいい >>678
ありがとうございます
とあるツールが直接吐き出すリクエストを書き換えたいのでその方法は使えないんですよね…
phpとかちんぷんかんぷんなので他の方法を探すことにします
しかし、Proxydomoはとても有用なソフトだと思うんですが、
ヘッダを書き換えられるのにpostは不可というのは片手落ちというか、非常に惜しいですね… v1.106で効かなくなった
ログには表示されてる
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Active = TRUE
Multi = FALSE
Limit = 256
Match = "text/(^html)|application/(rss|json)"
Replace = "$FILTER(true)" これが原因か
どう修正すればいいものか
>Content-Typeは受信ヘッダフィルターで処理されたものを見るようにした >>681
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "(text/(^html)|application/(rss|json))\0\1"
Replace = "\0\1$FILTER(true)"
そのフィルタじゃそもそもContent-Typeが消されるからまずいんじゃ
消してもブラウザが良しなにやってくれてたんでしょうが それは今まで手元のフィルタが不備だったのに動作してたのがおかしいという見解なんでしょうか フィルタが動作してるのはおかしくないが
ブラウザにContent-Typeが通知されないのはまずかったかと
そこに書いてるのだけなら大した問題にはならないとは思うが ■ このスレッドは過去ログ倉庫に格納されています