【Proxomitron】 Proxydomo 【Proximodo】 [転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
Proxomitron+Firefoxで後者のIPV6の設定をOFFにすると読み込みでしばらくかかるのが直るけど、
そういう事じゃないよな
アプリってわざわざ書いてるし ほとんどカバーしているようなフィルターリストある? >>269
Wiki見とけ
ちょっと仕様変更があっただけでそれを弄ればproxomitronのフィルタが
以前からそのまま使えてるぞ >>269
ttp://uiautomation.codeplex.com/
からダウンロードして解凍して
C:\Users\ユーザー名\Documents\WindowsPowerShell\Modules\UIAutomation
上のフォルダに
UIAutomation.dllが存在するように配置する
powershellを開いて
Import-Module UIAutomation
を実行
32bit版なら'Proxydomo64'を'Proxydomo'に変更して以下2行を bypass toggle.ps1 として保存
$bypass = Get-UiaWindow -Class '#32770' -Name 'Proxydomo64' | `Get-UiaCheckBox -AutomationId '1074' -Class 'Button' -Name 'バイパス'
$bypass.Toggle();
上のファイルを右クリックしてPowerShellで実行をクリック
バイパスボタンがトグルされます
ダブルクリックで実行したいなら下のリンクを参照して適当にショートカットを作ってくれ
ttp://qiita.com/tomoko523/items/df8e384d32a377381ef9 domo通してるとルーターの設定画面の応答が異常に遅い 詰まってる
バイパスにしても変わらない
同じ環境でomitronならなんの引っ掛かりもなく表示される うん、buffalo.setupでもIPアドレス直打ちでも同じ
たまにではなく常に Replace full path for No object!!のフィルタがうまく相対パスを絶対パスに変換しないんだがなぜなんだろう
動きを見てると否定マッチの仕様がomitronと違う?からみたいなんだが 基本的なこと聞いていい?
この接続ではプライバシーが保護されません(Chrome)
この Web サイトのセキュリティ証明書には問題があります。(IE)
google検索とかsslで接続するとき上記みたいな警告出るんだけど
どうすれば回避できますか?
v1.85 >>280
ttp://www31.atwiki.jp/lafe/pages/42.html >>281
ありがと
ずっと違うところにインポートしてた ちょっと教えてほしいんだけど、proxydomo でリモートプロクシ接続したいとき、
プロクシサーバにログインするためのユーザー名とパスワードはどうやって設定すればいいの?
proxomitron の場合、プロキシ設定のダイアログで右クリックすれば”高度なプロクシ"の設定が
できた。
proxomitron のヘッダフィルタ "Proxy-Authorization: Send password to proxy server (out)”を
コピペしてもうまくいかなかった。 >>283
ユーザー名とパスワードを:で連結してそれをbase64エンコードしたものを使うんだぞ >>284
うーん、proxomitron のヘッダフィルタエディタで MIME Encode した文字列を
proxydomo のフィルタで指定したんだけどなぁ。
もちょっといろいろいじってみる。
ありがとう。 ☆ 日本の核武装は早急に必須です。☆
総務省の、『憲法改正国民投票法』、でググってみてください。
日本国民の皆様方、2016年7月の『第24回 参議院選挙』で、日本人の悲願である
改憲の成就が決まります。皆様方、必ず投票に自ら足を運んでください。お願い致します。 スパイ天国の日本で核武装とかお花畑もいい加減にしろ 置き換えスタック使っているんですけど
以下のフィルターに対して
例えば「<p>VVV @XXX @YYY ZZZ</p>」が
「<p>VVV <a href="https://twitter.com/XXX>@XXX</a> <a href="https://twitter.com/YYY>@YYY</a> ZZZ</p>」にならず
「<p>VVV <a href="https://twitter.com/YYY>@YYY</a> <a href="https://twitter.com/YYY>@YYY</a> ZZZ</p>」になってしまう
これは仕方ないんですかね、\1が上書きされてしまうのは
\1を\#にすると当然エラーが出て使えません
<p>タグの範囲を外せば対応できますけどかなり重くなるので避けたいです
[Patterns]
Name = "Twitter垢リンク"
Active = TRUE
Multi = TRUE
Bounds = "<p>*</p>"
Limit = 512
Match = "(\#@(([0-9a-zA-Z_])+)\1$SET(\#=<a href="https://twitter.com/\1">@\1</a>))+\#"
Replace = "\@" そりゃあおめえ、\1は一個しかないからな
&と$SETを駆使してスタックだけでなんとかするとか
グローバル変数に溜め込むとか
範囲制限を別の方法でやって一つずつマッチするとか
他のやり方を探さないといかんわな win10に買い換えたから、これも後継のに変えようと思ってる。
特に理由がなければ、これに移った方がよい? これから使い始めるんだけど、とりあえず入れとけっていう
テンプレのようなフィルターない? そういう人が使うソフトではないと思うけど
一昔前なら広告ブロックが鉄板だったけど、今はブラウザ拡張でやる方がお手軽だし 一般に公開されているフィルターはもう古いので定番というものは存在しませんので
自作に挑戦する気のない人には面倒なだけです 使ってる機能
ブロックリスト
接続モニタ
Recent URLs
特定のサイトだけUserAgent変えるフィルタ
特定エロサイト用の広告消しフィルタ
Webフィルタは2個だけ、ほとんどの広告はブロックリストでkill
これぐらいの使い方だとブラウザのプラグインだけで全部いけるのかも… この手のローカルプロクシの良い所は複数のブラウザで資産を共有できること 自作で書いてるとアンチadblockをスルーして広告排除できてたりしてラッキーって思う時がある httpsに対応ソフトとのことでこちらに移動してきました
Youtubeを快適に使うために色々いじっていたのですが解決できないの事があったので一つ質問を
こういうページで「もっと読み込む」ボタンを押した先でフィルターが適用されないのですが何か良い方法はありますか?
http://www.youtube.com/user/shoenice22/videos ttp://tokuhain.arukikata.co.jp/bangkok/2012/03/post_249.html
フィルター管理で無しorチェック全部外しても文字が虫食い的に化ける
バイパスするかWebページフィルターのチェックを外すと化けない
個人の環境依存かもしれないが、多分バグかな Transfer-Encoding: chunked
怪しいのは辺りかなぁ? PriorityCharset.txtで対応できるよ 横からだけど、PriorityCharset.txtがあるのを知らなかった
アプデきてもlistsフォルダはバイパスリスト上書きされないように、毎回上書き保存してなかったから気づかなかったわ
>>302を試してみたけど設定したらちゃんと表示できた >>302だが返事が遅れて申し訳ない
>>304でうちも対処できたよ
PriorityCharset.txtの存在を俺も知らずにいたから助かった
ありがとう 証明書を用意すると全てのhttpsサイトの接続が遅くなるなあ Firefoxは遅くなったけどChrome系は大丈夫だった
何が違うんだろう なんか更新来てるよ
これ、個人的にはまったく使う予定ないけど嬉しい人にはとても嬉しいんじゃないかと思う これはユーザー増えそうだね
ただanti adblockとかみかけるし、自前で書くのが一番安心ではある
話は変わるが最近特にscriptタグ内の量増えすぎ
$NEST(<script,?++(($LST(AdList))\1)*,</script>)でマッチングかけてるんだが、
href属性とかで参照できないし、listから文字列やホスト名引っ張り出してマッチングすると、
上限10000バイトじゃハングアップに近い状態になる
苦肉の策で上限を変えて2つに分けてやるようになったんだが、
こういうのは他の人はどうしてるんだろう ちょっと勘違いしてた
フィルタ自体は今までのままでリストが変わるのか
ドメイン指定のリストが使える汎用フィルタと考えるとすごく便利そうだな >>310
Kill.txtでjsファイルを読み込むのを阻止したり
サイト個別にフィルタ作ったりしてる ゴミをロードするコードと、サイトの動作に必要なコードが同じタグに同居してることがあるからねえ
俺はそのへんはブラウザのNoScriptとかRequestPolicy系の奴に頼ってる <script src="$LST()"*</script>みたいなフィルタで
リストに
*/a.js
*/b.js
*/c.js
としてるときで
あるサイトではb.jsだけスルーしたいという場合
リストに除外設定書けないdomoではどうやってやるのがいいのかな? script要素の削除は手元では以下のようにしてる
Script有効にするサイトで広告なんかがうるさければまた別のフィルタで削除する感じ
[Patterns]
Name = "Script Killer"
Active = TRUE
Multi = FALSE
URL = "(^$LST(EnableScript))"
Limit = 2048
Match = "(^(^<script>|<script\s))([^>]++/>|[^>]+>$SET(ScrK=1)) |</script[^>]+>$SET(ScrK=) |$TST(ScrK=1)((^</script)?)+"
Replace = "" リストの掃除しようと思ったけど登録数多すぎて収集がつかない
わかりやすいようにマッチした回数とかの統計あったらいいのになぁ 以下のフィルタが効かないというか変な動きをしているんですがなぜかわかるかたいますか?
omitronではきちんと動いていたのですが
フィルタ
<filter>
<Active>true</Active>
<title>URL: jump_to (out)</title>
<filterType>1</filterType>
<headerName>URL</headerName>
<multipleMatches>false</multipleMatches>
<windowWidth>4096</windowWidth>
<urlPattern>$LST(jump_to)</urlPattern>
<matchPattern/>
<replacePattern>$JUMP(\0\1)</replacePattern>
</filter>
$LST(jump_to)の中身
2ch.io/ \1
アクセスしたURL
http://2ch.io/akizukidenshi.com/catalog/default.aspx
想定するアクセス先
http://akizukidenshi.com/catalog/default.aspx
実際のアクセス先
http://2ch.io/akizukidenshi.com/catalog/akizukidenshi.com/catalog/akizukidenshi.com/catalog/akizukidenshi.com/catalog/default.aspx
※akizukidenshi.com/catalog/の部分が可能な限り続く プロトコルを追加してやる
2ch.io/ \1$SET(0=http://) 久しぶりに覗いたらまさに求めていた機能が求めていた使い勝手で実装されてた
作者さんありがとう! オミトロンから乗り換えたけどいいソフトだな
ただチェックボックスオフにしてもフィルタが有効のままになるバグ?がよく起きるから
フィルタ色々弄ってるときは注意だな キーボードで操作(スペースキーでのオンオフ)しても一切効かないな
表示上は切り替わるけどな
そこはマウス必須 http://katfile.com/
ここwebフィルターが一切効かないんだけどなんで? そろそろオミトロンから乗り換えてみようと思うんだが、移行するにあたって
何か注意点とか、これは頭に入れておけ的な事ってありますか? >>330
ttp://www31.atwiki.jp/lafe/pages/39.html
ここ全部よめば困ることはないだろう B押しながらでバイパスとかの仕様変更をよく見ずに最初悩んだ キーボード押すの面倒だからブックマークレットで文字列付加してRDIRさせてる >>331
遅くなったけどありがとう
$DTMは使えないのか… >>335
俺の場合、特定のサイトから定期的にDLするファイルがあって
それにダウンロード日時を追加するのに使ってるんだ
[HTTP headers]
In = TRUE
Out = FALSE
Key = "Content-Disposition: add date (In)"
URL = "example.com/filename.ext"
Match = "*"
Replace = "attachment; filename="filename_$DTM(d-H-m-s).ext""
こんな感じで
そうするとファイル名は filename_2016-10-23-02-56-12.ext のようになるから
あとで変更する手間が省けるわけ >335
昔、WWWCのUAを偽装するフィルタを書いたことがあってそこで使ってた
こんな感じに変える -> Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:49.0) Gecko/$DTM(YMD) Firefox/52.0
5-6年前くらいに日付が固定になったから$DTMはお役御免になったとさ
あと、自分はそうでもないけどそのページを開いた日付とか時刻を表示しておきたい需要っていうのはありそうに思う > 時刻表示
こんな感じかな
ttp://light.dotup.org/uploda/light.dotup.org386525.png $DTM実装されてた、ありがてえありがてえ
フィルタの整理もしつつ少しずつ移行するわ オミトロンを使ってネットに書かれている 氏ね キチガイ などの暴言を
XXXなどの文字列に置き換えるか、非表示にすることはできますでしょうか?
一応自分でNG.txtをBlockfileに入れたのですが、うまく動きません >>340
default.cfgにこんな感じで追加して読み込み
Name = "XXX word"
Active = TRUE
Limit = 50
Match = "氏ね|キチガイ"
Replace = "XXX" Googleファイナンスで以下のフィルタを実行すると
読込完了までにものすごい時間がかかるんだけどどうしようもないですかね?
どうも大量の文字の処理が良くないみたいなんだが
フィルタの適用先 : https://www.google.com/finance
[Patterns]
Name = "new filter"
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "$TYPE(htm)www.google.com/finance"
Bounds = ""
Limit = 1048576
Match = "<script>*function \(*function \(*</script>"
Replace = "" 括弧や小なり大なりは本当はすべて半角です
書き込めなかったので全角にしてあります ttp://pastebin.com/gCVRYZjU
なんか消えたから 単純にscriptタグの中身をすべて消すだけならそれでもいいんですが
scriptタグの中の文字列を2〜3度マッチさせたうえで消したい場合?に異常に処理が遅くなるんですよね
Matchの中を<script>*</script>だけにしてもすぐに処理が終わるのは確認しました そりゃあおめぇ、範囲の絞込みもせずに*を複数使ってLimitを1Mなんてキチガイサイズにしたら重くもなるわな 重い重くない以前にそんな書き方したらすさまじい誤爆でまともに表示されんだろう
で、それはそれとして
それそのまま試してみたけど別に重くはなかったぞ あくまで>>342はサンプル用に書いただけで実際のフィルタはもっと複雑なんです><
んでそのフィルタがあまりにもGoogleファイナンスでだけ遅いのでコードを最小化していったら原因がそこだと分かってって感じです
遅くないですか、環境が悪いのだろうか
ちなみに環境は↓です
CPU : Core i7 4790K
メモリ : 32GB
OS : Windows 7 Home Premium x64
Proxydomo : Proxydomo64 v1.92(SSL/TLSフィルタ設定済み) ふと気になってProxydomo v1.93を使用したら遅くありませんでした。
もしかすると64bit版が遅いのかも? どうしても自分以外のところに問題があって自分が書いたフィルタは直す必要がないと思ってるなら
これ以上誰も何も言うことはないよ 今のバージョンはどうか知らないけど、
httpsをフィルタリングするとフィルタはバイパスしてるのに遅くなったなあ 1文字以上にヒットする表現がわからん
?++だと0文字でもヒットする ?++でも1文字以上にマッチするように見える
*&?
これでもいいけど ?* とか ??+ にしてるよ
1文字 と 0文字以上 に分けるんだ >>354 ?++{1,*}…うまくいった
>>355 ?++…空でも反応すると思ってたけどいじってたらうまくいった
*&?…単独では動作するかもしれんが今回の場合は全く効かない
>>356 ?*…うまくいった
??+…後に検索表現があるので反応せず。??++で対応
説明不足
1文字以上で追加、他の検索表現もあるので空でもスルーさせたい
...(|(?*)\0$SET(1=\0 text ))…うまくいった
...((?*)\0$SET(1=\0 text )|)…なぜか空でも追加される
...((?*)\0$SET(1=\0 text )|$SET(1=))…うまくいった
回答ありがとう クリーンインストールしてから、ublockだけで済ませてたけど、やっぱりこれあると便利ですわ
というか、お礼を言わせてくれ
ありがとう 作者さん
置き換えコマンドにただのReplaceが欲しいです($REPL(文字列,検索文字列,置換文字列)みたいな?)
マッチ→置き返した文字列を部分的に最置換したいことがあるんですが
マッチングパターンだとうまくいかなくて 単純化するとこういうことやりたいのかな?
再置換したい部分が固定ならその前後を別変数に格納しておけば最後に$SET(\1=\2置換文字列\3)みたいにしてあげられると思うけど……
具体的な処理したい文字列と処理条件を示してくれればもう少し考えてみるよ(解決するとは言っていない)
Match = some text$SET(\1=文字列)($TST(\1=*検索文字列*)$SET(\1=置換文字列)|)
Replace = \1 例えば↓みたいなscriptタグがあるとして
http://pastebin.com/6Y4gjPd6
一番外のscriptの中にある各scriptのsrcがlists.txtの中に存在するかをチェックして
一つでも存在しなければ一番外のscriptごとコメントアウトする
コメントアウトする際にコメントタグを除去ってことをやりたいのです
例えば「\'\" \+ urlHost \+ \"/c/cmns/js/js[a-d].js\'」というのがlists.txtに記載されていた場合は
↓みたいな結果になるのが理想です。
http://pastebin.com/apD9ZNC2 どのページでも使えるように汎用性のあるフィルタを作っているので
除去したいコメントタグの数は一定ではなく、一切存在しなかったり5組以上存在することもあります
>>361で提示していただいたように$TSTを使えば
可変文字列も対応できそうな気がするので少し考えてみたいと思います ■ このスレッドは過去ログ倉庫に格納されています