Proxomitron フィルタ ..
116:名無しさん@お腹いっぱい。
09/09/23 23:59:02 mz5M+ILc0
ヤフオクのフィルター、>>1のろだに上がってるぞ
それじゃ駄目なん?
117:名無しさん@お腹いっぱい。
09/09/24 03:27:39 xND3tmO10
ヤホーニュースは余計なもん省けばWikipediaニュース版的なグッジョブサイトなのにな
118:名無しさん@お腹いっぱい。
09/09/24 22:27:41 YTOrpSw00
_______ __
// ̄~`i ゝ `l |
/ / ,______ ,_____ ________ | | ____ TM
| | ___ // ̄ヽヽ // ̄ヽヽ (( ̄)) | | // ̄_>>
\ヽ、 |l | | | | | | | | ``( (. .| | | | ~~
`、二===-' ` ===' ' ` ===' ' // ̄ヽヽ |__ゝ ヽ二=''
ヽヽ___// 日本
______________ __
| .| |検索|
 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄  ̄ ̄
◎ウェブ全体 〇日本語のページ
119:115
09/09/25 00:56:54 OzPrf0+30
皆様、有用な情報ありがとうございました。
120:名無しさん@お腹いっぱい。
09/09/25 21:27:18 6oslHl/Y0
Google | cleanup search resultsがまた動いてないような・・・
みなさんはどうですか?
121:名無しさん@お腹いっぱい。
09/09/26 03:20:02 43CoJRti0
>>118
Yahoo! Auction: simple viewの事かな?
便利とあれは便利なんだが「マイオークションのリスト削除ボタン」まで無効になっちゃうので微妙に使いにくい・・・
122:名無しさん@お腹いっぱい。
09/09/26 04:28:35 KrY03iem0
残しておきたいのも消しちゃうね
123:名無しさん@お腹いっぱい。
09/09/26 06:04:27 UfrkU03w0
Yahoo関連やヤフオクの関連のフィルタは全部自分で作っちゃったな。
124:名無しさん@お腹いっぱい。
09/09/26 13:31:37 VeyKCYjz0
ヤフオクってすげえソース汚いよな
あれ見ただけでやる気なくすわ
125:名無しさん@お腹いっぱい。
09/09/26 14:13:28 Ro6KDdNi0
きっとこういうソフトで変えにくくする為にわざとスパゲティにしてるんだよ!
126:名無しさん@お腹いっぱい。
09/09/27 00:06:48 NkOk6yvp0
比較的消しやすい方だと思ったが。
コメントタグで始点と終点をご丁寧に記してくれてあるし、
divのclassやidにADってご丁寧に入れてくれてあるし、
結構簡単にほいほい消せたよ。
127:名無しさん@お腹いっぱい。
09/09/29 17:13:59 yBdkjLmP0
>>115
これ商品単体のページでしか効かない?
128:名無しさん@お腹いっぱい。
09/10/03 22:02:12 U2e3keX60
落ちすぎだよ。あげ
129:名無しさん@お腹いっぱい。
09/10/03 23:33:51 iqIkGC3n0
社会人になってフィルタ作る時間もuploaderにあげる気力もなくなった。
でもtocさんとwahahaさんと良心的に応えてくれた人と俺自身が作ったフィルタには感謝してる。
130:名無しさん@お腹いっぱい。
09/10/04 00:03:53 MN6d/khG0
そんなフィルタをよくわからずに使わせてもらっていてすいません。感謝してる。
131:名無しさん@お腹いっぱい。
09/10/12 22:06:23 vGto8/FB0
フィルタの検索表現に使える文字数には限界があるようだ。
全部半角の場合4096字までしか入らないもよう。
日本語にマッチさせてばかりいたら限界に達してしまった。
132:名無しさん@お腹いっぱい。
09/10/12 22:13:02 pqWwrr4Q0
リスト使えばいいよ。
リストの中で$SET(0=)してもリプレイスで使えたりして便利。
133:名無しさん@お腹いっぱい。
09/10/14 18:56:46 taF12gQV0
>>3 のAD Killer(広告消し)、Add Link(h抜きURL等をリンク化)作者:wahaha さん
URLリンク(proxomitron.at.infoseek.co.jp)
を入れただけで起動したらブロックしたかったYohooJapanの動画広告はブロックできた
が、Connection Killed!連発でURLリンク(proxomitron.at.infoseek.co.jp)さえもブロックされてしまった
いちいちbypassに入れるのも面倒だけど皆さんはどうやって調整してるの?
一番やりたいのは動画広告のブロックです
134:名無しさん@お腹いっぱい。
09/10/14 20:44:15 Z0A0uSUN0
誤爆が多いと感じたら他のを試して試して
自分の中の妥協点を見つける
たまに既存のフィルタを参考応用して自分用に自作
135:名無しさん@お腹いっぱい。
09/10/15 16:59:06 wLg6O2Ca0
俺も自作したやつ使ってる
昔はwahahaさんの使ってたけど
136:名無しさん@お腹いっぱい。
09/10/16 06:10:30 G5+C0jLu0
老け得
URLリンク(www.nicovideo.jp)
137:名無しさん@お腹いっぱい。
09/10/16 22:14:48 frV8vhHW0
アクセス解析を完全にシャットアウトするのを探してるんだけど、どっかにない?
138:名無しさん@お腹いっぱい。
09/10/16 22:58:54 ve50os6/0
ない
139:名無しさん@お腹いっぱい。
09/10/16 23:05:25 acAAvxrM0
>>137
回線ひっこ抜いとけチキン。
140:名無しさん@お腹いっぱい。
09/10/16 23:42:17 mkFiMYtr0
まぁ"完全に"は無理だな
サーバーに残るログとかもあるわけだし
141:名無しさん@お腹いっぱい。
09/10/16 23:48:19 Yt2QuRu7P
新しいサービスもどんどん出てくるから、完全は無理だな
まあでも有名どころのだけでもリスト作って使えば大半は消せると思うぞ
142:名無しさん@お腹いっぱい。
09/10/17 03:47:19 UunxpPm/0
有名どころ教えてクレクレ
143:名無しさん@お腹いっぱい。
09/10/17 06:49:55 kFhMHiSe0
串させよ
144:名無しさん@お腹いっぱい。
09/10/17 13:16:33 djkgT6QV0
youtube等で、動画の下に出てくる Ads by Google の広告を排除するフィルターはありますか?
過去スレ見たいのですが、倉庫行きっぽくて・・
どなたか教えてください。
145:名無しさん@お腹いっぱい。
09/10/18 17:52:32 HWavQLqX0
フィルタがあるのか知らないけど
普通の人はいちいちフィルタで管理しないで、リストで一括だと思うよ
146:名無しさん@お腹いっぱい。
09/10/18 17:56:39 VIMiuMBR0
Kill ADならリスト管理だね。
でも>>144のはフラッシュプレイヤー内蔵型なのかな・・・よくわからん。
147:名無しさん@お腹いっぱい。
09/10/18 18:18:59 N+mP5KIl0
>>144
動画の中に表示されるやつだよね。
作ってみたけど、どうかな。
[Patterns]
Name = "YouTube ad_* kill"
Active = TRUE
URL = "[^/]++.youtube.com/watch\?$TYPE(htm)"
Limit = 4096
Match = ""(ad_host||ad_channel_code_overlay|ad_module|ad_tag|ad_video_pub_id)\1" : "*" ,"
Replace = ""\1":"","
148:名無しさん@お腹いっぱい。
09/10/21 19:41:13 Xxabp5n00
wikiのGoogle Image: Image Change (090327)
気が付いたのは数日前、IE8とSleipnir2で効かなくなりました。
同じアドレスでもThunderbird3.5なら正常に動作します。
誰か原因わかりませんか・・・
149:名無しさん@お腹いっぱい。
09/10/21 20:00:01 7hxLKc5X0
Thunderbirdってメーラー?
150:名無しさん@お腹いっぱい。
09/10/21 20:30:44 Xxabp5n00
間違えました
Firefoxでした・・・
151:名無しさん@お腹いっぱい。
09/10/21 20:47:31 L7sQ1bea0
>>148
SleipnirならGILBっていうプラグイン入れると似たような感じで快適。
autopager入れたらオミトロンが効かなくなったので移行。
152:名無しさん@お腹いっぱい。
09/10/21 22:12:47 Xxabp5n00
>>151
ありがとう
直リン禁止のも見られて良い感じです。
153:名無しさん@お腹いっぱい。
09/10/22 23:57:08 36s50RdI0
my yahooにでっかいflash広告が出るようになってしまったんですけどこれを表示させなくするフィルターお願いします
アドレスはURLリンク(cm.my.yahoo.co.jp)
154:名無しさん@お腹いっぱい。
09/10/25 18:14:27 peYtggov0
youtube仕様変わった?
155:名無しさん@お腹いっぱい。
09/10/26 20:56:59 LAR5AR2S0
最近、fc2系のサイトを見ているとfc2携帯変換とかいう広告が出てくるのですが
画像やテキストの上にもお構いなしで出る上に閉じるをクリックしないと消えない仕様の様で
非常に鬱陶しいです
表示させない様にするフィルタはあるでしょうか?
156:名無しさん@お腹いっぱい。
09/10/27 17:03:28 TXzS+eic0
URLの一部部を切り取るにはどうしたらいいの?
URLリンク(abcde0fghi0jk)
↑これの0と0の間の文字を切り取って(2つの0も含む
URLリンク(abcdejk)
こんな感じに置き換えたいんです
Match\00*0\1
$RDIR(\0\1)
157:名無しさん@お腹いっぱい。
09/10/27 17:06:07 TXzS+eic0
途中で送ってしまった・・
URLの一部部を切り取るにはどうしたらいいの?
URLリンク(abcde0fghi0jk)
↑これの0と0の間の文字を切り取って(2つの0も含む
URLリンク(abcdejk)
こんな感じに置き換えたいんです
一応自分でも書いてみたけど
Match \00*0\1
Replace $RDIR(\0\1)
何故か無限にヘッダを送り続けてて…
どうしたら良いのでしょうか
158:名無しさん@お腹いっぱい。
09/10/27 19:24:33 +0oqtcYu0
$RDIRだからじゃね、JUMP
159:名無しさん@お腹いっぱい。
09/10/28 18:25:51 wAiHxxu80
googleの検索結果で
リンク先が2chなら
リンクの色が赤になる
フィルターありますか?
160:名無しさん@お腹いっぱい。
09/11/06 16:27:27 MsLtt2qy0
>>159
亀レスだが作ってみた。
[Patterns]
Name = "Google Search Result : If URL of 2ch, it reddens."
Active = TRUE
URL = "www.google.co.jp"
Limit = 141
Match = "(<a href="URLリンク([^.]++.2ch.net))\0"
Replace = "\0 style="color : red;""
161:159
09/11/06 19:02:38 8Ee+4E3K0
>>160
ありがとうございました。
勉強になりました
また、よろしくお願いします。
162:名無しさん@お腹いっぱい。
09/11/07 18:15:52 q9wsQhRN0
>>161
URL = "www.google.co(m|.jp)/"にしたほうが良いかも
URLリンク(www.animate.tv)
PICKUP部分を丸ごと消すの下さい。
163:名無しさん@お腹いっぱい。
09/11/07 19:05:29 CeGvAUtbP
>>162
<div id="pickup_list" class="clearfix"> に
style="display:none" を足してやればいい
164:名無しさん@お腹いっぱい。
09/11/07 22:18:16 f9umQ68IO
WikipediaやUncyclopediaを閲覧しているときに
URLがエンコードされて表示されています。
HTML上のURLエンコードをデコードするようなフィルターってないでしょうか?
165:名無しさん@お腹いっぱい。
09/11/08 03:28:09 z+gdfd1e0
>>163
簡単な置き換えですか?
初心者スレに行った方がいいかな・・・
[Patterns]
Name = "animate.tv"
Active = TRUE
URL = "www.animate.tv/radio/"
Limit = 512
Match = "<div id="pickup_list" class="clearfix">"
Replace = "<div id="pickup_list" class="clearfix" style="display:none">"
166:名無しさん@お腹いっぱい。
09/11/08 11:44:11 srch9S8b0
No object!!(似非NoScript)って特定のページでフィルター自体読み込ませないようにしたいんだけどどうすればいい?
Allow_Int.txt Allow_Ext.txtに書き込むんじゃなくて
167:たぶん作者
09/11/08 14:01:29 0KA4py580
>>166
No object!! Int、No object!! ExtのURLのマッチの最後に
(^$LST(Bypass_No_object))とでも追記して、ブロックファイルを作成してあげればおけ
168:名無しさん@お腹いっぱい。
09/11/08 14:24:54 9nIjhOBb0
汎用スクリプトキラーはトラブルの元になるデメリットのほうが大きいな。
169:名無しさん@お腹いっぱい。
09/11/08 14:36:15 srch9S8b0
>>167
___
,;f ヽ
i: i
| |
| | ///;ト,
| ^ ^ ) ////゙l゙l;
(. >ノ(、_, )ヽ、} l .i .! |
,,∧ヽ !-=ニ=- | │ | .|
/\..\\`ニニ´ !, { .ノ.ノ
/ \ \ ̄ ̄ ̄../ / .|
170:名無しさん@お腹いっぱい。
09/11/09 00:01:10 TdpAEtnT0
あの〜YahooJトップなどにある動く広告だけをブロックするシンプルなフィルターだけってないですか?
killed多すぎですぐにbypassしてます
171:165
09/11/09 18:38:15 xwNpXEjJP
解決しました。
172:名無しさん@お腹いっぱい。
09/11/09 22:41:53 cwQVG1eF0
マッチした数字から指定した数字を加算減算してReplaceで使うことは出来るでしょうか?
例えば-1して、10000にマッチしたら9999に、1にマッチしたら0にするというような使い方です
173:名無しさん@お腹いっぱい。
09/11/09 23:51:45 2/6aQrFU0
>>172
実際にどういう処理を考えてるのか分かんないけど、javascript使うのはどうかな
Replaceに
<script>
var a = \0 - 1;
document.write(a)
</script>
とか書けば\0から-1したのが表示されるけど
174:名無しさん@お腹いっぱい。
09/11/10 00:52:13 fCJmA6uy0
>>173
ありがとうございます
実際に書こうとしてるのはこんな感じです
Match = <b>([0-9]+)\0</b>$SET(1=<a href="hoge">\0</a>)
Replace = \1
hogeの部分に\0から-1した数字を入れようとしています
ページ数のカウントは1からなのにページナンバーが0から振られているサイトで、
ページ数とページナンバーが一致しないのでこのような処理を考えています
$SETを使ってるのは、要点以外省略しましたが他にもいろいろとごちゃごちゃ書いてるからです
href属性なのでそのまま使えそうにないですが、教わったjavascriptでどうにかできないか考えてみます
175:名無しさん@お腹いっぱい。
09/11/10 01:22:16 2qgD9ArS0
「banner」にはマッチさせたいけど、
「nobanner」はマッチさせたくないって場合、
どうすればいいのか教えてください。
「(^no)banner」でやってみましたが、
「nobanner」の「banner」にもマッチしてしまいます。
176:名無しさん@お腹いっぱい。
09/11/10 08:35:53 wdcafvSo0
ヘルプ読んでる?
「否定の表現はどんな文字も消費しないことに気をつけてください。」
177:名無しさん@お腹いっぱい。
09/11/10 13:04:37 tG5gm3580
>>174
リスト作ってマッチさせれば出来るよ
末尾が0の時用に上の方に桁数の多いものを並べていく。replaceで\0をやれば-1したものが使える。
1000$SET(9=999)
100$SET(9=99)
200$SET(9=199)
略
800$SET(9=799)
900$SET(9=899)
10$SET(9=9)
20$SET(9=19)
略
80$SET(9=79)
90$SET(9=89)
1$SET(9=0)
2$SET(9=1)
略
9$SET(9=8)
0$SET(9=9)
この状態だと1~1999まで使える。
178:名無しさん@お腹いっぱい。
09/11/10 13:05:30 tG5gm3580
replaceで\0
↓
replaceで\9
179:名無しさん@お腹いっぱい。
09/11/10 17:52:49 oHc+8/+D0
リストの先頭につける
"NoAddURL" "JunkBuster" "NoHash" "NoUrlHash" "NoPreHash"
をどのように使い分ければよいのかわからない。
wikiを見ても詳しく書かれてないし、日本語ヘルプだけだと理解できない。
利用頻度が低くてメモリを節約したければ
"NoHash" "NoUrlHash" "NoPreHash"
の3つを書いておけばいいのかなと思うんだけどどうなんだろう。
なお、今回はURL転送用リストを書くつもり。
180:名無しさん@お腹いっぱい。
09/11/10 18:06:52 X3QfLcm20
>>175
そのまんま^nobannerでおk
181:名無しさん@お腹いっぱい。
09/11/10 20:22:48 sW0cgyTa0
無知は黙ってろ
182:名無しさん@お腹いっぱい。
09/11/13 00:10:14 R2TUfzRp0
>>177-178
ありがとうございます
取り込んだもともとの数字もそのまま使いたかったのと、
どうも数字以外にもマッチしてしまって誤爆していたので、
このように書いてみました
Match = <b>$LST(minus)</b>$SET(1=<a href="\0">\@</a>)
Replace = \1
リスト
[0-9]+&(100)\#$SET(0=99)
いまのところ問題なさそうです
リスト内にもコマンドが書けるという事を知らなかったので、
これからはもっといろいろ出来そうです
183:名無しさん@お腹いっぱい。
09/11/13 01:57:26 R2TUfzRp0
問題ありありでした……
>>182の書き方だと100,200,300じゃなくて100,101,102…300って書かないとダメか
なーんか10件,20件とキリのいい数字が並んでると思った
184:名無しさん@お腹いっぱい。
09/11/13 09:14:04 weOo+DXm0
<b>([0-9]++)\2$LST(minus)</b>$SET(1=<a href="\2\0">〜</a>)
リスト
>>177
$SET(0=)は1マイナスした数
<b>の後から数字を目いっぱい探して、末尾の数字がリストにマッチしたら変数0に-1された数が入ってる。
100とか末尾が00、000、・・・の時は09と誤爆してしまうので、リストの上に00,000を追加。これで先にマッチしてくれる。
185:名無しさん@お腹いっぱい。
09/11/14 21:24:44 PCvQuIhu0
Proxomitronに慣れる為にiswebの広告を消してみたんだが、これでいいんだろうか?
何か関係ないものを間違って消したりしないかな?
Matching Expression:<!-- isweb auto-insert * ((isweb auto-insert ?.* -->)|(NEWS Banner BOTTOM END -->))
Replacement Text:\0
186:名無しさん@お腹いっぱい。
09/11/14 22:34:00 hQCvmlas0
>>184
ありがとうございます
最短一致で桁が下がる場合以外の2桁以上の桁は別途格納し、
リストは桁が下がる場合と一の位の数字にのみ使うものと遅蒔きながら理解しました
<b>(([0-9]++)\2$LST(minus))\3</b>$SET(1=<a href="\2\0">\3</a>)
とすることで元の数字も使うことが出来ました
結局全部教えて貰ってしまって、ありがたいやら情けないやら……
187:名無しさん@お腹いっぱい。
09/11/14 22:47:19 hQCvmlas0
「桁が下がる」じゃなくて、「一番上の桁が変化する」でした、もうダメだ
188:名無しさん@お腹いっぱい。
09/11/15 10:04:05 uEZc9fp/0
>>185
自分で確認して間違ってなかったら、それでいい
Replaceの\0は要らないけど
189:名無しさん@お腹いっぱい。
09/11/15 13:01:04 Jr2UMHLQ0
入門用のサイトも読まないで質問してくるようなアホはスルーでおk
190:名無しさん@お腹いっぱい。
09/11/16 00:09:59 6fWF0Sv60
フィルタの高速化
URLリンク(vird2002.s8.xrea.com)
↑このページの、「$STOP, \k を使うと、速くなる」ってところ、変じゃない?
> Jump to abc.com test1 … 0.022ミリ秒
> Jump to abc.com test2 … 0.0906ミリ秒
>
> 約4倍の差ですね。
使ってる方が遅くなってるって言うか、
そもそも、Jump to abc.com test2だと、
その下のhtmlソースにマッチしないし。
> Jump to abc.com test2
> Match = "<a\s[^>]++href=$AV((URLリンク(abc.com))\0)$STOP()"
*の後のaが邪魔かな。
191:名無しさん@お腹いっぱい。
09/11/16 01:11:17 Zuwrcy+R0
そのページ読む価値なし。$NESTなんてまったく高速化になってないし。
192:名無しさん@お腹いっぱい。
09/11/16 12:51:19 7kd7J49q0
またチンコか。
193:名無しさん@お腹いっぱい。
09/11/16 17:18:20 MRGKoJdp0
>>191
場合によってはなるぜ?
194:名無しさん@お腹いっぱい。
09/11/16 17:27:54 X0F/vqJU0
>>190
>$URLを検索表現の先頭に〜
って$URL(〜)がマッチしなければ先頭に置いたほうが早いのかな?
URLで絞ってさらに、$URLで分ける場合。
195:名無しさん@お腹いっぱい。
09/11/17 05:46:01 3WbTWbjU0
URLリンク(www.ugtop.com)
196:think ◆bKk/qcAKuM
09/11/17 19:47:20 wo0mHQNx0
>>190
仰るとおり、矛盾していますね。"a" もtypoでした。後ほど直しておきます。
高速化に関しては感情的になって反論する方が多くいるのと、
環境に左右されるところが大きいので議論するつもりはないのですが、
指摘は有り難いです。ありがとうございます。
>>194
> >$URLを検索表現の先頭に〜
> って$URL(〜)がマッチしなければ先頭に置いたほうが早いのかな?
$URL(〜)がマッチしなくても、当該Webページフィルタが有効である限り、「一文字ずつ $URL() を試行してマッチしない処理を行う」ので遅くなると思います。
[Patterns]
Name = "New HTML filter"
Active = TRUE
URL = "hoge.com/"
Limit = 256
Match = "$URL(URLリンク(hoge.com))(test1)\0|"
"$URL(URLリンク(hoge.com))(test2)\0"
Replace = ""\0""
1. URLリンク(hoge.com) にリクエストする場合
一文字ずつ $URL(URLリンク(hoge.com)) を試行して、マッチすれば "test1" を返す。
マッチしなければ、$URL(URLリンク(hoge.com)) を試行して、マッチしない処理を行う。
2. URLリンク(hoge.com) にリクエストする場合
一文字ずつ $URL(URLリンク(hoge.com)) を試行して、マッチしない。
続いて、$URL(URLリンク(hoge.com)) を試行して、マッチすれば "test2" を返す。
管理しづらくなるでしょうが、フィルタを2つに分けるのが最も速くなります。
速度を妥協するなら、$URL() を後ろに持って行くということになります。
この辺は考え方次第なので、人それぞれだと思います。
197:194
09/11/17 20:03:20 oQ8C5FDM0
>>196
レスありがとうございます。
$URL()の場合は文字→$URLなので遅いんですね・・・
関連して、$KEYCHK(〜)はMatchではなく、URL部分に入れたほうが早いということでいいでしょうか?
198:名無しさん@お腹いっぱい。
09/11/19 01:46:21 0Fl5Neji0
>>193
分かりやすい例で例えるとすれば、「深爪すればダイエット出来る」と言ってるようなものだ。
確かに切った爪の重さの分だけ軽量化されてるが、果たしてこれはダイエットと呼べるのか、という。
感情的にでなく冷静に考えても高速化とは言い難い内容です。
199:名無しさん@お腹いっぱい。
09/11/19 09:37:35 nQbDfQsR0
分かりにくい例えより実例をこれでもかと言うほど沢山挙げた方が良いのでは?
200:名無しさん@お腹いっぱい。
09/11/19 10:10:10 o6io/xEKP
くだらん議論が延々続くだけだからやめれ
201:名無しさん@お腹いっぱい。
09/11/19 21:06:54 kXGvwsp70
>>198
例えるのなら「空気が適度に入った自転車」と「少し空気の抜けた自転車」が正しいと思うが
NEST使用例 :<tag$NEST(>,<)/tag>
NEST不使用例:<tag>*</tag>
サンプルテキスト:<tag>aaaaa</tag>とかをいっぱい
これだと上のがちょい速い
202:名無しさん@お腹いっぱい。
09/11/19 21:52:40 kNNZxI460
YourFileHostの動画に表示される広告って非表示にできませんか?
自分でやってみたらプレーヤーじたいが表示されなくなりました・・・
よかったら誰か教えてください、お願いします。
203:名無しさん@お腹いっぱい。
09/11/19 21:53:46 0JxVr7R/0
まず服を脱ぎます
204:名無しさん@お腹いっぱい。
09/11/19 22:03:28 gRUGig0h0
>>201
いかにもウンコ的思想だな。
205:名無しさん@お腹いっぱい。
09/11/19 22:55:16 kXGvwsp70
>>204
頭の悪い奴だな
速い「場合」もあるって言ってるだろ
NEST使っても$NEST(<tag>,</tag>)だと遅くなるんだぞ
206:名無しさん@お腹いっぱい。
09/11/20 02:15:34 RU/z784X0
> NEST使用例 :<tag$NEST(>,<)/tag>
( ゚Д゚) スゲー こんな書き方があったんだ。
勉強になったわ。
ちなみに、テスト結果。
0.40 <tag$NEST(>,<)/tag>
0.45 <tag>*</tag>
0.50 $NEST(<tag>,</tag>)
207:名無しさん@お腹いっぱい。
09/11/20 04:31:52 +UH4i8Cz0
(>,<)
208:名無しさん@お腹いっぱい。
09/11/20 04:32:17 i2XcIHdn0
(>,<)/~
209:名無しさん@お腹いっぱい。
09/11/20 14:25:49 o4Kj3ltD0
それって<tag>[^<]+</tag>より速いの?
210:名無しさん@お腹いっぱい。
09/11/20 18:13:26 +p1FrTHq0
>>206
大量に書いてテストしてるにも関わらず最大でも0.1しか違わないの?これが高速化?
211:名無しさん@お腹いっぱい。
09/11/20 20:16:13 5nz/1Z4p0
>>209
その書き方だと<tag>*</tag>より確実に遅くなるから
>>210
高速化するかどうかって話ならな
212:名無しさん@お腹いっぱい。
09/11/20 22:02:16 f9OjW4+n0
日本語とかの全角文字だけにマッチするには[%00-FF]?
半角すべてを除外したほうが楽かな?
213:名無しさん@お腹いっぱい。
09/11/20 22:46:37 +p1FrTHq0
>>211
なるほど、これはもう誤差の範囲ですね
214:名無しさん@お腹いっぱい。
09/11/20 23:04:09 mB4dIU6j0
>>213
うん
あとNESTだとマッチしなくて、*使ったらちゃんと動いたってのは前に経験した
215:名無しさん@お腹いっぱい。
09/11/21 12:40:00 UfPMXBtj0
いつもの人は相変わらずだね。
216:think ◆bKk/qcAKuM
09/11/21 14:33:17 A5RkcVy50
>>197
> 関連して、$KEYCHK(〜)はMatchではなく、URL部分に入れたほうが早いということでいいでしょうか?
そうですね。
URLマッチで $KEYCHK() した場合は、ブラウザからリクエストURIを受け取った時に一回だけフィルタテストします。
Match欄で $KEYCHK() した場合は、ブラウザが1バイト読み込む度にフィルタテストしてしまいます。
なので、前者の方が圧倒的に速くなります。
よくURLマッチに $TYPE() が使われますが、高速化と不必要に動作させないことで誤爆を防いでいる意味もあるので、
URLマッチは出来るだけ厳密にすると良いと思います。
217:名無しさん@お腹いっぱい。
09/11/21 15:50:19 dH2n5SMR0
前に$KEYCHKについて>197と同じようなことを質問したとき、
URLマッチよりも検索表現に置いた方が速いって答えをもらったことがあったな。
自分の質問のしかたが悪かったのかもしれん。
218:名無しさん@お腹いっぱい。
09/11/21 16:56:25 tgqfXaDr0
$TYPE(htm)はURLの前に置くか後に置くかで違いはありますか?
219:名無しさん@お腹いっぱい。
09/11/21 19:46:49 eTIfGYcR0
URLリンク(jp.techcrunch.com)
この記事読んでRippolを試してみたんだが、どうやらAdd LinkがRippolの検索では不具合を起こす模様
220:名無しさん@お腹いっぱい。
09/11/21 22:38:15 n5mdegag0
>>217-218
軽く実験してみた
単位は秒、約12,000行の30回の平均
$TYPE
URL
1.54803
Match 最後
1.41023
Match 最初
1.48366
$URL
URL
1.52293
Match 最初
1.98303
Match 最後
1.56253
$KEYCHK(面倒くさかったから否定でやった)
URL
1.5456
Match 最初
話にならないくらい遅い
Match 最後
1.88253
221:think ◆bKk/qcAKuM
09/11/21 23:02:31 A5RkcVy50
>>218
> $TYPE(htm)はURLの前に置くか後に置くかで違いはありますか?
URL = "hoge.com/$TYPE(htm)"
と
URL = "$TYPE(htm)hoge.com/"
の比較ということなら、実験できない(テストウインドウではヘッダが関わるテストは出来ない)のではっきりとは言えないのですが…。
通信する過程を考えると、
1. URLをリクエストする (URLマッチ)
2. サーバからContent-Typeヘッダを受け取る ($TYPE処理)
と処理順は決まっているので、「URLマッチ全体を構文解析した後に順番に処理している」気がします。
つまり、「どちらも同じ」なのではないかと。
222:think ◆bKk/qcAKuM
09/11/21 23:04:52 A5RkcVy50
>>221を訂正します。
× 「どちらも同じ」
○ 「処理順は変わらないので、同等の速度」
223:名無しさん@お腹いっぱい。
09/11/21 23:39:46 vMSDZcY30
>>175
[Patterns]
Multi = TRUE
Match = "$STOP()(?|)\0banner"
Replace = "\0-"
Multi = TRUE
Match = "(^no)(??)\0banner"
Replace = "\0-"
最初のフィルタで行頭に対応
2つめのフィルタで行頭以外に対応
無駄なマッチが出るので、Multi=TRUEは必須かも(無限ループ注意)
224:名無しさん@お腹いっぱい。
09/11/22 05:14:44 nrSpy19j0
win7 64bit上でProxomitronは動きます?
225:名無しさん@お腹いっぱい。
09/11/22 06:52:12 Ei3D7LOI0
ええ
226:名無しさん@お腹いっぱい。
09/11/25 01:07:40 DjTqUMwg0
初歩的な質問をさせてください。
特定の構文内に「ある文字列が無い場合」に注釈文を追記するフィルタを作りたいのですが
「ある文字列がある場合」の置換はカンタンなのですがこの場合の記述方法はどうすればいいのでしょうか?
ちなみにやりたい事はヤフオクにおいて「かんたん決済非対応」の案件に目立つ注記を挿入したいのです・・・。
227:名無しさん@お腹いっぱい。
09/11/25 09:09:42 X9dAPRAJP
「ある文字列が現れずに次に来る文字列が現れている場合」にマッチさせればいいのでは
228:名無しさん@お腹いっぱい。
09/11/25 12:43:18 DrlhOeoE0
適当な文字列(^*ある文字列)*でいけたんじゃないっけ?
別の方法としては
「在る文字列がある場合とない場合で共通している部分」
(在る文字列|$SET(0=〜))
「共通部分」
229:名無しさん@お腹いっぱい。
09/11/25 14:13:15 uRxOOtH30
>>226
(特定の構文内&&(^*ある文字列)*)
$NEST(特定の構文内の最初の文字列,(^*ある文字列)*,特定の構文内の最後の文字列)
特定の構文内の最初の文字列(^((^特定の構文内の最後の文字列)?)++ある文字列)*特定の構文内の最後の文字列
230:名無しさん@お腹いっぱい。
09/11/25 22:04:08 E8oKtaMkP
(^(^$NEST(<tag, id="hoge"[^>]+>(^*ある文字列)*,</tag>)))
(<tag[^>]+>)\#$SET(#=挿入内容)
とか
231:名無しさん@お腹いっぱい。
09/11/27 01:39:17 5vCUWHnt0
皆様アドバイスありがとうございました。
直感的に理解しやすい>>231の真ん中の行を使ってみました。
[Patterns]
Name = "Yahoo auctions alerts"
Active = TRUE
URL = "*auctions.yahoo.co.jp*"
Limit = 4000
Match = "$NEST(<h3>[%bb][%d9][%ca][%a7][%a4][%a4][%a4][%cb][%a4][%c4][%a4][%a4][%a4][%c6]</h3>,(^*[%a4][%ab][%a4][%f3][%a4][%bf][%a4][%f3][%b7][%e8][%ba][%d1])\1,</table>)"
Replace = "<h3>[%bb][%d9][%ca][%a7][%a4][%a4][%a4][%cb][%a4][%c4][%a4][%a4][%a4][%c6]</h3>,\1,[%a4][%ab][%a4][%f3][%a4][%bf][%a4][%f3][%b7][%e8][%ba][%d1][%c8][%f3][%c2][%d0][%b1][%fe]</table>"
不恰好ながらもこれでうまくマッチしてくれたのですが置換後の文字がコードそのまま置換されてしまいました。
全角文字に変換して置換するにはどこを直せば良いのでしょうか・・・・
232:名無しさん@お腹いっぱい。
09/11/27 01:50:24 QxjsnpfI0
>>3
---- 文字参照関係 ----
233:名無しさん@お腹いっぱい。
09/11/27 06:26:38 nvFnCeFV0
このソフトってxmlタグは書き換えられないのか?
できないんだが
234:名無しさん@お腹いっぱい。
09/11/27 08:14:49 mgg7SA2r0
Conetnt-Typeヘッダの text/xml や application/xml を text/html とかに適当に置換
235:名無しさん@お腹いっぱい。
09/11/27 09:32:28 GwH22NJEP
$FILTER(true)
236:名無しさん@お腹いっぱい。
09/11/27 15:15:25 nvFnCeFV0
サンクス
237:名無しさん@お腹いっぱい。
09/11/27 17:28:10 XLzW5h/Z0
>>231
それ$NEST使う必要ないね。
どうしても使うなら$NEST(<table〜,〜,</table>)かな。ネストのカッコ内の最初と最後のタグは対。
238:名無しさん@お腹いっぱい。
09/11/27 18:02:28 D6GsiNhZP
一応範囲狭める役には立ってるんじゃないかな
239:名無しさん@お腹いっぱい。
09/11/28 03:38:48 dHca1lakP
問題無くてもできるアドバイスはしてやってもいいだろ
240:名無しさん@お腹いっぱい。
09/11/28 11:39:54 A5NrQKd10
間違ったアドバイスしといて何言ってんだこいつは。。。
241:名無しさん@お腹いっぱい。
09/11/28 11:40:50 0Ggu2iJG0
(;゚д゚)ァ
242:237
09/11/28 11:52:30 69SxiubT0
一応行っておくけど≠>>239
$NESTって始まりと終わりがついになってるのしか見たことないけど違う場合って、ネストなしのマッチングルールと違いあるの?
243:名無しさん@お腹いっぱい。
09/11/28 12:33:21 DWwYiZb0P
ABC⇒Aにマッチ→Bにマッチ→Cにマッチ
$NEST(A,B,C)⇒Aにマッチ→AかCにマッチ(AとCのマッチした数が同じになるまで検索)→間の部分がBにマッチ
244:名無しさん@お腹いっぱい。
09/11/28 12:43:57 69SxiubT0
>>243
すげーよくわかったw
ネストがA(*C*A)++B(*C*A)++C見たいな感じ(あくまで”みたいな”。Bの位置が不十分)ってのはわかってたんだけど、やっとすっきりしたよ。
確かに>>237間違ってたな。スマン
245:think ◆bKk/qcAKuM
09/11/28 14:08:25 BKXCBlZx0
蛇足ですが、
$NEST(A,B,C)
は入れ子になっていなければ、
A*C&&ABC
とほぼ等価で、役割的には Bounds が該当しますね。
入れ子になっていない場所で $NEST を使うと「本当に入れ子になってしまった場合」に予期せぬ事態を招いてしまう可能性があります。
特にYahooはお世辞にも綺麗なソースとは言えないので、入れ子チェックが機能するよう $NEST を使った方が無難だと思います…。
[Patterns]
Name = "Yahoo auctions alerts [2009/11/28] fixed"
Active = TRUE
URL = "page[0-9].auctions.yahoo.co.jp/$TYPE(htm)"
Limit = 4096
Match = "($NEST(<div,\s[^>]++class=$AV(untHead)[^>]+>*<h3>[%bb][%d9][%ca][%a7][%a4][%a4][%a4][%cb][%a4][%c4][%a4][%a4][%a4][%c6]</h3>*,</div>))\#"
" $NEST((<div)\#,(\s[^>]++class=$AV(untBody)[^>]+>)\#"
"(^*[%a4][%ab][%a4][%f3][%a4][%bf][%a4][%f3][%b7][%e8][%ba][%d1])"
"(*<th\s[^>]+>[%b7][%e8][%ba][%d1][%ca][%fd][%cb][%a1]</th> <td\s[^>]+>)\#$SET(#=<strong style='color: red;'>かんたん決済非対応</strong><br />)\#"
",</div>)$STOP()"
Replace = "\@</div>"
246:名無しさん@お腹いっぱい。
09/11/28 14:22:00 BKXCBlZx0
>245のフィルタのテスト用URL
URLリンク(page9.auctions.yahoo.co.jp)
247:名無しさん@お腹いっぱい。
09/11/29 00:44:53 qupe/7Tm0
>>247
URLリンク(upload.jpn.ph)
こんな感じに化けてしまうのですが・・・
248:名無しさん@お腹いっぱい。
09/11/29 00:56:42 LK6AZYXkP
かんたん決済非対応
↓
かんたん決済非対応
249:名無しさん@お腹いっぱい。
09/11/29 01:06:13 qupe/7Tm0
>>250
補足ありがとう。
あとヤフオクはpage10以降もあるので一桁のみだと不足しているので少し変えてみたよ。
[Patterns]
Name = "Yahoo auctions alerts [2009/11/28] fixed"
Active = TRUE
URL = "*.auctions.yahoo.co.jp/$TYPE(htm)"
Limit = 4096
Match = "($NEST(<div,\s[^>]++class=$AV(untHead)[^>]+>*<h3>[%bb][%d9][%ca][%a7][%a4][%a4][%a4][%cb][%a4][%c4][%a4][%a4][%a4][%c6]</h3>*,</div>))\#"
" $NEST((<div)\#,(\s[^>]++class=$AV(untBody)[^>]+>)\#"
"(^*[%a4][%ab][%a4][%f3][%a4][%bf][%a4][%f3][%b7][%e8][%ba][%d1])"
"(*<th\s[^>]+>[%b7][%e8][%ba][%d1][%ca][%fd][%cb][%a1]</th> <td\s[^>]+>)\#$SET(#=<strong style='color: red;'>かんたん決済非対応</strong><br />)\#"
",</div>)$STOP()"
Replace = "\@</div>"
どうせなら挿入箇所を「商品の情報」の部分にできると下までスクロールさせる手間も省けて便利になるかな〜。
250:名無しさん@お腹いっぱい。
09/11/29 01:39:59 0ZxInaX90
>>249
レス番ずれてるから再取得で。
251:名無しさん@お腹いっぱい。
09/11/29 02:00:36 LK6AZYXkP
" $NEST((<div)\#,(\s[^>]++class=$AV(untBody)[^>]+>)\#"は
" $NEST(<div,$SET(#=<div)(\s[^>]++class=$AV(untBody)[^>]+>)\#"
に変えたほうがいいかも。(入れ子になってるとその分#に<divが入って<div<div<div class="untbody">みたいになるため)
252:名無しさん@お腹いっぱい。
09/11/29 17:52:48 Ln5ptCH+0
アプロダにjune+8が来てる
2009-11-26 Naoko-4.5June+8 (日本語版実行ファイル)
Proxomitron のウィンドウにファイルを D&D ドロップするとブラウザで開く機能
について、ドライブ名の : を | に変換しないようにしました(IE7 対策)。
例: いままで URLリンク(file)
↓
この改造版 URLリンク(file)
253:名無しさん@お腹いっぱい。
09/12/05 01:53:07 m9ykKoqI0
>>233-235を読んだんだが、自分はいつも>>234の方法を使っているんだが、
>>235を使ったフィルターってどんなカタチになるんだろう。
$FILTERって使ったことないんだよなあ。
254:名無しさん@お腹いっぱい。
09/12/05 12:34:21 zC+SMZbR0
>253
たぶんこんな感じ
Match=(application/(xml|xhtml\+xml)*)\#
Replace=\@$FILTER(TRUE)
255:名無しさん@お腹いっぱい。
09/12/05 18:12:48 k2lk6FHZ0
\kを置換テキストに含めた場合、
\kを置いた時点ですべてのフィルタを$STOPしたと考えてもいいのかな。
\k$STOP()
などと書くのではなく、\kだけで十分なのかという疑問。
256:名無しさん@お腹いっぱい。
09/12/05 20:02:03 cxBdtyok0
>>255
\kだけで十分。以降の接続が全部切断される。
257:名無しさん@お腹いっぱい。
09/12/05 23:09:35 k2lk6FHZ0
どうもありがとう。
ヘッダフィルタでは当該URIのみ切断されるということを意識しておく必要がありそう。
ページフィルタでは以降すべて切断。
258:名無しさん@お腹いっぱい。
09/12/05 23:14:27 cxBdtyok0
あ、ちょっと言葉足らずだったかもしれん。
ページフィルタでも、その接続(同じURI)の\kをおいたマッチ部分以降の接続(=データの受信)が止まる。
だから同じページにiframeとかあっても、それぞれで\kを使わないと元ページとiframe両方はカットされない。
グローバル変数も同じで、同じURIの通信中でしか参照できない。
259:253
09/12/07 03:54:46 GJOep2gE0
>>254
ありがトントン。
なるほどなあ。
260:名無しさん@お腹いっぱい。
09/12/09 22:08:59 U93vNDs00
ある部分から下全部を削除して
最後の</Body></html>だけを残したいのだけど
全部ちゃんとマッチさせて置換しないとだめでしょうか?
261:名無しさん@お腹いっぱい。
09/12/09 22:11:00 b6r4kz/o0
[Patterns]
Name = ""
Active = TRUE
Limit = 32767
Match = "(ある部分)\0"
Replace = "\0\k</Body></html>"
262:名無しさん@お腹いっぱい。
09/12/09 23:54:13 U93vNDs00
ありがとうございました
できました
263:名無しさん@お腹いっぱい。
09/12/14 18:30:40 BalVC2AP0
通常は「default.cfg」を使用しています
「google chrome」を使う時だけ別のcfgファイルを
使いたいのですが
いちいち設定ファイルを
読み替えなくてもいいようにするには
どうすればよろしいでしょうか?
264:名無しさん@お腹いっぱい。
09/12/14 19:43:51 YFoatX1y0
オミトロンを2つ別の場所にインストして
それぞれ違うcfgを読み込ませれば?
試してないから2つ同時に起動できるかわからないけど
265:名無しさん@お腹いっぱい。
09/12/14 19:58:58 jYqYwV6q0
ユーザーエージェントで判断すればいいんじゃね?全部のフィルタ手直ししないといけないけど。
266:名無しさん@お腹いっぱい。
09/12/14 20:25:30 +c9/0/SaP
常に複数台のPCを動かせるなら別マシンに突っ込むのもありだな
267:263
09/12/14 23:46:45 BalVC2AP0
ありがとうございました。
「URL コマンド」で解決しました。
268:名無しさん@お腹いっぱい。
09/12/15 01:03:09 lydYrvt00
Google image redirectorを使ったときに
[検索ツールを表示]が出るようにならないでしょうか?
よろしくお願いします!
Name = "Google image redirector [070728]"
Active = TRUE
URL = "images.google."
Limit = 1024
Match = "<script*>$SET(9=<script defer="defer" language="null">)"
"|"
"<noscript>|</noscript>"
"|"
"<a href=/imgres\?imgurl=\0\&imgrefurl=\1\&*>"
"$SET(9=<a href=$UESC(\1) target=_blank>link</a> <a href=$UESC(\0) target=_blank>)"
Replace = "\9"
269:名無しさん@お腹いっぱい。
09/12/15 22:32:14 cVZjG1+u0
通常使うオミトロンを終了した直後、
別の場所にあるオミトロンを起動するバッチを書くとか。
元に戻すのもバッチで。
270:名無しさん@お腹いっぱい。
09/12/15 22:56:30 EKA2nII/0
それだと正常終了できなかった時に次回起動時に困るんじゃないかな?
271:名無しさん@お腹いっぱい。
09/12/16 03:05:22 CccoSHbZ0
パッチ書くならdefault.cfgを書き換えるだけでよくね?
272:名無しさん@お腹いっぱい。
09/12/16 20:42:56 gHreM8Tt0
>>263
Omitronを別な場所にインストールして2つ起動。
Fiforex側の使用ポートを8080、Chrome側の使用ポートを8081とかにする。
ん?これでいいんじゃね?
273:名無しさん@お腹いっぱい。
09/12/16 20:45:14 gHreM8Tt0
…と思ったら解決してたのかonz
あとOmitronって違和感あるな。Proxomitronかオミトロンだな、やっぱ。
274:263
09/12/16 21:54:53 34P4BWR80
解決法をちゃんと書かなくてすいませんでした。
Chrome用のcfgファイルをchrome.cfgとして
「 --proxy-server="127.0.0.1:8080" URLリンク(load)」
というオプションを付けて起動することでうまくいきました。
またメインのブラウザには「URLリンク(load)」を付けて
元に戻すようにしました。
275:263
09/12/16 22:10:24 34P4BWR80
すいません
「?」は無くてもいいのか。
276:名無しさん@お腹いっぱい。
09/12/16 23:55:05 HiTI04Ro0
それだとなんか重くなりそうな気がするね。
277:名無しさん@お腹いっぱい。
09/12/19 00:00:37 DOua03Y/0
Proxomitronにコマンドラインなんてあったのか。
wikiには何も書かれてない。日本語ヘルプには一応情報があるけど凡例はなし。
278:名無しさん@お腹いっぱい。
09/12/23 00:29:05 J9HLM0bR0
フィルタ修正のお時間だよ
URLリンク(headlines.yahoo.co.jp)
279:名無しさん@お腹いっぱい。
09/12/23 17:53:25 BrbM/dH7P
それ別に修正しなくてもいいんじゃ?
通常のURLへ飛ばすだけだし
280:名無しさん@お腹いっぱい。
09/12/28 02:32:57 L2164tLL0
すみません
上地雄輔のブログみたいな <br> ではなく <div> で多改行するのをカットするフィルタを作って頂けませんでしょうか
281:名無しさん@お腹いっぱい。
09/12/28 02:34:39 L2164tLL0
あ、上記に書いた上地雄輔ブログのURLです
URLリンク(ameblo.jp)
よろしくお願い致します。
282:名無しさん@お腹いっぱい。
09/12/28 02:40:53 pXmI6vxB0
[Patterns]
Name = "New HTML filter"
Active = TRUE
URL = "ameblo.jp/kamijiyusuke/"
Limit = 32
Match = "<DIV>\ </DIV>"
ヘルプとソース見ればこれぐらいはすぐできるとおもうよ。
urlは適当に。
283:名無しさん@お腹いっぱい。
09/12/28 02:41:38 pXmI6vxB0
Match = "<DIV>\ </DIV>"
284:名無しさん@お腹いっぱい。
09/12/30 12:34:38 hyturSU0P
URLリンク(twitter.com)
の
abcの部分をReplaceに引用して使いたいんだけど、そういうコマンドとかある?
285:名無しさん@お腹いっぱい。
09/12/30 14:24:10 fKkAlk0WP
$SETと$GET
286:名無しさん@お腹いっぱい。
09/12/30 15:31:35 ZUk37fxp0
なぜにグローバル?
普通に\0とかでいいだろ
287:名無しさん@お腹いっぱい。
09/12/30 20:19:44 tvr3yhpE0
まず$URL()コマンドだろ。
まぁJSみたいにすぐ取得できるんだけどね。
URLリンク(proxomitron.sakura.ne.jp)
\h URL のホスト部分が格納されています。
\p URL のパスの部分が格納されています。
288:名無しさん@お腹いっぱい。
09/12/30 20:44:09 fKkAlk0WP
>>286
\0でreplaceにつかえる?$URLなしで
289:名無しさん@お腹いっぱい。
09/12/30 23:30:30 ZUk37fxp0
$URL無しで$SET使って出来たっけ?
290:名無しさん@お腹いっぱい。
09/12/30 23:57:19 tvr3yhpE0
なんか会話が成立していない気がするんだがww
URLの一部分を確認→$URL必要 / \hや\p等でも可能
変数に代入→$URL(\0)
$SET使う→一つ上の$URL(\0)を使わないとできない、$SET(Url=\0)みたいな。
結論:$URL(URLリンク(twitter.com))
Replace:\0でおk
291:名無しさん@お腹いっぱい。
09/12/31 00:25:43 MVPdQf7SP
$URL使わなくてもURLのマッチのときに$SET使えば可能
292:名無しさん@お腹いっぱい。
09/12/31 00:29:36 2ZEtDLuZ0
あぁ、その手があったね
でも\0〜\9に代入してもReplaceでは使えないバグがある。(はず)
293:名無しさん@お腹いっぱい。
09/12/31 01:16:19 A258jhxZ0
対象URL: URLリンク(www.example.com)
[HTTP headers]
In = FALSE
Out = TRUE
Key = "URL: capture test 1"
URL = "www.example.com/\0"
Replace = "$ALERT(\0)"
マッチはするが、ダイアログはブランク(\0に何も取り込めていない)。
[HTTP headers]
In = FALSE
Out = TRUE
Key = "URL: capture test 2"
Match = "URLリンク(www.example.com)"
Replace = "$ALERT(\0)"
マッチして、ダイアログは"~user"を通知する。
294:名無しさん@お腹いっぱい。
09/12/31 01:33:20 2ZEtDLuZ0
あれ、
[Patterns]
Name = "New HTML filter"
の方の話じゃなかったの?
違ったなら>>293の言うとおりだわ。
295:名無しさん@お腹いっぱい。
09/12/31 01:40:26 0dhOdK0G0
URL = "www.example.com/(?+)\0"
296:名無しさん@お腹いっぱい。
09/12/31 01:42:10 MVPdQf7SP
[HTTP headers]
In = FALSE
Out = TRUE
Key = "URL:capture test"
URL = "www.example.com/(?+)\0$SET(a=\0)$ALERT(url : \\0=\0 / a=$GET(a))"
Replace = "$ALERT(replace : \\0=\0 / a=$GET(a))"
297:名無しさん@お腹いっぱい。
09/12/31 02:19:02 A258jhxZ0
[HTTP headers]
In = FALSE
Out = TRUE
Key = "URL:capture test"
URL = "www.example.com/(?+)\0$SET(\1=\0)$ALERT(url : \\0=\0 / \\1=\1)"
Replace = "$ALERT(replace : \\0=\0 / \\1=\1)"
URL欄で格納したローカル変数をReplace欄で参照する場合、にのみ難があるようだね。
298:名無しさん@お腹いっぱい。
09/12/31 02:31:23 RLLePgiq0
おまえらwiki読めよ
299:名無しさん@お腹いっぱい。
09/12/31 02:33:11 A258jhxZ0
他人の知識を天下り的に受け入れるよりも
自分でいろいろと試行錯誤した方が体得出来るよ。
300:名無しさん@お腹いっぱい。
09/12/31 02:49:15 RLLePgiq0
ドキュメントも読まず、ナレッジベースも使わず
独力で無駄な試行錯誤をした末に
「URL欄で格納したローカル変数をReplace欄で参照する場合、にのみ難がある」
とか間違った結論を体得してどうするんだ。
正しくは
・URL match で取り込んだローカル変数は Bounds, Match, Replace では消えている。
ただし Match が <start> または <end> のときは Replace に残る。
だ
301:名無しさん@お腹いっぱい。
09/12/31 03:08:49 Rc/lOCEA0
ヘッダ・フィルタについて語ってるんなら>>297で正しいようだが
なんでそんなに鼻息荒いんだ
302:名無しさん@お腹いっぱい。
09/12/31 03:12:05 OAeooqzC0
> 無駄な試行錯誤
無駄?
大勢の試行錯誤の集積が即ち集合知としての wiki だろ?
303:名無しさん@お腹いっぱい。
09/12/31 15:08:09 616SBFom0
304:名無しさん@お腹いっぱい。
09/12/31 16:24:05 2ZEtDLuZ0
うっかり(^(^〜))の時に$STOP()をつけ忘れてPCが吹っ飛ぶのにちょいイラっときたので、
フィルタで対策できないかと思ってつくてみた。フィルタ群の一番上に置いておくことを想定。
が、自分自身でマッチして終了しやがるwwww
[Patterns]
Name = "check : $STOP()"
Active = TRUE
Multi = TRUE
URL = "$TYPE(htm)"
Limit = 8
Match = "(^(^(</head$SET(head_count=$GET(head_count)1)"
"|<body$SET(body_count=$GET(body_count)1)"
"|</body$SET(body_e_count=$GET(body_e_count)1)"
")))("
"($TST(head_count=111111111)"
"|$TST(body_count=111111111)"
"|$TST(body_e_count=111111111)"
")$SET(0=\k use STOP)"
"|$SET(0=))"
Replace = "\0"
最後の行の$SET(0=)をなくしても、全部1行に書いても同じ・・・
目に見えない空白でも入っているのだろうか・・・
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
5200日前に更新/226 KB
担当:undef