[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 2chのread.cgiへ]
Update time : 11/09 04:52 / Filesize : 226 KB / Number-of Response : 778
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

Proxomitron フィルター作成スレッド Part12



196 名前:think ◆bKk/qcAKuM mailto:sage [2009/11/17(火) 19:47:20 ID:wo0mHQNx0]
>>190
仰るとおり、矛盾していますね。"a" もtypoでした。後ほど直しておきます。

高速化に関しては感情的になって反論する方が多くいるのと、
環境に左右されるところが大きいので議論するつもりはないのですが、
指摘は有り難いです。ありがとうございます。

>>194
> >$URLを検索表現の先頭に〜
> って$URL(〜)がマッチしなければ先頭に置いたほうが早いのかな?
$URL(〜)がマッチしなくても、当該Webページフィルタが有効である限り、「一文字ずつ $URL() を試行してマッチしない処理を行う」ので遅くなると思います。

[Patterns]
Name = "New HTML filter"
Active = TRUE
URL = "hoge.com/"
Limit = 256
Match = "$URL(hoge.com/1/)(test1)\0|"
"$URL(hoge.com/2/)(test2)\0"
Replace = ""\0""

1. hoge.com/1/ にリクエストする場合
一文字ずつ $URL(hoge.com/1/) を試行して、マッチすれば "test1" を返す。
マッチしなければ、$URL(hoge.com/2/) を試行して、マッチしない処理を行う。

2. hoge.com/2/ にリクエストする場合
一文字ずつ $URL(hoge.com/1/) を試行して、マッチしない。
続いて、$URL(hoge.com/2/) を試行して、マッチすれば "test2" を返す。

管理しづらくなるでしょうが、フィルタを2つに分けるのが最も速くなります。
速度を妥協するなら、$URL() を後ろに持って行くということになります。
この辺は考え方次第なので、人それぞれだと思います。






[ 続きを読む ] / [ 携帯版 ]

全部読む 前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<226KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef