こんなソフト無いです ..
[
2ch
|
▼Menu
]
■コピペモード
□
スレを通常表示
□
オプションモード
□このスレッドのURL
■項目テキスト
69:login:Penguin 08/01/02 01:33:08 JW3tW8Qb ローカルに1000ほどのhtmlファイルがありまして、それらの画像やリンクなどの要素をリスト化したいのですが、 何かいいスクリプトはないでしょうか? 例えば <a href="a.htm"><img src="b.jpg"></a> だと a.htm b.jpg を抜き出したいのです。 perlやrubyなどで誰かが作っているだろうとググってたのですが、 なかなか見つかりません 70:login:Penguin 08/01/02 02:01:48 HdOCJdYN やりたいことがよくわからないが、 grepでいけるんじゃないの? 71:login:Penguin 08/01/02 02:09:21 SNuJUPSX >>69 自分で書け。初心者向けのいい題材だ。 ヒント $ echo '<a href="a.htm"><img src="b.jpg"></a>' | tr '>' '\n' | sed -e 's/^.*"\(.*\)"/\1/g' a.htm b.jpg </a 72:login:Penguin 08/01/02 02:22:48 SNuJUPSX >>70 そうだね。grepを使った方が良かったかも。 $ echo '<a href="a.htm"><img src="b.jpg"></a>' | tr '"' '\n' |grep -e "[a-zA-Z0-9]*\.[a-zA-Z0-9]\{1,3\}" a.htm b.jpg >>69 大体の正規表現が書けたら、 for f in *.html; do ここに処理を書く ; done でその1000個のhtmlファイルを一気に処理する
次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
レスジャンプ
mixiチェック!
Twitterに投稿
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch
5179日前に更新/202 KB
担当:undef