[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

567 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 22:20]
unlov を使いたまえ

568 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 22:23]
>>567
サンクスコ!

569 名前:名無しさん@お腹いっぱい。 [03/04/23 22:46]
Linuxバイナリかよ。
unixじゃないじゃn

570 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 22:53]
偽装の仕様は公開してくれないの?
あれば自分で作りたいんだけど。

571 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 23:26]
>>570
「偽装」の目的を考えれば、公開する訳がない気がする…

572 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 23:33]
偽装の目的ってなんなのかな。
jpg ファイルに埋め込めればいいとかじゃなくて?
結合ツールが出回ってるのに公開しない理由とわ?

573 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 00:23]
>>572
安全保障上の理由とおもわれ。

574 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 12:14]
>>563
これじゃだめなのか?
#!/bin/sh
len=2
fmt="%s%0${len}d%s\\n"
IFS='[]-
'
cat list | while read base beg end sfx; do
i=$beg
while [ $i -le $end ]; do
printf $fmt $base $i $sfx
i=`expr $i + 1`
done
done >newlist


575 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 18:47]
>>570
ハックという言葉は知っているかね?



576 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 19:43]
ハックの大事なものを知ってるよ
友達どうしの約束と涙の止まるおまじない

577 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/25 01:38]
>>575
ロリ.hackハァハァ

578 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/25 20:09]
日替わりに動画を更新するエロサイトでは、URL はほぼ固定で日付に相当する
部分だけを変えるところも多い。

で、そういうサイトの動画を楽にまとめて落とすスクリプトを書いてみた。date の書式を
利用しているので手抜きができる。使う種類は限られていると思うが、例えば %m は月に
%d は日にそれぞれ置換される。

以下のような感じで、データの追加も簡単だし、一時的にチェックから外したければ、
END 以下に移動させてコメントアウトしておけばいい。単純な割にはめちゃ便利かも

#!/bin/sh

cat <<END | while read i; do wget $(date "+$i"); done
www.nantoka/~abc/defg%m-%d.zip
www.kantoka/~hij/klmn%m-%d.zip
www.doko/~op/qr_stu%m-%d.zip
www.kasiko/~vw/xyz99%m-%d.zip
END

579 名前:名無しさん@お腹いっぱい。 [03/04/26 06:19]
このスレは素晴らしいですね!
ところで、上の方でもつぶやいていた方がいましたが、
yahoo groops(eGroup)の記事や画像を自動ダウンすることは可能なのでしょうか?

winのオートパイロットソフトなども試したのですが、認証が越えられずダメでした・・。
wgetでもダメならば、cygwinのlynxならば認証を受けることができるので、
lynxをスクリプトで自動で操作してダウンする、などということは可能なのでしょうか?

wgetはwinのIEのクッキーではダメなんですよね?

580 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

581 名前:名無しさん@お腹いっぱい。 [03/04/26 06:45]
$ wget --help|grep cookie
--cookies=off don't use cookies.
--load-cookies=FILE load cookies from FILE before session.
--save-cookies=FILE save cookies to FILE after session.


582 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 01:37]
>552
このスレのちょっと前に出てた、ディレクトリ以下のインデックス一覧表示を
追加して使わせて貰ってます。
ディレクトリの中に.jpgがない場合のエラー処理が要るような気もするけど
まぁいいや。

#ソースの折り返しとかについては勘弁ね。

#!/bin/sh
DIR=`pwd`
FN=`basename $PWD`
URL_HEAD='www.漏れのティンコ.co.jp'
echo "<html><head><title>$FN</title><head><body>" > index.html
echo "<div align=center><font size=4>$FN</font></div>" >> index.html
for i in `ls`
do
if [ -d $i ] ; then
cd $i
ls |grep "[jJ][pP][gG]"| sed 's%\(.*\)%<a href="\1" alt="\1"><im
g src="\1" height=120 width=80></a>%' > index.html
n=`ls | grep "[jJ][pP][gG]" | head -1`
cd $DIR
echo "<IMG SRC=\"$URL_HEAD/$i/$n\" HEIGHT=\"120\" WIDTH=\"80\"><
a href=\"$URL_HEAD/$i/\" target=\"_blank\"><font size=1>$i</font></a>" >> index.
html
fi
done
echo "</body></html>" >> index.html

583 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 03:14]
うーむ。

index.html あたりからリストを生成して、wget を 10 個くらいで一気に
fetch してくる perl スクリプトってない?

584 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 03:51]
何を取ってきたいのか判らんのにどうしろと

585 名前:583 mailto:sage [03/04/28 03:58]
HTML::LinkExtor URI::URL LWP::UserAgent HTTP::Request

でリスト作って、2chJpgGetter の wget_down を回してやればいいことに
気がついて、ほぼ実装完了。





586 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 04:33]
>>582
grep -i .jpg を使わない理由があるんだろうか

587 名前:583 mailto:sage [03/04/28 05:28]
ヘタレな index 作るより、thumbnail_index を回せば
何も苦労しなくていいわけだが。

588 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/29 02:20]
Yahoo! Groupsにコマンドラインからログインする方法を試行錯誤してたら
ログイン失敗しすぎてアカウント一時停止された…半日おあずけ。

もしかしてhttpsでコマンドラインからLynxとかでpostするときは
コマンドラインに渡す文字列の時点で暗号化されてないとダメだったんだろうか…
いや、そんなことしなくてもいちどLynxでSSLログインして
そのクッキーをwgetに流用すればよかったんではないだろーか…

とか(w

589 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/29 16:32]
Yahoo! groupsのメーリングリストアーカイブからファイルを持ってくるPerlScriptならあった。
www.lpthe.jussieu.fr/~zeitlin/yahoo2mbox.html
ログインと年齢チェックのとこを借りればfilesやalbumsは問題なさげ。
つーかLynxやw3mでのpostとwgetを組み合わせようとするのは漏れには難しいよママン…

590 名前:579 mailto:sage [03/04/30 02:01]
ヤフーグループのことを質問したものです。
おぉ!いろいろ試してくださったんですね!!情報をくださった方まで!
超感謝です!

アルバムはgethttpというプロクシサーバーを立てて、
スライドショーにすると、そんなに手間がかからず保存できます。
ファイルはなぜかダウンロードマネージャーでダウンできることも多いんですよ。
それなんで、一番大きな問題はメッセージだったのです。
紹介していただいたスクリプトを使ってみます。

591 名前:579 mailto:sage [03/04/30 02:49]
うーん・・。なぜかダウンロードが始まらない・・。
0kbのファイルができるだけで・・。


592 名前:582 mailto:sage [03/05/03 00:28]
>586
>grep -i .jpg を使わない理由があるんだろうか

いや、grep -i の方が正しいと思いやす。


593 名前:名無しさん@お腹いっぱい。 [03/05/06 04:06]
>>589のやつ、うまくいった人いますか?

594 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

595 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん



596 名前:名無しさん@お腹いっぱい。 mailto:sage [03/05/22 08:43]
自分にとっては、今までのスクリプトのなかで>>578が実用度が一番高い。
単純な割にいいね

597 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 18:44]
質問があります。javaなどのScriptがアクセスするページの画像をダウンロードできるソフトって
ありますか?
できれば連番で・・・

598 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 18:46]
>>597
具体的にどこよ。

599 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 21:14]
>>598
「みてみて」っていうサイトです

600 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 21:31]

ttp://www.mitemite.ne.jp/

601 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/03 17:52]
↑無理?

602 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/03 17:55]
>>589
市販のオートパイロットではエラーがでちゃうんです


603 名前:名無しさん@お腹いっぱい。 [03/06/14 22:39]
ごぶさたあげ

604 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/17 20:47]
外出かもしれんが、ワードのマクロで連番のアドレス書いているのは俺だけだろうか?
www.xxxx.001.jpg
なら←×4・BS・数を入力を繰り返して・・・・で、100位までつくってあるんだが
そしてIriaにはりつけ

605 名前:ななす mailto:sage [03/06/17 21:20]
>>604
言ってる意味が理解できないが
ワードのマグロ?なんか青いオサカナ泳ぐういんどーずのヤシか
イチリアとか言うヤシは張り付けのクリップボードなのか
この板の香具師は概ねwgetのjpg狩りで
最悪連番必要でもwgetと好みのシェルの機能で[0-9]連番指示をだすわけで
wget -c www.eroero.uhiuhi.com/{cyapa,ozeu,hitoduma}/00[0-9].jpg





606 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 09:43]
連番生成・・・cygwin上でシェルスクリプト
ダウンロード・・・Irvine
POSTを喋らしたりcookie食わせるなら、perlでUAつかって書く

やっぱWindows上じゃないとねこーいうのは。


607 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 09:55]
連番生成 : jot
ダウンロード : wget
POST や Cookie : Perl でも Ruby でも Python でも何でも

なんで Windows?

608 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 18:31]
>>606
>>607
>>605 の方法が漏れには一番簡単に見えるんだが。
というか,プログラムを書く必要ってあるのか?
Cookie を食べる必要があるなら w3m でやればいいし。

609 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 20:58]
>>607>>606 に突っ込んでみたかっただけだよん

610 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/30 19:18]
unlov が Google から消えた…誰か詳細きぼんぬ。

611 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/02 00:01]
Googleから消えた理由は知らんが、サイトはまだあるよ。

612 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/02 00:48]
jot って BSD 用なの?

613 名前:610 mailto:sage [03/07/02 08:32]
>>611
URL きぼんぬ。

614 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/07 07:47]
takehost が Accept-Language: も見るようになったような気配を感じる。

615 名前:名無しさん@お腹いっぱい。 [03/07/07 08:14]
>614
拙者の記憶によると日本時間で4日の昼間からでござる。
入れ替わりにcookieを見なくなったように思わるれ。



616 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

617 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 06:57]
.


618 名前:610 mailto:sage [03/07/22 10:30]
誰か教えてくれぇ〜(´Д`)

619 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 11:43]
>>618
作れ。

620 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 18:36]
>>610
まず誠意をみせろ。おれが自宅に戻れる22:00以降に。
話はそれからだ。

621 名前:610 mailto:sage [03/07/23 19:58]
誠意っヽ(`Д´)ノ
ttp://houston.ddo.jp/~pitt/bakuf/2201.zip
ttp://houston.ddo.jp/~pitt/bakuf/2202.zip
ttp://houston.ddo.jp/~pitt/bakuf/2203.zip
ttp://houston.ddo.jp/~pitt/bakuf/1701.zip
ttp://houston.ddo.jp/~pitt/bakuf/1702.zip
ttp://www.hh.iij4u.or.jp/~hancock/rm/000.dat
ttp://www.pp.iij4u.or.jp/~fizz/rm/001.dat
ttp://houston.ddo.jp/~pitt/ousyo2/002.dat
ttp://houston.ddo.jp/~pitt/ousyo2/003.dat
ttp://houston.ddo.jp/~pitt/ousyo2/004.dat
ttp://houston.ddo.jp/~pitt/ousyo2/005.dat
ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.rez
ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.crc
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.bat
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.001
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.002
ttp://www.kk.iij4u.or.jp/~rouge/rm/tanpan2.zip
ttp://www.pp.iij4u.or.jp/~custom/rm/tanpan4.zip
ttp://www.nn.iij4u.or.jp/~jelly/rm/tobibako1.zip
ttp://www.ff.iij4u.or.jp/~clio/rm/tobibako2.zip
ttp://www.ff.iij4u.or.jp/~magnet/rm/roring1.zip
ttp://www.hh.iij4u.or.jp/~blanc/rm/roring2.zip
ttp://www.kk.iij4u.or.jp/~cosmic/rmm/mituami1.zip
ttp://www.hh.iij4u.or.jp/~starz/rmm/rock1.zip
ttp://www.nn.iij4u.or.jp/~coaster/rmm/rock2.zip


622 名前:きっと騙されているに一票 mailto:sage [03/07/24 03:00]
>>621
ゴチ

623 名前:名無しさん@お腹いっぱい。 [03/07/27 23:48]
>>621
落ちてこないよ〜

624 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 00:31]
こんなん動ナビとか動画普及委員会チェックしてれば毎日ゲットできるぞ。

625 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 17:52]
>>620 に騙された哀れな >>610 がいるスッドレはここですか?




626 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 23:40]
動ナビ死んでませんか

627 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 05:38]
動ナビは死んでないが、iij を使った結構な数のエロサイトから
ファイルが落とせなくなっているな

628 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 14:45]
>>626-627
ほかでやれ

629 名前:ぼるじょあ ◆yBEncckFOU mailto:(^^) [03/08/02 05:03]
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ

630 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 13:20]
wget の --timeout って、
相手がファイアウォールでパケットを捨ててるときには機能しないような気がする。
というか、そもそもそういう目的で使うオプションではないのか?
まあ、squidを経由すれば問題ないんだけど。


631 名前:620 mailto:sage [03/08/04 13:38]
>>610
遅くなって正直スマンかった。

望みのモノだよ。
saeto.deep-ice.com

632 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:13]
>>610
おめ

633 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:58]
動ナビURLはこっちに
www.i-like-movie.com/

634 名前:名無しさん@お腹いっぱい。 [03/08/13 12:19]
2ちゃんで話題になった「みーほ」女子○学生 B86 W57 H88(○5歳)
がこのHP内のギャラリーで何を考えているんだか、衝撃的なセルフのヌードを晒してます!!
削除される前に早めに見ておいた方がいいとおもいます!マジでやば過ぎ!!

neeez.com/~miho-room/

635 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/13 16:58]
不覚にもワロタ



636 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

637 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

638 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:13]
{from..to}

639 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:15]
{10..20,30..40}
みたいにはできないの?

640 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 03:38]
>639
zsh: {{10..20},{30..40}}


641 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 08:40]
( ・∀・)つ〃∩ ヘェーヘェーヘェー

642 名前:639 mailto:sage [03/08/27 19:15]
>>640
ありがdごぜいます

643 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 18:10]
そろそろ2ヶ月もカキコがない…。


おまえら満足してますか?

644 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 22:21]
>おまえら満足してますか?

してねぇっす・・・。

ダウンロード成果物をいかにユニークに保存するかってトコロで
頭痛めてたりする。
とりあえず、ファイルのMD5をpostgres上のテーブルにinsertしといて、
ダウンロード成果物をそいつとチェックして適宜ハネるって運用してるん
だけど、どうしても明らかに重複する奴が出てくる。

理由はいくつかあるんだけど、この辺が泥臭くかつ難しいね・・・。

最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
誰か「漏れはコレだ!」って奴を教えてくれぃ。

645 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 02:18]
>>644
> 最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
> 誰か「漏れはコレだ!」って奴を教えてくれぃ。
今まで何を試したか書いてくれ。
例示した後で「それはもう使ってみた」って言われるのはやだ。



646 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:18]
おれは単純に時間とディレクトリで分類してる。
ファイルのタイムスタンプとユニークなID,簡単なメモを
名前に付けてリネームするスクリプト書いて、
適当なディレクトリにとりあえず放り込む。ここまではほぼ自動。

あとは実際に見てる時に必要なら分類し直す。
おれ的にはファイル名がユニークであれば、それで足りてる。
全ての画像に等しい価値がある訳でないので、
必要な時の手作業の分類で間に合う。

647 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:30]
俺はディレクトリと連番だな。もちろんスクリプトで。

648 名前:login:Penguin mailto:sage [03/10/27 14:31]
>>610
再うpきぼん

649 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 20:36]
>>644
wget -x で URL のまま保存してる。


650 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/28 00:30]
>>648
> >>610
> 再うpきぼん

>>631
> >>610
> 遅くなって正直スマンかった。
>
> 望みのモノだよ。
> saeto.deep-ice.com



651 名前:644 mailto:sage [03/10/28 12:03]
>今まで何を試したか書いてくれ。
少しずつ積み重ねてるから、そんないろいろな方法試してるわけでも
ないんだわ。
で、今のところこんな仕組み。

前提:ファイルはすべて.jpg。
対象は、ディレクトリごとにファイルがまとまっていると想定。
(ディレクトリひとつに1ファイルは無視)

-- 日々。
(1) wget -x でディレクトリごとdownload
(2) jpeginfoで壊れたファイルを削除

-- 月次。
(3) ディレクトリ階層をn階層 -> 2階層へ変換
(4) 指定バイト数以下のファイルやディレクトリを削除
(サムネイル対策)
(5) 過去にダウンロードしたファイルのmd5と比較し、新規ファイルが
含まれているディレクトリは保存用ディレクトリへ移動。
(6) 保存用ディレクトリへ移動したものは、md5をpostgres上のテーブルへ
insertする。
(次からのダウンロード重複チェック用)

--適当なタイミングで。
(6) そこそこたまってきたら、CD-Rを使ってお掃除。

上記(6)以外はすべて自動実行。
で、こうやってて素朴に思うのが、「ここまでやらないかんのか?」てところ。
これという方法も無いような気がするんだけどね。

652 名前:644 mailto:sage [03/10/28 22:21]
続き。

重複する理由ってのが、だいたい
(a) jpgファイルが壊れてて、md5が違ってる。
(b) 見た目おんなじ画像で壊れてもいないjpgファイルだけど、何故かmd5が違う。
(c) 素材はおんなじだけど、画像ファイル化したヒトが違うヒト
といったところかなと。
んで、(a)はjpeginfoでどうにかなるとして(といっても再度ダウンロードで補うことが
できればだけどね)、(b),(c)はどうしたものかなと。

完全自動化を目指してるんで、この辺クリアできないかなと考えてます。

653 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 00:51]
そこまでしてローカルにあらゆる画像を保存したいの?

画像の類似性を判別するソフトがあったような気もするけど。

654 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:28]
GQview とか

655 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:29]
>>653
よく web 上から消えるじゃん。



656 名前:うひひ mailto:sage [03/10/29 09:36]
>>644
素人考えなんだが
同じエロ画像でも大きさっていうか画質とかが違ってたりすんじゃん
例えばイメージマジックとかで同じ様な仕様になるように
小さくサムネイルのように同じファイルサイズとかにフィルタしてから
binary diffみたいのを使って差分をとって差分比率を読みとりながら
画像を比較できないのかなぁ?


657 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 14:12]
昔は連番ファイル落とすためにwgetやshを駆使して頑張ってた時期もあった。
たとえばこことか。
ttp://www.taiwankiss.com/board1/data/82585.html
(白石ひより、藻無し、556MB + 567MB、ラブマ分割、パス未発表)

今は各種P2Pがあるから手間いらずで外付け120GBもエロで満杯だよ。

658 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 22:59]
>>658
どのP2P使ってるか教えれ

659 名前:644 mailto:sage [03/10/31 23:42]
レスありがとさんです。

>GQview とか
フリーでこのテのツールがあるとは知りませんでした。
別のツールでは、作者が「コマンド実行で類推するようにしたいな」って
書いてたんで、もう少し様子見かなと。
もしくは、これらツールから該当コードをぶっこぬいて、コマンドラインで
実行できるようデッチ上げるのも手かなと。

>binary diffみたいのを使って差分をとって差分比率を読みとりながら
>画像を比較できないのかなぁ?
#漏れも画像関係まったくの素人なんですが・・・。
jpegを一度bitmapか何かに展開してからゴリゴリ比較って動きかな?
暇を見てちょっと試してみます。

時間を見つけて、いずれかの方法をちょっとやってみます。
ありがとうございやした。

660 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/13 05:03]
俺は半角板を自動巡回して URI 拾って wget のリクエスト作る Ruby スクリプト書いた
落ちてきた画像は一通り見てお気に入りの奴はお気に入りディレクトリに入れて
それ以外は全部ファイル名を MD5 にリネームするスクリプトで変換してから
画像置き場ディレクトリに放り込んでる

画像的には同一なんだけどデータとしては違うというケースはうちでも発生してるな
ちゃんと判定する方法なんて無いような気がしてたから諦めてたけど
ここらへん研究してみると面白いかもな

>>652
(b)(c)のケースなんだけど、もし画像サイズが同じなら、
jpeg のエンコード時の特性の違いがあるのかもな
もしそうなら jpeg のエンコードに特化した画像判別があればいいのかも


661 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/14 22:06]
>>660
JPEGは符号化時のクオリティ設定で出力がまったく違います。
また、どこかのwebで拾った同じJPEGファイルに端を発した画像でも
デコード・エンコードを繰り返して劣化したもの、コメントが変わった
・取り除かれたもの、huffmanコードを最適化したものなどいくらでも
バリエーションがありますので、結局デコード後の画像として比較する
しかないのではないかと。

662 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/22 23:24]
エロ画像とかよか普通の女の子画像をダウンロードしたくなりました。
で、
ttp://avbuzz.com/bbs/model/list.php
を見つけたわけですが。
ここのを大きい画像だけ上手にダウンロードしたいんだけど、難しいです。
良い方法、なんか思いつきませんか?

663 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 00:16]
うーむ。
% w3m -dump_source 'avbuzz.com/bbs/model/diss.php?id=152568' | sed -n 's@ *<img src=\(.*\) vspace=10><br>@\1@;s@^u@avbuzz.com/bbs/model/u@;/^http/p'


664 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 03:04]
>>663
出きたよー。
ありがと。

665 名前:名無しさん@お腹いっぱい。 [03/11/25 15:58]
wgetを使ってあるディレクトリ以下にある(cgiソース含)ファイルを無差別にDLする方法ありませんかね。



666 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:00]
man wget

667 名前:名無しさん@お腹いっぱい。 [03/11/25 16:08]
>>666
やったけど詳しく書いてないみたいだけど、、、

wget -r --ignore-length <URL/>

で良いかな?






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef