[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

376 名前:名無しさん@Emacs mailto:sage [02/07/01 15:37]
wget hoge.jp/images/ero{00..99}.jpg

377 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/01 15:42]
>>376
zsh なら、ね。

378 名前:名無しさん@Emacs mailto:sage [02/07/01 19:59]
昔、レイトレーシングのプログラム組んでて知ったけど
ディザリングとアンチエイリアスって考え方としては
別物なんだよね。

少ない色数で擬似的に多くの色を見せるのが
(黄色と赤色を交互に並べて橙色に見せたりするのが)
ディザで、

小さい物体を描く時にドット間に距離の差がでて
画像がガタガタに見える時に中間の色を混ぜて
なめらかにするのがアンチエイリアスなんだよな。

似てるといえば似ているかな

379 名前:名無しさん@Emacs mailto:sage [02/07/01 20:29]
神崎じゅりが今何やってるか知ってる人いない?
好きなんだけど…

380 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/02 04:22]
ググルとか2ch検索とかの、UNIX板以外ルートでこのスレに来た奴が、
"hoge.jp"なる大御所エロサイトが本当にあると思ってブラウザに
hoge.jp/images/ero01jpgとか打ちこんでたりして。

とふと思ったが面白くも何とも無いな。

381 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/03 15:48]
vmware→win→irvine

382 名前:名無しさん@お腹いっぱい。 [02/07/03 22:08]
vmware→win→cygwin→wget

383 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/03 22:40]
>311
>やはりグロ画像が怖い、怖すぎる。

1)いやな画像のcksum(1)やmd5(1)をリストに取っておいて、
2)落とした画像とコンペアして一致したらあぼーん

てなロジック追加すればいいんじゃないの?
cksumとか動作遅いけど、通信速度よりかは早いと思うからあんまし問題
にならんと思うけど。

384 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/04 12:29]
グロはもう慣れた
エロ画像じゃなかったという落胆しかなくなった
でも最近初めて見るのだとちょっとうれしい



385 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/04 13:20]
夢に出ないか?うなされないか?

386 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/04 18:21]
>>378
ディザリングは高い解像度で擬似的に色数を増やす。
アンチエイリアスは多い色数で擬似的に解像度をあげる。


387 名前:名無しさん@お腹いっぱい。 [02/07/05 13:39]
しかし、wgetの逆ってないもんかしらねぇ。wgetしたエロエロを一気にFreeHPに放り込むのに使いたい。

388 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/05 13:42]
>>387
HTTP で送るの?

389 名前:名無しさん@Emacs mailto:sage [02/07/05 14:49]
PGFらしきの大量のリンクを発見したんだけど多すぎて挫折。

390 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/05 19:03]
link のせてくれ!

391 名前:名無しさん@Emacs mailto:sage [02/07/05 21:47]
>389
linkのせてくれ!
まだコンプリートできないんだ…

あとPGFのオリジナルは画像が綺麗でサイズも大きいらしいね。
俺が持ってるのは再配布版ばかりで、画像がキチャナイ。

392 名前:389 mailto:sage [02/07/05 22:43]
www.genie.x0.com/gtl/link/pgf1_txt.html
www.genie.x0.com/gtl/link/pgf2_txt.html
www.genie.x0.com/gtl/link/pgf3_txt.html

なんか質が高くないようだけど。
海外Proxyが必要な所もあるけどページの上の説明の先に一覧がある。

393 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/05 23:31]
>392
やったー

51番目、よっつめのリンクが質が良い。

394 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/06 18:39]
逃げろーをハメた奴はすごく勇気あるな



395 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/09 00:11]
403.phpがでけるのって何故?

396 名前:395 mailto:sage [02/07/09 03:05]
おもいっきり既出のrefererですた
スレ汚しスマソ

397 名前:383 mailto:sage [02/07/12 00:02]
とりあえず、俺もw3mをコアとしてcsh(苦笑)で直リンを2chの半角板から
吸い出す奴作ってみました。
(ソース?4行しかないしパイプつなぎまくりで恥ずいので非公開)

そいつでダウンロード始めたんだけど、グロ怖いし画面小さいしでNetBSD
上じゃあやってられないってんで、WinXPのエクスプローラの縮小表示で
見ながら、今作業中です。

グロ耐性無いんで、もっとも安全パイっぽかった半角2次元板でテスト(W
今のところ100ファイル程度だけど、グロはまだ無いなー。

398 名前:383 mailto:sage [02/07/13 23:53]
さらに、過去落としたURLと入手したURLとを比較するCのコードも書き、
重複したダウンロードも避けるように環境もだんだんと整えつつあります。まだ4日目なんでいい加減ですが、だいたい半角2次元板で300〜500枚程度
の新規画像の投稿があるみたいです。#想像以上の新規投稿枚数...よくネタが続くもんだ。

399 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/14 00:28]
気分が悪いのでプレゼント

www.teeniegurls.com/teeniegurls/videos/teen/susi/{1..9}.mpg
members.aol.com/avenueco/arena/arena{01..10}.rm
members.aol.com/dougasquare/arena/arena{11..20}.rm


400 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/15 05:18]
はー気分最悪。

members.aol.com/douga001/illu/{01..10}.rm
members.aol.com/_ht_a/douga002/illu/{11..20}.rm
members.aol.com/_ht_a/douga003/illu/{21..30}.rm


401 名前:名無しさん@お腹いっぱい。 [02/07/19 06:36]
FreeBSD厨房なヲレ

%jot -w "{URL}/%0.2d.jpg" 99 | xargs -n1 fetch

ex.
{URL}/01.jpg{URL}/99.jpg 取得

402 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/19 07:48]
あまり関係ないかも知らんが、こう言うのを使ってキャッシュ内のファイルを・・・
って出来ればいいんだけどな。

ttp://kasumi.sakura.ne.jp/~lfj/javascript/make_link.html

403 名前:名無しさん@お腹いっぱい。 [02/07/29 22:29]
dirs=`find . -type d` とかしたあとに、
$dirsの中のディレクトリをランダムに並びかえるにはどうしたら良いでしょうか?

qivでエロ画像を見るのに必要なんです。(;´Д`)ハァハァ


404 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/29 22:37]
>>403
qiv じゃないの使う、とか。



405 名前:名無しさん@お腹いっぱい。 [02/07/29 22:38]
素直にインターネットニンジャ使ってます
画像も縮小表示されるしDL失敗したら指定回数リトライしてくれるしラクチン

406 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/29 23:03]
>>403
qiv の --random とか --shuffle オプションは
使っちゃだめなの?

407 名前:403 mailto:sage [02/07/29 23:40]
>>404
fehが susieに似ているらしいと聞いたので使ってみましたが、
ダメダメでした。(なんでダメダメだったのかは忘れた。)

>>406
私の場合はディレクトリで被写体(?)を分けているので、
そのオプションはこの場合使えません。
'find . -name "*.jpg"'の結果を qivしてもいいんだけど、
被写体がごちゃごちゃになっちゃうでしょ?

↓この時、qivに渡すディレクトリをランダムにしたいのさ。(;´Д`)ハァハァ

dirs=`find . -type d`
for dir in $1; do
echo $dir/* | xargs qiv -f -s -d 5
done


408 名前:403 mailto:sage [02/07/29 23:41]
>>407
ミスった。
for dir in `find . -type d`; do
echo $dir/* | xargs qiv -f -s -d 5
done


409 名前:名無しさん@お腹いっぱい。 mailto:sage [02/07/30 11:24]
漏れはInternet Ninjaの連番取込でやってるよ。ちょうかんたん。
UNIXと関係ないのでsage

410 名前:名無しさん@お腹いっぱい [02/08/01 03:41]
最近はエロ動画をダウンロードするスクリプトでがんばっています。
スクリプトほしい?

411 名前:名無しさん@お腹いっぱい。 [02/08/01 03:48]
スクリプトの出来次第だな。
とりあえずさらしてみそ。


412 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/01 04:30]
長く、細く続くスレ

413 名前:名無しさん@カラアゲうまうま mailto:sage [02/08/01 05:37]
>>403
NetBSD由来のshuffle(1)というのもある。
cvsweb.netbsd.org/bsdweb.cgi/basesrc/usr.bin/shuffle/
www.jp.FreeBSD.org/cgi/cvsweb.cgi/ports/misc/shuffle/

ちなみに漏れはこんな感じ
$ find . -type f -name '*.{jpg,gif}' | shuffle -f - | xargs xv -maxpect -smooth &

414 名前:410 [02/08/01 07:57]
>>411
dogaloというHなサイトから最新動画を取り込むスクリプトです。
zshって知らないのですけど、これ使うともっと楽になるんでしょうね。
ご指導ください

----- get_dogalo.sh ----
#! /bin/sh -v
#
HPDIR=www.hentaiplay.com
HP=newdogalo.html

LIST=dogalo.list
SAVE_DIR=dogalo.d
touch $SAVE_DIR

/bin/rm -f $HP
wget -o /dev/null $HPDIR/$HP

getext gif $HP > $LIST
getext png $HP >> $LIST
getext jpg $HP >> $LIST

cd $SAVE_DIR; /bin/ls | sed -e 's,\(.*.\),g/\1$/s/.*//,' > ../ed.cmd; cd ..
echo w >> ed.cmd
echo "g/^$/d" >> ed.cmd
echo w >> ed.cmd
echo q >> ed.cmd
ed $LIST < ed.cmd
cd $SAVE_DIR; wget -o dogalo.log -D members.aol.com -c -t 0 -i ../$LIST

----- getext -------------
#! /bin/sh -v
EXT=$1
tr '<' "\012" < $2 | tr '>' "\012" | grep href | \
tr = "\012" | grep http | grep $EXT | sed -e "s/.*\(http.*$EXT\).*/\1/"




415 名前:名無しさん@お腹いっぱい。 [02/08/01 14:51]
wget -c -t 0 -S -nd -np -r -l 1 --accept=jpg urabon.site/hoge.html

落ちてこなければ、--span-hosts をつける。

416 名前:名無しさん@お腹いっぱい。 [02/08/01 16:06]
>414
perl とか zsh を使うとそういうのはとても簡単に処理できるけど、
とりあえず、シェルスクリプトで自分の知っているコマンドの組み合わせで
処理を書いてみるのも、きっかけは何であれ、いろいろと勉強にはなるな。
次の課題は、もう少しいろいろなサイト用にも応用ができるようにするのと、
処理をもう少し洗練させてみると良いのでは。
そのうち、JavaScript 使って変なことしているのや、Referer とか Useragent
見てアクセス制限しているサイトへの対応も簡単だからチャレンジしてみるといい。
さらにスキルがついたら、クリッカブルマップとCGI使って画像を直接見えない
ようにしているサイトとか、ヤフブリみたいに変なことしているサイトは
個別対応になるけど、それなりにやり応えはあるだろう。
まあ、先は長い。がんばれ。


417 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/01 23:49]
ttp://j2ch.free-city.net/
「2ちゃんJPGマニアックス」

これ作ったのここらへんのひとだったりする? わけないか。

418 名前:bash (linux厨だから) [02/08/02 12:04]
wget -r -A .jpg,.gif -nd -nc --user-agent='Mozilla/4.06 [en] (Win95; I)' www.hogefuga.com/index.html

419 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/03 00:16]
>>413
'gcc shuffle.c'すると、以下のエラーが出ます。
getprogname()はいいとして、fgetln()ってどこにあるんでしょうか?
RedHat7.2、gcc-3.0.4 です。

shuffle.c: In function `get_lines':
shuffle.c:161: warning: assignment makes pointer from integer without a cast
/tmp/ccyouD03.o: In function `usage':
/tmp/ccyouD03.o(.text+0x145): undefined reference to `getprogname'
/tmp/ccyouD03.o: In function `get_lines':
/tmp/ccyouD03.o(.text+0x1f7): undefined reference to `fgetln'
collect2: ld returned 1 exit status


420 名前:名無しさん@お腹いっぱい。 [02/08/03 01:33]
>>417

多分、このスレじゃなく、
pc.2ch.net/test/read.cgi/unix/1003833552/
のほうのスレッド関係者じゃないかな

421 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/03 05:21]
>>417
$ grep ^http girls_list.html | while read i; do wget $i; done

グロ画像多過ぎて鬱。


422 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/03 14:41]
>>421
虹板のリストを使ってみた。
6415のURLがリストアップされていて、実際にゲトできたのが2368。
うち、画像ファイルが2339、グロ画像(自分基準)が15。
容量は249746KB、所要時間が72分、平均転送レートが57.8KB/sでほぼ帯域いっぱい。

% du -sk * | sort -rn | head
68814 www.angelfire.com
20252 www.floralia.org
11720 www.42ch.net
7478 members15.tsukaeru.net
5375 www.moemoe.gr.jp
4640 www.momo-bbs.com
4637 210.153.100.60

NAT箱のテーブルがあふれるかと思った(w

423 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/03 17:22]
wget 1.8.2 のwindows版
all-your-base.kicks-ass.net/wget/


424 名前:名無しさん@Emacs [02/08/04 15:46]

>>421

よさげだと思って半角板のリスト使ってみたが、ろくなもんないなあ。
ってかグロ多すぎ。
NNTPからごそっと落してきた方がいいや。

てか、そういう用途にはみなさん何使ってます?
FreeBSDのportsでいくつか探してるけど、
「これっ」ていうやつがない....





425 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/04 15:49]
>424
努力を惜しむ奴には、いいところその程度だろう。

426 名前:383 mailto:sage [02/08/05 13:14]
>424 「これっ」
世間一般に出回ってるのって、大抵リンクを追いかける奴だからねぇ。
漏れは手作りでcsh使ってやってたけど、質が揃わないため最近やる気が
失せた。
やっぱり>425の言うと降り、努力した方がいい物揃うというのは確かで、 
URL生成するだけでは絶対たどり着けない鉱脈があちこちにあるから、
それ考えるとまぁスクリプトでの遊びだな、って思いますね。

427 名前:421 mailto:sage [02/08/05 16:24]
>424
(A): URL だけ抜き出すスクリプト
(B): 行をランダムで並べ返るスクリプト
(C): fork & exec で 10 個くらい並列で D するスクリプト
(D): wget or /usr/bin/fetch(FreeBSD)

A-C を Perl で前に自作したんだけど、B がどっかいっちゃった。

>421 やる時に B 作り直そうと思ったら無限再帰 fork して...
面倒なのでさじなげますた。


428 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/05 16:50]
で、端子さわって壊れる

429 名前:421 [02/08/06 07:48]
>427 の (C) つくった。
OS によっては waitpid(PID, WNOHANG) ができないかも、
と perlfunc(1) に書いてありますた。

どなたか採点してもらえると幸せです。


#!/usr/bin/perl

use strict;

# FreeBSD -CURRENT の場合。他は知らん。
use POSIX ":sys_wait_h";

my $fetch_cmd = "wget -x";
my $max = 10;


main();

sub main
{
my($pid, @slot);

while(!eof()){
for(0..($max-1)){
if($slot[$_] != 0 and waitpid($slot[$_], &WNOHANG)!=0){
$slot[$_] = 0;
}
}

for(0..($max-1)){
if($slot[$_] == 0){
my $url = <>;
last unless defined $url;
chomp($url);
$pid = fork();
if($pid==0){
exec("$fetch_cmd $url");
}
else {
printf("Proc %d(%10d) fetching %s\n", $_, $pid, $url);
$slot[$_] = $pid;
}
}
}

sleep(1);
}

for(0..($max-1)){
waitpid($slot[$_], 0);
}
}


430 名前:名無しさん@お腹いっぱい。 [02/08/06 08:37]
>429

常に10並列にはならずに、
10個まとめて起動しては、それらが全部終わるのを待ってから
次の10個を起動するというのは効率が悪いので、
空いたところからどんどん次のプロセスを起動するようにしてはいかがか。

私は、逆に、フリーのサーバにアップされた画像だと、
サーバーに負担をかけるとすぐに消されてしまうので、
wget -w 5 -i url-list
みたいなのを、異なるサーバーの分を並列に走らせるのを好む。


431 名前:430 mailto:sage [02/08/06 10:56]
すまん、前半は私の誤解だった。 WNOHANG とはそういうものなのね。

432 名前:399 mailto:sage [02/08/06 21:32]
はぁ、今日も最悪。なのでプレゼント。

www.rr.iij4u.or.jp/%7Edom/la008a.rm
www.nn.iij4u.or.jp/%7Edom1/la008b.rm
www.pp.iij4u.or.jp/%7Edom9/an088a.rm
www.rr.iij4u.or.jp/%7Edom10/an088b.rm
www.pp.iij4u.or.jp/%7Edom7/shk152.rm
www.dd.iij4u.or.jp/%7Edom8/shk152a.rm
www.fhjp.net/xxxa/c0804.rm
www.fhjp.net/xxxa/c0802.rm
www.fhjp.net/xxxa/c0730.rm
www.fhjp.net/xxxa/c0730.rm
www.fhjp.net/xxxa/c0730.rm
www.fhjp.net/xxxa/c0728.rm
www.fhjp.net/xxxa/c0726.rm
www.kk.iij4u.or.jp/~ona/shk149_01.rm
www.rr.iij4u.or.jp/~pets/shk149_02.rm
www.dd.iij4u.or.jp/~pety/shk149_03.rm
www.hh.iij4u.or.jp/~qqq/hp058_01.rm
www.ff.iij4u.or.jp/~rute/hp058_02.rm
www.pp.iij4u.or.jp/~u4/hp058_03.rm
www.jp-move.com/chikan/kmove/move069-1.rm
www.nn.iij4u.or.jp/~jpmove11/move/move069-2.rm
www.dd.iij4u.or.jp/~jpmove7/move/move068-1.rm
www.ff.iij4u.or.jp/~jpmove8/move/move068-2.rm
www.pp.iij4u.or.jp/~jpmove4/move/move067-1.rm
www.rr.iij4u.or.jp/~jpmove5/move/move067-2.rm
www.ff.iij4u.or.jp/~jpmove1/move/move066-1.rm
www.kk.iij4u.or.jp/~jpmove2/move/move066-2.rm


433 名前:399 mailto:sage [02/08/06 21:33]
ちなみにfhjp.net上のはrefererが必要かな。

434 名前:名無しさん@お腹いっぱい。 [02/08/07 01:19]
wgetで女、食べれますか?



435 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/07 02:28]
>>426
> 世間一般に出回ってるのって、大抵リンクを追いかける奴だからねぇ。
> 漏れは手作りでcsh使ってやってたけど、質が揃わないため最近やる気が
> 失せた。

半角で話題になる画像掲示板をまわっていたら、適当に話題の画像
が切れ切れながら、あつまってきませんか? script で画像データの
URI 拾ってきて、それを wget に喰わせておくとかすると、なんか見
もしない data がわさわさと…。

436 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/07 02:40]
>>427の(B)は、perlfaq4の"How do I shuffle an array randomly?"を
参照されたし。
管理者にスクリプト使ってるの気が付かれてアク禁くらうのもいやだし、
鯖の負荷を無駄にあげないためにもURLは必ずシャッフルすべきと思うんだがどうだろう。
連番で落す場合であっても、いかにも人間が見てるかのように
wget --random-waitを使うとか。
いや、ちと考え過ぎか。そんなマメな管理者もいないだろうし…

437 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/07 02:54]
>>429
最近思うんだが、虹板あたりに
www.foo.com/tinko/bin;/bin/rm -rf $HOME;/bin/true ero.gif
とか書き込まれたらすごいイヤな気分だ。

438 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/07 03:58]
>>437
しーっつ、しー。

というわけでみなさんちゃんとエスケープしましょう。

439 名前:437 mailto:sage [02/08/08 01:02]
きちんとエスケープするのって面倒くさいので、

my $fetch_cmd = "wget -x";

my @fetch_cmd = qw(wget -x);

exec("$fetch_cmd $url");

shift(@fetch_cmd, $url);
exec(@fetch_cmd);

とやってる。
シェルのメタ文字を一切気にしなくていいので気分は楽だけど、
リダイレクトを自分でしなければならなくなる。

440 名前:437 mailto:sage [02/08/08 01:58]
おっと、
shift(@fetch_cmd, $url);
じゃなくて
push(@fetch_cmd, $url);
ね。

441 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/08 07:05]
"wget -i -" で動かして URI はパイプで突っ込めば?


442 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/09 00:50]
>>441
パラレルに落さなくていいのなら…

まあ、あらかじめURLのリストを等分しておいて、
wget -iを並行実行すればいいんだけどね。

443 名前:421 mailto:sage [02/08/09 11:00]
ご意見サンクス。エスケープは >429 書いた直後に気づきました。
"exec" と書く前に気づかなきゃだめか...

>430
$ while read url; do t=${url#}; echo "$url" >> ${t%/*}.list; done
$ echo *.list | 429を $fetch_cmd = "wget option -i"; に変更

で、できるかな。シェルスクリプト大好き。

>436
>437
やってみた。shuffle はパイプに繋げてたけど、一緒にしても大したこと無いね。

my($pid, @slot, @url);

@slot = (0) x $max;
chomp(@url = <>);

outloop:
for (;;) {
foreach (@slot) {
if ($_ != 0 and waitpid($_, &WNOHANG)!=0) {
$_ = 0;
}
}

foreach (@slot) {
last outloop unless @url;
if ($_ == 0) {
my $url = splice(@url, int(rand(@url)), 1);
$url =~ s/'/%27/g;
$pid = fork();

if ($pid==0) {
exec("$fetch_cmd '$url'");
} else {
$_ = $pid;
}
}
}

sleep(1);
}

foreach (@slot) {
waitpid($_, 0);
}

M-x indent-region したら条件文の丸括弧にスペースがぁ...


444 名前:421 mailto:sage [02/08/09 11:02]
>443
うげ。echo じゃだめだ

$ while read url; do t=${url#}; echo "$url" >> ${t%/*}.list; done
$ ls -1 *.list | 429を $fetch_cmd = "wget option -i"; に変更




445 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/10 00:03]
>>435
最初は結構ジャンル固まってるけどね。

ただ、その後が問題で、重複しないように過去のURLとコンペア
しながら日々ダウンロードしてると、どうしても最新の画像を
全ジャンルまんべんなく、という状態でのダウンロードになるんだわ。てなもんで、最近はURLの処理に時間がかかる(Mobile Gear)割に
実入りが少ないこともあって、やってないっす。

まぁ、現在は努力を惜しまずディープなURLを辿って集めてます。

そういえば、最近の虹板って、いわゆる2バイト文字でURL書くのが
流行ってるのか我々への嫌がらせなのか、目につくね。
http://ティンコ.co.jpみたいな。

446 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/10 02:14]
URLの抜き出し部分で、
s,ttp://,\n,ig;
s,ime.nu/,http://,ig;
s,pinktower.com/,http://,ig;
とか
next if(m(名無しさん\[1-30\]\.jpg));
などという処理が結局は必要なわけでしょ。こういう部分に単に
s/天使炎(\.com)?/angelfire.com/g;
s/性塊(\.com)?/sexblock.com/g;
などを追加していけばいいんじゃないかなあ。
それよりもUNIX屋としては、ファイルを偽装されるのがいちばん面倒…

447 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/10 02:22]
>>443
$urlの最後の文字が\だったら?
全てのシェルのメタ文字をURLエンコーディングしないとダメだと思う。

448 名前:445 mailto:sage [02/08/10 12:42]
まぁ、置換すりゃあいいんだけどね。

漏れの場合は、過去のコンペアは件数が膨大になっててcshで回せなくなって
いた関係もあって、文字列置換というかURL文字列補正もCでロジック組んで
捌いていたよ。

ファイルの偽装、ZIPについては最初っからあきらめてるから無問題(;_;)。
対応策は面倒というか、かなり困難。 
分割してひとつひとつGIFファイルに偽装する奴とか、フォーマット
調べると偽装くらいはなんとか判定できそうな気もするけど、結局
結合したらzipファイルだろうからパスワード無いとどうしようもない。

パスワードなんて今のところ収集対象外だしねぇ。

でも、パスワードだけ何らかの規則に基づいて収集して、ソレでZIPファイル
に対して総当りするというのも結構面白いかも。

449 名前:名無しさん@お腹いっぱい。 [02/08/10 12:47]
ぽこにゃん、ラブマ、ぶったぎりあたりは wine でOK。rez は cat。

450 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/11 15:17]
>>447
sh のシングルクォート中のメタ文字は ' のみ。

$ echo '\'
\

# いまWindowsなので確認してないけどあってるはず


451 名前:448 mailto:sage [02/08/13 01:48]
パスワードつながりで。

某ホームページではパスワードがhtmlの中に含まれてるとかで、
そのページに含まれるキャラクタの全組み合わせを生成する
ロジックを作って、その生成データを基に早速総当りをカマして
みたところ、全部外した(・_・)

ひょっとしてUNIX版unzipのパスワードって、8bit通らないのかな。
その某ホームページではパスワードがいわゆる2バイト文字の可能性
もあるから、それなら納得・・・できないぞ。

452 名前:名無しさん@カラアゲうまうま mailto:sage [02/08/13 07:18]
>>451
大丈夫。
# むしろWin用の解凍ソフトの方が
# 普通には日本語が入らないことが多い罠。

文字コードを確認しれ。
大抵はSJISでないとダメでそ。

453 名前:451 mailto:sage [02/08/14 08:35]
>>452
あんがと。

とりあえずs-jisで取り込んでから処理はしてるけどね。
パス付きでzipした奴、テスト的に作ってみて検証しますわ。

ちなみに、日本語のパスワードが入るWin版のunzipって
どういったのがあるのでしょうか?てスレ違いか。

454 名前:名無しさん@お腹いっぱい。 [02/08/30 06:29]
www.gaultier-x.com/bbs/board1.htm
ここって優秀な画像があつまってるけど、
どうやって攻略する?
bbsに貼られている画像だけを取得するうまい方法が
思いつかなくて、手動でwget動かしちゃってるんだが。




455 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/31 11:07]
ttp://annaohura.japannudes.net/immagini/anna{000..413}.jpg
素人な質問スマソ。zsh+wgetではねられるにょ。攻略法伝授してくんろ

456 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/31 11:32]
referer

457 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/03 11:52]
たいていはreferer。
まれにUA名で蹴ってるところも。
どっちもwgetのオプションでつけられる。
man wget
httpの勉強もしる。

458 名前:名無しさん@お腹いっぱい。 [02/09/07 13:48]
man wget もいいけど、wget --help の方が安易なので最初はそれを読むといい。
うちの wget 1.8.2 だと全部日本語ででてくるし。
http 勉強せよ、といのは同意。
実験用の httpd をあげて自分でいろいろ嬲ってみるのも勉強になるよ。
もちろん、いきなりサーバーをインターネットに晒したりしないでね。

ついでなので、あんなさんも全部貰っときました。


459 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/07 14:21]
--refererをどこにすればイイか分からなかった…修行が足りないな…俺。

460 名前:名無しさん@お腹いっぱい。 [02/09/07 14:53]
基本はブツのあるディレクトリだよ。
まあぶっちゃけあそこはドメインしか見ていないけど。

461 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/07 15:19]
referer なんて、たいていはその画像自体を指定しておけば問題ない。


462 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/07 18:52]
>>459
みんなはじめはそうだよ。
みんなそこから、獲ろパワー(二つの意味)で大きくなった。

さ、1から読みなおそう。

463 名前:459 mailto:sage [02/09/07 19:08]
あー…やっと落せた…(もちろん、仕事はチャンとしたぞ!)。
RefererじゃなくてUser-Agentで引っかかってました…(笑)。

464 名前:C_sugar [02/09/08 02:39]
>>379

PGFの中では彼女がいちばん良いな。



465 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 04:58]
エロパワーの壁がここに…w
okazu.bbspink.com/test/read.cgi/ascii/1030825907/

466 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 07:55]
>>459 >>462
微笑ましいな・・・これでエロでさえなければ。
ガンバレ>>459

467 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 11:13]
homepage.mac.com/hetare_go5go/FileSharing1.html

ここのseqimgというシェルスクリプト使ってます。(curl使用。)
refererも設定できるし重宝してます。
スクリプトの内容は私には理解できません。(w

468 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 21:26]
>>457-458
今時、manやhelpなんてしなくてもググったほうが使用例が見つかるので速い。
それに鯖の公開は別問題。

469 名前:458 mailto:sage [02/09/08 21:55]
>468
サーバー立ち上げる話は、
apache の設定とか cgi の動作とかを自分で体験してみると、
怪しいアクセスを制限しようとする側の気持ちもちょっとわかって、
それに対抗する手段も見つけやすいし、HTTPの理解もできるよ、という話ね。
別に公開せよというつもりは全くない。

man や help じゃなくて google といのは、
自分で情報を見つけられるようなら別に何でも構わんよ。
せっかくUNIX版にあるんだから、ノウハウだけじゃなくて
ちとは技術も身に付けて欲しいのよ。

470 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 22:11]
UNIX版じゃなくてUNIX板ね。すまそ。

471 名前:名無しさん@お腹いっぱい。 mailto:sage いつぞやのお礼 [02/09/08 23:25]
あずまんが。

www4u.kagoya.net/~twinklea/gallery/himera/real/026.html

472 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 23:40]
とりあえず089までいただいておきました。
でも、本当は生身の方がいいです。

473 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/08 23:49]
refererチェックもUAチェックしてないやん!
…って真っ先に思った漏れはもうダメですか?

474 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/09 11:20]
>>471
どこがあずまんがだゴリュア!!!
ハァハァ言いながら3回もコピペミスっただろうが!!!




475 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/14 08:11]
連番のH画像じゃないのですが

pl09_1.zip
pl09_2.zip

これを展開すると

pl09.001
pl09.002
CF_M.bat

が出てきます。DOS 用の bat ファイル は無視して cat すればいいのですが
1度に 展開 → cat → rm 残骸 とできるように奮闘中

476 名前:名無しさん@お腹いっぱい。 [02/09/14 10:10]
おれさ、厨だからさ、パールなんてわかんないんですよ。
だからいつもページのソースを見て、連番のURLをみつけては
wget -i url.list してるんです。
で、url.listを作る際に一所懸命 sed を使って整えて
いるんです。そこで hoge.sed なるもを作ってみたんだが、
これって、url.listの1行ごとに hoge.sed が実行されるのか、
それとも hoge.sedが1行ずつurl.listに実行されるのか、
どっちなのか教えて下さい。

自分で読み返してみましたが、かなり日本語がおかしいかも
しれませんが、みなさん想像力豊かにして教えて下さい。

477 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/14 10:12]
>>476
かなり日本語がおかしいです。
hoge.sed ってどんななの?

478 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/14 10:16]
>>476
>>url.listの1行ごとに hoge.sed が実行される
こっち。

479 名前:476 mailto:sage [02/09/14 10:30]
>>476
さっそくのレスありがとうございます。
すっきりしました。なんか自分の意図する働きをして
くれなかったんで、かなりすっきりしました。
で、気分を改めて作りなおしてみたら、下記のように
きれいにできあがりました。

ttp://members.aol.com/areboon5/00/audition2000.png
ttp://members.aol.com/areboon5/00/audition2001.png
ttp://members.aol.com/areboon5/00/audition2002.png
ttp://members.aol.com/areboon5/00/audition2003.png
ttp://members.aol.com/areboon5/00/audition2004.png
ttp://members.aol.com/areboon5/00/audition2005.png
ttp://members.aol.com/areboon5/00/audition2006.png
ttp://members.aol.com/areboon5/00/audition2007.png
ttp://members.aol.com/areboon5/00/audition2008.png
ttp://members.aol.com/areboon5/00/audition2009.png
ttp://members.aol.com/areboon6/11/audition2010.png
ttp://members.aol.com/areboon6/11/audition2011.png
ttp://members.aol.com/areboon6/11/audition2012.png
ttp://members.aol.com/areboon6/11/audition2013.png
ttp://members.aol.com/areboon6/11/audition2014.png
ttp://members.aol.com/areboon6/11/audition2015.png
ttp://members.aol.com/areboon6/11/audition2016.png
ttp://members.aol.com/areboon6/11/audition2017.png
ttp://members.aol.com/areboon6/11/audition2018.png
ttp://members.aol.com/areboon6/11/audition2019.png
ttp://members.aol.com/areboon7/22/audition2020.png
ttp://members.aol.com/areboon7/22/audition2021.png
ttp://members.aol.com/areboon7/22/audition2022.png

最後に cat * > hoge.rm でもしてみてください。

480 名前:476 mailto:sage [02/09/14 10:31]
上のレスは>>478へでした

481 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/14 15:25]
>>479
ごちそうさまでした。

482 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/14 20:08]
おなじく、使わせていただきました(なにに

483 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/15 16:46]
522 名前:名無しさん@お腹いっぱい。 投稿日:02/09/06 14:56 ID:???
#include <iostream>
using namespace std;

int main(void)
{
int hajime, owari, i;
string url;
cout << "ルートディレクトリのURLを入力してください: ";
cin >> url;
cout << "最初の番号を入力してください:";
cin >> hajime;
cout << "最後のの番号を入力してください:";
cin >> owari;

for (i=hajime; i<=owari; i++) {
if (i < 10) cout << url << "0" << i << ".jpg" << endl;
else cout << url << i << ".jpg" << endl;
}
return 0;
}

貼ってみるテスト

484 名前:名無しさん@XEmacs mailto:sage [02/09/15 22:41]
そんなことをして何に役立つんだよ、と言ってみるテスト。




485 名前:名無しさん@お腹いっぱい。 [02/10/11 15:49]
ほしゅあげ

486 名前:名無しさん@お腹いっぱい。 mailto:sage [02/10/12 12:46]
>>483
そんなのUNIXじゃねぇ。


487 名前:名無しさん@お腹いっぱい。 [02/10/13 00:02]
がんばれage

488 名前:名無しさん@お腹いっぱい。 [02/10/28 02:28]
#!/bin/sh

while true
do
 echo "hoshu age"
done

貼ってみるテスト

489 名前:名無しさん@お腹いっぱい。 mailto:sage [02/10/28 12:20]
>>488
どうでもイイけど、
while true; do
echo "hoshu age"
done
と書く派なので、そういう書き方だと式の後のコロンを省けるのを知らなかった…。


490 名前:名無しさん@お腹いっぱい。 [02/10/28 16:46]
>>488
shell script使わなくても
yes "hoshu age"


491 名前:名無しさん@お腹いっぱい。 mailto:sage [02/10/28 17:21]
保守でageる方はDQNでございます

492 名前:名無しさん@お腹いっぱい。 mailto:思い切ってageよう [02/11/16 02:20]
最近さ、AOLからwgetでダウンロードできないんだけどさ。
もしかして俺だけ?へんなhtmlファイルがおちてくる。
いつもは、オプションなんて設定しないで大丈夫だったんだが。

あくまでも例えばだが、zshで
wget -nd ttp://members.aol.com/missnuts555/miss5/m500{00..39}.gif
wget -nd ttp://members.aol.com/missnuts666/miss6/m500{40..79}.gif
wget -nd ttp://members.aol.com/missnuts777/miss7/m50{080..109}.gif

で、 cat * > hoge.rm ってしたいんだけど。

なんかオプションで指定しないとだめなんですかね?
おしえてください。


ちなみに今日はIrvineで(゚д゚)ウマーしたんだがさ…。
これのためだけにWindows起動してIrvineをつかうのは辛いです。

493 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/16 02:41]
>>492
--referer='members.aol.com/...' とか -U 'Mozilla/4.0 (compatible)' とか
は試してみた?

494 名前:名無しさん@お腹いっぱい。 [02/11/16 04:29]
>492
っていうか場所によって仕掛けが違うから「あくまでも例えば」とかいう偽URIじゃ意味ないよ。
そのものズバリを書きなって。

フツーはその「へんなhtml」を読めば済むことも多いし。



495 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/16 12:39]
wgetの書式をいじるのもいいけど、リジュムとかラブマみたいな分割偽装
ツールが欲しいところだね。Wineでやるのもいいけど、エロ動画を結合
するだけのためにCPUにムチ打つのはつらい。


496 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/16 12:57]
>>495
フォーマット公開されてるの?

497 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/16 15:57]
フォーマット公開されてたら偽装じゃないと思う…

498 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/16 16:34]
リジュム(漢字わすれた)って本体のfileはcatでくっつくよね。
.rez fileはファイル名とCRCが入ってるだけっぽいし…
フォーマット誰かしらべてないかな?

499 名前:495 mailto:sage [02/11/16 17:04]
>>498
ああ、リジュムの場合はlonginus.dll(他にもあるのかな)で偽装して
あるとだめだろう。
*BSDのpeaceって、*BSDのプログラムからWin32 DLLの関数を呼んだりは
できないのかな。


500 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/16 18:33]
>>491
このスレのローカルルールとして、
保守ageするやつはついでにエロ画像へのリンクを貼る
てのはどうですか


501 名前:492 mailto:sage [02/11/17 00:27]
すみませんでした。激しく自分がミスを犯してました。(;´Д`)
URLが間違ってました。つーか、とくに自分が手を加えていないから、
リンク切れだったようです。

>>492の訂正
s/missnuts555/missnuts5555/g
s/missnuts666/missnuts6666/g
s/missnuts777/missnuts7777/g




502 名前:このスレの1 [02/11/24 04:09]
ttp://www.scghun.com/main.htm
上記のようなサイトにある画像を全て、簡単に落すテクニックってなんかありませんか。

とりあえず、ここで鍛えたテクニックを使って連番のリストファイルを一つ作り、それを
パターンにそって少しずつ変形させるスクリプトなぞを作り、最後にwgetで一挙に落そ
うという手で攻めてみたが、何分、微妙にパターンが変えられていたりして、四苦八苦し
てしまった。そのためAmateur Schoolgirls Gallery とAmateur Teens Galleryの画像を全
て落すための手はずを整えるのだけで週末を使いきってしまったよ。トホホ。

識者の方々、よい知恵をお貸しくだされ。

503 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/24 04:44]
いやーどう見ても、というかちょっとしか見ていないが、
SchoolgirlsでもなければTeensでもないような気が…。
そういうもんなのか?


504 名前:名無しさん@お腹いっぱい。 mailto:sage [02/11/24 05:06]
>>502

wget -N -q -O /dev/fd/1 "$url" \
| nantoka "$url" \
| grep hogehoge \
| sort -u \
| while read tmp; do
wget -N -q --referer="$url" -O /dev/fd/1 "$tmp" \
| nantoka "$tmp"
done \
| grep '\.jpg$' \
| sort -u \
> list

ちなみに、nantoka は、argv[1]をbase url として標準入力から
リンクを抜き出すフィルタね。

nantoka を、lex か何かで作っとくと便利だよ。



505 名前:502 [02/11/24 23:26]
>>504
サンクスです。
wgetのオプション等多々、わからないことが多いですが、時間のあるときに
調べて挑戦してみたいと思います。新境地に達っしたいっす。

お礼URL
ttp://asiangirls.bphosting.com/ag05/m13.html

506 名前:名無しさん@Emacs [02/11/25 00:24]
>>502
$url が与えられてるとして、
wget --accept=jpg -c -t 0 -r -l 1 --span-hosts \
-nd --user-agent=Mozilla --referer=$url $url
とかで落とせないかい?

507 名前:名無しさん@お腹いっぱい。 mailto:sage [02/12/03 22:49]
Yahoo! Groupsからファイル落とせるようにできないかなあ。
ユーザー認証ディレクトリの中にあるからダメかなあ。

508 名前:名無しさん@お腹いっぱい。 [02/12/24 02:54]
クリスマス・プレゼントあげ
ttp://www8.kinghost.com/asian/jgfc06/00348/

509 名前:名無しさん@お腹いっぱい。 mailto:sage [02/12/24 07:10]
俺はいつもHTMLをwgetでとってきて、sed かましてwgetに流してる。楽だし。
このスレを見てると、なんか職人魂を感じるな。
それはそうと、このスレは画像限定?rezファイルも連番になってるけど…アリかね?

// 誰か、Unixでラブマを結合する方法教えてくれ。

510 名前:名無しさん@お腹いっぱい。 mailto:sage [02/12/29 03:22]
wine Lovema.exe


511 名前:名無しさん@お腹いっぱい。 mailto:sage [02/12/29 03:24]
ついでに、takehost が最近 cookie を見るようになった。
wget で --save-cookies, --load-cookies 初めて使ったよ。

512 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/01 03:21]
ここで一句
 元旦にエンジン全開エロパワー

513 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/01 20:22]
>>507
ふつーにできるだろ、と思って今ちょっとやってみたができんな(w

514 名前:ftr223 [03/01/03 15:44]
でででででぇぇーっ!




515 名前:名無しさん@お腹いっぱい。 [03/01/04 01:00]
半角文字列/アップローダーはここだ!6 【半角板】
okazu.bbspink.com/test/read.cgi/ascii/1039936366/163

From: [163] 名無しさん@Emacs <>
Date: 02/12/30 00:06 ID:U6t76zEY

2chのためのアップローダだったら、2ch自身をアップローダとして使えばいいのでは?
帯域も十分だし、他のアップローダや回線に要らぬ迷惑もかけないし、、
アップロード時は、gzipとかbzip2で圧縮した後、base64とかでencodeしたも
のを、1スレに収まるように分割し、それらを適当な板とスレッドにランダム
に分散して投稿する。ただ、前の分割ファイルがわかるようにそのURLを各レ
スの最初に埋め込む。最後のレスには復元後のファイル名とチェックサム、ファ
イルの説明を書くようにする。
ダウンロード時は、最後のレスから次のレス、その次のレスと追っていき、最
初のレスまで辿り着いたら、全部のデータ部を結合、decode、解凍をする。
もちろん、以上の動作は専用プログラムを使う。もしくは、2ch専用ブラウザ
にそういった機能を組み込んでもらう。
まあ、こういった使い方が2ch側からabuseだったらあぼんですが、、


516 名前:名無しさん@お腹いっぱい。 [03/01/07 03:55]
最近、AOLのサーバーってデリが早くないか?
あとラブマ偽装も増えたなぁ・・・

517 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 05:05]
ラブマ偽装はもうしょうがないだろうねー
海外にガンガン晒される様になって来てるらしいし

そのうちcgiに日本語パスワードとかになるんじゃねーの?

518 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 08:27]
>>515
dempa.2ch.net/gazo/wara/imgboard.cgi

> 帯域も十分だし、
おいおい。

519 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 11:28]
パラパラマンガみたいに、微妙に動いている写真を、
アニメーション表示させるプログラムを書いてみた。

使う?


520 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 22:00]
>>519
とりあえずうぷしる!

521 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 22:24]
f4.aaacafe.ne.jp/~kent/up/img/737.jpg
実際は tar.bz2 なので注意。
コンパイルに SDL と SDL_image が必要です。

./morphanim image-1.jpg image-2.jpg ... image-n.jpg
で引数の画像を疑似アニメーション表示。

ドラッグで画像移動。ホイールスクロールで速度変更。


522 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/08 00:03]
wineで動く猫缶偽装解除ソフトあったら教えて!!
Melt it!は駄目みたい.


523 名前:名無しさん@お腹いっぱい。 mailto:age [03/01/10 15:36]
age

524 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん



525 名前:山崎渉 mailto:(^^)sage [03/01/15 12:56]
(^^)

526 名前:名無しさん@お腹いっぱい。 [03/01/16 17:28]
wgetでpostってできないですか?

527 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/16 21:10]
wpost: Command not found.

528 名前:名無しさん@お腹いっぱい。 [03/01/19 18:58]
クッキーもSSLもつかってる会員制サイトの画像を落とすにはどうすればいいんだろう・・・
スクリプトじゃもうだめな域か?

529 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/19 21:50]
なんていいスレなんだ!!!感動した。
rezがcatでできるなんて、しらんかった...
よく考えてみればあたりまえだな
おれも昔延々とbinaryのぞいてました。
rez fileは、crc16だったような、source perlで作ったようなきが
すんですけど、defualtのuni* commandじゃ作れなかったようなきがします...
fread(),fwrite(),dirent.h使ってた俺って一体何?
>>498
フォーマット調べずとも、wine APIでdll直接叩くってのはどでしょうか?

530 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/20 02:47]
>>528
最近の wget なら HTTPS も Cookie も喋れるよ。
がんがればなんとかなるっしょ。

531 名前:528 [03/01/20 18:48]
>>530
そうなんですか・・・
でもWebMailのような方式(Web上でIDとパスワードを打ち込む方式)だと太刀打ちできなさそうで???

532 名前:うひひ mailto:sage [03/01/20 18:55]
>>531
telnetで打ち込むとかLynxで自動に打ち込むのはどーよ


533 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/20 18:55]
>>531
curl なら POST 使えるんでない?

534 名前:名無しさん@お腹いっぱい。 [03/01/21 22:58]
相手のサーバが anonymous-ftp だったりすると、単純に wget を
ループさせるのはよろしくねいですよね。コネクションの都合上。
その辺りは考慮しますか? 漏れの場合には、

lftp ftp://server/path/to/
mget ero[0-9]*.jpg

です。って外出ですね。




535 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/22 05:41]
/dev/urandom を使って、とってきた画像をランダムスライドショー
Linux以外のOSで動くかどうか知らん。
* #!/bin/sh
* set -x
*
* case "$1" in
* start)
* PHOTOS=$(wc -l `pwd`/ero.list | awk '{ print $1; }')
* if [ "$PHOTOS" -lt "1" ]; then
* echo "エロ画像がない"; exit 1;
* fi
*
* if [ -x $(which wmsetbg) ]; then
* PROG="wmsetbg -a";
* elif [ -x $(wich display) ]; then
* PROG="display -window root -geometry $(xdpyinfo | grep dimensions | awk '{ print $2}')";
* elif [ -x $(which xloadimage) ]; then
* PROG="xloadimage -onroot -fullscreen";
* else
* echo "ビューアがない"; exit 1;
* fi
*
* find `pwd` -type f | egrep "jpg$|JPG$" | nl -n ln > `pwd`/ero.list
*
* while [ $0 ]; do
* RAND=$(cat /dev/urandom | od -t uS | head -n 1 | awk '{print $2;}');
* if [ "$RAND" -le "$PHOTOS" ]; then
* ERO=$(egrep "^$RAND " `pwd`/ero.list | awk '{print $2;}');
* $($PROG $ERO); sleep 5s;
* fi
* done
* ;;

536 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/22 05:43]
* stop)
* xsetroot -solid black;
* if [ -e `pwd`/ero.list ]; then
* rm -f `pwd`/ero.list;
* fi
* ps aux | grep "/ero.sh" | awk '{ print $2; }' | xargs kill -KILL
* ;;
* *)
* echo "あぼん"
* exit 1
* ;;
* esac

537 名前:535 訂正 mailto:sage [03/01/22 05:49]
find `pwd` -type f | egrep "jpg$|JPG$" | nl -n ln > `pwd`/ero.list
の行を start) の直後にもってこないと動かないですね。
どうも失礼しました。

538 名前:535 訂正2 mailto:sage [03/01/22 05:59]
- ps aux | grep "/ero.sh" | awk '{ print $2; }' | xargs kill -KILL
+ ps aux | grep $0 | awk '{ print $2; }' | xargs kill -KILL
蛸スクリプト荒しでした。ではさようなら。

539 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/29 19:10]
クッキー・REFERER・エージェント名チェック対策から始まり、
ベーシック認証・SSLといった障害を乗り越え、再帰探索ロボット化。
更新チェック機能を設け、MIMEチェックで無駄なデータを排除したり、
サイズチェックでサムネイル画像を捨てたり、連続アクセスに対して
帯域制限で反撃してくるサーバのためにインターバル調節やリトライ機能を追加し、
無限階層地獄なサーバ対策機能を追加し、効率を追求するためにマルチプロセス化したら、
某社が結構な値段で買ってくれました。
もちろん、開発動機がアダルト画像ダウンロードだったのは企業秘密です。

540 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/29 22:38]
>>539
売り込み文句のほうが気になるんだが…

541 名前:うひひ [03/01/31 10:36]
アメリケンかなんかのYahoo! Briefcase のファイルを
すかっと落とすスクリプト誰か作ってないかなぁ?
うぃん用のNetDupeExなんてのは見つけたんだけど

loginとpass入れないとファイルのURL抜けないんだけど
抜けちゃえばwgetでとれる
スクリプトあんま良くわかんないんだよなぁ


542 名前:名無しさん@お腹いっぱい。 [03/01/31 12:18]
UNIX はこんなことをやらないと連番画像すら落とせないのですか。
悲惨ですね。unixは。普及しないわけだ。

543 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/31 19:41]
まあね。でも楽しいからいいんよ。

544 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/31 21:32]
マジレスしていい? 専用統合ツールもないことないです。Aria
とか。ただ Windows ものの方が、数とユーザが多いぶん洗練され
てる感じはする(見ただけなのでなんとも言えんけど)

まぁ毎日に使うもんじゃないし、汎用的に使える wget ですませちゃえ
ってのは自然な発想じゃないかと。



545 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/31 23:00]
aolってファイル消えるの早すぎ
YahooのBriefcaseって1KB/秒以下で全然落ちてこん・・・
最近はiijとかのモザイク入り巨乳動画で我慢してるが。

以上、愚痴でした。

546 名前:うひひ mailto:sage [03/02/03 09:21]
>>544
ありがとう。はじめて知ったよ
パチョを含めこの手のツールは全く使ったことないので
ちょっと見聞してみる

なんかYahoo! Briefcase って最終的にファイルのURLを
us.f1.yahoofs.com/users/2a123153/bc/MITEMITE/Uhihi_chimpo001?bcCecO.A9UUF29L7
なようになってるんだが?以降の文字がコロコロ更新されるみたいなんだよなぁ
モタモタしてると変わっちゃうようみたいな気がする

ファイルリストページのソースを編集するのは何となくできたっぽいが
初期ページからファイルリスト全表示までの作戦がワカラン
Lynxとexpect で組む位しか作戦が

当座はしのいだから研究してみますわ


547 名前:名無しさん@お腹いっぱい。 mailto:sage [03/02/03 20:16]
>>546
どうでもいいが,すごい URI だな。
思わずアクセスしてしまったじゃないか(w

548 名前:名無しさん@お腹いっぱい。 mailto:sage [03/02/04 14:58]
>>546
例示にはアクセスできるURIを示してください。
でないと抜けない。


549 名前:うひひ mailto:sage [03/02/04 15:28]
>>547-8
すまんこってす。
本物のlogin,passwdとページのほうが情報が集まるとは思ったんだけど
アレの元はAVじゃなくておねーちゃんのPVなのよ。つまんないだろ?
丁寧に1M分割で4アカウント100ファイル以上だったので
結局ブラウザからLoginしてソース落としてsedしてみたいな



550 名前:名無しさん@お腹いっぱい。 mailto:sage [03/02/17 22:51]
リファとクッキーでそれらしきモノが落ちてくるけど表示されない。
というよりも mozilla でもエラー有りとして表示出来ない。
どうして?
ttp://comp278.takehost.com/aloha/index.html

551 名前:名無しさん@お腹いっぱい。 mailto:sage [03/02/18 15:41]
>>550
漏れもそこで少し悩んだ
結局、RefererとCookieだけでよかった

552 名前:名無しさん@お腹いっぱい。 [03/03/18 02:59]
連番で集めた裏本やPGFをディレクトリーごとに整理していても、増えていくと
どんな奴の写真だったかわからなくなってしまう。で、各ディレクトリから一
枚目だけを抜き出して、ブラウザーで表示するためのlist.html作成スクリプト
を書いてみたよ。評価してくれ。

#!/bin/sh
DIR=`pwd`
FN=`basename $PWD`
echo "<html><head><title>$FN</title><head><body>" > list.html
for i in `ls`
do
if [ -d $i ] ; then
cd $i
n=`ls | grep "[jJ][pP][gG]" | head -1`
cd $DIR
echo "<IMG SRC=\"$i/$n\" HEIGHT=\"120\" WIDTH=\"80\"><a href=\"file:///$DIR/$i/\" target=\"_blank\"><font size=1>$i</font></a>" >> list.html
fi
done
echo "</body></html>" >> list.html


553 名前:名無しさん@お腹いっぱい。 mailto:sage [03/03/21 09:10]
それにしても、勉強になるスレだ(w


554 名前:名無しさん@お腹いっぱい。 mailto:sage [03/03/21 12:31]
ファイルの保管で悩んでるのよ。長いけど聞いてくれ。

たまった画像および動画を外部メディアに保存する。でその時に、暗号化…
というか、めくらましをしときたい。また、取得は Unix、鑑賞は Win の
パターンが多いので、両方で使えるのが望ましい。

win and unix>手軽さ>速度>>>>暗号強度(>圧縮)

で、なるべく透過型なのがいい。ふつーのファイルみたいに見えるやつ。

PGP disk (仮想ファイルシステム)はほとんど理想なんだけど、残念な
ことに RO media からの mount ができない。DVD-R への保存ができない。
# でもこれはこれでいい。万人に薦める。

zip による暗号化はファイル名がばっちりなので意味がない。また、伸長
処理が一段階入っちゃうのがとても気に入らない。

君たちはどうしてるかね。つーか Win で loop device が使えればばっちり
なのだがー。意見求む。



555 名前:名無しさん@お腹いっぱい。 mailto:sage [03/03/21 23:13]
>>554
暗号化うんぬんとズレるけど、ファイル名を機械的に変更するのはどう?
実は漏れ、ファイルの整理の為に、md5 の結果をファイル名にしてるのだ。

#! /bin/sh

IFS="
"
for i in `find $1 -type f -print`; do
mv "$i" `dirname "$i"`/`md5sum.exe $i | sed -e "s/ \*.*$//"`.`echo $i | sed -e "s/^.*\.//"`
done


556 名前:555 mailto:sage [03/03/21 23:18]
cygwin 上で動かしてるので md5sum.exe になってたりするが気にしないようにw。
後、md5 の表示形式によって微妙にスクリプト変えないといけないのも注意。


557 名前:名無しさん@お腹いっぱい。 mailto:sage [03/03/22 16:30]
透過型というか、先頭32K部分とかに XOR でもかけて、
% xor 32000 <ファイル名> | mediaplayer とかできるとありがたい。
もしくは先頭部分にダミー放りこんで、32K後から読み込むようにするとか。

これと >>555 の md5 作戦を組み合わせれば DVD そこらに置きっ
ぱなしにしたりしても(まぁ)安全。扱いも楽。
しかし、 Unix ならまだしも Windows でこゆことできるのかな。

子供さんがおられるひととかいない? お父さんなにこれ、とか言われ
る前に備えが必要では? などと不安を煽ってさらにアイデア募集。

558 名前:山崎渉 mailto:(^^) [03/04/17 12:16]
(^^)

559 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/17 17:00]
いつのまにか*nixでラブマ結合出来るソフト公開されてるのね。
感謝感謝。

560 名前:名無しさん@お腹いっぱい。 [03/04/18 09:13]
>>559
詳細キボンヌ

561 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/18 10:06]
>>559
さんくす。
>>560
Google

562 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

563 名前:1 [03/04/23 19:21]
xxx.xxx.com/eroero/[01-25].jpg
xxx.xxx.com/eroero2/[26-50].jpg
と書かれたlistファイルから
xxx.xxx.com/eroero/01.jpg

xxx.xxx.com/eroero2/50.jpg
と展開したnewlistファイルを作るスクリプト。とりあえず[]内二桁までしか対応していない。
誰か改良してくれ。

#!/bin/sh
exec < list
while read URL
do
n=`echo $URL | awk -F[ '{print $2}' | awk -F- '{print $1}'`
if [ $n -lt 10 ]; then
n=`echo $n | sed 's/^0//'`
fi
LAST=`echo $URL | awk -F[ '{print $2}' | awk -F- '{print $2}' | awk -F] '{print $1}' `
while [ $n -le $LAST ]
do
if [ $n -lt 10 ] ; then
echo $URL | sed "s/\[[0-9][0-9]-[0-9][0-9]\]/0$n/" >> newlist
else
echo $URL | sed "s/\[[0-9][0-9]-[0-9][0-9]\]/$n/" >> newlist
fi
n=`expr $n + 1`
done
done



564 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 20:21]
誤爆しちまったい。これでどないだ
perl -ne 'chop; ($base, $first, $last, $ext) = m@(.+)/\[(\d+)-(\d+)\]\.(\S+)@; for($first..$last){printf "$base/$_.$ext\n"}' list



565 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 21:36]
>>564
誤爆先を見つけてしまったよ……
ていうかなんであんなところに誤爆してるんだYO!(w

566 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 21:51]
unix でラブマ教えてプリーズ

567 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 22:20]
unlov を使いたまえ

568 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 22:23]
>>567
サンクスコ!

569 名前:名無しさん@お腹いっぱい。 [03/04/23 22:46]
Linuxバイナリかよ。
unixじゃないじゃn

570 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 22:53]
偽装の仕様は公開してくれないの?
あれば自分で作りたいんだけど。

571 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 23:26]
>>570
「偽装」の目的を考えれば、公開する訳がない気がする…

572 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/23 23:33]
偽装の目的ってなんなのかな。
jpg ファイルに埋め込めればいいとかじゃなくて?
結合ツールが出回ってるのに公開しない理由とわ?

573 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 00:23]
>>572
安全保障上の理由とおもわれ。

574 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 12:14]
>>563
これじゃだめなのか?
#!/bin/sh
len=2
fmt="%s%0${len}d%s\\n"
IFS='[]-
'
cat list | while read base beg end sfx; do
i=$beg
while [ $i -le $end ]; do
printf $fmt $base $i $sfx
i=`expr $i + 1`
done
done >newlist




575 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 18:47]
>>570
ハックという言葉は知っているかね?

576 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/24 19:43]
ハックの大事なものを知ってるよ
友達どうしの約束と涙の止まるおまじない

577 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/25 01:38]
>>575
ロリ.hackハァハァ

578 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/25 20:09]
日替わりに動画を更新するエロサイトでは、URL はほぼ固定で日付に相当する
部分だけを変えるところも多い。

で、そういうサイトの動画を楽にまとめて落とすスクリプトを書いてみた。date の書式を
利用しているので手抜きができる。使う種類は限られていると思うが、例えば %m は月に
%d は日にそれぞれ置換される。

以下のような感じで、データの追加も簡単だし、一時的にチェックから外したければ、
END 以下に移動させてコメントアウトしておけばいい。単純な割にはめちゃ便利かも

#!/bin/sh

cat <<END | while read i; do wget $(date "+$i"); done
www.nantoka/~abc/defg%m-%d.zip
www.kantoka/~hij/klmn%m-%d.zip
www.doko/~op/qr_stu%m-%d.zip
www.kasiko/~vw/xyz99%m-%d.zip
END

579 名前:名無しさん@お腹いっぱい。 [03/04/26 06:19]
このスレは素晴らしいですね!
ところで、上の方でもつぶやいていた方がいましたが、
yahoo groops(eGroup)の記事や画像を自動ダウンすることは可能なのでしょうか?

winのオートパイロットソフトなども試したのですが、認証が越えられずダメでした・・。
wgetでもダメならば、cygwinのlynxならば認証を受けることができるので、
lynxをスクリプトで自動で操作してダウンする、などということは可能なのでしょうか?

wgetはwinのIEのクッキーではダメなんですよね?

580 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

581 名前:名無しさん@お腹いっぱい。 [03/04/26 06:45]
$ wget --help|grep cookie
--cookies=off don't use cookies.
--load-cookies=FILE load cookies from FILE before session.
--save-cookies=FILE save cookies to FILE after session.


582 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 01:37]
>552
このスレのちょっと前に出てた、ディレクトリ以下のインデックス一覧表示を
追加して使わせて貰ってます。
ディレクトリの中に.jpgがない場合のエラー処理が要るような気もするけど
まぁいいや。

#ソースの折り返しとかについては勘弁ね。

#!/bin/sh
DIR=`pwd`
FN=`basename $PWD`
URL_HEAD='www.漏れのティンコ.co.jp'
echo "<html><head><title>$FN</title><head><body>" > index.html
echo "<div align=center><font size=4>$FN</font></div>" >> index.html
for i in `ls`
do
if [ -d $i ] ; then
cd $i
ls |grep "[jJ][pP][gG]"| sed 's%\(.*\)%<a href="\1" alt="\1"><im
g src="\1" height=120 width=80></a>%' > index.html
n=`ls | grep "[jJ][pP][gG]" | head -1`
cd $DIR
echo "<IMG SRC=\"$URL_HEAD/$i/$n\" HEIGHT=\"120\" WIDTH=\"80\"><
a href=\"$URL_HEAD/$i/\" target=\"_blank\"><font size=1>$i</font></a>" >> index.
html
fi
done
echo "</body></html>" >> index.html

583 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 03:14]
うーむ。

index.html あたりからリストを生成して、wget を 10 個くらいで一気に
fetch してくる perl スクリプトってない?

584 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 03:51]
何を取ってきたいのか判らんのにどうしろと



585 名前:583 mailto:sage [03/04/28 03:58]
HTML::LinkExtor URI::URL LWP::UserAgent HTTP::Request

でリスト作って、2chJpgGetter の wget_down を回してやればいいことに
気がついて、ほぼ実装完了。



586 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/28 04:33]
>>582
grep -i .jpg を使わない理由があるんだろうか

587 名前:583 mailto:sage [03/04/28 05:28]
ヘタレな index 作るより、thumbnail_index を回せば
何も苦労しなくていいわけだが。

588 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/29 02:20]
Yahoo! Groupsにコマンドラインからログインする方法を試行錯誤してたら
ログイン失敗しすぎてアカウント一時停止された…半日おあずけ。

もしかしてhttpsでコマンドラインからLynxとかでpostするときは
コマンドラインに渡す文字列の時点で暗号化されてないとダメだったんだろうか…
いや、そんなことしなくてもいちどLynxでSSLログインして
そのクッキーをwgetに流用すればよかったんではないだろーか…

とか(w

589 名前:名無しさん@お腹いっぱい。 mailto:sage [03/04/29 16:32]
Yahoo! groupsのメーリングリストアーカイブからファイルを持ってくるPerlScriptならあった。
www.lpthe.jussieu.fr/~zeitlin/yahoo2mbox.html
ログインと年齢チェックのとこを借りればfilesやalbumsは問題なさげ。
つーかLynxやw3mでのpostとwgetを組み合わせようとするのは漏れには難しいよママン…

590 名前:579 mailto:sage [03/04/30 02:01]
ヤフーグループのことを質問したものです。
おぉ!いろいろ試してくださったんですね!!情報をくださった方まで!
超感謝です!

アルバムはgethttpというプロクシサーバーを立てて、
スライドショーにすると、そんなに手間がかからず保存できます。
ファイルはなぜかダウンロードマネージャーでダウンできることも多いんですよ。
それなんで、一番大きな問題はメッセージだったのです。
紹介していただいたスクリプトを使ってみます。

591 名前:579 mailto:sage [03/04/30 02:49]
うーん・・。なぜかダウンロードが始まらない・・。
0kbのファイルができるだけで・・。


592 名前:582 mailto:sage [03/05/03 00:28]
>586
>grep -i .jpg を使わない理由があるんだろうか

いや、grep -i の方が正しいと思いやす。


593 名前:名無しさん@お腹いっぱい。 [03/05/06 04:06]
>>589のやつ、うまくいった人いますか?

594 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん



595 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

596 名前:名無しさん@お腹いっぱい。 mailto:sage [03/05/22 08:43]
自分にとっては、今までのスクリプトのなかで>>578が実用度が一番高い。
単純な割にいいね

597 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 18:44]
質問があります。javaなどのScriptがアクセスするページの画像をダウンロードできるソフトって
ありますか?
できれば連番で・・・

598 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 18:46]
>>597
具体的にどこよ。

599 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 21:14]
>>598
「みてみて」っていうサイトです

600 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/02 21:31]

ttp://www.mitemite.ne.jp/

601 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/03 17:52]
↑無理?

602 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/03 17:55]
>>589
市販のオートパイロットではエラーがでちゃうんです


603 名前:名無しさん@お腹いっぱい。 [03/06/14 22:39]
ごぶさたあげ

604 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/17 20:47]
外出かもしれんが、ワードのマクロで連番のアドレス書いているのは俺だけだろうか?
www.xxxx.001.jpg
なら←×4・BS・数を入力を繰り返して・・・・で、100位までつくってあるんだが
そしてIriaにはりつけ



605 名前:ななす mailto:sage [03/06/17 21:20]
>>604
言ってる意味が理解できないが
ワードのマグロ?なんか青いオサカナ泳ぐういんどーずのヤシか
イチリアとか言うヤシは張り付けのクリップボードなのか
この板の香具師は概ねwgetのjpg狩りで
最悪連番必要でもwgetと好みのシェルの機能で[0-9]連番指示をだすわけで
wget -c www.eroero.uhiuhi.com/{cyapa,ozeu,hitoduma}/00[0-9].jpg



606 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 09:43]
連番生成・・・cygwin上でシェルスクリプト
ダウンロード・・・Irvine
POSTを喋らしたりcookie食わせるなら、perlでUAつかって書く

やっぱWindows上じゃないとねこーいうのは。


607 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 09:55]
連番生成 : jot
ダウンロード : wget
POST や Cookie : Perl でも Ruby でも Python でも何でも

なんで Windows?

608 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 18:31]
>>606
>>607
>>605 の方法が漏れには一番簡単に見えるんだが。
というか,プログラムを書く必要ってあるのか?
Cookie を食べる必要があるなら w3m でやればいいし。

609 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/26 20:58]
>>607>>606 に突っ込んでみたかっただけだよん

610 名前:名無しさん@お腹いっぱい。 mailto:sage [03/06/30 19:18]
unlov が Google から消えた…誰か詳細きぼんぬ。

611 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/02 00:01]
Googleから消えた理由は知らんが、サイトはまだあるよ。

612 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/02 00:48]
jot って BSD 用なの?

613 名前:610 mailto:sage [03/07/02 08:32]
>>611
URL きぼんぬ。

614 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/07 07:47]
takehost が Accept-Language: も見るようになったような気配を感じる。



615 名前:名無しさん@お腹いっぱい。 [03/07/07 08:14]
>614
拙者の記憶によると日本時間で4日の昼間からでござる。
入れ替わりにcookieを見なくなったように思わるれ。

616 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

617 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 06:57]
.


618 名前:610 mailto:sage [03/07/22 10:30]
誰か教えてくれぇ〜(´Д`)

619 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 11:43]
>>618
作れ。

620 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 18:36]
>>610
まず誠意をみせろ。おれが自宅に戻れる22:00以降に。
話はそれからだ。

621 名前:610 mailto:sage [03/07/23 19:58]
誠意っヽ(`Д´)ノ
ttp://houston.ddo.jp/~pitt/bakuf/2201.zip
ttp://houston.ddo.jp/~pitt/bakuf/2202.zip
ttp://houston.ddo.jp/~pitt/bakuf/2203.zip
ttp://houston.ddo.jp/~pitt/bakuf/1701.zip
ttp://houston.ddo.jp/~pitt/bakuf/1702.zip
ttp://www.hh.iij4u.or.jp/~hancock/rm/000.dat
ttp://www.pp.iij4u.or.jp/~fizz/rm/001.dat
ttp://houston.ddo.jp/~pitt/ousyo2/002.dat
ttp://houston.ddo.jp/~pitt/ousyo2/003.dat
ttp://houston.ddo.jp/~pitt/ousyo2/004.dat
ttp://houston.ddo.jp/~pitt/ousyo2/005.dat
ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.rez
ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.crc
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.bat
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.001
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.002
ttp://www.kk.iij4u.or.jp/~rouge/rm/tanpan2.zip
ttp://www.pp.iij4u.or.jp/~custom/rm/tanpan4.zip
ttp://www.nn.iij4u.or.jp/~jelly/rm/tobibako1.zip
ttp://www.ff.iij4u.or.jp/~clio/rm/tobibako2.zip
ttp://www.ff.iij4u.or.jp/~magnet/rm/roring1.zip
ttp://www.hh.iij4u.or.jp/~blanc/rm/roring2.zip
ttp://www.kk.iij4u.or.jp/~cosmic/rmm/mituami1.zip
ttp://www.hh.iij4u.or.jp/~starz/rmm/rock1.zip
ttp://www.nn.iij4u.or.jp/~coaster/rmm/rock2.zip


622 名前:きっと騙されているに一票 mailto:sage [03/07/24 03:00]
>>621
ゴチ

623 名前:名無しさん@お腹いっぱい。 [03/07/27 23:48]
>>621
落ちてこないよ〜

624 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 00:31]
こんなん動ナビとか動画普及委員会チェックしてれば毎日ゲットできるぞ。



625 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 17:52]
>>620 に騙された哀れな >>610 がいるスッドレはここですか?


626 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 23:40]
動ナビ死んでませんか

627 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 05:38]
動ナビは死んでないが、iij を使った結構な数のエロサイトから
ファイルが落とせなくなっているな

628 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 14:45]
>>626-627
ほかでやれ

629 名前:ぼるじょあ ◆yBEncckFOU mailto:(^^) [03/08/02 05:03]
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ

630 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 13:20]
wget の --timeout って、
相手がファイアウォールでパケットを捨ててるときには機能しないような気がする。
というか、そもそもそういう目的で使うオプションではないのか?
まあ、squidを経由すれば問題ないんだけど。


631 名前:620 mailto:sage [03/08/04 13:38]
>>610
遅くなって正直スマンかった。

望みのモノだよ。
saeto.deep-ice.com

632 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:13]
>>610
おめ

633 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:58]
動ナビURLはこっちに
www.i-like-movie.com/

634 名前:名無しさん@お腹いっぱい。 [03/08/13 12:19]
2ちゃんで話題になった「みーほ」女子○学生 B86 W57 H88(○5歳)
がこのHP内のギャラリーで何を考えているんだか、衝撃的なセルフのヌードを晒してます!!
削除される前に早めに見ておいた方がいいとおもいます!マジでやば過ぎ!!

neeez.com/~miho-room/



635 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/13 16:58]
不覚にもワロタ

636 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

637 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

638 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:13]
{from..to}

639 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:15]
{10..20,30..40}
みたいにはできないの?

640 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 03:38]
>639
zsh: {{10..20},{30..40}}


641 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 08:40]
( ・∀・)つ〃∩ ヘェーヘェーヘェー

642 名前:639 mailto:sage [03/08/27 19:15]
>>640
ありがdごぜいます

643 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 18:10]
そろそろ2ヶ月もカキコがない…。


おまえら満足してますか?

644 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 22:21]
>おまえら満足してますか?

してねぇっす・・・。

ダウンロード成果物をいかにユニークに保存するかってトコロで
頭痛めてたりする。
とりあえず、ファイルのMD5をpostgres上のテーブルにinsertしといて、
ダウンロード成果物をそいつとチェックして適宜ハネるって運用してるん
だけど、どうしても明らかに重複する奴が出てくる。

理由はいくつかあるんだけど、この辺が泥臭くかつ難しいね・・・。

最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
誰か「漏れはコレだ!」って奴を教えてくれぃ。



645 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 02:18]
>>644
> 最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
> 誰か「漏れはコレだ!」って奴を教えてくれぃ。
今まで何を試したか書いてくれ。
例示した後で「それはもう使ってみた」って言われるのはやだ。

646 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:18]
おれは単純に時間とディレクトリで分類してる。
ファイルのタイムスタンプとユニークなID,簡単なメモを
名前に付けてリネームするスクリプト書いて、
適当なディレクトリにとりあえず放り込む。ここまではほぼ自動。

あとは実際に見てる時に必要なら分類し直す。
おれ的にはファイル名がユニークであれば、それで足りてる。
全ての画像に等しい価値がある訳でないので、
必要な時の手作業の分類で間に合う。

647 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:30]
俺はディレクトリと連番だな。もちろんスクリプトで。

648 名前:login:Penguin mailto:sage [03/10/27 14:31]
>>610
再うpきぼん

649 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 20:36]
>>644
wget -x で URL のまま保存してる。


650 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/28 00:30]
>>648
> >>610
> 再うpきぼん

>>631
> >>610
> 遅くなって正直スマンかった。
>
> 望みのモノだよ。
> saeto.deep-ice.com



651 名前:644 mailto:sage [03/10/28 12:03]
>今まで何を試したか書いてくれ。
少しずつ積み重ねてるから、そんないろいろな方法試してるわけでも
ないんだわ。
で、今のところこんな仕組み。

前提:ファイルはすべて.jpg。
対象は、ディレクトリごとにファイルがまとまっていると想定。
(ディレクトリひとつに1ファイルは無視)

-- 日々。
(1) wget -x でディレクトリごとdownload
(2) jpeginfoで壊れたファイルを削除

-- 月次。
(3) ディレクトリ階層をn階層 -> 2階層へ変換
(4) 指定バイト数以下のファイルやディレクトリを削除
(サムネイル対策)
(5) 過去にダウンロードしたファイルのmd5と比較し、新規ファイルが
含まれているディレクトリは保存用ディレクトリへ移動。
(6) 保存用ディレクトリへ移動したものは、md5をpostgres上のテーブルへ
insertする。
(次からのダウンロード重複チェック用)

--適当なタイミングで。
(6) そこそこたまってきたら、CD-Rを使ってお掃除。

上記(6)以外はすべて自動実行。
で、こうやってて素朴に思うのが、「ここまでやらないかんのか?」てところ。
これという方法も無いような気がするんだけどね。

652 名前:644 mailto:sage [03/10/28 22:21]
続き。

重複する理由ってのが、だいたい
(a) jpgファイルが壊れてて、md5が違ってる。
(b) 見た目おんなじ画像で壊れてもいないjpgファイルだけど、何故かmd5が違う。
(c) 素材はおんなじだけど、画像ファイル化したヒトが違うヒト
といったところかなと。
んで、(a)はjpeginfoでどうにかなるとして(といっても再度ダウンロードで補うことが
できればだけどね)、(b),(c)はどうしたものかなと。

完全自動化を目指してるんで、この辺クリアできないかなと考えてます。

653 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 00:51]
そこまでしてローカルにあらゆる画像を保存したいの?

画像の類似性を判別するソフトがあったような気もするけど。

654 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:28]
GQview とか



655 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:29]
>>653
よく web 上から消えるじゃん。

656 名前:うひひ mailto:sage [03/10/29 09:36]
>>644
素人考えなんだが
同じエロ画像でも大きさっていうか画質とかが違ってたりすんじゃん
例えばイメージマジックとかで同じ様な仕様になるように
小さくサムネイルのように同じファイルサイズとかにフィルタしてから
binary diffみたいのを使って差分をとって差分比率を読みとりながら
画像を比較できないのかなぁ?


657 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 14:12]
昔は連番ファイル落とすためにwgetやshを駆使して頑張ってた時期もあった。
たとえばこことか。
ttp://www.taiwankiss.com/board1/data/82585.html
(白石ひより、藻無し、556MB + 567MB、ラブマ分割、パス未発表)

今は各種P2Pがあるから手間いらずで外付け120GBもエロで満杯だよ。

658 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 22:59]
>>658
どのP2P使ってるか教えれ

659 名前:644 mailto:sage [03/10/31 23:42]
レスありがとさんです。

>GQview とか
フリーでこのテのツールがあるとは知りませんでした。
別のツールでは、作者が「コマンド実行で類推するようにしたいな」って
書いてたんで、もう少し様子見かなと。
もしくは、これらツールから該当コードをぶっこぬいて、コマンドラインで
実行できるようデッチ上げるのも手かなと。

>binary diffみたいのを使って差分をとって差分比率を読みとりながら
>画像を比較できないのかなぁ?
#漏れも画像関係まったくの素人なんですが・・・。
jpegを一度bitmapか何かに展開してからゴリゴリ比較って動きかな?
暇を見てちょっと試してみます。

時間を見つけて、いずれかの方法をちょっとやってみます。
ありがとうございやした。

660 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/13 05:03]
俺は半角板を自動巡回して URI 拾って wget のリクエスト作る Ruby スクリプト書いた
落ちてきた画像は一通り見てお気に入りの奴はお気に入りディレクトリに入れて
それ以外は全部ファイル名を MD5 にリネームするスクリプトで変換してから
画像置き場ディレクトリに放り込んでる

画像的には同一なんだけどデータとしては違うというケースはうちでも発生してるな
ちゃんと判定する方法なんて無いような気がしてたから諦めてたけど
ここらへん研究してみると面白いかもな

>>652
(b)(c)のケースなんだけど、もし画像サイズが同じなら、
jpeg のエンコード時の特性の違いがあるのかもな
もしそうなら jpeg のエンコードに特化した画像判別があればいいのかも


661 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/14 22:06]
>>660
JPEGは符号化時のクオリティ設定で出力がまったく違います。
また、どこかのwebで拾った同じJPEGファイルに端を発した画像でも
デコード・エンコードを繰り返して劣化したもの、コメントが変わった
・取り除かれたもの、huffmanコードを最適化したものなどいくらでも
バリエーションがありますので、結局デコード後の画像として比較する
しかないのではないかと。

662 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/22 23:24]
エロ画像とかよか普通の女の子画像をダウンロードしたくなりました。
で、
ttp://avbuzz.com/bbs/model/list.php
を見つけたわけですが。
ここのを大きい画像だけ上手にダウンロードしたいんだけど、難しいです。
良い方法、なんか思いつきませんか?

663 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 00:16]
うーむ。
% w3m -dump_source 'avbuzz.com/bbs/model/diss.php?id=152568' | sed -n 's@ *<img src=\(.*\) vspace=10><br>@\1@;s@^u@avbuzz.com/bbs/model/u@;/^http/p'


664 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 03:04]
>>663
出きたよー。
ありがと。



665 名前:名無しさん@お腹いっぱい。 [03/11/25 15:58]
wgetを使ってあるディレクトリ以下にある(cgiソース含)ファイルを無差別にDLする方法ありませんかね。

666 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:00]
man wget

667 名前:名無しさん@お腹いっぱい。 [03/11/25 16:08]
>>666
やったけど詳しく書いてないみたいだけど、、、

wget -r --ignore-length <URL/>

で良いかな?

668 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:16]
info wget

669 名前:名無しさん@お腹いっぱい。 [03/11/25 17:19]
cgiファイルらしきもんはダウンロードできたけれど、やっぱソースが見れないです。
ソースの形でまるごとやりたいんですけど。

670 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 17:25]
ソースが見れないように設定してあるHTTP鯖から、
ソースを落とすことはできませんヨ。当たり前だろ。

671 名前:名無しさん@お腹いっぱい。 [03/11/25 17:31]
やっぱ、そうだったか。
たまたま、ソースもまるごと落せたこともあったけど、それはそこの管理者が
物凄くアホだったってわけね。

俺もな、、、涙;

672 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 17:35]
そもそも、読み出し権限無いかもしれないし。

673 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 22:14]
>>671
というかCGIとして実行されるように設定されてるファイルは、絶対にGETできんよ。
そのファイルを指定したリクエストが来たらCGIとして実行するようになってる
訳だから、(そのWebサーバ経由では)ファイルを取りようが無い。
ソースを落とせたことがあるんなら、多分それは、CGI実行設定されてない
ディレクトリに物置のように置いて有ったのだろう。逆に言うとそれは
「動いていない」プログラムだから、正しいという保証はどこにも無い。

674 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 00:38]
jpeginfo でこわれているjpegファイルの判定を十分にできますか?
なんか、xv で表示できないファイルがだいぶ残るのですが。




675 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 01:21]
XVの設定が古いせいではないかと…

ImageMagickとかなら表示できたりしない?

676 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 01:53]
そうですか。もうすこしいろいろためしてみます。


677 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 14:35]
% perl slodziutka.erospace.pl

ドゾー



678 名前:名無しさん@お腹いっぱい。 [03/12/17 20:51]
最新のwgetって~を%7Eに変換しないのか…

679 名前:名無しさん@お腹いっぱい。 [04/01/02 16:41]
「げっとぴっく」ってやつ使ってるんだが
「指定のURLには画像が存在しません」とかいうエラーが出てきてdlできん

680 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/02 16:44]
>>679
板違い。

681 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 09:57]
gallery3.pure-angel.net/kasumi_nakane/index.html

なんだけど、wget が使用不能です(downloaderとして弾かれる)。
猛者の皆様、お助け下さい。

682 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 10:22]
>>681
あんま好きなおなごじゃないな

wget --user-agent=Mozilla --referer gallery3.pure-angel.net/kasumi_nakane/01/ gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg


683 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 14:01]
> wget --user-agent=Mozilla --referer gallery3.pure-angel.net/kasumi_nakane/01/ gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg


ありがとうございます!!
--refererの使用まで思い至りませんでした。

684 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 07:39]
>>578の方法につての質問です。
ディレクトリが同じでその中のファイルの例が
img20031113192714.jpg 13 Nov 03 19:27 6.2Kb
img20031113210116.jpg 13 Nov 03 21:01 7.4Kb
img20031113210157.jpg 13 Nov 03 21:01 22.1Kb
・・・
こんな感じになってます。これを一気に落としたいのですが
いかんせん時分秒まで回してたらやばいことになりそうなので
wget ~ の~部分だけループできたらと思います。
で,その場所がディレクトリサービスONだったので
starsuiteで上のようなファイルリストを作りました。
でもシェルスクリプトの動作がイマイチわかりません。

cat<<END |wget nanntokakanntoka/
2003xxxxxxxx.jpg
...
END

の足りない部分を埋めていただきたく思います。
Solaris9でインストールしたときのsh使ってます。

それ以前にwgetでディレクトリサービスONの
アドレスから.jpg .png .gifの絶対パス取って
まとめてゲット~なんて出来ればなお良いんですけど
私にはさっぱりひらめきがないのでもし良かったら
ご教示願います



685 名前:684 mailto:sage [04/01/08 07:53]
あーん最悪。wget -r www.nantara/
だけでぜーんぶおとせた。ディレクトリサービスオンだとこんなことになるのね。
って書き込んでる間に396filesオチター

686 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 09:52]
何が最悪なんだ?

687 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 13:32]
684がhelpもinfoも読まずにカキコしちゃった自身の
ソコツさ加減を最悪と称しているのでせう

688 名前:名無しさん@お腹いっぱい。 [04/01/09 02:37]
echo "wget www.hoge.he.jp/hoge/ero{001..100}.jpg" | zsh -s

689 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/09 13:54]
>>685
URL希望


690 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/17 18:58]
あの、awkでしかも汚いですが一応動きます。
baseurl と files 変えたら他の女の子のもいけます。
よければ添削してやってください。

BEGIN{
baseurl="www.tokyo-247.net/image/37_maya/maya1/t2_maya001.jpg"
files = 55

split(baseurl,url,"1/")
url[2] = substr(url[2],1,index(url[2],"0"))

for(i=1; i<=files; i++){
path = url[1] int((i-1)/15)+1 "/"
if(i<10){ number = "0" i }else{ number = i}
file = url[2] number ".jpg"
print file
wgetcmd = "wget -nc " path file
system(wgetcmd)
}
}


691 名前:名無しさん@お腹いっぱい。 [04/01/18 00:35]
wgetのオプションでquotaを指定すると取得するファイルの上限をきめられるそうですが
逆に下限を決める事はできないのでしょうか?
HDDがすげー遅いので、ディスクアクセスをできるだけ減らしたいっす

692 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 00:39]
>>690
わざわざ変なスクリプトかいて暇ですな。

693 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 00:45]
>>690
ファイルごとに wget を起動するんでなく
URL を一括で wget に食わせてやる方がよいと思う。
あとせっかく wget 使うなら便利なオプションがいろいろあるので調べるが吉。

694 名前:690 mailto:sage [04/01/18 08:09]
ご意見ありがd。
>692
九段のサイトでは画像を小出しにしてまして
定期的に巡回して、うp分を一括ダウソする必要があり
まぁ暇だったこともあってこうなりまつた。
>693
その向きでまたチャレンジしまつ。



695 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:26]
> ご意見ありが??。
まともなunixerならまず使おうとは思わん記号だな

696 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:53]
>>695
というか、入力方法がわからんよ
emacsでctrl-q hoge fuga とかするの?

697 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:55]
そういえば、どこかのスレに
「(・∀・)イラネ」って書いてあったのを見たことあるよ

698 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 15:40]
>695
わざわざ使おうとは思わんけど、
unixでは読めないのがあたりまえみたいな
書きかたをされると( ´゚д゚`)

699 名前:名無しさん@お腹いっぱい。 [04/02/08 02:27]
連番のH画像じゃないんですが、
celeb.goldengate.hu/site_videos.php3
ここの MPEG全部落したいんですが、あれこれやっても
うまくできないのです。お知恵を貸していただければ、
嬉しいのですが。

700 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 03:24]
"あれこれ"やったことを書け。

701 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 14:32]
リンクを解析して辿り、目的の拡張子だけをダウソするPerlスクリプトを書いたんですが・・・再発明ですか?
個人的には十分楽しんだからウマーだけど。


702 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

703 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 15:29]
先生!!>>702の頭の悪さが直っていません!


704 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 15:50]
HTML::LinkExtor とか使えばいいのに。
出力は、fork しまくって wget を同時に走らすスクリプトに渡すと。

まあ、手元にあるんだが、希望者がいれば公開してあげます。



705 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 17:50]
>>704
公開希望

706 名前:名無しさん@お腹いっぱい。 mailto:sage マジでいてーよ [04/02/08 18:24]
今痔が出来て痛くてたまらないからAA貼り付けようかな

707 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:22]
僕もがんばってみた。「はじめてのC言語」とそれから「関数の使いかた」少しよんだ。


#include <stdio.h>
#include <string.h>
#include <math.h>
#define MAXSTRING 255

struct address{
char preaddr[MAXSTRING];
char scope[MAXSTRING];
char aftaddr[MAXSTRING];

int statnum;
int endnum;
int digit;
};

/* 続く */

708 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:23]
void numaddr( struct address *p )
{
char cset[] = "-";
p->digit = strcspn( p->scope, cset );
p->statnum = atoi( strtok( p->scope, cset ));
p->endnum = atoi( strtok( NULL, cset ));
}

void printaddr( struct address *p )
{
int i, n, t;
for ( n = p->statnum; n <= p->endnum; n++ )
{
fprintf( stdout, "%s", p->preaddr );
if ( n == 0 ) i = 0;
else i = log10(n);
for ( t = i; t < p->digit - 1; t++ )
fprintf( stdout, "0");
fprintf( stdout, "%d%s\n", n, p->aftaddr );
}
}

/* 続く */

709 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:24]
int main( int argc, char *argv[] )
{
int i;
char cset[] = "[]";
struct address multiaddr[argc];

if ( argc <= 1 ) fprintf( stdout, "%s [word]...\n", argv[0] );
else
{
for ( i = 1; i < argc; i++ )
{
strcpy ( multiaddr[i].preaddr, strtok( argv[i], cset ));
strcpy ( multiaddr[i].scope, strtok( NULL, cset ));
strcpy ( multiaddr[i].aftaddr, strtok( NULL, cset ));

numaddr(&multiaddr[i]);
printaddr(&multiaddr[i]);
}
}

return 0;
}

/* おしまい */

710 名前:707 mailto:sage [04/02/08 22:28]
math.h をつかうと
#gcc -o getopai getopai.c -lm
と -lm つけるのなんでだろ?

711 名前:707 mailto:sage [04/02/08 22:35]
>>709 やっぱこう↓しとく
"s/\[word\]/opai\[001-100\].jpg/"

712 名前:699 [04/02/08 23:49]
700さん
ここむずかしいですね。どういう仕組みなんだろう、このHP。
画像もたくさんあるみたいなんだけど、すぺてPHPで開いてきます。
wget -r --user-agent=Mozilla --referer celeb.goldengate.hu celeb.goldengate.hu/
当然 これでは無理ですね
だめぽ…

713 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/09 12:51]
難しくはない。ただ、ファイル名が結構適当なので面倒臭い。
wget celeb.goldengate.hu//celebs_foreign_pic/Dido/dido{043..045}.jpg


714 名前:名無しさん@お腹いっぱい。 [04/02/09 13:03]
>>712
動画ウィンドウの表示にはJavaScriptを利用してるみたいなので
wgetだけでは無理かと



715 名前:699 [04/02/09 23:45]
うん どうやってするのがスマートな解決なんでしょうか。
僕には皆目検討もつきません。
やっぱ 一つ一つ落すしかないのかな。


716 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 03:47]
--user-agentの指定ってどういうとき必要になるの?

717 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 03:56]
偽装したい時

718 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 08:30]
>>716
指定しないと落とせないとき。

719 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 10:44]
アクセスログ読んでる奴に嫌がらせしたいとき。

720 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 12:14]
>>718
--user-agentを指定しアクセス制限を回避することは
不正アクセス禁止法の第3条2項2号に違反するため、
一年以下の懲役又は五十万円以下の罰金に処されます。

721 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 13:22]
>>720
user agentは不正アクセス禁止法の識別符号には該当しない。

722 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 15:23]
詳しい人100人集めたら90人くらいまではそう言うと思うけど、裁判所的にはどうだろね。
URLと一緒で意図絡んでるからトチ狂った判断出される可能性はなきにしもあらずげ。

723 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 20:32]
>>721
MS的にはおもしろくないだろうよ?

724 名前:720 mailto:sage [04/02/11 23:11]
>720はネタなんで無視してくれて構いません。
ただ、一応補足しておくと…

>>721
識別符号を使用した不正アクセス行為を規定しているのは第3条2項1号。
第3条2項2号は識別符号以外の情報を使用した不正アクセスについて
規定しています。
www.ipa.go.jp/security/ciadr/law199908.html



725 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/12 00:07]
もしかして、厳密にいうと違反なわけ?

726 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/12 01:51]
>>725
誰かがUA偽装のみで訴えられて裁判所が何らかの判断下すまで違反だとは誰も断言できない。

条文にアクセス方法についてもうちょい具体的に書いておいてくれりゃよかったんだけどね。

727 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/12 05:09]
telnetしたり自分でUA組んだ時、
打ち間違えたりリテラル書き間違えてたらタイーフォか。ありえねー。
標準で偽装可能な Opera はタイーフォだな。(w
大体、クライアント側が偽装してるかどうかを立証する方法がないわな。

ただ裁判官はこの手の知識は絶無だし、腐った弁護士は少なくないからなぁ。
やな世の中だ。

728 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/12 15:31]
なんか変な人が。

>>727
UserAgentを普段書き換えることや書き換え機能がついてること自体は問題ない。
* UserAgentでアクセスの制限をしているサイト * へ、UserAgentを書き換えて
アクセスしたことが問題(になるかもしれないのはやだなあ)という話。

729 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/12 19:11]
なる可能性はあるな。国内の法律では不正アクセス行為の禁止等に関する法律の
第3条3項に以下の記述がある

>三 電気通信回線を介して接続された他の特定電子計算機が有するアクセス制御機能に
>よりその特定利用を制限されている特定電子計算機に電気通信回線を通じてその
>制限を免れることができる情報又は指令を入力して当該特定電子計算機を作動させ、
>その制限されている特定利用をし得る状態にさせる行為


ここの「制限を免れることが出来る情報」にuseragentが含まれるかどうかが争点だろう。

俺としてはUAはそもそも信憑性にないものだし,UAによるアクセス制御自体が
無効だと思ってる。ケータイのサイトなんかでよくあるけど,CDMAなんかopenwave.com
からブラウザ拾ってきて使えばPCでMobile Browserのagentが出せる。
この場合は有罪?無罪?

アクセス制御にはIPアドレスなどを使うべきだろう。

俺の結論 合法と解釈する。


730 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/12 22:13]
アクセス制限とは認証のことであり、UAのチェックは認証としての要件を満たさない

以上終了

731 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 00:28]
>>730
前提を示す必要があるな。

732 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 02:39]
もまえら暇だなぁ。

733 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 03:27]
そんなことより違法なエロ画像の URL 下さい。

734 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 04:16]
「うらぼん」でぐぐればいいのでは?



735 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 07:56]
これですか??
ttp://www.chuouji.or.jp/urabon/urabon.htm
ありがとうございます!

736 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 08:48]
おお、これは本当にありがたい。ありがたやありがたや (一人一) ナムー

737 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 12:12]
これどうやっておとすのでしょう
wget --referer では落とせません
URLリストをテキストに出力して別のGUIダウンローダにコピペすれば落とせるのですが。
ちなみにwget -iでは無理でした
ttp://www.free-adult-hosting.net/bookoff014/book/text4.htm
の真ん中右Sampleってやつです01〜41
お願いします

738 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 12:25]
user-agentだろどうせ

739 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 12:34]
cookie利用の可能性も

740 名前:名無しさん@お腹いっぱい。 [04/02/13 12:40]
% wget --user-agent=Mozilla www.free-adult-hosting.net/bookoff014/BOOK010_004/0{01..41}.jpg

741 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 14:27]
連番の蓮画像を一気にダウンロードする
スレに見えた。

742 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 14:34]
>>741
3年前から同じスレタイですが。

743 名前:741 mailto:sage [04/02/13 15:02]
ようするに見る側の問題ってこった。

744 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/13 15:11]
>740
ありがとぉ



745 名前:名無しさん@お腹いっぱい。 [04/02/14 00:51]
ttp://kawaii.clawz.com/hentv/max.html
ここってどうやって巡回すればいい?
ヘッダがないからwgetじゃエラーになるんだけど

746 名前:名無しさん@お腹いっぱい。 [04/02/14 03:58]
よ〜するに、M$IEもMozillaを騙っているので偽装であると...φ(.. )

747 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/14 04:25]
              ,. -‐-
          「`Y´|    ヽ 〜
           Y⌒ソノノリ)) )〉
          i (ll (〔i ,i〕{ノ
     __    リ从ゝ~ (フ/
     {{゙ァ‐  、  '⌒ T
      `ーへ ヽ ィ   !
         ー' ,ノ  ,
           , ´   '/
.     ,.、     !   ヽ'
    /   ヽ. /ヽ.   ヽ
      ー'´\ '  /ヽ  ヽ
         ー'   \  ヽ   _
              ヽ. ヽ'´ /
                 \ _/

【小学6年】山手線(渋谷駅)で全裸の少女が補導 part12【昼間から(画像有り)】
pc.2ch.net/test/read.cgi/pcnews/1074297496/l50

748 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/14 04:28]
urlがpcnewsでは開いて見る気もせんが、
AAは良い出来だから今回だけは許してやろう。

749 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/14 12:30]
pcnewsに飛ばすならせめて
ネットで公開して本人補導とかそういうのにしてくれないとな。

750 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/15 04:28]
>>735
功徳は生きてるうちに

751 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/17 17:54]
smmonkey.pwp.blueyonder.co.uk/zxa1.html
H画像ではない (連番ではある) けどこれはむっ、と思った。
この手で対処されたらお手上げっぽくね?

# ちなみに違法ページではないよ。Amstrad社のケツの穴はデカいなあ

752 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/18 23:10]
ttp://www.macromedia.com/software/flash/open/licensing/fileformat/
一応仕様は公開はされてるけどな。

753 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/20 04:08]
あんまりサーバに負荷かけちゃ駄目だよ。

#!/bin/bash

if [ ! -d ./OUT ]; then
mkdir OUT
fi

URL="thebbs.jp"
GETNUM="1024"
UA="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)"

wget -U "$UA" -N "${URL}/up1/"
LIST=$(cat index.html | egrep '[0-9]+\.html' | sed 's/.*href=\"\([0-9][0-9]*\.html\)\".*/\1/g')
PAGES=$(for name in ${LIST} ; do echo "${URL}/up1/${name}" ; done )

wget -U "$UA" -N -nv -w 1 --random-wait ${PAGES}

for name in $(grep 'href=/sum.html\?' 1[0-9]*.html \
| sed 's+.*href=.*/\([0-9][0-9]*\.\(jpg\|png\|bmp\|gif\)\) .*+\1+g'\
| sort | tail -n ${GETNUM} )
do
wget -N -nv -U "$UA" -w 4 --random-wait -O ./OUT/${name} "thebbs.jp/up1/img/${name}"
done


でもここから選別するのが大変な罠。


754 名前:753 mailto:sage [04/02/20 04:40]
あ、そうそう。
急に変なアクセス増えて何かの対策とられたりしないように次の事くらいは守って使って。
UAは絶対変える。
GETNUMは増やさない。
-w は減らさない。
--random-waitは外さない。

管理者に迷惑かからないようにしてな。まじで。
一晩くらいかけてマターリ落して細く長く楽しむのが吉だべよ。
つっても楽しめる画像があんまり無いんだけど。




755 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/21 01:23]
自分で生HDDをつけるということは、少なくてもパーティションの作成から
ファイルシステムやswapの作成というところから始めなきゃいけない訳だし
unix未経験者にはハードル高いんじゃないかな、少なくてもvi使えないと話にならんし。
でもこれから勉強したい人には良いかもね。


756 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/21 01:38]
↑なかなか上品なレスだけど、頭の中ではエロエロなことばかり考えているんですね。

757 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/21 16:20]
誤爆かと思った罠

758 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/22 07:14]
エロは*習熟の源です

759 名前:名無しさん@お腹いっぱい。 [04/03/12 00:34]


760 名前:名無しさん@お腹いっぱい。 [04/03/15 03:48]
ほしゅ

761 名前:名無しさん@お腹いっぱい。 mailto:sage [04/04/16 21:19]
ほしゅほしゅ

762 名前:名無しさん@お腹いっぱい。 mailto:sage [04/04/22 20:59]
hosyu

763 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/07 11:36]


764 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/07 23:19]
hosyu



765 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/08 00:26]
なんかネタ無いの?
wgetで複数ファイルの同時ダウンロードするシェルスクリプト書いてたまに使ってるけど、
curlを使うperl,ruby,python等のスクリプトの方がよくない?
shは遅いし、wgetは終了時のエラーコードとか細かい部分がダメぽい。

766 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/08 05:48]
エロには飽きた。

767 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/08 06:19]
画像に飽きた奴が小説に流れるパターンだな

768 名前:名無しさん@お腹いっぱい。 mailto:age [04/05/23 11:48]
もう一度、エロのパワーを!!!

769 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/28 13:14]
保守

770 名前:sage mailto:sage [04/06/21 21:23]
誰か俺が使ってるスクリプト見たい人いる?汚いけど。

771 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/21 21:30]
参考にしてみたいな

772 名前:770 mailto:sage [04/06/21 22:09]
こんなかんじ。
urlをテキストに並べておいて、ファイル名を引き数に指定して使ってます。
urlにリンクされているjpgを勝手にフォルダ掘ってそこにdlしていきます。
フォルダ名はurlから拾ってます。

#!/usr/bin/perl

use LWP::UserAgent;
use HTML::LinkExtor;
use URI::URL;
use strict;
use POSIX ":sys_wait_h";

$| = 1;#OUTPUT_AUTOFLUSH

my $iframe_ref='';
my $base_tag = '';


773 名前:770 mailto:sage [04/06/21 22:09]
while(!eof()) {
my $url = <>;
$iframe_ref = '';
my %downloads = ();
chomp $url;
next unless $url;
print "Checking $url¥n";
if ( map{ $downloads{$_} = 0 } getlinks($url) )
{
$url = $iframe_ref if $iframe_ref;
dl2( $url,[sort keys %downloads] );
print "¥n";
} else {
print "there are no JPG¥n";
}
}

774 名前:770 mailto:sage [04/06/21 22:10]
my @imgs = ();
my $iframe = '';
sub callback {
my($tag, %attr) = @_;
$iframe = $attr{"src"} if $tag eq 'iframe';
$base_tag = $attr{"href"} if $tag eq 'base';
return if $tag ne 'a';
push(@imgs, $attr{"href"});
}



775 名前:770 mailto:sage [04/06/21 22:10]
sub getlinks
{
$base_tag = '';
@imgs = ();
$iframe = '';
my $url = $_[0];
my $ua = LWP::UserAgent->new( Agent => "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;)");
my $p = HTML::LinkExtor->new(¥&callback);
my $res = $ua->request(HTTP::Request->new(GET => $url),
sub {$p->parse($_[0])});
my $base = $base_tag || $res->base;
if ($iframe and !@imgs) {
print "Found iframe. recheck >> $iframe¥n";
$_ = url($iframe,$base)->abs;
$iframe_ref = $_;
$iframe = '';
return getlinks($_);
}
@imgs = map { $_ = url($_, $base)->abs; } @imgs;
@imgs = grep{/.[jJ][pP][gG]$/} @imgs;
return @imgs;
}

776 名前:770 mailto:sage [04/06/21 22:11]
sub dl {
my $uri = $_[0];
my $ref = $_[1];
my ($dummy,$dir) = ($uri =~ /.*¥/([^¥/]+)¥/([^¥/]+)¥/[^¥/]*$/);
opendir(A,$dir) || mkdir $dir;
closedir A;
chdir $dir;
`curl -s -O $uri -e $ref`;
chdir "../";
}

777 名前:770 mailto:sage [04/06/21 22:12]
sub dl2 {
my $max = 4;#プロセス数

my $ref = shift;
my @str = @{shift(@_)};
my($pid, @slot);
my $tick=0;

while(@str){
for(0..($max-1)){
if($slot[$_] != 0 and waitpid($slot[$_], &WNOHANG)!=0){
$slot[$_] = 0;
}
}


778 名前:770 mailto:sage [04/06/21 22:12]
for(0..($max-1)){
if($slot[$_] == 0){
my $url = shift(@str);
last unless defined $url;
chomp($url);
if($pid=fork()){
$slot[$_] = $pid;
} elsif (defined $pid) {
print "Start Download >> $url¥r";
dl($url,$ref);
exit;
} else {
die "Can't fork: $!¥n";
}
}
}

sleep(1);
}

for(0..($max-1)){
waitpid($slot[$_], 0);
}
}


779 名前:770 mailto:sage [04/06/21 22:13]
以上です。

780 名前:770 mailto:sage [04/06/21 22:29]
余計なのはいってた;
my $tick;
を削除してください;

バーが回るヤツつけようと書き換えている最中の貼ってしまいました;

781 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 14:41]
wget -r -A .jpg
に URL を渡して回せば良いのでは? と言ってみるテスト。


782 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 17:35]
wgetの--page-requisitesを使ってお絵かき掲示板の絵をコメントごと収集しようと思ってます。
しかし、しぃアプレットを使っている掲示板からは--page-requisitesで画像を持って来れませんでした。
例として、どこでもいいんですが思い切り無関係なところでこことか↓
ttp://www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi

  1) wgetの設定がまずい
  2) こっちのネットワークの何かがまずい
  3) CGI側で何かしてるのでwgetでは無理

なにがよろしくないんでしょう。wgetがHTMLを解析してくれてない感じなんですが。

783 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:03]
>>782
1) -p option ついたの最近よ? あと実装始めのころのはバグってた気もした
2) これっぽい。君のサイトが撥ねられてるとか、proxy とか
3) んなこたー、ない

% wget --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi
(略)
% ls www15.big.or.jp/~baroque/nharuna/oekaki/data/
IMG_003579.jpg IMG_003582.jpg IMG_003585.jpg IMG_003587_2.jpg
IMG_003581.jpg IMG_003584.jpg IMG_003586.jpg IMG_003588.jpg
% wget --version
GNU Wget 1.9.1

784 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:06]
ゼンゼン関係あるけどこのサイトは感動した
www.geocities.jp/futaba136241/baseball01.html



785 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:18]
>>782-783
漏れも画像のダウンロードができなかった
-m -l1オプションでもダメだった

% wget --version
GNU Wget 1.8.2

wget 1.9は~の処理が変わったので使ってない

786 名前:782 mailto:sage [04/06/22 18:33]
でも、infoseek.co.jp にあるのも candybox.to にあるのも x-beat.com にあるのも駄目。指定ファイルしか落ちてこない。
Webブラウザでは普通に見れるし… --recursive とかもこのサイトに効かないんだよなあ。

$ wget -nv --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi
18:15:34 URL:www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi [28106]
-> "www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi" [1]

終了しました --18:15:34--
ダウンロード: 28,106 バイト(ファイル数 1)
$ wget --version
GNU Wget 1.8.1

Windows版。
>wget -nv --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi
18:15:20 URL:www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi [28106]
-> "www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi" [1]

FINISHED --18:15:20--
Downloaded: 28,106 bytes in 1 files
>wget --version
GNU Wget 1.9.1

なんででしょね?

787 名前:770 mailto:sage [04/06/22 21:39]
>781
おお。スマートだし。自分が恥ずかしくなってきた。
でもこれ、サムネールとか広告まで保存しちゃいますね。
保存先も深くなっちゃうし。


788 名前:770 mailto:sage [04/06/23 05:05]
>782
wget --page-requisites --follow-tags=IMG
でいけました。

あと自己レスなんですが
wget -r -A.jpg -nd -np -I 1 -H --ignore-tags=img -P dir
でやりたかった通りに出来ました。


789 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 10:56]
>>788
でもあんま根本的な原因究明にはなってないな(w
解析が難しいHTMLの書き方にでもなってるのか?

790 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 11:48]
wgetよりcURLの方が便利だ。

791 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 16:46]
使い方キボン.

792 名前:770 mailto:sage [04/06/25 09:06]
>789
CGIが吐くHTMLの最初の方に
<META name="ROBOTS" content="NOINDEX,NOFOLLOW">
とあり、wgetがこのタグのNOFOLLOWを理解して探索をやめてしまうから。


793 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/29 18:13]
がーん。wget って --timestamping と --no-clobber を同時指定ってできないんだ…

 「ローカルより新しいファイルならサーバからダウンロードするが
  ファイルは上書きせずに通し番号などをつけて区別して保存する」

という芸はできないのか。

794 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/30 13:09]
>>793
サーバー上のファイルと比較すべきローカルのファイルを
どれにするのが適当なのかがよくわからない、というのが原因なんだろうね。

--timestampingで更新ダウンロードした時に
スクリプトでリネーム退避しておく、という手くらいしか思いつかないや。
…wgetが更新ダウンロードしたことを検知する方法ってなんかあるっけ。
ログを書き出す設定にしてgrepする以外にあるかな?



795 名前:名無しさん@お腹いっぱい。 [04/07/04 16:58]
優秀なポマエラに質問でつ

このサイトの画像を自動で保存するにはどうすればいいでつか?
www.sweetnote.com/board/chidle/hoshiinanase/

ページの最後にCSSで隠した画像があって、
その画像にアクセスするとアクセス禁止になってしまうので
wgetだと保存できません

ちなみに、巡回ソフト対策みたいなのですが、
CSSに対応してないブラウザで見ると表示されてしまうし、
Operaでスペース押していくと画像を順番に表示していくので
CSSで隠した画像にもアクセスしてしまいます

796 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:14]
そういえば、昔作ったスクリプトには
grep -v BBLhGdTS
何ていうのが入っていたな。

797 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:18]
ん? えーと、コレは単に

……。しまった。CSS云々ってコレか。繋ぎ変えよう


798 名前:795 mailto:sage [04/07/04 17:23]
>>797
面倒なことさせてしまってすみません

FirefoxなどでCSSを無効にすると
一番下に同じサムネイルが2枚表示されていて
その下の画像のリンクにアクセスするとアクセス禁止になってしまいます

799 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:30]
う、うまく書けない。まあいいや。
えーとね、Lynxかなにかで全リンクを抽出して、grepで/images/を含む行を取り出す。
これは「1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の順番になってるので
偶数行目だけ削除するフィルタを何かで書いて(初心者が急いでるので挫折)、
そのURLリストをUserAgentがIEでrefererが当該ページなwgetで回せばいい。はず。たぶん。

800 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:10]
bbs.coolnavi.com/16627
↑のようにcookie強制する画像サイトは難しい。

801 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:36]
wget --load-cookies --save-cookies .... でOKでは。

802 名前:799 mailto:sage [04/07/04 19:13]
適当に書いてみた。LynxだとIEのフリができずアクセス解析でバレそうなのでHTMLソースをwgetして解析。
>>799の「リンクを抽出した1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の仕様が崩れるとアウト。

#/bin/sh
wget $1 -q -nv --user-agent=="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -O - |\
sed -n 's/<a href="\(..*\)" target="_blank">.*/http:\/\/www.sweetnote.com\1/p' |\
awk 'NR%2 == 1' | wget --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" \
--referer=$1 -nv -P ${2:-gazou} -i -

上記の5行をget.shとかで保存して適当に実行可能にして
$ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/
とするとカレントディレクトリにgazouディレクトリを勝手に掘って画像を保存。
(5行目の -P ${2:-gazou} を消すとデフォルトでカレントに保存するようになる)
$ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/ test
とするとカレントディレクトリの下にtestという指定ディレクトリを勝手に掘って画像を保存。

IEだと思わせてるので画像の更新はあえて見てない(毎回6ファイルを強制ダウンロード)。
鯖負荷のかけすぎで気取られないように注意。

803 名前:795 mailto:sage [04/07/04 21:35]
>>802
ありがとうございます

ダミーのリンクは最初と最後の画像だけみたいなので
偶数行を削除という発想をヒントに2行目と最後の行を削除したらいけました

sed -e '2 d' | tac | tail +2

> 仕様が崩れるとアウト。

以前は各画像のあとにコメントアウトされた
ダミーの画像がふたつずつありました

> (毎回6ファイルを強制ダウンロード)。

いつもはwgetに-xオプションをつけてダウンロードしています
あとは "`echo url | cut -d/ -f3-`" というファイルが
存在するかどうかでダウンロード済みかどうかを判断しています
URLエンコードが必要な場合は適当に処理してます

804 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 22:27]
IEでもHEAD投げてサイズを見てダウンロードするかどうかを決めるってのはやってるんじゃないかな。
別にそれでバレることはないと思うぞ(w



805 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 23:52]
>>801
いやね、>>800は半角板に張ってあったりすると、URI中のセッションIDとcookieのセッションIDが一致しないとダメなのよ。
そのサイトから直で落とすなら問題ないんだけどね。

806 名前:名無しさん@お腹いっぱい。 [04/08/14 11:43]
保守

807 名前:名無しさん@お腹いっぱい。 [04/08/22 21:52]
wget使ってdlするスクリプトを書いてるんだけど、どうもcookieの処理が上手く出来
ないんだけど、だれか解決方法知らない?

index取得時にUIDとSIDをsetされるので、imageをgetする際にその両方を送れば
いいだけなんだけど、なぜかwgetだとUIDしか送ってくれない。

808 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 11:56]
office-lady.net/office/cute/album1.html
ここの画像ってどうすればgetできますか?
wgetプロの方、おながいします。

809 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 12:28]
wget で適当な --referer を指定して、zsh で
office-lady.net/office/cute/images/img0{01..18}.jpg
あとは自分でいろいろ調べてみてください。

810 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 13:47]
>>807
指定するときにセミコロンでパラメータをセパレートするんじゃないの?
ひょっとしたらwgetの場合cookieなんかだと、複数のパラメータセットが
あった場合、全部追加されるのかもしれないけど。
#まあキャプチャすれば直ぐ判ることだが。

811 名前:名無しさん@お腹いっぱい。 [04/09/09 01:30]
保守

812 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 11:16]
>>808
こんな感じ。
wget --header=REFERER:office-lady.net/office/cute/ office-lady.net/office/cute/images/img0{01..18}.jpg

813 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 17:38:03]
>>812
--header=REFERER:と等価な--refererが最近のヤツだと使えるようになってる。
{}の展開、以前上手く動かなくて使ってないのだが、俺の勘違いだったのかな。
今度試してみよう。

814 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 20:32:43]
>>813
cshが勝手にはぎ取っているという落ちでないの?
echo {01..18}
の結果は?



815 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 22:49:45]
>>814
ああ、やっぱりシェルの展開機能なのね。
普通にsh(bash)でした。

816 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:05:16]
このスレのあちこちで、しつこく zsh って書いてあるのに…

817 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:36:51]
curlにはそういうiriaライクな構文があるよね。

818 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:48:35]
>>816
いや、zshに展開機能があるのは知ってるんだけど
wget自身にパラメータの展開機能が盛り込まれたのかと思ったんだよ。
シェルにあるような機能を取り込む必要もないのかもしれんが、
ある意味zshって特殊(スタンダードではない)だから。
まあログインシェルぐらい時々で変えれば、つう考えもあるな。

819 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:59:20]
>818
展開は shell が面倒見てその結果をアプリケーションに渡すのが Unix 的思想。

820 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 01:05:09]
>>819
んじゃ、もう一方のUnix的な思想で
展開機能のないシェルで展開させるために使うフィルタで
お勧めなのは何かある?今はawkでやってるんだけど。
(zshのスクリプトでというのは取りあえず無しで)

821 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 02:16:47]
>>820
おまえ アホ だろ.

822 名前:820 mailto:sage [04/09/11 03:06:57]
>>821
多分指摘のとおりアホなんだと思うけど、
アホ故に、どの辺りをもってしてアホなのかが判らん。
ズバっと明確に切ってくれ。

823 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 03:09:28]
zshのスクリプトでいいじゃん。
車輪の再発明はイラネ

824 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 05:25:12]
url を切り出すスクリプトと
wget を 50 個くらい平行して走らせるスクリプトだけで
オナニーするには困ってない.




825 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 06:07:50]
>>820
まったくスレ読まないで書くから外してるかもしれないけど。
curlは自前で展開してくれる。そっち使えば?

826 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/13 15:03:30]
えっと、aria は4系でも動かないの?

827 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/18 13:54:18]
もう疲れました。自分なりにwgetのオプションを色々と試してみたんですが。
ttp://bbs.coolnavi.com/16627/10674p8.の中の画像をwgetで落とすことが
できません。

どうか、先生方のお知恵をお貸しください。お願いします。


828 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:14:03]
被写体が♂だったらやったんだけどな・・・

829 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:21:56]
工エエェェ(´д`)ェェエエ工

830 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:26:40]
苺きんたまの画像をゲットした時は

#!/bin/sh
cat input |grep "v.isp.2ch.net/up/" >output
sed 's/http/ttp/' output > tmp
sed 's/ttp/http/' tmp > tmp2
sed 's/JPG/jpg/' tmp2 > tmp3
awk '
{print "wget " $1}' tmp3 >temp
chmod 700 temp
./temp
mv *.jpg images

こんな感じ。お好みでwhileして?p=1・・・p25までゲットとか。
無限roopで問題なかった。1つのcgi落とすのに10分以上かかったから。
sedが冗長な感じだが足りない頭じゃこんなものしか書けなかった。
誰かもっと簡潔な「よい見本」きぼんぬ。

831 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:30:11]
あーごめん。これじゃなかった。

#!/bin/csh
@ i = 1
while ($i <= 2)
date >>history
wget "up.isp.2ch.net/upload/c=03okari/index.cgi?"
cat "index.cgi" |grep jpg >list
awk -F\" '{print "wget -U hiroyuki v.isp.2ch.net" $2}' list >test
cat test |grep jpg >test2
chmod 770 test2
./test2
awk '{print $4}' test2 >>listtmp
sort -i listtmp |uniq >getlist
mv *.jpg jpg3
rm "index.cgi"
@ i = 1
end

こんなん。これも良い見本きぼんぬ。

832 名前:名無しさん@お腹いっぱい。 [04/10/22 13:36:38]
age

833 名前:名無しさん@お腹いっぱい。 [04/11/05 19:21:13]
保守!

834 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 19:23:59]
なんて息の長い祖レッドなんだ。



835 名前:833 mailto:sage [04/11/05 19:45:55]
見つけてしまいました、こんなスレ。今からzsh入れます!

836 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 20:09:10]
すげー。ありがとみなさん!ノシ


837 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/09 13:04:12]
このスレ21世紀の始まりから生きてるのか

838 名前:名無しさん@お腹いっぱい。 [04/11/11 21:10:37]
エロは性器を超える

839 名前:名無しさん@お腹いっぱい。 [04/11/11 21:37:36]
page11.auctions.yahoo.co.jp/jp/auction/n9933154
このダウンロードソフトって使った人います??

840 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:08:39]
wgetに画像だけ-ncの動作をするオプションを追加して使ってる。
時間の入った連番画像が主の時には、-N使うよりは動作は速いし鯖負荷も多少は減るんじゃ無いかな。
wget --no-clobber-imageで。

begin-base64 644 -
H4sIAN3lpUEAA7VXaW/bRhD9LP2KqYDakiXRJHXLMGoHkQsjTh04aYECAViK
XInbkLsEd+kDaf57Zw8dtCTXCVDBMMXZ92aPeTM7iuliAd2iBMc5fVgS2fWc
ieOdiiI6TaTMnQj2Wuvdbvcgpea7bq/ruV1vAO542vOn3sBxVx9ouxPXrbfb
7f2uFbvf9byuPwDfnw5GU7fvjPqD0WCLfXEBXW/Y9zpDaOunN4GLizqYT0Fk
WTC4m326u313Zqzf6lBvA9AFNHkuHcajlM/npKBZuCRwdARJKAL9EohysaCP
QQ7Nk0TIUDopj8I0WNCUtBRSfQnIIxVS7Ae11EwAX80D4PQErhdQmRaoALVI
EgNnELJYe4UwLUgYP4Hx3oGYA+Oy3q6pPRWU3BOQCTHYk9OV/5Qv84IyiXu7
uf01+GN29+b246wDQbPxud6+1jv862dxvHaPPgrSgQeapsr/2rnzmTVaHdjd
0Vl1K+s1qF1YXwREmedcoFEei7XLGG7fObC12JNYwj/nNjhX6Hg1cHU3mwXv
L/98M4NmXGbZ02bWZwFtm4C2VWRLQQIp4BxcHehVfCXNCG4iyylbtowCvtbj
w2KnjMpdsRvrAbGbwY3YPStXz3uN2DdsI3YPvOHUH0y9oTMcDP0dsY98rXV8
jKzSv0Ijo0XBi0anVvvt95sbfNSiLA5ETqLADMG3joUyjEekkEdah+qtY+Bz

841 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:09:17]
zlMSsi3oSqQIP6qodpfRrjJ0Au3QtLVzaLI8LAiTm6XxwFgOLy8v+ONThaAM
Fn9PIlnZeJkpJYoNXhYrLI7h8gLKFohHacckL0gUShKjXl9QSxZStqsWYz2g
FjP4o2rZsLfVMpz2Rs544hq5bKnFH0+UWtRjtK6LeBZ0yXhBuilhS5k0Opj7
QVgsy0ydNmgJgdcb27OrKGwf9Dg73oYy3l3rZq/nvmcV8wzetarZSxp7z+aI
aaEjrEO6f57RM0rChXwNb7yPl3L+pcwPUAauoqgjH/aG6siHvVHHXEW1KMRa
6I3dKX4HEESi+O7DFJqNiDOGa1E1ipeofHU1oGusdwo5xxr9BYvcyoE3VfW/
4uB5vkGDY+E+0zhLt/MfXx7vzh9GEckPzfuC7BFOORNO8lye64ED4l+P/6j+
Kw62u4Ph1HWd/mS3OxgMVDjw/9gmAN6PEMZxoIKKWjir1TDh33J1caEZlJmF
GYGVTp5+UZeWJa4P3NKoCOcpEbAKA1sCX5hbG7/jceIHqXEoQ8fefRU3Om6v
89W2vjTFsWuKkrDAm5QWWPoINivG1Se8ljHKir7eBciCkAorVTe32qoh3fAl
rCwVHGV5KYMq+FrZKvAX5FJKmordMmnNB6RiR9dC8Xvge1NV7V4llC16VSa9
seP6owpdyWTi9ZVO1MNfKcV2G6qh0F0jRq7e3tceYh4LaU9roQ4EGz/d9BkT
Am17o7qSJr5im2LY0DT4Fpyf61piW8bN1Jb1k8CLGhM5ynA+5GKq/50vG60q
3nsZT/5nQs6+D7+ki+/Cz7N8P37ruHQ7iAq9wwYXQkgpwxa14BlcfdDttYWq
zjXnGFFswSVHBBFJ+oSNsWp28d7X5V9g4uhk0xll30DkYaQ7Xj6XeB1jZyuT
gpfLBDJNb7b0RCLhZWr8zNUSCAIfqEz0V8Q8JIRhi6wcMY6tO1viUhiiSOz8
dzbtlF5rfjGbfrjsbtG3+g78c7FLNT1qJZvGOpnwv0mlui56KnMSmaWbxPlw
eXf5/iOmxHYCtdQ1pJNt30+xgxSMunlRv2yChwSbxUAHf824ur6ZWfcorTIy
9SvISKbKo+HpHzOHl3XPqVKQBQYqkhv0PqeK9S+tiE0GWw8AAA==
====

842 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/08 14:39:01]
hoshu

843 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/10 13:48:48]
ちょっと保守しますよ。

844 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/19 02:35:17]
ほっしゅっしゅ



845 名前:名無しさん@お腹いっぱい。 [04/12/26 03:27:28]
初心者です。
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg
を196まで一括で落としたいんですが。
なるべくわかりやすい方法を教えて下さい。
すみません。


846 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 03:34:13]
$ zsh
% wget -c -w 5 ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/{001..196}.jpg


847 名前:名無しさん@お腹いっぱい。 [04/12/26 03:49:49]
zsh、wgetはどこでインストールできますか?
あの・・・zsh、wgetって何ですか?
ほんとにすみません。






848 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:10:46]
www.zsh.org
www.gnu.org/software/wget/wget.html

あとは自分で調べてください。


849 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:16:58]
>>847
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/002.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/003.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/004.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/005.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/006.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/007.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/008.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/009.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/010.jpg
196まで全て手作業で作ってみたが2分40秒で出来た
メモ帳でやった
01-02-03-04-05-06-07-08-09-00
これをひとかたまりに9セットコピペ
んで数字 - ←↓(同時押し)
001-002-003
011-012-013
021-022-023

わからんのなら手作業しかあるまい、がんがれ

850 名前:名無しさん@お腹いっぱい。 [04/12/26 04:30:24]
>>848
ありがとうございます。

>>849
ありがとうございます。地道にやってみます。
ちなみに同時押しって何ですか?

851 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:46:52]
curl -O aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/[001-196].jpg

852 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:55:45]
>851
それだとシェルが展開しようとして変なことが起きるから、適当にクォートすべきだな。


853 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/03 08:02:28]
おまいら御用達のwgetの
www.st.ryukoku.ac.jp/~kjm/security/memo/2004/12.html#20041220_wget
って、まだ直ってないんでしょうか。


854 名前:名無しさん@お腹いっぱい。 [05/01/05 01:31:19]
>>853
はい。



855 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/10 20:09:44]
4周年記念日
でもsage

>>380
ttp://search.mse.co.jp/cgi-bin/ip_dom-2/ipsearch.cgi
エロサイトじゃないけど、何なのかもよく分からん。


856 名前:名無しさん@お腹いっぱい。 [05/01/29 14:47:08 ]
ttp://hp.vector.co.jp/authors/VA024337/SqTop.html

857 名前:名無しさん@お腹いっぱい。 [05/01/29 16:18:15 ]
>>856
デムパ キタ━━━━━━(゚∀゚)━━━━━━ !!!!!

858 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/30 03:32:28 ]
phpとか使われるとわけわからん。落とせん

859 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/02 12:00:08 ]
perlスクリプト使え

860 名前:名無しさん@お腹いっぱい。 [05/02/02 16:27:08 ]
( ゚д゚)ポカーン

861 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/03 05:11:11 ]
ttp://www.melon-peach.com/

ここの画像、どうにかしてぶっこ抜けませんか?

862 名前:名無しさん@お腹いっぱい。 [05/02/03 16:27:47 ]
ネトラン厨(・∀・)カエレ!!

863 名前:861 mailto:sage [05/02/06 13:01:24 ]
ネトラン厨じゃないのに・・・
(つД`)・゚・

864 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/06 19:39:21 ]
>>863
>>41,578 とか参考にならない?



865 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/07 00:09:17 ]
>>861
重杉

866 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/13 22:56:14 ]
wgetかcurlで
nylon.hostfuck.com/index01.html
の画像を落とすスクリプトを書いてください


867 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/13 23:25:32 ]
>866
ちょっとは自分で勉強することも覚えてはいかがですか。

868 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 01:00:48 ]
>>866
#!/bin/sh
wget -r -l1 "nylon.hostfuck.com/index01.html"
mkdir gazou
mv *.jpg *.bmp *.tif* *.x*m *.gif *.rgb *.psd *.eps *.wmf gazou
rm ./

無保証。



869 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 02:57:21 ]
403喰らう悪寒。-Uでしっかりと騙るのがベターかも。。。
二次元には興味なし。でも

870 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 03:59:53 ]
2次元か

871 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 17:58:19 ]
while(<>){
 m/num=([0-9]+)&type=([a-zA-Z]+)[^0-9]*([0-9]+)/ and system "wget".
  " --output-document='$3.$1.$2'".
  " --header='Cookie:num=$1;type=$2'".
  " nylon.hostfuck.com/nylon.php".
 "\n";
}

872 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 18:02:22 ]
×&
○&amp;

873 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 20:12:36 ]
Perl?

874 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 20:39:49 ]
漏れはこんなスクリプトでやってみた
for n in {28672..32767}; do
[ -f $n.jpg ] && continue
wget --header="Cookie: num=$n; type=jpg" --output-document=$n.jpg \
nylon.hostfuck.com/nylon.php
done

ほんとは連番じゃないので
ちゃんとやりたかったら番号はこんなかんじで抜き出せばいいかも
w3m -dump_source \
nylon.hostfuck.com/{,index0{1..7}.html} |\
ruby -e 'while gets; $_.sub(/image.php\?num=(\d+)/) do puts $1; end end' |\
sort | uniq



875 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 23:04:47 ]
無駄が多いな、このサイト。

876 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/16 03:26:14 ]
                 l           l
                 J           l
                           J

さわったら負けかなと思ってる。

877 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/16 19:57:30 ]
成功した?

878 名前:名無しさん@お腹いっぱい。 mailto:sage [05/03/01 08:03:13 ]
セルフプレジャー保守

879 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:44:21 ]
初心者スレから誘導されてきました。
連番のzipファイルを一気に解凍する方法はありますか?
001.zip 002.zip 003.zip
今はひとつひとつunzipしてます。既出だったらすみません。
教えてくれたら、こころを入れ替えてスクリプト勉強します。

880 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:45:58 ]
unzip {001..100}.zip

881 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:53:44 ]
for i in *.zip; do unzip $i; done
でもいいんでないかい?

882 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/05(火) 00:14:01 ]
echo *.zip | xargs -n1 unzip


883 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/05(火) 00:42:16 ]
unzip は自前でワイルドカードを処理するのでほかに zip ファイルがなければ

unzip \*.zip

でどうでしょう。

884 名前:名無しさん@お腹いっぱい。 [2005/05/30(月) 16:25:28 ]
うほ



885 名前:名無しさん@お腹いっぱい。 [2005/06/14(火) 20:55:22 ]
altemisweb.jpから落とせる方法をご存知の方、いますか?
そもそも普通にw3mとかでも開けないのですが。

たとえばttp://s1.artemisweb.jp/kto11/main.html
からいけるページなど。


886 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:12:18 ]
wget -m --cookies=on --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)"

とかじゃだめなの?




887 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:15:53 ]
>>886
UAとrefererは指定してもだめです
cookieはためしてないけど、w3mでさえページを開けないってことはcookieじゃなくて
JavaScriptが効いてないとだめなのかもしれない希ガス


888 名前:名無しさん@お腹いっぱい。 [2005/06/14(火) 21:45:27 ]
>>887
リファラ送ったら普通に落ちてきたぞ?
wget --referer="s1.artemisweb.jp/" \
s1.artemisweb.jp/kto11/room-01/main.html

889 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:52:29 ]
>>888
そうすか?
私のところでは、w3mでもwgetでも、特定のバイト数を読み込んだところで
ブロック状態になります。で、しょうがないからctrl-Cで終了させると、
IEで取得可能な全てのファイルは落とせていない。

そっからもぐってたどれる画像に関してはまったく無理です。


890 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:53:16 ]
> IEで取得可能な全てのファイルは落とせていない。
わかりにくい言い方でした。
当然ですが割り込みで入力を停止させてるので、partialなファイルに
なっちゃってるってことです。


891 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:54:53 ]
Referer以外チェックしてないみたいだけど

% wget --referer=s1.artemisweb.jp/ \
s1.artemisweb.jp/kto11/room-01/267_track_04/267_shizuku_tsukino_2_084.jpg

HTTP による接続要求を送信しました、応答を待っています... 200 OK

% wget s1.artemisweb.jp/kto11/room-01/267_track_04/267_shizuku_tsukino_2_084.jpg

HTTP による接続要求を送信しました、応答を待っています... 403 Forbidden

Refererを送るにはm(r?)オプションをつければいいので
これで全部ダウンロードできると思う

wget -m -np -L s1.artemisweb.jp/kto11/main.html


892 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 22:01:51 ]
>>891
え??
それで、ちゃんと最後までおちますか?
私のところではブロックしてしまうのですが。

何が悪いんだろう。

893 名前:853 mailto:sage [2005/06/15(水) 01:38:59 ]
>>853
www.cve.mitre.org/cgi-bin/cvename.cgi?name=CAN-2004-1487
www.cve.mitre.org/cgi-bin/cvename.cgi?name=CAN-2004-1488

これ?


894 名前:名無しさん@お腹いっぱい。 mailto:hage [2005/06/15(水) 09:16:17 ]
wgetばーじょんうpあげ



895 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/15(水) 22:25:56 ]
>>885
uname -v および wget --version を晒してみ

896 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/16(木) 01:47:37 ]
>>895
FreeBSD 4.7-RELEASE
GNU Wget 1.8.2


897 名前:895 mailto:sage [2005/06/16(木) 22:21:11 ]
>>896
すまぬ,予想外れた.
Darwin Kernel Version 7.9.0 だと OS X 添付のwget (version失念) で --referer
オプションが働かなかった.
>>891 末尾の方法では html は落ちたが jpeg は 403.
出来心で GNU Wget 1.10 のソース落としてインスコしたところ
wget --referer=s1.artemisweb.jp -m -np -L s1.artemisweb.jp/o11/main.html
で落とせた.たぶん参考にならないが一事例としてカキコ.

898 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/16(木) 22:27:31 ]
thx. とりあえずニューwgetで試してみることにしますわ。


899 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/22(水) 10:07:33 ]
% ls .thumbnails/normal | wc
3643 3643 134791
% du .thumbnails/normal
84000 .thumbnails/normal

('A`)

900 名前:900 mailto:sage [2005/06/26(日) 09:34:26 ]
900

901 名前:名無しさん@お腹いっぱい。 mailto:あげ [2005/06/29(水) 02:00:46 ]
すみませんこのサイトの画像取れません…ttp://loface.com/pic_sum.php?p=kakyu2
(サムネイルを拡大にするには、topページでクッキーを取得する。→loface.com/?e=35)

自分は色々やりました。例えば
wget -r -A .jpg -nd ttp://loface.com/pic_sum.php?p=kakyu2
こんな感じでやってみましたが、どうもダメ…
どうかご教授下さい。

902 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/29(水) 02:21:00 ]
お前は基本がわかってないから無理

903 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/29(水) 02:59:38 ]
>>901
ヒント: wget --header="Cookie: kokoni hairu mojiretu wo nanntoka shutoku shiro"

904 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/29(水) 21:09:33 ]
>>901
日本語も学びなおしたほうがよかろ
学問でも技芸でもなく、単なる方法を知りたいのなら
×教授ください
○教示ください
>>903
それはヒントどころか答えでは・・・w



905 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/29(水) 23:51:29 ]
空気を読んだ方がよかろ
単なる抜く画像を知りたいなら
×助教授ください
○女教授ください


906 名前:名無しさん@お腹いっぱい。 [2005/06/30(木) 07:07:50 ]
10秒に1アクセスの制限もあるな。

907 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/30(木) 09:58:10 ]
>>901
初心者だけど過去ログを見ながら挑戦してみますた

curl -H "ここにくっきー文字列" -o kakyusei#1.jpg "loface.com/pic.php?img=kakyusei[001-879].jpg&pic=kakyu2"

又は…

for num in `seq -f %03g 1 879`; do
wget --header="ここにくっきー文字列" --output-document=kakyusei${num}.jpg \
"loface.com/pic.php?img=kakyusei${num}.jpg&pic=kakyu2"
done

これで全部ぶっこぬけると思うヽ(´ー`)ノ

908 名前:名無しさん@お腹いっぱい。 [2005/07/02(土) 19:04:53 ]
なんか最近は DCGA ってのばっかりでスルーばっかりだよ。

909 名前:901 mailto:sage [2005/07/03(日) 00:05:10 ]
>>902
そんなorz

>>903
クッキー文字列のことですか?

>>904
っう…スミマセン

>>905
○女生徒ください

>>906
それどういう意味ですか?

>>907
うーん上手くいきません?何ででしょう

910 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/07/03(日) 02:49:12 ]
>>909
つ Firefox + Live HTTP headers

911 名前:906 mailto:sage [2005/07/03(日) 09:29:12 ]
>>909
そのままの意味。連続アクセスするとjpegの代わりに「10秒まてこの早漏」と返してくる。
hint: wget --load-cookies=foo --save-cookies=foo --keep-session-cookies


912 名前:901 mailto:sage [2005/07/03(日) 15:47:34 ]
お騒がせしてすみません、解決できました。

wget -r --header="cookie: Cookie: PHP_DAYCOUNT2=<省略>; lf=<省略>" loface.com/pic_sum.php?p=kakyu2

で出来ました。今まで出来なかったのは『PHP_DAYCOUNT2』が抜けてただけみたいですorz
>>910さんが指摘した『Live HTTP headers』で気がつきました。

どうも有難うございました。

>>911
レスしてくれて有難うございます。

913 名前:名無しさん@お腹いっぱい。 [2005/07/17(日) 01:12:56 ]
age

914 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/07/17(日) 01:21:26 ]
まだあったのな、このスレ。




915 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/07/17(日) 01:39:56 ]
UNIX板での良スレ

916 名前:名無しさん@お腹いっぱい。 mailto:age [2005/07/31(日) 12:29:53 ]
エロいおまいら 画像ビューワ のお勧め教えれ。

xv? gimageview? gqview? 他?

ディレクトリ一覧の時に、そのディレクトリの中の画像が
アイコン一覧みたいに見えるやつキボンヌ。


917 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/07/31(日) 13:32:21 ]
またこいつか。

918 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/07/31(日) 14:37:59 ]
>>916
explorer

919 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/07/31(日) 15:06:24 ]
>918
ports には見当たらないね。
ぐぐってもどれがどれやらワカラン。

>917
?

920 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/08/01(月) 02:33:50 ]
ネタにマジレスか
こりゃヒドイ

921 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/08/04(木) 06:20:35 ]
kuickshow つかってまつ

922 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/08/04(木) 14:52:57 ]
paint

923 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/08/13(土) 11:44:34 ]
>>919
C:\Windows\system32\explorer.exe

924 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/08/25(木) 21:53:35 ]
gthumbかな?



925 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/08/26(金) 09:57:59 ]
linux.bytesex.org/fbida/

926 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/02(金) 22:15:47 ]
例えば、リストの内容が
www.unko.jp/~chinko/[000-026].jpg
www.manco.jp/anal/gay[00-26].jpg
みたいなファイルがあったとしてこれを展開してwgetなりに渡すにはどんなスクリプト書きます?

自分が深く考えないで書いてみたのは
cat < list | sed 's/\(.*[^0-9]\)\[\([0-9].*\)-\([0-9].*\)\].*\.\([^.]*\)$/\1 \2 \3 \4/g' | awk '{printf("echo %s\{%s..%s\}.%s\n", $1, $2, $3, $4)}' | zsh -s | tr ' ' '\n'
で、最初のsedでアドレス、開始の番号、終わりの番号、拡張子を分けて、awkでzshのスクリプト書いて最期にtrで改行入れてるんだけど、どうかな?
添削よろしくです。

927 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/02(金) 22:23:05 ]
やりたいことがよくわからんが、
スカトロでホモって事はわかった。

928 名前:名無しさん@お腹いっぱい。 [2005/09/02(金) 22:40:51 ]
>添削

読めない

929 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/03(土) 00:47:22 ]
zsh知らんけど、添削するなら
sed 's/¥[¥([0-9]*¥)-¥([0-9]*¥)¥]/{¥1..¥2}/g; s/^/echo /'
とか?

ただ自分なら、zsh使うくらいなら perlとかで、置き換えながらぐるぐる再帰使って回すかなぁ。


930 名前:名無しさん@お腹いっぱい。 mailto:sageまあたしかに勘弁して欲しいが [2005/09/03(土) 01:19:04 ]
>>928
「てんさく」って読むんだYO!

931 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/03(土) 01:24:12 ]
>>929
アーナルほどsedで開始と終わりの番号を別のフィールドにわけないでzshの{..}の形にすればいいのか。。。

坂本文のたのしいUNIXで勉強したてなんでsedとawkくらいしか知らないのでできればperlで
書いていただけませんか?

932 名前:名無しさん@お腹いっぱい。 [2005/09/03(土) 02:07:02 ]
www.zentastic.com/videos/bmevideo-3.wmv
www.zentastic.com/videos/bmevideo-4.wmv


933 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/03(土) 04:01:09 ]
wgetなりってことなので curl 使ってもいいんですよね

934 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/06(火) 18:40:22 ]
>931
雑だけど。
#!/usr/bin/perl -n
sub ren {
 $_ = shift;
 if (/¥[(¥d+)-(¥d+)¥]/) {
  my ($a,$b,$fst) = ($`,$',$1);
  foreach $i ($fst..$2) {
   ren($a . sprintf("%0*d",length($fst),$i) . $b);
  }
 } else {
  print;
 }
}
ren($_);




935 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/06(火) 19:31:13 ]
Perlの場合、マジックインクリメントに頼れば

#!/usr/bin/perl -n

if (/^(.*)\[(\d+)-(\d+)\](.*)$/) {
for ($2..$3) { print "$1$_$4\n"; }
} else {
print;
}

でいい気がするけど

936 名前:934 mailto:sage [2005/09/06(火) 19:48:05 ]
ついでにbash

shopt -s extglob

function ren {
case $1 in
*¥[+([0-9])-+([0-9])¥]*)
set -- $( echo "$1" | sed 's/¥[¥([0-9]*¥)-¥([0-9]*¥)¥]/ ¥1 ¥2 /' )
for i in $( jot -w"%0$(echo -n $2|wc -c|tr -d ' ')d" - $2 $3 1 )
do
ren $1$i$4
done
;;
*)
echo $1
;;
esac
}

while read s
do
ren $s
done

>935
Perlまかせにすると、[00-10]とかができなかった。

937 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/06(火) 19:58:54 ]
>>936
ちょっと試した感じだと、00みたいに偽値と判断されるやつがダメみたいね。
01-10とかだとオッケーなんだけど。

938 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/14(水) 19:01:44 ]
連番のH画像を諦める勇気ってのも僕には必要なんだ。

エロ画像
 いくら取っても
     無くならず
  取るだけ取って
    それでおしまい

お世話になりました。

939 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/14(水) 20:28:42 ]
今度は、ため込んだ画像を削除する勇気だな。

940 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/14(水) 22:08:56 ]
画像から動画へステップアップする勇気も必要だ。

941 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/15(木) 09:12:22 ]
取り敢えず200MくらいのHDDを6個くらい買ってくる勇気

942 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/15(木) 16:43:35 ]
200Gの間違いじゃないのか

943 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/15(木) 19:47:59 ]
200Gを6個買うのよりも200Mを6個買う方が勇気いると思う。

944 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/19(月) 17:01:24 ]
ワロタ



945 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/22(木) 10:04:37 ]
動画話に進出したついでに。

小さいスクリーンショットを一枚にまとめるのに
良いツールって何かありませんか?

散々既出の連番ゲットしたあとにちまちま
convert +append
convert -append
ってやってまつ。

こういうのってどうやってるんだろ:
ttp://www.aventertainments.com/jp/Product_lists.aspx?product_id=9200


946 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/09/22(木) 19:15:37 ]
使ったこと無いけど、montageはどうかな?ImageMagic系。
www.cit.gu.edu.au/~anthony/graphics/imagick6/montage/


947 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/10/15(土) 14:53:52 ]
アルテミスでGNU使ったら、串刺してたのに生IPごと弾かれたorz

948 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/10/15(土) 15:10:03 ]
↑今年最初に見た馬鹿

949 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/10/15(土) 16:36:25 ]
www.arutemisu.com/2005/photograph%20list%20top.html

950 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/04(金) 18:45:08 ]
このスレのまとめサイト作っていいですか?

951 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/04(金) 19:25:36 ]
よろしく

952 名前:950 mailto:sage [2005/11/05(土) 18:30:02 ]
>>950
テキトーにつくってみました。
seizen.dyndns.org:8080/matome/

ちなみにおいらはperl+sh派です。

953 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/06(日) 00:52:21 ]
だよもん..

954 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/06(日) 02:08:37 ]
このスレで
tp://www.464.jp
の連番ダウンロードできた人いる?



955 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/06(日) 08:03:56 ]
>954
さっき試してみたけどできたよ
しかしこれ画質悪いな

956 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/13(日) 15:05:31 ]
今このスレのノウハウを生かしてVOAのスクリプトとmp3をダウンロード中…。

957 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/14(月) 19:37:17 ]
voaって何かね

958 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/14(月) 21:21:25 ]
Vagina or Anus

959 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/16(水) 22:48:44 ]
>>957
Voice of America です。英語のニュース・サイトの過去ログがターゲットです。
mp3とスクリプトが揃っているので、これをローカル教材として加工しようと思いました。
で、一応落とせたんですが……
www.voanews.com/specialenglish/2005-11-15-voa3.cfm

こんな吐き気がするHTMLをどう加工しろと……orz


960 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/18(金) 19:49:09 ]
edなり perlなりで、ばっと<span class="articleheadline"〜</P></span>あたり抜き出して、html2txtみたいな処理かけて、余計なの削るとか。
そういうことではない?


961 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/18(金) 22:10:42 ]
>>960
perl で $html =~ s!!!sig; を何度も繰り返すスクリプト書いて、なんとか読めるHTMLに加工しました。
今は mp3 を wget してます。
このサイト、mp3 は mp3 で命名規則皆無という腐りっぷりです。うへぇ。

ところで質問です。
ちょっと確認してみたところ GNU Wget 1.10.1 のデフォルトのリクエストは

GET /index.htm HTTP/1.0
User-Agent: Wget/1.10.1
Accept: */*
Host: localhost
Connection: Keep-Alive

という内容でした。で、プロトコルを HTTP/1.1 に切り替えるか、
または強制的に HTTP/1.1 と申請してリクエストすることはできますか?

962 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/18(金) 23:45:53 ]
curl使ってみるとか

963 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/19(土) 05:30:52 ]
>>961
どーせPerl使うんならHTML::TokeParserとかその辺のライブラリ使えばいいのに。
高速ではないけどそれなりに便利だよ。

964 名前:名無しさん@お腹いっぱい。 [2005/11/28(月) 22:50:25 ]
次スレどうしますか?



965 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/29(火) 09:40:42 ]

 ス
  レ
   頼
    ま
     な
      い

966 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/29(火) 16:31:03 ]
頼みcom

967 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/29(火) 18:27:16 ]
>>977までは粘れると思われ。

968 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/29(火) 22:52:17 ]
>>980が立ててくれるってさ

969 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/30(水) 15:53:56 ]
>>980
今度のスレタイは↓こうしてくれ
「連番のH画像/動画を一気にダウンロードする」

970 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/30(水) 17:39:06 ]
これは言わない約束なのかもしれんが
「H」は外さないうわなにするやめろqあwせdrftgyふじこlp:[

971 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/11/30(水) 18:26:42 ]
じゃあ
連番のURIから一気にダウンロードする /2
でよろしかったでしょうか?

972 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/01(木) 21:44:37 ]
てか連番ている?

973 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/01(木) 21:50:49 ]
ネタ出つくしたみたいだし、
次スレなしでもいいかと。

974 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/03(土) 16:03:25 ]
最近動画落とすのにパスワードが必要だったりするので
自動化は無理そうだと思ったり思わなかったり



975 名前:名無しさん@お腹いっぱい。 [2005/12/07(水) 08:43:36 ]

>>955詳 し く

976 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/13(火) 14:55:32 ]
次スレ
pc8.2ch.net/test/read.cgi/unix/1063129265/

977 名前:FM [2005/12/18(日) 21:28:53 ]
>>975
opera使えば右クリックが効くからURLがわかりますよ。
それで、
464.jpってttp://comic110.464.jp/data/...
以降がwgetですんなりDLできないのですがなんでかわかりますか?
ttp://comic104....などは普通にできるけど、ドラゴンボールが取れない。
operaで直接url書けばみれるのですが,なんででしょうか?

あれ、この板ってもう別にうつってる?

978 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/19(月) 01:02:57 ]
>>952
ここまでスレが進んでるのにまとめにcurlが載ってないのは信じられない

979 名前:名無しさん@お腹いっぱい。 [2005/12/21(水) 03:21:09 ]
>>977
レスありがとうございます
私はlunascapeというタブブラウザを使っていてそれで画像のurlを抜き取り
連続ダウンローダで連番のを落としてみたのですが見てみると画像情報がなくすべて見れないファイルでしたorz
jpegファイルなのに見れないんですよね。。
ちなみに私が試したのはドラ●もんでttp://comic104でしたができませんでした。。

噂によるとダウンロードできないようにしてるサーバーとかあるようです.....(´・ω・`)

980 名前:名無しさん@お腹いっぱい。 [2005/12/21(水) 09:33:01 ]
どざ氏ね

981 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/21(水) 15:31:35 ]
>>979
やってみたけど、問題なくダインロード&表示できるよ。
>>979のスキルの問題

982 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/21(水) 15:52:11 ]
ダインロードってなんかかっこええな

983 名前:名無しさん@お腹いっぱい。 mailto:男塾 [2005/12/22(木) 01:54:40 ]
スキルでなく、クンフーの問題

984 名前:名無しさん@お腹いっぱい。 [2005/12/22(木) 03:59:39 ]
>>981
ホントですか・・・(゚Д゚)一体何が原因なんでしょうか・・・・
私もダウンロード自体はできてるのですがフォルダにダウンロードされた
画像ファイルを見てみると表示されませんorz ソフトやURLなどいろいろ確認しましたが。。orz
 今は結局freemacroでダウソしてるんですが時間かかりまくりんぐ・・・orz



985 名前:名無しさん@お腹いっぱい。 [2005/12/24(土) 10:06:45 ]
>>984
ヒント:連番ダウンローダはrefereを使ってくれない。

986 名前:nyanko mailto:sage [2005/12/24(土) 12:10:46 ]
>>985
wget でも普通に指定できるYO!

987 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/24(土) 15:55:24 ]
>>986
TU○ にもしかしている方?

>>984
なんか、ほんとにクンフーたりないねきみ。。。

988 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/24(土) 16:45:08 ]
ここがunix板だと気づいていないんじゃないのか。

989 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/24(土) 17:20:08 ]
来年の1月10日で5周年だな

990 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/24(土) 19:12:34 ]
今まで誰も出していないが,emacs 上でウェブブラウザ(w3m とか)を走らせて,
画像をダウソロードする手順をキーボードマクロで登録しておけば,
特に何も考えなくてもほとんどのサイトでダウソロードできます.


991 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/25(日) 03:14:29 ]
>>990
具体的に書かないのは宗教上の問題かなんか?

992 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/25(日) 07:30:18 ]
キーボードマクロの手順を具体的に書くの?w

993 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/25(日) 13:32:48 ]
インタラクティブってアホじゃありません?

994 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 03:13:07 ]
おい、次スレが立ってるぞ
pc8.2ch.net/test/read.cgi/unix/1135533382/



995 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 10:26:56 ]
(゚д゚)ウメー

996 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 10:28:39 ]
(゚д゚)ウメー

997 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 10:30:27 ]
(゚д゚)ウメー

998 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 11:00:26 ]
まんこ

999 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 11:01:29 ]
(゚д゚)ウメー


1000 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/12/26(月) 11:02:34 ]
(゚д゚)ウメー


1001 名前:1001 [Over 1000 Thread]
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。






[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef