- 1 名前:たのも〜 [2001/01/10(水) 15:02]
- 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。
- 752 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/18 23:10]
- ttp://www.macromedia.com/software/flash/open/licensing/fileformat/
一応仕様は公開はされてるけどな。
- 753 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/20 04:08]
- あんまりサーバに負荷かけちゃ駄目だよ。
#!/bin/bash if [ ! -d ./OUT ]; then mkdir OUT fi URL="thebbs.jp" GETNUM="1024" UA="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)" wget -U "$UA" -N "${URL}/up1/" LIST=$(cat index.html | egrep '[0-9]+\.html' | sed 's/.*href=\"\([0-9][0-9]*\.html\)\".*/\1/g') PAGES=$(for name in ${LIST} ; do echo "${URL}/up1/${name}" ; done ) wget -U "$UA" -N -nv -w 1 --random-wait ${PAGES} for name in $(grep 'href=/sum.html\?' 1[0-9]*.html \ | sed 's+.*href=.*/\([0-9][0-9]*\.\(jpg\|png\|bmp\|gif\)\) .*+\1+g'\ | sort | tail -n ${GETNUM} ) do wget -N -nv -U "$UA" -w 4 --random-wait -O ./OUT/${name} "thebbs.jp/up1/img/${name}" done でもここから選別するのが大変な罠。
- 754 名前:753 mailto:sage [04/02/20 04:40]
- あ、そうそう。
急に変なアクセス増えて何かの対策とられたりしないように次の事くらいは守って使って。 UAは絶対変える。 GETNUMは増やさない。 -w は減らさない。 --random-waitは外さない。 管理者に迷惑かからないようにしてな。まじで。 一晩くらいかけてマターリ落して細く長く楽しむのが吉だべよ。 つっても楽しめる画像があんまり無いんだけど。
- 755 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/21 01:23]
- 自分で生HDDをつけるということは、少なくてもパーティションの作成から
ファイルシステムやswapの作成というところから始めなきゃいけない訳だし unix未経験者にはハードル高いんじゃないかな、少なくてもvi使えないと話にならんし。 でもこれから勉強したい人には良いかもね。
- 756 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/21 01:38]
- ↑なかなか上品なレスだけど、頭の中ではエロエロなことばかり考えているんですね。
- 757 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/21 16:20]
- 誤爆かと思った罠
- 758 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/22 07:14]
- エロは*習熟の源です
- 759 名前:名無しさん@お腹いっぱい。 [04/03/12 00:34]
-
- 760 名前:名無しさん@お腹いっぱい。 [04/03/15 03:48]
- ほしゅ
- 761 名前:名無しさん@お腹いっぱい。 mailto:sage [04/04/16 21:19]
- ほしゅほしゅ
- 762 名前:名無しさん@お腹いっぱい。 mailto:sage [04/04/22 20:59]
- hosyu
- 763 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/07 11:36]
-
- 764 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/07 23:19]
- hosyu
- 765 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/08 00:26]
- なんかネタ無いの?
wgetで複数ファイルの同時ダウンロードするシェルスクリプト書いてたまに使ってるけど、 curlを使うperl,ruby,python等のスクリプトの方がよくない? shは遅いし、wgetは終了時のエラーコードとか細かい部分がダメぽい。
- 766 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/08 05:48]
- エロには飽きた。
- 767 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/08 06:19]
- 画像に飽きた奴が小説に流れるパターンだな
- 768 名前:名無しさん@お腹いっぱい。 mailto:age [04/05/23 11:48]
- もう一度、エロのパワーを!!!
- 769 名前:名無しさん@お腹いっぱい。 mailto:sage [04/05/28 13:14]
- 保守
- 770 名前:sage mailto:sage [04/06/21 21:23]
- 誰か俺が使ってるスクリプト見たい人いる?汚いけど。
- 771 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/21 21:30]
- 参考にしてみたいな
- 772 名前:770 mailto:sage [04/06/21 22:09]
- こんなかんじ。
urlをテキストに並べておいて、ファイル名を引き数に指定して使ってます。 urlにリンクされているjpgを勝手にフォルダ掘ってそこにdlしていきます。 フォルダ名はurlから拾ってます。 #!/usr/bin/perl use LWP::UserAgent; use HTML::LinkExtor; use URI::URL; use strict; use POSIX ":sys_wait_h"; $| = 1;#OUTPUT_AUTOFLUSH my $iframe_ref=''; my $base_tag = '';
- 773 名前:770 mailto:sage [04/06/21 22:09]
- while(!eof()) {
my $url = <>; $iframe_ref = ''; my %downloads = (); chomp $url; next unless $url; print "Checking $url¥n"; if ( map{ $downloads{$_} = 0 } getlinks($url) ) { $url = $iframe_ref if $iframe_ref; dl2( $url,[sort keys %downloads] ); print "¥n"; } else { print "there are no JPG¥n"; } }
- 774 名前:770 mailto:sage [04/06/21 22:10]
- my @imgs = ();
my $iframe = ''; sub callback { my($tag, %attr) = @_; $iframe = $attr{"src"} if $tag eq 'iframe'; $base_tag = $attr{"href"} if $tag eq 'base'; return if $tag ne 'a'; push(@imgs, $attr{"href"}); }
- 775 名前:770 mailto:sage [04/06/21 22:10]
- sub getlinks
{ $base_tag = ''; @imgs = (); $iframe = ''; my $url = $_[0]; my $ua = LWP::UserAgent->new( Agent => "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;)"); my $p = HTML::LinkExtor->new(¥&callback); my $res = $ua->request(HTTP::Request->new(GET => $url), sub {$p->parse($_[0])}); my $base = $base_tag || $res->base; if ($iframe and !@imgs) { print "Found iframe. recheck >> $iframe¥n"; $_ = url($iframe,$base)->abs; $iframe_ref = $_; $iframe = ''; return getlinks($_); } @imgs = map { $_ = url($_, $base)->abs; } @imgs; @imgs = grep{/.[jJ][pP][gG]$/} @imgs; return @imgs; }
- 776 名前:770 mailto:sage [04/06/21 22:11]
- sub dl {
my $uri = $_[0]; my $ref = $_[1]; my ($dummy,$dir) = ($uri =~ /.*¥/([^¥/]+)¥/([^¥/]+)¥/[^¥/]*$/); opendir(A,$dir) || mkdir $dir; closedir A; chdir $dir; `curl -s -O $uri -e $ref`; chdir "../"; }
- 777 名前:770 mailto:sage [04/06/21 22:12]
- sub dl2 {
my $max = 4;#プロセス数 my $ref = shift; my @str = @{shift(@_)}; my($pid, @slot); my $tick=0; while(@str){ for(0..($max-1)){ if($slot[$_] != 0 and waitpid($slot[$_], &WNOHANG)!=0){ $slot[$_] = 0; } }
- 778 名前:770 mailto:sage [04/06/21 22:12]
- for(0..($max-1)){
if($slot[$_] == 0){ my $url = shift(@str); last unless defined $url; chomp($url); if($pid=fork()){ $slot[$_] = $pid; } elsif (defined $pid) { print "Start Download >> $url¥r"; dl($url,$ref); exit; } else { die "Can't fork: $!¥n"; } } } sleep(1); } for(0..($max-1)){ waitpid($slot[$_], 0); } }
- 779 名前:770 mailto:sage [04/06/21 22:13]
- 以上です。
- 780 名前:770 mailto:sage [04/06/21 22:29]
- 余計なのはいってた;
my $tick; を削除してください; バーが回るヤツつけようと書き換えている最中の貼ってしまいました;
- 781 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 14:41]
- wget -r -A .jpg
に URL を渡して回せば良いのでは? と言ってみるテスト。
- 782 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 17:35]
- wgetの--page-requisitesを使ってお絵かき掲示板の絵をコメントごと収集しようと思ってます。
しかし、しぃアプレットを使っている掲示板からは--page-requisitesで画像を持って来れませんでした。 例として、どこでもいいんですが思い切り無関係なところでこことか↓ ttp://www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi 1) wgetの設定がまずい 2) こっちのネットワークの何かがまずい 3) CGI側で何かしてるのでwgetでは無理 なにがよろしくないんでしょう。wgetがHTMLを解析してくれてない感じなんですが。
- 783 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:03]
- >>782
1) -p option ついたの最近よ? あと実装始めのころのはバグってた気もした 2) これっぽい。君のサイトが撥ねられてるとか、proxy とか 3) んなこたー、ない % wget --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi (略) % ls www15.big.or.jp/~baroque/nharuna/oekaki/data/ IMG_003579.jpg IMG_003582.jpg IMG_003585.jpg IMG_003587_2.jpg IMG_003581.jpg IMG_003584.jpg IMG_003586.jpg IMG_003588.jpg % wget --version GNU Wget 1.9.1
- 784 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:06]
- ゼンゼン関係あるけどこのサイトは感動した
www.geocities.jp/futaba136241/baseball01.html
- 785 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:18]
- >>782-783
漏れも画像のダウンロードができなかった -m -l1オプションでもダメだった % wget --version GNU Wget 1.8.2 wget 1.9は~の処理が変わったので使ってない
- 786 名前:782 mailto:sage [04/06/22 18:33]
- でも、infoseek.co.jp にあるのも candybox.to にあるのも x-beat.com にあるのも駄目。指定ファイルしか落ちてこない。
Webブラウザでは普通に見れるし… --recursive とかもこのサイトに効かないんだよなあ。 $ wget -nv --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi 18:15:34 URL:www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi [28106] -> "www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi" [1] 終了しました --18:15:34-- ダウンロード: 28,106 バイト(ファイル数 1) $ wget --version GNU Wget 1.8.1 Windows版。 >wget -nv --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi 18:15:20 URL:www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi [28106] -> "www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi" [1] FINISHED --18:15:20-- Downloaded: 28,106 bytes in 1 files >wget --version GNU Wget 1.9.1 なんででしょね?
- 787 名前:770 mailto:sage [04/06/22 21:39]
- >781
おお。スマートだし。自分が恥ずかしくなってきた。 でもこれ、サムネールとか広告まで保存しちゃいますね。 保存先も深くなっちゃうし。
- 788 名前:770 mailto:sage [04/06/23 05:05]
- >782
wget --page-requisites --follow-tags=IMG でいけました。 あと自己レスなんですが wget -r -A.jpg -nd -np -I 1 -H --ignore-tags=img -P dir でやりたかった通りに出来ました。
- 789 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 10:56]
- >>788
でもあんま根本的な原因究明にはなってないな(w 解析が難しいHTMLの書き方にでもなってるのか?
- 790 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 11:48]
- wgetよりcURLの方が便利だ。
- 791 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 16:46]
- 使い方キボン.
- 792 名前:770 mailto:sage [04/06/25 09:06]
- >789
CGIが吐くHTMLの最初の方に <META name="ROBOTS" content="NOINDEX,NOFOLLOW"> とあり、wgetがこのタグのNOFOLLOWを理解して探索をやめてしまうから。
- 793 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/29 18:13]
- がーん。wget って --timestamping と --no-clobber を同時指定ってできないんだ…
「ローカルより新しいファイルならサーバからダウンロードするが ファイルは上書きせずに通し番号などをつけて区別して保存する」 という芸はできないのか。
- 794 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/30 13:09]
- >>793
サーバー上のファイルと比較すべきローカルのファイルを どれにするのが適当なのかがよくわからない、というのが原因なんだろうね。 --timestampingで更新ダウンロードした時に スクリプトでリネーム退避しておく、という手くらいしか思いつかないや。 …wgetが更新ダウンロードしたことを検知する方法ってなんかあるっけ。 ログを書き出す設定にしてgrepする以外にあるかな?
- 795 名前:名無しさん@お腹いっぱい。 [04/07/04 16:58]
- 優秀なポマエラに質問でつ
このサイトの画像を自動で保存するにはどうすればいいでつか? www.sweetnote.com/board/chidle/hoshiinanase/ ページの最後にCSSで隠した画像があって、 その画像にアクセスするとアクセス禁止になってしまうので wgetだと保存できません ちなみに、巡回ソフト対策みたいなのですが、 CSSに対応してないブラウザで見ると表示されてしまうし、 Operaでスペース押していくと画像を順番に表示していくので CSSで隠した画像にもアクセスしてしまいます
- 796 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:14]
- そういえば、昔作ったスクリプトには
grep -v BBLhGdTS 何ていうのが入っていたな。
- 797 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:18]
- ん? えーと、コレは単に
……。しまった。CSS云々ってコレか。繋ぎ変えよう
- 798 名前:795 mailto:sage [04/07/04 17:23]
- >>797
面倒なことさせてしまってすみません FirefoxなどでCSSを無効にすると 一番下に同じサムネイルが2枚表示されていて その下の画像のリンクにアクセスするとアクセス禁止になってしまいます
- 799 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:30]
- う、うまく書けない。まあいいや。
えーとね、Lynxかなにかで全リンクを抽出して、grepで/images/を含む行を取り出す。 これは「1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の順番になってるので 偶数行目だけ削除するフィルタを何かで書いて(初心者が急いでるので挫折)、 そのURLリストをUserAgentがIEでrefererが当該ページなwgetで回せばいい。はず。たぶん。
- 800 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:10]
- bbs.coolnavi.com/16627
↑のようにcookie強制する画像サイトは難しい。
- 801 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:36]
- wget --load-cookies --save-cookies .... でOKでは。
- 802 名前:799 mailto:sage [04/07/04 19:13]
- 適当に書いてみた。LynxだとIEのフリができずアクセス解析でバレそうなのでHTMLソースをwgetして解析。
>>799の「リンクを抽出した1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の仕様が崩れるとアウト。 #/bin/sh wget $1 -q -nv --user-agent=="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -O - |\ sed -n 's/<a href="\(..*\)" target="_blank">.*/http:\/\/www.sweetnote.com\1/p' |\ awk 'NR%2 == 1' | wget --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" \ --referer=$1 -nv -P ${2:-gazou} -i - 上記の5行をget.shとかで保存して適当に実行可能にして $ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/ とするとカレントディレクトリにgazouディレクトリを勝手に掘って画像を保存。 (5行目の -P ${2:-gazou} を消すとデフォルトでカレントに保存するようになる) $ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/ test とするとカレントディレクトリの下にtestという指定ディレクトリを勝手に掘って画像を保存。 IEだと思わせてるので画像の更新はあえて見てない(毎回6ファイルを強制ダウンロード)。 鯖負荷のかけすぎで気取られないように注意。
- 803 名前:795 mailto:sage [04/07/04 21:35]
- >>802
ありがとうございます ダミーのリンクは最初と最後の画像だけみたいなので 偶数行を削除という発想をヒントに2行目と最後の行を削除したらいけました sed -e '2 d' | tac | tail +2 > 仕様が崩れるとアウト。 以前は各画像のあとにコメントアウトされた ダミーの画像がふたつずつありました > (毎回6ファイルを強制ダウンロード)。 いつもはwgetに-xオプションをつけてダウンロードしています あとは "`echo url | cut -d/ -f3-`" というファイルが 存在するかどうかでダウンロード済みかどうかを判断しています URLエンコードが必要な場合は適当に処理してます
- 804 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 22:27]
- IEでもHEAD投げてサイズを見てダウンロードするかどうかを決めるってのはやってるんじゃないかな。
別にそれでバレることはないと思うぞ(w
- 805 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 23:52]
- >>801
いやね、>>800は半角板に張ってあったりすると、URI中のセッションIDとcookieのセッションIDが一致しないとダメなのよ。 そのサイトから直で落とすなら問題ないんだけどね。
- 806 名前:名無しさん@お腹いっぱい。 [04/08/14 11:43]
- 保守
- 807 名前:名無しさん@お腹いっぱい。 [04/08/22 21:52]
- wget使ってdlするスクリプトを書いてるんだけど、どうもcookieの処理が上手く出来
ないんだけど、だれか解決方法知らない? index取得時にUIDとSIDをsetされるので、imageをgetする際にその両方を送れば いいだけなんだけど、なぜかwgetだとUIDしか送ってくれない。
- 808 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 11:56]
- office-lady.net/office/cute/album1.html
ここの画像ってどうすればgetできますか? wgetプロの方、おながいします。
- 809 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 12:28]
- wget で適当な --referer を指定して、zsh で
office-lady.net/office/cute/images/img0{01..18}.jpg あとは自分でいろいろ調べてみてください。
- 810 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 13:47]
- >>807
指定するときにセミコロンでパラメータをセパレートするんじゃないの? ひょっとしたらwgetの場合cookieなんかだと、複数のパラメータセットが あった場合、全部追加されるのかもしれないけど。 #まあキャプチャすれば直ぐ判ることだが。
- 811 名前:名無しさん@お腹いっぱい。 [04/09/09 01:30]
- 保守
- 812 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 11:16]
- >>808
こんな感じ。 wget --header=REFERER:office-lady.net/office/cute/ office-lady.net/office/cute/images/img0{01..18}.jpg
- 813 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 17:38:03]
- >>812
--header=REFERER:と等価な--refererが最近のヤツだと使えるようになってる。 {}の展開、以前上手く動かなくて使ってないのだが、俺の勘違いだったのかな。 今度試してみよう。
- 814 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 20:32:43]
- >>813
cshが勝手にはぎ取っているという落ちでないの? echo {01..18} の結果は?
- 815 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 22:49:45]
- >>814
ああ、やっぱりシェルの展開機能なのね。 普通にsh(bash)でした。
- 816 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:05:16]
- このスレのあちこちで、しつこく zsh って書いてあるのに…
- 817 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:36:51]
- curlにはそういうiriaライクな構文があるよね。
- 818 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:48:35]
- >>816
いや、zshに展開機能があるのは知ってるんだけど wget自身にパラメータの展開機能が盛り込まれたのかと思ったんだよ。 シェルにあるような機能を取り込む必要もないのかもしれんが、 ある意味zshって特殊(スタンダードではない)だから。 まあログインシェルぐらい時々で変えれば、つう考えもあるな。
- 819 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:59:20]
- >818
展開は shell が面倒見てその結果をアプリケーションに渡すのが Unix 的思想。
- 820 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 01:05:09]
- >>819
んじゃ、もう一方のUnix的な思想で 展開機能のないシェルで展開させるために使うフィルタで お勧めなのは何かある?今はawkでやってるんだけど。 (zshのスクリプトでというのは取りあえず無しで)
- 821 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 02:16:47]
- >>820
おまえ アホ だろ.
- 822 名前:820 mailto:sage [04/09/11 03:06:57]
- >>821
多分指摘のとおりアホなんだと思うけど、 アホ故に、どの辺りをもってしてアホなのかが判らん。 ズバっと明確に切ってくれ。
- 823 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 03:09:28]
- zshのスクリプトでいいじゃん。
車輪の再発明はイラネ
- 824 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 05:25:12]
- url を切り出すスクリプトと
wget を 50 個くらい平行して走らせるスクリプトだけで オナニーするには困ってない.
- 825 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 06:07:50]
- >>820
まったくスレ読まないで書くから外してるかもしれないけど。 curlは自前で展開してくれる。そっち使えば?
- 826 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/13 15:03:30]
- えっと、aria は4系でも動かないの?
- 827 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/18 13:54:18]
- もう疲れました。自分なりにwgetのオプションを色々と試してみたんですが。
ttp://bbs.coolnavi.com/16627/10674p8.の中の画像をwgetで落とすことが できません。 どうか、先生方のお知恵をお貸しください。お願いします。
- 828 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:14:03]
- 被写体が♂だったらやったんだけどな・・・
- 829 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:21:56]
- 工エエェェ(´д`)ェェエエ工
- 830 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:26:40]
- 苺きんたまの画像をゲットした時は
#!/bin/sh cat input |grep "v.isp.2ch.net/up/" >output sed 's/http/ttp/' output > tmp sed 's/ttp/http/' tmp > tmp2 sed 's/JPG/jpg/' tmp2 > tmp3 awk ' {print "wget " $1}' tmp3 >temp chmod 700 temp ./temp mv *.jpg images こんな感じ。お好みでwhileして?p=1・・・p25までゲットとか。 無限roopで問題なかった。1つのcgi落とすのに10分以上かかったから。 sedが冗長な感じだが足りない頭じゃこんなものしか書けなかった。 誰かもっと簡潔な「よい見本」きぼんぬ。
- 831 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:30:11]
- あーごめん。これじゃなかった。
#!/bin/csh @ i = 1 while ($i <= 2) date >>history wget "up.isp.2ch.net/upload/c=03okari/index.cgi?" cat "index.cgi" |grep jpg >list awk -F\" '{print "wget -U hiroyuki v.isp.2ch.net" $2}' list >test cat test |grep jpg >test2 chmod 770 test2 ./test2 awk '{print $4}' test2 >>listtmp sort -i listtmp |uniq >getlist mv *.jpg jpg3 rm "index.cgi" @ i = 1 end こんなん。これも良い見本きぼんぬ。
- 832 名前:名無しさん@お腹いっぱい。 [04/10/22 13:36:38]
- age
- 833 名前:名無しさん@お腹いっぱい。 [04/11/05 19:21:13]
- 保守!
- 834 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 19:23:59]
- なんて息の長い祖レッドなんだ。
- 835 名前:833 mailto:sage [04/11/05 19:45:55]
- 見つけてしまいました、こんなスレ。今からzsh入れます!
- 836 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 20:09:10]
- すげー。ありがとみなさん!ノシ
- 837 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/09 13:04:12]
- このスレ21世紀の始まりから生きてるのか
- 838 名前:名無しさん@お腹いっぱい。 [04/11/11 21:10:37]
- エロは性器を超える
- 839 名前:名無しさん@お腹いっぱい。 [04/11/11 21:37:36]
- page11.auctions.yahoo.co.jp/jp/auction/n9933154
このダウンロードソフトって使った人います??
- 840 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:08:39]
- wgetに画像だけ-ncの動作をするオプションを追加して使ってる。
時間の入った連番画像が主の時には、-N使うよりは動作は速いし鯖負荷も多少は減るんじゃ無いかな。 wget --no-clobber-imageで。 begin-base64 644 - H4sIAN3lpUEAA7VXaW/bRhD9LP2KqYDakiXRJHXLMGoHkQsjTh04aYECAViK XInbkLsEd+kDaf57Zw8dtCTXCVDBMMXZ92aPeTM7iuliAd2iBMc5fVgS2fWc ieOdiiI6TaTMnQj2Wuvdbvcgpea7bq/ruV1vAO542vOn3sBxVx9ouxPXrbfb 7f2uFbvf9byuPwDfnw5GU7fvjPqD0WCLfXEBXW/Y9zpDaOunN4GLizqYT0Fk WTC4m326u313Zqzf6lBvA9AFNHkuHcajlM/npKBZuCRwdARJKAL9EohysaCP QQ7Nk0TIUDopj8I0WNCUtBRSfQnIIxVS7Ae11EwAX80D4PQErhdQmRaoALVI EgNnELJYe4UwLUgYP4Hx3oGYA+Oy3q6pPRWU3BOQCTHYk9OV/5Qv84IyiXu7 uf01+GN29+b246wDQbPxud6+1jv862dxvHaPPgrSgQeapsr/2rnzmTVaHdjd 0Vl1K+s1qF1YXwREmedcoFEei7XLGG7fObC12JNYwj/nNjhX6Hg1cHU3mwXv L/98M4NmXGbZ02bWZwFtm4C2VWRLQQIp4BxcHehVfCXNCG4iyylbtowCvtbj w2KnjMpdsRvrAbGbwY3YPStXz3uN2DdsI3YPvOHUH0y9oTMcDP0dsY98rXV8 jKzSv0Ijo0XBi0anVvvt95sbfNSiLA5ETqLADMG3joUyjEekkEdah+qtY+Bz
- 841 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:09:17]
- zlMSsi3oSqQIP6qodpfRrjJ0Au3QtLVzaLI8LAiTm6XxwFgOLy8v+ONThaAM
Fn9PIlnZeJkpJYoNXhYrLI7h8gLKFohHacckL0gUShKjXl9QSxZStqsWYz2g FjP4o2rZsLfVMpz2Rs544hq5bKnFH0+UWtRjtK6LeBZ0yXhBuilhS5k0Opj7 QVgsy0ydNmgJgdcb27OrKGwf9Dg73oYy3l3rZq/nvmcV8wzetarZSxp7z+aI aaEjrEO6f57RM0rChXwNb7yPl3L+pcwPUAauoqgjH/aG6siHvVHHXEW1KMRa 6I3dKX4HEESi+O7DFJqNiDOGa1E1ipeofHU1oGusdwo5xxr9BYvcyoE3VfW/ 4uB5vkGDY+E+0zhLt/MfXx7vzh9GEckPzfuC7BFOORNO8lye64ED4l+P/6j+ Kw62u4Ph1HWd/mS3OxgMVDjw/9gmAN6PEMZxoIKKWjir1TDh33J1caEZlJmF GYGVTp5+UZeWJa4P3NKoCOcpEbAKA1sCX5hbG7/jceIHqXEoQ8fefRU3Om6v 89W2vjTFsWuKkrDAm5QWWPoINivG1Se8ljHKir7eBciCkAorVTe32qoh3fAl rCwVHGV5KYMq+FrZKvAX5FJKmordMmnNB6RiR9dC8Xvge1NV7V4llC16VSa9 seP6owpdyWTi9ZVO1MNfKcV2G6qh0F0jRq7e3tceYh4LaU9roQ4EGz/d9BkT Am17o7qSJr5im2LY0DT4Fpyf61piW8bN1Jb1k8CLGhM5ynA+5GKq/50vG60q 3nsZT/5nQs6+D7+ki+/Cz7N8P37ruHQ7iAq9wwYXQkgpwxa14BlcfdDttYWq zjXnGFFswSVHBBFJ+oSNsWp28d7X5V9g4uhk0xll30DkYaQ7Xj6XeB1jZyuT gpfLBDJNb7b0RCLhZWr8zNUSCAIfqEz0V8Q8JIRhi6wcMY6tO1viUhiiSOz8 dzbtlF5rfjGbfrjsbtG3+g78c7FLNT1qJZvGOpnwv0mlui56KnMSmaWbxPlw eXf5/iOmxHYCtdQ1pJNt30+xgxSMunlRv2yChwSbxUAHf824ur6ZWfcorTIy 9SvISKbKo+HpHzOHl3XPqVKQBQYqkhv0PqeK9S+tiE0GWw8AAA== ====
- 842 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/08 14:39:01]
- hoshu
- 843 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/10 13:48:48]
- ちょっと保守しますよ。
- 844 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/19 02:35:17]
- ほっしゅっしゅ
- 845 名前:名無しさん@お腹いっぱい。 [04/12/26 03:27:28]
- 初心者です。
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg を196まで一括で落としたいんですが。 なるべくわかりやすい方法を教えて下さい。 すみません。
- 846 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 03:34:13]
- $ zsh
% wget -c -w 5 ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/{001..196}.jpg
- 847 名前:名無しさん@お腹いっぱい。 [04/12/26 03:49:49]
- zsh、wgetはどこでインストールできますか?
あの・・・zsh、wgetって何ですか? ほんとにすみません。
- 848 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:10:46]
- www.zsh.org
www.gnu.org/software/wget/wget.html あとは自分で調べてください。
- 849 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:16:58]
- >>847
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/002.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/003.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/004.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/005.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/006.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/007.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/008.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/009.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/010.jpg 196まで全て手作業で作ってみたが2分40秒で出来た メモ帳でやった 01-02-03-04-05-06-07-08-09-00 これをひとかたまりに9セットコピペ んで数字 - ←↓(同時押し) 001-002-003 011-012-013 021-022-023 わからんのなら手作業しかあるまい、がんがれ
- 850 名前:名無しさん@お腹いっぱい。 [04/12/26 04:30:24]
- >>848
ありがとうございます。 >>849 ありがとうございます。地道にやってみます。 ちなみに同時押しって何ですか?
- 851 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:46:52]
- curl -O aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/[001-196].jpg
- 852 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:55:45]
- >851
それだとシェルが展開しようとして変なことが起きるから、適当にクォートすべきだな。
|

|