1 名前:たのも〜 [2001/01/10(水) 15:02] 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする ソフトやスクリプトがあれば教えてけれ。
165 名前:名無しさん@Emacs [2001/08/25(土) 13:06] >>161 htmlからリンク先を抽出したいということですか?
166 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:13] q , , q /( )` q \ \___ / | q /- _ `-/ ' q (/\/ \ \ /\ q / / | ` \ q O O ) / | q `-^--'`< ' q (_.) _ ) / q `.___/` / q `-----' / q <----. __ / __ \ q <----|====O)))==) \) /==== q <----' `--' `.__,' \ q | | q \ / /\ q ______( (_ / \______/ q ,' ,-----' | q `--{__________) q
167 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:14] .................,........, ................/(........)` ................\.\___.../.| .............../-._..`-/..' ..............(/\/.\.\.../\ .............././...|.`....\ ..............O.O...)./....| ..............`-^--'`<.....' .............(_.).._..).../ ...............`.___/`..../ ................`-----'./ ...<----......__./.__...\ ...<----|====O)))==).\)./==== ...<----'....`--'.`.__,'.\ ................|........| .................\......./......./\ ............______(.(_../.\______/ .........,'..,-----'...| .........`--{__________)
168 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:15] ...................................................,........................, ................................................/(........................)` ................................................\...\___........./...| ............................................./-..._......`-/......' ..........................................(/\/...\...\........./\ ........................................../.../.........|...`............\ ..........................................O...O.........).../............| ..........................................`-^--'`<...............' .......................................(_...)......_......)........./ .............................................`...___/`............/ ................................................`-----'.../ .........<----..................__.../...__.........\ .........<----|====O)))==)...\).../==== .........<----'............`--'...`...__,'...\ ................................................|........................| ...................................................\...................../...................../\ ....................................______(...(_....../...\______/ ...........................,'......,-----'.........| ...........................`--{__________)
169 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 14:32] モナーフォント無しで見られる親切設計だ。 NetBSD デーモンかな?
170 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 00:58] 00000000000000000000000
171 名前:161 [2001/08/26(日) 01:07] >165 その通りです。 インターネットNinja(Window)らしき事を Unix系OS上(特にperl)で実現したいのです。 可能でしょうか。 >162 あなた、 Solaris教えてスレッド 其の弐 (826) の方へ書き込んだつもりでしょう。 私もその失敗、経験済みです。
172 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:14] >>171 Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、 慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。
173 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:23] grep して sed >> list して (これを何回かやって) wget -i list
174 名前:173 mailto:sage [2001/08/26(日) 01:24] ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…
175 名前:普段は エロ系 [2001/08/26(日) 01:32] 凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い で PGF 一応全タイトルと WAVファイル持ってます 1さん でも 簡単に 入手するより きっと 過程が楽しいのでしょうね 皆様 凄いわ!
176 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:44] 過程なんか楽しくねーよ。
177 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(日) 01:51] 過程 "も" 楽しい。
178 名前:普段は エロ系 [2001/08/26(日) 01:53] あ そうなの(^^;;
179 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 29:00] 「インターネットニンジャじや、一発じゃ。」 と無粋な流れを無視したコメントを残しておく。 (そして反発を買う。) ワクワク・・・・うふ。 ラブ。
180 名前:では反発 mailto:sage [2001/08/26(5) 31:00] sed で複数 html からリスト作って wget で取得の方が遥かに早いです
181 名前:180 mailto:sage [2001/08/26(5) 32:00] ていうか、書き込み時刻がめちゃくちゃだな
182 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 34:00] こここれは??
183 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 34:00] 32:00って_________?
184 名前:test mailto:sage [2001/08/26(5) 43:00] test
185 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 44:00] やっぱおかしいな
186 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26 06:02] だめ?
187 名前:名無しさん@Emacs mailto:sage [01/08/26 09:17] test
188 名前:名無しさん@Emacs [01/08/26 09:18] 自治age
189 名前:名無しさん@お腹いっぱい。 [01/08/26 11:59] 27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ ◎ ┣−-┓ |AGE| ┣−-┛ | | Λ|Λ (・∀・)イイ! ( ) | つ | (__)_)
190 名前:名無しさん@Emacs [01/08/26 13:17] perlのモジュール使ってhtmlからリンク先を抽出するのは どうやればいいんですか?
191 名前:名無しさん@お腹いっぱい。 [01/08/26 13:23] >>190 wgetでできるだろうがスカポンタン
192 名前:名無しさん@お腹いっぱい。 [01/08/26 13:28] やり方はいろいろあると思うが HTML::Parser モジュールを使うと XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A> の XXXXX の部分を抜きだせるはず
193 名前:名無しさん@Emacs [01/08/26 13:33] >>191 wgetで出来るとは知りませんでした。調べてみます。 再帰転送のことではないですよね?
194 名前:名無しさん@お腹いっぱい。 mailto:age [01/08/26 15:10] httpgetというスクリプトがあって、 それで再帰的にリンク先のファイルを取得できるみたいよ。 まあwgetでいいわけだけど。 参考にしてみれば?
195 名前:名無しさん@Emacs [01/08/26 16:38] >>194 httpget取って来て見てみました。 確かにリンクを抜き出す関数がありました。感謝です。
196 名前: [01/09/05 22:02 ID:ssMW8tkM]
197 名前:名無しさん@お腹いっぱい。 [01/09/06 07:42 ID:t/5EHQk.] rtsp://hoge.hoge/stream.rm のストリーミングビデオを ファイルに落とすのはどうすればいい?
198 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/06 12:12 ID:RQop.hqE] >>197 http で落とせたような気がする
199 名前:名無しさん@お腹いっぱい。 [01/09/16 11:54] age
200 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/17 23:34] 正直言って、zsh と wget で大抵の事は出来るような気がする。 今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。
201 名前:犬板 mailto:sage [01/09/18 11:14] >>200 じゃぁここはどーやって落すの? httpだとどっかあさってに吹っ飛ばされるのだが… japanese.asian-house.com/ura/1999-10/Mintshower.html
202 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 12:10] >201 あきらめる。 んで、他のトコから落とす。
203 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:19] >201 zsh -c 'wget --referer=japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'
204 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:20] 間違えた。{01..52}ね。
205 名前:名無しさん@Emacs mailto:sage [01/09/18 23:48] refferer
206 名前:名無しさん@お腹いっぱい。 [01/09/27 05:19] for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH 210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done ハァハァ
207 名前:名無しさん@お腹いっぱい。 [01/09/27 22:36] bash$ for n in `seq -f %02g 8 12` bash$ do bash$ echo ero$n.jpg bash$ done ero08.jpg ero09.jpg ero10.jpg ero11.jpg ero12.jpg こんなんどう?
208 名前:名無しさん@Emacs [01/10/04 01:10] >>207 140で既出
209 名前:1 [01/10/04 01:41] このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。 一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを 考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの 問題などが考えられると思います。皆様のお知恵を拝借したいと思います。 #!/bin/sh for i in *.dir do cd /home/username/urabon/$i cat list | xargs wget done
210 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/04 18:04] >>209 フォルダーと言ってしまったな...
211 名前:1 mailto:sage [01/10/05 00:59] >>210 ばればれ? by Kyon2
212 名前:名無しさん@お腹いっぱい。 [01/10/05 01:21] $ lftp www.iy-n.org lftp> get *.jpg ってのがまだないな。
213 名前:(゚o゚) [01/10/05 01:59] このサイトはみなさんのインターネット環境の スピードを計ってくれます。また、遅いと思う 人は設定を少し変えることによって無料で スピードを早くすることができます。 お金を出す前に一度試してみては いかがでしょうか。上がりの計測も可能です。 cym10262.omosiro.com/
214 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/05 22:28] >>209 >サイトが変わるとrefererの問題などが考えられると思います。 1さんお帰りなさい。 referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。 reget, getright, iria 等のリストが読み込めると嬉しいっす。
215 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/05 22:41] >>212 でlftpの威力をはじめて知った。
216 名前:名無しさん@お腹いっぱい。 [01/10/13 09:46] 定期age
217 名前:名無しさん@Emacs mailto:sage [01/10/18 07:14] 破損jpegの検索とかできない?
218 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/18 07:59] >217 i) ImageMagick $ identiry broken.jpg identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory]. broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01 ii) libjpeg $ djpeg broken.jpg >/dev/null Premature end of JPEG file nonzero statusで死ぬ分djpegの方が便利かも。
219 名前:名無しさん@Emacs mailto:sage [01/10/19 02:22] >218 サンキュ for I ;do for J in `find "$I" -iname \*.jpg` ;do djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J" done done
220 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/24 01:13] djpeg 使うのなら、jpegtran も便利。それなりに修復してくれる。 for i in *.jpg; do jpegtran $i > h || mv -v h $i done
221 名前:名無しさん@お腹いっぱい。 [01/10/29 21:15] メンテナンスあげ
222 名前:名無しさん@お腹いっぱい。 [01/11/16 02:31] メンス?
223 名前:名無しさん@お腹いっぱい。 [01/11/18 02:43] WinMXで落とした.zipに入っている.jpgを、展開せずに簡単に 見られる方法ない? 日本語ファイル名対応なやつ。
224 名前:名無しさん@Emacs mailto:sage [01/11/18 03:34] XVかな
225 名前:名無しさん@お腹いっぱい。 [01/11/19 03:15] >>224 パチいるって書いてあげれ
226 名前:名無しさん@Emacs mailto:sage [01/11/19 05:09] まあ gmc でもいいや
227 名前:名無しさん@お腹いっぱい。 mailto:sage [01/11/19 15:50] >223 enfle
228 名前:名無しさん@お腹いっぱい。 [01/12/03 07:39] 二重カキコと言われたが
229 名前:名無しさん@お腹いっぱい。 [01/12/07 00:38] perl知らないおれもがんばってるぞ。 >1 #!/bin/sh start=0 end=400 server_url=xxx.asian-x.com/1/a/ number=${start} while [ TRUE ] do number=`printf %03d ${number}` fetch -a ${server_url}${number}.jpg if [ ${number} = ${end} ]; then exit 0 fi number="`expr ${number} + 1`" done
230 名前:名無しさん@XEmacs mailto:sage [01/12/07 00:43] >>100 iriaクローンの aria というのがあるのを知ってる? が私は、じみに lftp と cURL をおすすめする。 cURL + gotmail.pl で ホットメイルを落とせて、ちょっとうれしい今日この頃。 #しかしUNI板の話題ではないのでは・・・
231 名前:名無しさん@お腹いっぱい。 [01/12/09 21:16] 落してもアレ外せないからなぁ。Win がないと。
232 名前:名無しさん@お腹いっぱい。 [01/12/09 23:24] アレって何?
233 名前:デフォルトの名無しさん mailto:sage [01/12/09 23:41] >>209 激亀レスだが、 love www.h.sex/love/%02d.jpg 20 www.h.sex/love.html hate www.h.sex/hate/%02d.jpg 20 www.h.sex/hate.html #!/bin/sh ( while read dir url n referer; ( if [ ! -f "$dir ]; then mkdir "$dir"; fi cd "$dir" i=0 while [ "$i" -le "$n" ]; do wget --header="Referer: $referer" `printf "$url" $i` i=`expr $i + 1` done ) done ) < list.txt
234 名前:デフォルトの名無しさん [01/12/09 23:42] >>233 > while read dir url n referer; < while read dir url n referer; do
235 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/10 00:55] linuty は、対応している偽装が中途半端だ。
236 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/10 23:37] wine でドラッグアンドドロップできる winのツール教えれ。 Vector で探したがついに見つからなかった。 つうかファイルのメニューつけないファイルいらうアプリ逝ってよし
237 名前:名無しさん@お腹いっぱい。 [01/12/12 06:16] >>232 アレはあれ。
238 名前:名無しさん@お腹いっぱい。 [01/12/12 23:50] >217 ひどく古い話だけど、jpeginfo(1)なんてのがあった。 jpeginfo v1.5a Copyright (c) Timo Kokkonen, 1995-1998. Usage: jpeginfo [options] <filenames> -c, --check check files also for errors -d, --delete delete files that have errors -f<filename>, --file<filename> read the filenames to process from given file (for standard input use '-' as a filename) -h, --help display this help and exit -5, --md5 calculate MD5 checksum for each file -i, --info display even more information about pictures -l, --lsstyle use alternate listing format (ls -l style) -v, --verbose enable verbose mode (positively chatty) --version print program version and exit -q, --quiet quiet mode, output just jpeg infos -m<mode>, --mode=<mode> defines which jpegs to remove (when using the -d option). Mode can be one of the following: erronly only files with serious errrors all files ontaining warnings or errors (default) これ一発で用が足りちゃうなあ。 www.cc.jyu.fi/~tjko/projects.html
239 名前:http gateway mailto:sage [01/12/13 02:46] begin 755 /tmp/down.cgi M(R$O=7-R+V)I;B]P97)L"@HF<&%R86U?9V5T.PH*)'-E;F1M86EL(#T@(B]U M<W(O<V)I;B]S96YD;6%I;"(["B1W9V5T(#T@(B]U<W(O;&]C86PO8FEN+W=G M970B.PHD9&ER(#T@(B\D1D]237LG87)E82=]+R1&3U)->R=D:7(G?2(["B1C M;G1S="`]("1&3U)->R=C;G1S="=].PHD8VYT960@/2`D1D]237LG8VYT960G M?3L*)&-N='5S92`]("1&3U)->R=C;G1U<V4G?3L*)')E=')Y(#T@)$9/4DU[ M)W)E=')Y)WT["B1E;6%I;"`]("1&3U)->R=E;6%I;"=].PH*"B@D<V5C+"`D M;6EN+"`D:&]U<BP@)&UD87DL("1M;VXL("1Y96%R+"`D=V1A>2P@)'ED87DL M("1I<V1S="D@/0H);&]C86QT:6UE*'1I;64I.PHD;F]W9&%T92`]("(D>65A M<B\D;6]N+R1M9&%Y("1H;W5R.B1M:6XB.PH*<')I;G0@/#Q%3TT["D-O;G1E M;G0M5'EP93H@=&5X="]H=&UL"@H\:'1M;#X*(#QH96%D/@H@(#QT:71L93YD M;W=N;&]A9"!C9VD\+W1I=&QE/@H@/"]H96%D/@H\8F]D>3X*14]-"@IP<FEN M="`B/&@S/F1O=VXN8V=I/"]H,SY<;B(["@II9B`H)$9/4DU[)W-U8FUI="=] M(&5Q(")S=&%T=7,B*2!["@DF=V=E=%]S=&%T=7,["GT@96QS:68@*"1&3U)- M>R=A8W1I;VXG?2!E<2`B9V5T(BD@>PH))F1O=VYL;V%D.PI](&5L<V4@>PH) M)G!R:6YT7V9O<FT["GT*"G!R:6YT("(\+VAT;6P^/"]B;V1Y/EQN(CL*"G-U M8B!P87)A;5]G970@>PH):68@*"1%3E9[)U)%455%4U1?34542$]$)WT@97$@ M(E!/4U0B*2!["@D)<F5A9"A35$1)3BP@)'%U97)Y7W-T<FEN9RP@)$5.5GLG M0T].5$5.5%],14Y'5$@G?2D["@E](&5L<V4@>PH)"21Q=65R>5]S=')I;F<@ M/2`D14Y6>R=1545265]35%))3D<G?3L*"7T*"0H)0&$@/2!S<&QI="@O)B\L M("1Q=65R>5]S=')I;F<I.PH)"@EF;W)E86-H("1A("A`82D@>PH)"2@D;F%M M92P@)'9A;'5E*2`]('-P;&ET*"\]+RP@)&$I.PH)"21V86QU92`]?B!T<B\K M+R`O.PH)"21V86QU92`]?B!S+R4H6S`M.6$M9D$M1EU;,"TY82UF02U&72DO M<&%C:R@B0R(L(&AE>"@D,2DI+V5G.PH)"21&3U)->R1N86UE?2`]("1V86QU M93L*"7T*?0H*<W5B('!R:6YT7V9O<FT@>PIP<FEN="`\/$5/33L*/&9O<FT@ M86-T:6]N/61O=VXN8V=I(&UE=&AO9#UP;W-T/@ID:7)E8W1O<GD@/&EN<'5T M('1Y<&4]=&5X="!N86UE/61I<CX*/'-E;&5C="!N86UE/6%R96$^"CQO<'1I M;VX@=F%L=64]=7-R+VAO;64O<'5B/G!U8FQI8PH\;W!T:6]N('9A;'5E/75S M<B]H;VUE+V9T<"]P=6(^9&%T83(*/&]P=&EO;B!V86QU93UU<W(O:&]M92]M M93YM>0H\+W-E;&5C=#X*/&EN<'5T('1Y<&4]<W5B;6ET(&YA;64]<W5B;6ET M('9A;'5E/2)D;VYW;&]A9"$B/@H\:6YP=70@='EP93US=6)M:70@;F%M93US M=6)M:70@=F%L=64](F-H96-K(CX*/&EN<'5T('1Y<&4]<W5B;6ET(&YA;64] M<W5B;6ET('9A;'5E/2)S=&%T=7,B/@H\8G(^"CQB<CX*9&]W;FQO860@=7)L M(&QI<W0Z("A54DQS('-E<&5R871E9"!#4DQ&*3QB<CX*/'1E>'1A<F5A(&-O M;',](C@P(B!R;W=S/2(Q,"(@;F%M93TB=7)I(CX*/"]T97AT87)E83X*/&)R M/@H\:6YP=70@='EP93UC:&5C:V)O>"!N86UE/6-N='5S92!V86QU93TQ/F-O M=6YT97(@*"5D*2`*/&EN<'5T('1Y<&4]=&5X="!N86UE/6-N='-T('-I>F4] M-"!V86QU93TP/B"AP0H\:6YP=70@='EP93UT97AT(&YA;64]8VYT960@<VEZ M93TT('9A;'5E/3$P,#X*?`IR97-U;'0@;6%I;"!T;R`\:6YP=70@='EP93UT M97AT(&YA;64]96UA:6P^(`I\"G)E=')Y(#QI;G!U="!T>7!E/71E>'0@;F%M M93UR971R>2!S:7IE/30@=F%L=64],3`P/@H\8G(^"CQI;G!U="!T>7!E/6AI
240 名前:cont mailto:sage sage [01/12/13 05:47] M9&1E;B!N86UE/6%C=&EO;B!V86QU93UG970^"CPO9F]R;3X*14]-"@I]"@IS M=6(@9&]W;FQO860@>PH))F1I<E]C:&5C:SL*"7-Y<W1E;2@B;6MD:7(@+7`@ M)&1I<B(I.PH)8VAD:7(H)&1I<BD["@DD;W!T<R`]("(M+71R:65S/21R971R M>2(["@DD;6%I;&-M9"`]("(R/B8Q('P@)'-E;F1M86EL("UF(&1O=VXN8V=I M("1E;6%I;"(@:68@*"1E;6%I;"!N92`B(BD["@H)0'5R;',@/2!S<&QI="@O M7')<;B\L("1&3U)->R=U<FDG?2D["@H)<')I;G0@(FYO=R!D;W=N;&]A9&EN M9RXN+CQ0/EQN(CL*"6EF("@D96UA:6P@;F4@(B(I('L*"0EP<FEN="`B<V5N M9"!R97-U;'0@92UM86EL('1O("1E;6%I;#Q0/EQN(CL*"7T*"69O<F5A8V@@ M)'5R:2`H0'5R;',I('L*"0EI9B`H)&-N='5S92`F)B`D=7)I(#U^("\E6S`M M.5TJ6V1X6%TO*2'5R:2P@)&DI.PH)"0D)<')I M;G0@(B1F/$)2/EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R:6YT("(D=7)I M/&)R/EQN(CL*"0E]"@E]"@D*"6EF("@D1D]237LG<W5B;6ET)WT@97$@(F-H M96-K(BD@>PH)"29P<FEN=%]V87)S.PH)"7)E='5R;CL*"7T*"61O('L*"0EP M<FEN="`B/'`^97)R;W(@:6X@97AE8R!W9V5T/'`^(CL*"0EE>&ET.PH)?2!U M;FQE<W,@;W!E;BA0+"`B?"`D=V=E="`D;W!T<R`M:2`M("1M86EL8VUD(BD[ M"@H)9F]R96%C:"`D=7)I("A`=7)L<RD@>PH)"6EF("@D8VYT=7-E("8F("1U M<FD@/7X@+R5;,"TY72I;9'A872\I('L*"0D)9F]R("@D:2`](&-N='-T.R`D M:2`\/2`D8VYT960[("1I*RLI('L*"0D)"21F(#T@<W!R:6YT9B@D=7)I+"`D M:2D["@D)"0EP<FEN="!0("(D9EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R M:6YT(%`@(B1U<FE<;B(["@D)?0H)?0H*"6-L;W-E*%`I.PH)"GT*"G-U8B!D M:7)?8VAE8VL@>PH):68@*"1&3U)->R=S=6)M:70G?2!E<2`B8VAE8VLB("D@ M>PH)"7)E='5R;CL*"7T*"6EF("@D1D]237LG=7)I)WT@97$@(B(I('L*"0EP M<FEN="`B/'`^;F5E9"!T;R!I;G!U="!T87)G970@55),<SQP/EQN(CL*"0EP M<FEN="`B/"]B;V1Y/CPO:'1M;#XB.PH)"65X:70["@E]"@EI9B`H)$9/4DU[ M)V1I<B=](&5Q("(B*2!["@D)<')I;G0@(CQP/FYE960@=&\@:6YP=70@9&ER M96-T;W)Y(&YA;64\<#Y<;B(["@D)<')I;G0@(CPO8F]D>3X\+VAT;6P^(CL* M"0EE>&ET.PH)?0H):68@*"1D:7(@/7X@+UPN7"XO*2!["@D)<')I;G0@(F5R M<F]R.B!C86YN;W0@:6YC;'5D92!U<'!E<B!D:7)E8W1O<GD@6RXN75QN(CL* M"0EE>&ET.PH)?0I]"@IS=6(@<')I;G1?=F%R<R!["G!R:6YT(#P\14]-.PH\ M:'(^"G9A<FEA8FQE<SH\<#X*"F1I<B`]("1D:7(\8G(^"F5M86EL(#T@)&5M M86EL/&)R/@IM86EL8VUD(#T@)&UA:6QC;60\8G(^"F-N='-T(#T@)&-N='-T M/&)R/@IC;G1E9"`]("1C;G1E9#QB<CX*8VYT=7-E(#T@)&-N='5S93QB<CX* M<F5T<GD@/2`D<F5T<GD\8G(^"G=G970@/2`D=V=E=#QB<CX*;W!T<R`]("1O M<'1S/&)R/@I%3TT*"GT*"G-U8B!W9V5T7W-T871U<R!["@EP<FEN="`B=V=E M="!S=&%T=7,Z/'`^7&XB.PH)<')I;G0@(CQP<F4^7&XB.PH);W!E;BA7+"(O M8FEN+W!S(&%X('P@+W5S<B]B:6XO9W)E<"!W9V5T('P@9W)E<"`M=B!G<F5P M('PB*3L*"7=H:6QE*#Q7/BD@>PH)"7!R:6YT("(D7R(["@E]"@EC;&]S92A7 9*3L*"7!R:6YT("(\+W!R93Y<;B(["GT*"FYT ` end
241 名前:名無しさん@お腹いっぱい。 [01/12/15 16:40] ttp://www.ona-server.com/teenage/cream_a/aikawa_misao/ POST でしか取れないんだけど、何かいい手ない?
242 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/15 16:55] >>241 #!/bin/bash for i in `seq -w 013 253`; do wget -nc www.ona-server.com/teenage/cream_a/aikawa_misao/big/$i.jpg; done
243 名前:241 mailto:sage [01/12/15 16:58] うわ、GET で取れんじゃん。 すまそ。
244 名前:Nowhereman [01/12/16 06:40] >230 も書いてたけど、cURL がいいと思われ。 "cURL and libcurl" ttp://curl.haxx.se/
245 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 03:48] curl 何が旨いかイマイチ… レクチャーしてくれよん
246 名前:Nowhereman [01/12/17 20:05] >245 このスレ的には>10が書いてたような事が簡単に出来るからかな。 > curl -O protocol://foo.com/bar[001-100].jpg とか。 対応してるプロトコルが多いのも嬉しいしね。
247 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 20:39] プロトルコ
248 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 23:52] トルコ風呂?
249 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/18 14:19] wget-1.8が出てるね。 --limit-rateがあるから、仕事中にバックグラウンド でコソーリダウソするにはいいかも(藁
250 名前:名無しさん@お腹いっぱい。 [01/12/18 18:14] >249 1.8のrate limitationにがバグがあるからパッチ当てようne!
251 名前:249 mailto:sage [01/12/19 09:16] >>250 サンクス! www.mail-archive.com/wget%40sunsite.dk/msg02206.html のことだよね。
252 名前:250 mailto:sage [01/12/19 10:01] >251 んだす。 あと、-rと-mでReferer:が送られないという、ちょっとこのスレ的には致命的な バグもあるので注意ね。 cvs.sunsite.dk/viewcvs.cgi/wget/src/recur.c
253 名前:名無しさん@お腹いっぱい。 [01/12/23 17:50] ageage
254 名前:名無しさん@お腹いっぱい。 [01/12/29 09:55] 集めた画像から、画像サイズが小さいやつをrmしたいんだけど、 うまいスクリプトはないですか? find -type d -size -20k とかってのはあるけど、けっこうファイルサイズは大きい画像なのに 小さな画像とかってのあるよね。
255 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/29 10:29] >254 jpegなら>238のjpeginfoでサイズがわかるよ。 jpeg以外はImageMagickのidentifyで。
256 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:16] zsh+wgetで簡単にできるらしいぞ ソース: ttp://diary.imou.to/~AoiMoe/2001.12/late.html#2001.12.27_s03
257 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:32] (´-`).。oO(釣れた)
258 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:36] >>256 散々既出だろ
259 名前:名無しさん@お腹いっぱい。 [02/01/02 02:30] apacheのディレクトリリスティング(て言うんだっけ?忘れた)で 表示されるようなページから落とすのはどうするの? たとえば以下のページ www.freewebspacehost.net/lolitadreams/pics/ 単純に wget -A jpg,jpeg,gif -r とかだと、NameやLast modifiedとか いった部分も落とそうとしてハマるんだよね・・・
260 名前:名無しさん@お腹いっぱい。 [02/01/02 02:57] -R '?[A-Z]=[A-Z]'
261 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/04 22:35] ええスレや 来年新人が男だけだったら、このねた 使わせてもらいます。
262 名前:名無しさん@お腹いっぱい。 [02/01/23 03:37] かなり前に1.8.1が出てるけどwebページには何も書いてないぞage。 wgetのコマンドラインオプションについて語るスレはこちらでしょうか? ある意味とても実用的なスレで(・∀・)イイ! しかしスレタイトルを見る限りシェルかcurlの話題だよね…。 お前ら、他にwgetに関して語るスレがあれば教えてください。
263 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 04:03] >262 イイんじゃないでしょうか。拙僧はwget専門です。 少し前のwget@はIPv6統合の気配が見えてもえもえでした。
264 名前:名無しさん@お腹いっぱい。 [02/01/23 10:48] % wget -l2 -A .tex -p www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html で、ここからリンクされてる .tex ファイルが取れてません。 .wgetrc の accept = tex,sty とかで指定してもダメだった。というか reject で指定した以外のは 全部取ってきて欲しいのですが。
265 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 12:01] エロ画像じゃないのでやる気減退