- 1 名前:たのも〜 [2001/01/10(水) 15:02]
- 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。
- 240 名前:cont mailto:sage sage [01/12/13 05:47]
- M9&1E;B!N86UE/6%C=&EO;B!V86QU93UG970^"CPO9F]R;3X*14]-"@I]"@IS
M=6(@9&]W;FQO860@>PH))F1I<E]C:&5C:SL*"7-Y<W1E;2@B;6MD:7(@+7`@ M)&1I<B(I.PH)8VAD:7(H)&1I<BD["@DD;W!T<R`]("(M+71R:65S/21R971R M>2(["@DD;6%I;&-M9"`]("(R/B8Q('P@)'-E;F1M86EL("UF(&1O=VXN8V=I M("1E;6%I;"(@:68@*"1E;6%I;"!N92`B(BD["@H)0'5R;',@/2!S<&QI="@O M7')<;B\L("1&3U)->R=U<FDG?2D["@H)<')I;G0@(FYO=R!D;W=N;&]A9&EN M9RXN+CQ0/EQN(CL*"6EF("@D96UA:6P@;F4@(B(I('L*"0EP<FEN="`B<V5N M9"!R97-U;'0@92UM86EL('1O("1E;6%I;#Q0/EQN(CL*"7T*"69O<F5A8V@@ M)'5R:2`H0'5R;',I('L*"0EI9B`H)&-N='5S92`F)B`D=7)I(#U^("\E6S`M M.5TJ6V1X6%TO*2'5R:2P@)&DI.PH)"0D)<')I M;G0@(B1F/$)2/EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R:6YT("(D=7)I M/&)R/EQN(CL*"0E]"@E]"@D*"6EF("@D1D]237LG<W5B;6ET)WT@97$@(F-H M96-K(BD@>PH)"29P<FEN=%]V87)S.PH)"7)E='5R;CL*"7T*"61O('L*"0EP M<FEN="`B/'`^97)R;W(@:6X@97AE8R!W9V5T/'`^(CL*"0EE>&ET.PH)?2!U M;FQE<W,@;W!E;BA0+"`B?"`D=V=E="`D;W!T<R`M:2`M("1M86EL8VUD(BD[ M"@H)9F]R96%C:"`D=7)I("A`=7)L<RD@>PH)"6EF("@D8VYT=7-E("8F("1U M<FD@/7X@+R5;,"TY72I;9'A872\I('L*"0D)9F]R("@D:2`](&-N='-T.R`D M:2`\/2`D8VYT960[("1I*RLI('L*"0D)"21F(#T@<W!R:6YT9B@D=7)I+"`D M:2D["@D)"0EP<FEN="!0("(D9EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R M:6YT(%`@(B1U<FE<;B(["@D)?0H)?0H*"6-L;W-E*%`I.PH)"GT*"G-U8B!D M:7)?8VAE8VL@>PH):68@*"1&3U)->R=S=6)M:70G?2!E<2`B8VAE8VLB("D@ M>PH)"7)E='5R;CL*"7T*"6EF("@D1D]237LG=7)I)WT@97$@(B(I('L*"0EP M<FEN="`B/'`^;F5E9"!T;R!I;G!U="!T87)G970@55),<SQP/EQN(CL*"0EP M<FEN="`B/"]B;V1Y/CPO:'1M;#XB.PH)"65X:70["@E]"@EI9B`H)$9/4DU[ M)V1I<B=](&5Q("(B*2!["@D)<')I;G0@(CQP/FYE960@=&\@:6YP=70@9&ER M96-T;W)Y(&YA;64\<#Y<;B(["@D)<')I;G0@(CPO8F]D>3X\+VAT;6P^(CL* M"0EE>&ET.PH)?0H):68@*"1D:7(@/7X@+UPN7"XO*2!["@D)<')I;G0@(F5R M<F]R.B!C86YN;W0@:6YC;'5D92!U<'!E<B!D:7)E8W1O<GD@6RXN75QN(CL* M"0EE>&ET.PH)?0I]"@IS=6(@<')I;G1?=F%R<R!["G!R:6YT(#P\14]-.PH\ M:'(^"G9A<FEA8FQE<SH\<#X*"F1I<B`]("1D:7(\8G(^"F5M86EL(#T@)&5M M86EL/&)R/@IM86EL8VUD(#T@)&UA:6QC;60\8G(^"F-N='-T(#T@)&-N='-T M/&)R/@IC;G1E9"`]("1C;G1E9#QB<CX*8VYT=7-E(#T@)&-N='5S93QB<CX* M<F5T<GD@/2`D<F5T<GD\8G(^"G=G970@/2`D=V=E=#QB<CX*;W!T<R`]("1O M<'1S/&)R/@I%3TT*"GT*"G-U8B!W9V5T7W-T871U<R!["@EP<FEN="`B=V=E M="!S=&%T=7,Z/'`^7&XB.PH)<')I;G0@(CQP<F4^7&XB.PH);W!E;BA7+"(O M8FEN+W!S(&%X('P@+W5S<B]B:6XO9W)E<"!W9V5T('P@9W)E<"`M=B!G<F5P M('PB*3L*"7=H:6QE*#Q7/BD@>PH)"7!R:6YT("(D7R(["@E]"@EC;&]S92A7 9*3L*"7!R:6YT("(\+W!R93Y<;B(["GT*"FYT ` end
- 241 名前:名無しさん@お腹いっぱい。 [01/12/15 16:40]
- ttp://www.ona-server.com/teenage/cream_a/aikawa_misao/
POST でしか取れないんだけど、何かいい手ない?
- 242 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/15 16:55]
- >>241
#!/bin/bash for i in `seq -w 013 253`; do wget -nc www.ona-server.com/teenage/cream_a/aikawa_misao/big/$i.jpg; done
- 243 名前:241 mailto:sage [01/12/15 16:58]
- うわ、GET で取れんじゃん。
すまそ。
- 244 名前:Nowhereman [01/12/16 06:40]
- >230 も書いてたけど、cURL がいいと思われ。
"cURL and libcurl" ttp://curl.haxx.se/
- 245 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 03:48]
- curl 何が旨いかイマイチ…
レクチャーしてくれよん
- 246 名前:Nowhereman [01/12/17 20:05]
- >245
このスレ的には>10が書いてたような事が簡単に出来るからかな。 > curl -O protocol://foo.com/bar[001-100].jpg とか。 対応してるプロトコルが多いのも嬉しいしね。
- 247 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 20:39]
- プロトルコ
- 248 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 23:52]
- トルコ風呂?
- 249 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/18 14:19]
- wget-1.8が出てるね。
--limit-rateがあるから、仕事中にバックグラウンド でコソーリダウソするにはいいかも(藁
- 250 名前:名無しさん@お腹いっぱい。 [01/12/18 18:14]
- >249 1.8のrate limitationにがバグがあるからパッチ当てようne!
- 251 名前:249 mailto:sage [01/12/19 09:16]
- >>250 サンクス!
www.mail-archive.com/wget%40sunsite.dk/msg02206.html のことだよね。
- 252 名前:250 mailto:sage [01/12/19 10:01]
- >251 んだす。
あと、-rと-mでReferer:が送られないという、ちょっとこのスレ的には致命的な バグもあるので注意ね。 cvs.sunsite.dk/viewcvs.cgi/wget/src/recur.c
- 253 名前:名無しさん@お腹いっぱい。 [01/12/23 17:50]
- ageage
- 254 名前:名無しさん@お腹いっぱい。 [01/12/29 09:55]
- 集めた画像から、画像サイズが小さいやつをrmしたいんだけど、
うまいスクリプトはないですか? find -type d -size -20k とかってのはあるけど、けっこうファイルサイズは大きい画像なのに 小さな画像とかってのあるよね。
- 255 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/29 10:29]
- >254 jpegなら>238のjpeginfoでサイズがわかるよ。
jpeg以外はImageMagickのidentifyで。
- 256 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:16]
- zsh+wgetで簡単にできるらしいぞ
ソース: ttp://diary.imou.to/~AoiMoe/2001.12/late.html#2001.12.27_s03
- 257 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:32]
- (´-`).。oO(釣れた)
- 258 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:36]
- >>256
散々既出だろ
- 259 名前:名無しさん@お腹いっぱい。 [02/01/02 02:30]
- apacheのディレクトリリスティング(て言うんだっけ?忘れた)で
表示されるようなページから落とすのはどうするの? たとえば以下のページ www.freewebspacehost.net/lolitadreams/pics/ 単純に wget -A jpg,jpeg,gif -r とかだと、NameやLast modifiedとか いった部分も落とそうとしてハマるんだよね・・・
- 260 名前:名無しさん@お腹いっぱい。 [02/01/02 02:57]
- -R '?[A-Z]=[A-Z]'
- 261 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/04 22:35]
- ええスレや
来年新人が男だけだったら、このねた 使わせてもらいます。
- 262 名前:名無しさん@お腹いっぱい。 [02/01/23 03:37]
- かなり前に1.8.1が出てるけどwebページには何も書いてないぞage。
wgetのコマンドラインオプションについて語るスレはこちらでしょうか? ある意味とても実用的なスレで(・∀・)イイ! しかしスレタイトルを見る限りシェルかcurlの話題だよね…。 お前ら、他にwgetに関して語るスレがあれば教えてください。
- 263 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 04:03]
- >262 イイんじゃないでしょうか。拙僧はwget専門です。
少し前のwget@はIPv6統合の気配が見えてもえもえでした。
- 264 名前:名無しさん@お腹いっぱい。 [02/01/23 10:48]
-
% wget -l2 -A .tex -p www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html で、ここからリンクされてる .tex ファイルが取れてません。 .wgetrc の accept = tex,sty とかで指定してもダメだった。というか reject で指定した以外のは 全部取ってきて欲しいのですが。
- 265 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 12:01]
- エロ画像じゃないのでやる気減退
- 266 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 13:22]
- つーか、直接
wget www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.tex しやがれ。 大体たった1個のTeXファイル落すためになんでそんな余計なことをする?
- 267 名前:名無しさん@お腹いっぱい。 [02/01/23 14:33]
- エロ小説は対象外ですか?(w
- 268 名前:名無しさん@お腹いっぱい。 [02/01/23 14:43]
- 1周年かよ (w
ハラヘッタ。
- 269 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 17:30]
- >>264
wget -Lr --no-parent www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html で 4ldots.gif 4ldots.html 4ldots.tex がとれましたが?
- 270 名前:名無しさん@お腹いっぱい。 [02/01/24 06:04]
- >>265
モチベーション的にどうかと思ったが、wgetの達人がいるらしいので。 >>266 URLは1つの例。最終的にはサイト全体をゲットするのだ。 >>269 -r かぁ! なんで基本的なオプション忘れて。。サンクスコ あと -L は使い道がないので無くなるらしい。
- 271 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/24 06:05]
- もひとつ、、
PGFブスばっかりやん。完全にアウト。
- 272 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/24 06:49]
- こっちのスレの1の改造じゃいかんの?
pc.2ch.net/test/read.cgi/unix/1003833552/l50
- 273 名前:名無しさん@お股いっぱい。 mailto:sage [02/01/29 01:13]
- もう、なんか、まともにページ見る気がしない。
for I in tfc002.tripod.com/{index,g2,g3,g4,g5}.html tfc003.tripod.com/{index,g7,g8,g9}.html tfc004.tripod.com/{index,g11,g12,g13}.html tfc005.tripod.com/{index,g15}.html tfc001.tripod.com/{index,g17,g18}.html ;do wget -ml1 -T30 -A.jpg -Xspic $I ;done
- 274 名前:名無しさん@お腹いっぱい。 [02/02/24 17:59]
- メンスあげ
- 275 名前:名無しさん@お腹いっぱい。 [02/02/24 19:31]
- ariaじゃだめなの?
- 276 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/24 20:59]
- ariaはコマンドラインから使いにくいしなぁ。
-d オプションが効いてないようだし。
- 277 名前:名無しさん@お腹いっぱい。 [02/02/24 21:29]
- 俺、ブラウザ(galeon)で見て気に入ったのだけ保存する派なのだが、気をつ
けないと同じディレクトリの%d*.jpgっつうファイルをどんどん上書きしちゃ う。 「右クリック→画像を保存」で、同じ名前のファイルが保存先のディレクト リにあったら%d*_連番.jpgとリネームして付け加えてくれると助かる。 wgetではそんな機能あるよね(ファイル名の後に連番だけど)。 いい方法無いかな。
- 278 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/24 21:39]
- >277 拙者もgaleonを用いてござるが、聊か偏執狂で画像のタイムスタンプなどに拘る
性癖があり、「画像の場所をコピー」してwgetに喰わせてござる。galeonはlocalの squidを経由しておる故、wgetもcacheから持ってくるようにすれば無駄なトラヒックも 生じず(゚д゚)ウマーなり。 アップローダなどに上がった画像で、ファイルネームが情報性に乏しい場合などは、 登場した板、スレ、レス番号から[board][thread][res].jpg などと変名してござる。 手間分の価値があるかどうかは拙者、断言致し兼ねる。
- 279 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/25 14:28]
- URLの位置に保存してます。かぶること少ないし。
2chに出しやすいから神になりやすい ;-)
- 280 名前:名無しさん@お腹いっぱい。 [02/03/02 13:46]
- えっと、ニューズグループの画像を自動ダウンロードすることはできますか?
- 281 名前:名無しさん@お腹いっぱい。 [02/03/02 18:09]
- >280 nget.sourceforge.net/
- 282 名前:名無しさん@お腹いっぱい。 mailto:sage [02/03/02 18:35]
- import java.io.*;
import java.net.*; public class EroGazoLoader{ public static void main(String[] args) throws Exception{ for(int i=0; i<100; i++){ URL url = new URL("www.foo.com/ero/" + i + ".jpg"); InputStream in = url.openStream(); FileOutputStream out = new FileOutputStream(i + ".jpg"); byte[] buffer = new byte[1024]; while(true){ int length = in.read(buffer); if(length < 0) break; out.write(buffer, 0, length); } in.close(); out.close(); } return; } }
- 283 名前:名無しさん@お腹いっぱい。 [02/03/11 14:45]
- wgetいいんだけど、くそ重いサイトからダウソしていると、
-t 0(リトライ無限)オプションを付けていても、 connection refused. とか言われていつの間にか終了してしまう。 この場合自動でリトライさせる方法ないかな? ttp://hp.vector.co.jp/authors/VA008536/script/net/wget_bg.txt みたいなシェルスクリプトでwgetを回していると、切れてることに気付かなくて鬱になる。
- 284 名前:名無しさん@お腹いっぱい。 [02/03/19 00:39]
- age
- 285 名前:名無しさん@お腹いっぱい。 [02/04/01 18:16]
- 定期あげ
- 286 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/01 23:22]
- ここに触発されて、新入社員の教育(3日連続)のシメに
某エロサイトのhtmlから直リンクを生成せよっていう課題を出した。 最初は誰もその真意を理解せずにノホホンとスクリプト組んでたが、 暇つぶしに利用法を語りだすとだんだん真剣にキーを叩くように。 時間が終わった後も、応用例や疑問点等、最初の2日間適当に流して 理解しなかった点についてもしっかりと押さえようと彼等は真剣に 質問してきた。 また、もし時間が余った場合に備えてもう2本ほどhtmlを用意してた が、それらは彼等への自習用としてあげたら喜んで残業してスクリプト を組んでいた。 来年もこれでやろ。
- 287 名前:杞憂 mailto:sage [02/04/01 23:27]
- >>286
セクハラになったりしない?
- 288 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/01 23:43]
- >>286
いい話だなァ……。
- 289 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/02 00:10]
- >>287
新人が喜んでるならいいんだけどね。 そうでないとまずいかもね。
- 290 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/02 00:11]
- たとえ新人が男でも。
- 291 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/02 00:36]
- ああ確かにこういうの、男でもイヤがるひといるね。
2ちゃんねらーなら、ヤなものは無視するだけだろうが(w
- 292 名前:286 mailto:sage [02/04/02 01:10]
- マジメな課題も用意してたんよ、糞つまらんけど半日かかる奴いくつか。
さすがに女性参加だとやらんかったけど、男ばっかで新入社員ってノリ 良いし。 んで、演習に使ったのはhtmlファイルだけで、職場自体がモロ画像を手に 入れることのできるネットワーク環境じゃないんで、「会社で作って寮か ツレのところへ持ち込め!」ってやったら気合入れてやってたよ。 んで、さらに一人残業してた奴は 「いや、これ後30分で持っていくってインターネットやってるツレに電話 したからどうしてもやんないと!」 そいつ、今、俺の弟子やってます(笑)。
- 293 名前:名無しさん@お腹いっぱい。 [02/04/07 16:09]
- >>286
新入社員の秀作、名作、迷作キボー
- 294 名前:名無しさん@お腹いっぱい。 [02/04/07 16:32]
- 社会人になったら>>286みたいな先輩がほしいなぁ。
- 295 名前:名無しさん@お腹いっぱい。 [02/04/07 17:13]
- おれも新人研修やるんだけど..
新入社員に女子がいるし、人事の女にもチェックされるんだヨウ... 女性用にホモ画像サイトも用意してやるか..
- 296 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/07 17:44]
- 若い子には猫の写真とか。
- 297 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/07 20:54]
- >>295
ホモは奥が深くて難しい。安全にショタ系にすれ。
- 298 名前:286 mailto:sage [02/04/08 12:25]
- >>293
ちょっと前までサーバ上に名作、迷作の回答あったんだけど、弟子にUNIXの バックアップ・リストアの実演やらかした時に消しちゃったい。 各自で保存しているらしいから、そのうちちょっと聞いてみるけど。 結構面白いのもあったんだけどね。 ただ、特に仕様らしい仕様も出さなくて、「とにかく直リンクがコマンド一発で 抜き出せればOK」だったので、そのhtmlファイル依存しまくりのスクリプト だらけだったよ(当然か)。 でも、その某サイトは同じ格好のhtmlが数百本あるから、スクリプトを時間 かけて作成するだけの価値が彼らにはあったと信じる(笑)。 >>296 安全牌としてそのテも考えていたんだけど、スクリプトを使って大量 ダウンロードできるだけのボリュームがあるサイトを見つけられなかった。 今後の安全牌として、どこか紹介していただけるとありがたいです。
- 299 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/09 02:24]
- >298
難易度高いけどこことか。 www.ne.jp/asahi/hobbies/kiyochan/cats/cats_frame.htm
- 300 名前:286 mailto:sage [02/04/09 22:58]
- >299
お、まとまったサイト紹介、ありがとさんです。 細切れになってるからリンクマジメに辿るとかだと大変かも。 でも安牌にさせてもらいます。
- 301 名前:名無しさん@お腹いっぱい。 [02/04/14 12:36]
- #!/usr/bin/perl
# # index.pl # ネスケで一覧するのを提案します。 # ノーチラス使えない環境の人には良いかも。 # このスレひととおりみたけどこういうのはまだ出てないみたいだったので。 # 小さくすればグロ画像もこわくないですし。 # file:/home/ero/wget/index.html とかして使用すます。 # # 画像のたまったディレクトリで ./index.pl > side.html # index.html として下のを用意 # body.html は無くて良い # #index.html #<HTML> #<FRAMESET COLS='20%,*'> #<FRAME SRC='side.html' NAME='side' SCROLLING='auto'> #<FRAME SRC='body.html' NAME='body' SCROLLING='auto'> #</FRAMESET> #</HTML> # print '<html><body>'; @_=`ls -t`; # `ls -S ` などもよろしいかと $dir=`pwd`; # chomp してももちろん可 foreach ( `ls` ){ chomp; print "<a href='file:$dir/$_' target='body'><img src='$dir/$_' hight='100' width='100'><br>\n"; } print "</body></html>\n";
- 302 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/14 12:39]
- `ls` は @_ のまちがいです。
今はじめて気がついたよ。。。
- 303 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/14 12:54]
- Perl使わなくても、プロンプトから
ls *.jpg|sed 's/\(.*\)/<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>'>hoge.html とする程度でいいんじゃない?
- 304 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/14 12:55]
- しまった。こうだな。
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>%' > hoge.html
- 305 名前:301 mailto:sage [02/04/14 13:27]
- 画像の下にダウンロード元の URL 表示できるようにしたりとか、
機能拡張を予定しているので。。。 またそれがここに載せた理由です
- 306 名前:1 [02/04/14 19:15]
- がんばれ301さん。
あげ
- 307 名前:名無しさん@そうだドライブへ行こう [02/04/14 20:27]
- >>304
typoかな? ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="\1" height=100 width=100></a>%' > hoge.html ^^^
- 308 名前:307 mailto:sage [02/04/14 20:29]
- ずれてる。
鬱氏。 img src のとこね。
- 309 名前:名無しさん@お腹いっぱい。 [02/04/14 21:09]
- ぽこにゃん方式の詳細どこかにありませんか? 復元するソフト書こうと思ってるんだけど。
- 310 名前:名無しさん@お腹いっぱい。 [02/04/15 02:48]
- >309
ぽこにゃんの仕様は公開されていませんが、作者に請求すれば手に入ります。 作者が生きていれば。 3年ほど前、そうやって作られたUNIX用の実装がありましたが配布元は死んでいました。 BBSが動いていたのには驚きました。(^_^;)マァヴ
- 311 名前: du -sh . が 427M mailto:301 [02/04/15 23:23]
- この遊びをはじめて今日で3日。
やはりグロ画像が怖い、怖すぎる。 小さくしてもやっぱ厭だ。 だが、どうやら種類はそれほど多くないらしい、毎回同じ奴が出る。 @exceptionurls とかして、予め登録するやり方が有効かもしれない、 とコメントだらけの 2ch.pl と index.pl を覗く夜。 ...abortion.mpg いります?
- 312 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/16 21:57]
- >>1
ありがとさん。 バッチかけて大量の画像集めてみました。 FLASH集めにも使えそうですね。 しかし、ツールのせいじゃないんだけど2chて怖い画像多すぎだな。
- 313 名前:名無しさん@お腹いっぱい。 [02/04/23 17:40]
- age
- 314 名前:名無しさん@お腹いっぱい。 [02/04/30 00:41]
- age
- 315 名前:名無しさん@お腹いっぱい。 [02/04/30 01:37]
- 俺はこの時だけのためにzshをいれている。
もち、 ふだんtcsh,シェルスクリプトsh
- 316 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/30 03:19]
- >315
奇遇だな、俺もだよ。
- 317 名前:名無しさん@お股いっぱい。 mailto:sage [02/05/02 02:19]
- wget でさ 302 に反応するの止められないかな
- 318 名前:318 mailto:sage [02/05/02 04:15]
- 恥ずかしい動機でパッチ作る漏れ
- 319 名前:Bourne Shell 馬鹿一代 mailto:sage [02/05/09 20:45]
- しごく無理矢理に。
#!/bin/sh prefix=`echo $1 | sed 's/\[.*//'` suffix=`echo $1 | sed 's/.*[0-9]*\]//'` area=`echo $1 | sed 's/[^\[]*\[//' | sed 's/\].*//'` start=`echo $area | sed "s/-.*//"` finish=`echo $area | sed "s/.*-//"` figure=`echo $finish | wc -c` figure=`expr $figure - 1` get_filename() { num=$1 num_fig=`expr $num | wc -c` num_fig=`expr $num_fig - 1` zero="" if [ $num_fig -lt $figure ] then pre0=`expr $figure - $num_fig` #zero="" while [ $pre0 -gt 0 ] do zero=`echo 0$zero` pre0=`expr $pre0 - 1` done fi echo $prefix$zero$num$suffix } while [ $start -le $finish ] do wget `get_filename $start` start=`expr $start + 1` done
- 320 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/13 13:26]
- 月イチくらいでこのスレチェキするの、実は楽しみ。
保守sage
- 321 名前:名無しさん@お腹いっぱい。 mailto:age [02/05/19 12:52]
- age
- 322 名前:名無しさん@お腹いっぱい。 [02/05/19 14:25]
- >309
wine Pokonyan.exe で十分。
- 323 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/20 04:02]
- スプールディレクトリにファイルのリストを書いたファイルをぶちこむと
勝手に読みこんでwgetしてくれるデーモンがあれば便利なような気がした。
- 324 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/20 04:28]
- >>323
それくらいチョチョイと作れよという気がした。 スクリプトで定期的に回すだけでも十分な気もした。
- 325 名前:323 mailto:sage [02/05/21 03:11]
- #!/bin/sh
savedir="save" listdir=~/spool/ wgetopt="-q" list=$listdir`ls $listdir | head -qn 1` while [ $listdir != $list ] do if [ -s $list ] ; then file=`head -qn 1 $list` wget $wgetopt -P $savedir $file echo -e '1d\nwq' | ed -s $list else rm $list list=$listdir`ls $listdir | head -qn 1` fi done #回す内容だけ作ってみたが、定期的に回すやり方が分からんかった
- 326 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/21 11:49]
- 最後に自分自身をatする
- 327 名前:323 mailto:sage [02/05/21 18:38]
- >>326 さんくす
こんなかんじでいいのかな? echo $0 | at now + 1 minutes
- 328 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/22 13:12]
- at使う方法もあるってだけ。
cronのほうがいいでしょ。
- 329 名前:名無しさん@Emacs [02/05/24 15:57]
- zshで数字の場合は{00..99}とかすればいいけど
{a..z}みたいにアルファベットの場合はどうすればいいの?
- 330 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/24 18:14]
- ruby -e '("a".."z").each{|i| puts i}' とか?
Ruby使うのは反則気味かな。
- 331 名前:名無しさん@XEmacs mailto:sage [02/05/24 19:29]
- ていうか ruby でダウンローダ書くべし。。。
- 332 名前:345 [02/05/30 10:24]
- susume.free-city.net/
以下のファイルがwgetでどうしても落とせません。 htmlファイルもです。 refererの設定をしてもエラーのhtmlファイルを拾ってくるだけで 目当てのファイルが落とせないのです。 ariaでやるとrefererありでもなしでも落とせました。 どうやればwgetで落とせますか?
- 333 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 10:43]
- >>332
朝っぱらから同人誌かよ (w さらに `-r -A jpg ' で何ごとも無く落とせるじゃ〜ないか
- 334 名前:その筋の人(w mailto:sage [02/05/30 10:58]
- free-cityはRefererがhtmlで終わっていないとエラーになる仕様。
ディレクトリやhtmでは駄目。
- 335 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 11:17]
- free-city、面倒だからたまに referer に落としたい画像そのもの(.jpg)を指定するけど、大丈夫だよ。
- 336 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 11:24]
- 要は指定した拡張子しか置けなくて、置けるものがRefererになっていないと駄目ということかな。
- 337 名前:332 [02/05/30 12:30]
- こんなネタにわざわざ答えて、ありがとさん。
>>334 なるほど、free-cityはそういう仕様だったのですね。 かなり勉強になりました。 が、、 wget susume.free-city.net/ --header=Referer:susume.free-city.net/index.html wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/index.html wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/ wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/index.html -Ahtml,jpg いろいろやってみましたがゲット出来ません。 ちなみにWgetのバージョンは1.4.5です。
- 338 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 12:50]
- 1.4.5 古すぎ。最近のは 1.8.1 かな?
いろいろと便利になっているよ。 昔のだと、--header='Referer: hogehoge...' とかじゃなかったかな。 最近のだと、--referer=hogehoge... だな。
- 339 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 12:53]
- ついでに、
wget [オプション]... [URL]... だな。 wget [URL]... [オプション]... じゃなくて。 -m とか -r とか、その辺りもちゃんと調べるように。
- 340 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 12:56]
- こういうことやるには、HTTP とか CGI とか Javascript とか HTML にも精通していると
困ったときに色々と助けになる。 ダウンロードばっかりしてないで、せっかくの良い機会だから RFC とかも読んでみるといい。
|

|