1 名前:たのも〜 [2001/01/10(水) 15:02] 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする ソフトやスクリプトがあれば教えてけれ。
106 名前:名無しさん@お腹いっぱい。 [2001/04/20(金) 06:15] >>105 まあ普通ってとこだろう。 しかし毛がずいぶんとひ弱な感じだな。 つかお前のふとももには毛が生えてないのか?
107 名前:名無しさん@お腹いっぱい。 [2001/04/20(金) 16:09] gtmを使う私は軟弱もの。 toolメニューに連番機能があります。numeric downloadね。 gtm.sourceforge.net/
108 名前:名無しさん@お腹いっぱい。 [2001/04/22(日) 00:05] aria 使えば?
109 名前:名無しさん@Emacs [2001/04/22(日) 23:06] wgetで www.lares.dti.ne.jp/~lupan/pk/comp_angle.html このページうまく落とすことが出来ますか? なぜかimage/comp_angle1.jpgからimage/comp_angle6.jpgがうまく落とせないのですけど・・・
110 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/04/22(日) 23:58] >>109 # wget www.lares.dti.ne.jp/~lupan/pk/image/comp_angle1.jpg --23:55:15-- www.lares.dti.ne.jp/%7Elupan/pk/image/comp_angle1.jpg => `comp_angle1.jpg' www.lares.dti.ne.jp:80 に接続しています... 接続しました! HTTP による接続要求を送信しました、応答を待っています... 200 OK 長さ: 18,463 [image/jpeg] 0K -> .......... ........ [100%] 23:55:19 (6.53 KB/s) - `comp_angle1.jpg' を保存しました [18463/18463]
111 名前:名無しさん@Emacs [2001/04/23(月) 00:08] >>110 いやいや直接jpgをurlに指定するのでは無くたとえば wget -r -l2 www.lares.dti.ne.jp/~lupan/pk/comp_angle.html とかでjpgファイルも一緒に落としてくれるとおもったんだけど・・・
112 名前:名無しさん@お腹いっぱい。 [2001/04/23(月) 20:01] 覚書。 wget --header=REFERER: "www.hogehoge.com/index.html" www.hogehoge.com/ero.jpg wget -r -A .jpg www.hugohugo.com/gallary/hoge.html
113 名前:名無しさん@Emacs [2001/04/23(月) 23:38] いやいや wget -r -l1 www.lares.dti.ne.jp/~lupan/pk/comp_angle.html wget -r -l1 www.lares.dti.ne.jp/~lupan/pk/photoexpo99.html この2つで photoexpo99.htmlはjpgファイルを落としてくれるけど comp_angle.htmlはjpgファイルを落としてくれないのです.--referer=設定してもだめ <IMG SRC="...">のタグは落としてくれるけど<IMAGE SRC="...">のタグは落とせないのでしょうか? もしかして私はとんでもない勘違いをしてる?
114 名前:名無しさん@お腹いっぱい。 [2001/04/24(火) 09:21] >>113 <IMAGE> ってなんだ?
115 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/04/24(火) 10:07] IMGSRC はね、キャッスル.jp.FreeBSD.ORGがあるデザイン会社 ですね。おとしたらMLが配送されなくてこまります。
116 名前:名無しさん@Emacs [2001/04/24(火) 17:10] 結局html.cのhtmlfindurl()に{ "image", "src" }を追加する事により 解決した.
117 名前:名無しさん@お腹いっぱい。 [2001/05/04(金) 12:25] 挙げ
118 名前:なまえをいれてください [2001/05/04(金) 23:09] 普通にcshで wget http.../ecchi{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg でできるんだけど…。 うちのcshってふつうじゃないんだろか??? たまにはこんなこともする。 echo wget http.../ecchi{"{0,2,4,6,8}","{1,3,5,7,9}"}.jpg\ \& | csh 極悪?
119 名前:もしもの為の名無しさん [2001/05/07(月) 10:38] 【1】何分だいぶ昔に作ったものをまだ使っていて 可変数引数を使っていないあたりが当時の厨房ぶりの象徴ですが、 printf() の引数フォーマットをそのまま使えていろいろ使えます。それを (1)例えば【2】みたいなんで落としてネスケで開いてページを編集→保存とか、 (2)同様に wget を使ったスクリプトを吐き出して勝手に落としてもらうか と、そんな感じで私はやっておりますが。 ※to ってコマンドが【1】をコンパイルしたもの。 【1】 #include <stdio.h> #include <stdlib.h> #include <string.h> main(argc,argv) int argc; char *argv[]; { int i,start,end,tmp,st; char form[1024]; if(argc < 3){ printf("Usage: %s start end [\"format\"]\n",argv[0]); exit(-1); } start = atoi(argv[1]); end = atoi(argv[2]); if(start < end) st = 1; else st = -1; if(argc > 3) sprintf(form,"%s\n",argv[3]); else sprintf(form,"%sd\n","%"); for(i=start;i*st<=st*end;i+=st) printf(form,i,i,i,i,i,i,i,i,i,i,i,i); exit(0); } 【2】 #!/bin/csh -f foreach i (01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22) to 1 50 '<img src="making001.japannudes.net/jgirl '"$i"'/%03d.jpg" width=64 heisht=48>' end
120 名前:名無しさん@お腹いっぱい。 [2001/05/07(月) 15:24] なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.
121 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 04:15] あげ
122 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 08:21] あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな? 先輩方、よろしくお願いします。
123 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 10:45] >>122 フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」 FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「 alias wgetports 'wget --proxy=on --force-directories --no-host-directories --directory-prefix=. --cut-dirs=4 --passive-ftp --recursive --level=1 ftp://hogehoge/path/to/ports/\!*' 、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ 、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」 、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ
124 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 11:35] >>122 wgetで--no-parentを指定すれ。
125 名前:名無しさん@お腹いっぱい。 [2001/05/19(土) 15:08] 象を一気にダウンロード
126 名前:名無しさん@お腹いっぱい。 [2001/05/20(日) 13:19] 面倒くさいので wget -r www.ero.com なんですけど・・・ 56kでも2,3時間ほっとけばそれなりおちてくるし
127 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/05/20(日) 20:02] >>126 ちったー、設定しろ
128 名前:名無しさん@お腹いっぱい。 [2001/05/26(土) 05:10] age
129 名前:名無しさん@お腹いっぱい。 [2001/06/15(金) 16:24] 最近、どうよ。
130 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/07/03(火) 01:35] ICHでH画像全部消えた。 まあ、俺の心の中にバッファされてるが。
131 名前:名無しさん@お腹いっぱい。 [2001/07/03(火) 04:31] ageないの?
132 名前:名無しさん@そうだドライブへ行こう [2001/07/03(火) 04:48] perl の magical increment をつかえ。
133 名前:厨房 [2001/07/03(火) 10:40] #!/bin/sh b=10 c=1 d=Z while test $b -lt 21 do wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j pg b=`expr $b + 1` done while test $c -lt 10 do wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c. jpg c=`expr $c + 1` done
134 名前:名無しさん@お腹いっぱい。 [2001/07/05(木) 13:55] つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、 かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの を取って来て、なおかつ、連番で保存ってどおよ。
135 名前:名無しさん@お腹いっぱい。 [2001/07/06(金) 21:31] wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか? www.classicalarchives.com/bach.html 上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。
136 名前:名無しさん@お腹いっぱい。 [2001/07/07(土) 19:28] なんかwget1.7ってmakeが失敗するんだけどなんでかな。 ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。 おとなしく1.6を使ってろ、ってことかな。
137 名前:名無しさん@Emacs [2001/07/08(日) 00:49] wget1.7おれはmake出来たよ でも-kオプションってうまく働いてない気がする. ついでにSSLもうまくいかん.
138 名前:名無しさん@お腹いっぱい。 [2001/07/10(火) 00:48] とりあえずこの話題に関しては まずこのサイトを見ないと始まらないと 思われ。 ツールもそろってるし members.tripod.co.jp/casinoA1/
139 名前:名無しさん@お腹いっぱい。 [2001/08/21(火) 12:32] age
140 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 02:14] bashでときどき for i in `seq -w 0 52`; do wget ..../aaa$i.jpg; done とか while read i; do wget $i; done とかやるね。後者はMozillaからURLコピーしまくる。 こういう感じの使い捨てスクリプト書いてたけど あんまり使わなかった。標準入力からURLを入力するだけで 000〜そのURLの番号まで全取得してくれるはずなんだけど。 #!/bin/bash while read url; do if [ -z "$url" ]; then next; fi eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')' for i in `seq -w 0 ${url[1]}`; do wget ${url[0]}$i.jpg done done GNU/Linuxシステムじゃないと動かんカモ。
141 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 12:34] 集めたあとの整理はどうしてるよ? wgetとかでとってくると www9.smutserver.com/teen/sex1000/tgp/*.jpg のようにディレクトリが深くていやーん。 どうでもいいけど。
142 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 04:24] $ find . -type f -name \*.jpg -exec mv {} . \; $ rm -r */ とでもしてカレントディレクトリに移せば?
143 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 05:28] >>141 -nd つかえば? -nHでも一つ減る。
144 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 10:01] ネタはくだらないくせに妙に為になるよ、このスレ(藁
145 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 13:45] >>141 俺は URL そのままにしてるよ。 利点は * 連番系をあとで補間できる * サイトを割り出せる * 2ch で紹介しやすい :-) * そもそもユニークなファイル名を付けるのが面倒
146 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 15:16] $ mkdir symlinks $ find . -type f -name \*.jpg -exec ln -sf {} symlinks \; これはどーだ?
147 名前:sage mailto:sage [2001/08/23(木) 15:42] sage
148 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 16:33] おなにーするときはどうするんですか? find . -name '*.jpg' | xargs xv -wait 2 -random でいいですか? (藁
149 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:00] >>148 こーいうときに威力を発揮するのが仮想画面だったりするのよね. 1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え. 1600x1200 いいぜ :D # スレ的には失格なネタ
150 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:13] 俺はGQviewがお気に入り。 サムネイル画像を表示させておき、 最後は全画面表示にして逝く 下品でスマソ
151 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 02:14] tarやzipを読めるviewerってない? 微妙にスレ違いだが、inode消費が気になる....
152 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:07] キーボードで楽に使える viewer ないかな。 ノートPCなのでほとんどキーボードでやってるんだが、 画像表示だけは GQview で仕方なくトラックボールを しこしこやってる。
153 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:17] >>151 こんなのはいかが? enfle.fennel.org/
154 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/24(金) 03:53] >>153 Susie Plug-in にも対応してるんですね (・∀・)イイ!
155 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 23:39] >>152 いまだに xv を愛用しています。快適。
156 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 00:14] >>141 > 集めたあとの整理はどうしてるよ? 種類ごとにディレクトリほって、symlink してる。 めんどうだけど。 画像見ながら分類したいな。 なんかいいツールない? Nautilus か?
157 名前:152 [2001/08/25(土) 01:51] >>155 おーサンキュ。xv ってキーボードで操作できるんだ。 non-free だから今まで敬遠してたけど、使ってみよう。
158 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 02:24] >>157 最初はキーボードの操作を覚えるのがちょっと大変かもしれん。 最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。
159 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 04:44] >>158 FLMaskパッチに感動したのも懐かしいなあ。 今はもう動画ばっかりだ。 関係ないけど「璃樹無」分割って単なるsplitだったんだね。 気づく前はこれだけのためにWIN立ち上げてたYO。
160 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 10:11] どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、 HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。 今では、うちに背景画像配信サーバーが立っていたりする…
161 名前:あぼーん mailto:あぼーん [あぼーん] あぼーん
162 名前:tori [2001/08/25(土) 12:02] internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント 現在事業所の計算機をグローバルアドレスにするには、Router 使っています。このNATをルーターでは無く、Solaris で行うには どうすればいいでしょうか?
163 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 12:07] >>162 H画像を落とすためにか?
164 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:00] >>161 そのページに14個のサンプルがあるけど、そのこと? それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。
165 名前:名無しさん@Emacs [2001/08/25(土) 13:06] >>161 htmlからリンク先を抽出したいということですか?
166 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:13] q , , q /( )` q \ \___ / | q /- _ `-/ ' q (/\/ \ \ /\ q / / | ` \ q O O ) / | q `-^--'`< ' q (_.) _ ) / q `.___/` / q `-----' / q <----. __ / __ \ q <----|====O)))==) \) /==== q <----' `--' `.__,' \ q | | q \ / /\ q ______( (_ / \______/ q ,' ,-----' | q `--{__________) q
167 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:14] .................,........, ................/(........)` ................\.\___.../.| .............../-._..`-/..' ..............(/\/.\.\.../\ .............././...|.`....\ ..............O.O...)./....| ..............`-^--'`<.....' .............(_.).._..).../ ...............`.___/`..../ ................`-----'./ ...<----......__./.__...\ ...<----|====O)))==).\)./==== ...<----'....`--'.`.__,'.\ ................|........| .................\......./......./\ ............______(.(_../.\______/ .........,'..,-----'...| .........`--{__________)
168 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:15] ...................................................,........................, ................................................/(........................)` ................................................\...\___........./...| ............................................./-..._......`-/......' ..........................................(/\/...\...\........./\ ........................................../.../.........|...`............\ ..........................................O...O.........).../............| ..........................................`-^--'`<...............' .......................................(_...)......_......)........./ .............................................`...___/`............/ ................................................`-----'.../ .........<----..................__.../...__.........\ .........<----|====O)))==)...\).../==== .........<----'............`--'...`...__,'...\ ................................................|........................| ...................................................\...................../...................../\ ....................................______(...(_....../...\______/ ...........................,'......,-----'.........| ...........................`--{__________)
169 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 14:32] モナーフォント無しで見られる親切設計だ。 NetBSD デーモンかな?
170 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 00:58] 00000000000000000000000
171 名前:161 [2001/08/26(日) 01:07] >165 その通りです。 インターネットNinja(Window)らしき事を Unix系OS上(特にperl)で実現したいのです。 可能でしょうか。 >162 あなた、 Solaris教えてスレッド 其の弐 (826) の方へ書き込んだつもりでしょう。 私もその失敗、経験済みです。
172 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:14] >>171 Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、 慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。
173 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:23] grep して sed >> list して (これを何回かやって) wget -i list
174 名前:173 mailto:sage [2001/08/26(日) 01:24] ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…
175 名前:普段は エロ系 [2001/08/26(日) 01:32] 凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い で PGF 一応全タイトルと WAVファイル持ってます 1さん でも 簡単に 入手するより きっと 過程が楽しいのでしょうね 皆様 凄いわ!
176 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:44] 過程なんか楽しくねーよ。
177 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(日) 01:51] 過程 "も" 楽しい。
178 名前:普段は エロ系 [2001/08/26(日) 01:53] あ そうなの(^^;;
179 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 29:00] 「インターネットニンジャじや、一発じゃ。」 と無粋な流れを無視したコメントを残しておく。 (そして反発を買う。) ワクワク・・・・うふ。 ラブ。
180 名前:では反発 mailto:sage [2001/08/26(5) 31:00] sed で複数 html からリスト作って wget で取得の方が遥かに早いです
181 名前:180 mailto:sage [2001/08/26(5) 32:00] ていうか、書き込み時刻がめちゃくちゃだな
182 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 34:00] こここれは??
183 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 34:00] 32:00って_________?
184 名前:test mailto:sage [2001/08/26(5) 43:00] test
185 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 44:00] やっぱおかしいな
186 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26 06:02] だめ?
187 名前:名無しさん@Emacs mailto:sage [01/08/26 09:17] test
188 名前:名無しさん@Emacs [01/08/26 09:18] 自治age
189 名前:名無しさん@お腹いっぱい。 [01/08/26 11:59] 27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ ◎ ┣−-┓ |AGE| ┣−-┛ | | Λ|Λ (・∀・)イイ! ( ) | つ | (__)_)
190 名前:名無しさん@Emacs [01/08/26 13:17] perlのモジュール使ってhtmlからリンク先を抽出するのは どうやればいいんですか?
191 名前:名無しさん@お腹いっぱい。 [01/08/26 13:23] >>190 wgetでできるだろうがスカポンタン
192 名前:名無しさん@お腹いっぱい。 [01/08/26 13:28] やり方はいろいろあると思うが HTML::Parser モジュールを使うと XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A> の XXXXX の部分を抜きだせるはず
193 名前:名無しさん@Emacs [01/08/26 13:33] >>191 wgetで出来るとは知りませんでした。調べてみます。 再帰転送のことではないですよね?
194 名前:名無しさん@お腹いっぱい。 mailto:age [01/08/26 15:10] httpgetというスクリプトがあって、 それで再帰的にリンク先のファイルを取得できるみたいよ。 まあwgetでいいわけだけど。 参考にしてみれば?
195 名前:名無しさん@Emacs [01/08/26 16:38] >>194 httpget取って来て見てみました。 確かにリンクを抜き出す関数がありました。感謝です。
196 名前: [01/09/05 22:02 ID:ssMW8tkM]
197 名前:名無しさん@お腹いっぱい。 [01/09/06 07:42 ID:t/5EHQk.] rtsp://hoge.hoge/stream.rm のストリーミングビデオを ファイルに落とすのはどうすればいい?
198 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/06 12:12 ID:RQop.hqE] >>197 http で落とせたような気がする
199 名前:名無しさん@お腹いっぱい。 [01/09/16 11:54] age
200 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/17 23:34] 正直言って、zsh と wget で大抵の事は出来るような気がする。 今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。
201 名前:犬板 mailto:sage [01/09/18 11:14] >>200 じゃぁここはどーやって落すの? httpだとどっかあさってに吹っ飛ばされるのだが… japanese.asian-house.com/ura/1999-10/Mintshower.html
202 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 12:10] >201 あきらめる。 んで、他のトコから落とす。
203 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:19] >201 zsh -c 'wget --referer=japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'
204 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:20] 間違えた。{01..52}ね。
205 名前:名無しさん@Emacs mailto:sage [01/09/18 23:48] refferer
206 名前:名無しさん@お腹いっぱい。 [01/09/27 05:19] for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH 210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done ハァハァ