1 名前:たのも〜 [2001/01/10(水) 15:02] 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする ソフトやスクリプトがあれば教えてけれ。
123 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 10:45] >>122 フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」 FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「 alias wgetports 'wget --proxy=on --force-directories --no-host-directories --directory-prefix=. --cut-dirs=4 --passive-ftp --recursive --level=1 ftp://hogehoge/path/to/ports/\!*' 、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ 、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」 、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ
124 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 11:35] >>122 wgetで--no-parentを指定すれ。
125 名前:名無しさん@お腹いっぱい。 [2001/05/19(土) 15:08] 象を一気にダウンロード
126 名前:名無しさん@お腹いっぱい。 [2001/05/20(日) 13:19] 面倒くさいので wget -r www.ero.com なんですけど・・・ 56kでも2,3時間ほっとけばそれなりおちてくるし
127 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/05/20(日) 20:02] >>126 ちったー、設定しろ
128 名前:名無しさん@お腹いっぱい。 [2001/05/26(土) 05:10] age
129 名前:名無しさん@お腹いっぱい。 [2001/06/15(金) 16:24] 最近、どうよ。
130 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/07/03(火) 01:35] ICHでH画像全部消えた。 まあ、俺の心の中にバッファされてるが。
131 名前:名無しさん@お腹いっぱい。 [2001/07/03(火) 04:31] ageないの?
132 名前:名無しさん@そうだドライブへ行こう [2001/07/03(火) 04:48] perl の magical increment をつかえ。
133 名前:厨房 [2001/07/03(火) 10:40] #!/bin/sh b=10 c=1 d=Z while test $b -lt 21 do wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j pg b=`expr $b + 1` done while test $c -lt 10 do wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c. jpg c=`expr $c + 1` done
134 名前:名無しさん@お腹いっぱい。 [2001/07/05(木) 13:55] つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、 かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの を取って来て、なおかつ、連番で保存ってどおよ。
135 名前:名無しさん@お腹いっぱい。 [2001/07/06(金) 21:31] wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか? www.classicalarchives.com/bach.html 上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。
136 名前:名無しさん@お腹いっぱい。 [2001/07/07(土) 19:28] なんかwget1.7ってmakeが失敗するんだけどなんでかな。 ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。 おとなしく1.6を使ってろ、ってことかな。
137 名前:名無しさん@Emacs [2001/07/08(日) 00:49] wget1.7おれはmake出来たよ でも-kオプションってうまく働いてない気がする. ついでにSSLもうまくいかん.
138 名前:名無しさん@お腹いっぱい。 [2001/07/10(火) 00:48] とりあえずこの話題に関しては まずこのサイトを見ないと始まらないと 思われ。 ツールもそろってるし members.tripod.co.jp/casinoA1/
139 名前:名無しさん@お腹いっぱい。 [2001/08/21(火) 12:32] age
140 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 02:14] bashでときどき for i in `seq -w 0 52`; do wget ..../aaa$i.jpg; done とか while read i; do wget $i; done とかやるね。後者はMozillaからURLコピーしまくる。 こういう感じの使い捨てスクリプト書いてたけど あんまり使わなかった。標準入力からURLを入力するだけで 000〜そのURLの番号まで全取得してくれるはずなんだけど。 #!/bin/bash while read url; do if [ -z "$url" ]; then next; fi eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')' for i in `seq -w 0 ${url[1]}`; do wget ${url[0]}$i.jpg done done GNU/Linuxシステムじゃないと動かんカモ。
141 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 12:34] 集めたあとの整理はどうしてるよ? wgetとかでとってくると www9.smutserver.com/teen/sex1000/tgp/*.jpg のようにディレクトリが深くていやーん。 どうでもいいけど。
142 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 04:24] $ find . -type f -name \*.jpg -exec mv {} . \; $ rm -r */ とでもしてカレントディレクトリに移せば?
143 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 05:28] >>141 -nd つかえば? -nHでも一つ減る。
144 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 10:01] ネタはくだらないくせに妙に為になるよ、このスレ(藁
145 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 13:45] >>141 俺は URL そのままにしてるよ。 利点は * 連番系をあとで補間できる * サイトを割り出せる * 2ch で紹介しやすい :-) * そもそもユニークなファイル名を付けるのが面倒
146 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 15:16] $ mkdir symlinks $ find . -type f -name \*.jpg -exec ln -sf {} symlinks \; これはどーだ?
147 名前:sage mailto:sage [2001/08/23(木) 15:42] sage
148 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 16:33] おなにーするときはどうするんですか? find . -name '*.jpg' | xargs xv -wait 2 -random でいいですか? (藁
149 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:00] >>148 こーいうときに威力を発揮するのが仮想画面だったりするのよね. 1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え. 1600x1200 いいぜ :D # スレ的には失格なネタ
150 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:13] 俺はGQviewがお気に入り。 サムネイル画像を表示させておき、 最後は全画面表示にして逝く 下品でスマソ
151 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 02:14] tarやzipを読めるviewerってない? 微妙にスレ違いだが、inode消費が気になる....
152 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:07] キーボードで楽に使える viewer ないかな。 ノートPCなのでほとんどキーボードでやってるんだが、 画像表示だけは GQview で仕方なくトラックボールを しこしこやってる。
153 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:17] >>151 こんなのはいかが? enfle.fennel.org/
154 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/24(金) 03:53] >>153 Susie Plug-in にも対応してるんですね (・∀・)イイ!
155 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 23:39] >>152 いまだに xv を愛用しています。快適。
156 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 00:14] >>141 > 集めたあとの整理はどうしてるよ? 種類ごとにディレクトリほって、symlink してる。 めんどうだけど。 画像見ながら分類したいな。 なんかいいツールない? Nautilus か?
157 名前:152 [2001/08/25(土) 01:51] >>155 おーサンキュ。xv ってキーボードで操作できるんだ。 non-free だから今まで敬遠してたけど、使ってみよう。
158 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 02:24] >>157 最初はキーボードの操作を覚えるのがちょっと大変かもしれん。 最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。
159 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 04:44] >>158 FLMaskパッチに感動したのも懐かしいなあ。 今はもう動画ばっかりだ。 関係ないけど「璃樹無」分割って単なるsplitだったんだね。 気づく前はこれだけのためにWIN立ち上げてたYO。
160 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 10:11] どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、 HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。 今では、うちに背景画像配信サーバーが立っていたりする…
161 名前:あぼーん mailto:あぼーん [あぼーん] あぼーん
162 名前:tori [2001/08/25(土) 12:02] internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント 現在事業所の計算機をグローバルアドレスにするには、Router 使っています。このNATをルーターでは無く、Solaris で行うには どうすればいいでしょうか?
163 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 12:07] >>162 H画像を落とすためにか?
164 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:00] >>161 そのページに14個のサンプルがあるけど、そのこと? それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。
165 名前:名無しさん@Emacs [2001/08/25(土) 13:06] >>161 htmlからリンク先を抽出したいということですか?
166 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:13] q , , q /( )` q \ \___ / | q /- _ `-/ ' q (/\/ \ \ /\ q / / | ` \ q O O ) / | q `-^--'`< ' q (_.) _ ) / q `.___/` / q `-----' / q <----. __ / __ \ q <----|====O)))==) \) /==== q <----' `--' `.__,' \ q | | q \ / /\ q ______( (_ / \______/ q ,' ,-----' | q `--{__________) q
167 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:14] .................,........, ................/(........)` ................\.\___.../.| .............../-._..`-/..' ..............(/\/.\.\.../\ .............././...|.`....\ ..............O.O...)./....| ..............`-^--'`<.....' .............(_.).._..).../ ...............`.___/`..../ ................`-----'./ ...<----......__./.__...\ ...<----|====O)))==).\)./==== ...<----'....`--'.`.__,'.\ ................|........| .................\......./......./\ ............______(.(_../.\______/ .........,'..,-----'...| .........`--{__________)
168 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:15] ...................................................,........................, ................................................/(........................)` ................................................\...\___........./...| ............................................./-..._......`-/......' ..........................................(/\/...\...\........./\ ........................................../.../.........|...`............\ ..........................................O...O.........).../............| ..........................................`-^--'`<...............' .......................................(_...)......_......)........./ .............................................`...___/`............/ ................................................`-----'.../ .........<----..................__.../...__.........\ .........<----|====O)))==)...\).../==== .........<----'............`--'...`...__,'...\ ................................................|........................| ...................................................\...................../...................../\ ....................................______(...(_....../...\______/ ...........................,'......,-----'.........| ...........................`--{__________)
169 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 14:32] モナーフォント無しで見られる親切設計だ。 NetBSD デーモンかな?
170 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 00:58] 00000000000000000000000
171 名前:161 [2001/08/26(日) 01:07] >165 その通りです。 インターネットNinja(Window)らしき事を Unix系OS上(特にperl)で実現したいのです。 可能でしょうか。 >162 あなた、 Solaris教えてスレッド 其の弐 (826) の方へ書き込んだつもりでしょう。 私もその失敗、経験済みです。
172 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:14] >>171 Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、 慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。
173 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:23] grep して sed >> list して (これを何回かやって) wget -i list
174 名前:173 mailto:sage [2001/08/26(日) 01:24] ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…
175 名前:普段は エロ系 [2001/08/26(日) 01:32] 凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い で PGF 一応全タイトルと WAVファイル持ってます 1さん でも 簡単に 入手するより きっと 過程が楽しいのでしょうね 皆様 凄いわ!
176 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:44] 過程なんか楽しくねーよ。
177 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(日) 01:51] 過程 "も" 楽しい。
178 名前:普段は エロ系 [2001/08/26(日) 01:53] あ そうなの(^^;;
179 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 29:00] 「インターネットニンジャじや、一発じゃ。」 と無粋な流れを無視したコメントを残しておく。 (そして反発を買う。) ワクワク・・・・うふ。 ラブ。
180 名前:では反発 mailto:sage [2001/08/26(5) 31:00] sed で複数 html からリスト作って wget で取得の方が遥かに早いです
181 名前:180 mailto:sage [2001/08/26(5) 32:00] ていうか、書き込み時刻がめちゃくちゃだな
182 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 34:00] こここれは??
183 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 34:00] 32:00って_________?
184 名前:test mailto:sage [2001/08/26(5) 43:00] test
185 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 44:00] やっぱおかしいな
186 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26 06:02] だめ?
187 名前:名無しさん@Emacs mailto:sage [01/08/26 09:17] test
188 名前:名無しさん@Emacs [01/08/26 09:18] 自治age
189 名前:名無しさん@お腹いっぱい。 [01/08/26 11:59] 27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ ◎ ┣−-┓ |AGE| ┣−-┛ | | Λ|Λ (・∀・)イイ! ( ) | つ | (__)_)
190 名前:名無しさん@Emacs [01/08/26 13:17] perlのモジュール使ってhtmlからリンク先を抽出するのは どうやればいいんですか?
191 名前:名無しさん@お腹いっぱい。 [01/08/26 13:23] >>190 wgetでできるだろうがスカポンタン
192 名前:名無しさん@お腹いっぱい。 [01/08/26 13:28] やり方はいろいろあると思うが HTML::Parser モジュールを使うと XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A> の XXXXX の部分を抜きだせるはず
193 名前:名無しさん@Emacs [01/08/26 13:33] >>191 wgetで出来るとは知りませんでした。調べてみます。 再帰転送のことではないですよね?
194 名前:名無しさん@お腹いっぱい。 mailto:age [01/08/26 15:10] httpgetというスクリプトがあって、 それで再帰的にリンク先のファイルを取得できるみたいよ。 まあwgetでいいわけだけど。 参考にしてみれば?
195 名前:名無しさん@Emacs [01/08/26 16:38] >>194 httpget取って来て見てみました。 確かにリンクを抜き出す関数がありました。感謝です。
196 名前: [01/09/05 22:02 ID:ssMW8tkM]
197 名前:名無しさん@お腹いっぱい。 [01/09/06 07:42 ID:t/5EHQk.] rtsp://hoge.hoge/stream.rm のストリーミングビデオを ファイルに落とすのはどうすればいい?
198 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/06 12:12 ID:RQop.hqE] >>197 http で落とせたような気がする
199 名前:名無しさん@お腹いっぱい。 [01/09/16 11:54] age
200 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/17 23:34] 正直言って、zsh と wget で大抵の事は出来るような気がする。 今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。
201 名前:犬板 mailto:sage [01/09/18 11:14] >>200 じゃぁここはどーやって落すの? httpだとどっかあさってに吹っ飛ばされるのだが… japanese.asian-house.com/ura/1999-10/Mintshower.html
202 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 12:10] >201 あきらめる。 んで、他のトコから落とす。
203 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:19] >201 zsh -c 'wget --referer=japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'
204 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:20] 間違えた。{01..52}ね。
205 名前:名無しさん@Emacs mailto:sage [01/09/18 23:48] refferer
206 名前:名無しさん@お腹いっぱい。 [01/09/27 05:19] for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH 210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done ハァハァ
207 名前:名無しさん@お腹いっぱい。 [01/09/27 22:36] bash$ for n in `seq -f %02g 8 12` bash$ do bash$ echo ero$n.jpg bash$ done ero08.jpg ero09.jpg ero10.jpg ero11.jpg ero12.jpg こんなんどう?
208 名前:名無しさん@Emacs [01/10/04 01:10] >>207 140で既出
209 名前:1 [01/10/04 01:41] このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。 一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを 考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの 問題などが考えられると思います。皆様のお知恵を拝借したいと思います。 #!/bin/sh for i in *.dir do cd /home/username/urabon/$i cat list | xargs wget done
210 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/04 18:04] >>209 フォルダーと言ってしまったな...
211 名前:1 mailto:sage [01/10/05 00:59] >>210 ばればれ? by Kyon2
212 名前:名無しさん@お腹いっぱい。 [01/10/05 01:21] $ lftp www.iy-n.org lftp> get *.jpg ってのがまだないな。
213 名前:(゚o゚) [01/10/05 01:59] このサイトはみなさんのインターネット環境の スピードを計ってくれます。また、遅いと思う 人は設定を少し変えることによって無料で スピードを早くすることができます。 お金を出す前に一度試してみては いかがでしょうか。上がりの計測も可能です。 cym10262.omosiro.com/
214 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/05 22:28] >>209 >サイトが変わるとrefererの問題などが考えられると思います。 1さんお帰りなさい。 referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。 reget, getright, iria 等のリストが読み込めると嬉しいっす。
215 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/05 22:41] >>212 でlftpの威力をはじめて知った。
216 名前:名無しさん@お腹いっぱい。 [01/10/13 09:46] 定期age
217 名前:名無しさん@Emacs mailto:sage [01/10/18 07:14] 破損jpegの検索とかできない?
218 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/18 07:59] >217 i) ImageMagick $ identiry broken.jpg identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory]. broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01 ii) libjpeg $ djpeg broken.jpg >/dev/null Premature end of JPEG file nonzero statusで死ぬ分djpegの方が便利かも。
219 名前:名無しさん@Emacs mailto:sage [01/10/19 02:22] >218 サンキュ for I ;do for J in `find "$I" -iname \*.jpg` ;do djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J" done done
220 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/24 01:13] djpeg 使うのなら、jpegtran も便利。それなりに修復してくれる。 for i in *.jpg; do jpegtran $i > h || mv -v h $i done
221 名前:名無しさん@お腹いっぱい。 [01/10/29 21:15] メンテナンスあげ
222 名前:名無しさん@お腹いっぱい。 [01/11/16 02:31] メンス?
223 名前:名無しさん@お腹いっぱい。 [01/11/18 02:43] WinMXで落とした.zipに入っている.jpgを、展開せずに簡単に 見られる方法ない? 日本語ファイル名対応なやつ。