[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

123 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 10:45]
>>122
フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
ftp://hogehoge/path/to/ports/\!*'
、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ
、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ

124 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 11:35]
>>122
wgetで--no-parentを指定すれ。

125 名前:名無しさん@お腹いっぱい。 [2001/05/19(土) 15:08]
象を一気にダウンロード

126 名前:名無しさん@お腹いっぱい。 [2001/05/20(日) 13:19]
面倒くさいので
wget -r www.ero.com なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし

127 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/05/20(日) 20:02]
>>126
ちったー、設定しろ


128 名前:名無しさん@お腹いっぱい。 [2001/05/26(土) 05:10]
age


129 名前:名無しさん@お腹いっぱい。 [2001/06/15(金) 16:24]
最近、どうよ。

130 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/07/03(火) 01:35]
ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。

131 名前:名無しさん@お腹いっぱい。 [2001/07/03(火) 04:31]
ageないの?



132 名前:名無しさん@そうだドライブへ行こう [2001/07/03(火) 04:48]
perl の magical increment をつかえ。

133 名前:厨房 [2001/07/03(火) 10:40]
#!/bin/sh
b=10
c=1
d=Z

while test $b -lt 21
do
wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c.
jpg
c=`expr $c + 1`
done

134 名前:名無しさん@お腹いっぱい。 [2001/07/05(木) 13:55]
つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。

135 名前:名無しさん@お腹いっぱい。 [2001/07/06(金) 21:31]
wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
www.classicalarchives.com/bach.html

上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。

136 名前:名無しさん@お腹いっぱい。 [2001/07/07(土) 19:28]
なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。

137 名前:名無しさん@Emacs [2001/07/08(日) 00:49]
wget1.7おれはmake出来たよ

でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.

138 名前:名無しさん@お腹いっぱい。 [2001/07/10(火) 00:48]
とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
members.tripod.co.jp/casinoA1/

139 名前:名無しさん@お腹いっぱい。 [2001/08/21(火) 12:32]
age

140 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 02:14]
bashでときどき
for i in `seq -w 0 52`; do wget ..../aaa$i.jpg; done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。

こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000〜そのURLの番号まで全取得してくれるはずなんだけど。

#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done

GNU/Linuxシステムじゃないと動かんカモ。

141 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 12:34]

集めたあとの整理はどうしてるよ?

wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。

どうでもいいけど。



142 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 04:24]
$ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */

とでもしてカレントディレクトリに移せば?

143 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 05:28]
>>141
-nd つかえば?
-nHでも一つ減る。

144 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 10:01]
ネタはくだらないくせに妙に為になるよ、このスレ(藁

145 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 13:45]
>>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒

146 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 15:16]
$ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;

これはどーだ?

147 名前:sage mailto:sage [2001/08/23(木) 15:42]
sage

148 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 16:33]
おなにーするときはどうするんですか?

find . -name '*.jpg' | xargs xv -wait 2 -random

でいいですか? (藁

149 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:00]
>>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え.

1600x1200 いいぜ :D

# スレ的には失格なネタ

150 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:13]
俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ

151 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 02:14]
tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....



152 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:07]
キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。

153 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:17]
>>151
こんなのはいかが?
enfle.fennel.org/

154 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/24(金) 03:53]
>>153

Susie Plug-in にも対応してるんですね
(・∀・)イイ!

155 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 23:39]
>>152
いまだに xv を愛用しています。快適。

156 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 00:14]
>>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。

画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?

157 名前:152 [2001/08/25(土) 01:51]
>>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。

158 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 02:24]
>>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。

159 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 04:44]
>>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。

関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。

160 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 10:11]
どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。

今では、うちに背景画像配信サーバーが立っていたりする…

161 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん



162 名前:tori [2001/08/25(土) 12:02]
internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?

163 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 12:07]
>>162
H画像を落とすためにか?

164 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:00]
>>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。

165 名前:名無しさん@Emacs [2001/08/25(土) 13:06]
>>161
htmlからリンク先を抽出したいということですか?

166 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:13]
q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q

167 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:14]
.................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)

168 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:15]
...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)

169 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 14:32]
モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?

170 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 00:58]
00000000000000000000000

171 名前:161 [2001/08/26(日) 01:07]
>165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。


>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。

私もその失敗、経験済みです。



172 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:14]
>>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。

173 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:23]
grep して sed >> list して (これを何回かやって) wget -i list

174 名前:173 mailto:sage [2001/08/26(日) 01:24]
ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…

175 名前:普段は エロ系 [2001/08/26(日) 01:32]
凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!

176 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:44]
過程なんか楽しくねーよ。

177 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(日) 01:51]
過程 "も" 楽しい。

178 名前:普段は エロ系 [2001/08/26(日) 01:53]
あ そうなの(^^;;

179 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 29:00]
「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。

(そして反発を買う。)  ワクワク・・・・うふ。





                                           ラブ。

180 名前:では反発 mailto:sage [2001/08/26(5) 31:00]
sed で複数 html からリスト作って wget で取得の方が遥かに早いです

181 名前:180 mailto:sage [2001/08/26(5) 32:00]
ていうか、書き込み時刻がめちゃくちゃだな



182 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 34:00]
こここれは??

183 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 34:00]
32:00って_________?

184 名前:test mailto:sage [2001/08/26(5) 43:00]
test

185 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 44:00]
やっぱおかしいな

186 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26 06:02]
だめ?

187 名前:名無しさん@Emacs mailto:sage [01/08/26 09:17]
test

188 名前:名無しさん@Emacs [01/08/26 09:18]
自治age

189 名前:名無しさん@お腹いっぱい。 [01/08/26 11:59]
27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
  ◎
  ┣−-┓
  |AGE|
  ┣−-┛
  |
  |
 Λ|Λ
(・∀・)イイ!
(    )
|  つ |
(__)_)

190 名前:名無しさん@Emacs [01/08/26 13:17]
perlのモジュール使ってhtmlからリンク先を抽出するのは
どうやればいいんですか?

191 名前:名無しさん@お腹いっぱい。 [01/08/26 13:23]
>>190
wgetでできるだろうがスカポンタン



192 名前:名無しさん@お腹いっぱい。 [01/08/26 13:28]
やり方はいろいろあると思うが HTML::Parser モジュールを使うと
XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A>
の XXXXX の部分を抜きだせるはず

193 名前:名無しさん@Emacs [01/08/26 13:33]
>>191
wgetで出来るとは知りませんでした。調べてみます。
再帰転送のことではないですよね?

194 名前:名無しさん@お腹いっぱい。 mailto:age [01/08/26 15:10]
httpgetというスクリプトがあって、
それで再帰的にリンク先のファイルを取得できるみたいよ。
まあwgetでいいわけだけど。
参考にしてみれば?

195 名前:名無しさん@Emacs [01/08/26 16:38]
>>194
httpget取って来て見てみました。
確かにリンクを抜き出す関数がありました。感謝です。

196 名前: [01/09/05 22:02 ID:ssMW8tkM]


197 名前:名無しさん@お腹いっぱい。 [01/09/06 07:42 ID:t/5EHQk.]
rtsp://hoge.hoge/stream.rm のストリーミングビデオを
ファイルに落とすのはどうすればいい?

198 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/06 12:12 ID:RQop.hqE]
>>197
http で落とせたような気がする

199 名前:名無しさん@お腹いっぱい。 [01/09/16 11:54]
age

200 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/17 23:34]
正直言って、zsh と wget で大抵の事は出来るような気がする。
今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。

201 名前:犬板 mailto:sage [01/09/18 11:14]
>>200

じゃぁここはどーやって落すの?
httpだとどっかあさってに吹っ飛ばされるのだが…

japanese.asian-house.com/ura/1999-10/Mintshower.html



202 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 12:10]
>201
あきらめる。
んで、他のトコから落とす。

203 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:19]
>201 zsh -c 'wget --referer=japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'

204 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/18 18:20]
間違えた。{01..52}ね。

205 名前:名無しさん@Emacs mailto:sage [01/09/18 23:48]
refferer

206 名前:名無しさん@お腹いっぱい。 [01/09/27 05:19]
for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH 210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done
ハァハァ

207 名前:名無しさん@お腹いっぱい。 [01/09/27 22:36]
bash$ for n in `seq -f %02g 8 12`
bash$ do
bash$ echo ero$n.jpg
bash$ done

ero08.jpg
ero09.jpg
ero10.jpg
ero11.jpg
ero12.jpg

こんなんどう?

208 名前:名無しさん@Emacs [01/10/04 01:10]
>>207

140で既出

209 名前:1 [01/10/04 01:41]
このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。
一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを
考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ
トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの
問題などが考えられると思います。皆様のお知恵を拝借したいと思います。

#!/bin/sh
for i in *.dir
do
cd /home/username/urabon/$i
cat list | xargs wget
done

210 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/04 18:04]
>>209
フォルダーと言ってしまったな...

211 名前:1 mailto:sage [01/10/05 00:59]
>>210
ばればれ? by Kyon2



212 名前:名無しさん@お腹いっぱい。 [01/10/05 01:21]
$ lftp www.iy-n.org
lftp> get *.jpg

ってのがまだないな。

213 名前:(゚o゚) [01/10/05 01:59]
このサイトはみなさんのインターネット環境の
スピードを計ってくれます。また、遅いと思う
人は設定を少し変えることによって無料で
スピードを早くすることができます。
お金を出す前に一度試してみては
いかがでしょうか。上がりの計測も可能です。

cym10262.omosiro.com/

214 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/05 22:28]
>>209
>サイトが変わるとrefererの問題などが考えられると思います。

1さんお帰りなさい。

referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。
reget, getright, iria 等のリストが読み込めると嬉しいっす。

215 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/05 22:41]
>>212
でlftpの威力をはじめて知った。

216 名前:名無しさん@お腹いっぱい。 [01/10/13 09:46]
定期age

217 名前:名無しさん@Emacs mailto:sage [01/10/18 07:14]
破損jpegの検索とかできない?

218 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/18 07:59]
>217
i) ImageMagick
$ identiry broken.jpg
identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory].
broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01

ii) libjpeg
$ djpeg broken.jpg >/dev/null
Premature end of JPEG file

nonzero statusで死ぬ分djpegの方が便利かも。

219 名前:名無しさん@Emacs mailto:sage [01/10/19 02:22]
>218 サンキュ

for I ;do
for J in `find "$I" -iname \*.jpg` ;do
djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J"
done
done

220 名前:名無しさん@お腹いっぱい。 mailto:sage [01/10/24 01:13]
djpeg 使うのなら、jpegtran も便利。それなりに修復してくれる。

for i in *.jpg; do
jpegtran $i > h || mv -v h $i
done

221 名前:名無しさん@お腹いっぱい。 [01/10/29 21:15]
メンテナンスあげ



222 名前:名無しさん@お腹いっぱい。 [01/11/16 02:31]
メンス?

223 名前:名無しさん@お腹いっぱい。 [01/11/18 02:43]
WinMXで落とした.zipに入っている.jpgを、展開せずに簡単に
見られる方法ない? 日本語ファイル名対応なやつ。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef