[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

101 名前:99@お腹いっぱい。 mailto:sage [2001/02/28(水) 11:30]
>>100
Iriaで展開できない名前の時のみ使ってるですよ。

102 名前:100 [2001/02/28(水) 19:08]
>101
そんなのあるの?

103 名前:101 [2001/02/28(水) 21:49]
盂蘭盆サイトとか…、Iriaのお約束を知らない土人詩サイトとか…。

104 名前:名無しさん@お腹いっぱい。 [2001/04/20(金) 00:23]
あげ

105 名前:名無しさん@お腹いっぱい。 [2001/04/20(金) 00:27]
14歳です。長さ太さこの年齢でどうですか?評価お願いします。

216.101.214.102/souko/pic_post3/image/1172.jpg




106 名前:名無しさん@お腹いっぱい。 [2001/04/20(金) 06:15]
>>105
まあ普通ってとこだろう。
しかし毛がずいぶんとひ弱な感じだな。
つかお前のふとももには毛が生えてないのか?

107 名前:名無しさん@お腹いっぱい。 [2001/04/20(金) 16:09]
gtmを使う私は軟弱もの。
toolメニューに連番機能があります。numeric downloadね。

gtm.sourceforge.net/

108 名前:名無しさん@お腹いっぱい。 [2001/04/22(日) 00:05]
aria 使えば?

109 名前:名無しさん@Emacs [2001/04/22(日) 23:06]
wgetで
www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
このページうまく落とすことが出来ますか?
なぜかimage/comp_angle1.jpgからimage/comp_angle6.jpgがうまく落とせないのですけど・・・



110 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/04/22(日) 23:58]
>>109
# wget www.lares.dti.ne.jp/~lupan/pk/image/comp_angle1.jpg
--23:55:15-- www.lares.dti.ne.jp/%7Elupan/pk/image/comp_angle1.jpg
=> `comp_angle1.jpg'
www.lares.dti.ne.jp:80 に接続しています... 接続しました!
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 18,463 [image/jpeg]

0K -> .......... ........ [100%]

23:55:19 (6.53 KB/s) - `comp_angle1.jpg' を保存しました [18463/18463]


111 名前:名無しさん@Emacs [2001/04/23(月) 00:08]
>>110
いやいや直接jpgをurlに指定するのでは無くたとえば
wget -r -l2 www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
とかでjpgファイルも一緒に落としてくれるとおもったんだけど・・・

112 名前:名無しさん@お腹いっぱい。 [2001/04/23(月) 20:01]
覚書。
wget --header=REFERER: "www.hogehoge.com/index.html" www.hogehoge.com/ero.jpg
wget -r -A .jpg www.hugohugo.com/gallary/hoge.html

113 名前:名無しさん@Emacs [2001/04/23(月) 23:38]
いやいや
wget -r -l1 www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
wget -r -l1 www.lares.dti.ne.jp/~lupan/pk/photoexpo99.html
この2つで
photoexpo99.htmlはjpgファイルを落としてくれるけど
comp_angle.htmlはjpgファイルを落としてくれないのです.--referer=設定してもだめ
<IMG SRC="...">のタグは落としてくれるけど<IMAGE SRC="...">のタグは落とせないのでしょうか?

もしかして私はとんでもない勘違いをしてる?

114 名前:名無しさん@お腹いっぱい。 [2001/04/24(火) 09:21]
>>113
<IMAGE> ってなんだ?


115 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/04/24(火) 10:07]
IMGSRC はね、キャッスル.jp.FreeBSD.ORGがあるデザイン会社
ですね。おとしたらMLが配送されなくてこまります。

116 名前:名無しさん@Emacs [2001/04/24(火) 17:10]
結局html.cのhtmlfindurl()に{ "image", "src" }を追加する事により
解決した.

117 名前:名無しさん@お腹いっぱい。 [2001/05/04(金) 12:25]
挙げ

118 名前:なまえをいれてください [2001/05/04(金) 23:09]
普通にcshで
wget http.../ecchi{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
でできるんだけど…。
うちのcshってふつうじゃないんだろか???
たまにはこんなこともする。
echo wget http.../ecchi{"{0,2,4,6,8}","{1,3,5,7,9}"}.jpg\ \& | csh
極悪?

119 名前:もしもの為の名無しさん [2001/05/07(月) 10:38]
【1】何分だいぶ昔に作ったものをまだ使っていて
可変数引数を使っていないあたりが当時の厨房ぶりの象徴ですが、
printf() の引数フォーマットをそのまま使えていろいろ使えます。それを
(1)例えば【2】みたいなんで落としてネスケで開いてページを編集→保存とか、
(2)同様に wget を使ったスクリプトを吐き出して勝手に落としてもらうか
と、そんな感じで私はやっておりますが。
※to ってコマンドが【1】をコンパイルしたもの。

【1】
#include <stdio.h>
#include <stdlib.h>
#include <string.h>

main(argc,argv)
int argc;
char *argv[];
{
int i,start,end,tmp,st;
char form[1024];

if(argc < 3){
printf("Usage: %s start end [\"format\"]\n",argv[0]);
exit(-1);
}

start = atoi(argv[1]);
end = atoi(argv[2]);
if(start < end)
st = 1;
else
st = -1;

if(argc > 3)
sprintf(form,"%s\n",argv[3]);
else
sprintf(form,"%sd\n","%");

for(i=start;i*st<=st*end;i+=st)
printf(form,i,i,i,i,i,i,i,i,i,i,i,i);

exit(0);
}

【2】
#!/bin/csh -f

foreach i (01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22)
to 1 50 '<img src="making001.japannudes.net/jgirl'"$i"'/%03d.jpg" width=64 heisht=48>'
end




120 名前:名無しさん@お腹いっぱい。 [2001/05/07(月) 15:24]
なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.



121 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 04:15]
あげ

122 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 08:21]
あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな?
先輩方、よろしくお願いします。

123 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 10:45]
>>122
フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
ftp://hogehoge/path/to/ports/\!*'
、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ
、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ

124 名前:名無しさん@お腹いっぱい。 [2001/05/18(金) 11:35]
>>122
wgetで--no-parentを指定すれ。

125 名前:名無しさん@お腹いっぱい。 [2001/05/19(土) 15:08]
象を一気にダウンロード

126 名前:名無しさん@お腹いっぱい。 [2001/05/20(日) 13:19]
面倒くさいので
wget -r www.ero.com なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし

127 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/05/20(日) 20:02]
>>126
ちったー、設定しろ


128 名前:名無しさん@お腹いっぱい。 [2001/05/26(土) 05:10]
age


129 名前:名無しさん@お腹いっぱい。 [2001/06/15(金) 16:24]
最近、どうよ。



130 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/07/03(火) 01:35]
ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。

131 名前:名無しさん@お腹いっぱい。 [2001/07/03(火) 04:31]
ageないの?

132 名前:名無しさん@そうだドライブへ行こう [2001/07/03(火) 04:48]
perl の magical increment をつかえ。

133 名前:厨房 [2001/07/03(火) 10:40]
#!/bin/sh
b=10
c=1
d=Z

while test $b -lt 21
do
wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget 210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c.
jpg
c=`expr $c + 1`
done

134 名前:名無しさん@お腹いっぱい。 [2001/07/05(木) 13:55]
つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。

135 名前:名無しさん@お腹いっぱい。 [2001/07/06(金) 21:31]
wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
www.classicalarchives.com/bach.html

上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。

136 名前:名無しさん@お腹いっぱい。 [2001/07/07(土) 19:28]
なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。

137 名前:名無しさん@Emacs [2001/07/08(日) 00:49]
wget1.7おれはmake出来たよ

でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.

138 名前:名無しさん@お腹いっぱい。 [2001/07/10(火) 00:48]
とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
members.tripod.co.jp/casinoA1/

139 名前:名無しさん@お腹いっぱい。 [2001/08/21(火) 12:32]
age



140 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 02:14]
bashでときどき
for i in `seq -w 0 52`; do wget ..../aaa$i.jpg; done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。

こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000〜そのURLの番号まで全取得してくれるはずなんだけど。

#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done

GNU/Linuxシステムじゃないと動かんカモ。

141 名前:名無しさん@お腹いっぱい。 [2001/08/22(水) 12:34]

集めたあとの整理はどうしてるよ?

wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。

どうでもいいけど。

142 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 04:24]
$ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */

とでもしてカレントディレクトリに移せば?

143 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 05:28]
>>141
-nd つかえば?
-nHでも一つ減る。

144 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 10:01]
ネタはくだらないくせに妙に為になるよ、このスレ(藁

145 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 13:45]
>>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒

146 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 15:16]
$ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;

これはどーだ?

147 名前:sage mailto:sage [2001/08/23(木) 15:42]
sage

148 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 16:33]
おなにーするときはどうするんですか?

find . -name '*.jpg' | xargs xv -wait 2 -random

でいいですか? (藁

149 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:00]
>>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え.

1600x1200 いいぜ :D

# スレ的には失格なネタ



150 名前:名無しさん@お腹いっぱい。 [2001/08/23(木) 17:13]
俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ

151 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 02:14]
tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....

152 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:07]
キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。

153 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 03:17]
>>151
こんなのはいかが?
enfle.fennel.org/

154 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/24(金) 03:53]
>>153

Susie Plug-in にも対応してるんですね
(・∀・)イイ!

155 名前:名無しさん@お腹いっぱい。 [2001/08/24(金) 23:39]
>>152
いまだに xv を愛用しています。快適。

156 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 00:14]
>>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。

画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?

157 名前:152 [2001/08/25(土) 01:51]
>>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。

158 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 02:24]
>>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。

159 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 04:44]
>>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。

関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。



160 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 10:11]
どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。

今では、うちに背景画像配信サーバーが立っていたりする…

161 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

162 名前:tori [2001/08/25(土) 12:02]
internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?

163 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 12:07]
>>162
H画像を落とすためにか?

164 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:00]
>>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。

165 名前:名無しさん@Emacs [2001/08/25(土) 13:06]
>>161
htmlからリンク先を抽出したいということですか?

166 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:13]
q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q

167 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:14]
.................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)

168 名前:名無しさん@お腹いっぱい。 [2001/08/25(土) 13:15]
...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)

169 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/25(土) 14:32]
モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?



170 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 00:58]
00000000000000000000000

171 名前:161 [2001/08/26(日) 01:07]
>165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。


>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。

私もその失敗、経験済みです。

172 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:14]
>>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。

173 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:23]
grep して sed >> list して (これを何回かやって) wget -i list

174 名前:173 mailto:sage [2001/08/26(日) 01:24]
ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…

175 名前:普段は エロ系 [2001/08/26(日) 01:32]
凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!

176 名前:名無しさん@お腹いっぱい。 [2001/08/26(日) 01:44]
過程なんか楽しくねーよ。

177 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(日) 01:51]
過程 "も" 楽しい。

178 名前:普段は エロ系 [2001/08/26(日) 01:53]
あ そうなの(^^;;

179 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 29:00]
「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。

(そして反発を買う。)  ワクワク・・・・うふ。





                                           ラブ。



180 名前:では反発 mailto:sage [2001/08/26(5) 31:00]
sed で複数 html からリスト作って wget で取得の方が遥かに早いです

181 名前:180 mailto:sage [2001/08/26(5) 32:00]
ていうか、書き込み時刻がめちゃくちゃだな

182 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 34:00]
こここれは??

183 名前:名無しさん@お腹いっぱい。 [2001/08/26(5) 34:00]
32:00って_________?

184 名前:test mailto:sage [2001/08/26(5) 43:00]
test

185 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26(5) 44:00]
やっぱおかしいな

186 名前:名無しさん@お腹いっぱい。 mailto:sage [2001/08/26 06:02]
だめ?

187 名前:名無しさん@Emacs mailto:sage [01/08/26 09:17]
test

188 名前:名無しさん@Emacs [01/08/26 09:18]
自治age

189 名前:名無しさん@お腹いっぱい。 [01/08/26 11:59]
27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
  ◎
  ┣−-┓
  |AGE|
  ┣−-┛
  |
  |
 Λ|Λ
(・∀・)イイ!
(    )
|  つ |
(__)_)



190 名前:名無しさん@Emacs [01/08/26 13:17]
perlのモジュール使ってhtmlからリンク先を抽出するのは
どうやればいいんですか?

191 名前:名無しさん@お腹いっぱい。 [01/08/26 13:23]
>>190
wgetでできるだろうがスカポンタン

192 名前:名無しさん@お腹いっぱい。 [01/08/26 13:28]
やり方はいろいろあると思うが HTML::Parser モジュールを使うと
XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A>
の XXXXX の部分を抜きだせるはず

193 名前:名無しさん@Emacs [01/08/26 13:33]
>>191
wgetで出来るとは知りませんでした。調べてみます。
再帰転送のことではないですよね?

194 名前:名無しさん@お腹いっぱい。 mailto:age [01/08/26 15:10]
httpgetというスクリプトがあって、
それで再帰的にリンク先のファイルを取得できるみたいよ。
まあwgetでいいわけだけど。
参考にしてみれば?

195 名前:名無しさん@Emacs [01/08/26 16:38]
>>194
httpget取って来て見てみました。
確かにリンクを抜き出す関数がありました。感謝です。

196 名前: [01/09/05 22:02 ID:ssMW8tkM]


197 名前:名無しさん@お腹いっぱい。 [01/09/06 07:42 ID:t/5EHQk.]
rtsp://hoge.hoge/stream.rm のストリーミングビデオを
ファイルに落とすのはどうすればいい?

198 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/06 12:12 ID:RQop.hqE]
>>197
http で落とせたような気がする

199 名前:名無しさん@お腹いっぱい。 [01/09/16 11:54]
age



200 名前:名無しさん@お腹いっぱい。 mailto:sage [01/09/17 23:34]
正直言って、zsh と wget で大抵の事は出来るような気がする。
今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef