[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

241 名前:名無しさん@お腹いっぱい。 [01/12/15 16:40]
ttp://www.ona-server.com/teenage/cream_a/aikawa_misao/
POST でしか取れないんだけど、何かいい手ない?

242 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/15 16:55]
>>241

#!/bin/bash

for i in `seq -w 013 253`; do wget -nc www.ona-server.com/teenage/cream_a/aikawa_misao/big/$i.jpg; done

243 名前:241 mailto:sage [01/12/15 16:58]
うわ、GET で取れんじゃん。
すまそ。

244 名前:Nowhereman [01/12/16 06:40]
>230 も書いてたけど、cURL がいいと思われ。

"cURL and libcurl"
ttp://curl.haxx.se/

245 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 03:48]
curl 何が旨いかイマイチ…
レクチャーしてくれよん

246 名前:Nowhereman [01/12/17 20:05]
>245
このスレ的には>10が書いてたような事が簡単に出来るからかな。

> curl -O protocol://foo.com/bar[001-100].jpg
とか。
対応してるプロトコルが多いのも嬉しいしね。

247 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 20:39]
プロトルコ

248 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/17 23:52]
トルコ風呂?

249 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/18 14:19]
wget-1.8が出てるね。
--limit-rateがあるから、仕事中にバックグラウンド
でコソーリダウソするにはいいかも(藁



250 名前:名無しさん@お腹いっぱい。 [01/12/18 18:14]
>249 1.8のrate limitationにがバグがあるからパッチ当てようne!

251 名前:249 mailto:sage [01/12/19 09:16]
>>250 サンクス!
www.mail-archive.com/wget%40sunsite.dk/msg02206.html
のことだよね。

252 名前:250 mailto:sage [01/12/19 10:01]
>251 んだす。
あと、-rと-mでReferer:が送られないという、ちょっとこのスレ的には致命的な
バグもあるので注意ね。
cvs.sunsite.dk/viewcvs.cgi/wget/src/recur.c

253 名前:名無しさん@お腹いっぱい。 [01/12/23 17:50]
ageage

254 名前:名無しさん@お腹いっぱい。 [01/12/29 09:55]
集めた画像から、画像サイズが小さいやつをrmしたいんだけど、
うまいスクリプトはないですか?

find -type d -size -20k

とかってのはあるけど、けっこうファイルサイズは大きい画像なのに
小さな画像とかってのあるよね。

255 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/29 10:29]
>254 jpegなら>238のjpeginfoでサイズがわかるよ。
jpeg以外はImageMagickのidentifyで。

256 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:16]
zsh+wgetで簡単にできるらしいぞ

ソース:
ttp://diary.imou.to/~AoiMoe/2001.12/late.html#2001.12.27_s03

257 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:32]
(´-`).。oO(釣れた)

258 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/30 17:36]
>>256
散々既出だろ

259 名前:名無しさん@お腹いっぱい。 [02/01/02 02:30]
apacheのディレクトリリスティング(て言うんだっけ?忘れた)で
表示されるようなページから落とすのはどうするの?

たとえば以下のページ
www.freewebspacehost.net/lolitadreams/pics/

単純に wget -A jpg,jpeg,gif -r とかだと、NameやLast modifiedとか
いった部分も落とそうとしてハマるんだよね・・・



260 名前:名無しさん@お腹いっぱい。 [02/01/02 02:57]
-R '?[A-Z]=[A-Z]'

261 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/04 22:35]
ええスレや
来年新人が男だけだったら、このねた
使わせてもらいます。

262 名前:名無しさん@お腹いっぱい。 [02/01/23 03:37]
かなり前に1.8.1が出てるけどwebページには何も書いてないぞage。

wgetのコマンドラインオプションについて語るスレはこちらでしょうか?
ある意味とても実用的なスレで(・∀・)イイ!

しかしスレタイトルを見る限りシェルかcurlの話題だよね…。
お前ら、他にwgetに関して語るスレがあれば教えてください。


263 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 04:03]
>262 イイんじゃないでしょうか。拙僧はwget専門です。
少し前のwget@はIPv6統合の気配が見えてもえもえでした。

264 名前:名無しさん@お腹いっぱい。 [02/01/23 10:48]

% wget -l2 -A .tex -p www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html
で、ここからリンクされてる .tex ファイルが取れてません。

.wgetrc の accept = tex,sty とかで指定してもダメだった。というか reject で指定した以外のは
全部取ってきて欲しいのですが。


265 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 12:01]
エロ画像じゃないのでやる気減退

266 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 13:22]
つーか、直接
wget www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.tex
しやがれ。

大体たった1個のTeXファイル落すためになんでそんな余計なことをする?


267 名前:名無しさん@お腹いっぱい。 [02/01/23 14:33]
エロ小説は対象外ですか?(w


268 名前:名無しさん@お腹いっぱい。 [02/01/23 14:43]
1周年かよ (w

ハラヘッタ。



269 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/23 17:30]
>>264
wget -Lr --no-parent www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html

4ldots.gif 4ldots.html 4ldots.tex
がとれましたが?




270 名前:名無しさん@お腹いっぱい。 [02/01/24 06:04]
>>265
モチベーション的にどうかと思ったが、wgetの達人がいるらしいので。

>>266
URLは1つの例。最終的にはサイト全体をゲットするのだ。

>>269
-r かぁ! なんで基本的なオプション忘れて。。サンクスコ

あと -L は使い道がないので無くなるらしい。


271 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/24 06:05]
もひとつ、、

PGFブスばっかりやん。完全にアウト。


272 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/24 06:49]
こっちのスレの1の改造じゃいかんの?
pc.2ch.net/test/read.cgi/unix/1003833552/l50


273 名前:名無しさん@お股いっぱい。 mailto:sage [02/01/29 01:13]
もう、なんか、まともにページ見る気がしない。

for I in tfc002.tripod.com/{index,g2,g3,g4,g5}.html tfc003.tripod.com/{index,g7,g8,g9}.html tfc004.tripod.com/{index,g11,g12,g13}.html tfc005.tripod.com/{index,g15}.html tfc001.tripod.com/{index,g17,g18}.html ;do wget -ml1 -T30 -A.jpg -Xspic $I ;done


274 名前:名無しさん@お腹いっぱい。 [02/02/24 17:59]
メンスあげ

275 名前:名無しさん@お腹いっぱい。 [02/02/24 19:31]
ariaじゃだめなの?

276 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/24 20:59]
ariaはコマンドラインから使いにくいしなぁ。
-d オプションが効いてないようだし。



277 名前:名無しさん@お腹いっぱい。 [02/02/24 21:29]
俺、ブラウザ(galeon)で見て気に入ったのだけ保存する派なのだが、気をつ
けないと同じディレクトリの%d*.jpgっつうファイルをどんどん上書きしちゃ
う。
「右クリック→画像を保存」で、同じ名前のファイルが保存先のディレクト
リにあったら%d*_連番.jpgとリネームして付け加えてくれると助かる。
wgetではそんな機能あるよね(ファイル名の後に連番だけど)。
いい方法無いかな。

278 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/24 21:39]
>277 拙者もgaleonを用いてござるが、聊か偏執狂で画像のタイムスタンプなどに拘る
性癖があり、「画像の場所をコピー」してwgetに喰わせてござる。galeonはlocalの
squidを経由しておる故、wgetもcacheから持ってくるようにすれば無駄なトラヒックも
生じず(゚д゚)ウマーなり。

アップローダなどに上がった画像で、ファイルネームが情報性に乏しい場合などは、
登場した板、スレ、レス番号から[board][thread][res].jpg などと変名してござる。

手間分の価値があるかどうかは拙者、断言致し兼ねる。

279 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/25 14:28]
URLの位置に保存してます。かぶること少ないし。
2chに出しやすいから神になりやすい ;-)




280 名前:名無しさん@お腹いっぱい。 [02/03/02 13:46]
えっと、ニューズグループの画像を自動ダウンロードすることはできますか?

281 名前:名無しさん@お腹いっぱい。 [02/03/02 18:09]
>280 nget.sourceforge.net/

282 名前:名無しさん@お腹いっぱい。 mailto:sage [02/03/02 18:35]
import java.io.*;
import java.net.*;
public class EroGazoLoader{
  public static void main(String[] args) throws Exception{
    for(int i=0; i<100; i++){
      URL url = new URL("www.foo.com/ero/" + i + ".jpg");
      InputStream in = url.openStream();
      FileOutputStream out = new FileOutputStream(i + ".jpg");
      byte[] buffer = new byte[1024];
      while(true){
        int length = in.read(buffer);
        if(length < 0)  break;
        out.write(buffer, 0, length);
      }
      in.close();
      out.close();
    }
    return;
  }
}


283 名前:名無しさん@お腹いっぱい。 [02/03/11 14:45]
wgetいいんだけど、くそ重いサイトからダウソしていると、
-t 0(リトライ無限)オプションを付けていても、
connection refused. とか言われていつの間にか終了してしまう。
この場合自動でリトライさせる方法ないかな?

ttp://hp.vector.co.jp/authors/VA008536/script/net/wget_bg.txt

みたいなシェルスクリプトでwgetを回していると、切れてることに気付かなくて鬱になる。

284 名前:名無しさん@お腹いっぱい。 [02/03/19 00:39]
age

285 名前:名無しさん@お腹いっぱい。 [02/04/01 18:16]
定期あげ

286 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/01 23:22]
ここに触発されて、新入社員の教育(3日連続)のシメに
某エロサイトのhtmlから直リンクを生成せよっていう課題を出した。

最初は誰もその真意を理解せずにノホホンとスクリプト組んでたが、
暇つぶしに利用法を語りだすとだんだん真剣にキーを叩くように。
時間が終わった後も、応用例や疑問点等、最初の2日間適当に流して
理解しなかった点についてもしっかりと押さえようと彼等は真剣に
質問してきた。
また、もし時間が余った場合に備えてもう2本ほどhtmlを用意してた
が、それらは彼等への自習用としてあげたら喜んで残業してスクリプト
を組んでいた。


来年もこれでやろ。


287 名前:杞憂 mailto:sage [02/04/01 23:27]
>>286
セクハラになったりしない?

288 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/01 23:43]
>>286
いい話だなァ……。

289 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/02 00:10]
>>287
新人が喜んでるならいいんだけどね。
そうでないとまずいかもね。



290 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/02 00:11]
たとえ新人が男でも。

291 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/02 00:36]
ああ確かにこういうの、男でもイヤがるひといるね。
2ちゃんねらーなら、ヤなものは無視するだけだろうが(w

292 名前:286 mailto:sage [02/04/02 01:10]
マジメな課題も用意してたんよ、糞つまらんけど半日かかる奴いくつか。
さすがに女性参加だとやらんかったけど、男ばっかで新入社員ってノリ
良いし。

んで、演習に使ったのはhtmlファイルだけで、職場自体がモロ画像を手に
入れることのできるネットワーク環境じゃないんで、「会社で作って寮か
ツレのところへ持ち込め!」ってやったら気合入れてやってたよ。
んで、さらに一人残業してた奴は
「いや、これ後30分で持っていくってインターネットやってるツレに電話
したからどうしてもやんないと!」

そいつ、今、俺の弟子やってます(笑)。

293 名前:名無しさん@お腹いっぱい。 [02/04/07 16:09]
>>286
新入社員の秀作、名作、迷作キボー

294 名前:名無しさん@お腹いっぱい。 [02/04/07 16:32]
社会人になったら>>286みたいな先輩がほしいなぁ。

295 名前:名無しさん@お腹いっぱい。 [02/04/07 17:13]
おれも新人研修やるんだけど..
新入社員に女子がいるし、人事の女にもチェックされるんだヨウ...
女性用にホモ画像サイトも用意してやるか..


296 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/07 17:44]
若い子には猫の写真とか。

297 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/07 20:54]
>>295
ホモは奥が深くて難しい。安全にショタ系にすれ。

298 名前:286 mailto:sage [02/04/08 12:25]
>>293
ちょっと前までサーバ上に名作、迷作の回答あったんだけど、弟子にUNIXの
バックアップ・リストアの実演やらかした時に消しちゃったい。
各自で保存しているらしいから、そのうちちょっと聞いてみるけど。

結構面白いのもあったんだけどね。

ただ、特に仕様らしい仕様も出さなくて、「とにかく直リンクがコマンド一発で
抜き出せればOK」だったので、そのhtmlファイル依存しまくりのスクリプト
だらけだったよ(当然か)。
でも、その某サイトは同じ格好のhtmlが数百本あるから、スクリプトを時間
かけて作成するだけの価値が彼らにはあったと信じる(笑)。

>>296
安全牌としてそのテも考えていたんだけど、スクリプトを使って大量
ダウンロードできるだけのボリュームがあるサイトを見つけられなかった。
今後の安全牌として、どこか紹介していただけるとありがたいです。


299 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/09 02:24]
>298
難易度高いけどこことか。
www.ne.jp/asahi/hobbies/kiyochan/cats/cats_frame.htm



300 名前:286 mailto:sage [02/04/09 22:58]
>299
お、まとまったサイト紹介、ありがとさんです。
細切れになってるからリンクマジメに辿るとかだと大変かも。

でも安牌にさせてもらいます。

301 名前:名無しさん@お腹いっぱい。 [02/04/14 12:36]
#!/usr/bin/perl
#
# index.pl
# ネスケで一覧するのを提案します。
# ノーチラス使えない環境の人には良いかも。
# このスレひととおりみたけどこういうのはまだ出てないみたいだったので。
# 小さくすればグロ画像もこわくないですし。
# file:/home/ero/wget/index.html とかして使用すます。
#
# 画像のたまったディレクトリで ./index.pl > side.html
# index.html として下のを用意
# body.html は無くて良い
#
#index.html
#<HTML>
#<FRAMESET COLS='20%,*'>
#<FRAME SRC='side.html' NAME='side' SCROLLING='auto'>
#<FRAME SRC='body.html' NAME='body' SCROLLING='auto'>
#</FRAMESET>
#</HTML>
#

print '<html><body>';

@_=`ls -t`; # `ls -S ` などもよろしいかと
$dir=`pwd`; # chomp してももちろん可

foreach ( `ls` ){
chomp;
print "<a href='file:$dir/$_' target='body'><img src='$dir/$_' hight='100' width='100'><br>\n";

}

print "</body></html>\n";



302 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/14 12:39]
`ls` は @_ のまちがいです。
今はじめて気がついたよ。。。

303 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/14 12:54]
Perl使わなくても、プロンプトから
ls *.jpg|sed 's/\(.*\)/<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>'>hoge.html
とする程度でいいんじゃない?

304 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/14 12:55]
しまった。こうだな。
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>%' > hoge.html

305 名前:301 mailto:sage [02/04/14 13:27]
画像の下にダウンロード元の URL 表示できるようにしたりとか、
機能拡張を予定しているので。。。
またそれがここに載せた理由です


306 名前:1 [02/04/14 19:15]
がんばれ301さん。
あげ

307 名前:名無しさん@そうだドライブへ行こう [02/04/14 20:27]
>>304
typoかな?
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="\1" height=100 width=100></a>%' > hoge.html
^^^

308 名前:307 mailto:sage [02/04/14 20:29]
ずれてる。
鬱氏。
img src のとこね。

309 名前:名無しさん@お腹いっぱい。 [02/04/14 21:09]
ぽこにゃん方式の詳細どこかにありませんか? 復元するソフト書こうと思ってるんだけど。



310 名前:名無しさん@お腹いっぱい。 [02/04/15 02:48]
>309
ぽこにゃんの仕様は公開されていませんが、作者に請求すれば手に入ります。
作者が生きていれば。

3年ほど前、そうやって作られたUNIX用の実装がありましたが配布元は死んでいました。
BBSが動いていたのには驚きました。(^_^;)マァヴ


311 名前: du -sh . が 427M mailto:301 [02/04/15 23:23]
この遊びをはじめて今日で3日。
やはりグロ画像が怖い、怖すぎる。
小さくしてもやっぱ厭だ。
だが、どうやら種類はそれほど多くないらしい、毎回同じ奴が出る。
@exceptionurls とかして、予め登録するやり方が有効かもしれない、
とコメントだらけの 2ch.pl と index.pl を覗く夜。

...abortion.mpg いります?

312 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/16 21:57]
>>1
ありがとさん。
バッチかけて大量の画像集めてみました。
FLASH集めにも使えそうですね。

しかし、ツールのせいじゃないんだけど2chて怖い画像多すぎだな。


313 名前:名無しさん@お腹いっぱい。 [02/04/23 17:40]
age

314 名前:名無しさん@お腹いっぱい。 [02/04/30 00:41]
age


315 名前:名無しさん@お腹いっぱい。 [02/04/30 01:37]
俺はこの時だけのためにzshをいれている。
もち、
ふだんtcsh,シェルスクリプトsh

316 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/30 03:19]
>315
奇遇だな、俺もだよ。

317 名前:名無しさん@お股いっぱい。 mailto:sage [02/05/02 02:19]
wget でさ 302 に反応するの止められないかな


318 名前:318 mailto:sage [02/05/02 04:15]
恥ずかしい動機でパッチ作る漏れ

319 名前:Bourne Shell 馬鹿一代 mailto:sage [02/05/09 20:45]
しごく無理矢理に。
#!/bin/sh

prefix=`echo $1 | sed 's/\[.*//'`
suffix=`echo $1 | sed 's/.*[0-9]*\]//'`
area=`echo $1 | sed 's/[^\[]*\[//' | sed 's/\].*//'`
start=`echo $area | sed "s/-.*//"`
finish=`echo $area | sed "s/.*-//"`
figure=`echo $finish | wc -c`
figure=`expr $figure - 1`

get_filename() {
num=$1
num_fig=`expr $num | wc -c`
num_fig=`expr $num_fig - 1`
zero=""

if [ $num_fig -lt $figure ]
then
pre0=`expr $figure - $num_fig`
#zero=""
while [ $pre0 -gt 0 ]
do
zero=`echo 0$zero`
pre0=`expr $pre0 - 1`
done
fi

echo $prefix$zero$num$suffix
}

while [ $start -le $finish ]
do
wget `get_filename $start`
start=`expr $start + 1`
done




320 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/13 13:26]
月イチくらいでこのスレチェキするの、実は楽しみ。
保守sage

321 名前:名無しさん@お腹いっぱい。 mailto:age [02/05/19 12:52]
age

322 名前:名無しさん@お腹いっぱい。 [02/05/19 14:25]
>309
wine Pokonyan.exe で十分。

323 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/20 04:02]
スプールディレクトリにファイルのリストを書いたファイルをぶちこむと
勝手に読みこんでwgetしてくれるデーモンがあれば便利なような気がした。

324 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/20 04:28]
>>323
それくらいチョチョイと作れよという気がした。
スクリプトで定期的に回すだけでも十分な気もした。


325 名前:323 mailto:sage [02/05/21 03:11]
#!/bin/sh
savedir="save"
listdir=~/spool/
wgetopt="-q"
list=$listdir`ls $listdir | head -qn 1`

while [ $listdir != $list ]
do
if [ -s $list ] ; then
file=`head -qn 1 $list`

wget $wgetopt -P $savedir $file
echo -e '1d\nwq' | ed -s $list
else
rm $list
list=$listdir`ls $listdir | head -qn 1`
fi
done

#回す内容だけ作ってみたが、定期的に回すやり方が分からんかった

326 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/21 11:49]
最後に自分自身をatする

327 名前:323 mailto:sage [02/05/21 18:38]
>>326 さんくす
こんなかんじでいいのかな?
echo $0 | at now + 1 minutes

328 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/22 13:12]
at使う方法もあるってだけ。
cronのほうがいいでしょ。

329 名前:名無しさん@Emacs [02/05/24 15:57]
zshで数字の場合は{00..99}とかすればいいけど
{a..z}みたいにアルファベットの場合はどうすればいいの?



330 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/24 18:14]
ruby -e '("a".."z").each{|i| puts i}' とか?
Ruby使うのは反則気味かな。


331 名前:名無しさん@XEmacs mailto:sage [02/05/24 19:29]
ていうか ruby でダウンローダ書くべし。。。


332 名前:345 [02/05/30 10:24]
susume.free-city.net/
以下のファイルがwgetでどうしても落とせません。
htmlファイルもです。
refererの設定をしてもエラーのhtmlファイルを拾ってくるだけで
目当てのファイルが落とせないのです。
ariaでやるとrefererありでもなしでも落とせました。
どうやればwgetで落とせますか?

333 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 10:43]
>>332
朝っぱらから同人誌かよ (w
さらに `-r -A jpg ' で何ごとも無く落とせるじゃ〜ないか


334 名前:その筋の人(w mailto:sage [02/05/30 10:58]
free-cityはRefererがhtmlで終わっていないとエラーになる仕様。
ディレクトリやhtmでは駄目。

335 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 11:17]
free-city、面倒だからたまに referer に落としたい画像そのもの(.jpg)を指定するけど、大丈夫だよ。

336 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 11:24]
要は指定した拡張子しか置けなくて、置けるものがRefererになっていないと駄目ということかな。

337 名前:332 [02/05/30 12:30]
こんなネタにわざわざ答えて、ありがとさん。
>>334
なるほど、free-cityはそういう仕様だったのですね。
かなり勉強になりました。
が、、
wget susume.free-city.net/ --header=Referer:susume.free-city.net/index.html
wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/index.html
wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/
wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/index.html -Ahtml,jpg
いろいろやってみましたがゲット出来ません。
ちなみにWgetのバージョンは1.4.5です。



338 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 12:50]
1.4.5 古すぎ。最近のは 1.8.1 かな?
いろいろと便利になっているよ。
昔のだと、--header='Referer: hogehoge...' とかじゃなかったかな。
最近のだと、--referer=hogehoge... だな。


339 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 12:53]
ついでに、
wget [オプション]... [URL]... だな。
wget [URL]... [オプション]... じゃなくて。
-m とか -r とか、その辺りもちゃんと調べるように。




340 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/30 12:56]
こういうことやるには、HTTP とか CGI とか Javascript とか HTML にも精通していると
困ったときに色々と助けになる。
ダウンロードばっかりしてないで、せっかくの良い機会だから RFC とかも読んでみるといい。


341 名前:332 [02/05/30 13:10]
>-m とか -r とか、その辺りもちゃんと調べるように。
wget susume.free-city.net/kako_026-050.html --header=Referer:susume.free-city.net/index.html -r -l1
などとやるとエラー二つとトップのhtmlがダウンロードできるのですが、
直接トップのみをDLしたいんです。
助言にしたがって最新バージョンをいれて試してみます。
Refererが送られないバグがあるバージョンがあったそうだが、、、






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef