[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

790 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 11:48]
wgetよりcURLの方が便利だ。

791 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 16:46]
使い方キボン.

792 名前:770 mailto:sage [04/06/25 09:06]
>789
CGIが吐くHTMLの最初の方に
<META name="ROBOTS" content="NOINDEX,NOFOLLOW">
とあり、wgetがこのタグのNOFOLLOWを理解して探索をやめてしまうから。


793 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/29 18:13]
がーん。wget って --timestamping と --no-clobber を同時指定ってできないんだ…

 「ローカルより新しいファイルならサーバからダウンロードするが
  ファイルは上書きせずに通し番号などをつけて区別して保存する」

という芸はできないのか。

794 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/30 13:09]
>>793
サーバー上のファイルと比較すべきローカルのファイルを
どれにするのが適当なのかがよくわからない、というのが原因なんだろうね。

--timestampingで更新ダウンロードした時に
スクリプトでリネーム退避しておく、という手くらいしか思いつかないや。
…wgetが更新ダウンロードしたことを検知する方法ってなんかあるっけ。
ログを書き出す設定にしてgrepする以外にあるかな?

795 名前:名無しさん@お腹いっぱい。 [04/07/04 16:58]
優秀なポマエラに質問でつ

このサイトの画像を自動で保存するにはどうすればいいでつか?
www.sweetnote.com/board/chidle/hoshiinanase/

ページの最後にCSSで隠した画像があって、
その画像にアクセスするとアクセス禁止になってしまうので
wgetだと保存できません

ちなみに、巡回ソフト対策みたいなのですが、
CSSに対応してないブラウザで見ると表示されてしまうし、
Operaでスペース押していくと画像を順番に表示していくので
CSSで隠した画像にもアクセスしてしまいます

796 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:14]
そういえば、昔作ったスクリプトには
grep -v BBLhGdTS
何ていうのが入っていたな。

797 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:18]
ん? えーと、コレは単に

……。しまった。CSS云々ってコレか。繋ぎ変えよう


798 名前:795 mailto:sage [04/07/04 17:23]
>>797
面倒なことさせてしまってすみません

FirefoxなどでCSSを無効にすると
一番下に同じサムネイルが2枚表示されていて
その下の画像のリンクにアクセスするとアクセス禁止になってしまいます



799 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:30]
う、うまく書けない。まあいいや。
えーとね、Lynxかなにかで全リンクを抽出して、grepで/images/を含む行を取り出す。
これは「1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の順番になってるので
偶数行目だけ削除するフィルタを何かで書いて(初心者が急いでるので挫折)、
そのURLリストをUserAgentがIEでrefererが当該ページなwgetで回せばいい。はず。たぶん。

800 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:10]
bbs.coolnavi.com/16627
↑のようにcookie強制する画像サイトは難しい。

801 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:36]
wget --load-cookies --save-cookies .... でOKでは。

802 名前:799 mailto:sage [04/07/04 19:13]
適当に書いてみた。LynxだとIEのフリができずアクセス解析でバレそうなのでHTMLソースをwgetして解析。
>>799の「リンクを抽出した1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の仕様が崩れるとアウト。

#/bin/sh
wget $1 -q -nv --user-agent=="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -O - |\
sed -n 's/<a href="\(..*\)" target="_blank">.*/http:\/\/www.sweetnote.com\1/p' |\
awk 'NR%2 == 1' | wget --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" \
--referer=$1 -nv -P ${2:-gazou} -i -

上記の5行をget.shとかで保存して適当に実行可能にして
$ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/
とするとカレントディレクトリにgazouディレクトリを勝手に掘って画像を保存。
(5行目の -P ${2:-gazou} を消すとデフォルトでカレントに保存するようになる)
$ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/ test
とするとカレントディレクトリの下にtestという指定ディレクトリを勝手に掘って画像を保存。

IEだと思わせてるので画像の更新はあえて見てない(毎回6ファイルを強制ダウンロード)。
鯖負荷のかけすぎで気取られないように注意。

803 名前:795 mailto:sage [04/07/04 21:35]
>>802
ありがとうございます

ダミーのリンクは最初と最後の画像だけみたいなので
偶数行を削除という発想をヒントに2行目と最後の行を削除したらいけました

sed -e '2 d' | tac | tail +2

> 仕様が崩れるとアウト。

以前は各画像のあとにコメントアウトされた
ダミーの画像がふたつずつありました

> (毎回6ファイルを強制ダウンロード)。

いつもはwgetに-xオプションをつけてダウンロードしています
あとは "`echo url | cut -d/ -f3-`" というファイルが
存在するかどうかでダウンロード済みかどうかを判断しています
URLエンコードが必要な場合は適当に処理してます

804 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 22:27]
IEでもHEAD投げてサイズを見てダウンロードするかどうかを決めるってのはやってるんじゃないかな。
別にそれでバレることはないと思うぞ(w

805 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 23:52]
>>801
いやね、>>800は半角板に張ってあったりすると、URI中のセッションIDとcookieのセッションIDが一致しないとダメなのよ。
そのサイトから直で落とすなら問題ないんだけどね。

806 名前:名無しさん@お腹いっぱい。 [04/08/14 11:43]
保守

807 名前:名無しさん@お腹いっぱい。 [04/08/22 21:52]
wget使ってdlするスクリプトを書いてるんだけど、どうもcookieの処理が上手く出来
ないんだけど、だれか解決方法知らない?

index取得時にUIDとSIDをsetされるので、imageをgetする際にその両方を送れば
いいだけなんだけど、なぜかwgetだとUIDしか送ってくれない。

808 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 11:56]
office-lady.net/office/cute/album1.html
ここの画像ってどうすればgetできますか?
wgetプロの方、おながいします。



809 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 12:28]
wget で適当な --referer を指定して、zsh で
office-lady.net/office/cute/images/img0{01..18}.jpg
あとは自分でいろいろ調べてみてください。

810 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 13:47]
>>807
指定するときにセミコロンでパラメータをセパレートするんじゃないの?
ひょっとしたらwgetの場合cookieなんかだと、複数のパラメータセットが
あった場合、全部追加されるのかもしれないけど。
#まあキャプチャすれば直ぐ判ることだが。

811 名前:名無しさん@お腹いっぱい。 [04/09/09 01:30]
保守

812 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 11:16]
>>808
こんな感じ。
wget --header=REFERER:office-lady.net/office/cute/ office-lady.net/office/cute/images/img0{01..18}.jpg

813 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 17:38:03]
>>812
--header=REFERER:と等価な--refererが最近のヤツだと使えるようになってる。
{}の展開、以前上手く動かなくて使ってないのだが、俺の勘違いだったのかな。
今度試してみよう。

814 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 20:32:43]
>>813
cshが勝手にはぎ取っているという落ちでないの?
echo {01..18}
の結果は?

815 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 22:49:45]
>>814
ああ、やっぱりシェルの展開機能なのね。
普通にsh(bash)でした。

816 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:05:16]
このスレのあちこちで、しつこく zsh って書いてあるのに…

817 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:36:51]
curlにはそういうiriaライクな構文があるよね。

818 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:48:35]
>>816
いや、zshに展開機能があるのは知ってるんだけど
wget自身にパラメータの展開機能が盛り込まれたのかと思ったんだよ。
シェルにあるような機能を取り込む必要もないのかもしれんが、
ある意味zshって特殊(スタンダードではない)だから。
まあログインシェルぐらい時々で変えれば、つう考えもあるな。



819 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:59:20]
>818
展開は shell が面倒見てその結果をアプリケーションに渡すのが Unix 的思想。

820 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 01:05:09]
>>819
んじゃ、もう一方のUnix的な思想で
展開機能のないシェルで展開させるために使うフィルタで
お勧めなのは何かある?今はawkでやってるんだけど。
(zshのスクリプトでというのは取りあえず無しで)

821 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 02:16:47]
>>820
おまえ アホ だろ.

822 名前:820 mailto:sage [04/09/11 03:06:57]
>>821
多分指摘のとおりアホなんだと思うけど、
アホ故に、どの辺りをもってしてアホなのかが判らん。
ズバっと明確に切ってくれ。

823 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 03:09:28]
zshのスクリプトでいいじゃん。
車輪の再発明はイラネ

824 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 05:25:12]
url を切り出すスクリプトと
wget を 50 個くらい平行して走らせるスクリプトだけで
オナニーするには困ってない.


825 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 06:07:50]
>>820
まったくスレ読まないで書くから外してるかもしれないけど。
curlは自前で展開してくれる。そっち使えば?

826 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/13 15:03:30]
えっと、aria は4系でも動かないの?

827 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/18 13:54:18]
もう疲れました。自分なりにwgetのオプションを色々と試してみたんですが。
ttp://bbs.coolnavi.com/16627/10674p8.の中の画像をwgetで落とすことが
できません。

どうか、先生方のお知恵をお貸しください。お願いします。


828 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:14:03]
被写体が♂だったらやったんだけどな・・・



829 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:21:56]
工エエェェ(´д`)ェェエエ工

830 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:26:40]
苺きんたまの画像をゲットした時は

#!/bin/sh
cat input |grep "v.isp.2ch.net/up/" >output
sed 's/http/ttp/' output > tmp
sed 's/ttp/http/' tmp > tmp2
sed 's/JPG/jpg/' tmp2 > tmp3
awk '
{print "wget " $1}' tmp3 >temp
chmod 700 temp
./temp
mv *.jpg images

こんな感じ。お好みでwhileして?p=1・・・p25までゲットとか。
無限roopで問題なかった。1つのcgi落とすのに10分以上かかったから。
sedが冗長な感じだが足りない頭じゃこんなものしか書けなかった。
誰かもっと簡潔な「よい見本」きぼんぬ。

831 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:30:11]
あーごめん。これじゃなかった。

#!/bin/csh
@ i = 1
while ($i <= 2)
date >>history
wget "up.isp.2ch.net/upload/c=03okari/index.cgi?"
cat "index.cgi" |grep jpg >list
awk -F\" '{print "wget -U hiroyuki v.isp.2ch.net" $2}' list >test
cat test |grep jpg >test2
chmod 770 test2
./test2
awk '{print $4}' test2 >>listtmp
sort -i listtmp |uniq >getlist
mv *.jpg jpg3
rm "index.cgi"
@ i = 1
end

こんなん。これも良い見本きぼんぬ。

832 名前:名無しさん@お腹いっぱい。 [04/10/22 13:36:38]
age

833 名前:名無しさん@お腹いっぱい。 [04/11/05 19:21:13]
保守!

834 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 19:23:59]
なんて息の長い祖レッドなんだ。

835 名前:833 mailto:sage [04/11/05 19:45:55]
見つけてしまいました、こんなスレ。今からzsh入れます!

836 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 20:09:10]
すげー。ありがとみなさん!ノシ


837 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/09 13:04:12]
このスレ21世紀の始まりから生きてるのか

838 名前:名無しさん@お腹いっぱい。 [04/11/11 21:10:37]
エロは性器を超える



839 名前:名無しさん@お腹いっぱい。 [04/11/11 21:37:36]
page11.auctions.yahoo.co.jp/jp/auction/n9933154
このダウンロードソフトって使った人います??

840 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:08:39]
wgetに画像だけ-ncの動作をするオプションを追加して使ってる。
時間の入った連番画像が主の時には、-N使うよりは動作は速いし鯖負荷も多少は減るんじゃ無いかな。
wget --no-clobber-imageで。

begin-base64 644 -
H4sIAN3lpUEAA7VXaW/bRhD9LP2KqYDakiXRJHXLMGoHkQsjTh04aYECAViK
XInbkLsEd+kDaf57Zw8dtCTXCVDBMMXZ92aPeTM7iuliAd2iBMc5fVgS2fWc
ieOdiiI6TaTMnQj2Wuvdbvcgpea7bq/ruV1vAO542vOn3sBxVx9ouxPXrbfb
7f2uFbvf9byuPwDfnw5GU7fvjPqD0WCLfXEBXW/Y9zpDaOunN4GLizqYT0Fk
WTC4m326u313Zqzf6lBvA9AFNHkuHcajlM/npKBZuCRwdARJKAL9EohysaCP
QQ7Nk0TIUDopj8I0WNCUtBRSfQnIIxVS7Ae11EwAX80D4PQErhdQmRaoALVI
EgNnELJYe4UwLUgYP4Hx3oGYA+Oy3q6pPRWU3BOQCTHYk9OV/5Qv84IyiXu7
uf01+GN29+b246wDQbPxud6+1jv862dxvHaPPgrSgQeapsr/2rnzmTVaHdjd
0Vl1K+s1qF1YXwREmedcoFEei7XLGG7fObC12JNYwj/nNjhX6Hg1cHU3mwXv
L/98M4NmXGbZ02bWZwFtm4C2VWRLQQIp4BxcHehVfCXNCG4iyylbtowCvtbj
w2KnjMpdsRvrAbGbwY3YPStXz3uN2DdsI3YPvOHUH0y9oTMcDP0dsY98rXV8
jKzSv0Ijo0XBi0anVvvt95sbfNSiLA5ETqLADMG3joUyjEekkEdah+qtY+Bz

841 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:09:17]
zlMSsi3oSqQIP6qodpfRrjJ0Au3QtLVzaLI8LAiTm6XxwFgOLy8v+ONThaAM
Fn9PIlnZeJkpJYoNXhYrLI7h8gLKFohHacckL0gUShKjXl9QSxZStqsWYz2g
FjP4o2rZsLfVMpz2Rs544hq5bKnFH0+UWtRjtK6LeBZ0yXhBuilhS5k0Opj7
QVgsy0ydNmgJgdcb27OrKGwf9Dg73oYy3l3rZq/nvmcV8wzetarZSxp7z+aI
aaEjrEO6f57RM0rChXwNb7yPl3L+pcwPUAauoqgjH/aG6siHvVHHXEW1KMRa
6I3dKX4HEESi+O7DFJqNiDOGa1E1ipeofHU1oGusdwo5xxr9BYvcyoE3VfW/
4uB5vkGDY+E+0zhLt/MfXx7vzh9GEckPzfuC7BFOORNO8lye64ED4l+P/6j+
Kw62u4Ph1HWd/mS3OxgMVDjw/9gmAN6PEMZxoIKKWjir1TDh33J1caEZlJmF
GYGVTp5+UZeWJa4P3NKoCOcpEbAKA1sCX5hbG7/jceIHqXEoQ8fefRU3Om6v
89W2vjTFsWuKkrDAm5QWWPoINivG1Se8ljHKir7eBciCkAorVTe32qoh3fAl
rCwVHGV5KYMq+FrZKvAX5FJKmordMmnNB6RiR9dC8Xvge1NV7V4llC16VSa9
seP6owpdyWTi9ZVO1MNfKcV2G6qh0F0jRq7e3tceYh4LaU9roQ4EGz/d9BkT
Am17o7qSJr5im2LY0DT4Fpyf61piW8bN1Jb1k8CLGhM5ynA+5GKq/50vG60q
3nsZT/5nQs6+D7+ki+/Cz7N8P37ruHQ7iAq9wwYXQkgpwxa14BlcfdDttYWq
zjXnGFFswSVHBBFJ+oSNsWp28d7X5V9g4uhk0xll30DkYaQ7Xj6XeB1jZyuT
gpfLBDJNb7b0RCLhZWr8zNUSCAIfqEz0V8Q8JIRhi6wcMY6tO1viUhiiSOz8
dzbtlF5rfjGbfrjsbtG3+g78c7FLNT1qJZvGOpnwv0mlui56KnMSmaWbxPlw
eXf5/iOmxHYCtdQ1pJNt30+xgxSMunlRv2yChwSbxUAHf824ur6ZWfcorTIy
9SvISKbKo+HpHzOHl3XPqVKQBQYqkhv0PqeK9S+tiE0GWw8AAA==
====

842 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/08 14:39:01]
hoshu

843 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/10 13:48:48]
ちょっと保守しますよ。

844 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/19 02:35:17]
ほっしゅっしゅ

845 名前:名無しさん@お腹いっぱい。 [04/12/26 03:27:28]
初心者です。
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg
を196まで一括で落としたいんですが。
なるべくわかりやすい方法を教えて下さい。
すみません。


846 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 03:34:13]
$ zsh
% wget -c -w 5 ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/{001..196}.jpg


847 名前:名無しさん@お腹いっぱい。 [04/12/26 03:49:49]
zsh、wgetはどこでインストールできますか?
あの・・・zsh、wgetって何ですか?
ほんとにすみません。






848 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:10:46]
www.zsh.org
www.gnu.org/software/wget/wget.html

あとは自分で調べてください。




849 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:16:58]
>>847
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/002.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/003.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/004.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/005.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/006.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/007.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/008.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/009.jpg
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/010.jpg
196まで全て手作業で作ってみたが2分40秒で出来た
メモ帳でやった
01-02-03-04-05-06-07-08-09-00
これをひとかたまりに9セットコピペ
んで数字 - ←↓(同時押し)
001-002-003
011-012-013
021-022-023

わからんのなら手作業しかあるまい、がんがれ

850 名前:名無しさん@お腹いっぱい。 [04/12/26 04:30:24]
>>848
ありがとうございます。

>>849
ありがとうございます。地道にやってみます。
ちなみに同時押しって何ですか?

851 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:46:52]
curl -O aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/[001-196].jpg

852 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:55:45]
>851
それだとシェルが展開しようとして変なことが起きるから、適当にクォートすべきだな。


853 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/03 08:02:28]
おまいら御用達のwgetの
www.st.ryukoku.ac.jp/~kjm/security/memo/2004/12.html#20041220_wget
って、まだ直ってないんでしょうか。


854 名前:名無しさん@お腹いっぱい。 [05/01/05 01:31:19]
>>853
はい。

855 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/10 20:09:44]
4周年記念日
でもsage

>>380
ttp://search.mse.co.jp/cgi-bin/ip_dom-2/ipsearch.cgi
エロサイトじゃないけど、何なのかもよく分からん。


856 名前:名無しさん@お腹いっぱい。 [05/01/29 14:47:08 ]
ttp://hp.vector.co.jp/authors/VA024337/SqTop.html

857 名前:名無しさん@お腹いっぱい。 [05/01/29 16:18:15 ]
>>856
デムパ キタ━━━━━━(゚∀゚)━━━━━━ !!!!!

858 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/30 03:32:28 ]
phpとか使われるとわけわからん。落とせん



859 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/02 12:00:08 ]
perlスクリプト使え

860 名前:名無しさん@お腹いっぱい。 [05/02/02 16:27:08 ]
( ゚д゚)ポカーン

861 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/03 05:11:11 ]
ttp://www.melon-peach.com/

ここの画像、どうにかしてぶっこ抜けませんか?

862 名前:名無しさん@お腹いっぱい。 [05/02/03 16:27:47 ]
ネトラン厨(・∀・)カエレ!!

863 名前:861 mailto:sage [05/02/06 13:01:24 ]
ネトラン厨じゃないのに・・・
(つД`)・゚・

864 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/06 19:39:21 ]
>>863
>>41,578 とか参考にならない?

865 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/07 00:09:17 ]
>>861
重杉

866 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/13 22:56:14 ]
wgetかcurlで
nylon.hostfuck.com/index01.html
の画像を落とすスクリプトを書いてください


867 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/13 23:25:32 ]
>866
ちょっとは自分で勉強することも覚えてはいかがですか。

868 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 01:00:48 ]
>>866
#!/bin/sh
wget -r -l1 "nylon.hostfuck.com/index01.html"
mkdir gazou
mv *.jpg *.bmp *.tif* *.x*m *.gif *.rgb *.psd *.eps *.wmf gazou
rm ./

無保証。





869 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 02:57:21 ]
403喰らう悪寒。-Uでしっかりと騙るのがベターかも。。。
二次元には興味なし。でも

870 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 03:59:53 ]
2次元か

871 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 17:58:19 ]
while(<>){
 m/num=([0-9]+)&type=([a-zA-Z]+)[^0-9]*([0-9]+)/ and system "wget".
  " --output-document='$3.$1.$2'".
  " --header='Cookie:num=$1;type=$2'".
  " nylon.hostfuck.com/nylon.php".
 "\n";
}

872 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 18:02:22 ]
×&
○&amp;

873 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 20:12:36 ]
Perl?

874 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 20:39:49 ]
漏れはこんなスクリプトでやってみた
for n in {28672..32767}; do
[ -f $n.jpg ] && continue
wget --header="Cookie: num=$n; type=jpg" --output-document=$n.jpg \
nylon.hostfuck.com/nylon.php
done

ほんとは連番じゃないので
ちゃんとやりたかったら番号はこんなかんじで抜き出せばいいかも
w3m -dump_source \
nylon.hostfuck.com/{,index0{1..7}.html} |\
ruby -e 'while gets; $_.sub(/image.php\?num=(\d+)/) do puts $1; end end' |\
sort | uniq

875 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 23:04:47 ]
無駄が多いな、このサイト。

876 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/16 03:26:14 ]
                 l           l
                 J           l
                           J

さわったら負けかなと思ってる。

877 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/16 19:57:30 ]
成功した?

878 名前:名無しさん@お腹いっぱい。 mailto:sage [05/03/01 08:03:13 ]
セルフプレジャー保守



879 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:44:21 ]
初心者スレから誘導されてきました。
連番のzipファイルを一気に解凍する方法はありますか?
001.zip 002.zip 003.zip
今はひとつひとつunzipしてます。既出だったらすみません。
教えてくれたら、こころを入れ替えてスクリプト勉強します。

880 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:45:58 ]
unzip {001..100}.zip

881 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:53:44 ]
for i in *.zip; do unzip $i; done
でもいいんでないかい?

882 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/05(火) 00:14:01 ]
echo *.zip | xargs -n1 unzip


883 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/05(火) 00:42:16 ]
unzip は自前でワイルドカードを処理するのでほかに zip ファイルがなければ

unzip \*.zip

でどうでしょう。

884 名前:名無しさん@お腹いっぱい。 [2005/05/30(月) 16:25:28 ]
うほ

885 名前:名無しさん@お腹いっぱい。 [2005/06/14(火) 20:55:22 ]
altemisweb.jpから落とせる方法をご存知の方、いますか?
そもそも普通にw3mとかでも開けないのですが。

たとえばttp://s1.artemisweb.jp/kto11/main.html
からいけるページなど。


886 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:12:18 ]
wget -m --cookies=on --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)"

とかじゃだめなの?




887 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:15:53 ]
>>886
UAとrefererは指定してもだめです
cookieはためしてないけど、w3mでさえページを開けないってことはcookieじゃなくて
JavaScriptが効いてないとだめなのかもしれない希ガス


888 名前:名無しさん@お腹いっぱい。 [2005/06/14(火) 21:45:27 ]
>>887
リファラ送ったら普通に落ちてきたぞ?
wget --referer="s1.artemisweb.jp/" \
s1.artemisweb.jp/kto11/room-01/main.html



889 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:52:29 ]
>>888
そうすか?
私のところでは、w3mでもwgetでも、特定のバイト数を読み込んだところで
ブロック状態になります。で、しょうがないからctrl-Cで終了させると、
IEで取得可能な全てのファイルは落とせていない。

そっからもぐってたどれる画像に関してはまったく無理です。


890 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/06/14(火) 21:53:16 ]
> IEで取得可能な全てのファイルは落とせていない。
わかりにくい言い方でした。
当然ですが割り込みで入力を停止させてるので、partialなファイルに
なっちゃってるってことです。







[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef