1 名前:たのも〜 [2001/01/10(水) 15:02] 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする ソフトやスクリプトがあれば教えてけれ。
785 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/22 18:18] >>782-783 漏れも画像のダウンロードができなかった -m -l1オプションでもダメだった % wget --version GNU Wget 1.8.2 wget 1.9は~の処理が変わったので使ってない
786 名前:782 mailto:sage [04/06/22 18:33] でも、infoseek.co.jp にあるのも candybox.to にあるのも x-beat.com にあるのも駄目。指定ファイルしか落ちてこない。 Webブラウザでは普通に見れるし… --recursive とかもこのサイトに効かないんだよなあ。 $ wget -nv --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi 18:15:34 URL:www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi [28106] -> "www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi" [1] 終了しました --18:15:34-- ダウンロード: 28,106 バイト(ファイル数 1) $ wget --version GNU Wget 1.8.1 Windows版。 >wget -nv --page-requisites www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi 18:15:20 URL:www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi [28106] -> "www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi" [1] FINISHED --18:15:20-- Downloaded: 28,106 bytes in 1 files >wget --version GNU Wget 1.9.1 なんででしょね?
787 名前:770 mailto:sage [04/06/22 21:39] >781 おお。スマートだし。自分が恥ずかしくなってきた。 でもこれ、サムネールとか広告まで保存しちゃいますね。 保存先も深くなっちゃうし。
788 名前:770 mailto:sage [04/06/23 05:05] >782 wget --page-requisites --follow-tags=IMG でいけました。 あと自己レスなんですが wget -r -A.jpg -nd -np -I 1 -H --ignore-tags=img -P dir でやりたかった通りに出来ました。
789 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 10:56] >>788 でもあんま根本的な原因究明にはなってないな(w 解析が難しいHTMLの書き方にでもなってるのか?
790 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 11:48] wgetよりcURLの方が便利だ。
791 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/23 16:46] 使い方キボン.
792 名前:770 mailto:sage [04/06/25 09:06] >789 CGIが吐くHTMLの最初の方に <META name="ROBOTS" content="NOINDEX,NOFOLLOW"> とあり、wgetがこのタグのNOFOLLOWを理解して探索をやめてしまうから。
793 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/29 18:13] がーん。wget って --timestamping と --no-clobber を同時指定ってできないんだ… 「ローカルより新しいファイルならサーバからダウンロードするが ファイルは上書きせずに通し番号などをつけて区別して保存する」 という芸はできないのか。
794 名前:名無しさん@お腹いっぱい。 mailto:sage [04/06/30 13:09] >>793 サーバー上のファイルと比較すべきローカルのファイルを どれにするのが適当なのかがよくわからない、というのが原因なんだろうね。 --timestampingで更新ダウンロードした時に スクリプトでリネーム退避しておく、という手くらいしか思いつかないや。 …wgetが更新ダウンロードしたことを検知する方法ってなんかあるっけ。 ログを書き出す設定にしてgrepする以外にあるかな?
795 名前:名無しさん@お腹いっぱい。 [04/07/04 16:58] 優秀なポマエラに質問でつ このサイトの画像を自動で保存するにはどうすればいいでつか? www.sweetnote.com/board/chidle/hoshiinanase/ ページの最後にCSSで隠した画像があって、 その画像にアクセスするとアクセス禁止になってしまうので wgetだと保存できません ちなみに、巡回ソフト対策みたいなのですが、 CSSに対応してないブラウザで見ると表示されてしまうし、 Operaでスペース押していくと画像を順番に表示していくので CSSで隠した画像にもアクセスしてしまいます
796 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:14] そういえば、昔作ったスクリプトには grep -v BBLhGdTS 何ていうのが入っていたな。
797 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:18] ん? えーと、コレは単に ……。しまった。CSS云々ってコレか。繋ぎ変えよう
798 名前:795 mailto:sage [04/07/04 17:23] >>797 面倒なことさせてしまってすみません FirefoxなどでCSSを無効にすると 一番下に同じサムネイルが2枚表示されていて その下の画像のリンクにアクセスするとアクセス禁止になってしまいます
799 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 17:30] う、うまく書けない。まあいいや。 えーとね、Lynxかなにかで全リンクを抽出して、grepで/images/を含む行を取り出す。 これは「1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の順番になってるので 偶数行目だけ削除するフィルタを何かで書いて(初心者が急いでるので挫折)、 そのURLリストをUserAgentがIEでrefererが当該ページなwgetで回せばいい。はず。たぶん。
800 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:10] bbs.coolnavi.com/16627 ↑のようにcookie強制する画像サイトは難しい。
801 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 18:36] wget --load-cookies --save-cookies .... でOKでは。
802 名前:799 mailto:sage [04/07/04 19:13] 適当に書いてみた。LynxだとIEのフリができずアクセス解析でバレそうなのでHTMLソースをwgetして解析。 >>799 の「リンクを抽出した1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の仕様が崩れるとアウト。 #/bin/sh wget $1 -q -nv --user-agent=="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -O - |\ sed -n 's/<a href="\(..*\)" target="_blank">.*/http:\/\/www.sweetnote.com\1/p' |\ awk 'NR%2 == 1' | wget --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" \ --referer=$1 -nv -P ${2:-gazou} -i - 上記の5行をget.shとかで保存して適当に実行可能にして $ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/ とするとカレントディレクトリにgazouディレクトリを勝手に掘って画像を保存。 (5行目の -P ${2:-gazou} を消すとデフォルトでカレントに保存するようになる) $ ./get.sh www.sweetnote.com/board/chidle/hoshiinanase/ test とするとカレントディレクトリの下にtestという指定ディレクトリを勝手に掘って画像を保存。 IEだと思わせてるので画像の更新はあえて見てない(毎回6ファイルを強制ダウンロード)。 鯖負荷のかけすぎで気取られないように注意。
803 名前:795 mailto:sage [04/07/04 21:35] >>802 ありがとうございます ダミーのリンクは最初と最後の画像だけみたいなので 偶数行を削除という発想をヒントに2行目と最後の行を削除したらいけました sed -e '2 d' | tac | tail +2 > 仕様が崩れるとアウト。 以前は各画像のあとにコメントアウトされた ダミーの画像がふたつずつありました > (毎回6ファイルを強制ダウンロード)。 いつもはwgetに-xオプションをつけてダウンロードしています あとは "`echo url | cut -d/ -f3-`" というファイルが 存在するかどうかでダウンロード済みかどうかを判断しています URLエンコードが必要な場合は適当に処理してます
804 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 22:27] IEでもHEAD投げてサイズを見てダウンロードするかどうかを決めるってのはやってるんじゃないかな。 別にそれでバレることはないと思うぞ(w
805 名前:名無しさん@お腹いっぱい。 mailto:sage [04/07/04 23:52] >>801 いやね、>>800 は半角板に張ってあったりすると、URI中のセッションIDとcookieのセッションIDが一致しないとダメなのよ。 そのサイトから直で落とすなら問題ないんだけどね。
806 名前:名無しさん@お腹いっぱい。 [04/08/14 11:43] 保守
807 名前:名無しさん@お腹いっぱい。 [04/08/22 21:52] wget使ってdlするスクリプトを書いてるんだけど、どうもcookieの処理が上手く出来 ないんだけど、だれか解決方法知らない? index取得時にUIDとSIDをsetされるので、imageをgetする際にその両方を送れば いいだけなんだけど、なぜかwgetだとUIDしか送ってくれない。
808 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 11:56] office-lady.net/office/cute/album1.html ここの画像ってどうすればgetできますか? wgetプロの方、おながいします。
809 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 12:28] wget で適当な --referer を指定して、zsh で office-lady.net/office/cute/images/img0{01..18}.jpg あとは自分でいろいろ調べてみてください。
810 名前:名無しさん@お腹いっぱい。 mailto:sage [04/08/27 13:47] >>807 指定するときにセミコロンでパラメータをセパレートするんじゃないの? ひょっとしたらwgetの場合cookieなんかだと、複数のパラメータセットが あった場合、全部追加されるのかもしれないけど。 #まあキャプチャすれば直ぐ判ることだが。
811 名前:名無しさん@お腹いっぱい。 [04/09/09 01:30] 保守
812 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 11:16] >>808 こんな感じ。 wget --header=REFERER:office-lady.net/office/cute/ office-lady.net/office/cute/images/img0{01..18}.jpg
813 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 17:38:03] >>812 --header=REFERER:と等価な--refererが最近のヤツだと使えるようになってる。 {}の展開、以前上手く動かなくて使ってないのだが、俺の勘違いだったのかな。 今度試してみよう。
814 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 20:32:43] >>813 cshが勝手にはぎ取っているという落ちでないの? echo {01..18} の結果は?
815 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 22:49:45] >>814 ああ、やっぱりシェルの展開機能なのね。 普通にsh(bash)でした。
816 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:05:16] このスレのあちこちで、しつこく zsh って書いてあるのに…
817 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:36:51] curlにはそういうiriaライクな構文があるよね。
818 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:48:35] >>816 いや、zshに展開機能があるのは知ってるんだけど wget自身にパラメータの展開機能が盛り込まれたのかと思ったんだよ。 シェルにあるような機能を取り込む必要もないのかもしれんが、 ある意味zshって特殊(スタンダードではない)だから。 まあログインシェルぐらい時々で変えれば、つう考えもあるな。
819 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/10 23:59:20] >818 展開は shell が面倒見てその結果をアプリケーションに渡すのが Unix 的思想。
820 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 01:05:09] >>819 んじゃ、もう一方のUnix的な思想で 展開機能のないシェルで展開させるために使うフィルタで お勧めなのは何かある?今はawkでやってるんだけど。 (zshのスクリプトでというのは取りあえず無しで)
821 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 02:16:47] >>820 おまえ アホ だろ.
822 名前:820 mailto:sage [04/09/11 03:06:57] >>821 多分指摘のとおりアホなんだと思うけど、 アホ故に、どの辺りをもってしてアホなのかが判らん。 ズバっと明確に切ってくれ。
823 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 03:09:28] zshのスクリプトでいいじゃん。 車輪の再発明はイラネ
824 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 05:25:12] url を切り出すスクリプトと wget を 50 個くらい平行して走らせるスクリプトだけで オナニーするには困ってない.
825 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/11 06:07:50] >>820 まったくスレ読まないで書くから外してるかもしれないけど。 curlは自前で展開してくれる。そっち使えば?
826 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/13 15:03:30] えっと、aria は4系でも動かないの?
827 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/18 13:54:18] もう疲れました。自分なりにwgetのオプションを色々と試してみたんですが。 ttp://bbs.coolnavi.com/16627/10674p8.の中の画像をwgetで落とすことが できません。 どうか、先生方のお知恵をお貸しください。お願いします。
828 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:14:03] 被写体が♂だったらやったんだけどな・・・
829 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:21:56] 工エエェェ(´д`)ェェエエ工
830 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:26:40] 苺きんたまの画像をゲットした時は #!/bin/sh cat input |grep "v.isp.2ch.net/up/ " >output sed 's/http/ttp/' output > tmp sed 's/ttp/http/' tmp > tmp2 sed 's/JPG/jpg/' tmp2 > tmp3 awk ' {print "wget " $1}' tmp3 >temp chmod 700 temp ./temp mv *.jpg images こんな感じ。お好みでwhileして?p=1・・・p25までゲットとか。 無限roopで問題なかった。1つのcgi落とすのに10分以上かかったから。 sedが冗長な感じだが足りない頭じゃこんなものしか書けなかった。 誰かもっと簡潔な「よい見本」きぼんぬ。
831 名前:名無しさん@お腹いっぱい。 mailto:sage [04/09/29 02:30:11] あーごめん。これじゃなかった。 #!/bin/csh @ i = 1 while ($i <= 2) date >>history wget "up.isp.2ch.net/upload/c=03okari/index.cgi? " cat "index.cgi" |grep jpg >list awk -F\" '{print "wget -U hiroyuki v.isp.2ch.net " $2}' list >test cat test |grep jpg >test2 chmod 770 test2 ./test2 awk '{print $4}' test2 >>listtmp sort -i listtmp |uniq >getlist mv *.jpg jpg3 rm "index.cgi" @ i = 1 end こんなん。これも良い見本きぼんぬ。
832 名前:名無しさん@お腹いっぱい。 [04/10/22 13:36:38] age
833 名前:名無しさん@お腹いっぱい。 [04/11/05 19:21:13] 保守!
834 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 19:23:59] なんて息の長い祖レッドなんだ。
835 名前:833 mailto:sage [04/11/05 19:45:55] 見つけてしまいました、こんなスレ。今からzsh入れます!
836 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/05 20:09:10] すげー。ありがとみなさん!ノシ
837 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/09 13:04:12] このスレ21世紀の始まりから生きてるのか
838 名前:名無しさん@お腹いっぱい。 [04/11/11 21:10:37] エロは性器を超える
839 名前:名無しさん@お腹いっぱい。 [04/11/11 21:37:36] page11.auctions.yahoo.co.jp/jp/auction/n9933154 このダウンロードソフトって使った人います??
840 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:08:39] wgetに画像だけ-ncの動作をするオプションを追加して使ってる。 時間の入った連番画像が主の時には、-N使うよりは動作は速いし鯖負荷も多少は減るんじゃ無いかな。 wget --no-clobber-imageで。 begin-base64 644 - H4sIAN3lpUEAA7VXaW/bRhD9LP2KqYDakiXRJHXLMGoHkQsjTh04aYECAViK XInbkLsEd+kDaf57Zw8dtCTXCVDBMMXZ92aPeTM7iuliAd2iBMc5fVgS2fWc ieOdiiI6TaTMnQj2Wuvdbvcgpea7bq/ruV1vAO542vOn3sBxVx9ouxPXrbfb 7f2uFbvf9byuPwDfnw5GU7fvjPqD0WCLfXEBXW/Y9zpDaOunN4GLizqYT0Fk WTC4m326u313Zqzf6lBvA9AFNHkuHcajlM/npKBZuCRwdARJKAL9EohysaCP QQ7Nk0TIUDopj8I0WNCUtBRSfQnIIxVS7Ae11EwAX80D4PQErhdQmRaoALVI EgNnELJYe4UwLUgYP4Hx3oGYA+Oy3q6pPRWU3BOQCTHYk9OV/5Qv84IyiXu7 uf01+GN29+b246wDQbPxud6+1jv862dxvHaPPgrSgQeapsr/2rnzmTVaHdjd 0Vl1K+s1qF1YXwREmedcoFEei7XLGG7fObC12JNYwj/nNjhX6Hg1cHU3mwXv L/98M4NmXGbZ02bWZwFtm4C2VWRLQQIp4BxcHehVfCXNCG4iyylbtowCvtbj w2KnjMpdsRvrAbGbwY3YPStXz3uN2DdsI3YPvOHUH0y9oTMcDP0dsY98rXV8 jKzSv0Ijo0XBi0anVvvt95sbfNSiLA5ETqLADMG3joUyjEekkEdah+qtY+Bz
841 名前:名無しさん@お腹いっぱい。 mailto:sage [04/11/25 23:09:17] zlMSsi3oSqQIP6qodpfRrjJ0Au3QtLVzaLI8LAiTm6XxwFgOLy8v+ONThaAM Fn9PIlnZeJkpJYoNXhYrLI7h8gLKFohHacckL0gUShKjXl9QSxZStqsWYz2g FjP4o2rZsLfVMpz2Rs544hq5bKnFH0+UWtRjtK6LeBZ0yXhBuilhS5k0Opj7 QVgsy0ydNmgJgdcb27OrKGwf9Dg73oYy3l3rZq/nvmcV8wzetarZSxp7z+aI aaEjrEO6f57RM0rChXwNb7yPl3L+pcwPUAauoqgjH/aG6siHvVHHXEW1KMRa 6I3dKX4HEESi+O7DFJqNiDOGa1E1ipeofHU1oGusdwo5xxr9BYvcyoE3VfW/ 4uB5vkGDY+E+0zhLt/MfXx7vzh9GEckPzfuC7BFOORNO8lye64ED4l+P/6j+ Kw62u4Ph1HWd/mS3OxgMVDjw/9gmAN6PEMZxoIKKWjir1TDh33J1caEZlJmF GYGVTp5+UZeWJa4P3NKoCOcpEbAKA1sCX5hbG7/jceIHqXEoQ8fefRU3Om6v 89W2vjTFsWuKkrDAm5QWWPoINivG1Se8ljHKir7eBciCkAorVTe32qoh3fAl rCwVHGV5KYMq+FrZKvAX5FJKmordMmnNB6RiR9dC8Xvge1NV7V4llC16VSa9 seP6owpdyWTi9ZVO1MNfKcV2G6qh0F0jRq7e3tceYh4LaU9roQ4EGz/d9BkT Am17o7qSJr5im2LY0DT4Fpyf61piW8bN1Jb1k8CLGhM5ynA+5GKq/50vG60q 3nsZT/5nQs6+D7+ki+/Cz7N8P37ruHQ7iAq9wwYXQkgpwxa14BlcfdDttYWq zjXnGFFswSVHBBFJ+oSNsWp28d7X5V9g4uhk0xll30DkYaQ7Xj6XeB1jZyuT gpfLBDJNb7b0RCLhZWr8zNUSCAIfqEz0V8Q8JIRhi6wcMY6tO1viUhiiSOz8 dzbtlF5rfjGbfrjsbtG3+g78c7FLNT1qJZvGOpnwv0mlui56KnMSmaWbxPlw eXf5/iOmxHYCtdQ1pJNt30+xgxSMunlRv2yChwSbxUAHf824ur6ZWfcorTIy 9SvISKbKo+HpHzOHl3XPqVKQBQYqkhv0PqeK9S+tiE0GWw8AAA== ====
842 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/08 14:39:01] hoshu
843 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/10 13:48:48] ちょっと保守しますよ。
844 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/19 02:35:17] ほっしゅっしゅ
845 名前:名無しさん@お腹いっぱい。 [04/12/26 03:27:28] 初心者です。 ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg を196まで一括で落としたいんですが。 なるべくわかりやすい方法を教えて下さい。 すみません。
846 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 03:34:13] $ zsh % wget -c -w 5 ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/{001..196}.jpg
847 名前:名無しさん@お腹いっぱい。 [04/12/26 03:49:49] zsh、wgetはどこでインストールできますか? あの・・・zsh、wgetって何ですか? ほんとにすみません。
848 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:10:46] www.zsh.org www.gnu.org/software/wget/wget.html あとは自分で調べてください。
849 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 04:16:58] >>847 ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/002.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/003.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/004.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/005.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/006.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/007.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/008.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/009.jpg ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/010.jpg 196まで全て手作業で作ってみたが2分40秒で出来た メモ帳でやった 01-02-03-04-05-06-07-08-09-00 これをひとかたまりに9セットコピペ んで数字 - ←↓(同時押し) 001-002-003 011-012-013 021-022-023 わからんのなら手作業しかあるまい、がんがれ
850 名前:名無しさん@お腹いっぱい。 [04/12/26 04:30:24] >>848 ありがとうございます。 >>849 ありがとうございます。地道にやってみます。 ちなみに同時押しって何ですか?
851 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:46:52] curl -O aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/[001-196].jpg
852 名前:名無しさん@お腹いっぱい。 mailto:sage [04/12/26 12:55:45] >851 それだとシェルが展開しようとして変なことが起きるから、適当にクォートすべきだな。
853 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/03 08:02:28] おまいら御用達のwgetの www.st.ryukoku.ac.jp/~kjm/security/memo/2004/12.html#20041220_wget って、まだ直ってないんでしょうか。
854 名前:名無しさん@お腹いっぱい。 [05/01/05 01:31:19] >>853 はい。
855 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/10 20:09:44] 4周年記念日 でもsage >>380 ttp://search.mse.co.jp/cgi-bin/ip_dom-2/ipsearch.cgi エロサイトじゃないけど、何なのかもよく分からん。
856 名前:名無しさん@お腹いっぱい。 [05/01/29 14:47:08 ] ttp://hp.vector.co.jp/authors/VA024337/SqTop.html
857 名前:名無しさん@お腹いっぱい。 [05/01/29 16:18:15 ] >>856 デムパ キタ━━━━━━(゚∀゚)━━━━━━ !!!!!
858 名前:名無しさん@お腹いっぱい。 mailto:sage [05/01/30 03:32:28 ] phpとか使われるとわけわからん。落とせん
859 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/02 12:00:08 ] perlスクリプト使え
860 名前:名無しさん@お腹いっぱい。 [05/02/02 16:27:08 ] ( ゚д゚)ポカーン
861 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/03 05:11:11 ] ttp://www.melon-peach.com/ ここの画像、どうにかしてぶっこ抜けませんか?
862 名前:名無しさん@お腹いっぱい。 [05/02/03 16:27:47 ] ネトラン厨(・∀・)カエレ!!
863 名前:861 mailto:sage [05/02/06 13:01:24 ] ネトラン厨じゃないのに・・・ (つД`)・゚・
864 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/06 19:39:21 ] >>863 >>41 ,578 とか参考にならない?
865 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/07 00:09:17 ] >>861 重杉
866 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/13 22:56:14 ] wgetかcurlで nylon.hostfuck.com/index01.html の画像を落とすスクリプトを書いてください
867 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/13 23:25:32 ] >866 ちょっとは自分で勉強することも覚えてはいかがですか。
868 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 01:00:48 ] >>866 #!/bin/sh wget -r -l1 "nylon.hostfuck.com/index01.html " mkdir gazou mv *.jpg *.bmp *.tif* *.x*m *.gif *.rgb *.psd *.eps *.wmf gazou rm ./ 無保証。
869 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 02:57:21 ] 403喰らう悪寒。-Uでしっかりと騙るのがベターかも。。。 二次元には興味なし。でも
870 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 03:59:53 ] 2次元か
871 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 17:58:19 ] while(<>){ m/num=([0-9]+)&type=([a-zA-Z]+)[^0-9]*([0-9]+)/ and system "wget". " --output-document='$3.$1.$2'". " --header='Cookie:num=$1;type=$2'". " nylon.hostfuck.com/nylon.php ". "\n"; }
872 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 18:02:22 ] ×& ○&
873 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 20:12:36 ] Perl?
874 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 20:39:49 ] 漏れはこんなスクリプトでやってみた for n in {28672..32767}; do [ -f $n.jpg ] && continue wget --header="Cookie: num=$n; type=jpg" --output-document=$n.jpg \ nylon.hostfuck.com/nylon.php done ほんとは連番じゃないので ちゃんとやりたかったら番号はこんなかんじで抜き出せばいいかも w3m -dump_source \ nylon.hostfuck.com/{,index0{1..7}.html} |\ ruby -e 'while gets; $_.sub(/image.php\?num=(\d+)/) do puts $1; end end' |\ sort | uniq
875 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/15 23:04:47 ] 無駄が多いな、このサイト。
876 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/16 03:26:14 ] l l J l J さわったら負けかなと思ってる。
877 名前:名無しさん@お腹いっぱい。 mailto:sage [05/02/16 19:57:30 ] 成功した?
878 名前:名無しさん@お腹いっぱい。 mailto:sage [05/03/01 08:03:13 ] セルフプレジャー保守
879 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:44:21 ] 初心者スレから誘導されてきました。 連番のzipファイルを一気に解凍する方法はありますか? 001.zip 002.zip 003.zip 今はひとつひとつunzipしてます。既出だったらすみません。 教えてくれたら、こころを入れ替えてスクリプト勉強します。
880 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:45:58 ] unzip {001..100}.zip
881 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/04(月) 23:53:44 ] for i in *.zip; do unzip $i; done でもいいんでないかい?
882 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/05(火) 00:14:01 ] echo *.zip | xargs -n1 unzip
883 名前:名無しさん@お腹いっぱい。 mailto:sage [2005/04/05(火) 00:42:16 ] unzip は自前でワイルドカードを処理するのでほかに zip ファイルがなければ unzip \*.zip でどうでしょう。
884 名前:名無しさん@お腹いっぱい。 [2005/05/30(月) 16:25:28 ] うほ
885 名前:名無しさん@お腹いっぱい。 [2005/06/14(火) 20:55:22 ] altemisweb.jpから落とせる方法をご存知の方、いますか? そもそも普通にw3mとかでも開けないのですが。 たとえばttp://s1.artemisweb.jp/kto11/main.html からいけるページなど。