1 名前:たのも〜 [2001/01/10(水) 15:02] 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする ソフトやスクリプトがあれば教えてけれ。
618 名前:610 mailto:sage [03/07/22 10:30] 誰か教えてくれぇ〜(´Д`)
619 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 11:43] >>618 作れ。
620 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/22 18:36] >>610 まず誠意をみせろ。おれが自宅に戻れる22:00以降に。 話はそれからだ。
621 名前:610 mailto:sage [03/07/23 19:58] 誠意っヽ(`Д´)ノ ttp://houston.ddo.jp/~pitt/bakuf/2201.zip ttp://houston.ddo.jp/~pitt/bakuf/2202.zip ttp://houston.ddo.jp/~pitt/bakuf/2203.zip ttp://houston.ddo.jp/~pitt/bakuf/1701.zip ttp://houston.ddo.jp/~pitt/bakuf/1702.zip ttp://www.hh.iij4u.or.jp/~hancock/rm/000.dat ttp://www.pp.iij4u.or.jp/~fizz/rm/001.dat ttp://houston.ddo.jp/~pitt/ousyo2/002.dat ttp://houston.ddo.jp/~pitt/ousyo2/003.dat ttp://houston.ddo.jp/~pitt/ousyo2/004.dat ttp://houston.ddo.jp/~pitt/ousyo2/005.dat ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.rez ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.crc ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.bat ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.001 ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.002 ttp://www.kk.iij4u.or.jp/~rouge/rm/tanpan2.zip ttp://www.pp.iij4u.or.jp/~custom/rm/tanpan4.zip ttp://www.nn.iij4u.or.jp/~jelly/rm/tobibako1.zip ttp://www.ff.iij4u.or.jp/~clio/rm/tobibako2.zip ttp://www.ff.iij4u.or.jp/~magnet/rm/roring1.zip ttp://www.hh.iij4u.or.jp/~blanc/rm/roring2.zip ttp://www.kk.iij4u.or.jp/~cosmic/rmm/mituami1.zip ttp://www.hh.iij4u.or.jp/~starz/rmm/rock1.zip ttp://www.nn.iij4u.or.jp/~coaster/rmm/rock2.zip
622 名前:きっと騙されているに一票 mailto:sage [03/07/24 03:00] >>621 ゴチ
623 名前:名無しさん@お腹いっぱい。 [03/07/27 23:48] >>621 落ちてこないよ〜
624 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 00:31] こんなん動ナビとか動画普及委員会チェックしてれば毎日ゲットできるぞ。
625 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 17:52] >>620 に騙された哀れな >>610 がいるスッドレはここですか?
626 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 23:40] 動ナビ死んでませんか
627 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 05:38] 動ナビは死んでないが、iij を使った結構な数のエロサイトから ファイルが落とせなくなっているな
628 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 14:45] >>626-627 ほかでやれ
629 名前:ぼるじょあ ◆yBEncckFOU mailto:(^^) [03/08/02 05:03] ∧_∧ ∧_∧ ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。 =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕 = ◎――――――◎ 山崎渉&ぼるじょあ
630 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 13:20] wget の --timeout って、 相手がファイアウォールでパケットを捨ててるときには機能しないような気がする。 というか、そもそもそういう目的で使うオプションではないのか? まあ、squidを経由すれば問題ないんだけど。
631 名前:620 mailto:sage [03/08/04 13:38] >>610 遅くなって正直スマンかった。 望みのモノだよ。 saeto.deep-ice.com
632 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:13] >>610 おめ
633 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:58] 動ナビURLはこっちに www.i-like-movie.com/
634 名前:名無しさん@お腹いっぱい。 [03/08/13 12:19] 2ちゃんで話題になった「みーほ」女子○学生 B86 W57 H88(○5歳) がこのHP内のギャラリーで何を考えているんだか、衝撃的なセルフのヌードを晒してます!! 削除される前に早めに見ておいた方がいいとおもいます!マジでやば過ぎ!! neeez.com/~miho-room/
635 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/13 16:58] 不覚にもワロタ
636 名前:あぼーん mailto:あぼーん [あぼーん] あぼーん
637 名前:あぼーん mailto:あぼーん [あぼーん] あぼーん
638 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:13] {from..to}
639 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:15] {10..20,30..40} みたいにはできないの?
640 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 03:38] >639 zsh: {{10..20},{30..40}}
641 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 08:40] ( ・∀・)つ〃∩ ヘェーヘェーヘェー
642 名前:639 mailto:sage [03/08/27 19:15] >>640 ありがdごぜいます
643 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 18:10] そろそろ2ヶ月もカキコがない…。 おまえら満足してますか?
644 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 22:21] >おまえら満足してますか? してねぇっす・・・。 ダウンロード成果物をいかにユニークに保存するかってトコロで 頭痛めてたりする。 とりあえず、ファイルのMD5をpostgres上のテーブルにinsertしといて、 ダウンロード成果物をそいつとチェックして適宜ハネるって運用してるん だけど、どうしても明らかに重複する奴が出てくる。 理由はいくつかあるんだけど、この辺が泥臭くかつ難しいね・・・。 最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか? 誰か「漏れはコレだ!」って奴を教えてくれぃ。
645 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 02:18] >>644 > 最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか? > 誰か「漏れはコレだ!」って奴を教えてくれぃ。 今まで何を試したか書いてくれ。 例示した後で「それはもう使ってみた」って言われるのはやだ。
646 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:18] おれは単純に時間とディレクトリで分類してる。 ファイルのタイムスタンプとユニークなID,簡単なメモを 名前に付けてリネームするスクリプト書いて、 適当なディレクトリにとりあえず放り込む。ここまではほぼ自動。 あとは実際に見てる時に必要なら分類し直す。 おれ的にはファイル名がユニークであれば、それで足りてる。 全ての画像に等しい価値がある訳でないので、 必要な時の手作業の分類で間に合う。
647 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:30] 俺はディレクトリと連番だな。もちろんスクリプトで。
648 名前:login:Penguin mailto:sage [03/10/27 14:31] >>610 再うpきぼん
649 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 20:36] >>644 wget -x で URL のまま保存してる。
650 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/28 00:30] >>648 > >>610 > 再うpきぼん >>631 > >>610 > 遅くなって正直スマンかった。 > > 望みのモノだよ。 > saeto.deep-ice.com
651 名前:644 mailto:sage [03/10/28 12:03] >今まで何を試したか書いてくれ。 少しずつ積み重ねてるから、そんないろいろな方法試してるわけでも ないんだわ。 で、今のところこんな仕組み。 前提:ファイルはすべて.jpg。 対象は、ディレクトリごとにファイルがまとまっていると想定。 (ディレクトリひとつに1ファイルは無視) -- 日々。 (1) wget -x でディレクトリごとdownload (2) jpeginfoで壊れたファイルを削除 -- 月次。 (3) ディレクトリ階層をn階層 -> 2階層へ変換 (4) 指定バイト数以下のファイルやディレクトリを削除 (サムネイル対策) (5) 過去にダウンロードしたファイルのmd5と比較し、新規ファイルが 含まれているディレクトリは保存用ディレクトリへ移動。 (6) 保存用ディレクトリへ移動したものは、md5をpostgres上のテーブルへ insertする。 (次からのダウンロード重複チェック用) --適当なタイミングで。 (6) そこそこたまってきたら、CD-Rを使ってお掃除。 上記(6)以外はすべて自動実行。 で、こうやってて素朴に思うのが、「ここまでやらないかんのか?」てところ。 これという方法も無いような気がするんだけどね。
652 名前:644 mailto:sage [03/10/28 22:21] 続き。 重複する理由ってのが、だいたい (a) jpgファイルが壊れてて、md5が違ってる。 (b) 見た目おんなじ画像で壊れてもいないjpgファイルだけど、何故かmd5が違う。 (c) 素材はおんなじだけど、画像ファイル化したヒトが違うヒト といったところかなと。 んで、(a)はjpeginfoでどうにかなるとして(といっても再度ダウンロードで補うことが できればだけどね)、(b),(c)はどうしたものかなと。 完全自動化を目指してるんで、この辺クリアできないかなと考えてます。
653 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 00:51] そこまでしてローカルにあらゆる画像を保存したいの? 画像の類似性を判別するソフトがあったような気もするけど。
654 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:28] GQview とか
655 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:29] >>653 よく web 上から消えるじゃん。
656 名前:うひひ mailto:sage [03/10/29 09:36] >>644 素人考えなんだが 同じエロ画像でも大きさっていうか画質とかが違ってたりすんじゃん 例えばイメージマジックとかで同じ様な仕様になるように 小さくサムネイルのように同じファイルサイズとかにフィルタしてから binary diffみたいのを使って差分をとって差分比率を読みとりながら 画像を比較できないのかなぁ?
657 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 14:12] 昔は連番ファイル落とすためにwgetやshを駆使して頑張ってた時期もあった。 たとえばこことか。 ttp://www.taiwankiss.com/board1/data/82585.html (白石ひより、藻無し、556MB + 567MB、ラブマ分割、パス未発表) 今は各種P2Pがあるから手間いらずで外付け120GBもエロで満杯だよ。
658 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 22:59] >>658 どのP2P使ってるか教えれ
659 名前:644 mailto:sage [03/10/31 23:42] レスありがとさんです。 >GQview とか フリーでこのテのツールがあるとは知りませんでした。 別のツールでは、作者が「コマンド実行で類推するようにしたいな」って 書いてたんで、もう少し様子見かなと。 もしくは、これらツールから該当コードをぶっこぬいて、コマンドラインで 実行できるようデッチ上げるのも手かなと。 >binary diffみたいのを使って差分をとって差分比率を読みとりながら >画像を比較できないのかなぁ? #漏れも画像関係まったくの素人なんですが・・・。 jpegを一度bitmapか何かに展開してからゴリゴリ比較って動きかな? 暇を見てちょっと試してみます。 時間を見つけて、いずれかの方法をちょっとやってみます。 ありがとうございやした。
660 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/13 05:03] 俺は半角板を自動巡回して URI 拾って wget のリクエスト作る Ruby スクリプト書いた 落ちてきた画像は一通り見てお気に入りの奴はお気に入りディレクトリに入れて それ以外は全部ファイル名を MD5 にリネームするスクリプトで変換してから 画像置き場ディレクトリに放り込んでる 画像的には同一なんだけどデータとしては違うというケースはうちでも発生してるな ちゃんと判定する方法なんて無いような気がしてたから諦めてたけど ここらへん研究してみると面白いかもな >>652 (b)(c)のケースなんだけど、もし画像サイズが同じなら、 jpeg のエンコード時の特性の違いがあるのかもな もしそうなら jpeg のエンコードに特化した画像判別があればいいのかも
661 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/14 22:06] >>660 JPEGは符号化時のクオリティ設定で出力がまったく違います。 また、どこかのwebで拾った同じJPEGファイルに端を発した画像でも デコード・エンコードを繰り返して劣化したもの、コメントが変わった ・取り除かれたもの、huffmanコードを最適化したものなどいくらでも バリエーションがありますので、結局デコード後の画像として比較する しかないのではないかと。
662 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/22 23:24] エロ画像とかよか普通の女の子画像をダウンロードしたくなりました。 で、 ttp://avbuzz.com/bbs/model/list.php を見つけたわけですが。 ここのを大きい画像だけ上手にダウンロードしたいんだけど、難しいです。 良い方法、なんか思いつきませんか?
663 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 00:16] うーむ。 % w3m -dump_source 'avbuzz.com/bbs/model/diss.php?id=152568 ' | sed -n 's@ *<img src=\(.*\) vspace=10><br>@\1@;s@^u@avbuzz.com/bbs/model/u@;/^http/p '
664 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 03:04] >>663 出きたよー。 ありがと。
665 名前:名無しさん@お腹いっぱい。 [03/11/25 15:58] wgetを使ってあるディレクトリ以下にある(cgiソース含)ファイルを無差別にDLする方法ありませんかね。
666 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:00] man wget
667 名前:名無しさん@お腹いっぱい。 [03/11/25 16:08] >>666 やったけど詳しく書いてないみたいだけど、、、 wget -r --ignore-length <URL/> で良いかな?
668 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:16] info wget
669 名前:名無しさん@お腹いっぱい。 [03/11/25 17:19] cgiファイルらしきもんはダウンロードできたけれど、やっぱソースが見れないです。 ソースの形でまるごとやりたいんですけど。
670 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 17:25] ソースが見れないように設定してあるHTTP鯖から、 ソースを落とすことはできませんヨ。当たり前だろ。
671 名前:名無しさん@お腹いっぱい。 [03/11/25 17:31] やっぱ、そうだったか。 たまたま、ソースもまるごと落せたこともあったけど、それはそこの管理者が 物凄くアホだったってわけね。 俺もな、、、涙;
672 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 17:35] そもそも、読み出し権限無いかもしれないし。
673 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 22:14] >>671 というかCGIとして実行されるように設定されてるファイルは、絶対にGETできんよ。 そのファイルを指定したリクエストが来たらCGIとして実行するようになってる 訳だから、(そのWebサーバ経由では)ファイルを取りようが無い。 ソースを落とせたことがあるんなら、多分それは、CGI実行設定されてない ディレクトリに物置のように置いて有ったのだろう。逆に言うとそれは 「動いていない」プログラムだから、正しいという保証はどこにも無い。
674 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 00:38] jpeginfo でこわれているjpegファイルの判定を十分にできますか? なんか、xv で表示できないファイルがだいぶ残るのですが。
675 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 01:21] XVの設定が古いせいではないかと… ImageMagickとかなら表示できたりしない?
676 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 01:53] そうですか。もうすこしいろいろためしてみます。
677 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 14:35] % perl slodziutka.erospace.pl ドゾー
678 名前:名無しさん@お腹いっぱい。 [03/12/17 20:51] 最新のwgetって~を%7Eに変換しないのか…
679 名前:名無しさん@お腹いっぱい。 [04/01/02 16:41] 「げっとぴっく」ってやつ使ってるんだが 「指定のURLには画像が存在しません」とかいうエラーが出てきてdlできん
680 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/02 16:44] >>679 板違い。
681 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 09:57] gallery3.pure-angel.net/kasumi_nakane/index.html なんだけど、wget が使用不能です(downloaderとして弾かれる)。 猛者の皆様、お助け下さい。
682 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 10:22] >>681 あんま好きなおなごじゃないな wget --user-agent=Mozilla --referer gallery3.pure-angel.net/kasumi_nakane/01/ gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
683 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 14:01] > wget --user-agent=Mozilla --referer gallery3.pure-angel.net/kasumi_nakane/01/ gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg ありがとうございます!! --refererの使用まで思い至りませんでした。
684 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 07:39] >>578 の方法につての質問です。 ディレクトリが同じでその中のファイルの例が img20031113192714.jpg 13 Nov 03 19:27 6.2Kb img20031113210116.jpg 13 Nov 03 21:01 7.4Kb img20031113210157.jpg 13 Nov 03 21:01 22.1Kb ・・・ こんな感じになってます。これを一気に落としたいのですが いかんせん時分秒まで回してたらやばいことになりそうなので wget ~ の~部分だけループできたらと思います。 で,その場所がディレクトリサービスONだったので starsuiteで上のようなファイルリストを作りました。 でもシェルスクリプトの動作がイマイチわかりません。 cat<<END |wget nanntokakanntoka/ 2003xxxxxxxx.jpg ... END の足りない部分を埋めていただきたく思います。 Solaris9でインストールしたときのsh使ってます。 それ以前にwgetでディレクトリサービスONの アドレスから.jpg .png .gifの絶対パス取って まとめてゲット~なんて出来ればなお良いんですけど 私にはさっぱりひらめきがないのでもし良かったら ご教示願います
685 名前:684 mailto:sage [04/01/08 07:53] あーん最悪。wget -r www.nantara/ だけでぜーんぶおとせた。ディレクトリサービスオンだとこんなことになるのね。 って書き込んでる間に396filesオチター
686 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 09:52] 何が最悪なんだ?
687 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 13:32] 684がhelpもinfoも読まずにカキコしちゃった自身の ソコツさ加減を最悪と称しているのでせう
688 名前:名無しさん@お腹いっぱい。 [04/01/09 02:37] echo "wget www.hoge.he.jp/hoge/ero{001..100}.jpg " | zsh -s
689 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/09 13:54] >>685 URL希望
690 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/17 18:58] あの、awkでしかも汚いですが一応動きます。 baseurl と files 変えたら他の女の子のもいけます。 よければ添削してやってください。 BEGIN{ baseurl="www.tokyo-247.net/image/37_maya/maya1/t2_maya001.jpg " files = 55 split(baseurl,url,"1/") url[2] = substr(url[2],1,index(url[2],"0")) for(i=1; i<=files; i++){ path = url[1] int((i-1)/15)+1 "/" if(i<10){ number = "0" i }else{ number = i} file = url[2] number ".jpg" print file wgetcmd = "wget -nc " path file system(wgetcmd) } }
691 名前:名無しさん@お腹いっぱい。 [04/01/18 00:35] wgetのオプションでquotaを指定すると取得するファイルの上限をきめられるそうですが 逆に下限を決める事はできないのでしょうか? HDDがすげー遅いので、ディスクアクセスをできるだけ減らしたいっす
692 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 00:39] >>690 わざわざ変なスクリプトかいて暇ですな。
693 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 00:45] >>690 ファイルごとに wget を起動するんでなく URL を一括で wget に食わせてやる方がよいと思う。 あとせっかく wget 使うなら便利なオプションがいろいろあるので調べるが吉。
694 名前:690 mailto:sage [04/01/18 08:09] ご意見ありがd。 >692 九段のサイトでは画像を小出しにしてまして 定期的に巡回して、うp分を一括ダウソする必要があり まぁ暇だったこともあってこうなりまつた。 >693 その向きでまたチャレンジしまつ。
695 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:26] > ご意見ありが??。 まともなunixerならまず使おうとは思わん記号だな
696 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:53] >>695 というか、入力方法がわからんよ emacsでctrl-q hoge fuga とかするの?
697 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:55] そういえば、どこかのスレに 「(・∀・)イラネ」って書いてあったのを見たことあるよ
698 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 15:40] >695 わざわざ使おうとは思わんけど、 unixでは読めないのがあたりまえみたいな 書きかたをされると( ´゚д゚`)
699 名前:名無しさん@お腹いっぱい。 [04/02/08 02:27] 連番のH画像じゃないんですが、 celeb.goldengate.hu/site_videos.php3 ここの MPEG全部落したいんですが、あれこれやっても うまくできないのです。お知恵を貸していただければ、 嬉しいのですが。
700 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 03:24] "あれこれ"やったことを書け。
701 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 14:32] リンクを解析して辿り、目的の拡張子だけをダウソするPerlスクリプトを書いたんですが・・・再発明ですか? 個人的には十分楽しんだからウマーだけど。
702 名前:あぼーん mailto:あぼーん [あぼーん] あぼーん
703 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 15:29] 先生!!>>702 の頭の悪さが直っていません!
704 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 15:50] HTML::LinkExtor とか使えばいいのに。 出力は、fork しまくって wget を同時に走らすスクリプトに渡すと。 まあ、手元にあるんだが、希望者がいれば公開してあげます。
705 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 17:50] >>704 公開希望
706 名前:名無しさん@お腹いっぱい。 mailto:sage マジでいてーよ [04/02/08 18:24] 今痔が出来て痛くてたまらないからAA貼り付けようかな
707 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:22] 僕もがんばってみた。「はじめてのC言語」とそれから「関数の使いかた」少しよんだ。 #include <stdio.h> #include <string.h> #include <math.h> #define MAXSTRING 255 struct address{ char preaddr[MAXSTRING]; char scope[MAXSTRING]; char aftaddr[MAXSTRING]; int statnum; int endnum; int digit; }; /* 続く */
708 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:23] void numaddr( struct address *p ) { char cset[] = "-"; p->digit = strcspn( p->scope, cset ); p->statnum = atoi( strtok( p->scope, cset )); p->endnum = atoi( strtok( NULL, cset )); } void printaddr( struct address *p ) { int i, n, t; for ( n = p->statnum; n <= p->endnum; n++ ) { fprintf( stdout, "%s", p->preaddr ); if ( n == 0 ) i = 0; else i = log10(n); for ( t = i; t < p->digit - 1; t++ ) fprintf( stdout, "0"); fprintf( stdout, "%d%s\n", n, p->aftaddr ); } } /* 続く */
709 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:24] int main( int argc, char *argv[] ) { int i; char cset[] = "[]"; struct address multiaddr[argc]; if ( argc <= 1 ) fprintf( stdout, "%s [word]...\n", argv[0] ); else { for ( i = 1; i < argc; i++ ) { strcpy ( multiaddr[i].preaddr, strtok( argv[i], cset )); strcpy ( multiaddr[i].scope, strtok( NULL, cset )); strcpy ( multiaddr[i].aftaddr, strtok( NULL, cset )); numaddr(&multiaddr[i]); printaddr(&multiaddr[i]); } } return 0; } /* おしまい */
710 名前:707 mailto:sage [04/02/08 22:28] math.h をつかうと #gcc -o getopai getopai.c -lm と -lm つけるのなんでだろ?
711 名前:707 mailto:sage [04/02/08 22:35] >>709 やっぱこう↓しとく "s/\[word\]/opai\[001-100\].jpg/"
712 名前:699 [04/02/08 23:49] 700さん ここむずかしいですね。どういう仕組みなんだろう、このHP。 画像もたくさんあるみたいなんだけど、すぺてPHPで開いてきます。 wget -r --user-agent=Mozilla --referer celeb.goldengate.hu celeb.goldengate.hu/ 当然 これでは無理ですね だめぽ…
713 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/09 12:51] 難しくはない。ただ、ファイル名が結構適当なので面倒臭い。 wget celeb.goldengate.hu//celebs_foreign_pic/Dido/dido{043..045}.jpg
714 名前:名無しさん@お腹いっぱい。 [04/02/09 13:03] >>712 動画ウィンドウの表示にはJavaScriptを利用してるみたいなので wgetだけでは無理かと
715 名前:699 [04/02/09 23:45] うん どうやってするのがスマートな解決なんでしょうか。 僕には皆目検討もつきません。 やっぱ 一つ一つ落すしかないのかな。
716 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 03:47] --user-agentの指定ってどういうとき必要になるの?
717 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 03:56] 偽装したい時
718 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 08:30] >>716 指定しないと落とせないとき。