1 名前:前スレ1 [2005/12/26(月) 02:56:22 ] 前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々 実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。 前スレ 連番のH画像を一気にダウンロードする pc8.2ch.net/test/read.cgi/unix/979106537/
80 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:35:56 ] >>79 URIの実例プリーズ
81 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 13:02:34 ] >>79 zip
82 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 18:59:58 ] >>80 例えばこんなところで↓ geocities.yahoo.co.jp/ photos.yahoo.co.jp/ briefcase.yahoo.co.jp/ >>81 それを昔していましたがzip以外でしたいです。
83 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/23(土) 08:49:55 ] >>82 lha
84 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 13:15:50 ] JavaScript で window.navigator.appName 見てるとこって どうすればいいの?
85 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 23:46:36 ] どうしたいの?
86 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/24(日) 18:16:39 ] 今までcurlのお世話になってきたけど、今日LWP::UserAgent使って書き直した。 ステータスが200でtext/html返してきた時にリトライするようにしたかった。
87 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 01:56:18 ] 完璧だ。対artemisweb最終兵器かもしれない。
88 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:02:00 ] 次はHTML::Parser使ってwget相当のも作るか。夢が広がりんぐw
89 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:21:00 ] ヒント:今日はクリスマス
90 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:38:41 ] plagger のプラグインをきぼん。
91 名前:!dama mailto:sage [2007/01/02(火) 04:02:34 ] てすてす
92 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:35:38 ] HTML::Parser使ったwget相当のも出来た。
93 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:43:48 ] それ Plagger でできるお
94 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 02:40:27 ] 主目的はアルテミス対策の姑息なリトライ判定の導入ですから それとHTML::*やHTTP::*やLWP::*のお勉強
95 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/20(土) 03:39:43 ] test
96 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 19:34:19 ] 連番ではないんですが、 imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。 例えばこんなのとか imepita.jp/20070402/701450 このurlをブラウザーで開くと普通にみれるのですが。 curlやwgetでこのURLを開くと404になってしまい、 htmlが取得できず困っています。 うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。 どなたか偉い方よろしくおねがいします
97 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:05:08 ] >>96 お約束の User-Agent: とか Referer: あたりはどうよ。
98 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:39:36 ] ブラウザーで直接開いてみれたので、Refererは試していませんでした。 User-Agent:は試したのですが変わらず・・・。 ちょっとRefererもやってみます。
99 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:44:05 ] refererいれても変わりませんでした
100 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 23:23:17 ] >>96 Accept-Language: ja とかは?
101 名前:96 mailto:sage [2007/04/03(火) 08:31:48 ] >100 神! ありがとうございました
102 名前:名無しさん@お腹いっぱい。 [2007/04/10(火) 23:16:28 ] みなさんが、 連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
103 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/21(土) 16:02:05 ] >>96 とはべつの人なのですが、imepitaの画像をダウンロードできません。 ブラウザでは保存可能でした。 wget --referer='imepita.jp/20070402/701450 ' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22 ' としています。 指摘よろしくおねがいします。
104 名前:名無しさん@お腹いっぱい。 [2007/05/01(火) 13:54:45 ] imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください
105 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/01(火) 19:01:17 ] >>104 とりあえずURLを書きなさいよ
106 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 09:35:29 ] 結構難題(というか出来なかった) ttp://infostore.org/info/3078906?refer=2257986&rs=2 → ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
107 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 10:51:18 ] lynx -dump 'infostore.org/info/3078906?refer=2257986&rs=2 ' | grep -o '[^#]* ' | grep 'imagevenue.com/img.php' | while read LINE; do lynx -dump -image_links $LINE | grep -o '[^#]* ' | grep '/loc[0-9][0-9]*/' done
108 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 11:08:02 ] ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。 あとは sleep もいれたほうがいいかも
109 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 12:23:56 ] 俺んとこlynx入ってなかったのでsedとcurlで $ cat hoge.sh #!/bin/sh curl -s "$1" | grep imagevenue | sed -n -e "s/href='\\([^']*\\)'/\\ HREF=\\1\\ /gp" | sed -n -e "/HREF=/s/HREF=//p" | while read URL do dir="`dirname \"$URL\"`" file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'` curl -s --referer "$URL" -O "$dir/$file" done $ ./hoge.sh 'infostore.org/info/3078906?refer=2257986&rs=2 '
110 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 15:07:32 ] 勉強になるなぁ(何の???)
111 名前:名無しさん@お腹いっぱい。 [2007/05/05(土) 19:36:37 ] www.imagefap.com/gallery.php?gid=330938 >>105
112 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 23:32:55 ] >>111 imagefapは (1) ギャラリーページから全てのギャラリーページのURLを抽出 (2) 各ギャラリーページから画像ページのURLを抽出 (3) 画像ページから画像ファイルのURLを抽出 という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
113 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 09:10:45 ] ギャラリーページサムネイルのURLを置換してやればいいんでないの? images.imagefap.com/images/thumb/11/141/1414518509.jpg images.imagefap.com/images/full/11/141/1414518509.jpg
114 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 21:18:14 ] get_links_from_url() { lynx -dump -image_links "$1" | grep -o '[^#]* '; } for URL in `seq -f 'www.imagefap.com/gallery.php?gid=330938&page=%g ' 0 8`; do echo get: $URL >&2 get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p' done
115 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/23(火) 21:46:50 ] 最近ぐっと来るネタがないっすねぇ
116 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/27(土) 02:27:20 ] 最近のエロ画像はZIPで固めてrapidshareだからなあ
117 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/30(日) 00:22:46 ] こういうアドレスが長く、不規則なのってどうやればいいでしょうか ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
118 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 21:10:52 ] こういう別サイトの画像ディレクトリを参照している場合って、うまい方法ありますか? exgirlfriendmarket.com/perfect_tits_corina?
119 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 22:24:46 ] curl -O --referer 'exgirlfriendmarket.com/perfect_tits_corina/perfect_tits_corina-00.html ' 'content1.nudeparadisehotel.com/femjoy/0681/[00-11].jpg '
120 名前:118 mailto:sage [2008/01/03(木) 01:46:07 ] >>119 さっそくの助言、ありがとうございます。 とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。 これを Unix のコマンドの組み合わせで ・画像一覧ページから ・個別の画像、もしくは画像表示ページへのリンクを辿り ・自動で巡回して、一定サイズ以上の JPG はダウンロードする ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。 だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。 お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
121 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 09:38:02 ] wget -r -l 2 とかで。あとは wget --help の↓に気をつける: 再帰ダウンロード時のフィルタ: -A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する -R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する -D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する --exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する --follow-ftp HTML 文書中の FTP リンクも取得対象にする --follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する --ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する -H, --span-hosts 再帰中に別のホストもダウンロード対象にする -L, --relative 相対リンクだけ取得対象にする -I, --include-directories=LIST 取得対象にするディレクトリを指定する -X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する -np, --no-parent 親ディレクトリを取得対象にしない
122 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:12:00 ] 以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、 今やそのスレが消えてしまったため、もう一度ここで質問させてください。 例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。 www.sexydesktop.co.uk/youko.htm ここには全部で4ページ分48種類の松金洋子の画像があります。 このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、 一つの画像に関して数種類の解像度・縦横比の画像が用意されており、 アクセスしてきた人の使っているディスプレイ解像度を検出しては、 最適な解像度のものを優先的にプッシュするようになっています。 また、画像ファイルの命名ルールは非常に単純かつ形式的で、 たとえば例に挙げた松金洋子の画像の場合、 まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。 さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。 注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、 命名上の「桁数合わせ」が一切行われていないという点です。
123 名前:122-123 mailto:sage [2008/02/27(水) 14:12:23 ] ここから先が質問です。やりたいことは、 1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、 すべての画像に関して、より解像度の大きい物を、 番号の一番若いものから古いものまで全種類取って来たい。 2). その際、取って来た画像のファイル名を修正して、 youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。 3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。 具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の 1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。 以上をまとめると、参考例の松金洋子の画像で言えば、 youko11600x1200.jpg から youko481280x1024.jpg までの画像を、 youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。 これを実現するスクリプトをどう書けばいいでしょうか? なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、 ダウンロードを開始する前に手作業で調べることとします。
124 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:31:38 ] >>123 コントンジョノイコ スレタイを読んでからスクリプトスレに行け
125 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:43:56 ] >>122 >これを実現するスクリプトをどう書けばいいでしょうか? 変な書きかたをせずに普通に書けばいいと思うよ
126 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 18:52:00 ] >ダウンロードを開始する前に手作業で調べることとします。 むしろここをやりたいのかと思った… :-P
127 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/01(土) 03:23:35 ] とりあえず自分で書いたとこまでうpすればみんなが添削してくれる まず自分で書くんだ
128 名前:名無しさん@お腹いっぱい。 [2008/03/03(月) 14:00:03 ] wgetでダウンロードすると同名のファイルだと.1, .2とsuffixがついてしまいますが これを-1.拡張子とすることはできないでしょうか? 通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
129 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 14:45:41 ] zsh 記法なら for i in *.1 *.2 do j=${i:r} mv -i ${i} ${j:r}-${i:e}.${j:e} done
130 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 19:01:42 ] ありがとうございます。ダウンロードした後でリネームするのがいい方法ということですね。 なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。 自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。 wgetでダウンロードする時点ではでないんでしょうか。 for i in *.1 *.2 は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。 でもこれだと .3g2 もひっかかるか。
131 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 19:04:22 ] ああ*.222.htmlなんかも引っかかってしまうから全くだめですね。
132 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/22(土) 13:38:18 ] #!/usr/bin/perl @tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S", "Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z"); $baseurl = "www.candydoll.tv/images/ "; foreach $f(@tmp){ for ($i=1 ;$i < 7;$i++){ $imgname = sprintf"%s-images%02d", $f, $i $url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url; $cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd; } $a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f; system $a; $a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f; system $a; $a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f; system $a; $a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a; } system "rm *.pnm";
133 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 09:03:53 ] なんでpnm介してるの?
134 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 20:41:11 ] Webには 12 34 56 といった形で分割されてあげられてるんだけど、 これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。 なにかいい方法はないもんでしょうか。
135 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 21:13:20 ] よくわからんが、ImageMagick で convert -append / +append かな?
136 名前:132 mailto:sage [2008/03/24(月) 02:21:15 ] >>132 の8行目の末尾にセミコロンがないのを今更見つけたのもありますが、 >>135 さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。 #!/usr/bin/perl @tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S", "Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z"); $baseurl = "www.candydoll.tv/images/ "; foreach $f(@tmp){ for ($i=1 ;$i < 7;$i++){ $imgname = sprintf "%s-images%02d", $f, $i; $url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url; } $a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f; system $a; $a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f; system $a; $a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f; system $a; $a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f; system $a; } system "rm *.ppm";
137 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/24(月) 06:00:07 ] 10才とか12才とかって部分には誰もつっこまないのね
138 名前:単なるスクリプト練習道場 mailto:sage [2008/03/24(月) 09:38:42 ] 必ずしも皆サイトの方を見ているとは限らないって
139 名前:名無しさん@お腹いっぱい。 [2008/04/20(日) 01:18:07 ] 双葉ちゃんねるの画像をまとめてDL出来るローダーってありますか? 僕の使ってるやつだとサムネイル画像しか落とせないんですが。
140 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/20(日) 02:24:42 ] 双葉ちゃんねるってものすごく見にくいんだけど 2chブラウザみたいなやつでもあるの? 流れにまかせて適当に見るのが筋なのかな。
141 名前:名無しさん@お腹いっぱい。 [2008/05/06(火) 23:35:44 ] すんませんH画像じゃないんだけど、NHKニュースの動画の落とし方分かる人いませんか www3.nhk.or.jp/news/ 最近リニューアルしてから、ダウンロード出来なくなりました。 ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。 宜しくお願いします。
142 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/07(水) 17:28:51 ] ちょいと面倒だけど まず見てるページのソースコードを見ると wmvHigh = "cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi てなことが書いてある。次に view-source:cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi でさらに見ると <REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/> とか書いてある。こいつを録画すればおk
143 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/10(土) 21:01:38 ] >>142 うまくいきました。丁寧に教えてもらって感謝です。
144 名前:名無しさん@お腹いっぱい。 [2008/05/31(土) 18:03:17 ] jp.youtube.com/watch?v=5SMIgGAHAoU&feature=related jp.youtube.com/watch?v=looALHmz6aA&feature=related jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1 jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related jp.youtube.com/watch?v=srYyLjVihYQ&feature=related jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related jp.youtube.com/watch?v=9uF85UO9-lg&feature=related jp.youtube.com/watch?v=svH44ZUVE4A&feature=related jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1 jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1 鉄道をこよなく愛する人たち
145 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/31(土) 20:16:44 ] なんだこりゃ。ひどいな。
146 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 00:14:43 ] 今の最新のダウンロードスクリプトは何ですか?
147 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 05:41:53 ] やっぱzshのスクリプトじゃね?
148 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 23:27:08 ] グロ画像対策ってどうしてます?
149 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/06(日) 00:20:47 ] グロ画像好きになればいいんじゃないかな?
150 名前:名無しさん@お腹いっぱい。 [2008/09/21(日) 11:29:13 ] ウイルスにじゃから内容にね
151 名前:名無しさん@お腹いっぱい。 [2008/09/27(土) 21:48:19 ] Hな動画ならここclick-bb.com/banner.php?adid=817344 人気サイトです
152 名前:名無しさん@お腹いっぱい。 [2008/11/13(木) 19:08:26 ] 梶谷秀
153 名前:名無しさん@お腹いっぱい。 [2009/01/06(火) 01:43:12 ] 双葉がjavascript有効じゃないと落とせなくなった。 なんかいいツールはない?
154 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/10(土) 17:41:50 ] Firefoxと赤福使ってる。スクリプトでの取得はあきらめた。
155 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/23(金) 02:38:56 ] jp.youtube.com/watch?v=v_HyS1PKPs4&fmt=18 www.nicovideo.jp/watch/sm5750285
156 名前:名無しさん@お腹いっぱい。 [2009/03/26(木) 19:55:23 ] >>151 コラア!いてまうど!
157 名前:名無しさん@お腹いっぱい。 [2009/04/17(金) 11:58:35 ] g.e-hentai.org スクリプト (knoppix 5.1.3) original file name : getimgs.pl.txt 約5354.4日間保存 ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip pass : vip
158 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/06/04(木) 14:58:19 ] >>157 222行目と223行目逆じゃない?
159 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/06/05(金) 01:47:51 ] >>158 うん、逆だな。 その他にも、幾つかバグがあるようだ。 でも、転送制限があるサイトなので、あんまり使う気しない。 ※だいたい160枚前後で、転送休止ってどうなのよ?
160 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/07/21(火) 01:34:07 ] 壁紙の配布サイトがあるのだが、1枚1MB程度の壁紙が2000枚近くある。 これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
161 名前:160 mailto:sage [2009/07/21(火) 01:35:29 ] 追加情報で、サムネイル画像はthumbという文字列がファイル名に入ってるのでそれも除外することで、ちょっとは負荷をへらせると思う。
162 名前:名無しさん@お腹いっぱい。 [2009/07/21(火) 01:59:57 ] >>160 よくわからんが >数秒おきにダウンロードするようにしたい っていうのが要件であるのならsleepでもかませればいいんでないの。 固定時間で、ダウンローダ使っているのを推測されるのが嫌なら (そういうサイトがあるかはしらないけど) sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
163 名前:157 mailto:sage [2009/08/18(火) 23:34:32 ] g.e-hentai.org スクリプト get.pl readme.txt をzipにて同梱。 www1.axfc.net/uploader/Sc/so/28498.zip&key=vip
164 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/20(木) 00:41:03 ] >>163 解凍してみたが、readme.txt ehg.txt しか見当たらない。 get.plはいづこに?
165 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/20(木) 10:00:11 ] 現在特許申請中です
166 名前:157 mailto:sage [2009/08/20(木) 15:44:14 ] 非常に失礼しました。 g.e-hentai.org スクリプト get.pl readme.txt require_url.png をzipにて同梱。 ttp://www1.axfc.net/uploader/Sc/so/28995.zip&key=vip
167 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/20(木) 22:14:50 ] >>166 おお、サンキュー 早速、ゲット開始。 なんか色々新しくなってるね。きちんとエラー処理してあって 便利になってる。 スクリプトいぢって遊んでみるわ。ありがとう。
168 名前:187 mailto:sage [2009/08/20(木) 22:41:18 ] 355行目の mkdir ("$dirname", 777) or die $! ; のmaskを、0777に変更しないとうまく動作しなかった。 デレクトリィは、できるけど書込み出来ない。 perl, v5.8.6 built for darwinでの動作報告
169 名前:167 mailto:sage [2009/08/20(木) 22:42:18 ] 未来へ、小パス
170 名前:157 mailto:sage [2009/08/21(金) 09:25:11 ] >>168 報告ありがとうございます 直すかreadmeに入れておきます
171 名前:157 mailto:sage [2009/08/25(火) 22:42:42 ] imageFap スクリプト fap.pl readme.txt require_url.png を同梱。 使い方は、>>166 のスクリプトと全く同じです。 ttp://www1.axfc.net/uploader/Sc/so/30657.zip
172 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/29(土) 20:29:53 ] >>171 動いたずら。 fap.plの改行コードがCR+LFだった。
173 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/09/12(土) 12:14:31 ] >>166 >>171 ありがてぇありがてぇ
174 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/04(日) 23:34:23 ] つーるのつかいかたがわかんないです><
175 名前:名無しさん@お腹いっぱい。 [2009/10/09(金) 19:12:20 ] >>174 readme.txt 嫁
176 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/09(金) 20:50:01 ] >>166 ありがたいです しかし、100枚超えると普通にはじかれますね・・・ 串どうやって刺そうかな
177 名前:名無しさん@お腹いっぱい。 [2009/10/09(金) 22:49:02 ] 携帯専用ですが 無料のおかず画像サイト集めてみました s12.smhp%2ejp/abc1103
178 名前:157 mailto:sage [2009/10/10(土) 17:32:40 ] >>176 待つ時間を長くすればするほど 単位時間のダウンロードの大きさが減るので、 730行目あたりの関数 waitp を sub waitp { # wait process and random sleep. # process sleeps while ??? seconds, not "msec". # # if you want to use "msec" unit, use "select". # same effect of 'sleep' while 250 msec is, # "select(undef, undef, undef, 0.25) ;". # but, can't use progress bar. my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec. my $t = int ( rand ($base) / 1000 ) ; progbar (++$t) ; return 1 ; } などと書き換えてみてください。 帯域制限がかかりにくくなります。
179 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/12(月) 10:05:00 ] >>178 やるじゃん
180 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/13(火) 02:45:36 ] >>178 thx! ここへは検索でたどり着いた他所者で申し訳ないが助かるわ 昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には