1 名前:前スレ1 [2005/12/26(月) 02:56:22 ] 前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々 実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。 前スレ 連番のH画像を一気にダウンロードする pc8.2ch.net/test/read.cgi/unix/979106537/
101 名前:96 mailto:sage [2007/04/03(火) 08:31:48 ] >100 神! ありがとうございました
102 名前:名無しさん@お腹いっぱい。 [2007/04/10(火) 23:16:28 ] みなさんが、 連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
103 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/21(土) 16:02:05 ] >>96 とはべつの人なのですが、imepitaの画像をダウンロードできません。 ブラウザでは保存可能でした。 wget --referer='imepita.jp/20070402/701450 ' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22 ' としています。 指摘よろしくおねがいします。
104 名前:名無しさん@お腹いっぱい。 [2007/05/01(火) 13:54:45 ] imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください
105 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/01(火) 19:01:17 ] >>104 とりあえずURLを書きなさいよ
106 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 09:35:29 ] 結構難題(というか出来なかった) ttp://infostore.org/info/3078906?refer=2257986&rs=2 → ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
107 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 10:51:18 ] lynx -dump 'infostore.org/info/3078906?refer=2257986&rs=2 ' | grep -o '[^#]* ' | grep 'imagevenue.com/img.php' | while read LINE; do lynx -dump -image_links $LINE | grep -o '[^#]* ' | grep '/loc[0-9][0-9]*/' done
108 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 11:08:02 ] ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。 あとは sleep もいれたほうがいいかも
109 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 12:23:56 ] 俺んとこlynx入ってなかったのでsedとcurlで $ cat hoge.sh #!/bin/sh curl -s "$1" | grep imagevenue | sed -n -e "s/href='\\([^']*\\)'/\\ HREF=\\1\\ /gp" | sed -n -e "/HREF=/s/HREF=//p" | while read URL do dir="`dirname \"$URL\"`" file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'` curl -s --referer "$URL" -O "$dir/$file" done $ ./hoge.sh 'infostore.org/info/3078906?refer=2257986&rs=2 '
110 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 15:07:32 ] 勉強になるなぁ(何の???)
111 名前:名無しさん@お腹いっぱい。 [2007/05/05(土) 19:36:37 ] www.imagefap.com/gallery.php?gid=330938 >>105
112 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 23:32:55 ] >>111 imagefapは (1) ギャラリーページから全てのギャラリーページのURLを抽出 (2) 各ギャラリーページから画像ページのURLを抽出 (3) 画像ページから画像ファイルのURLを抽出 という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
113 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 09:10:45 ] ギャラリーページサムネイルのURLを置換してやればいいんでないの? images.imagefap.com/images/thumb/11/141/1414518509.jpg images.imagefap.com/images/full/11/141/1414518509.jpg
114 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 21:18:14 ] get_links_from_url() { lynx -dump -image_links "$1" | grep -o '[^#]* '; } for URL in `seq -f 'www.imagefap.com/gallery.php?gid=330938&page=%g ' 0 8`; do echo get: $URL >&2 get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p' done
115 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/23(火) 21:46:50 ] 最近ぐっと来るネタがないっすねぇ
116 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/27(土) 02:27:20 ] 最近のエロ画像はZIPで固めてrapidshareだからなあ
117 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/30(日) 00:22:46 ] こういうアドレスが長く、不規則なのってどうやればいいでしょうか ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
118 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 21:10:52 ] こういう別サイトの画像ディレクトリを参照している場合って、うまい方法ありますか? exgirlfriendmarket.com/perfect_tits_corina?
119 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 22:24:46 ] curl -O --referer 'exgirlfriendmarket.com/perfect_tits_corina/perfect_tits_corina-00.html ' 'content1.nudeparadisehotel.com/femjoy/0681/[00-11].jpg '
120 名前:118 mailto:sage [2008/01/03(木) 01:46:07 ] >>119 さっそくの助言、ありがとうございます。 とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。 これを Unix のコマンドの組み合わせで ・画像一覧ページから ・個別の画像、もしくは画像表示ページへのリンクを辿り ・自動で巡回して、一定サイズ以上の JPG はダウンロードする ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。 だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。 お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
121 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 09:38:02 ] wget -r -l 2 とかで。あとは wget --help の↓に気をつける: 再帰ダウンロード時のフィルタ: -A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する -R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する -D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する --exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する --follow-ftp HTML 文書中の FTP リンクも取得対象にする --follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する --ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する -H, --span-hosts 再帰中に別のホストもダウンロード対象にする -L, --relative 相対リンクだけ取得対象にする -I, --include-directories=LIST 取得対象にするディレクトリを指定する -X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する -np, --no-parent 親ディレクトリを取得対象にしない
122 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:12:00 ] 以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、 今やそのスレが消えてしまったため、もう一度ここで質問させてください。 例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。 www.sexydesktop.co.uk/youko.htm ここには全部で4ページ分48種類の松金洋子の画像があります。 このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、 一つの画像に関して数種類の解像度・縦横比の画像が用意されており、 アクセスしてきた人の使っているディスプレイ解像度を検出しては、 最適な解像度のものを優先的にプッシュするようになっています。 また、画像ファイルの命名ルールは非常に単純かつ形式的で、 たとえば例に挙げた松金洋子の画像の場合、 まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。 さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。 注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、 命名上の「桁数合わせ」が一切行われていないという点です。
123 名前:122-123 mailto:sage [2008/02/27(水) 14:12:23 ] ここから先が質問です。やりたいことは、 1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、 すべての画像に関して、より解像度の大きい物を、 番号の一番若いものから古いものまで全種類取って来たい。 2). その際、取って来た画像のファイル名を修正して、 youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。 3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。 具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の 1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。 以上をまとめると、参考例の松金洋子の画像で言えば、 youko11600x1200.jpg から youko481280x1024.jpg までの画像を、 youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。 これを実現するスクリプトをどう書けばいいでしょうか? なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、 ダウンロードを開始する前に手作業で調べることとします。
124 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:31:38 ] >>123 コントンジョノイコ スレタイを読んでからスクリプトスレに行け
125 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:43:56 ] >>122 >これを実現するスクリプトをどう書けばいいでしょうか? 変な書きかたをせずに普通に書けばいいと思うよ
126 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 18:52:00 ] >ダウンロードを開始する前に手作業で調べることとします。 むしろここをやりたいのかと思った… :-P
127 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/01(土) 03:23:35 ] とりあえず自分で書いたとこまでうpすればみんなが添削してくれる まず自分で書くんだ
128 名前:名無しさん@お腹いっぱい。 [2008/03/03(月) 14:00:03 ] wgetでダウンロードすると同名のファイルだと.1, .2とsuffixがついてしまいますが これを-1.拡張子とすることはできないでしょうか? 通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
129 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 14:45:41 ] zsh 記法なら for i in *.1 *.2 do j=${i:r} mv -i ${i} ${j:r}-${i:e}.${j:e} done
130 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 19:01:42 ] ありがとうございます。ダウンロードした後でリネームするのがいい方法ということですね。 なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。 自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。 wgetでダウンロードする時点ではでないんでしょうか。 for i in *.1 *.2 は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。 でもこれだと .3g2 もひっかかるか。
131 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 19:04:22 ] ああ*.222.htmlなんかも引っかかってしまうから全くだめですね。
132 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/22(土) 13:38:18 ] #!/usr/bin/perl @tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S", "Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z"); $baseurl = "www.candydoll.tv/images/ "; foreach $f(@tmp){ for ($i=1 ;$i < 7;$i++){ $imgname = sprintf"%s-images%02d", $f, $i $url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url; $cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd; } $a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f; system $a; $a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f; system $a; $a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f; system $a; $a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a; } system "rm *.pnm";
133 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 09:03:53 ] なんでpnm介してるの?
134 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 20:41:11 ] Webには 12 34 56 といった形で分割されてあげられてるんだけど、 これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。 なにかいい方法はないもんでしょうか。
135 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 21:13:20 ] よくわからんが、ImageMagick で convert -append / +append かな?
136 名前:132 mailto:sage [2008/03/24(月) 02:21:15 ] >>132 の8行目の末尾にセミコロンがないのを今更見つけたのもありますが、 >>135 さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。 #!/usr/bin/perl @tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S", "Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z"); $baseurl = "www.candydoll.tv/images/ "; foreach $f(@tmp){ for ($i=1 ;$i < 7;$i++){ $imgname = sprintf "%s-images%02d", $f, $i; $url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url; } $a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f; system $a; $a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f; system $a; $a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f; system $a; $a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f; system $a; } system "rm *.ppm";
137 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/24(月) 06:00:07 ] 10才とか12才とかって部分には誰もつっこまないのね
138 名前:単なるスクリプト練習道場 mailto:sage [2008/03/24(月) 09:38:42 ] 必ずしも皆サイトの方を見ているとは限らないって
139 名前:名無しさん@お腹いっぱい。 [2008/04/20(日) 01:18:07 ] 双葉ちゃんねるの画像をまとめてDL出来るローダーってありますか? 僕の使ってるやつだとサムネイル画像しか落とせないんですが。
140 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/20(日) 02:24:42 ] 双葉ちゃんねるってものすごく見にくいんだけど 2chブラウザみたいなやつでもあるの? 流れにまかせて適当に見るのが筋なのかな。
141 名前:名無しさん@お腹いっぱい。 [2008/05/06(火) 23:35:44 ] すんませんH画像じゃないんだけど、NHKニュースの動画の落とし方分かる人いませんか www3.nhk.or.jp/news/ 最近リニューアルしてから、ダウンロード出来なくなりました。 ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。 宜しくお願いします。
142 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/07(水) 17:28:51 ] ちょいと面倒だけど まず見てるページのソースコードを見ると wmvHigh = "cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi てなことが書いてある。次に view-source:cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi でさらに見ると <REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/> とか書いてある。こいつを録画すればおk
143 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/10(土) 21:01:38 ] >>142 うまくいきました。丁寧に教えてもらって感謝です。
144 名前:名無しさん@お腹いっぱい。 [2008/05/31(土) 18:03:17 ] jp.youtube.com/watch?v=5SMIgGAHAoU&feature=related jp.youtube.com/watch?v=looALHmz6aA&feature=related jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1 jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related jp.youtube.com/watch?v=srYyLjVihYQ&feature=related jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related jp.youtube.com/watch?v=9uF85UO9-lg&feature=related jp.youtube.com/watch?v=svH44ZUVE4A&feature=related jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1 jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1 鉄道をこよなく愛する人たち
145 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/31(土) 20:16:44 ] なんだこりゃ。ひどいな。
146 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 00:14:43 ] 今の最新のダウンロードスクリプトは何ですか?
147 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 05:41:53 ] やっぱzshのスクリプトじゃね?
148 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 23:27:08 ] グロ画像対策ってどうしてます?
149 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/06(日) 00:20:47 ] グロ画像好きになればいいんじゃないかな?
150 名前:名無しさん@お腹いっぱい。 [2008/09/21(日) 11:29:13 ] ウイルスにじゃから内容にね
151 名前:名無しさん@お腹いっぱい。 [2008/09/27(土) 21:48:19 ] Hな動画ならここclick-bb.com/banner.php?adid=817344 人気サイトです
152 名前:名無しさん@お腹いっぱい。 [2008/11/13(木) 19:08:26 ] 梶谷秀
153 名前:名無しさん@お腹いっぱい。 [2009/01/06(火) 01:43:12 ] 双葉がjavascript有効じゃないと落とせなくなった。 なんかいいツールはない?
154 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/10(土) 17:41:50 ] Firefoxと赤福使ってる。スクリプトでの取得はあきらめた。
155 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/23(金) 02:38:56 ] jp.youtube.com/watch?v=v_HyS1PKPs4&fmt=18 www.nicovideo.jp/watch/sm5750285
156 名前:名無しさん@お腹いっぱい。 [2009/03/26(木) 19:55:23 ] >>151 コラア!いてまうど!
157 名前:名無しさん@お腹いっぱい。 [2009/04/17(金) 11:58:35 ] g.e-hentai.org スクリプト (knoppix 5.1.3) original file name : getimgs.pl.txt 約5354.4日間保存 ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip pass : vip
158 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/06/04(木) 14:58:19 ] >>157 222行目と223行目逆じゃない?
159 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/06/05(金) 01:47:51 ] >>158 うん、逆だな。 その他にも、幾つかバグがあるようだ。 でも、転送制限があるサイトなので、あんまり使う気しない。 ※だいたい160枚前後で、転送休止ってどうなのよ?
160 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/07/21(火) 01:34:07 ] 壁紙の配布サイトがあるのだが、1枚1MB程度の壁紙が2000枚近くある。 これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
161 名前:160 mailto:sage [2009/07/21(火) 01:35:29 ] 追加情報で、サムネイル画像はthumbという文字列がファイル名に入ってるのでそれも除外することで、ちょっとは負荷をへらせると思う。
162 名前:名無しさん@お腹いっぱい。 [2009/07/21(火) 01:59:57 ] >>160 よくわからんが >数秒おきにダウンロードするようにしたい っていうのが要件であるのならsleepでもかませればいいんでないの。 固定時間で、ダウンローダ使っているのを推測されるのが嫌なら (そういうサイトがあるかはしらないけど) sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
163 名前:157 mailto:sage [2009/08/18(火) 23:34:32 ] g.e-hentai.org スクリプト get.pl readme.txt をzipにて同梱。 www1.axfc.net/uploader/Sc/so/28498.zip&key=vip
164 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/20(木) 00:41:03 ] >>163 解凍してみたが、readme.txt ehg.txt しか見当たらない。 get.plはいづこに?
165 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/20(木) 10:00:11 ] 現在特許申請中です
166 名前:157 mailto:sage [2009/08/20(木) 15:44:14 ] 非常に失礼しました。 g.e-hentai.org スクリプト get.pl readme.txt require_url.png をzipにて同梱。 ttp://www1.axfc.net/uploader/Sc/so/28995.zip&key=vip
167 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/20(木) 22:14:50 ] >>166 おお、サンキュー 早速、ゲット開始。 なんか色々新しくなってるね。きちんとエラー処理してあって 便利になってる。 スクリプトいぢって遊んでみるわ。ありがとう。
168 名前:187 mailto:sage [2009/08/20(木) 22:41:18 ] 355行目の mkdir ("$dirname", 777) or die $! ; のmaskを、0777に変更しないとうまく動作しなかった。 デレクトリィは、できるけど書込み出来ない。 perl, v5.8.6 built for darwinでの動作報告
169 名前:167 mailto:sage [2009/08/20(木) 22:42:18 ] 未来へ、小パス
170 名前:157 mailto:sage [2009/08/21(金) 09:25:11 ] >>168 報告ありがとうございます 直すかreadmeに入れておきます
171 名前:157 mailto:sage [2009/08/25(火) 22:42:42 ] imageFap スクリプト fap.pl readme.txt require_url.png を同梱。 使い方は、>>166 のスクリプトと全く同じです。 ttp://www1.axfc.net/uploader/Sc/so/30657.zip
172 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/08/29(土) 20:29:53 ] >>171 動いたずら。 fap.plの改行コードがCR+LFだった。
173 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/09/12(土) 12:14:31 ] >>166 >>171 ありがてぇありがてぇ
174 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/04(日) 23:34:23 ] つーるのつかいかたがわかんないです><
175 名前:名無しさん@お腹いっぱい。 [2009/10/09(金) 19:12:20 ] >>174 readme.txt 嫁
176 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/09(金) 20:50:01 ] >>166 ありがたいです しかし、100枚超えると普通にはじかれますね・・・ 串どうやって刺そうかな
177 名前:名無しさん@お腹いっぱい。 [2009/10/09(金) 22:49:02 ] 携帯専用ですが 無料のおかず画像サイト集めてみました s12.smhp%2ejp/abc1103
178 名前:157 mailto:sage [2009/10/10(土) 17:32:40 ] >>176 待つ時間を長くすればするほど 単位時間のダウンロードの大きさが減るので、 730行目あたりの関数 waitp を sub waitp { # wait process and random sleep. # process sleeps while ??? seconds, not "msec". # # if you want to use "msec" unit, use "select". # same effect of 'sleep' while 250 msec is, # "select(undef, undef, undef, 0.25) ;". # but, can't use progress bar. my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec. my $t = int ( rand ($base) / 1000 ) ; progbar (++$t) ; return 1 ; } などと書き換えてみてください。 帯域制限がかかりにくくなります。
179 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/12(月) 10:05:00 ] >>178 やるじゃん
180 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/13(火) 02:45:36 ] >>178 thx! ここへは検索でたどり着いた他所者で申し訳ないが助かるわ 昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には
181 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/13(火) 05:57:36 ] g.e-hentai.orgのスクリプトの使い方がよくわからなくて困っています 付属のReadmeを読んでみて自分なりに試してみたのですがうまくいかず 本体を起動すると黒い窓と文字が一瞬表示されるのですが すぐに消えてしまうためなんとかプリントスクリーンで撮影して そこに書いてあったリストの作成などもしてみたのですけどダメでしたorz プログラムなどの知識皆無なのでそもそも場違いとも思うのですが、 どなたか教えていただけないでしょうか?
182 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/13(火) 06:47:37 ] >>181 g.e-hentai.orgからアクセス制限がかかってる現在の状況下で さらに自分で調べもしない人間達にでも使えるように説明しろと? 正気ですか? お前の目の前にある箱はなんだよ?飾りか? >自分なりに試してみたのですが もっとやれ もっともっとやれ 救いな事に>>157 氏のファイルはインチキじゃない 自分で勉強すれば必ず結果が伴う
183 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/14(水) 12:55:49 ] 黒い窓とか釣りだろ。 >>181 Linux勉強してLinuxで実行するといいよ
184 名前:名無しさん@お腹いっぱい。 [2009/10/20(火) 09:36:45 ] e-hentaiの制限が2日ほど続いているのですが、 皆さんはどれくらいの期間、制限かかってます? 初めのころは1・2時間程度だったのになあ。
185 名前:名無しさん@お腹いっぱい。 [2009/10/21(水) 21:16:44 ] blogwatcher.pi.titech.ac.jp/nandemorss/index.cgi?url=http%3A%2F%2Fpc12.2ch.net%2Ftest%2Fread.cgi%2Funix%2F1135533382%2F
186 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/23(金) 04:59:37 ] >>157 氏のe-hentaiのダウンロードスクリプトに串を噛ませようと思ってるんだけど 串の設定項目が無いのでDL専用の仮想マシンを作ってシステム全体に串を噛まそうと思う yumとかで実践されてるこの方法が一番かな blog.livedoor.jp/glantank/archives/50952655.html
187 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/10/23(金) 05:29:17 ] と思ったらTor串焼かれまくってて笑った これだけ神経質だとISPごとアク禁とか何のためらいもなくやりそうで怖いなw
188 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/16(月) 09:44:27 ] ちくしょーーーー!実行してもスクリプト弾かれちまう…なんとかならないかなぁ
189 名前:名無しさん@お腹いっぱい。 [2009/11/17(火) 02:10:06 ] He_252405.zip ぱす chinko E-Hentaiからダウンするなら最近これ使ってるけどな。 転送制限もなぜかかかりにくい。600枚位連続で落としたが、まだいけそうだ。 どやって回避してんのかな。 Win用だからスレチかもしれんが。
190 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/17(火) 21:28:52 ] 帯域制限かかってからはや3日が過ぎた いつ解除されんのかな
191 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/17(火) 22:46:25 ] >>189 ちょっと、試してみた。 結局おれんトコでは、150枚くらいで転送制限になった。 転送制限中ですよ画像も、ダウンロードしちゃうよ。w >>190 もう、そろそろじゃない? 五日くらい制限喰らった時も有ったような。
192 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/18(水) 01:16:26 ] 509 bandwidth exceeded you have temporarily reached the limit for how many images you can browse -if you haven't already, you can double your daily quota simply by signing up for an absolutely free forums account at, forums.e-hetai.org/ - you can run the hentai@home distributed image server to help us serve more images. this will give you points which can be used to increase your page view limit, and cache files locally so they are ready when you wish to view them. (check the news dorum for moredetails and signup information) please understand that e-hentai galleries is a free service, and to keep it free we must limit the amount of images anyone person can view. if you come back in a few hours, you will be able to download more. 暇だから写した 157氏のスクリプト試したら4枚で… 閲覧や手作業での保存も出来ず悶悶 解除されたらチンコの試そう >>191 そんなにかかるのか 確認に行って509返されて期間延長とかないよな
193 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/18(水) 01:56:14 ] >>189 再うpキボンヌ
194 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/19(木) 02:05:56 ] >>192 だけどいつの間にか制限解除きてた
195 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/11/30(月) 23:57:45 ] >>189 はどんなツールだったの?
196 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/12/01(火) 21:27:46 ] >>195 画像ダウンロードアプリですよ。 ダウンする時に、サムネイルプレビューが見えるのが親切設計。 転送制限回避は、どうも環境によるとしか胃炎。つーか、分からん
197 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/12/02(水) 01:30:52 ] うpしてちょ…
198 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/12/03(木) 14:41:23 ] tumblrのRSSフィードから画像をダウンロードするスクリプトとか 誰か作ってませんか?
199 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/12/03(木) 16:08:22 ] 157氏のスクリプト、この前までは順調に使えてたが、 今日また使おうとしたら、 Invalid argument at get.pl line 438. って吐き出して止まってしまう・・
200 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/12/04(金) 03:35:56 ] >>171 はURLチェックの部分にwwwを加えないと初っ端で失敗 作成したときはwwwがなかったのかな それと、それでも the list file name is www.imagefap.com/gallery/*******.list. the directory name will be www.imagefap.com/gallery/*******. www.imagefap.com/gallery/******** does not exist. Invalid argument at C:\Documents and Settings\-----\fap.pl line 239. make a directory: ってエラー出て止まるんだけどどうすればいいべさ