- 1 名前:前スレ1 [2005/12/26(月) 02:56:22 ]
- 前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々
実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。 前スレ 連番のH画像を一気にダウンロードする pc8.2ch.net/test/read.cgi/unix/979106537/
- 58 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 18:09:21 ]
- unix系にはミーヤみたいなソフト無いの?
- 59 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 20:03:05 ]
- >>58
探せばあると思うよ pc8.2ch.net/test/read.cgi/linux/1136386462/l50
- 60 名前:名無しさん@お腹いっぱい。 [2006/07/16(日) 00:17:49 ]
- wineじゃだめか
- 61 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 14:11:33 ]
- >58
xv -vsmap が結局便利なんだよな いいソフトあれば紹介よろしゅう
- 62 名前:名無しさん@お腹いっぱい。 [2006/07/17(月) 22:18:09 ]
- >>48
再うpお願い出来ますでしょうか?
- 63 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 22:56:05 ]
- refuse to dance
- 64 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 22:58:32 ]
- >>61
個人的にはgimv使ってる。以前はxzgvが軽かったので使ってたのだけど、 ZIPファイルに入った同人誌をそのまま読めるので乗り換えた。
- 65 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:22:04 ]
- 俺もgimageview使ってる。
サムネイル表示出来て、画像表示も見やすくて、スケーリングが高品質な所が気に入ってる。
- 66 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:29:31 ]
- > スケーリングが高品質
ミーヤ(Intel)のイメージライブラリとどっちが上?
- 67 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/18(火) 00:00:37 ]
- gimvではbilinear補間を使ってるけど、hyperbolicなんか使ったこともないし、
コミック類はnearestのほうがいいかなと思うけど、 いちいち切り替えるのがめんどうだからそのまんま。 で、どの方法と比較したいの?
- 68 名前:名無しさん@お腹いっぱい。 [2006/07/24(月) 06:17:28 ]
- ハイビジョン映画などのコンテンツ
PCで見れるサイト見つけた! 無料で見れるものを凄く集まってる。 ハードディスクの容量足りない。(>_<) piggy2doggy.googlepages.com/
- 69 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/24(月) 11:21:12 ]
- 最近現れたのは拡張子が.shtmlでContent-type: text/plainな奴。
中身はHTMLで、画像へのリンクには乱数が入ってる。 つまりIEのContent-typeを無視するバグを利用しないと見れない。 とても嫌らしい。
- 70 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/26(水) 04:48:40 ]
- >>69
HTMLのソースからリンク抜きだしてwgetなりに渡すんじゃダメ?
- 71 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/29(土) 15:12:17 ]
- 連番は ttp://service.ifdef.jp/ のソースを保存して改良して
お気に入りでok
- 72 名前:名無しさん@お腹いっぱい。 [2006/07/29(土) 16:42:00 ]
- 宣伝?
- 73 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/29(土) 16:48:08 ]
- >>71
>>34 宣伝乙
- 74 名前:71 [2006/08/01(火) 15:19:52 ]
- >>34 にあったのね
すまん 宣伝じゃないよw
- 75 名前:名無しさん@お腹いっぱい。 [2006/08/06(日) 14:23:15 ]
- 過疎スレだな
- 76 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/08/06(日) 22:55:24 ]
- This is the thread in UNIX board.
- 77 名前:名無しさん@お腹いっぱい。 [2006/09/10(日) 13:07:12 ]
- hosyu
- 78 名前:名無しさん@お腹いっぱい。 [2006/09/13(水) 16:44:20 ]
- pthread_join( >>76, NULL );
- 79 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:27:18 ]
- 連番のH画像/動画を一気にアップロードする
いい方法はない? yahooとかlivedoor みたいなとこで。
- 80 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:35:56 ]
- >>79
URIの実例プリーズ
- 81 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 13:02:34 ]
- >>79
zip
- 82 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 18:59:58 ]
- >>80
例えばこんなところで↓ geocities.yahoo.co.jp/ photos.yahoo.co.jp/ briefcase.yahoo.co.jp/ >>81 それを昔していましたがzip以外でしたいです。
- 83 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/23(土) 08:49:55 ]
- >>82
lha
- 84 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 13:15:50 ]
- JavaScript で window.navigator.appName 見てるとこって
どうすればいいの?
- 85 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 23:46:36 ]
- どうしたいの?
- 86 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/24(日) 18:16:39 ]
- 今までcurlのお世話になってきたけど、今日LWP::UserAgent使って書き直した。
ステータスが200でtext/html返してきた時にリトライするようにしたかった。
- 87 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 01:56:18 ]
- 完璧だ。対artemisweb最終兵器かもしれない。
- 88 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:02:00 ]
- 次はHTML::Parser使ってwget相当のも作るか。夢が広がりんぐw
- 89 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:21:00 ]
- ヒント:今日はクリスマス
- 90 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:38:41 ]
- plagger のプラグインをきぼん。
- 91 名前:!dama mailto:sage [2007/01/02(火) 04:02:34 ]
- てすてす
- 92 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:35:38 ]
- HTML::Parser使ったwget相当のも出来た。
- 93 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:43:48 ]
- それ Plagger でできるお
- 94 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 02:40:27 ]
- 主目的はアルテミス対策の姑息なリトライ判定の導入ですから
それとHTML::*やHTTP::*やLWP::*のお勉強
- 95 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/20(土) 03:39:43 ]
- test
- 96 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 19:34:19 ]
- 連番ではないんですが、
imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。 例えばこんなのとか imepita.jp/20070402/701450 このurlをブラウザーで開くと普通にみれるのですが。 curlやwgetでこのURLを開くと404になってしまい、 htmlが取得できず困っています。 うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。 どなたか偉い方よろしくおねがいします
- 97 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:05:08 ]
- >>96
お約束の User-Agent: とか Referer: あたりはどうよ。
- 98 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:39:36 ]
- ブラウザーで直接開いてみれたので、Refererは試していませんでした。
User-Agent:は試したのですが変わらず・・・。 ちょっとRefererもやってみます。
- 99 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:44:05 ]
- refererいれても変わりませんでした
- 100 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 23:23:17 ]
- >>96
Accept-Language: ja とかは?
- 101 名前:96 mailto:sage [2007/04/03(火) 08:31:48 ]
- >100
神! ありがとうございました
- 102 名前:名無しさん@お腹いっぱい。 [2007/04/10(火) 23:16:28 ]
- みなさんが、
連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
- 103 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/21(土) 16:02:05 ]
- >>96とはべつの人なのですが、imepitaの画像をダウンロードできません。
ブラウザでは保存可能でした。 wget --referer='imepita.jp/20070402/701450' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22' としています。 指摘よろしくおねがいします。
- 104 名前:名無しさん@お腹いっぱい。 [2007/05/01(火) 13:54:45 ]
- imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください
- 105 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/01(火) 19:01:17 ]
- >>104
とりあえずURLを書きなさいよ
- 106 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 09:35:29 ]
- 結構難題(というか出来なかった)
ttp://infostore.org/info/3078906?refer=2257986&rs=2 → ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
- 107 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 10:51:18 ]
- lynx -dump 'infostore.org/info/3078906?refer=2257986&rs=2' |
grep -o '[^#]*' | grep 'imagevenue.com/img.php' | while read LINE; do lynx -dump -image_links $LINE | grep -o '[^#]*' | grep '/loc[0-9][0-9]*/' done
- 108 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 11:08:02 ]
- ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。
あとは sleep もいれたほうがいいかも
- 109 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 12:23:56 ]
- 俺んとこlynx入ってなかったのでsedとcurlで
$ cat hoge.sh #!/bin/sh curl -s "$1" | grep imagevenue | sed -n -e "s/href='\\([^']*\\)'/\\ HREF=\\1\\ /gp" | sed -n -e "/HREF=/s/HREF=//p" | while read URL do dir="`dirname \"$URL\"`" file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'` curl -s --referer "$URL" -O "$dir/$file" done $ ./hoge.sh 'infostore.org/info/3078906?refer=2257986&rs=2'
- 110 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 15:07:32 ]
- 勉強になるなぁ(何の???)
- 111 名前:名無しさん@お腹いっぱい。 [2007/05/05(土) 19:36:37 ]
- www.imagefap.com/gallery.php?gid=330938
>>105
- 112 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 23:32:55 ]
- >>111
imagefapは (1) ギャラリーページから全てのギャラリーページのURLを抽出 (2) 各ギャラリーページから画像ページのURLを抽出 (3) 画像ページから画像ファイルのURLを抽出 という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
- 113 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 09:10:45 ]
- ギャラリーページサムネイルのURLを置換してやればいいんでないの?
images.imagefap.com/images/thumb/11/141/1414518509.jpg images.imagefap.com/images/full/11/141/1414518509.jpg
- 114 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 21:18:14 ]
- get_links_from_url() { lynx -dump -image_links "$1" | grep -o '[^#]*'; }
for URL in `seq -f 'www.imagefap.com/gallery.php?gid=330938&page=%g' 0 8`; do echo get: $URL >&2 get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p' done
- 115 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/23(火) 21:46:50 ]
- 最近ぐっと来るネタがないっすねぇ
- 116 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/27(土) 02:27:20 ]
- 最近のエロ画像はZIPで固めてrapidshareだからなあ
- 117 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/30(日) 00:22:46 ]
- こういうアドレスが長く、不規則なのってどうやればいいでしょうか
ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/
- 118 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 21:10:52 ]
- こういう別サイトの画像ディレクトリを参照している場合って、うまい方法ありますか?
exgirlfriendmarket.com/perfect_tits_corina?
- 119 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 22:24:46 ]
- curl -O --referer 'exgirlfriendmarket.com/perfect_tits_corina/perfect_tits_corina-00.html' 'content1.nudeparadisehotel.com/femjoy/0681/[00-11].jpg'
- 120 名前:118 mailto:sage [2008/01/03(木) 01:46:07 ]
- >>119
さっそくの助言、ありがとうございます。 とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。 これを Unix のコマンドの組み合わせで ・画像一覧ページから ・個別の画像、もしくは画像表示ページへのリンクを辿り ・自動で巡回して、一定サイズ以上の JPG はダウンロードする ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。 だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。 お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
- 121 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 09:38:02 ]
- wget -r -l 2 とかで。あとは wget --help の↓に気をつける:
再帰ダウンロード時のフィルタ: -A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する -R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する -D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する --exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する --follow-ftp HTML 文書中の FTP リンクも取得対象にする --follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する --ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する -H, --span-hosts 再帰中に別のホストもダウンロード対象にする -L, --relative 相対リンクだけ取得対象にする -I, --include-directories=LIST 取得対象にするディレクトリを指定する -X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する -np, --no-parent 親ディレクトリを取得対象にしない
- 122 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:12:00 ]
- 以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、
今やそのスレが消えてしまったため、もう一度ここで質問させてください。 例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。 www.sexydesktop.co.uk/youko.htm ここには全部で4ページ分48種類の松金洋子の画像があります。 このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、 一つの画像に関して数種類の解像度・縦横比の画像が用意されており、 アクセスしてきた人の使っているディスプレイ解像度を検出しては、 最適な解像度のものを優先的にプッシュするようになっています。 また、画像ファイルの命名ルールは非常に単純かつ形式的で、 たとえば例に挙げた松金洋子の画像の場合、 まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。 さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。 注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、 命名上の「桁数合わせ」が一切行われていないという点です。
- 123 名前:122-123 mailto:sage [2008/02/27(水) 14:12:23 ]
- ここから先が質問です。やりたいことは、
1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、 すべての画像に関して、より解像度の大きい物を、 番号の一番若いものから古いものまで全種類取って来たい。 2). その際、取って来た画像のファイル名を修正して、 youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。 3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。 具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の 1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。 以上をまとめると、参考例の松金洋子の画像で言えば、 youko11600x1200.jpg から youko481280x1024.jpg までの画像を、 youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。 これを実現するスクリプトをどう書けばいいでしょうか? なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、 ダウンロードを開始する前に手作業で調べることとします。
- 124 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:31:38 ]
- >>123
コントンジョノイコ スレタイを読んでからスクリプトスレに行け
- 125 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:43:56 ]
- >>122
>これを実現するスクリプトをどう書けばいいでしょうか? 変な書きかたをせずに普通に書けばいいと思うよ
- 126 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 18:52:00 ]
- >ダウンロードを開始する前に手作業で調べることとします。
むしろここをやりたいのかと思った… :-P
- 127 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/01(土) 03:23:35 ]
- とりあえず自分で書いたとこまでうpすればみんなが添削してくれる
まず自分で書くんだ
- 128 名前:名無しさん@お腹いっぱい。 [2008/03/03(月) 14:00:03 ]
- wgetでダウンロードすると同名のファイルだと.1, .2とsuffixがついてしまいますが
これを-1.拡張子とすることはできないでしょうか? 通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
- 129 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 14:45:41 ]
- zsh 記法なら
for i in *.1 *.2 do j=${i:r} mv -i ${i} ${j:r}-${i:e}.${j:e} done
- 130 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 19:01:42 ]
- ありがとうございます。ダウンロードした後でリネームするのがいい方法ということですね。
なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。 自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。 wgetでダウンロードする時点ではでないんでしょうか。 for i in *.1 *.2 は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。 でもこれだと .3g2 もひっかかるか。
- 131 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/03(月) 19:04:22 ]
- ああ*.222.htmlなんかも引っかかってしまうから全くだめですね。
- 132 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/22(土) 13:38:18 ]
- #!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S", "Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z"); $baseurl = "www.candydoll.tv/images/"; foreach $f(@tmp){ for ($i=1 ;$i < 7;$i++){ $imgname = sprintf"%s-images%02d", $f, $i $url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url; $cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd; } $a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f; system $a; $a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f; system $a; $a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f; system $a; $a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a; } system "rm *.pnm";
- 133 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 09:03:53 ]
- なんでpnm介してるの?
- 134 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 20:41:11 ]
- Webには
12 34 56 といった形で分割されてあげられてるんだけど、 これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。 なにかいい方法はないもんでしょうか。
- 135 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/23(日) 21:13:20 ]
- よくわからんが、ImageMagick で
convert -append / +append かな?
- 136 名前:132 mailto:sage [2008/03/24(月) 02:21:15 ]
- >>132の8行目の末尾にセミコロンがないのを今更見つけたのもありますが、
>>135さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。 #!/usr/bin/perl @tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S", "Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z"); $baseurl = "www.candydoll.tv/images/"; foreach $f(@tmp){ for ($i=1 ;$i < 7;$i++){ $imgname = sprintf "%s-images%02d", $f, $i; $url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url; } $a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f; system $a; $a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f; system $a; $a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f; system $a; $a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f; system $a; } system "rm *.ppm";
- 137 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/24(月) 06:00:07 ]
- 10才とか12才とかって部分には誰もつっこまないのね
- 138 名前:単なるスクリプト練習道場 mailto:sage [2008/03/24(月) 09:38:42 ]
- 必ずしも皆サイトの方を見ているとは限らないって
- 139 名前:名無しさん@お腹いっぱい。 [2008/04/20(日) 01:18:07 ]
- 双葉ちゃんねるの画像をまとめてDL出来るローダーってありますか?
僕の使ってるやつだとサムネイル画像しか落とせないんですが。
- 140 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/20(日) 02:24:42 ]
- 双葉ちゃんねるってものすごく見にくいんだけど
2chブラウザみたいなやつでもあるの? 流れにまかせて適当に見るのが筋なのかな。
- 141 名前:名無しさん@お腹いっぱい。 [2008/05/06(火) 23:35:44 ]
- すんませんH画像じゃないんだけど、NHKニュースの動画の落とし方分かる人いませんか
www3.nhk.or.jp/news/ 最近リニューアルしてから、ダウンロード出来なくなりました。 ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。 宜しくお願いします。
- 142 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/07(水) 17:28:51 ]
- ちょいと面倒だけど
まず見てるページのソースコードを見ると wmvHigh = "cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi てなことが書いてある。次に view-source:cgi2.nhk.or.jp/news/cgibin/K10099999999_9999999999_0805071653_01t_mh.cgi でさらに見ると <REF HREF="mms://a669.v90561.c9056.g.vm.akamaistream.net/5/669/9056/48216095/1a1a1ad74ec5f82d5bc9319cca39abd943b3e250b52c9f/K10044234611_0805071619_0805071653_mh.wmv"/> とか書いてある。こいつを録画すればおk
- 143 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/10(土) 21:01:38 ]
- >>142
うまくいきました。丁寧に教えてもらって感謝です。
- 144 名前:名無しさん@お腹いっぱい。 [2008/05/31(土) 18:03:17 ]
- jp.youtube.com/watch?v=5SMIgGAHAoU&feature=related
jp.youtube.com/watch?v=looALHmz6aA&feature=related jp.youtube.com/watch?v=XlJkpEsaYMY&NR=1 jp.youtube.com/watch?v=aJ47PkaeM_M&feature=related jp.youtube.com/watch?v=vsbv9Y-oPxg&feature=related jp.youtube.com/watch?v=srYyLjVihYQ&feature=related jp.youtube.com/watch?v=GyY_GFtj5Tg&feature=related jp.youtube.com/watch?v=9uF85UO9-lg&feature=related jp.youtube.com/watch?v=svH44ZUVE4A&feature=related jp.youtube.com/watch?v=k9OJL0c-CBg&feature=related jp.youtube.com/watch?v=I7nMFPYuF7o&feature=related jp.youtube.com/watch?v=Kci1bOlAOCY&NR=1 jp.youtube.com/watch?v=yXPS8v7VqVg&feature=related jp.youtube.com/watch?v=jpgH4CrHXF8&NR=1 鉄道をこよなく愛する人たち
- 145 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/31(土) 20:16:44 ]
- なんだこりゃ。ひどいな。
- 146 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 00:14:43 ]
- 今の最新のダウンロードスクリプトは何ですか?
- 147 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 05:41:53 ]
- やっぱzshのスクリプトじゃね?
- 148 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/05(土) 23:27:08 ]
- グロ画像対策ってどうしてます?
- 149 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/06(日) 00:20:47 ]
- グロ画像好きになればいいんじゃないかな?
- 150 名前:名無しさん@お腹いっぱい。 [2008/09/21(日) 11:29:13 ]
- ウイルスにじゃから内容にね
- 151 名前:名無しさん@お腹いっぱい。 [2008/09/27(土) 21:48:19 ]
- Hな動画ならここclick-bb.com/banner.php?adid=817344人気サイトです
- 152 名前:名無しさん@お腹いっぱい。 [2008/11/13(木) 19:08:26 ]
- 梶谷秀
- 153 名前:名無しさん@お腹いっぱい。 [2009/01/06(火) 01:43:12 ]
- 双葉がjavascript有効じゃないと落とせなくなった。
なんかいいツールはない?
- 154 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/10(土) 17:41:50 ]
- Firefoxと赤福使ってる。スクリプトでの取得はあきらめた。
- 155 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/23(金) 02:38:56 ]
- jp.youtube.com/watch?v=v_HyS1PKPs4&fmt=18
www.nicovideo.jp/watch/sm5750285
- 156 名前:名無しさん@お腹いっぱい。 [2009/03/26(木) 19:55:23 ]
- >>151
コラア!いてまうど!
- 157 名前:名無しさん@お腹いっぱい。 [2009/04/17(金) 11:58:35 ]
- g.e-hentai.org スクリプト
(knoppix 5.1.3) original file name : getimgs.pl.txt 約5354.4日間保存 ttp://www1.axfc.net/uploader/File/so/21579.txt&key=vip pass : vip
- 158 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/06/04(木) 14:58:19 ]
- >>157
222行目と223行目逆じゃない?
|

|