[表示 : 全て 最新50 1-99 101- 201- 301- 2chのread.cgiへ]
Update time : 02/15 10:25 / Filesize : 73 KB / Number-of Response : 302
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像/動画を一気にダウンロードする2



1 名前:前スレ1 [2005/12/26(月) 02:56:22 ]
前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々
実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。
前スレ 連番のH画像を一気にダウンロードする
pc8.2ch.net/test/read.cgi/unix/979106537/

25 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 19:03:09 ]
ttp://2.dtiblog.com/g/gazo/file/27083.jpg
数字は可変
根こそぎ落とすにはどうすればいいでしょうか。
今は仕方ないので、シェルスクリプトでアドレスを片っ端から書いた
リストを作ってそれをwgetで読み込ませていますが、もっとスマートな方法が
無いものか。

26 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 20:37:08 ]
>25
そうやって悩んでいろいろやっているうちに、
立派なUnix使いに成長していきますよ。

27 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 23:24:50 ]
>>25
神様はseqを与えられた。

28 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 16:37:43 ]
>>25俺にもurabonのアドレスを片っ端から書いていた時代がありました。

29 名前:名無しさん@お腹いっぱい。 [2006/05/05(金) 17:21:54 ]
>>25
Firefox+FlashGotが(・∀・)イイ!!

30 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/06(土) 17:41:31 ]
GW中にエログ巡回して画像保存してその日に新しくダウンロードした画像のスライドショーのHTMLを吐き出すスクリプト書こうと思ってたのに
もうGW終わっちゃうよう。いつでも書けるけどまとまった時間で書きたかったのに

31 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/06(土) 21:10:56 ]
もはや画像自体はどうでもよくなってきてるが…

意外と手強いパターン
ttp://x.warnet.ws/img/119/image/DDF2.htm

なかを見ると
ttp://img17.imagevenue.com/img.php?loc=loc24&image=28455_7519060.jpg
みたいな連番対策付きのファイル名になってて
実際のデータはさらにハッシュつきdirの中。
ttp://img17.imagevenue.com/aAfkjfp01fo1i-5116/loc24/28455_7519060.jpg

2段階再帰かければ届きそうだけど


32 名前:名無しさん@お腹いっぱい。 [2006/05/06(土) 23:23:27 ]
>>31
そんなの俺ならあきらめて俺も再帰だな
wgetに-lオプションつけて

33 名前:名無しさん@お腹いっぱい。 [2006/05/07(日) 01:15:17 ]
まじな話、grepのようなコマンドをほかのサーバにログインしないで
かける方法ってないもんか



34 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/08(月) 19:00:10 ]
まじな話
enum.ninpou.jp/
これ使えばいいじゃん(jpgのダウンで使用)


35 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/08(月) 19:51:42 ]
>>34
宣伝乙

36 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/09(火) 02:38:02 ]
>>34イラネ

37 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 03:44:48 ]
ブラウザ(w3m含む)では見れる
theblind.liveadulthost.com/087/001.jpg

wget 出来ない(--referer は試した)

ナジェ?

38 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 09:35:49 ]
>>37
User-Agent

39 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/18(木) 13:02:55 ]
>>38
そうみたいだね。

>>37
%wget -U='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT 5.0; .NET CLR 1.0.3705)' theblind.liveadulthost.com/087/{001..100}.jpg


40 名前:39 mailto:sage [2006/05/18(木) 13:24:58 ]
画像120まであった。
100を120に訂正してね。

41 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/19(金) 01:33:55 ]
>>39
001.jpgじゃなくて1.jpgにされてしまってだめだったぞ。
俺はこれ
seq -f theblind.liveadulthost.com/087/%03g.jpg 1 120|wget -U ' ' -i -

42 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/19(金) 20:38:43 ]
毎回UAのオプション付けるの面倒だから、
俺は~/.wgetrcに以下を追加してる
user_agent=Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322)


43 名前:名無しさん@お腹いっぱい。 [2006/05/27(土) 09:17:13 ]
hp34.0zero.jp/667/deaitwo/



44 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/27(土) 21:32:36 ]
ダウンロードじゃないけど linux 版(wine版)の picasa が出たってさ

45 名前:名無しさん@お腹いっぱい。 [2006/06/12(月) 13:04:46 ]
トラジ復活age

46 名前:名無しさん@お腹いっぱい。 [2006/06/15(木) 12:23:05 ]
ようつべオワタ\(^o^)/

47 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 10:03:32 ]
この辺は結構強敵
ttp://www.imagefap.com/gallery.php?gid=188736

htmlパースして thumb => full 置換すればいいんだけど
順序が失われるんでカウンタ用意してリネーム...

そろそろ 手軽に の領域じゃねーな

48 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 20:05:05 ]
自作のしょぼいダウンローダうp
ttp://file300kb.run.buttobi.net/fl/src/Oil0393.txt

例えば>>47なら
$ ./exwgetr -a -o -d "/thumb/.*.jpg$" "www.imagefap.com/gallery.php?gid=188736 " | sed "s/thumb/full/" | wget -i -

49 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 12:22:33 ]
>>48
なかなか使えますね〜
ありがたく使わさせて頂きますです。(謝謝!

50 名前:名無しさん@Vim%Chalice [2006/07/03(月) 23:02:34 ]
>>48
オイラも便利に使わしてもらってます。

今まで泥臭くやってたけど
一発でhtmlパースしてgrepまでこなしちゃうスクリプト素敵。
perl使いカコイイなぁ...素敵なスクリプトありが豚です。

51 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/04(火) 00:22:47 ]
ちょっと恥ずかしいバグ修正版です
ttp://file300kb.run.buttobi.net/fl/src/Oil0405.txt
503とか通信エラーにめっぽう弱い(なんとリトライ機能がついてない!)のでご注意を……

52 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/04(火) 03:26:51 ]
wget を使っているのですが、ファイルスタンプが、そのファイルが出来た日付たとえば、
2004/05/12見たいな感じで取り込まれてしまいます。
そうではなく、取り込んだ日付ex 2006/07/04に変更するwgetのオプションってありますか?
wget -N かと思ったのですが、どうも違うみたいです。

53 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/04(火) 08:04:31 ]
touch しちゃうのはだめ?



54 名前:52 mailto:sage [2006/07/05(水) 10:48:01 ]
>>53
touchで行けました。ありがとうございました。
touchでは、空のファイル(0バイト)に強制的になるのかと思ってました。
時刻だけ変更できるのですね。

55 名前:名無しさん@お腹いっぱい。 [2006/07/15(土) 11:40:15 ]
さっきコミックをダウンロードして
早速DVDーRに落とそうとしたのですが容量が大きいんです。
それで圧縮したまま落としたんですが今度は
コミックの画像をめくろうとしてもめくれなくなりました。
(すべて展開したときはめくれました)
そこでDVD-Rにコミックを上手に落とすやり方を教えてください。


56 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 11:51:46 ]
DVD-Rはポリカーボネート樹脂でできているから、
コミック程度の重さならどんな落しかたでも問題ないと思うよ。

57 名前:名無しさん@お腹いっぱい。 [2006/07/15(土) 17:22:21 ]
>>55
マジレスすると、ウインドウズ系の圧縮フォルダ機能は全て展開しないとページめくりは出来ない

結論
コミックくらい買え

58 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 18:09:21 ]
unix系にはミーヤみたいなソフト無いの?

59 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 20:03:05 ]
>>58
探せばあると思うよ
pc8.2ch.net/test/read.cgi/linux/1136386462/l50

60 名前:名無しさん@お腹いっぱい。 [2006/07/16(日) 00:17:49 ]
wineじゃだめか

61 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 14:11:33 ]
>58
xv -vsmap が結局便利なんだよな

いいソフトあれば紹介よろしゅう

62 名前:名無しさん@お腹いっぱい。 [2006/07/17(月) 22:18:09 ]
>>48
再うpお願い出来ますでしょうか?

63 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 22:56:05 ]
refuse to dance



64 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 22:58:32 ]
>>61
個人的にはgimv使ってる。以前はxzgvが軽かったので使ってたのだけど、
ZIPファイルに入った同人誌をそのまま読めるので乗り換えた。

65 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:22:04 ]
俺もgimageview使ってる。
サムネイル表示出来て、画像表示も見やすくて、スケーリングが高品質な所が気に入ってる。


66 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:29:31 ]
> スケーリングが高品質
ミーヤ(Intel)のイメージライブラリとどっちが上?

67 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/18(火) 00:00:37 ]
gimvではbilinear補間を使ってるけど、hyperbolicなんか使ったこともないし、
コミック類はnearestのほうがいいかなと思うけど、
いちいち切り替えるのがめんどうだからそのまんま。

で、どの方法と比較したいの?

68 名前:名無しさん@お腹いっぱい。 [2006/07/24(月) 06:17:28 ]
ハイビジョン映画などのコンテンツ
PCで見れるサイト見つけた!
無料で見れるものを凄く集まってる。
ハードディスクの容量足りない。(>_<)
piggy2doggy.googlepages.com/

69 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/24(月) 11:21:12 ]
最近現れたのは拡張子が.shtmlでContent-type: text/plainな奴。
中身はHTMLで、画像へのリンクには乱数が入ってる。
つまりIEのContent-typeを無視するバグを利用しないと見れない。
とても嫌らしい。

70 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/26(水) 04:48:40 ]
>>69
HTMLのソースからリンク抜きだしてwgetなりに渡すんじゃダメ?

71 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/29(土) 15:12:17 ]
連番は ttp://service.ifdef.jp/ のソースを保存して改良して
お気に入りでok

72 名前:名無しさん@お腹いっぱい。 [2006/07/29(土) 16:42:00 ]
宣伝?

73 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/29(土) 16:48:08 ]
>>71
>>34

宣伝乙



74 名前:71 [2006/08/01(火) 15:19:52 ]
>>34 にあったのね
すまん

宣伝じゃないよw

75 名前:名無しさん@お腹いっぱい。 [2006/08/06(日) 14:23:15 ]
過疎スレだな

76 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/08/06(日) 22:55:24 ]
This is the thread in UNIX board.

77 名前:名無しさん@お腹いっぱい。 [2006/09/10(日) 13:07:12 ]
hosyu

78 名前:名無しさん@お腹いっぱい。 [2006/09/13(水) 16:44:20 ]
pthread_join( >>76, NULL );

79 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:27:18 ]
連番のH画像/動画を一気にアップロードする
いい方法はない?
yahooとかlivedoor みたいなとこで。

80 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:35:56 ]
>>79
URIの実例プリーズ

81 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 13:02:34 ]
>>79
zip

82 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 18:59:58 ]
>>80
例えばこんなところで↓
geocities.yahoo.co.jp/
photos.yahoo.co.jp/
briefcase.yahoo.co.jp/
>>81
それを昔していましたがzip以外でしたいです。

83 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/23(土) 08:49:55 ]
>>82
lha



84 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 13:15:50 ]
JavaScript で window.navigator.appName 見てるとこって
どうすればいいの?


85 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 23:46:36 ]
どうしたいの?

86 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/24(日) 18:16:39 ]
今までcurlのお世話になってきたけど、今日LWP::UserAgent使って書き直した。
ステータスが200でtext/html返してきた時にリトライするようにしたかった。

87 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 01:56:18 ]
完璧だ。対artemisweb最終兵器かもしれない。

88 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:02:00 ]
次はHTML::Parser使ってwget相当のも作るか。夢が広がりんぐw

89 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:21:00 ]
ヒント:今日はクリスマス

90 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:38:41 ]
plagger のプラグインをきぼん。

91 名前:!dama mailto:sage [2007/01/02(火) 04:02:34 ]
てすてす

92 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:35:38 ]
HTML::Parser使ったwget相当のも出来た。

93 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:43:48 ]
それ Plagger でできるお



94 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 02:40:27 ]
主目的はアルテミス対策の姑息なリトライ判定の導入ですから
それとHTML::*やHTTP::*やLWP::*のお勉強

95 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/20(土) 03:39:43 ]
test

96 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 19:34:19 ]
連番ではないんですが、
imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。
例えばこんなのとか imepita.jp/20070402/701450
このurlをブラウザーで開くと普通にみれるのですが。
curlやwgetでこのURLを開くと404になってしまい、
htmlが取得できず困っています。
うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。

どなたか偉い方よろしくおねがいします




97 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:05:08 ]
>>96
お約束の User-Agent: とか Referer: あたりはどうよ。

98 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:39:36 ]
ブラウザーで直接開いてみれたので、Refererは試していませんでした。
User-Agent:は試したのですが変わらず・・・。
ちょっとRefererもやってみます。

99 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:44:05 ]
refererいれても変わりませんでした

100 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 23:23:17 ]
>>96
Accept-Language: ja
とかは?

101 名前:96 mailto:sage [2007/04/03(火) 08:31:48 ]
>100
神!
ありがとうございました

102 名前:名無しさん@お腹いっぱい。 [2007/04/10(火) 23:16:28 ]
みなさんが、
連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)

103 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/21(土) 16:02:05 ]
>>96とはべつの人なのですが、imepitaの画像をダウンロードできません。
ブラウザでは保存可能でした。

wget --referer='imepita.jp/20070402/701450' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22'

としています。
指摘よろしくおねがいします。




104 名前:名無しさん@お腹いっぱい。 [2007/05/01(火) 13:54:45 ]
imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください

105 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/01(火) 19:01:17 ]
>>104
とりあえずURLを書きなさいよ

106 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 09:35:29 ]
結構難題(というか出来なかった)

ttp://infostore.org/info/3078906?refer=2257986&rs=2
→ ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg


107 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 10:51:18 ]
lynx -dump 'infostore.org/info/3078906?refer=2257986&rs=2' |
grep -o '[^#]*' |
grep 'imagevenue.com/img.php' |
while read LINE; do
lynx -dump -image_links $LINE |
grep -o '[^#]*' |
grep '/loc[0-9][0-9]*/'
done

108 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 11:08:02 ]
ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。
あとは sleep もいれたほうがいいかも

109 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 12:23:56 ]
俺んとこlynx入ってなかったのでsedとcurlで

$ cat hoge.sh
#!/bin/sh

curl -s "$1" |
grep imagevenue |
sed -n -e "s/href='\\([^']*\\)'/\\
HREF=\\1\\
/gp" |
sed -n -e "/HREF=/s/HREF=//p" |
while read URL
do
dir="`dirname \"$URL\"`"
file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'`
curl -s --referer "$URL" -O "$dir/$file"
done

$ ./hoge.sh 'infostore.org/info/3078906?refer=2257986&rs=2'

110 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 15:07:32 ]
勉強になるなぁ(何の???)

111 名前:名無しさん@お腹いっぱい。 [2007/05/05(土) 19:36:37 ]
www.imagefap.com/gallery.php?gid=330938
>>105


112 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 23:32:55 ]
>>111
imagefapは
(1) ギャラリーページから全てのギャラリーページのURLを抽出
(2) 各ギャラリーページから画像ページのURLを抽出
(3) 画像ページから画像ファイルのURLを抽出

という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。

113 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 09:10:45 ]
ギャラリーページサムネイルのURLを置換してやればいいんでないの?
images.imagefap.com/images/thumb/11/141/1414518509.jpg
images.imagefap.com/images/full/11/141/1414518509.jpg



114 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 21:18:14 ]
get_links_from_url() { lynx -dump -image_links "$1" | grep -o '[^#]*'; }

for URL in `seq -f 'www.imagefap.com/gallery.php?gid=330938&page=%g' 0 8`; do
echo get: $URL >&2
get_links_from_url $URL | sed -n '/thumb/s/thumb/full/p'
done

115 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/23(火) 21:46:50 ]
最近ぐっと来るネタがないっすねぇ

116 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/27(土) 02:27:20 ]
最近のエロ画像はZIPで固めてrapidshareだからなあ

117 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/30(日) 00:22:46 ]
こういうアドレスが長く、不規則なのってどうやればいいでしょうか

ttp://g.e-hentai.org/g/854/ed9b4c88ddfde2ab2ea93ee162b0ebf6315cef64/5-m-y/

118 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 21:10:52 ]
こういう別サイトの画像ディレクトリを参照している場合って、うまい方法ありますか?

exgirlfriendmarket.com/perfect_tits_corina?

119 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/02(水) 22:24:46 ]
curl -O --referer 'exgirlfriendmarket.com/perfect_tits_corina/perfect_tits_corina-00.html' 'content1.nudeparadisehotel.com/femjoy/0681/[00-11].jpg'

120 名前:118 mailto:sage [2008/01/03(木) 01:46:07 ]
>>119

さっそくの助言、ありがとうございます。
とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。

これを Unix のコマンドの組み合わせで
 ・画像一覧ページから
 ・個別の画像、もしくは画像表示ページへのリンクを辿り
 ・自動で巡回して、一定サイズ以上の JPG はダウンロードする
ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。

だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。
お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m

121 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/03(木) 09:38:02 ]
wget -r -l 2 とかで。あとは wget --help の↓に気をつける:
再帰ダウンロード時のフィルタ:
-A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する
-R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する
-D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する
--exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する
--follow-ftp HTML 文書中の FTP リンクも取得対象にする
--follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する
--ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する
-H, --span-hosts 再帰中に別のホストもダウンロード対象にする
-L, --relative 相対リンクだけ取得対象にする
-I, --include-directories=LIST 取得対象にするディレクトリを指定する
-X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する
-np, --no-parent 親ディレクトリを取得対象にしない


122 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:12:00 ]
以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、
今やそのスレが消えてしまったため、もう一度ここで質問させてください。

例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。
www.sexydesktop.co.uk/youko.htm
ここには全部で4ページ分48種類の松金洋子の画像があります。

このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、
一つの画像に関して数種類の解像度・縦横比の画像が用意されており、
アクセスしてきた人の使っているディスプレイ解像度を検出しては、
最適な解像度のものを優先的にプッシュするようになっています。

また、画像ファイルの命名ルールは非常に単純かつ形式的で、
たとえば例に挙げた松金洋子の画像の場合、
まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。

さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。
注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、
命名上の「桁数合わせ」が一切行われていないという点です。

123 名前:122-123 mailto:sage [2008/02/27(水) 14:12:23 ]
ここから先が質問です。やりたいことは、

1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、
すべての画像に関して、より解像度の大きい物を、
番号の一番若いものから古いものまで全種類取って来たい。

2). その際、取って来た画像のファイル名を修正して、
youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。

3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。
具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の
1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。

以上をまとめると、参考例の松金洋子の画像で言えば、
youko11600x1200.jpg から youko481280x1024.jpg までの画像を、
youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。

これを実現するスクリプトをどう書けばいいでしょうか?

なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、
ダウンロードを開始する前に手作業で調べることとします。



124 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:31:38 ]
>>123
コントンジョノイコ

スレタイを読んでからスクリプトスレに行け

125 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/27(水) 14:43:56 ]
>>122
>これを実現するスクリプトをどう書けばいいでしょうか?
変な書きかたをせずに普通に書けばいいと思うよ






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<73KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef