- 1 名前:前スレ1 [2005/12/26(月) 02:56:22 ]
- 前スレ5年間のご愛顧ありがとうございました。PGFは無事コンプしましたが、これからも皆様の日々
実践されているノウハウを教えていただきたく再度、スレを立てさせてもらいました。 前スレ 連番のH画像を一気にダウンロードする pc8.2ch.net/test/read.cgi/unix/979106537/
- 13 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/08(日) 19:09:12 ]
- 貼る前にチェックしたのですが今見たらエラーになりますね。
確認したところ464に一旦ログインしないとアドレス直貼りでも見れないようでした。 なのでWGETのhttpuser,passを設定したもののエラーになり ブラウザでも464にログインしただけでは駄目で一度該当巻のページに行くことで やっとIEコピペ飛びいけました。 難しい設定されてるようで連番は無理っぽい気がしてきました。。 もし同様にトライされてるかたいましたら気長に情報お待ちしております、ありがとうございました。
- 14 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/08(日) 21:02:56 ]
- >>13
勘だけど、そのページのクッキーを解析してみな。 偽装はそれからだ。
- 15 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/08(日) 22:08:43 ]
- キャシュ消して再確認したのですがクッキーは作成されておらず
javascriptがあるだけでした。 スクリプトもxxx.jpgを表示、虫メガネ機能だけを書いたものでクッキー記述はなかったです。 またちょこちょこ調べてみます。ありがとうございました。
- 16 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/19(木) 01:25:21 ]
- ttp://www.descargas.sectahentai.org/uploads3/matthewkidman/hmangas_archivos/Incest%20and%20Straight%20Shota/Namadashi%20Cho%20Inbo/namadashi_001.jpg〜180.jpg
の画像がWebMGetで落とせません。 また、DLHelperで上記のURLを表示させようとすると ttp://descargas.sectahentai.org/ へ飛ばされます。 解決方法はありますか? よろしくお願いします。
- 17 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/19(木) 02:24:29 ]
- refferer?
- 18 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/19(木) 04:39:48 ]
- リファラだけっぽいね。おいしくいただきました
- 19 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/01/28(土) 08:56:57 ]
- >>16
$zsh %wget --referer=www.descargas.sectahentai.org/ www.descargas.sectahentai.org/uploads3/matthewkidman/hmangas_archivos/Incest%20and%20Straight%20Shota/Namadashi%20Cho%20Inbo/namadashi_{001..180}.jpg
- 20 名前:名無しさん@お腹いっぱい。 [2006/02/15(水) 01:25:59 ]
- wgetを使ってwallstny.exblog.jp/のblogを丸ごと保存しようと思っています。
ブラウザで表示される文はきちんと取得できるのですが、 ページの一番下にある"次のページ"から先やカテゴリーといったリンクが取得できません。 エロ画像ではないと思いつつもダウンロードに関する適切なスレが分からないので ここで質問してみました。教えて頂けると助かります
- 21 名前:名無しさん@お腹いっぱい。 [2006/02/15(水) 07:17:57 ]
- 464タイーホage
- 22 名前:名無しさん@お腹いっぱい。 [2006/02/15(水) 07:37:36 ]
- f30.aaa.livedoor.jp/~kokodake/unix.html
- 23 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/03/19(日) 18:10:30 ]
- >>20
$wget -r -np -l 20 hogehoge.jp/
- 24 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/06(木) 23:48:33 ]
- チャイニーズなHPの画像ってなんか色々ほどこしてて一気に落とせない希ガス。
例えば ttp://zxz.jugem.jp/ のリンク先とか。 誰か支援お願いします。
- 25 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 19:03:09 ]
- ttp://2.dtiblog.com/g/gazo/file/27083.jpg
数字は可変 根こそぎ落とすにはどうすればいいでしょうか。 今は仕方ないので、シェルスクリプトでアドレスを片っ端から書いた リストを作ってそれをwgetで読み込ませていますが、もっとスマートな方法が 無いものか。
- 26 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 20:37:08 ]
- >25
そうやって悩んでいろいろやっているうちに、 立派なUnix使いに成長していきますよ。
- 27 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 23:24:50 ]
- >>25
神様はseqを与えられた。
- 28 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 16:37:43 ]
- >>25俺にもurabonのアドレスを片っ端から書いていた時代がありました。
- 29 名前:名無しさん@お腹いっぱい。 [2006/05/05(金) 17:21:54 ]
- >>25
Firefox+FlashGotが(・∀・)イイ!!
- 30 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/06(土) 17:41:31 ]
- GW中にエログ巡回して画像保存してその日に新しくダウンロードした画像のスライドショーのHTMLを吐き出すスクリプト書こうと思ってたのに
もうGW終わっちゃうよう。いつでも書けるけどまとまった時間で書きたかったのに
- 31 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/06(土) 21:10:56 ]
- もはや画像自体はどうでもよくなってきてるが…
意外と手強いパターン ttp://x.warnet.ws/img/119/image/DDF2.htm なかを見ると ttp://img17.imagevenue.com/img.php?loc=loc24&image=28455_7519060.jpg みたいな連番対策付きのファイル名になってて 実際のデータはさらにハッシュつきdirの中。 ttp://img17.imagevenue.com/aAfkjfp01fo1i-5116/loc24/28455_7519060.jpg 2段階再帰かければ届きそうだけど
- 32 名前:名無しさん@お腹いっぱい。 [2006/05/06(土) 23:23:27 ]
- >>31
そんなの俺ならあきらめて俺も再帰だな wgetに-lオプションつけて
- 33 名前:名無しさん@お腹いっぱい。 [2006/05/07(日) 01:15:17 ]
- まじな話、grepのようなコマンドをほかのサーバにログインしないで
かける方法ってないもんか
- 34 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/08(月) 19:00:10 ]
- まじな話
enum.ninpou.jp/ これ使えばいいじゃん(jpgのダウンで使用)
- 35 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/08(月) 19:51:42 ]
- >>34
宣伝乙
- 36 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/09(火) 02:38:02 ]
- >>34イラネ
- 37 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 03:44:48 ]
- ブラウザ(w3m含む)では見れる
theblind.liveadulthost.com/087/001.jpg wget 出来ない(--referer は試した) ナジェ?
- 38 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 09:35:49 ]
- >>37
User-Agent
- 39 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/18(木) 13:02:55 ]
- >>38
そうみたいだね。 >>37 %wget -U='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT 5.0; .NET CLR 1.0.3705)' theblind.liveadulthost.com/087/{001..100}.jpg
- 40 名前:39 mailto:sage [2006/05/18(木) 13:24:58 ]
- 画像120まであった。
100を120に訂正してね。
- 41 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/19(金) 01:33:55 ]
- >>39
001.jpgじゃなくて1.jpgにされてしまってだめだったぞ。 俺はこれ seq -f theblind.liveadulthost.com/087/%03g.jpg 1 120|wget -U ' ' -i -
- 42 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/19(金) 20:38:43 ]
- 毎回UAのオプション付けるの面倒だから、
俺は~/.wgetrcに以下を追加してる user_agent=Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322)
- 43 名前:名無しさん@お腹いっぱい。 [2006/05/27(土) 09:17:13 ]
- hp34.0zero.jp/667/deaitwo/
- 44 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/27(土) 21:32:36 ]
- ダウンロードじゃないけど linux 版(wine版)の picasa が出たってさ
- 45 名前:名無しさん@お腹いっぱい。 [2006/06/12(月) 13:04:46 ]
- トラジ復活age
- 46 名前:名無しさん@お腹いっぱい。 [2006/06/15(木) 12:23:05 ]
- ようつべオワタ\(^o^)/
- 47 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 10:03:32 ]
- この辺は結構強敵
ttp://www.imagefap.com/gallery.php?gid=188736 htmlパースして thumb => full 置換すればいいんだけど 順序が失われるんでカウンタ用意してリネーム... そろそろ 手軽に の領域じゃねーな
- 48 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 20:05:05 ]
- 自作のしょぼいダウンローダうp
ttp://file300kb.run.buttobi.net/fl/src/Oil0393.txt 例えば>>47なら $ ./exwgetr -a -o -d "/thumb/.*.jpg$" "www.imagefap.com/gallery.php?gid=188736 " | sed "s/thumb/full/" | wget -i -
- 49 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 12:22:33 ]
- >>48
なかなか使えますね〜 ありがたく使わさせて頂きますです。(謝謝!
- 50 名前:名無しさん@Vim%Chalice [2006/07/03(月) 23:02:34 ]
- >>48
オイラも便利に使わしてもらってます。 今まで泥臭くやってたけど 一発でhtmlパースしてgrepまでこなしちゃうスクリプト素敵。 perl使いカコイイなぁ...素敵なスクリプトありが豚です。
- 51 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/04(火) 00:22:47 ]
- ちょっと恥ずかしいバグ修正版です
ttp://file300kb.run.buttobi.net/fl/src/Oil0405.txt 503とか通信エラーにめっぽう弱い(なんとリトライ機能がついてない!)のでご注意を……
- 52 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/04(火) 03:26:51 ]
- wget を使っているのですが、ファイルスタンプが、そのファイルが出来た日付たとえば、
2004/05/12見たいな感じで取り込まれてしまいます。 そうではなく、取り込んだ日付ex 2006/07/04に変更するwgetのオプションってありますか? wget -N かと思ったのですが、どうも違うみたいです。
- 53 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/04(火) 08:04:31 ]
- touch しちゃうのはだめ?
- 54 名前:52 mailto:sage [2006/07/05(水) 10:48:01 ]
- >>53
touchで行けました。ありがとうございました。 touchでは、空のファイル(0バイト)に強制的になるのかと思ってました。 時刻だけ変更できるのですね。
- 55 名前:名無しさん@お腹いっぱい。 [2006/07/15(土) 11:40:15 ]
- さっきコミックをダウンロードして
早速DVDーRに落とそうとしたのですが容量が大きいんです。 それで圧縮したまま落としたんですが今度は コミックの画像をめくろうとしてもめくれなくなりました。 (すべて展開したときはめくれました) そこでDVD-Rにコミックを上手に落とすやり方を教えてください。
- 56 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 11:51:46 ]
- DVD-Rはポリカーボネート樹脂でできているから、
コミック程度の重さならどんな落しかたでも問題ないと思うよ。
- 57 名前:名無しさん@お腹いっぱい。 [2006/07/15(土) 17:22:21 ]
- >>55
マジレスすると、ウインドウズ系の圧縮フォルダ機能は全て展開しないとページめくりは出来ない 結論 コミックくらい買え
- 58 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 18:09:21 ]
- unix系にはミーヤみたいなソフト無いの?
- 59 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 20:03:05 ]
- >>58
探せばあると思うよ pc8.2ch.net/test/read.cgi/linux/1136386462/l50
- 60 名前:名無しさん@お腹いっぱい。 [2006/07/16(日) 00:17:49 ]
- wineじゃだめか
- 61 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 14:11:33 ]
- >58
xv -vsmap が結局便利なんだよな いいソフトあれば紹介よろしゅう
- 62 名前:名無しさん@お腹いっぱい。 [2006/07/17(月) 22:18:09 ]
- >>48
再うpお願い出来ますでしょうか?
- 63 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 22:56:05 ]
- refuse to dance
- 64 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 22:58:32 ]
- >>61
個人的にはgimv使ってる。以前はxzgvが軽かったので使ってたのだけど、 ZIPファイルに入った同人誌をそのまま読めるので乗り換えた。
- 65 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:22:04 ]
- 俺もgimageview使ってる。
サムネイル表示出来て、画像表示も見やすくて、スケーリングが高品質な所が気に入ってる。
- 66 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:29:31 ]
- > スケーリングが高品質
ミーヤ(Intel)のイメージライブラリとどっちが上?
- 67 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/18(火) 00:00:37 ]
- gimvではbilinear補間を使ってるけど、hyperbolicなんか使ったこともないし、
コミック類はnearestのほうがいいかなと思うけど、 いちいち切り替えるのがめんどうだからそのまんま。 で、どの方法と比較したいの?
- 68 名前:名無しさん@お腹いっぱい。 [2006/07/24(月) 06:17:28 ]
- ハイビジョン映画などのコンテンツ
PCで見れるサイト見つけた! 無料で見れるものを凄く集まってる。 ハードディスクの容量足りない。(>_<) piggy2doggy.googlepages.com/
- 69 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/24(月) 11:21:12 ]
- 最近現れたのは拡張子が.shtmlでContent-type: text/plainな奴。
中身はHTMLで、画像へのリンクには乱数が入ってる。 つまりIEのContent-typeを無視するバグを利用しないと見れない。 とても嫌らしい。
- 70 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/26(水) 04:48:40 ]
- >>69
HTMLのソースからリンク抜きだしてwgetなりに渡すんじゃダメ?
- 71 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/29(土) 15:12:17 ]
- 連番は ttp://service.ifdef.jp/ のソースを保存して改良して
お気に入りでok
- 72 名前:名無しさん@お腹いっぱい。 [2006/07/29(土) 16:42:00 ]
- 宣伝?
- 73 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/29(土) 16:48:08 ]
- >>71
>>34 宣伝乙
- 74 名前:71 [2006/08/01(火) 15:19:52 ]
- >>34 にあったのね
すまん 宣伝じゃないよw
- 75 名前:名無しさん@お腹いっぱい。 [2006/08/06(日) 14:23:15 ]
- 過疎スレだな
- 76 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/08/06(日) 22:55:24 ]
- This is the thread in UNIX board.
- 77 名前:名無しさん@お腹いっぱい。 [2006/09/10(日) 13:07:12 ]
- hosyu
- 78 名前:名無しさん@お腹いっぱい。 [2006/09/13(水) 16:44:20 ]
- pthread_join( >>76, NULL );
- 79 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:27:18 ]
- 連番のH画像/動画を一気にアップロードする
いい方法はない? yahooとかlivedoor みたいなとこで。
- 80 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 12:35:56 ]
- >>79
URIの実例プリーズ
- 81 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 13:02:34 ]
- >>79
zip
- 82 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/22(金) 18:59:58 ]
- >>80
例えばこんなところで↓ geocities.yahoo.co.jp/ photos.yahoo.co.jp/ briefcase.yahoo.co.jp/ >>81 それを昔していましたがzip以外でしたいです。
- 83 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/09/23(土) 08:49:55 ]
- >>82
lha
- 84 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 13:15:50 ]
- JavaScript で window.navigator.appName 見てるとこって
どうすればいいの?
- 85 名前:名無しさん@お腹いっぱい。 [2006/11/15(水) 23:46:36 ]
- どうしたいの?
- 86 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/24(日) 18:16:39 ]
- 今までcurlのお世話になってきたけど、今日LWP::UserAgent使って書き直した。
ステータスが200でtext/html返してきた時にリトライするようにしたかった。
- 87 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 01:56:18 ]
- 完璧だ。対artemisweb最終兵器かもしれない。
- 88 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:02:00 ]
- 次はHTML::Parser使ってwget相当のも作るか。夢が広がりんぐw
- 89 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:21:00 ]
- ヒント:今日はクリスマス
- 90 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/12/25(月) 02:38:41 ]
- plagger のプラグインをきぼん。
- 91 名前:!dama mailto:sage [2007/01/02(火) 04:02:34 ]
- てすてす
- 92 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:35:38 ]
- HTML::Parser使ったwget相当のも出来た。
- 93 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 01:43:48 ]
- それ Plagger でできるお
- 94 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/04(木) 02:40:27 ]
- 主目的はアルテミス対策の姑息なリトライ判定の導入ですから
それとHTML::*やHTTP::*やLWP::*のお勉強
- 95 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/01/20(土) 03:39:43 ]
- test
- 96 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 19:34:19 ]
- 連番ではないんですが、
imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。 例えばこんなのとか imepita.jp/20070402/701450 このurlをブラウザーで開くと普通にみれるのですが。 curlやwgetでこのURLを開くと404になってしまい、 htmlが取得できず困っています。 うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。 どなたか偉い方よろしくおねがいします
- 97 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:05:08 ]
- >>96
お約束の User-Agent: とか Referer: あたりはどうよ。
- 98 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:39:36 ]
- ブラウザーで直接開いてみれたので、Refererは試していませんでした。
User-Agent:は試したのですが変わらず・・・。 ちょっとRefererもやってみます。
- 99 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 20:44:05 ]
- refererいれても変わりませんでした
- 100 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/02(月) 23:23:17 ]
- >>96
Accept-Language: ja とかは?
- 101 名前:96 mailto:sage [2007/04/03(火) 08:31:48 ]
- >100
神! ありがとうございました
- 102 名前:名無しさん@お腹いっぱい。 [2007/04/10(火) 23:16:28 ]
- みなさんが、
連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
- 103 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/21(土) 16:02:05 ]
- >>96とはべつの人なのですが、imepitaの画像をダウンロードできません。
ブラウザでは保存可能でした。 wget --referer='imepita.jp/20070402/701450' -U='Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)' --header='Accept-Language: ja' 'imepita.jp/kp_img/trial/20070402/701450.jpg?FFunc=IConf&FFcom=%22off%22' としています。 指摘よろしくおねがいします。
- 104 名前:名無しさん@お腹いっぱい。 [2007/05/01(火) 13:54:45 ]
- imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください
- 105 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/01(火) 19:01:17 ]
- >>104
とりあえずURLを書きなさいよ
- 106 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 09:35:29 ]
- 結構難題(というか出来なかった)
ttp://infostore.org/info/3078906?refer=2257986&rs=2 → ttp://img44.imagevenue.com/aAfkjfp01fo1i-24835/loc286/27363_004pat060.jpg
- 107 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 10:51:18 ]
- lynx -dump 'infostore.org/info/3078906?refer=2257986&rs=2' |
grep -o '[^#]*' | grep 'imagevenue.com/img.php' | while read LINE; do lynx -dump -image_links $LINE | grep -o '[^#]*' | grep '/loc[0-9][0-9]*/' done
- 108 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 11:08:02 ]
- ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。
あとは sleep もいれたほうがいいかも
- 109 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 12:23:56 ]
- 俺んとこlynx入ってなかったのでsedとcurlで
$ cat hoge.sh #!/bin/sh curl -s "$1" | grep imagevenue | sed -n -e "s/href='\\([^']*\\)'/\\ HREF=\\1\\ /gp" | sed -n -e "/HREF=/s/HREF=//p" | while read URL do dir="`dirname \"$URL\"`" file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'` curl -s --referer "$URL" -O "$dir/$file" done $ ./hoge.sh 'infostore.org/info/3078906?refer=2257986&rs=2'
- 110 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 15:07:32 ]
- 勉強になるなぁ(何の???)
- 111 名前:名無しさん@お腹いっぱい。 [2007/05/05(土) 19:36:37 ]
- www.imagefap.com/gallery.php?gid=330938
>>105
- 112 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/05(土) 23:32:55 ]
- >>111
imagefapは (1) ギャラリーページから全てのギャラリーページのURLを抽出 (2) 各ギャラリーページから画像ページのURLを抽出 (3) 画像ページから画像ファイルのURLを抽出 という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
- 113 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/06(日) 09:10:45 ]
- ギャラリーページサムネイルのURLを置換してやればいいんでないの?
images.imagefap.com/images/thumb/11/141/1414518509.jpg images.imagefap.com/images/full/11/141/1414518509.jpg
|

|