[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 03/30 20:58 / Filesize : 246 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

連番のH画像を一気にダウンロードする



1 名前:たのも〜 [2001/01/10(水) 15:02]
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

624 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 00:31]
こんなん動ナビとか動画普及委員会チェックしてれば毎日ゲットできるぞ。

625 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 17:52]
>>620 に騙された哀れな >>610 がいるスッドレはここですか?


626 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/28 23:40]
動ナビ死んでませんか

627 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 05:38]
動ナビは死んでないが、iij を使った結構な数のエロサイトから
ファイルが落とせなくなっているな

628 名前:名無しさん@お腹いっぱい。 mailto:sage [03/07/29 14:45]
>>626-627
ほかでやれ

629 名前:ぼるじょあ ◆yBEncckFOU mailto:(^^) [03/08/02 05:03]
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ

630 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 13:20]
wget の --timeout って、
相手がファイアウォールでパケットを捨ててるときには機能しないような気がする。
というか、そもそもそういう目的で使うオプションではないのか?
まあ、squidを経由すれば問題ないんだけど。


631 名前:620 mailto:sage [03/08/04 13:38]
>>610
遅くなって正直スマンかった。

望みのモノだよ。
saeto.deep-ice.com

632 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:13]
>>610
おめ



633 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/04 14:58]
動ナビURLはこっちに
www.i-like-movie.com/

634 名前:名無しさん@お腹いっぱい。 [03/08/13 12:19]
2ちゃんで話題になった「みーほ」女子○学生 B86 W57 H88(○5歳)
がこのHP内のギャラリーで何を考えているんだか、衝撃的なセルフのヌードを晒してます!!
削除される前に早めに見ておいた方がいいとおもいます!マジでやば過ぎ!!

neeez.com/~miho-room/

635 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/13 16:58]
不覚にもワロタ

636 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

637 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん

638 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:13]
{from..to}

639 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 02:15]
{10..20,30..40}
みたいにはできないの?

640 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 03:38]
>639
zsh: {{10..20},{30..40}}


641 名前:名無しさん@お腹いっぱい。 mailto:sage [03/08/27 08:40]
( ・∀・)つ〃∩ ヘェーヘェーヘェー

642 名前:639 mailto:sage [03/08/27 19:15]
>>640
ありがdごぜいます



643 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 18:10]
そろそろ2ヶ月もカキコがない…。


おまえら満足してますか?

644 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/26 22:21]
>おまえら満足してますか?

してねぇっす・・・。

ダウンロード成果物をいかにユニークに保存するかってトコロで
頭痛めてたりする。
とりあえず、ファイルのMD5をpostgres上のテーブルにinsertしといて、
ダウンロード成果物をそいつとチェックして適宜ハネるって運用してるん
だけど、どうしても明らかに重複する奴が出てくる。

理由はいくつかあるんだけど、この辺が泥臭くかつ難しいね・・・。

最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
誰か「漏れはコレだ!」って奴を教えてくれぃ。

645 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 02:18]
>>644
> 最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
> 誰か「漏れはコレだ!」って奴を教えてくれぃ。
今まで何を試したか書いてくれ。
例示した後で「それはもう使ってみた」って言われるのはやだ。

646 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:18]
おれは単純に時間とディレクトリで分類してる。
ファイルのタイムスタンプとユニークなID,簡単なメモを
名前に付けてリネームするスクリプト書いて、
適当なディレクトリにとりあえず放り込む。ここまではほぼ自動。

あとは実際に見てる時に必要なら分類し直す。
おれ的にはファイル名がユニークであれば、それで足りてる。
全ての画像に等しい価値がある訳でないので、
必要な時の手作業の分類で間に合う。

647 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 04:30]
俺はディレクトリと連番だな。もちろんスクリプトで。

648 名前:login:Penguin mailto:sage [03/10/27 14:31]
>>610
再うpきぼん

649 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/27 20:36]
>>644
wget -x で URL のまま保存してる。


650 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/28 00:30]
>>648
> >>610
> 再うpきぼん

>>631
> >>610
> 遅くなって正直スマンかった。
>
> 望みのモノだよ。
> saeto.deep-ice.com



651 名前:644 mailto:sage [03/10/28 12:03]
>今まで何を試したか書いてくれ。
少しずつ積み重ねてるから、そんないろいろな方法試してるわけでも
ないんだわ。
で、今のところこんな仕組み。

前提:ファイルはすべて.jpg。
対象は、ディレクトリごとにファイルがまとまっていると想定。
(ディレクトリひとつに1ファイルは無視)

-- 日々。
(1) wget -x でディレクトリごとdownload
(2) jpeginfoで壊れたファイルを削除

-- 月次。
(3) ディレクトリ階層をn階層 -> 2階層へ変換
(4) 指定バイト数以下のファイルやディレクトリを削除
(サムネイル対策)
(5) 過去にダウンロードしたファイルのmd5と比較し、新規ファイルが
含まれているディレクトリは保存用ディレクトリへ移動。
(6) 保存用ディレクトリへ移動したものは、md5をpostgres上のテーブルへ
insertする。
(次からのダウンロード重複チェック用)

--適当なタイミングで。
(6) そこそこたまってきたら、CD-Rを使ってお掃除。

上記(6)以外はすべて自動実行。
で、こうやってて素朴に思うのが、「ここまでやらないかんのか?」てところ。
これという方法も無いような気がするんだけどね。

652 名前:644 mailto:sage [03/10/28 22:21]
続き。

重複する理由ってのが、だいたい
(a) jpgファイルが壊れてて、md5が違ってる。
(b) 見た目おんなじ画像で壊れてもいないjpgファイルだけど、何故かmd5が違う。
(c) 素材はおんなじだけど、画像ファイル化したヒトが違うヒト
といったところかなと。
んで、(a)はjpeginfoでどうにかなるとして(といっても再度ダウンロードで補うことが
できればだけどね)、(b),(c)はどうしたものかなと。

完全自動化を目指してるんで、この辺クリアできないかなと考えてます。



653 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 00:51]
そこまでしてローカルにあらゆる画像を保存したいの?

画像の類似性を判別するソフトがあったような気もするけど。

654 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:28]
GQview とか

655 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 02:29]
>>653
よく web 上から消えるじゃん。

656 名前:うひひ mailto:sage [03/10/29 09:36]
>>644
素人考えなんだが
同じエロ画像でも大きさっていうか画質とかが違ってたりすんじゃん
例えばイメージマジックとかで同じ様な仕様になるように
小さくサムネイルのように同じファイルサイズとかにフィルタしてから
binary diffみたいのを使って差分をとって差分比率を読みとりながら
画像を比較できないのかなぁ?


657 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 14:12]
昔は連番ファイル落とすためにwgetやshを駆使して頑張ってた時期もあった。
たとえばこことか。
ttp://www.taiwankiss.com/board1/data/82585.html
(白石ひより、藻無し、556MB + 567MB、ラブマ分割、パス未発表)

今は各種P2Pがあるから手間いらずで外付け120GBもエロで満杯だよ。

658 名前:名無しさん@お腹いっぱい。 mailto:sage [03/10/29 22:59]
>>658
どのP2P使ってるか教えれ

659 名前:644 mailto:sage [03/10/31 23:42]
レスありがとさんです。

>GQview とか
フリーでこのテのツールがあるとは知りませんでした。
別のツールでは、作者が「コマンド実行で類推するようにしたいな」って
書いてたんで、もう少し様子見かなと。
もしくは、これらツールから該当コードをぶっこぬいて、コマンドラインで
実行できるようデッチ上げるのも手かなと。

>binary diffみたいのを使って差分をとって差分比率を読みとりながら
>画像を比較できないのかなぁ?
#漏れも画像関係まったくの素人なんですが・・・。
jpegを一度bitmapか何かに展開してからゴリゴリ比較って動きかな?
暇を見てちょっと試してみます。

時間を見つけて、いずれかの方法をちょっとやってみます。
ありがとうございやした。

660 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/13 05:03]
俺は半角板を自動巡回して URI 拾って wget のリクエスト作る Ruby スクリプト書いた
落ちてきた画像は一通り見てお気に入りの奴はお気に入りディレクトリに入れて
それ以外は全部ファイル名を MD5 にリネームするスクリプトで変換してから
画像置き場ディレクトリに放り込んでる

画像的には同一なんだけどデータとしては違うというケースはうちでも発生してるな
ちゃんと判定する方法なんて無いような気がしてたから諦めてたけど
ここらへん研究してみると面白いかもな

>>652
(b)(c)のケースなんだけど、もし画像サイズが同じなら、
jpeg のエンコード時の特性の違いがあるのかもな
もしそうなら jpeg のエンコードに特化した画像判別があればいいのかも


661 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/14 22:06]
>>660
JPEGは符号化時のクオリティ設定で出力がまったく違います。
また、どこかのwebで拾った同じJPEGファイルに端を発した画像でも
デコード・エンコードを繰り返して劣化したもの、コメントが変わった
・取り除かれたもの、huffmanコードを最適化したものなどいくらでも
バリエーションがありますので、結局デコード後の画像として比較する
しかないのではないかと。

662 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/22 23:24]
エロ画像とかよか普通の女の子画像をダウンロードしたくなりました。
で、
ttp://avbuzz.com/bbs/model/list.php
を見つけたわけですが。
ここのを大きい画像だけ上手にダウンロードしたいんだけど、難しいです。
良い方法、なんか思いつきませんか?



663 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 00:16]
うーむ。
% w3m -dump_source 'avbuzz.com/bbs/model/diss.php?id=152568' | sed -n 's@ *<img src=\(.*\) vspace=10><br>@\1@;s@^u@avbuzz.com/bbs/model/u@;/^http/p'


664 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/23 03:04]
>>663
出きたよー。
ありがと。

665 名前:名無しさん@お腹いっぱい。 [03/11/25 15:58]
wgetを使ってあるディレクトリ以下にある(cgiソース含)ファイルを無差別にDLする方法ありませんかね。

666 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:00]
man wget

667 名前:名無しさん@お腹いっぱい。 [03/11/25 16:08]
>>666
やったけど詳しく書いてないみたいだけど、、、

wget -r --ignore-length <URL/>

で良いかな?

668 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 16:16]
info wget

669 名前:名無しさん@お腹いっぱい。 [03/11/25 17:19]
cgiファイルらしきもんはダウンロードできたけれど、やっぱソースが見れないです。
ソースの形でまるごとやりたいんですけど。

670 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 17:25]
ソースが見れないように設定してあるHTTP鯖から、
ソースを落とすことはできませんヨ。当たり前だろ。

671 名前:名無しさん@お腹いっぱい。 [03/11/25 17:31]
やっぱ、そうだったか。
たまたま、ソースもまるごと落せたこともあったけど、それはそこの管理者が
物凄くアホだったってわけね。

俺もな、、、涙;

672 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 17:35]
そもそも、読み出し権限無いかもしれないし。



673 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/25 22:14]
>>671
というかCGIとして実行されるように設定されてるファイルは、絶対にGETできんよ。
そのファイルを指定したリクエストが来たらCGIとして実行するようになってる
訳だから、(そのWebサーバ経由では)ファイルを取りようが無い。
ソースを落とせたことがあるんなら、多分それは、CGI実行設定されてない
ディレクトリに物置のように置いて有ったのだろう。逆に言うとそれは
「動いていない」プログラムだから、正しいという保証はどこにも無い。

674 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 00:38]
jpeginfo でこわれているjpegファイルの判定を十分にできますか?
なんか、xv で表示できないファイルがだいぶ残るのですが。


675 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 01:21]
XVの設定が古いせいではないかと…

ImageMagickとかなら表示できたりしない?

676 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 01:53]
そうですか。もうすこしいろいろためしてみます。


677 名前:名無しさん@お腹いっぱい。 mailto:sage [03/11/26 14:35]
% perl slodziutka.erospace.pl

ドゾー



678 名前:名無しさん@お腹いっぱい。 [03/12/17 20:51]
最新のwgetって~を%7Eに変換しないのか…

679 名前:名無しさん@お腹いっぱい。 [04/01/02 16:41]
「げっとぴっく」ってやつ使ってるんだが
「指定のURLには画像が存在しません」とかいうエラーが出てきてdlできん

680 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/02 16:44]
>>679
板違い。

681 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 09:57]
gallery3.pure-angel.net/kasumi_nakane/index.html

なんだけど、wget が使用不能です(downloaderとして弾かれる)。
猛者の皆様、お助け下さい。

682 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 10:22]
>>681
あんま好きなおなごじゃないな

wget --user-agent=Mozilla --referer gallery3.pure-angel.net/kasumi_nakane/01/ gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg




683 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/05 14:01]
> wget --user-agent=Mozilla --referer gallery3.pure-angel.net/kasumi_nakane/01/ gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg


ありがとうございます!!
--refererの使用まで思い至りませんでした。

684 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 07:39]
>>578の方法につての質問です。
ディレクトリが同じでその中のファイルの例が
img20031113192714.jpg 13 Nov 03 19:27 6.2Kb
img20031113210116.jpg 13 Nov 03 21:01 7.4Kb
img20031113210157.jpg 13 Nov 03 21:01 22.1Kb
・・・
こんな感じになってます。これを一気に落としたいのですが
いかんせん時分秒まで回してたらやばいことになりそうなので
wget ~ の~部分だけループできたらと思います。
で,その場所がディレクトリサービスONだったので
starsuiteで上のようなファイルリストを作りました。
でもシェルスクリプトの動作がイマイチわかりません。

cat<<END |wget nanntokakanntoka/
2003xxxxxxxx.jpg
...
END

の足りない部分を埋めていただきたく思います。
Solaris9でインストールしたときのsh使ってます。

それ以前にwgetでディレクトリサービスONの
アドレスから.jpg .png .gifの絶対パス取って
まとめてゲット~なんて出来ればなお良いんですけど
私にはさっぱりひらめきがないのでもし良かったら
ご教示願います

685 名前:684 mailto:sage [04/01/08 07:53]
あーん最悪。wget -r www.nantara/
だけでぜーんぶおとせた。ディレクトリサービスオンだとこんなことになるのね。
って書き込んでる間に396filesオチター

686 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 09:52]
何が最悪なんだ?

687 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/08 13:32]
684がhelpもinfoも読まずにカキコしちゃった自身の
ソコツさ加減を最悪と称しているのでせう

688 名前:名無しさん@お腹いっぱい。 [04/01/09 02:37]
echo "wget www.hoge.he.jp/hoge/ero{001..100}.jpg" | zsh -s

689 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/09 13:54]
>>685
URL希望


690 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/17 18:58]
あの、awkでしかも汚いですが一応動きます。
baseurl と files 変えたら他の女の子のもいけます。
よければ添削してやってください。

BEGIN{
baseurl="www.tokyo-247.net/image/37_maya/maya1/t2_maya001.jpg"
files = 55

split(baseurl,url,"1/")
url[2] = substr(url[2],1,index(url[2],"0"))

for(i=1; i<=files; i++){
path = url[1] int((i-1)/15)+1 "/"
if(i<10){ number = "0" i }else{ number = i}
file = url[2] number ".jpg"
print file
wgetcmd = "wget -nc " path file
system(wgetcmd)
}
}


691 名前:名無しさん@お腹いっぱい。 [04/01/18 00:35]
wgetのオプションでquotaを指定すると取得するファイルの上限をきめられるそうですが
逆に下限を決める事はできないのでしょうか?
HDDがすげー遅いので、ディスクアクセスをできるだけ減らしたいっす

692 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 00:39]
>>690
わざわざ変なスクリプトかいて暇ですな。



693 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 00:45]
>>690
ファイルごとに wget を起動するんでなく
URL を一括で wget に食わせてやる方がよいと思う。
あとせっかく wget 使うなら便利なオプションがいろいろあるので調べるが吉。

694 名前:690 mailto:sage [04/01/18 08:09]
ご意見ありがd。
>692
九段のサイトでは画像を小出しにしてまして
定期的に巡回して、うp分を一括ダウソする必要があり
まぁ暇だったこともあってこうなりまつた。
>693
その向きでまたチャレンジしまつ。

695 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:26]
> ご意見ありが??。
まともなunixerならまず使おうとは思わん記号だな

696 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:53]
>>695
というか、入力方法がわからんよ
emacsでctrl-q hoge fuga とかするの?

697 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 11:55]
そういえば、どこかのスレに
「(・∀・)イラネ」って書いてあったのを見たことあるよ

698 名前:名無しさん@お腹いっぱい。 mailto:sage [04/01/18 15:40]
>695
わざわざ使おうとは思わんけど、
unixでは読めないのがあたりまえみたいな
書きかたをされると( ´゚д゚`)

699 名前:名無しさん@お腹いっぱい。 [04/02/08 02:27]
連番のH画像じゃないんですが、
celeb.goldengate.hu/site_videos.php3
ここの MPEG全部落したいんですが、あれこれやっても
うまくできないのです。お知恵を貸していただければ、
嬉しいのですが。

700 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 03:24]
"あれこれ"やったことを書け。

701 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 14:32]
リンクを解析して辿り、目的の拡張子だけをダウソするPerlスクリプトを書いたんですが・・・再発明ですか?
個人的には十分楽しんだからウマーだけど。


702 名前:あぼーん mailto:あぼーん [あぼーん]
あぼーん



703 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 15:29]
先生!!>>702の頭の悪さが直っていません!


704 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 15:50]
HTML::LinkExtor とか使えばいいのに。
出力は、fork しまくって wget を同時に走らすスクリプトに渡すと。

まあ、手元にあるんだが、希望者がいれば公開してあげます。

705 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 17:50]
>>704
公開希望

706 名前:名無しさん@お腹いっぱい。 mailto:sage マジでいてーよ [04/02/08 18:24]
今痔が出来て痛くてたまらないからAA貼り付けようかな

707 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:22]
僕もがんばってみた。「はじめてのC言語」とそれから「関数の使いかた」少しよんだ。


#include <stdio.h>
#include <string.h>
#include <math.h>
#define MAXSTRING 255

struct address{
char preaddr[MAXSTRING];
char scope[MAXSTRING];
char aftaddr[MAXSTRING];

int statnum;
int endnum;
int digit;
};

/* 続く */

708 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:23]
void numaddr( struct address *p )
{
char cset[] = "-";
p->digit = strcspn( p->scope, cset );
p->statnum = atoi( strtok( p->scope, cset ));
p->endnum = atoi( strtok( NULL, cset ));
}

void printaddr( struct address *p )
{
int i, n, t;
for ( n = p->statnum; n <= p->endnum; n++ )
{
fprintf( stdout, "%s", p->preaddr );
if ( n == 0 ) i = 0;
else i = log10(n);
for ( t = i; t < p->digit - 1; t++ )
fprintf( stdout, "0");
fprintf( stdout, "%d%s\n", n, p->aftaddr );
}
}

/* 続く */

709 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/08 22:24]
int main( int argc, char *argv[] )
{
int i;
char cset[] = "[]";
struct address multiaddr[argc];

if ( argc <= 1 ) fprintf( stdout, "%s [word]...\n", argv[0] );
else
{
for ( i = 1; i < argc; i++ )
{
strcpy ( multiaddr[i].preaddr, strtok( argv[i], cset ));
strcpy ( multiaddr[i].scope, strtok( NULL, cset ));
strcpy ( multiaddr[i].aftaddr, strtok( NULL, cset ));

numaddr(&multiaddr[i]);
printaddr(&multiaddr[i]);
}
}

return 0;
}

/* おしまい */

710 名前:707 mailto:sage [04/02/08 22:28]
math.h をつかうと
#gcc -o getopai getopai.c -lm
と -lm つけるのなんでだろ?

711 名前:707 mailto:sage [04/02/08 22:35]
>>709 やっぱこう↓しとく
"s/\[word\]/opai\[001-100\].jpg/"

712 名前:699 [04/02/08 23:49]
700さん
ここむずかしいですね。どういう仕組みなんだろう、このHP。
画像もたくさんあるみたいなんだけど、すぺてPHPで開いてきます。
wget -r --user-agent=Mozilla --referer celeb.goldengate.hu celeb.goldengate.hu/
当然 これでは無理ですね
だめぽ…



713 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/09 12:51]
難しくはない。ただ、ファイル名が結構適当なので面倒臭い。
wget celeb.goldengate.hu//celebs_foreign_pic/Dido/dido{043..045}.jpg


714 名前:名無しさん@お腹いっぱい。 [04/02/09 13:03]
>>712
動画ウィンドウの表示にはJavaScriptを利用してるみたいなので
wgetだけでは無理かと

715 名前:699 [04/02/09 23:45]
うん どうやってするのがスマートな解決なんでしょうか。
僕には皆目検討もつきません。
やっぱ 一つ一つ落すしかないのかな。


716 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 03:47]
--user-agentの指定ってどういうとき必要になるの?

717 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 03:56]
偽装したい時

718 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 08:30]
>>716
指定しないと落とせないとき。

719 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/10 10:44]
アクセスログ読んでる奴に嫌がらせしたいとき。

720 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 12:14]
>>718
--user-agentを指定しアクセス制限を回避することは
不正アクセス禁止法の第3条2項2号に違反するため、
一年以下の懲役又は五十万円以下の罰金に処されます。

721 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 13:22]
>>720
user agentは不正アクセス禁止法の識別符号には該当しない。

722 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 15:23]
詳しい人100人集めたら90人くらいまではそう言うと思うけど、裁判所的にはどうだろね。
URLと一緒で意図絡んでるからトチ狂った判断出される可能性はなきにしもあらずげ。



723 名前:名無しさん@お腹いっぱい。 mailto:sage [04/02/11 20:32]
>>721
MS的にはおもしろくないだろうよ?

724 名前:720 mailto:sage [04/02/11 23:11]
>720はネタなんで無視してくれて構いません。
ただ、一応補足しておくと…

>>721
識別符号を使用した不正アクセス行為を規定しているのは第3条2項1号。
第3条2項2号は識別符号以外の情報を使用した不正アクセスについて
規定しています。
www.ipa.go.jp/security/ciadr/law199908.html






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef