連番のH画像を一気に ..
688:名無しさん@お腹いっぱい。
04/01/09 02:37
echo "wget URLリンク(www.hoge.he.jp)" | zsh -s
689:名無しさん@お腹いっぱい。
04/01/09 13:54
>>685
URL希望
690:名無しさん@お腹いっぱい。
04/01/17 18:58
あの、awkでしかも汚いですが一応動きます。
baseurl と files 変えたら他の女の子のもいけます。
よければ添削してやってください。
BEGIN{
baseurl="URLリンク(www.tokyo-247.net)"
files = 55
split(baseurl,url,"1/")
url[2] = substr(url[2],1,index(url[2],"0"))
for(i=1; i<=files; i++){
path = url[1] int((i-1)/15)+1 "/"
if(i<10){ number = "0" i }else{ number = i}
file = url[2] number ".jpg"
print file
wgetcmd = "wget -nc " path file
system(wgetcmd)
}
}
691:名無しさん@お腹いっぱい。
04/01/18 00:35
wgetのオプションでquotaを指定すると取得するファイルの上限をきめられるそうですが
逆に下限を決める事はできないのでしょうか?
HDDがすげー遅いので、ディスクアクセスをできるだけ減らしたいっす
692:名無しさん@お腹いっぱい。
04/01/18 00:39
>>690
わざわざ変なスクリプトかいて暇ですな。
693:名無しさん@お腹いっぱい。
04/01/18 00:45
>>690
ファイルごとに wget を起動するんでなく
URL を一括で wget に食わせてやる方がよいと思う。
あとせっかく wget 使うなら便利なオプションがいろいろあるので調べるが吉。
694:690
04/01/18 08:09
ご意見ありがd。
>692
九段のサイトでは画像を小出しにしてまして
定期的に巡回して、うp分を一括ダウソする必要があり
まぁ暇だったこともあってこうなりまつた。
>693
その向きでまたチャレンジしまつ。
695:名無しさん@お腹いっぱい。
04/01/18 11:26
> ご意見ありが??。
まともなunixerならまず使おうとは思わん記号だな
696:名無しさん@お腹いっぱい。
04/01/18 11:53
>>695
というか、入力方法がわからんよ
emacsでctrl-q hoge fuga とかするの?
697:名無しさん@お腹いっぱい。
04/01/18 11:55
そういえば、どこかのスレに
「(・∀・)イラネ」って書いてあったのを見たことあるよ
698:名無しさん@お腹いっぱい。
04/01/18 15:40
>695
わざわざ使おうとは思わんけど、
unixでは読めないのがあたりまえみたいな
書きかたをされると( ´゚д゚`)
699:名無しさん@お腹いっぱい。
04/02/08 02:27
連番のH画像じゃないんですが、
URLリンク(celeb.goldengate.hu)
ここの MPEG全部落したいんですが、あれこれやっても
うまくできないのです。お知恵を貸していただければ、
嬉しいのですが。
700:名無しさん@お腹いっぱい。
04/02/08 03:24
"あれこれ"やったことを書け。
701:名無しさん@お腹いっぱい。
04/02/08 14:32
リンクを解析して辿り、目的の拡張子だけをダウソするPerlスクリプトを書いたんですが・・・再発明ですか?
個人的には十分楽しんだからウマーだけど。
702:あぼーん
あぼーん
あぼーん
703:名無しさん@お腹いっぱい。
04/02/08 15:29
先生!!>>702の頭の悪さが直っていません!
704:名無しさん@お腹いっぱい。
04/02/08 15:50
HTML::LinkExtor とか使えばいいのに。
出力は、fork しまくって wget を同時に走らすスクリプトに渡すと。
まあ、手元にあるんだが、希望者がいれば公開してあげます。
705:名無しさん@お腹いっぱい。
04/02/08 17:50
>>704
公開希望
706:名無しさん@お腹いっぱい。
04/02/08 18:24
今痔が出来て痛くてたまらないからAA貼り付けようかな
707:名無しさん@お腹いっぱい。
04/02/08 22:22
僕もがんばってみた。「はじめてのC言語」とそれから「関数の使いかた」少しよんだ。
#include <stdio.h>
#include <string.h>
#include <math.h>
#define MAXSTRING 255
struct address{
char preaddr[MAXSTRING];
char scope[MAXSTRING];
char aftaddr[MAXSTRING];
int statnum;
int endnum;
int digit;
};
/* 続く */
708:名無しさん@お腹いっぱい。
04/02/08 22:23
void numaddr( struct address *p )
{
char cset[] = "-";
p->digit = strcspn( p->scope, cset );
p->statnum = atoi( strtok( p->scope, cset ));
p->endnum = atoi( strtok( NULL, cset ));
}
void printaddr( struct address *p )
{
int i, n, t;
for ( n = p->statnum; n <= p->endnum; n++ )
{
fprintf( stdout, "%s", p->preaddr );
if ( n == 0 ) i = 0;
else i = log10(n);
for ( t = i; t < p->digit - 1; t++ )
fprintf( stdout, "0");
fprintf( stdout, "%d%s\n", n, p->aftaddr );
}
}
/* 続く */
709:名無しさん@お腹いっぱい。
04/02/08 22:24
int main( int argc, char *argv[] )
{
int i;
char cset[] = "[]";
struct address multiaddr[argc];
if ( argc <= 1 ) fprintf( stdout, "%s [word]...\n", argv[0] );
else
{
for ( i = 1; i < argc; i++ )
{
strcpy ( multiaddr[i].preaddr, strtok( argv[i], cset ));
strcpy ( multiaddr[i].scope, strtok( NULL, cset ));
strcpy ( multiaddr[i].aftaddr, strtok( NULL, cset ));
numaddr(&multiaddr[i]);
printaddr(&multiaddr[i]);
}
}
return 0;
}
/* おしまい */
710:707
04/02/08 22:28
math.h をつかうと
#gcc -o getopai getopai.c -lm
と -lm つけるのなんでだろ?
711:707
04/02/08 22:35
>>709 やっぱこう↓しとく
"s/\[word\]/opai\[001-100\].jpg/"
712:699
04/02/08 23:49
700さん
ここむずかしいですね。どういう仕組みなんだろう、このHP。
画像もたくさんあるみたいなんだけど、すぺてPHPで開いてきます。
wget -r --user-agent=Mozilla --referer URLリンク(celeb.goldengate.hu)<)
当然 これでは無理ですね
だめぽ…
713:名無しさん@お腹いっぱい。
04/02/09 12:51
難しくはない。ただ、ファイル名が結構適当なので面倒臭い。
wget URLリンク(celeb.goldengate.hu)
714:名無しさん@お腹いっぱい。
04/02/09 13:03
>>712
動画ウィンドウの表示にはJavaScriptを利用してるみたいなので
wgetだけでは無理かと
715:699
04/02/09 23:45
うん どうやってするのがスマートな解決なんでしょうか。
僕には皆目検討もつきません。
やっぱ 一つ一つ落すしかないのかな。
716:名無しさん@お腹いっぱい。
04/02/10 03:47
--user-agentの指定ってどういうとき必要になるの?
717:名無しさん@お腹いっぱい。
04/02/10 03:56
偽装したい時
718:名無しさん@お腹いっぱい。
04/02/10 08:30
>>716
指定しないと落とせないとき。
719:名無しさん@お腹いっぱい。
04/02/10 10:44
アクセスログ読んでる奴に嫌がらせしたいとき。
720:名無しさん@お腹いっぱい。
04/02/11 12:14
>>718
--user-agentを指定しアクセス制限を回避することは
不正アクセス禁止法の第3条2項2号に違反するため、
一年以下の懲役又は五十万円以下の罰金に処されます。
721:名無しさん@お腹いっぱい。
04/02/11 13:22
>>720
user agentは不正アクセス禁止法の識別符号には該当しない。
722:名無しさん@お腹いっぱい。
04/02/11 15:23
詳しい人100人集めたら90人くらいまではそう言うと思うけど、裁判所的にはどうだろね。
URLと一緒で意図絡んでるからトチ狂った判断出される可能性はなきにしもあらずげ。
723:名無しさん@お腹いっぱい。
04/02/11 20:32
>>721
MS的にはおもしろくないだろうよ?
724:720
04/02/11 23:11
>720はネタなんで無視してくれて構いません。
ただ、一応補足しておくと…
>>721
識別符号を使用した不正アクセス行為を規定しているのは第3条2項1号。
第3条2項2号は識別符号以外の情報を使用した不正アクセスについて
規定しています。
URLリンク(www.ipa.go.jp)
725:名無しさん@お腹いっぱい。
04/02/12 00:07
もしかして、厳密にいうと違反なわけ?
726:名無しさん@お腹いっぱい。
04/02/12 01:51
>>725
誰かがUA偽装のみで訴えられて裁判所が何らかの判断下すまで違反だとは誰も断言できない。
条文にアクセス方法についてもうちょい具体的に書いておいてくれりゃよかったんだけどね。
727:名無しさん@お腹いっぱい。
04/02/12 05:09
telnetしたり自分でUA組んだ時、
打ち間違えたりリテラル書き間違えてたらタイーフォか。ありえねー。
標準で偽装可能な Opera はタイーフォだな。(w
大体、クライアント側が偽装してるかどうかを立証する方法がないわな。
ただ裁判官はこの手の知識は絶無だし、腐った弁護士は少なくないからなぁ。
やな世の中だ。
728:名無しさん@お腹いっぱい。
04/02/12 15:31
なんか変な人が。
>>727
UserAgentを普段書き換えることや書き換え機能がついてること自体は問題ない。
* UserAgentでアクセスの制限をしているサイト * へ、UserAgentを書き換えて
アクセスしたことが問題(になるかもしれないのはやだなあ)という話。
729:名無しさん@お腹いっぱい。
04/02/12 19:11
なる可能性はあるな。国内の法律では不正アクセス行為の禁止等に関する法律の
第3条3項に以下の記述がある
>三 電気通信回線を介して接続された他の特定電子計算機が有するアクセス制御機能に
>よりその特定利用を制限されている特定電子計算機に電気通信回線を通じてその
>制限を免れることができる情報又は指令を入力して当該特定電子計算機を作動させ、
>その制限されている特定利用をし得る状態にさせる行為
ここの「制限を免れることが出来る情報」にuseragentが含まれるかどうかが争点だろう。
俺としてはUAはそもそも信憑性にないものだし,UAによるアクセス制御自体が
無効だと思ってる。ケータイのサイトなんかでよくあるけど,CDMAなんかopenwave.com
からブラウザ拾ってきて使えばPCでMobile Browserのagentが出せる。
この場合は有罪?無罪?
アクセス制御にはIPアドレスなどを使うべきだろう。
俺の結論 合法と解釈する。
730:名無しさん@お腹いっぱい。
04/02/12 22:13
アクセス制限とは認証のことであり、UAのチェックは認証としての要件を満たさない
以上終了
731:名無しさん@お腹いっぱい。
04/02/13 00:28
>>730
前提を示す必要があるな。
732:名無しさん@お腹いっぱい。
04/02/13 02:39
もまえら暇だなぁ。
733:名無しさん@お腹いっぱい。
04/02/13 03:27
そんなことより違法なエロ画像の URL 下さい。
734:名無しさん@お腹いっぱい。
04/02/13 04:16
「うらぼん」でぐぐればいいのでは?
735:名無しさん@お腹いっぱい。
04/02/13 07:56
これですか??
URLリンク(www.chuouji.or.jp)
ありがとうございます!
736:名無しさん@お腹いっぱい。
04/02/13 08:48
おお、これは本当にありがたい。ありがたやありがたや (一人一) ナムー
737:名無しさん@お腹いっぱい。
04/02/13 12:12
これどうやっておとすのでしょう
wget --referer では落とせません
URLリストをテキストに出力して別のGUIダウンローダにコピペすれば落とせるのですが。
ちなみにwget -iでは無理でした
URLリンク(www.free-adult-hosting.net)
の真ん中右Sampleってやつです01〜41
お願いします
738:名無しさん@お腹いっぱい。
04/02/13 12:25
user-agentだろどうせ
739:名無しさん@お腹いっぱい。
04/02/13 12:34
cookie利用の可能性も
740:名無しさん@お腹いっぱい。
04/02/13 12:40
% wget --user-agent=Mozilla URLリンク(www.free-adult-hosting.net)
741:名無しさん@お腹いっぱい。
04/02/13 14:27
連番の蓮画像を一気にダウンロードする
スレに見えた。
742:名無しさん@お腹いっぱい。
04/02/13 14:34
>>741
3年前から同じスレタイですが。
743:741
04/02/13 15:02
ようするに見る側の問題ってこった。
744:名無しさん@お腹いっぱい。
04/02/13 15:11
>740
ありがとぉ
745:名無しさん@お腹いっぱい。
04/02/14 00:51
URLリンク(kawaii.clawz.com)
ここってどうやって巡回すればいい?
ヘッダがないからwgetじゃエラーになるんだけど
746:名無しさん@お腹いっぱい。
04/02/14 03:58
よ〜するに、M$IEもMozillaを騙っているので偽装であると...φ(.. )
747:名無しさん@お腹いっぱい。
04/02/14 04:25
,. -‐-
「`Y´| ヽ 〜
Y⌒ソノノリ)) )〉
i (ll (〔i ,i〕{ノ
__ リ从ゝ~ (フ/
{{゙ァ‐ 、 '⌒ T
`ーへ ヽ ィ !
ー' ,ノ ,
, ´ '/
. ,.、 ! ヽ'
/ ヽ. /ヽ. ヽ
ー'´\ ' /ヽ ヽ
ー' \ ヽ _
ヽ. ヽ'´ /
\ _/
【小学6年】山手線(渋谷駅)で全裸の少女が補導 part12【昼間から(画像有り)】
スレリンク(pcnews板)l50
748:名無しさん@お腹いっぱい。
04/02/14 04:28
urlがpcnewsでは開いて見る気もせんが、
AAは良い出来だから今回だけは許してやろう。
749:名無しさん@お腹いっぱい。
04/02/14 12:30
pcnewsに飛ばすならせめて
ネットで公開して本人補導とかそういうのにしてくれないとな。
750:名無しさん@お腹いっぱい。
04/02/15 04:28
>>735
功徳は生きてるうちに
751:名無しさん@お腹いっぱい。
04/02/17 17:54
URLリンク(smmonkey.pwp.blueyonder.co.uk)
H画像ではない (連番ではある) けどこれはむっ、と思った。
この手で対処されたらお手上げっぽくね?
# ちなみに違法ページではないよ。Amstrad社のケツの穴はデカいなあ
752:名無しさん@お腹いっぱい。
04/02/18 23:10
URLリンク(www.macromedia.com)
一応仕様は公開はされてるけどな。
753:名無しさん@お腹いっぱい。
04/02/20 04:08
あんまりサーバに負荷かけちゃ駄目だよ。
#!/bin/bash
if [ ! -d ./OUT ]; then
mkdir OUT
fi
URL="URLリンク(thebbs.jp)<)"
done
でもここから選別するのが大変な罠。
754:753
04/02/20 04:40
あ、そうそう。
急に変なアクセス増えて何かの対策とられたりしないように次の事くらいは守って使って。
UAは絶対変える。
GETNUMは増やさない。
-w は減らさない。
--random-waitは外さない。
管理者に迷惑かからないようにしてな。まじで。
一晩くらいかけてマターリ落して細く長く楽しむのが吉だべよ。
つっても楽しめる画像があんまり無いんだけど。
755:名無しさん@お腹いっぱい。
04/02/21 01:23
自分で生HDDをつけるということは、少なくてもパーティションの作成から
ファイルシステムやswapの作成というところから始めなきゃいけない訳だし
unix未経験者にはハードル高いんじゃないかな、少なくてもvi使えないと話にならんし。
でもこれから勉強したい人には良いかもね。
756:名無しさん@お腹いっぱい。
04/02/21 01:38
↑なかなか上品なレスだけど、頭の中ではエロエロなことばかり考えているんですね。
757:名無しさん@お腹いっぱい。
04/02/21 16:20
誤爆かと思った罠
758:名無しさん@お腹いっぱい。
04/02/22 07:14
エロは*習熟の源です
759:名無しさん@お腹いっぱい。
04/03/12 00:34
760:名無しさん@お腹いっぱい。
04/03/15 03:48
ほしゅ
761:名無しさん@お腹いっぱい。
04/04/16 21:19
ほしゅほしゅ
762:名無しさん@お腹いっぱい。
04/04/22 20:59
hosyu
763:名無しさん@お腹いっぱい。
04/05/07 11:36
764:名無しさん@お腹いっぱい。
04/05/07 23:19
hosyu
765:名無しさん@お腹いっぱい。
04/05/08 00:26
なんかネタ無いの?
wgetで複数ファイルの同時ダウンロードするシェルスクリプト書いてたまに使ってるけど、
curlを使うperl,ruby,python等のスクリプトの方がよくない?
shは遅いし、wgetは終了時のエラーコードとか細かい部分がダメぽい。
766:名無しさん@お腹いっぱい。
04/05/08 05:48
エロには飽きた。
767:名無しさん@お腹いっぱい。
04/05/08 06:19
画像に飽きた奴が小説に流れるパターンだな
768:名無しさん@お腹いっぱい。
04/05/23 11:48
もう一度、エロのパワーを!!!
769:名無しさん@お腹いっぱい。
04/05/28 13:14
保守
770:sage
04/06/21 21:23
誰か俺が使ってるスクリプト見たい人いる?汚いけど。
771:名無しさん@お腹いっぱい。
04/06/21 21:30
参考にしてみたいな
772:770
04/06/21 22:09
こんなかんじ。
urlをテキストに並べておいて、ファイル名を引き数に指定して使ってます。
urlにリンクされているjpgを勝手にフォルダ掘ってそこにdlしていきます。
フォルダ名はurlから拾ってます。
#!/usr/bin/perl
use LWP::UserAgent;
use HTML::LinkExtor;
use URI::URL;
use strict;
use POSIX ":sys_wait_h";
$| = 1;#OUTPUT_AUTOFLUSH
my $iframe_ref='';
my $base_tag = '';
773:770
04/06/21 22:09
while(!eof()) {
my $url = <>;
$iframe_ref = '';
my %downloads = ();
chomp $url;
next unless $url;
print "Checking $url¥n";
if ( map{ $downloads{$_} = 0 } getlinks($url) )
{
$url = $iframe_ref if $iframe_ref;
dl2( $url,[sort keys %downloads] );
print "¥n";
} else {
print "there are no JPG¥n";
}
}
774:770
04/06/21 22:10
my @imgs = ();
my $iframe = '';
sub callback {
my($tag, %attr) = @_;
$iframe = $attr{"src"} if $tag eq 'iframe';
$base_tag = $attr{"href"} if $tag eq 'base';
return if $tag ne 'a';
push(@imgs, $attr{"href"});
}
775:770
04/06/21 22:10
sub getlinks
{
$base_tag = '';
@imgs = ();
$iframe = '';
my $url = $_[0];
my $ua = LWP::UserAgent->new( Agent => "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;)");
my $p = HTML::LinkExtor->new(¥&callback);
my $res = $ua->request(HTTP::Request->new(GET => $url),
sub {$p->parse($_[0])});
my $base = $base_tag || $res->base;
if ($iframe and !@imgs) {
print "Found iframe. recheck >> $iframe¥n";
$_ = url($iframe,$base)->abs;
$iframe_ref = $_;
$iframe = '';
return getlinks($_);
}
@imgs = map { $_ = url($_, $base)->abs; } @imgs;
@imgs = grep{/.[jJ][pP][gG]$/} @imgs;
return @imgs;
}
776:770
04/06/21 22:11
sub dl {
my $uri = $_[0];
my $ref = $_[1];
my ($dummy,$dir) = ($uri =~ /.*¥/([^¥/]+)¥/([^¥/]+)¥/[^¥/]*$/);
opendir(A,$dir) || mkdir $dir;
closedir A;
chdir $dir;
`curl -s -O $uri -e $ref`;
chdir "../";
}
777:770
04/06/21 22:12
sub dl2 {
my $max = 4;#プロセス数
my $ref = shift;
my @str = @{shift(@_)};
my($pid, @slot);
my $tick=0;
while(@str){
for(0..($max-1)){
if($slot[$_] != 0 and waitpid($slot[$_], &WNOHANG)!=0){
$slot[$_] = 0;
}
}
778:770
04/06/21 22:12
for(0..($max-1)){
if($slot[$_] == 0){
my $url = shift(@str);
last unless defined $url;
chomp($url);
if($pid=fork()){
$slot[$_] = $pid;
} elsif (defined $pid) {
print "Start Download >> $url¥r";
dl($url,$ref);
exit;
} else {
die "Can't fork: $!¥n";
}
}
}
sleep(1);
}
for(0..($max-1)){
waitpid($slot[$_], 0);
}
}
779:770
04/06/21 22:13
以上です。
780:770
04/06/21 22:29
余計なのはいってた;
my $tick;
を削除してください;
バーが回るヤツつけようと書き換えている最中の貼ってしまいました;
781:名無しさん@お腹いっぱい。
04/06/22 14:41
wget -r -A .jpg
に URL を渡して回せば良いのでは? と言ってみるテスト。
782:名無しさん@お腹いっぱい。
04/06/22 17:35
wgetの--page-requisitesを使ってお絵かき掲示板の絵をコメントごと収集しようと思ってます。
しかし、しぃアプレットを使っている掲示板からは--page-requisitesで画像を持って来れませんでした。
例として、どこでもいいんですが思い切り無関係なところでこことか↓
URLリンク(www15.big.or.jp)
1) wgetの設定がまずい
2) こっちのネットワークの何かがまずい
3) CGI側で何かしてるのでwgetでは無理
なにがよろしくないんでしょう。wgetがHTMLを解析してくれてない感じなんですが。
783:名無しさん@お腹いっぱい。
04/06/22 18:03
>>782
1) -p option ついたの最近よ? あと実装始めのころのはバグってた気もした
2) これっぽい。君のサイトが撥ねられてるとか、proxy とか
3) んなこたー、ない
% wget --page-requisites URLリンク(www15.big.or.jp)
(略)
% ls www15.big.or.jp/~baroque/nharuna/oekaki/data/
IMG_003579.jpg IMG_003582.jpg IMG_003585.jpg IMG_003587_2.jpg
IMG_003581.jpg IMG_003584.jpg IMG_003586.jpg IMG_003588.jpg
% wget --version
GNU Wget 1.9.1
784:名無しさん@お腹いっぱい。
04/06/22 18:06
ゼンゼン関係あるけどこのサイトは感動した
URLリンク(www.geocities.jp)
785:名無しさん@お腹いっぱい。
04/06/22 18:18
>>782-783
漏れも画像のダウンロードができなかった
-m -l1オプションでもダメだった
% wget --version
GNU Wget 1.8.2
wget 1.9は~の処理が変わったので使ってない
786:782
04/06/22 18:33
でも、infoseek.co.jp にあるのも candybox.to にあるのも x-beat.com にあるのも駄目。指定ファイルしか落ちてこない。
Webブラウザでは普通に見れるし… --recursive とかもこのサイトに効かないんだよなあ。
$ wget -nv --page-requisites URLリンク(www15.big.or.jp)
18:15:34 URL:URLリンク(www15.big.or.jp) [28106]
-> "www15.big.or.jp/%7Ebaroque/nharuna/oekaki/bbsnote.cgi" [1]
終了しました --18:15:34--
ダウンロード: 28,106 バイト(ファイル数 1)
$ wget --version
GNU Wget 1.8.1
Windows版。
>wget -nv --page-requisites URLリンク(www15.big.or.jp)
18:15:20 URL:URLリンク(www15.big.or.jp) [28106]
-> "www15.big.or.jp/~baroque/nharuna/oekaki/bbsnote.cgi" [1]
FINISHED --18:15:20--
Downloaded: 28,106 bytes in 1 files
>wget --version
GNU Wget 1.9.1
なんででしょね?
787:770
04/06/22 21:39
>781
おお。スマートだし。自分が恥ずかしくなってきた。
でもこれ、サムネールとか広告まで保存しちゃいますね。
保存先も深くなっちゃうし。
788:770
04/06/23 05:05
>782
wget --page-requisites --follow-tags=IMG
でいけました。
あと自己レスなんですが
wget -r -A.jpg -nd -np -I 1 -H --ignore-tags=img -P dir
でやりたかった通りに出来ました。
789:名無しさん@お腹いっぱい。
04/06/23 10:56
>>788
でもあんま根本的な原因究明にはなってないな(w
解析が難しいHTMLの書き方にでもなってるのか?
790:名無しさん@お腹いっぱい。
04/06/23 11:48
wgetよりcURLの方が便利だ。
791:名無しさん@お腹いっぱい。
04/06/23 16:46
使い方キボン.
792:770
04/06/25 09:06
>789
CGIが吐くHTMLの最初の方に
<META name="ROBOTS" content="NOINDEX,NOFOLLOW">
とあり、wgetがこのタグのNOFOLLOWを理解して探索をやめてしまうから。
793:名無しさん@お腹いっぱい。
04/06/29 18:13
がーん。wget って --timestamping と --no-clobber を同時指定ってできないんだ…
「ローカルより新しいファイルならサーバからダウンロードするが
ファイルは上書きせずに通し番号などをつけて区別して保存する」
という芸はできないのか。
794:名無しさん@お腹いっぱい。
04/06/30 13:09
>>793
サーバー上のファイルと比較すべきローカルのファイルを
どれにするのが適当なのかがよくわからない、というのが原因なんだろうね。
--timestampingで更新ダウンロードした時に
スクリプトでリネーム退避しておく、という手くらいしか思いつかないや。
…wgetが更新ダウンロードしたことを検知する方法ってなんかあるっけ。
ログを書き出す設定にしてgrepする以外にあるかな?
795:名無しさん@お腹いっぱい。
04/07/04 16:58
優秀なポマエラに質問でつ
このサイトの画像を自動で保存するにはどうすればいいでつか?
URLリンク(www.sweetnote.com)
ページの最後にCSSで隠した画像があって、
その画像にアクセスするとアクセス禁止になってしまうので
wgetだと保存できません
ちなみに、巡回ソフト対策みたいなのですが、
CSSに対応してないブラウザで見ると表示されてしまうし、
Operaでスペース押していくと画像を順番に表示していくので
CSSで隠した画像にもアクセスしてしまいます
796:名無しさん@お腹いっぱい。
04/07/04 17:14
そういえば、昔作ったスクリプトには
grep -v BBLhGdTS
何ていうのが入っていたな。
797:名無しさん@お腹いっぱい。
04/07/04 17:18
ん? えーと、コレは単に
……。しまった。CSS云々ってコレか。繋ぎ変えよう
798:795
04/07/04 17:23
>>797
面倒なことさせてしまってすみません
FirefoxなどでCSSを無効にすると
一番下に同じサムネイルが2枚表示されていて
その下の画像のリンクにアクセスするとアクセス禁止になってしまいます
799:名無しさん@お腹いっぱい。
04/07/04 17:30
う、うまく書けない。まあいいや。
えーとね、Lynxかなにかで全リンクを抽出して、grepで/images/を含む行を取り出す。
これは「1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の順番になってるので
偶数行目だけ削除するフィルタを何かで書いて(初心者が急いでるので挫折)、
そのURLリストをUserAgentがIEでrefererが当該ページなwgetで回せばいい。はず。たぶん。
800:名無しさん@お腹いっぱい。
04/07/04 18:10
URLリンク(bbs.coolnavi.com)
↑のようにcookie強制する画像サイトは難しい。
801:名無しさん@お腹いっぱい。
04/07/04 18:36
wget --load-cookies --save-cookies .... でOKでは。
802:799
04/07/04 19:13
適当に書いてみた。LynxだとIEのフリができずアクセス解析でバレそうなのでHTMLソースをwgetして解析。
>>799の「リンクを抽出した1行目は本物画像リンク、2行目はCSSで隠された罠リンク」の仕様が崩れるとアウト。
#/bin/sh
wget $1 -q -nv --user-agent=="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -O - |\
sed -n 's/<a href="\(..*\)" target="_blank">.*/http:\/\/www.sweetnote.com\1/p' |\
awk 'NR%2 == 1' | wget --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" \
--referer=$1 -nv -P ${2:-gazou} -i -
上記の5行をget.shとかで保存して適当に実行可能にして
$ ./get.sh URLリンク(www.sweetnote.com)
とするとカレントディレクトリにgazouディレクトリを勝手に掘って画像を保存。
(5行目の -P ${2:-gazou} を消すとデフォルトでカレントに保存するようになる)
$ ./get.sh URLリンク(www.sweetnote.com) test
とするとカレントディレクトリの下にtestという指定ディレクトリを勝手に掘って画像を保存。
IEだと思わせてるので画像の更新はあえて見てない(毎回6ファイルを強制ダウンロード)。
鯖負荷のかけすぎで気取られないように注意。
803:795
04/07/04 21:35
>>802
ありがとうございます
ダミーのリンクは最初と最後の画像だけみたいなので
偶数行を削除という発想をヒントに2行目と最後の行を削除したらいけました
sed -e '2 d' | tac | tail +2
> 仕様が崩れるとアウト。
以前は各画像のあとにコメントアウトされた
ダミーの画像がふたつずつありました
> (毎回6ファイルを強制ダウンロード)。
いつもはwgetに-xオプションをつけてダウンロードしています
あとは "`echo url | cut -d/ -f3-`" というファイルが
存在するかどうかでダウンロード済みかどうかを判断しています
URLエンコードが必要な場合は適当に処理してます
804:名無しさん@お腹いっぱい。
04/07/04 22:27
IEでもHEAD投げてサイズを見てダウンロードするかどうかを決めるってのはやってるんじゃないかな。
別にそれでバレることはないと思うぞ(w
805:名無しさん@お腹いっぱい。
04/07/04 23:52
>>801
いやね、>>800は半角板に張ってあったりすると、URI中のセッションIDとcookieのセッションIDが一致しないとダメなのよ。
そのサイトから直で落とすなら問題ないんだけどね。
806:名無しさん@お腹いっぱい。
04/08/14 11:43
保守
807:名無しさん@お腹いっぱい。
04/08/22 21:52
wget使ってdlするスクリプトを書いてるんだけど、どうもcookieの処理が上手く出来
ないんだけど、だれか解決方法知らない?
index取得時にUIDとSIDをsetされるので、imageをgetする際にその両方を送れば
いいだけなんだけど、なぜかwgetだとUIDしか送ってくれない。
808:名無しさん@お腹いっぱい。
04/08/27 11:56
URLリンク(office-lady.net)
ここの画像ってどうすればgetできますか?
wgetプロの方、おながいします。
809:名無しさん@お腹いっぱい。
04/08/27 12:28
wget で適当な --referer を指定して、zsh で
URLリンク(office-lady.net)
あとは自分でいろいろ調べてみてください。
810:名無しさん@お腹いっぱい。
04/08/27 13:47
>>807
指定するときにセミコロンでパラメータをセパレートするんじゃないの?
ひょっとしたらwgetの場合cookieなんかだと、複数のパラメータセットが
あった場合、全部追加されるのかもしれないけど。
#まあキャプチャすれば直ぐ判ることだが。
811:名無しさん@お腹いっぱい。
04/09/09 01:30
保守
812:名無しさん@お腹いっぱい。
04/09/10 11:16
>>808
こんな感じ。
wget --header=REFERER:URLリンク(office-lady.net) URLリンク(office-lady.net)
813:名無しさん@お腹いっぱい。
04/09/10 17:38:03
>>812
--header=REFERER:と等価な--refererが最近のヤツだと使えるようになってる。
{}の展開、以前上手く動かなくて使ってないのだが、俺の勘違いだったのかな。
今度試してみよう。
814:名無しさん@お腹いっぱい。
04/09/10 20:32:43
>>813
cshが勝手にはぎ取っているという落ちでないの?
echo {01..18}
の結果は?
815:名無しさん@お腹いっぱい。
04/09/10 22:49:45
>>814
ああ、やっぱりシェルの展開機能なのね。
普通にsh(bash)でした。
816:名無しさん@お腹いっぱい。
04/09/10 23:05:16
このスレのあちこちで、しつこく zsh って書いてあるのに…
817:名無しさん@お腹いっぱい。
04/09/10 23:36:51
curlにはそういうiriaライクな構文があるよね。
818:名無しさん@お腹いっぱい。
04/09/10 23:48:35
>>816
いや、zshに展開機能があるのは知ってるんだけど
wget自身にパラメータの展開機能が盛り込まれたのかと思ったんだよ。
シェルにあるような機能を取り込む必要もないのかもしれんが、
ある意味zshって特殊(スタンダードではない)だから。
まあログインシェルぐらい時々で変えれば、つう考えもあるな。
819:名無しさん@お腹いっぱい。
04/09/10 23:59:20
>818
展開は shell が面倒見てその結果をアプリケーションに渡すのが Unix 的思想。
820:名無しさん@お腹いっぱい。
04/09/11 01:05:09
>>819
んじゃ、もう一方のUnix的な思想で
展開機能のないシェルで展開させるために使うフィルタで
お勧めなのは何かある?今はawkでやってるんだけど。
(zshのスクリプトでというのは取りあえず無しで)
821:名無しさん@お腹いっぱい。
04/09/11 02:16:47
>>820
おまえ アホ だろ.
822:820
04/09/11 03:06:57
>>821
多分指摘のとおりアホなんだと思うけど、
アホ故に、どの辺りをもってしてアホなのかが判らん。
ズバっと明確に切ってくれ。
823:名無しさん@お腹いっぱい。
04/09/11 03:09:28
zshのスクリプトでいいじゃん。
車輪の再発明はイラネ
824:名無しさん@お腹いっぱい。
04/09/11 05:25:12
url を切り出すスクリプトと
wget を 50 個くらい平行して走らせるスクリプトだけで
オナニーするには困ってない.
825:名無しさん@お腹いっぱい。
04/09/11 06:07:50
>>820
まったくスレ読まないで書くから外してるかもしれないけど。
curlは自前で展開してくれる。そっち使えば?
826:名無しさん@お腹いっぱい。
04/09/13 15:03:30
えっと、aria は4系でも動かないの?
827:名無しさん@お腹いっぱい。
04/09/18 13:54:18
もう疲れました。自分なりにwgetのオプションを色々と試してみたんですが。
URLリンク(bbs.coolnavi.com)の中の画像をwgetで落とすことが
できません。
どうか、先生方のお知恵をお貸しください。お願いします。
828:名無しさん@お腹いっぱい。
04/09/29 02:14:03
被写体が♂だったらやったんだけどな・・・
829:名無しさん@お腹いっぱい。
04/09/29 02:21:56
工エエェェ(´д`)ェェエエ工
830:名無しさん@お腹いっぱい。
04/09/29 02:26:40
苺きんたまの画像をゲットした時は
#!/bin/sh
cat input |grep "URLリンク(v.isp.2ch.net)" >output
sed 's/http/ttp/' output > tmp
sed 's/ttp/http/' tmp > tmp2
sed 's/JPG/jpg/' tmp2 > tmp3
awk '
{print "wget " $1}' tmp3 >temp
chmod 700 temp
./temp
mv *.jpg images
こんな感じ。お好みでwhileして?p=1・・・p25までゲットとか。
無限roopで問題なかった。1つのcgi落とすのに10分以上かかったから。
sedが冗長な感じだが足りない頭じゃこんなものしか書けなかった。
誰かもっと簡潔な「よい見本」きぼんぬ。
831:名無しさん@お腹いっぱい。
04/09/29 02:30:11
あーごめん。これじゃなかった。
#!/bin/csh
@ i = 1
while ($i <= 2)
date >>history
wget "URLリンク(up.isp.2ch.net)"
cat "index.cgi" |grep jpg >list
awk -F\" '{print "wget -U hiroyuki URLリンク(v.isp.2ch.net)" $2}' list >test
cat test |grep jpg >test2
chmod 770 test2
./test2
awk '{print $4}' test2 >>listtmp
sort -i listtmp |uniq >getlist
mv *.jpg jpg3
rm "index.cgi"
@ i = 1
end
こんなん。これも良い見本きぼんぬ。
832:名無しさん@お腹いっぱい。
04/10/22 13:36:38
age
833:名無しさん@お腹いっぱい。
04/11/05 19:21:13
保守!
834:名無しさん@お腹いっぱい。
04/11/05 19:23:59
なんて息の長い祖レッドなんだ。
835:833
04/11/05 19:45:55
見つけてしまいました、こんなスレ。今からzsh入れます!
836:名無しさん@お腹いっぱい。
04/11/05 20:09:10
すげー。ありがとみなさん!ノシ
837:名無しさん@お腹いっぱい。
04/11/09 13:04:12
このスレ21世紀の始まりから生きてるのか
838:名無しさん@お腹いっぱい。
04/11/11 21:10:37
エロは性器を超える
839:名無しさん@お腹いっぱい。
04/11/11 21:37:36
URLリンク(page11.auctions.yahoo.co.jp)
このダウンロードソフトって使った人います??
840:名無しさん@お腹いっぱい。
04/11/25 23:08:39
wgetに画像だけ-ncの動作をするオプションを追加して使ってる。
時間の入った連番画像が主の時には、-N使うよりは動作は速いし鯖負荷も多少は減るんじゃ無いかな。
wget --no-clobber-imageで。
begin-base64 644 -
H4sIAN3lpUEAA7VXaW/bRhD9LP2KqYDakiXRJHXLMGoHkQsjTh04aYECAViK
XInbkLsEd+kDaf57Zw8dtCTXCVDBMMXZ92aPeTM7iuliAd2iBMc5fVgS2fWc
ieOdiiI6TaTMnQj2Wuvdbvcgpea7bq/ruV1vAO542vOn3sBxVx9ouxPXrbfb
7f2uFbvf9byuPwDfnw5GU7fvjPqD0WCLfXEBXW/Y9zpDaOunN4GLizqYT0Fk
WTC4m326u313Zqzf6lBvA9AFNHkuHcajlM/npKBZuCRwdARJKAL9EohysaCP
QQ7Nk0TIUDopj8I0WNCUtBRSfQnIIxVS7Ae11EwAX80D4PQErhdQmRaoALVI
EgNnELJYe4UwLUgYP4Hx3oGYA+Oy3q6pPRWU3BOQCTHYk9OV/5Qv84IyiXu7
uf01+GN29+b246wDQbPxud6+1jv862dxvHaPPgrSgQeapsr/2rnzmTVaHdjd
0Vl1K+s1qF1YXwREmedcoFEei7XLGG7fObC12JNYwj/nNjhX6Hg1cHU3mwXv
L/98M4NmXGbZ02bWZwFtm4C2VWRLQQIp4BxcHehVfCXNCG4iyylbtowCvtbj
w2KnjMpdsRvrAbGbwY3YPStXz3uN2DdsI3YPvOHUH0y9oTMcDP0dsY98rXV8
jKzSv0Ijo0XBi0anVvvt95sbfNSiLA5ETqLADMG3joUyjEekkEdah+qtY+Bz
841:名無しさん@お腹いっぱい。
04/11/25 23:09:17
zlMSsi3oSqQIP6qodpfRrjJ0Au3QtLVzaLI8LAiTm6XxwFgOLy8v+ONThaAM
Fn9PIlnZeJkpJYoNXhYrLI7h8gLKFohHacckL0gUShKjXl9QSxZStqsWYz2g
FjP4o2rZsLfVMpz2Rs544hq5bKnFH0+UWtRjtK6LeBZ0yXhBuilhS5k0Opj7
QVgsy0ydNmgJgdcb27OrKGwf9Dg73oYy3l3rZq/nvmcV8wzetarZSxp7z+aI
aaEjrEO6f57RM0rChXwNb7yPl3L+pcwPUAauoqgjH/aG6siHvVHHXEW1KMRa
6I3dKX4HEESi+O7DFJqNiDOGa1E1ipeofHU1oGusdwo5xxr9BYvcyoE3VfW/
4uB5vkGDY+E+0zhLt/MfXx7vzh9GEckPzfuC7BFOORNO8lye64ED4l+P/6j+
Kw62u4Ph1HWd/mS3OxgMVDjw/9gmAN6PEMZxoIKKWjir1TDh33J1caEZlJmF
GYGVTp5+UZeWJa4P3NKoCOcpEbAKA1sCX5hbG7/jceIHqXEoQ8fefRU3Om6v
89W2vjTFsWuKkrDAm5QWWPoINivG1Se8ljHKir7eBciCkAorVTe32qoh3fAl
rCwVHGV5KYMq+FrZKvAX5FJKmordMmnNB6RiR9dC8Xvge1NV7V4llC16VSa9
seP6owpdyWTi9ZVO1MNfKcV2G6qh0F0jRq7e3tceYh4LaU9roQ4EGz/d9BkT
Am17o7qSJr5im2LY0DT4Fpyf61piW8bN1Jb1k8CLGhM5ynA+5GKq/50vG60q
3nsZT/5nQs6+D7+ki+/Cz7N8P37ruHQ7iAq9wwYXQkgpwxa14BlcfdDttYWq
zjXnGFFswSVHBBFJ+oSNsWp28d7X5V9g4uhk0xll30DkYaQ7Xj6XeB1jZyuT
gpfLBDJNb7b0RCLhZWr8zNUSCAIfqEz0V8Q8JIRhi6wcMY6tO1viUhiiSOz8
dzbtlF5rfjGbfrjsbtG3+g78c7FLNT1qJZvGOpnwv0mlui56KnMSmaWbxPlw
eXf5/iOmxHYCtdQ1pJNt30+xgxSMunlRv2yChwSbxUAHf824ur6ZWfcorTIy
9SvISKbKo+HpHzOHl3XPqVKQBQYqkhv0PqeK9S+tiE0GWw8AAA==
====
842:名無しさん@お腹いっぱい。
04/12/08 14:39:01
hoshu
843:名無しさん@お腹いっぱい。
04/12/10 13:48:48
ちょっと保守しますよ。
844:名無しさん@お腹いっぱい。
04/12/19 02:35:17
ほっしゅっしゅ
845:名無しさん@お腹いっぱい。
04/12/26 03:27:28
初心者です。
URLリンク(aurelie.no-ip.info)
を196まで一括で落としたいんですが。
なるべくわかりやすい方法を教えて下さい。
すみません。
846:名無しさん@お腹いっぱい。
04/12/26 03:34:13
$ zsh
% wget -c -w 5 URLリンク(aurelie.no-ip.info)
847:名無しさん@お腹いっぱい。
04/12/26 03:49:49
zsh、wgetはどこでインストールできますか?
あの・・・zsh、wgetって何ですか?
ほんとにすみません。
848:名無しさん@お腹いっぱい。
04/12/26 04:10:46
URLリンク(www.zsh.org)<)
あとは自分で調べてください。
849:名無しさん@お腹いっぱい。
04/12/26 04:16:58
>>847
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
URLリンク(aurelie.no-ip.info)
196まで全て手作業で作ってみたが2分40秒で出来た
メモ帳でやった
01-02-03-04-05-06-07-08-09-00
これをひとかたまりに9セットコピペ
んで数字 - ←↓(同時押し)
001-002-003
011-012-013
021-022-023
わからんのなら手作業しかあるまい、がんがれ
850:名無しさん@お腹いっぱい。
04/12/26 04:30:24
>>848
ありがとうございます。
>>849
ありがとうございます。地道にやってみます。
ちなみに同時押しって何ですか?
851:名無しさん@お腹いっぱい。
04/12/26 12:46:52
curl -O URLリンク(aurelie.no-ip.info)
852:名無しさん@お腹いっぱい。
04/12/26 12:55:45
>851
それだとシェルが展開しようとして変なことが起きるから、適当にクォートすべきだな。
853:名無しさん@お腹いっぱい。
05/01/03 08:02:28
おまいら御用達のwgetの
URLリンク(www.st.ryukoku.ac.jp)
って、まだ直ってないんでしょうか。
854:名無しさん@お腹いっぱい。
05/01/05 01:31:19
>>853
はい。
855:名無しさん@お腹いっぱい。
05/01/10 20:09:44
4周年記念日
でもsage
>>380
URLリンク(search.mse.co.jp)
エロサイトじゃないけど、何なのかもよく分からん。
856:名無しさん@お腹いっぱい。
05/01/29 14:47:08
URLリンク(hp.vector.co.jp)
857:名無しさん@お腹いっぱい。
05/01/29 16:18:15
>>856
デムパ キタ━━━(゚∀゚)━━━ !!!!!
858:名無しさん@お腹いっぱい。
05/01/30 03:32:28
phpとか使われるとわけわからん。落とせん
859:名無しさん@お腹いっぱい。
05/02/02 12:00:08
perlスクリプト使え
860:名無しさん@お腹いっぱい。
05/02/02 16:27:08
( ゚д゚)ポカーン
861:名無しさん@お腹いっぱい。
05/02/03 05:11:11
URLリンク(www.melon-peach.com)
ここの画像、どうにかしてぶっこ抜けませんか?
862:名無しさん@お腹いっぱい。
05/02/03 16:27:47
ネトラン厨(・∀・)カエレ!!
863:861
05/02/06 13:01:24
ネトラン厨じゃないのに・・・
(つД`)・゚・
864:名無しさん@お腹いっぱい。
05/02/06 19:39:21
>>863
>>41,578 とか参考にならない?
865:名無しさん@お腹いっぱい。
05/02/07 00:09:17
>>861
重杉
866:名無しさん@お腹いっぱい。
05/02/13 22:56:14
wgetかcurlで
URLリンク(nylon.hostfuck.com)
の画像を落とすスクリプトを書いてください
867:名無しさん@お腹いっぱい。
05/02/13 23:25:32
>866
ちょっとは自分で勉強することも覚えてはいかがですか。
868:名無しさん@お腹いっぱい。
05/02/15 01:00:48
>>866
#!/bin/sh
wget -r -l1 "URLリンク(nylon.hostfuck.com)"
mkdir gazou
mv *.jpg *.bmp *.tif* *.x*m *.gif *.rgb *.psd *.eps *.wmf gazou
rm ./
無保証。
869:名無しさん@お腹いっぱい。
05/02/15 02:57:21
403喰らう悪寒。-Uでしっかりと騙るのがベターかも。。。
二次元には興味なし。でも
870:名無しさん@お腹いっぱい。
05/02/15 03:59:53
2次元か
871:名無しさん@お腹いっぱい。
05/02/15 17:58:19
while(<>){
m/num=([0-9]+)&type=([a-zA-Z]+)[^0-9]*([0-9]+)/ and system "wget".
" --output-document='$3.$1.$2'".
" --header='Cookie:num=$1;type=$2'".
" URLリンク(nylon.hostfuck.com)".
"\n";
}
872:名無しさん@お腹いっぱい。
05/02/15 18:02:22
×&
○&
873:名無しさん@お腹いっぱい。
05/02/15 20:12:36
Perl?
874:名無しさん@お腹いっぱい。
05/02/15 20:39:49
漏れはこんなスクリプトでやってみた
for n in {28672..32767}; do
[ -f $n.jpg ] && continue
wget --header="Cookie: num=$n; type=jpg" --output-document=$n.jpg \
URLリンク(nylon.hostfuck.com)
done
ほんとは連番じゃないので
ちゃんとやりたかったら番号はこんなかんじで抜き出せばいいかも
w3m -dump_source \
URLリンク(nylon.hostfuck.com) |\
ruby -e 'while gets; $_.sub(/image.php\?num=(\d+)/) do puts $1; end end' |\
sort | uniq
875:名無しさん@お腹いっぱい。
05/02/15 23:04:47
無駄が多いな、このサイト。
876:名無しさん@お腹いっぱい。
05/02/16 03:26:14
l l
J l
J
さわったら負けかなと思ってる。
877:名無しさん@お腹いっぱい。
05/02/16 19:57:30
成功した?
878:名無しさん@お腹いっぱい。
05/03/01 08:03:13
セルフプレジャー保守
879:名無しさん@お腹いっぱい。
05/04/04 23:44:21
初心者スレから誘導されてきました。
連番のzipファイルを一気に解凍する方法はありますか?
001.zip 002.zip 003.zip
今はひとつひとつunzipしてます。既出だったらすみません。
教えてくれたら、こころを入れ替えてスクリプト勉強します。
880:名無しさん@お腹いっぱい。
05/04/04 23:45:58
unzip {001..100}.zip
881:名無しさん@お腹いっぱい。
05/04/04 23:53:44
for i in *.zip; do unzip $i; done
でもいいんでないかい?
882:名無しさん@お腹いっぱい。
05/04/05 00:14:01
echo *.zip | xargs -n1 unzip
883:名無しさん@お腹いっぱい。
05/04/05 00:42:16
unzip は自前でワイルドカードを処理するのでほかに zip ファイルがなければ
unzip \*.zip
でどうでしょう。
884:名無しさん@お腹いっぱい。
05/05/30 16:25:28
うほ
885:名無しさん@お腹いっぱい。
05/06/14 20:55:22
altemisweb.jpから落とせる方法をご存知の方、いますか?
そもそも普通にw3mとかでも開けないのですが。
たとえばURLリンク(s1.artemisweb.jp)
からいけるページなど。
886:名無しさん@お腹いっぱい。
05/06/14 21:12:18
wget -m --cookies=on --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)"
とかじゃだめなの?
887:名無しさん@お腹いっぱい。
05/06/14 21:15:53
>>886
UAとrefererは指定してもだめです
cookieはためしてないけど、w3mでさえページを開けないってことはcookieじゃなくて
JavaScriptが効いてないとだめなのかもしれない希ガス
888:名無しさん@お腹いっぱい。
05/06/14 21:45:27
>>887
リファラ送ったら普通に落ちてきたぞ?
wget --referer="URLリンク(s1.artemisweb.jp)" \
URLリンク(s1.artemisweb.jp)
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4274日前に更新/246 KB
担当:undef