1 名前:1 [01/10/23 19:39.net] 2ちゃんねるに貼ってある画像リンクを追い、 jpgをかき集めるスクリプトを作ってみました。 www.ninnin.net/ ※perlとwgetが必要です。 ※Windows,Macでは動きません。
96 名前:名無しさん@お腹いっぱい。 mailto:sage [01/12/28 12:45.net] >>94 確かに間違いでは無いな(笑)
97 名前:名無しさん@お腹いっぱい。 mailto:age [02/01/03 22:48.net] age て みた
98 名前:名無しさん@お腹いっぱい。 [02/01/16 18:24.net] やっぱり前回履歴に対応して欲しいなぁ。 毎日cronで走らせたいヨ。
99 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/16 19:50.net] >>92 俺使ってる。でもあれってsymlinkというのは詐欺だろう。 join(DOS)とかFreeBSDのunion fs & mountみたいのと言った方が正確 かな。で、俺が見つけてる不具合は 1.Explorerやインストーラの空き容量計算がmountに対応できてないので、 インストーラで(空きがあっても)「ねーよ」と弾かれたりする 2.MoveFile() APIがmountを考慮してないので、src/destが同じドライブ 名だけど別ボリュームの場合、ファイル移動に失敗する(API直/cmd.exe Explorer全滅) だな。 一応どっちも回避方法があるし、従来アプリは1.に対応できんというのは 仕方がない所でもあるんだが、2.はどう考えても(仕様変更への)追従ミス。 # 同一ボリューム内の移動の場合、ディレクトリエントリだけの書き換え # で高速化してるんだが、同一ボリュームかどうかの判定にsrc/destの # ドライブ文字しか見てないという。アホ。
100 名前:名無しさん@お腹いっぱい。 [02/01/17 20:29.net] 100
101 名前:名無しさん@お腹いっぱい。 [02/01/17 20:52.net] ある板のある日の<a href="...">を一括表示してくれるようなサイトない? つくろうかな…。
102 名前:名無しさん@お腹いっぱい。 [02/01/17 21:41.net] >>101 作って!
103 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/18 09:50.net] >102 つくりはじめた。rawmodeを使おうかとも思ったけど、index.htmlをtidyでXHTMLに 変換してからXSLTで加工(XHTML to XML)して、XMLで日別にサーバ側に蓄積して、 CGIでXML選んでXSLTかまして(XML to HTML4)出力、みたいな感じにすることにした。 なんとなく。 とりあえず最初のXSLTまで書けましたわ。
104 名前:名無しさん@お腹いっぱい。 [02/01/21 06:03.net] age
105 名前:名無しさん@お腹いっぱい。 mailto:age [02/01/24 01:14.net] >103 すばらしいあげ
106 名前:101 [02/01/24 01:24.net] >>105 ども。マ板でもちょっと書いたんだけど、できました。 2ちゃんねるの 技術系/ニュース系 板の、URL流し読みサイト。 これ moso.borogrammers.net/newlin/ なんだけどどうかしら? 表示例↓ moso.borogrammers.net/newlin/read.cgi?board=news&yyyy=2002&mm=01&dd=23
107 名前:名無しさん@お腹いっぱい。 [02/01/28 19:58.net] 祭り監視に良いNE >>106
108 名前:名無しさん@お腹いっぱい。 mailto:sage [02/01/29 00:24.net] >>106 面白いね ちょっと遊んでみるよ でもsage
109 名前:名無しさん@お腹いっぱい。 [02/02/05 14:13.net] スレがばらばらに表示されるので、日付順、スレ順などのソートがあると嬉しいです。
110 名前:109 mailto:sage [02/02/05 14:29.net] あと、大量のリストを眺める作業になるので、スレタイトルは左揃えにしたほうが 視点の移動が少なくて良いんじゃないかと思います。
111 名前:名無しさん@お腹いっぱい。 [02/02/13 16:26.net] .datの形式変わった?
112 名前:106 [02/02/21 05:48.net] 本業でヘロヘロになってました。109さんご意見どうも。 >スレがばらばらに表示されるので、日付順、スレ順などのソートがあると嬉しいです。 トップ画面に「発言日が最近のURLほど上に表示する」と「スレッド番号+発言番号 でソートして表示する」というラジオボタンをつけました。 >あと、大量のリストを眺める作業になるので、スレタイトルは左揃えにしたほうが >視点の移動が少なくて良いんじゃないかと思います。 確かにそうですね。左揃えにしました。スレッドでソートした場合、かなり見易くなったの ではないかと思います。 URLは相変わらず moso.borogrammers.net/newlin/ です。
113 名前:106 mailto:sage [02/02/21 05:50.net] 新しい表示例: moso.borogrammers.net/newlin/read.cgi?board=newsplus&yyyy=2002&mm=02&dd=21&abone=on&exclude=on&exclude_text=2ch.net%2F&ext_text=swf&thr_sort=yes
114 名前:名無しさん@お腹いっぱい。 [02/02/22 18:48.net] >>113 のURLはなんか妙な表示になる気もするけど、良くなったと思います。 てーか誰か画面のデザインしてやれ。地味すぎるよ
115 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/22 19:20.net] >>111 datは>>106 のviewerには無関係と思われ
116 名前:名無しさん@お腹いっぱい。 mailto:sage [02/02/28 00:07.net] >>1 のスクリプトは、いまや改造しないとそのままでは使えないですね。
117 名前:名無しさん@お腹いっぱい。 [02/03/01 20:10.net] >>116 改造キボンヌ
118 名前: mailto:sage [02/03/01 23:30.net] >>116 ,117 2ch のシステムはよく知らないんだけど現在では subject.txt と .dat は直接見れないんだよね? read.cgi から raw モードで取得するのかな。 その辺りを書き換えればオッケー。
119 名前:名無しさん@お腹いっぱい。 mailto:sage [02/03/02 11:08.net] monazilla ML 入るが吉。
120 名前:名無しさん@お腹いっぱい。 mailto:sage [02/03/03 19:05.net] 使えなくなってるね…
121 名前:116 mailto:sage [02/03/04 00:04.net] >>117 118が書いてるように、今は $ita/subject.txt が見られないようだから、 まずオリジナルスクリプトの subject.txt は subback.html にでも しないといけない。 また、subback.html を参照するようにしたら、データナンバーの取り出し方も 変えないといけないね。いろいろなやり方があるだろうが、例えば love.2ch.net/morningcoffee/subback.html だったら <a href="1014421686/l50">6: 中澤裕子ファン倶楽部 96 (977)</a> みたいなスレッドのリストが得られて、要はこの中の 1014421686 を 切り出したいわけだから、38行目と60行目 ($data_no) = split /\<\>/ , $_; は、 @data = split /\//; $data_no = $data[0]; $data_no =~ s%\D%%g; とでもすれば $data_no に 1014421686 が入って、 あと、40行目の $target は、conf.txt に $host = 'love.2ch.net/ '; $categ = '/morningcoffee/'; を追加しといて $target = "$host"."test/read.cgi"."$categ"."$data_no"; として使っているが、もっとエレガントなやり方があったら誰か教えて著。
122 名前:名無しさん@お腹いっぱい。 mailto:sage [02/03/06 22:47.net] >>1 のサイト、アクセスできなかったんですけど 件のスクリプトを落とせるところは他にありませんか
123 名前:名無しさん@お腹いっぱい。 [02/04/12 23:09.net]
124 名前:名無しさん@お腹いっぱい。 [02/04/12 23:18.net] wgetでダウンロードしたファイルを ダウンロードしたYYYYMMDDという形式で 保存するにはどうすればいいのでしょう。 同じ名前でファイルが毎週更新されるので cronでそのままで回すのでは上書きされて しまいます。
125 名前:名無しさん@Emacs [02/04/12 23:53.net] % wget xxx.xxx.xxx/???.jpg -P `date +%y%m%d` ってのはダメ? 大量に引っこ抜くならこれでいいと思うけど。
126 名前:login:Penguin mailto:sage [02/04/13 00:12.net] -O --output-document=FILE FILE に文書を出力します。
127 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/13 00:25.net] >>125 > ってのはダメ? それでもかまわないのですがファイルは1つなので ディレクトリは作らずYYYYMMDD.jpgというファイル名 で保存したいのですが。
128 名前:名無しさん@Emacs mailto:sage [02/04/13 01:00.net] >>128 % wget xxx.xxx.xxx/???.jpg -O `date +%Y%m%d`.jpg (´-`).。oO(>>127 がすでに答えてくれているけど…なんでだろう?)
129 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/13 08:00.net] >>128 > (´-`).。oO(>>127 がすでに答えてくれているけど…なんでだろう?) あの書き込みはヒントだったのですね。 ドキュメントと書いてあったので他の事かと思っていました。 ありがとう。>>ALL
130 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/20 06:10.net] ほしゅ
131 名前:名無しさん@お腹いっぱい。 mailto:sage [02/04/23 23:12.net] 捕手
132 名前:名無しさん@お腹いっぱい。 mailto:sage [02/05/18 17:53.net] なんとなく
133 名前:名無しさん@お腹いっぱい。 mailto:sage [02/06/07 18:24.net] ほしゅ
134 名前:名無しさん@お腹いっぱい。 mailto:sage [02/06/28 02:33.net] どるどれい?
135 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/04 21:09.net] sage
136 名前:名無しさん@お腹いっぱい。 mailto:sage [02/08/20 04:23.net] おーい
137 名前:名無しさん@お腹いっぱい。 [02/09/18 00:15.net] ある日付以降の書きこみに書かれているURLのみを 落としたいとかできるでしょうか?
138 名前:名無しさん@お腹いっぱい。 [02/09/22 00:52.net] あげとこう
139 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/22 01:29.net] さげとこう
140 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/23 04:14.net] 一個のディレクトリに画像ファイル1400個置いてますが gimvでみるときに極端に速度が遅いです 数が多いとよくないんですね どーにかなりませんか?
141 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/23 04:40.net] 何が悪いかをつきとめて、それを直す。
142 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/24 19:52.net] >>140 UNIXのファイルシステムは 一つのディレクトリにファイルがいっぱいあると遅いと 聞いたことがあるな (だからメールキューは複数のディレクトリに分かれてるらしい) 1400個くらいなら関係ないのかもしれんけどね 詳しい人フォローレスたのむ
143 名前:名無しさん@お腹いっぱい。 mailto:sage [02/09/26 07:34.net] >142 (だから2chのスレッドは足切り制限があるらしい) (1つの板に数千のスレがあった時代は重かったなぁ…) 脱線スマソ
144 名前:名無しさん@お腹いっぱい。 [02/12/26 04:11.net] age
145 名前:名無しさん@お腹いっぱい。 [02/12/29 07:42.net] うーん、誰も保守しようとか言う気はないの? ないよね。
146 名前:名無しさん@お腹いっぱい。 mailto:sage [02/12/29 13:31.net] >>142 ext2fsやオリジナルのufsは遅いが、たとえばufsでもUFS_DIRHASH入りものなら速い。 xfsあたりなら、なんもせんと速い。 結論: OSと、選んだファイルシステムによる。
147 名前:名無しさん@お腹いっぱい。 [02/12/31 08:23.net] チョトおしえてください。 IEからなら pc.2ch.net/test/read.cgi/unix/1003833552/ が見えるんですけど、wgetを使ってこのページをダウンロードしようとしても、 できないんです。どうやればいいんですか?
148 名前:名無しさん@お腹いっぱい。 mailto:sage [02/12/31 12:33.net] wget pc.2ch.net/test/read.cgi/unix/1003833552/ でできるが…?
149 名前:名無しさん@お腹いっぱい。 [03/01/01 12:43.net] て優香、wget使わなくても、httpget使えば便利じゃない? と思って、httpget落とそうとしたけど、内部エラーで落とせない・・・ www.onicos.com/staff/iz/release/
150 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/04 16:37.net] >>1 さんが作ったやつをちと効率的に収集できるように改造したけど、 どっかにうpしようかな?
151 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/05 05:23.net] どうせやるなら、以前にもちょっと話出てたけど、一人が落としたファイルをどっかの鯖に キャッシュしといて他の人はそっちから落とせるようなの作ろうよ。そうすれば2ちゃんの 負荷も減るし、うpろだの負荷も減るし、ソッコーで消されたファイルもキャッシュに残って るしで、うっはうはーじゃん。
152 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/05 07:33.net] どうせなら落としたファイルがP2Pで共有されるようにするとか
153 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/05 18:40.net] >>147 普通はdatファイルを直接落とそうとするのでは無いの? >>151 それやろうかな... 今はdatファイルを貯めているんだけど。
154 名前:名無しさん@お腹いっぱい。 [03/01/06 00:20.net] >>150 複数ファイル(.mpgとか.rmとかの動画)も同時に落せるヤシキモンヌ
155 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 01:01.net] >>154 もちろんそういう仕様にしてあるよ。てかできたけど。 けどrm,ramはすっかりわすれてたというか、そんなのにちゃんで見たことないのだが。
156 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 03:14.net] >>153 て優香、datファイルを落とせるならそうしたいんだけど、やりかた 教えてーな。 たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、 htmlをそのまま落としてマッチングしてるんだけど・・・
157 名前:153 mailto:sage [03/01/06 14:02.net] >>156 pc.2ch.net/test/read.cgi/unix/1003833552/ だったら pc.2ch.net/unix/dat/1003833552.dat でいけるのではないと? >たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、 >htmlをそのまま落としてマッチングしてるんだけど・・・ これは俺も聞いたことあるけど、閉鎖騒動の時あたりじゃないの? 俺はそれよりあとに2ch来たからよく知らないけど、 read.cgiにアクセスするより、datファイルに直接アクセスしたほうが、負荷は減るらしい、と聞いたこともある。
158 名前:153 mailto:sage [03/01/06 14:51.net] >>156 とりあえず、俺の作ったdatファイルだけ落とすスクリプトも張っておこう。 粗末なシェルスクリプトだが... #!/bin/sh PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin DATE=`date +%Y%m%d_%H%M%S` if [ "$1" ] && [ "$2" ] && [ "$3" ] && [ "$4" ] ;then : else echo "useage: ./get.sh [dat|subject] [dir] [host] [ita] [waittime] [wget-flag]" exit fi HOMEDIR=/home/hoge/documents/data TARGET=$1 DIR=$2 HOST=$3 ITA=$4 LOGFILE=./wget_log.txt if [ "$5" ];then WAIT=$5 else WAIT=3 fi
159 名前:153 mailto:sage [03/01/06 14:52.net] # -c tuchuukara # -N time stamp WGETFLAG="-t 3 -a${LOGFILE} -P./dat -U "Hogella/1.0" -nd $6" if ! [ -d ${HOMEDIR}/${DIR} ] ;then echo ${HOMEDIR}/${DIR} no such directry\! exit fi /bin/test -d ${HOMEDIR}/${DIR}/dat || mkdir ${HOMEDIR}/${DIR}/dat /bin/test -d ${HOMEDIR}/${DIR}/old_dat || mkdir ${HOMEDIR}/${DIR}/old_dat /bin/test -d ${HOMEDIR}/${DIR}/subject || mkdir ${HOMEDIR}/${DIR}/subject cd ${HOMEDIR}/${DIR} test -f ${LOGFILE} || touch ${LOGFILE} printf "###\n###\n### DATE=${DATE} \n### args=$* \n###\n###\n" >> ${LOGFILE} if [ ${TARGET} = subject ];then rm -f subject.txt wget -a${LOGFILE} -U "Hogella/1.0" ${HOST}/${ITA}/subject.txt cp subject.txt ./subject/subject.${DATE}.txt
160 名前:153 mailto:sage [03/01/06 14:52.net] elif [ ${TARGET} = dat ];then echo "---> DATE = ${DATE}" mkdir old_dat/${DATE} rm -f subject.txt wget -a${LOGFILE} ${HOST}/${ITA}/subject.txt echo "---> got subject file" sleep 1 echo -n "---> dat file... " for DAT in `cat ./subject.txt | cut -f1 -d.` ;do echo "--->TARGET is ${DAT}" >> ${LOGFILE} echo -n "${DAT}" wget ${WGETFLAG} ${HOST}/${ITA}/dat/${DAT}.dat if [ -f ./dat/${DAT}.dat.1 ];then echo "---> file moved to old_dat dir" >> ${LOGFILE} mv ./dat/${DAT}.dat ./old_dat/${DATE} mv ./dat/${DAT}.dat.1 ./dat/${DAT}.dat echo -n "_ " elif [ -f ./dat/${DAT}.dat ];then echo -n ". " else echo -n "X " fi sleep ${WAIT} done echo " " echo "---> all done" >>${LOGFILE} echo "---> all done" fi
161 名前:153 mailto:sage [03/01/06 14:55.net] HOMEDIR=/home/hoge/documents/data を適当に書き換えて mkdir $HOMEDIR/test-dir ./get.sh dat test-dir pc.2ch.net unix 3 で使えると思う(freebsd以外は不明)。 2度目からは ./get.sh dat test-dir pc.2ch.net unix 3 -c で差分だけとってこれる。
162 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 15:20.net] あらほんと。 で、にちゃんの鯖に負担かけないように、前回収得した所からの差分だけ 拾いたいんだけど、どうやるの?
163 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 15:24.net] うーん、 cgiから差分だけ拾うのと、datを全部拾って差分を調べるのとではどっちがいいんだろ? てか、dat拾う方がいいんだろうなぁ。作りなおしてみるか。
164 名前:153 mailto:sage [03/01/06 15:42.net] >>162 wgetのオプションで俺が使えると思うのは。 -c ファイルサイズを見て、増加分だけダウンロードする。 -N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。 -nc ファイルが存在したら、ダウンロードしない。(接続もしない) -t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う) -x ディレクトリを作って、URLを再現する (例 pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat ) -nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない) -i link.txt ファイルからURLを読み込んでダウンロードする。 -nv ダウンロードメッセージをいくらか静かにする。 -A acclist, --accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?) -U "Mozilla/4.0" ユーザーエージェントをちょろまかす。 -P PREFIX --progress=dot ダウンロード中のメッセージスタイルを変更。 -o hoge.txt ログファイル(上書きしてしまう) -a hoge.txt ログファイル(追加から書く) -r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない) -w 3 再起的にとる場合のダウンロードしたときの待ち時間 --no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。 -nd
165 名前:153 mailto:sage [03/01/06 15:44.net] >>164 失敗。 wgetのオプションで俺が使えると思うのは。 -c ファイルサイズを見て、増加分だけダウンロードする。 -N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。 -nc ファイルが存在したら、ダウンロードしない。(接続もしない) -t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う) -x ディレクトリを作って、URLを再現する (例 pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat ) -nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない) -i link.txt ファイルからURLを読み込んでダウンロードする。 -nv ダウンロードメッセージをいくらか静かにする。 -A acclist, --accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?) -U "Mozilla/4.0" ユーザーエージェントをちょろまかす。 -P PATH PATHを基準にファイルを保存 --progress=dot ダウンロード中のメッセージスタイルを変更。 -o hoge.txt ログファイル(上書きしてしまう) -a hoge.txt ログファイル(追加から書く) -r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない) -w 3 再起的にとる場合のダウンロードしたときの待ち時間 --no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
166 名前:153 mailto:sage [03/01/06 15:55.net] WINDOWSのiriaとか見たいに、帯域制限してダウンロードすることができないか、 は調べたことあるけど、方法が見つからなかった。wgetではできないのでは無いかと思う。 代わりには、-wで制限するか、スクリプトの中にsleepを入れる方法があると思う。 あと画像ファイルを落とすとき、-x と -nc を組み合わせて使ったら、同一のファイルをダウンロードする問題はなくなると思う。 >>158-160 の欠点は、あぼーんでlogが詰まったら、不適切なところから、ダウンロードを開始してしまうため、 変なdatファイルを作ってしまう。これは-Nですべてをダウンロードしなおせばいいけど、負荷が増える。 >>163 うーん、-nc -x オプションで、すでにダウンロードしてあるファイルをダウンロードしないようにするか、 もしくはwgetで何バイト目からを指定して、別ファイルにダウンロードすることができるような、オプションがあるかも..
167 名前:153 mailto:sage [03/01/06 15:59.net] >>162 wget -c で増加分をダウンロードできるらしいです。 これは、ダウンロード途中でコネクションが切れたりして、 あとからその続きからダウンロードしたい場合にも使えるようです。 遠くのftpサーバとかに使えます。
168 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 16:45.net] >>167 さんくすこ。 スレログとらなくても、リンクさえ拾えれば大丈夫だからねぇ、 あぼーんされても大丈夫だと思う。 というわけで、増分だけ拾うようにしますわ。
169 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 18:57.net] このスレでやるな。
170 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 18:59.net] >>169 何を?なぜ?
171 名前:1 mailto:sage [03/01/06 19:18.net] dat落ちするかとおもったけど なんかまたあがってきてるんで ひさびさにバージョンアップしようかな というか、つかってる人(使う人)とかいるんでしょうか?
172 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 21:10.net] つくった。 けど、htmlから拾ってるから効率悪いよ。 homepage3.nifty.com/wahya/
173 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 21:15.net] >>172 君のPCの時計ずれてない?
174 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 21:18.net] >>173 え?どこ? さっき作ったばかりだからおかしいところあったら指摘して〜 >>171 >>1 さんキタ━━━━━━(゚∀゚)━━━━━━━!!!!!
175 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 21:19.net] >>171 つか、使うかどうかより、自分で作ってみるのも楽しいのかも。 1さんのも参考にしたいのでオネガイシマス。
176 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 21:21.net] >>174 いやこんなんでたから。 ゴミレススマソ。 --- get2ch_v006/get2ch.pl tar: get2ch_v006/get2ch.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future get2ch_v006/get2chrc.txt tar: get2ch_v006/get2chrc.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future get2ch_v006/readme.txt tar: get2ch_v006/readme.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future get2ch_v006/subback2subhash.pl tar: get2ch_v006/subback2subhash.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
177 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 21:24.net] >>176 ・・・なんかちょうど1日ずれてるような。
178 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/06 23:34.net] て優香、wget使わなければforkしなくていいからActivePerlでも使えるようになるし、 Irvineでも使えばwgetよりはるかに効率的に収集できるし。 あーあ、UNIX板で気付いちゃいけないことに気付いちゃったよ。
179 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 10:03.net] 萌え板を監視するスクリプトも( ゚д゚)ホスィ…
180 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 11:41.net] >>179 萌え板を監視、って具体的に何できればいいんだ? と優香、萌え板って何?ファイヤーウォールのこと?
181 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 12:52.net] >>178 soretteCUI?
182 名前:179 mailto:sage [03/01/07 13:06.net] 説明不足でした。 こんな感じの掲示板です。 www9.xdsl.ne.jp/~w2web/moe/moelinks.html 萌々ぼ〜どって言うのかな? ソノテの人の画像アップ掲示板として広く使われてるみたいです。 欲しいのは画像をいっきに落とす・・ですが できたら全てのページをログも含めてHDに保存できるのが好ましいです。
183 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 13:32.net] >>182 そうか、wgetの-rオプションだけでは画像アップローダーの 2ページ目以降のがとってこれないのか... うーむ
184 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 14:57.net] >>182 なるほど。理解した。 VBスクリプトなら、次のページをめくるボタンを押すスクリプトが簡単に書けるけど、 Perlとかだとどうやってやるんだろ?
185 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 14:58.net] wgetでpostできるようにするパッチあるよ ttp://pluto.im.uec.ac.jp/~sekita-n/prog/ CGIを激しく呼び出してアク禁喰らっても知らないけど
186 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 15:03.net] >>184 cgiを読んだら、POSTを送ることでページをめくるようになってた。 perlだったら直接サーバと繋いで、POSTを直接送ればできるのでは? またはhoghoge/moemoe.cgi?page=3 でページを直接指定して(GETでも)ページを開けるらしい。 ところでwgetでPOSTを送ることってできないよね?(wget厨ですまそ)
187 名前:186 mailto:sage [03/01/07 15:05.net] >>185 リロードしたらみました。 すまそ。試してみます。 wget以外でPOSTを簡単に送れるツールを以前どこかで見たことあったけど。。
188 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 15:57.net] curl使え
189 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 17:03.net] >>181 Irvineもコマンドラインから使えるけど。 irvine list.txt で、URLリストを入れられる。 cronで回すのでなければ、Win上でやったほうが簡単かも。
190 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 19:44.net] ⊂⌒~⊃。Д。)⊃
191 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/07 21:57.net] その萌え萌えなんちゃらってやつな、moemoe.htmlと同じディレクトリにある moemoe.logってのがログファイルだからそれ落とせ。画像のURLも載ってるから。 CGI叩くのやめれ。
192 名前:名無しさん@お腹いっぱい。 [03/01/08 01:46.net] >>172 なんかデリられてるみたいなんで差異うpキボンヌ、クレクレ君でスマソ
193 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/08 01:51.net] >>187 w3m
194 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/08 09:32.net] >>192 ゴメソ。 cgiからゲトーしてるので下手するとアク禁になっちゃうから今消してる。 もうすぐ次バージョンうpするからまってて〜(;´Д`)
195 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/08 14:37.net] >>193 それだ!
196 名前:名無しさん@お腹いっぱい。 mailto:sage [03/01/08 21:35.net] >>192 うpしたよ〜 急いで書いたからちゃんと動くかわからないけど。