[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 09/01 18:35 / Filesize : 239 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト2



1 名前:名無しさん@お腹いっぱい。 [04/05/30 20:07 ID:9ifcxvQ8]
┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛


633 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:03:08 ID:tJYFmeRW0]
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?

634 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:17:17 ID:tJYFmeRW0]
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。

635 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:32:45 ID:VxBRFoPm0]
URL

636 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 08:13:23 ID:D+Qs/Pks0]
>>634
DLできないサイトのほうが珍しいと思うが。

637 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 16:06:33 ID:c33DC7pH0]
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?

638 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 18:40:44 ID:338TCH+n0]
URLを晒すと幸せになれるかもしんない。

639 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/18(日) 13:04:12 ID:wSTJWvth0]
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。

>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。

640 名前:名無しさん@お腹いっぱい。 [2006/06/19(月) 08:01:49 ID:dqgUGQtz0]



641 名前:名無しさん@お腹いっぱい。 [2006/06/22(木) 09:20:23 ID:uzO+jNTb0]





642 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/23(金) 21:24:02 ID:cYsZ8A7S0]
(´◕ω◕`)

643 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/24(土) 02:27:59 ID:qEZk/pQ+0]
(´◕ω◕`)イイ!

644 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/26(月) 08:06:18 ID:wklS6px30]
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。

645 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/26(月) 09:18:17 ID:arNW7AeZ0]
>>644
このスレを全て読むと幸せになれますよ

646 名前:644 mailto:sage [2006/06/27(火) 08:37:13 ID:rom9fVjk0]
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。

647 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/27(火) 08:39:54 ID:+5QX/POu0]
幸せになったな

648 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/27(火) 12:57:27 ID:ubHJbSGC0]
だったら巡集作者がバージョンアップするのを待てばいい

649 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/28(水) 10:57:55 ID:3IOsJQBi0]



650 名前:名無しさん@お腹いっぱい。 mailto:age [2006/06/28(水) 22:36:14 ID:92cQ9ydu0]
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。

・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。

この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。

651 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 00:06:49 ID:Sm203lko0]
PangYa! Change Clothes Simulator
ttp://thunderbird.lar.jp/

このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。



652 名前:名無しさん@お腹いっぱい。 mailto:age [2006/06/29(木) 00:49:08 ID:magVV5uA0]
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?


653 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 01:56:34 ID:Sm203lko0]
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。

654 名前:sage [2006/06/29(木) 07:13:52 ID:magVV5uA0]
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?

ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。

655 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 08:12:57 ID:RD0dQ6vs0]
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?

ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。


656 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 10:40:16 ID:Sm203lko0]
>>654
ありがとうおございます。
やってみました。
駄目でしたね

657 名前:654 [2006/06/29(木) 18:31:15 ID:magVV5uA0]
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?

658 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 02:24:21 ID:XmRbNBQ00]
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?

659 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 05:12:26 ID:Jk6AgcOW0]
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive

# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive

# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: pc7.2ch.net/test/read.cgi/software/1085915277/

660 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 09:53:17 ID:7cO984sA0]
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。


661 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 22:49:53 ID:XmRbNBQ00]
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。



662 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/02(日) 02:29:45 ID:isM9PPA70]
巡集が久々の更新

ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
 - 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
  フォルダ内に保存します。
* %を含むURLの判別処理を修正。

663 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/02(日) 16:26:46 ID:XcmbSRFm0]
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○

664 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 13:17:44 ID:r9jWzXf80]
メールすればぁ?

665 名前:名無しさん@お腹いっぱい。 [2006/07/03(月) 18:21:20 ID:JX+TxRmN0]
>>663怠け者w

>>664イヤミw

666 名前:名無しさん@お腹いっぱい。 [2006/07/03(月) 18:21:58 ID:7tfOkuGA0]
┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛


667 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 23:55:40 ID:hR8h/RGi0]
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。


スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。

668 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/06(木) 01:40:30 ID:+r4X3LGm0]
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。

GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・

更新チェックしながら一気に取得する方法ありませんか?

669 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/07(金) 21:41:11 ID:UczzMvQa0]
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・

670 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 05:37:47 ID:+tA7Wsvb0]
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ


671 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 06:33:28 ID:sn8S3sd80]
使い方判らない人登場。



672 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 08:45:36 ID:VZy8auUo0]
わろた

673 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 10:20:01 ID:+tA7Wsvb0]
バーカ
もっといいソフトがあるんだよw

ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw

674 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 10:38:31 ID:+tA7Wsvb0]
まぁたぶん使用目的が偽装されてるからだろうな


675 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 12:01:03 ID:UBvbKXaB0]
わろた

676 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 13:39:28 ID:okIMli3x0]
>>673
kwsk

677 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 15:26:06 ID:jF3Apejg0]
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで

678 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 21:08:26 ID:VpYiRS6G0]
いいのって何なの?

679 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/09(日) 02:26:38 ID:MbLApNxB0]
>>668自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。

先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。

ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz

あと、>>668訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。

680 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/09(日) 13:31:01 ID:v4TIo4jy0]
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。
そもそもいちいち保存しなくてもお前の欲しいのは大抵
インターねっつにあるから心配するな。

681 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/09(日) 20:13:43 ID:IaGYU6z00]
というより作者がへぼいだけだろw



682 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/10(月) 12:09:39 ID:vKtpvjKF0]
初心者は馬鹿でも使える巡集を使っとけ
巡集で落ちないサイトは諦めろ

683 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/10(月) 18:54:53 ID:f2qghtk60]
gethtmlwにあって巡集にないものとは?

684 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 01:03:35 ID:jHSax2iS0]
JavaScriptをダウンできないとか?

685 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 01:04:07 ID:jHSax2iS0]
ごめん間違ったよ

686 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 07:04:08 ID:R0aWstP70]
>>684-685
それ、逆だね。
         JAVA FLASH
GETHTMLW   ×   ×
巡集        ○   ○



687 名前:名無しさん@お腹いっぱい。 [2006/07/11(火) 07:13:28 ID:HZp1e1RR0]
gethtmlw糞じゃん

688 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 11:54:25 ID:N0SA11Kz0]
やはり俺が使ってる巡集は良ソフトだな

689 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 15:05:23 ID:C3GAtwwn0]
>>686
JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから

690 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 16:04:11 ID:6ec6orra0]
巡集でJavaScriptDL出来れば最強
GETHTMLWいらない。

691 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 19:42:13 ID:c2z8nrEF0]
結論は前スレで出たのに何でいまさらそんなこといってるの



692 名前:名無しさん@お腹いっぱい。 [2006/07/11(火) 21:37:36 ID:FOCW558y0]
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的

693 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 23:35:34 ID:qMsR4eKh0]
pixGet
直りんダウンローダー
Website Explorer
巡集

これだけ揃えてもまだちょっと
やはり巡集にjavascript対応すればなぁ

694 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 01:19:56 ID:IOcgVf0g0]
日本語でおk

695 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 09:12:12 ID:p5txB6RR0]
s = "";
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか

696 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 09:32:30 ID:NDj8wzrr0]
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて
そこからURLを抽出する方法があるかな

697 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 12:10:45 ID:IOcgVf0g0]
全てのスクリプトに対応するのは無理だとしても
よく使われてるやつくらいは普通にDLできるようにしてほしい

698 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 13:23:15 ID:LYcXZJBt0]
巡集 ver1.7.1 使ってます。

ttp://lushie.priston.s3p.net/
このサイト。
DLするURLをTOPにすると、なぜかうまくDL出来ないので
このサイトのどこか適当なURL(アカウント情報とか)でDLすると
うまくDL出来たのですが、コミュニケーションのBBSメニュー
ttp://lushie.priston.s3p.net/purikura/modules/newbb/
ここまでは、DL出来るんです
その先の、掲示板がDL出来ません。
掲示板のURLは
ttp://lushie.priston.s3p.net/purikura/modules/newbb/viewforum.php?forum=18
こんな感じのです。
URLフィルタはチェック入れてません。
詳細設定は
取得するファイル類の上位階層、外部サーバの二つだけにチェックです。
他全部にチェック入れて試しましたが
余分な物までDLするだけで、この掲示板はDLされませんでした。
どうやれば掲示板までDL出来るようになりますか?

699 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 13:40:08 ID:5yC8oRyc0]
>>698
とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。

700 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:08:58 ID:LYcXZJBt0]
>>699
ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。

701 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:17:16 ID:LYcXZJBt0]
某サイトを巡集で半日。
残りファイル数200万。
今もドンドン増え続けてる。
諦めるか。



702 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:21:17 ID:5yC8oRyc0]
>>700
BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。

703 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:58:02 ID:AvQQm1GN0]
ローカルにサーバー立てて再現すれば…
まあ、あまり意味ないけど。

704 名前:名無しさん@お腹いっぱい。 [2006/07/12(水) 18:38:41 ID:eG0zoUk50]
>>701
そこまでして保存したいサイトが知りたい

705 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 20:53:46 ID:LYcXZJBt0]
300万超えちゃった。

いつになったら終わるんだろう。

706 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 20:54:57 ID:LYcXZJBt0]
>>702
ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。

707 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 21:03:37 ID:5yC8oRyc0]
>>705
不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?

708 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 22:28:47 ID:LYcXZJBt0]
>>707
一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。

709 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 22:53:05 ID:bVaCW9CI0]
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。
同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか

710 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 07:26:36 ID:0SzuAgk/0]
>>697
> 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。

711 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 08:06:48 ID:oMRpENR90]
>>697
してほしいならその「よくつかわれてるやつ」のパターンを作者に伝えるぐらいの努力はしないとな




712 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 10:38:21 ID:kD1Dcb1X0]
要望出しても対応してくれないことが多いよ

713 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 10:40:45 ID:kD1Dcb1X0]
Javascript使ってるサイトは少なくないんだから
DLできるようにしてほしいと思ってるやつは多いはずなんだけどねえ

714 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 18:44:10 ID:M8TScjQx0]
スクリプトってなんだよ

715 名前:名無しさん@お腹いっぱい。 [2006/07/13(木) 18:50:51 ID:M8TScjQx0]
>>693
これの中で一番使えるの何?
今は準集使ってるけど

716 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 20:52:34 ID:0wv2DWcp0]
>>715
どれが一番ではなくそれぞれ特化してるところを使ってるだけ
1個で全部やろうなんて考えない方がいいかと
あくまで画像HTML収集に使ってるものだけど他のファイルも収集できるかも?
私がわかっているのはこんなところ

よさげなDLツール集
www7.ocn.ne.jp/~otoku/free-s-download.htm

Website Explorer
指定URLの外部以外のファイルを詳しく解析し丸ごとダウンロード
metaタグ(ロボット避け)で不能になる

直りんダウンローダー
URL指定Webページに直接リンクされたファイルを一括ダウンロード
他にも同じようのソフトあるけどこれが楽だから
(GetFiles・NextHttp・まいダウン・CompleteGetter)
DCさくらある人なら不要かとただIE使わなきゃいけないけど

pixGet
?img?で埋め込み画像・直リン画像・リンク先html→埋め込み画像など(拡張子指定でいろいろ)一括ダウンロード
他のIrvineなどのソフトのように驚異的なサーバー負担がないそうです

巡集
広告を取り除いてサイトを丸ごとダウンロード
metaタグ(ロボット避け)無効にできるなどなど


ある意味すれ違いな内容ですいません


717 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 22:22:50 ID:M8TScjQx0]
>>716
●⊂(゚∀゚ )ウンコセンキュゥー♪

718 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/14(金) 18:53:48 ID:MCyKxz4p0]
>>668,679再自己レス www.microsoft.comの件。
スクリプト(UWSC)で完全自動化できました。

 1.Proxy Modeに切り替えて小さなGIFをウインドウ非表示のIEで読み込む
 2.IEを閉じ、Local Modeへ戻す
 3.URLリストファイルをGetHTMLWに読み込ませて複数URL取得
 4.完了

弄ってて気付いたんだけど「1」の応用。
Proxy Mode 2にしてIEを操作する・・・もちろんウインドウ非表示。
文を解釈するのは当然ながらIEなのでJavaScriptの問題が解決できるかも。
しかし複数のIEを同時に起動することになるのでメモリ消費が・・・
今の所必要性を感じないのでやる気は無いけど、そのうち(ry

あ、「拡張子/文字列フィルタ」「許容URLの設定」の他にgethtml.mcfの
設定も活用した方がいいですよね。あとはProxomitronも必須ですよ。

719 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/14(金) 19:11:28 ID:SZSAL1w00]
GetHTMLWって難しいな
使いこなせればすごく便利そうなんだけど

720 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 02:53:07 ID:hHqwiwZd0]
慣れればなんともねぇよ。

721 名前:名無しさん@お腹いっぱい。 [2006/07/15(土) 11:32:58 ID:qEvRUBYL0]
さっきコミックをダウンロードして
早速DVDーRに落とそうとしたのですが容量が大きいんです。
それで圧縮したまま落としたんですが今度は
コミックの画像をめくろうとしてもめくれなくなりました。
(すべて展開したときはめくれました)
そこでDVD-Rにコミックを上手に落とすやり方を教えてください。




722 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 11:55:12 ID:xOdIpxC00]
>>719
巡集で十分だから
使いこなす必要ないけど。

723 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 13:37:18 ID:Shf58z9z0]
html取り込んだときの、ページに挿入された画像なんかのパスは
どうなるの?

紙っていうソフトは取り込んだページの入ったフォルダを
別のディレクトリに置くと画像を表示できないんだけど

>>716
のソフトだとどうなの?

724 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 15:57:26 ID:7zWws+CR0]
どのソフトでもファイルを移動したら画像は見れないと思うが

725 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 16:42:51 ID:8ajsOzSX0]
いや、保存したページの入ってるフォルダのディレクトリの位置を変更した場合

726 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 16:46:54 ID:SuSc2z8C0]
普通は相対パスで記述されるから関係ないが、
紙ってのは、絶対パスで記録されてるの?

727 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 16:54:06 ID:8SM57SL40]
いんや相対パスもおk

728 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 17:39:42 ID:8ajsOzSX0]
有料版のkamicopiだけじゃないか?
紙2001の場合フォルダ位置変更したら悲惨

紙のようにすばやく取り込めてフォルダ移動しても画像が表示できるソフト
ないもんかな

729 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/15(土) 22:41:17 ID:43PQJzAZ0]
紙はスクラップソフトで、丸ごとDLがメインのソフトじゃないからなあ
スレ違いのような気がする

730 名前:716 mailto:sage [2006/07/15(土) 23:47:53 ID:F7aEEzWq0]
>>723
紙がどうかは知りませんが
meta入りでなければ
Website Explorer
meta入りなら巡集

どちらもフォルダを丸ごとダウンロードなので画像&htmlなども一緒にダウンロードし
パスを表示するように変えていた気がします

731 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/16(日) 09:48:14 ID:1ZAmFtGK0]
>>730
サンクス
HPを丸ごと保存したい時は便利なんだけど
ちょこっと取り込みたい時に相対パスにしたい場合は
やはり有料版を使うしかないのかなぁ…



732 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/16(日) 11:38:38 ID:nPjx6XBw0]
gethtmlw 7.9.1>>>>直りんダウンローダー>>巡集>>>>>>>>>>>>>>>>>>>>>>>>>>>>gethtmlw

733 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/17(月) 23:55:13 ID:ynpOyNfH0]

>731
相対パスな気がするけど違った?






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<239KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef