[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 09/01 18:35 / Filesize : 239 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト2



1 名前:名無しさん@お腹いっぱい。 [04/05/30 20:07 ID:9ifcxvQ8]
┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛


610 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 01:32:45 ID:Pfsbr6+N0]
>>608
GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。

関係ないけど、UWSCでの自動化は便利だよ。

611 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 02:36:46 ID:/mWfEwO20]
>>610
情報d!!

612 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 10:48:46 ID:gcfReHxt0]
ダウンローダー雨でも出来る

613 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/09(火) 22:09:47 ID:CRMbofru0]
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?

614 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 00:28:59 ID:EKw6ZpzP0]
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。
なんでだろう。

615 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 00:41:28 ID:DRFHjAvL0]
なんかサンプルのURLある?
漏れも試す

616 名前:614 mailto:sage [2006/05/10(水) 01:21:27 ID:EKw6ZpzP0]
ttp://not.s53.xrea.com/xite/memo/mpc/mpcbeta.html
自分が試したのはここのファイル。

617 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 02:35:04 ID:DRFHjAvL0]
確かにリクエストさえ送れないね。なんででしょ。

618 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 08:05:19 ID:C3VpD3a20]
7-Zipって圧縮ファイルなのね。
はじめて知ったよ。



619 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 09:06:27 ID:EXd/P5Hl0]
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・

620 名前:名無しさん@お腹いっぱい。 [2006/05/10(水) 15:45:50 ID:Hg4Dg4Ty0]
先頭が数字だとダメなんかな。
変数も最初数字使えないし。

621 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 21:10:14 ID:EXd/P5Hl0]
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。

既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は http:// のみ変換」で
 ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す

といったところか。

622 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/12(金) 17:07:14 ID:CyaJVsOS0]
GetHTMLW、URL残量50000とか出るorz
ネカフェから短時間で丸ごとダウンドローは辛い。。。

623 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 00:20:56 ID:jdiEWgNW0]
www.google.co.jp/search?hl=ja&q=%E3%83%9E%E3%83%B3%E3%82%AC%E5%96%AB%E8%8C%B6%E3%80%80%E3%82%A4%E3%83%B3%E3%82%BF%E3%83%BC%E3%83%8D%E3%83%83%E3%83%88%E3%80%80%E9%80%AE%E6%8D%95&lr=lang_ja

624 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 06:48:12 ID:ybTFu6Xk0]
www.vector.co.jp/soft/win95/net/se129693.html
これ使ったことある人いますか?

625 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 20:37:03 ID:ZOi5Wnm10]
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
blog.livedoor.jp/future5/archives/cat_1142593.html?p=2 のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。

これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?

これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。

626 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 21:28:30 ID:xXeGX2L00]
Speeeed

627 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/21(日) 02:44:50 ID:b6NaPvt80]
GetHTMLWのサイトとかBBSまだ有るの?

628 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/29(月) 00:42:00 ID:JUXlDIOb0]
junshuでしかダウンロードできない画像ファイルがあるんですが
URL構造を再現しない方法はありますか?

もしくは他のツールで代用できませんでしょうか?



629 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/29(月) 01:16:49 ID:1H+fTScG0]
そこは考え方を変えて、巡集でダウンロードしたあと
「複数のフォルダから下層にある画像ファイルを探索して、
抜き出して一つのフォルダ下に集めるプログラム」のようなものを
使ったり使わなかったりしながら整理するというのはどうだろうか

630 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/06(火) 07:51:05 ID:qkCzqdXk0]
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?

631 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/06(火) 08:41:39 ID:ksdWbR5q0]
自分で作れば?

632 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/06(火) 12:33:56 ID:mNTKLJf30]
Proxomitronでリダイレクトさせれば可能だな。

633 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:03:08 ID:tJYFmeRW0]
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?

634 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:17:17 ID:tJYFmeRW0]
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。

635 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:32:45 ID:VxBRFoPm0]
URL

636 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 08:13:23 ID:D+Qs/Pks0]
>>634
DLできないサイトのほうが珍しいと思うが。

637 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 16:06:33 ID:c33DC7pH0]
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?

638 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 18:40:44 ID:338TCH+n0]
URLを晒すと幸せになれるかもしんない。



639 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/18(日) 13:04:12 ID:wSTJWvth0]
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。

>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。

640 名前:名無しさん@お腹いっぱい。 [2006/06/19(月) 08:01:49 ID:dqgUGQtz0]



641 名前:名無しさん@お腹いっぱい。 [2006/06/22(木) 09:20:23 ID:uzO+jNTb0]



642 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/23(金) 21:24:02 ID:cYsZ8A7S0]
(´◕ω◕`)

643 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/24(土) 02:27:59 ID:qEZk/pQ+0]
(´◕ω◕`)イイ!

644 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/26(月) 08:06:18 ID:wklS6px30]
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。

645 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/26(月) 09:18:17 ID:arNW7AeZ0]
>>644
このスレを全て読むと幸せになれますよ

646 名前:644 mailto:sage [2006/06/27(火) 08:37:13 ID:rom9fVjk0]
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。

647 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/27(火) 08:39:54 ID:+5QX/POu0]
幸せになったな

648 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/27(火) 12:57:27 ID:ubHJbSGC0]
だったら巡集作者がバージョンアップするのを待てばいい



649 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/28(水) 10:57:55 ID:3IOsJQBi0]



650 名前:名無しさん@お腹いっぱい。 mailto:age [2006/06/28(水) 22:36:14 ID:92cQ9ydu0]
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。

・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。

この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。

651 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 00:06:49 ID:Sm203lko0]
PangYa! Change Clothes Simulator
ttp://thunderbird.lar.jp/

このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。

652 名前:名無しさん@お腹いっぱい。 mailto:age [2006/06/29(木) 00:49:08 ID:magVV5uA0]
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?


653 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 01:56:34 ID:Sm203lko0]
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。

654 名前:sage [2006/06/29(木) 07:13:52 ID:magVV5uA0]
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?

ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。

655 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 08:12:57 ID:RD0dQ6vs0]
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?

ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。


656 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 10:40:16 ID:Sm203lko0]
>>654
ありがとうおございます。
やってみました。
駄目でしたね

657 名前:654 [2006/06/29(木) 18:31:15 ID:magVV5uA0]
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?

658 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 02:24:21 ID:XmRbNBQ00]
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?



659 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 05:12:26 ID:Jk6AgcOW0]
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive

# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive

# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: pc7.2ch.net/test/read.cgi/software/1085915277/

660 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 09:53:17 ID:7cO984sA0]
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。


661 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 22:49:53 ID:XmRbNBQ00]
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。

662 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/02(日) 02:29:45 ID:isM9PPA70]
巡集が久々の更新

ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
 - 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
  フォルダ内に保存します。
* %を含むURLの判別処理を修正。

663 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/02(日) 16:26:46 ID:XcmbSRFm0]
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○

664 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 13:17:44 ID:r9jWzXf80]
メールすればぁ?

665 名前:名無しさん@お腹いっぱい。 [2006/07/03(月) 18:21:20 ID:JX+TxRmN0]
>>663怠け者w

>>664イヤミw

666 名前:名無しさん@お腹いっぱい。 [2006/07/03(月) 18:21:58 ID:7tfOkuGA0]
┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛


667 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 23:55:40 ID:hR8h/RGi0]
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。


スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。

668 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/06(木) 01:40:30 ID:+r4X3LGm0]
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。

GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・

更新チェックしながら一気に取得する方法ありませんか?



669 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/07(金) 21:41:11 ID:UczzMvQa0]
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・

670 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 05:37:47 ID:+tA7Wsvb0]
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ


671 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 06:33:28 ID:sn8S3sd80]
使い方判らない人登場。

672 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 08:45:36 ID:VZy8auUo0]
わろた

673 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 10:20:01 ID:+tA7Wsvb0]
バーカ
もっといいソフトがあるんだよw

ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw

674 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 10:38:31 ID:+tA7Wsvb0]
まぁたぶん使用目的が偽装されてるからだろうな


675 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 12:01:03 ID:UBvbKXaB0]
わろた

676 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 13:39:28 ID:okIMli3x0]
>>673
kwsk

677 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 15:26:06 ID:jF3Apejg0]
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで

678 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 21:08:26 ID:VpYiRS6G0]
いいのって何なの?



679 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/09(日) 02:26:38 ID:MbLApNxB0]
>>668自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。

先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。

ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz

あと、>>668訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。

680 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/09(日) 13:31:01 ID:v4TIo4jy0]
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。
そもそもいちいち保存しなくてもお前の欲しいのは大抵
インターねっつにあるから心配するな。

681 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/09(日) 20:13:43 ID:IaGYU6z00]
というより作者がへぼいだけだろw

682 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/10(月) 12:09:39 ID:vKtpvjKF0]
初心者は馬鹿でも使える巡集を使っとけ
巡集で落ちないサイトは諦めろ

683 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/10(月) 18:54:53 ID:f2qghtk60]
gethtmlwにあって巡集にないものとは?

684 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 01:03:35 ID:jHSax2iS0]
JavaScriptをダウンできないとか?

685 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 01:04:07 ID:jHSax2iS0]
ごめん間違ったよ

686 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 07:04:08 ID:R0aWstP70]
>>684-685
それ、逆だね。
         JAVA FLASH
GETHTMLW   ×   ×
巡集        ○   ○



687 名前:名無しさん@お腹いっぱい。 [2006/07/11(火) 07:13:28 ID:HZp1e1RR0]
gethtmlw糞じゃん

688 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 11:54:25 ID:N0SA11Kz0]
やはり俺が使ってる巡集は良ソフトだな



689 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 15:05:23 ID:C3GAtwwn0]
>>686
JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから

690 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 16:04:11 ID:6ec6orra0]
巡集でJavaScriptDL出来れば最強
GETHTMLWいらない。

691 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 19:42:13 ID:c2z8nrEF0]
結論は前スレで出たのに何でいまさらそんなこといってるの

692 名前:名無しさん@お腹いっぱい。 [2006/07/11(火) 21:37:36 ID:FOCW558y0]
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的

693 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/11(火) 23:35:34 ID:qMsR4eKh0]
pixGet
直りんダウンローダー
Website Explorer
巡集

これだけ揃えてもまだちょっと
やはり巡集にjavascript対応すればなぁ

694 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 01:19:56 ID:IOcgVf0g0]
日本語でおk

695 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 09:12:12 ID:p5txB6RR0]
s = "";
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか

696 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 09:32:30 ID:NDj8wzrr0]
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて
そこからURLを抽出する方法があるかな

697 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 12:10:45 ID:IOcgVf0g0]
全てのスクリプトに対応するのは無理だとしても
よく使われてるやつくらいは普通にDLできるようにしてほしい

698 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 13:23:15 ID:LYcXZJBt0]
巡集 ver1.7.1 使ってます。

ttp://lushie.priston.s3p.net/
このサイト。
DLするURLをTOPにすると、なぜかうまくDL出来ないので
このサイトのどこか適当なURL(アカウント情報とか)でDLすると
うまくDL出来たのですが、コミュニケーションのBBSメニュー
ttp://lushie.priston.s3p.net/purikura/modules/newbb/
ここまでは、DL出来るんです
その先の、掲示板がDL出来ません。
掲示板のURLは
ttp://lushie.priston.s3p.net/purikura/modules/newbb/viewforum.php?forum=18
こんな感じのです。
URLフィルタはチェック入れてません。
詳細設定は
取得するファイル類の上位階層、外部サーバの二つだけにチェックです。
他全部にチェック入れて試しましたが
余分な物までDLするだけで、この掲示板はDLされませんでした。
どうやれば掲示板までDL出来るようになりますか?



699 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 13:40:08 ID:5yC8oRyc0]
>>698
とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。

700 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:08:58 ID:LYcXZJBt0]
>>699
ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。

701 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:17:16 ID:LYcXZJBt0]
某サイトを巡集で半日。
残りファイル数200万。
今もドンドン増え続けてる。
諦めるか。

702 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:21:17 ID:5yC8oRyc0]
>>700
BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。

703 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 16:58:02 ID:AvQQm1GN0]
ローカルにサーバー立てて再現すれば…
まあ、あまり意味ないけど。

704 名前:名無しさん@お腹いっぱい。 [2006/07/12(水) 18:38:41 ID:eG0zoUk50]
>>701
そこまでして保存したいサイトが知りたい

705 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 20:53:46 ID:LYcXZJBt0]
300万超えちゃった。

いつになったら終わるんだろう。

706 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 20:54:57 ID:LYcXZJBt0]
>>702
ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。

707 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 21:03:37 ID:5yC8oRyc0]
>>705
不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?

708 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 22:28:47 ID:LYcXZJBt0]
>>707
一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。



709 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/12(水) 22:53:05 ID:bVaCW9CI0]
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。
同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか

710 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/13(木) 07:26:36 ID:0SzuAgk/0]
>>697
> 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<239KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef