[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2chのread.cgiへ]
Update time : 09/01 18:35 / Filesize : 239 KB / Number-of Response : 1002
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト2



1 名前:名無しさん@お腹いっぱい。 [04/05/30 20:07 ID:9ifcxvQ8]
┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛


577 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/12(水) 23:18:22 ID:sCIe4qAx0]
>>571
ぶっちゃけ、どう違うの?

578 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/13(木) 00:35:37 ID:nuQa6xIe0]
GETHTMLWはJavaにもFlashにも対応してないから、
巡集の方が便利だと思うんだが、あえてGETHTMLWを使うメリットってあるの?

579 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/13(木) 07:47:51 ID:r8xDD0NA0]
?

580 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/13(木) 08:00:32 ID:56ZLVIi80]
巡集はまた更新が止まっちゃったね

581 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/13(木) 11:42:41 ID:pkiEVC+V0]
というか、作者がどうなったかが心配になる

582 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/13(木) 14:18:04 ID:XpYA8ryZ0]
>>577
使ってみれば解かる

583 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/13(木) 20:55:31 ID:G26hqSM40]
波乗りおぼれすぎ
一回目と二回目では取得できるファイルとそうでないのがあるから困った
完全に取得できるソフトってないのかな

584 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/15(土) 15:27:23 ID:XHpUBv5Z0]
WebReaperはどうかな?
くまかわ堂の日本語パッチを当てて使ってみたけど、
巡集に近い感じ。
IEのお気に入りを読み込むのが煩わしいけど。

585 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/15(土) 16:32:01 ID:O1SF+BR00]
gethtmlw 7.9.1 って何ですか?幻のソフト?
その前にそんなのあるの?



586 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/15(土) 16:38:41 ID:iMp6kEEf0]
WebReaperってuseragentはどうなってる?
巡集みたいに自由に設定できるの?

587 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/17(月) 06:29:57 ID:8nSr9SAm0]

やっぱり保管サイトごと保存できるのが最強だよ。
HDにファイルだけ入れても何が何かわかんなくなるし

その機能に、差分取得機能。

あと、いろんなwebページに対応してるのが最強だな

588 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/17(月) 17:25:17 ID:ausgU4+i0]
>>586
自由設定はできる模様。
(none)を選ぶと空欄になるので、
userAgent一覧からたとえば、
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)
を入力できる。

プリセットされているのは、次の項目。
"事前に定義されたブラウザ user-agent strings(&P)" Buttonで
(none)
WebReaper
Microsoft Internet Explorer
Netscape 4.5
Opera v3.5
ちなみに、入っているもは、「Microsoft Internet Explorer」を選ぶと、
Mozilla/4.0 (compatible; MSIE 6.0; Win32)
たしかIrvineと同じものなので、弾かれる所もあると思う。
Win2kSP4を使っているので上記で設定している。
なお詳細なログが出力されるので、取り込み失敗もわかりやすい。

589 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/17(月) 22:48:39 ID:byRupYbR0]
>>588
詳細レスd
試してみるかな


590 名前:名無しさん@お腹いっぱい。 [2006/04/18(火) 21:07:19 ID:colwsEdr0]
blogを丸ごとゲットできるソフトってあります?
gethtml他色々試してみたのですがうまくいかないのです・・・。

591 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/18(火) 21:15:42 ID:YkmiwJ3t0]
>>590
丸ごとが通常の閲覧と同じ意味をさすなら、cgiの取り込みを出来ますか?
と聞いているようなものなんだが。

592 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/18(火) 21:39:28 ID:colwsEdr0]
>>591
すいません、ブログ内の画像やzip等のことです。
ブログにおける"そのページ内の"だけではなく"そのサイト全体にある"というような感じの。

593 名前:名無しさん@お腹いっぱい。 mailto:age [2006/04/19(水) 03:56:53 ID:vYNNZY310]
僕たち純真無垢のageブラザーズ!
スレが盛り上がるようにageてあげるよ!
 ̄ ̄∨ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
  ∧_∧   ∧_∧    age
 (・∀・∩)(∩・∀・)    age
 (つ  丿 (   ⊂) age
  ( ヽノ   ヽ/  )   age
  し(_)   (_)J

594 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/19(水) 07:47:24 ID:15Ulvr7u0]
>>591
cgiの取り込みって出きるの?

595 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/19(水) 07:58:39 ID:5EkfZIhn0]
>>592
リンクが貼ってあれば、大抵のソフトなら取って来るはずだけど。
外部サーバのリンクを弾いてるだけじゃないの?



596 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/19(水) 13:48:57 ID:AOjTbGp70]
ログインしなきゃ見れないサイト
巡集だとクッキー送って取得出来たけど
gethtmlだとクッキー送っても出来ない・・・。
ログインしてください の画面で止まってる。

597 名前:名無しさん@お腹いっぱい。 [2006/04/19(水) 19:35:00 ID:kxNXyymu0]
GIGAGETはどうですか?

598 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/19(水) 21:45:19 ID:adoUm4Fn0]
アドウェア入りらしい
pc7.2ch.net/test/read.cgi/software/1142010537/

599 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/19(水) 22:08:44 ID:fPhCfjT+0]
というか、丸ごと取り込みソフトとしてはスレ違いでは。

600 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/20(木) 11:00:58 ID:pWIZOtah0]
>>592
WEBEX、NextHttp、Isabel、画浪(free)、MzGet、MIDown、
とかダウンロードツールの範囲だね。
Irvineが一番使いやすいと思うけど。NetTransportもね。
>>599氏の言うようスレ違いだと思う。
ダウンロードツールで目的の使いやすいものを選んでみたら?

601 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/21(金) 15:05:34 ID:R/SqYRIp0]
GripIE
ttp://www.gripie.com/

FirefoxのDownThemAllのIE版

602 名前:作者 [2006/04/22(土) 14:12:21 ID:ej/0ZIgw0]
いやぁ 留置場にお世話になってました、でももう釈放されたんでこれからNewVerつくります。

603 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/22(土) 14:57:38 ID:0ZI/FZTa0]
巡集が巡査にご厄介?

604 名前:名無しさん@お腹いっぱい。 [2006/04/26(水) 07:56:22 ID:o8bSTe/60]
数十万単位の画像がある大手サイトは自動でダウンロードできないところが多いな

605 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/04/26(水) 09:13:17 ID:TmlEQfko0]
>>604
>>600




606 名前:名無しさん@お腹いっぱい。 [2006/04/30(日) 13:12:44 ID:QK3Wf2y+0]
WeBoXにエクセル、マウスの動作を記録するソフト等を組み合わせたらうまくとれるようになった。

エクセルの文字列操作が使える。これでURLのテキストを作ってWeBoXで読み込む。

マウスの動作を記録するソフトは遅いが、これなら手動でとれるものなら必ず取れる。


607 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/03(水) 16:31:42 ID:MQZcxWlv0]
WebReaper使ってみたけど
日本語化した後、すべてのファイルで「開くの・失敗しました」って出て
まったくダウンロードの収集ができない(´・ω・`)

608 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 05:35:37 ID:Q/91ZJyU0]
テキストファイルに書かれているURLのリストを読み込んで
全てダウンロードしてくれるソフトってありますか?
あるいは、テキストファイルからリストを読み込んで
別々のFirefoxのタブで開けてくれるのでもいいです。

609 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/04(木) 06:43:26 ID:UpflJBuU0]
>>607
>>588だけど、ユーザーエージェントは何を使っている?
自分は、Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)を
使っているけど。

試しに次のサイトを取り込んでみたけど、問題なく取り込めるよ。
取り込んだものは、ローカルファイルとして開く事ができる。
取り込み先は、C:\とは別ドライブのパーティションM:\
OutPost 2ch まとめサイト
ttp://www.geocities.jp/techtrans1999/index.html
でログは次のとおり。
「2006/05/04 6:20:36: ダウンロード完成
2006/05/04 6:20:36: 654は処理されて、4862進の168 htmlをリンクします。
9は失敗しました, 0は(変わりのない)でスキップされて、
12.2Mbは44sでダウンロードされました. データ転送速度: 283Kb/sec.」

ファイアーウォールでWebReaperを遮断していない?
ブラウザやダウンロードツールと一緒だよ。
もちろんユーザーエージェントの考え方も。
それから報告するときは取り込み先の、URLを書いてくれないと、
何故取り込めなかったか解らない。OSもね。

610 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 01:32:45 ID:Pfsbr6+N0]
>>608
GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。

関係ないけど、UWSCでの自動化は便利だよ。

611 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 02:36:46 ID:/mWfEwO20]
>>610
情報d!!

612 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/05(金) 10:48:46 ID:gcfReHxt0]
ダウンローダー雨でも出来る

613 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/09(火) 22:09:47 ID:CRMbofru0]
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?

614 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 00:28:59 ID:EKw6ZpzP0]
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。
なんでだろう。

615 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 00:41:28 ID:DRFHjAvL0]
なんかサンプルのURLある?
漏れも試す



616 名前:614 mailto:sage [2006/05/10(水) 01:21:27 ID:EKw6ZpzP0]
ttp://not.s53.xrea.com/xite/memo/mpc/mpcbeta.html
自分が試したのはここのファイル。

617 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 02:35:04 ID:DRFHjAvL0]
確かにリクエストさえ送れないね。なんででしょ。

618 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 08:05:19 ID:C3VpD3a20]
7-Zipって圧縮ファイルなのね。
はじめて知ったよ。

619 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 09:06:27 ID:EXd/P5Hl0]
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・

620 名前:名無しさん@お腹いっぱい。 [2006/05/10(水) 15:45:50 ID:Hg4Dg4Ty0]
先頭が数字だとダメなんかな。
変数も最初数字使えないし。

621 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/10(水) 21:10:14 ID:EXd/P5Hl0]
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。

既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は http:// のみ変換」で
 ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す

といったところか。

622 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/12(金) 17:07:14 ID:CyaJVsOS0]
GetHTMLW、URL残量50000とか出るorz
ネカフェから短時間で丸ごとダウンドローは辛い。。。

623 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 00:20:56 ID:jdiEWgNW0]
www.google.co.jp/search?hl=ja&q=%E3%83%9E%E3%83%B3%E3%82%AC%E5%96%AB%E8%8C%B6%E3%80%80%E3%82%A4%E3%83%B3%E3%82%BF%E3%83%BC%E3%83%8D%E3%83%83%E3%83%88%E3%80%80%E9%80%AE%E6%8D%95&lr=lang_ja

624 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 06:48:12 ID:ybTFu6Xk0]
www.vector.co.jp/soft/win95/net/se129693.html
これ使ったことある人いますか?

625 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 20:37:03 ID:ZOi5Wnm10]
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
blog.livedoor.jp/future5/archives/cat_1142593.html?p=2 のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。

これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?

これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。



626 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/13(土) 21:28:30 ID:xXeGX2L00]
Speeeed

627 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/21(日) 02:44:50 ID:b6NaPvt80]
GetHTMLWのサイトとかBBSまだ有るの?

628 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/29(月) 00:42:00 ID:JUXlDIOb0]
junshuでしかダウンロードできない画像ファイルがあるんですが
URL構造を再現しない方法はありますか?

もしくは他のツールで代用できませんでしょうか?

629 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/05/29(月) 01:16:49 ID:1H+fTScG0]
そこは考え方を変えて、巡集でダウンロードしたあと
「複数のフォルダから下層にある画像ファイルを探索して、
抜き出して一つのフォルダ下に集めるプログラム」のようなものを
使ったり使わなかったりしながら整理するというのはどうだろうか

630 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/06(火) 07:51:05 ID:qkCzqdXk0]
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?

631 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/06(火) 08:41:39 ID:ksdWbR5q0]
自分で作れば?

632 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/06(火) 12:33:56 ID:mNTKLJf30]
Proxomitronでリダイレクトさせれば可能だな。

633 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:03:08 ID:tJYFmeRW0]
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?

634 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:17:17 ID:tJYFmeRW0]
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。

635 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 02:32:45 ID:VxBRFoPm0]
URL



636 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 08:13:23 ID:D+Qs/Pks0]
>>634
DLできないサイトのほうが珍しいと思うが。

637 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 16:06:33 ID:c33DC7pH0]
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?

638 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/13(火) 18:40:44 ID:338TCH+n0]
URLを晒すと幸せになれるかもしんない。

639 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/18(日) 13:04:12 ID:wSTJWvth0]
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。

>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。

640 名前:名無しさん@お腹いっぱい。 [2006/06/19(月) 08:01:49 ID:dqgUGQtz0]



641 名前:名無しさん@お腹いっぱい。 [2006/06/22(木) 09:20:23 ID:uzO+jNTb0]



642 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/23(金) 21:24:02 ID:cYsZ8A7S0]
(´◕ω◕`)

643 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/24(土) 02:27:59 ID:qEZk/pQ+0]
(´◕ω◕`)イイ!

644 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/26(月) 08:06:18 ID:wklS6px30]
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。

645 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/26(月) 09:18:17 ID:arNW7AeZ0]
>>644
このスレを全て読むと幸せになれますよ



646 名前:644 mailto:sage [2006/06/27(火) 08:37:13 ID:rom9fVjk0]
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。

647 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/27(火) 08:39:54 ID:+5QX/POu0]
幸せになったな

648 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/27(火) 12:57:27 ID:ubHJbSGC0]
だったら巡集作者がバージョンアップするのを待てばいい

649 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/28(水) 10:57:55 ID:3IOsJQBi0]



650 名前:名無しさん@お腹いっぱい。 mailto:age [2006/06/28(水) 22:36:14 ID:92cQ9ydu0]
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。

・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。

この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。

651 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 00:06:49 ID:Sm203lko0]
PangYa! Change Clothes Simulator
ttp://thunderbird.lar.jp/

このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。

652 名前:名無しさん@お腹いっぱい。 mailto:age [2006/06/29(木) 00:49:08 ID:magVV5uA0]
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?


653 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 01:56:34 ID:Sm203lko0]
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。

654 名前:sage [2006/06/29(木) 07:13:52 ID:magVV5uA0]
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?

ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。

655 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 08:12:57 ID:RD0dQ6vs0]
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?

ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。




656 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/29(木) 10:40:16 ID:Sm203lko0]
>>654
ありがとうおございます。
やってみました。
駄目でしたね

657 名前:654 [2006/06/29(木) 18:31:15 ID:magVV5uA0]
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?

658 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 02:24:21 ID:XmRbNBQ00]
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?

659 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 05:12:26 ID:Jk6AgcOW0]
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive

# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive

# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: pc7.2ch.net/test/read.cgi/software/1085915277/

660 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 09:53:17 ID:7cO984sA0]
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。


661 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/06/30(金) 22:49:53 ID:XmRbNBQ00]
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。

662 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/02(日) 02:29:45 ID:isM9PPA70]
巡集が久々の更新

ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
 - 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
  フォルダ内に保存します。
* %を含むURLの判別処理を修正。

663 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/02(日) 16:26:46 ID:XcmbSRFm0]
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○

664 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 13:17:44 ID:r9jWzXf80]
メールすればぁ?

665 名前:名無しさん@お腹いっぱい。 [2006/07/03(月) 18:21:20 ID:JX+TxRmN0]
>>663怠け者w

>>664イヤミw



666 名前:名無しさん@お腹いっぱい。 [2006/07/03(月) 18:21:58 ID:7tfOkuGA0]
┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛


667 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/03(月) 23:55:40 ID:hR8h/RGi0]
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。


スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。

668 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/06(木) 01:40:30 ID:+r4X3LGm0]
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。

GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・

更新チェックしながら一気に取得する方法ありませんか?

669 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/07(金) 21:41:11 ID:UczzMvQa0]
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・

670 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 05:37:47 ID:+tA7Wsvb0]
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ


671 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 06:33:28 ID:sn8S3sd80]
使い方判らない人登場。

672 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 08:45:36 ID:VZy8auUo0]
わろた

673 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 10:20:01 ID:+tA7Wsvb0]
バーカ
もっといいソフトがあるんだよw

ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw

674 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 10:38:31 ID:+tA7Wsvb0]
まぁたぶん使用目的が偽装されてるからだろうな


675 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 12:01:03 ID:UBvbKXaB0]
わろた



676 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 13:39:28 ID:okIMli3x0]
>>673
kwsk

677 名前:名無しさん@お腹いっぱい。 mailto:sage [2006/07/08(土) 15:26:06 ID:jF3Apejg0]
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<239KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef