お勧めダウンロード( ..
[2ch|▼Menu]
511:名無しさん@お腹いっぱい。
06/02/23 00:58:30 15iXoUUf0
>>508
iniファイルだけコピーして再インストールしてみたら?


512:名無しさん@お腹いっぱい。
06/02/23 19:25:50 Ro24FZ+70
>>511
再インスコ済み。
だめでした。


513:名無しさん@お腹いっぱい。
06/02/25 12:27:26 uDlmPjVo0
gethtmlw ver7.13 をダウンロード出来るところを教えて下さいな。

514:名無しさん@お腹いっぱい。
06/02/25 22:45:00 Jdz2tXgY0
巡集ver 1.6.1Aひとつき以上前にきてますた

* 「HTMLのリンク先の書き換え」を仕様変更。
* 「%を変換しない」の設定が保存されていなかった問題を修正。


515:名無しさん@お腹いっぱい。
06/03/04 19:06:17 yp3mhcW00
丸ごと保存

webox 0.98M
WEB収集ブラウザ
巡集ver 1.6.1A
gethtmlw ver7.13

さてどうするかな・・

516:名無しさん@お腹いっぱい。
06/03/04 22:44:21 6Q0tomxd0
WeBOX+巡集がおすすめ

517:名無しさん@お腹いっぱい。
06/03/05 00:03:25 yp3mhcW00
webox 0.98M にしたけど整理しやすくていい

518:名無しさん@お腹いっぱい。
06/03/05 01:01:00 m+NfEGgp0
誰かドラマ「ガチバカ」のおとついやったやつとその先週のやつをうpしてください

519:名無しさん@お腹いっぱい。
06/03/05 02:25:50 TUl37VjI0
997 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:20:22 ID:TUl37VjI0
ume

998 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:10 ID:eXjuMz/V0
ume

999 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:28 ID:wAf218z40
ume

1000 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:33 ID:BuN/Pp330
   ∩___∩      
   | ノ      ヽ/⌒) あばばばばばば
  /⌒) (゚)   (゚) | .|  
 / /   ( _●_)  ミ/   ∩―−、
.(  ヽ  |∪|  /    / (゚) 、_ `ヽ
 \    ヽノ /      /  ( ●  (゚) |つ
  /      /      | /(入__ノ   ミ   あばばっあびゃばびゃばば
 |       /       、 (_/    ノ  
 |  /\ \       \___ ノ゙ ─ー
 | /    )  )       \       _     
 ∪    (  \        \     \
       \_)

988までが俺ね。
この時間に1000横取りする暇人がいるとは思わなかった
ちょっとびっくりさすがソフト板だなw


520:名無しさん@お腹いっぱい。
06/03/05 20:54:48 kuuPzXCV0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛


521:名無しさん@お腹いっぱい。
06/03/05 22:33:53 o/Ktu0s30
巡集はなぜか文字化けする

522:名無しさん@お腹いっぱい。
06/03/06 08:08:10 xX/GHnOX0
日本語サイトしか巡回してないせいかもしれないけど
一度も文字化けしたことはないな

523:名無しさん@お腹いっぱい。
06/03/06 10:06:02 Ha6oUKGG0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛



524:名無しさん@お腹いっぱい。
06/03/06 14:02:09 f7X9Gq2H0
画像、画像って何の画像を落としてるんだ?
そんなに画像が必要なのか?
さっさと白状してしまうんだな。
楽になるぞ!

525:名無しさん@お腹いっぱい。
06/03/06 15:14:17 rq1yDq/J0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │●│  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
俺の勝ち

526:名無しさん@お腹いっぱい。
06/03/06 18:39:06 sRwxm9Lm0
ダウンロードソフトの最高峰がさらに進化。回線高速機能搭載版もラインナップ!
『ダウンロードNinja 4 for Windows』『ダウンロードNinja 4 マッハ for Windows』...発売のお知らせ
URLリンク(www.ifour.co.jp)

>●IE以外のブラウザに対応
> とり貯めたデータ(画像、URLなど)からインターネットにアクセスする時、
>これまではMicrosoft Internet Explorerしか使用出来ませんでしたが、
>今回のバージョンアップによりIE以外のお気に入りのブラウザを指定することが可能となりました。
>いちいち普段使わないブラウザを開いて、直前にコピーしたURLを貼り付けて・・こんな面倒な手間のかかる作業が解消されます。
>※各ブラウザによっていくつかの制限があります。

・・・てあるけど、↓のコレは何よw

対応ブラウザ
Internet Explorer 6.x/5.5x/5.0x
Netscape Navigator 4.7x/4.6x/4.5x
Netscape Communicator 4.7x/4.6x/4.5x

527:名無しさん@お腹いっぱい。
06/03/09 23:02:26 CJF43XrH0
javascriptによるリンク先も保存できるソフト、ありますか?
weboxはできませんでした。

528:名無しさん@お腹いっぱい。
06/03/09 23:18:58 CysL2inK0
つ 巡集

529:名無しさん@お腹いっぱい。
06/03/12 18:39:09 +TzmRTTx0
毎回決まったサイトに動画をダウンロードしにいくのがめんどくさいので、
指定サイトからいくつかの規則にしたがって、必要なファイルだけ
ダウンロードするソフトがほしいんですが、ないですか?
なければどなたか作っていただけませんか?
自分で作るのまんどくせ。
というか技術力なさそうなので1年くらいかかりそ。

【ダウンロード条件の例】
@ファイル名の規則性に基づく(movie[0-9]+.zipとか)
A毎回動画をおいてるhtmlが違う場合でhtmlをおいてあるドメインがいつもいっしょの場合は
 それを自動的にたどってダウンロードできる
などなど

530:名無しさん@お腹いっぱい。
06/03/12 18:40:08 +TzmRTTx0
>>529
作っていただける方がいらっしゃいましたら、
仕様のご提案をさせていただきます。

531:名無しさん@お腹いっぱい。
06/03/12 19:31:01 BIjZNavx0
>>529-530
◆こんなソフトウェアつくってください!〜Part6〜◆
スレリンク(software板)

製作依頼は上記スレでどうぞ。

532:名無しさん@お腹いっぱい。
06/03/12 23:08:09 PiQiW6Nk0
>>531
ありがとう。これから行ってきます

533:名無しさん@お腹いっぱい。
06/03/14 10:37:26 5bVRFzlh0
サバ落ち回避のために、1枚ずつHTMLにしてある画像をイリアみたいにまとめてダウンロードできる
フリーソフトないですか?

534:名無しさん@お腹いっぱい。
06/03/14 11:36:03 q2KI+mrR0
イリアでいいじゃん

535:名無しさん@お腹いっぱい。
06/03/14 11:45:09 4wZrZCnX0
>1枚ずつHTMLにしてある画像
ユトリマン丸出しだな。

536:名無しさん@お腹いっぱい。
06/03/14 21:02:38 GbnU6jh90
>>534
できれば苦労しないです。

537:名無しさん@お腹いっぱい。
06/03/15 18:34:34 PegQU67o0
誰かしらんとですか?

538:名無しさん@お腹いっぱい。
06/03/18 22:01:29 GcX+lPBs0
ふむ、これまでの俺の経験からすると、
一番確実に全部ダウンロードできるのが、GETHTMLW+巡集の組み合わせだな。
GETHTMLWはすばらしいソフトだが、JAVAスクリプト関係とかフラッシュ周りの追跡取得に弱い。

そこで巡集を使用し、巡集のプロキシにGETHTMLWを指定してやると、自動的にGETHTMLW側に
JAVAとかフラッシュを蓄える事ができ、しかもLOCALモードでも閲覧できるようになる。

ファイルが2重に出来ることになるので、巡集側のファイルは終わった後に消してOK。

まあ、巡集側でパス変換無効にして蓄えたファイルをGETHTMLWのフォルダにコピーしたのでも
似たようにできるけどね。上記のやり方は俺の趣味。

いかがかな?

539:名無しさん@お腹いっぱい。
06/03/18 22:40:45 H6+F+fuV0
ありがとうございました

540:名無しさん@お腹いっぱい。
06/03/19 00:41:19 rg2MNGxU0
ええ話や

541:名無しさん@お腹いっぱい。
06/03/21 19:42:57 1RJ/6erE0
GETHTMLWって7.14より7.13のほうがいいの?

542:名無しさん@お腹いっぱい。
06/03/22 14:05:34 COzmNFid0
分割DLついてるとかそんな違いだから

543:名無しさん@お腹いっぱい。
06/03/29 00:02:23 VgyOeFZJ0
てst

544:名無しさん@お腹いっぱい。
06/03/29 00:04:51 VgyOeFZJ0
てssy

545:名無しさん@お腹いっぱい。
06/03/29 00:07:45 pkpNhQ0J0
てs

546:名無しさん@お腹いっぱい。
06/03/30 19:46:25 Z65LfnHV0
ninja3の体験版つかってるんだけど、数時間の
ダウンロードとかするとやたらメモリ喰わない?
時間に比例してどんどんメモリ喰ってく。
この前メモリ使用量2GMB超えたとこでフリーズ・・・

547:名無しさん@お腹いっぱい。
06/03/31 00:00:09 fo/dVYvT0
それが、そのソフトに原因があると思ってるなら
大きな間違い

548:名無しさん@お腹いっぱい。
06/03/32 11:14:19 vUecKDGj0
右クリック禁止のサイトをダウンロードして右クリック可能にすることはできますか?

549:名無しさん@お腹いっぱい。
06/03/32 19:12:45 9cBOgu1+0
スレ違い

550:名無しさん@お腹いっぱい。
06/03/32 23:20:45 sRD/ACAn0
スレ違いだけど、右クリック禁止について質問するなんて
カワイイもんだw

551:名無しさん@お腹いっぱい。
06/04/08 04:55:49 hAsB5jcl0
Java、CGIまで落とせるのってないですか?

552:名無しさん@お腹いっぱい。
06/04/08 10:49:06 NdvpBHa40
困ったときは巡集

553:名無しさん@お腹いっぱい。
06/04/08 11:47:06 sGNgLdHp0
巡集ならJava、Flashまでは対応してる。
当たり前だけど、CGIは静的な結果しか保存できない。

554:名無しさん@お腹いっぱい。
06/04/08 18:14:10 l4QT8Kvs0
cgi 落とす・・・・

555:名無しさん@お腹いっぱい。
06/04/09 12:48:05 VchaA2+F0
>554
つ[F5アタック]

556:18ban
06/04/09 19:28:02 osngBrCz0
オハコ板を自動収集できるソフト、もしくはやり方を教えてくれ。

557:名無しさん@お腹いっぱい。
06/04/10 02:01:26 hGMMQeqP0
いやあだよ

558:名無しさん@お腹いっぱい。
06/04/10 12:22:02 hLSSFdIP0
gethtmlw 7.9.1って鮫島事件並の扱いなんだよね
それくらい危険なバージョン 以後非公開らしい
みんな公開するのを恐れてどこにも無い

559:名無しさん@お腹いっぱい。
06/04/10 12:22:57 hLSSFdIP0
思えば作者が消えたのも関係ありそうだな

560:名無しさん@お腹いっぱい。
06/04/11 03:07:48 NqsN4Igo0
>>558
んなわけが…

分割DLってだけでしょ

そんなのはソフト作れない9割以上の一般利用者の間だけの話。

561:名無しさん@お腹いっぱい。
06/04/11 09:16:22 dkInw5860
日本語でおk

562:名無しさん@お腹いっぱい。
06/04/11 10:43:30 gvI3eB4U0
>>558
鮫島事件って何ですか?

563:名無しさん@お腹いっぱい。
06/04/11 12:33:14 nxOzsNsW0
都市伝説

564:名無しさん@お腹いっぱい。
06/04/11 14:57:04 259t6R8D0
URLリンク(video.msn.com)

この動画を全て保存したいのですが、どんなソフトで可能でしょうか?

565:名無しさん@お腹いっぱい。
06/04/11 16:07:03 zGnFu0pK0
GetHTMLWのreadmeにVer.7.13から同時接続数を1に制限って書いてあるけど・・・
ってことは最強はVer.7.12ってことじゃまいか?

566:名無しさん@お腹いっぱい。
06/04/11 17:18:07 7hfB89FW0
多重DLでアク禁されてもいいならどーぞ

567:名無しさん@お腹いっぱい。
06/04/11 22:15:03 AuibSfRC0
かつてはその仕様のせいであちこちに迷惑かけた結果、はじくところが増えたんだよ
作者が長いこと放置していたし。

コレに限らず使い方次第では嫌われて当然なジャンルだから自覚してくれよ

568:名無しさん@お腹いっぱい。
06/04/11 23:05:19 FvXDGp/L0
URLリンク(music.j-total.net)←こういうサイトすべてダウンロードってできませんかね?
すべての歌手の譜面をダウンロードしたいんですが。

569:名無しさん@お腹いっぱい。
06/04/11 23:37:17 9zJxjO640
cgiだから無理

570:名無しさん@お腹いっぱい。
06/04/11 23:59:36 NqsN4Igo0
cgiに屈するなばか

571:名無しさん@お腹いっぱい。
06/04/12 10:35:26 dpcbxPWE0
Get web! with Image Browserってもうどこにも落とせるところない?
これ以上に使い勝手いい取り込みソフトなかったんだけどHDDと一緒に消えてしまった・・・

572:名無しさん@お腹いっぱい。
06/04/12 12:22:13 dpcbxPWE0
自己解決
URLリンク(web.archive.org)

てか直アド打っても落とせないのにwebarchive挟むと落とせるんだけどファイルまでバックアップするようになったのかここ…

573:名無しさん@お腹いっぱい。
06/04/12 12:30:14 lCZMs3TH0
は?

574:名無しさん@お腹いっぱい。
06/04/12 12:35:45 dpcbxPWE0
URLリンク(www.optpix.com)から ダウンロード
から落とせる・・・・んだがなんかファイル壊れてるな・・・

575:名無しさん@お腹いっぱい。
06/04/12 18:20:00 HPcmo7wS0
バイナリエディタでけつに0加える

576:名無しさん@お腹いっぱい。
06/04/12 18:55:58 vjF++Foe0
>>575
うお、マジthx!!
これでgethtmlw使わなくてすむ(ノД`゚・。

577:名無しさん@お腹いっぱい。
06/04/12 23:18:22 sCIe4qAx0
>>571
ぶっちゃけ、どう違うの?

578:名無しさん@お腹いっぱい。
06/04/13 00:35:37 nuQa6xIe0
GETHTMLWはJavaにもFlashにも対応してないから、
巡集の方が便利だと思うんだが、あえてGETHTMLWを使うメリットってあるの?

579:名無しさん@お腹いっぱい。
06/04/13 07:47:51 r8xDD0NA0
?

580:名無しさん@お腹いっぱい。
06/04/13 08:00:32 56ZLVIi80
巡集はまた更新が止まっちゃったね

581:名無しさん@お腹いっぱい。
06/04/13 11:42:41 pkiEVC+V0
というか、作者がどうなったかが心配になる

582:名無しさん@お腹いっぱい。
06/04/13 14:18:04 XpYA8ryZ0
>>577
使ってみれば解かる

583:名無しさん@お腹いっぱい。
06/04/13 20:55:31 G26hqSM40
波乗りおぼれすぎ
一回目と二回目では取得できるファイルとそうでないのがあるから困った
完全に取得できるソフトってないのかな

584:名無しさん@お腹いっぱい。
06/04/15 15:27:23 XHpUBv5Z0
WebReaperはどうかな?
くまかわ堂の日本語パッチを当てて使ってみたけど、
巡集に近い感じ。
IEのお気に入りを読み込むのが煩わしいけど。

585:名無しさん@お腹いっぱい。
06/04/15 16:32:01 O1SF+BR00
gethtmlw 7.9.1 って何ですか?幻のソフト?
その前にそんなのあるの?

586:名無しさん@お腹いっぱい。
06/04/15 16:38:41 iMp6kEEf0
WebReaperってuseragentはどうなってる?
巡集みたいに自由に設定できるの?

587:名無しさん@お腹いっぱい。
06/04/17 06:29:57 8nSr9SAm0

やっぱり保管サイトごと保存できるのが最強だよ。
HDにファイルだけ入れても何が何かわかんなくなるし

その機能に、差分取得機能。

あと、いろんなwebページに対応してるのが最強だな

588:名無しさん@お腹いっぱい。
06/04/17 17:25:17 ausgU4+i0
>>586
自由設定はできる模様。
(none)を選ぶと空欄になるので、
userAgent一覧からたとえば、
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)
を入力できる。

プリセットされているのは、次の項目。
"事前に定義されたブラウザ user-agent strings(&P)" Buttonで
(none)
WebReaper
Microsoft Internet Explorer
Netscape 4.5
Opera v3.5
ちなみに、入っているもは、「Microsoft Internet Explorer」を選ぶと、
Mozilla/4.0 (compatible; MSIE 6.0; Win32)
たしかIrvineと同じものなので、弾かれる所もあると思う。
Win2kSP4を使っているので上記で設定している。
なお詳細なログが出力されるので、取り込み失敗もわかりやすい。

589:名無しさん@お腹いっぱい。
06/04/17 22:48:39 byRupYbR0
>>588
詳細レスd
試してみるかな


590:名無しさん@お腹いっぱい。
06/04/18 21:07:19 colwsEdr0
blogを丸ごとゲットできるソフトってあります?
gethtml他色々試してみたのですがうまくいかないのです・・・。

591:名無しさん@お腹いっぱい。
06/04/18 21:15:42 YkmiwJ3t0
>>590
丸ごとが通常の閲覧と同じ意味をさすなら、cgiの取り込みを出来ますか?
と聞いているようなものなんだが。

592:名無しさん@お腹いっぱい。
06/04/18 21:39:28 colwsEdr0
>>591
すいません、ブログ内の画像やzip等のことです。
ブログにおける"そのページ内の"だけではなく"そのサイト全体にある"というような感じの。

593:名無しさん@お腹いっぱい。
06/04/19 03:56:53 vYNNZY310
僕たち純真無垢のageブラザーズ!
スレが盛り上がるようにageてあげるよ!
 ̄ ̄∨ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
  ∧_∧   ∧_∧    age
 (・∀・∩)(∩・∀・)    age
 (つ  丿 (   ⊂) age
  ( ヽノ   ヽ/  )   age
  し(_)   (_)J

594:名無しさん@お腹いっぱい。
06/04/19 07:47:24 15Ulvr7u0
>>591
cgiの取り込みって出きるの?

595:名無しさん@お腹いっぱい。
06/04/19 07:58:39 5EkfZIhn0
>>592
リンクが貼ってあれば、大抵のソフトなら取って来るはずだけど。
外部サーバのリンクを弾いてるだけじゃないの?

596:名無しさん@お腹いっぱい。
06/04/19 13:48:57 AOjTbGp70
ログインしなきゃ見れないサイト
巡集だとクッキー送って取得出来たけど
gethtmlだとクッキー送っても出来ない・・・。
ログインしてください の画面で止まってる。

597:名無しさん@お腹いっぱい。
06/04/19 19:35:00 kxNXyymu0
GIGAGETはどうですか?

598:名無しさん@お腹いっぱい。
06/04/19 21:45:19 adoUm4Fn0
アドウェア入りらしい
スレリンク(software板)

599:名無しさん@お腹いっぱい。
06/04/19 22:08:44 fPhCfjT+0
というか、丸ごと取り込みソフトとしてはスレ違いでは。

600:名無しさん@お腹いっぱい。
06/04/20 11:00:58 pWIZOtah0
>>592
WEBEX、NextHttp、Isabel、画浪(free)、MzGet、MIDown、
とかダウンロードツールの範囲だね。
Irvineが一番使いやすいと思うけど。NetTransportもね。
>>599氏の言うようスレ違いだと思う。
ダウンロードツールで目的の使いやすいものを選んでみたら?

601:名無しさん@お腹いっぱい。
06/04/21 15:05:34 R/SqYRIp0
GripIE
URLリンク(www.gripie.com)

FirefoxのDownThemAllのIE版

602:作者
06/04/22 14:12:21 ej/0ZIgw0
いやぁ 留置場にお世話になってました、でももう釈放されたんでこれからNewVerつくります。

603:名無しさん@お腹いっぱい。
06/04/22 14:57:38 0ZI/FZTa0
巡集が巡査にご厄介?

604:名無しさん@お腹いっぱい。
06/04/26 07:56:22 o8bSTe/60
数十万単位の画像がある大手サイトは自動でダウンロードできないところが多いな

605:名無しさん@お腹いっぱい。
06/04/26 09:13:17 TmlEQfko0
>>604
>>600


606:名無しさん@お腹いっぱい。
06/04/30 13:12:44 QK3Wf2y+0
WeBoXにエクセル、マウスの動作を記録するソフト等を組み合わせたらうまくとれるようになった。

エクセルの文字列操作が使える。これでURLのテキストを作ってWeBoXで読み込む。

マウスの動作を記録するソフトは遅いが、これなら手動でとれるものなら必ず取れる。


607:名無しさん@お腹いっぱい。
06/05/03 16:31:42 MQZcxWlv0
WebReaper使ってみたけど
日本語化した後、すべてのファイルで「開くの・失敗しました」って出て
まったくダウンロードの収集ができない(´・ω・`)

608:名無しさん@お腹いっぱい。
06/05/04 05:35:37 Q/91ZJyU0
テキストファイルに書かれているURLのリストを読み込んで
全てダウンロードしてくれるソフトってありますか?
あるいは、テキストファイルからリストを読み込んで
別々のFirefoxのタブで開けてくれるのでもいいです。

609:名無しさん@お腹いっぱい。
06/05/04 06:43:26 UpflJBuU0
>>607
>>588だけど、ユーザーエージェントは何を使っている?
自分は、Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)を
使っているけど。

試しに次のサイトを取り込んでみたけど、問題なく取り込めるよ。
取り込んだものは、ローカルファイルとして開く事ができる。
取り込み先は、C:\とは別ドライブのパーティションM:\
OutPost 2ch まとめサイト
URLリンク(www.geocities.jp)
でログは次のとおり。
「2006/05/04 6:20:36: ダウンロード完成
2006/05/04 6:20:36: 654は処理されて、4862進の168 htmlをリンクします。
9は失敗しました, 0は(変わりのない)でスキップされて、
12.2Mbは44sでダウンロードされました. データ転送速度: 283Kb/sec.」

ファイアーウォールでWebReaperを遮断していない?
ブラウザやダウンロードツールと一緒だよ。
もちろんユーザーエージェントの考え方も。
それから報告するときは取り込み先の、URLを書いてくれないと、
何故取り込めなかったか解らない。OSもね。

610:名無しさん@お腹いっぱい。
06/05/05 01:32:45 Pfsbr6+N0
>>608
GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。

関係ないけど、UWSCでの自動化は便利だよ。

611:名無しさん@お腹いっぱい。
06/05/05 02:36:46 /mWfEwO20
>>610
情報d!!

612:名無しさん@お腹いっぱい。
06/05/05 10:48:46 gcfReHxt0
ダウンローダー雨でも出来る

613:名無しさん@お腹いっぱい。
06/05/09 22:09:47 CRMbofru0
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?

614:名無しさん@お腹いっぱい。
06/05/10 00:28:59 EKw6ZpzP0
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。
なんでだろう。

615:名無しさん@お腹いっぱい。
06/05/10 00:41:28 DRFHjAvL0
なんかサンプルのURLある?
漏れも試す

616:614
06/05/10 01:21:27 EKw6ZpzP0
URLリンク(not.s53.xrea.com)
自分が試したのはここのファイル。

617:名無しさん@お腹いっぱい。
06/05/10 02:35:04 DRFHjAvL0
確かにリクエストさえ送れないね。なんででしょ。

618:名無しさん@お腹いっぱい。
06/05/10 08:05:19 C3VpD3a20
7-Zipって圧縮ファイルなのね。
はじめて知ったよ。

619:名無しさん@お腹いっぱい。
06/05/10 09:06:27 EXd/P5Hl0
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・

620:名無しさん@お腹いっぱい。
06/05/10 15:45:50 Hg4Dg4Ty0
先頭が数字だとダメなんかな。
変数も最初数字使えないし。

621:名無しさん@お腹いっぱい。
06/05/10 21:10:14 EXd/P5Hl0
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。

既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は http:// のみ変換」で
 ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す

といったところか。

622:名無しさん@お腹いっぱい。
06/05/12 17:07:14 CyaJVsOS0
GetHTMLW、URL残量50000とか出るorz
ネカフェから短時間で丸ごとダウンドローは辛い。。。

623:名無しさん@お腹いっぱい。
06/05/13 00:20:56 jdiEWgNW0
URLリンク(www.google.co.jp)

624:名無しさん@お腹いっぱい。
06/05/13 06:48:12 ybTFu6Xk0
URLリンク(www.vector.co.jp)
これ使ったことある人いますか?

625:名無しさん@お腹いっぱい。
06/05/13 20:37:03 ZOi5Wnm10
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
URLリンク(blog.livedoor.jp) のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。

これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?

これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。

626:名無しさん@お腹いっぱい。
06/05/13 21:28:30 xXeGX2L00
Speeeed

627:名無しさん@お腹いっぱい。
06/05/21 02:44:50 b6NaPvt80
GetHTMLWのサイトとかBBSまだ有るの?

628:名無しさん@お腹いっぱい。
06/05/29 00:42:00 JUXlDIOb0
junshuでしかダウンロードできない画像ファイルがあるんですが
URL構造を再現しない方法はありますか?

もしくは他のツールで代用できませんでしょうか?

629:名無しさん@お腹いっぱい。
06/05/29 01:16:49 1H+fTScG0
そこは考え方を変えて、巡集でダウンロードしたあと
「複数のフォルダから下層にある画像ファイルを探索して、
抜き出して一つのフォルダ下に集めるプログラム」のようなものを
使ったり使わなかったりしながら整理するというのはどうだろうか

630:名無しさん@お腹いっぱい。
06/06/06 07:51:05 qkCzqdXk0
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?

631:名無しさん@お腹いっぱい。
06/06/06 08:41:39 ksdWbR5q0
自分で作れば?

632:名無しさん@お腹いっぱい。
06/06/06 12:33:56 mNTKLJf30
Proxomitronでリダイレクトさせれば可能だな。

633:名無しさん@お腹いっぱい。
06/06/13 02:03:08 tJYFmeRW0
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?

634:名無しさん@お腹いっぱい。
06/06/13 02:17:17 tJYFmeRW0
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。

635:名無しさん@お腹いっぱい。
06/06/13 02:32:45 VxBRFoPm0
URL

636:名無しさん@お腹いっぱい。
06/06/13 08:13:23 D+Qs/Pks0
>>634
DLできないサイトのほうが珍しいと思うが。

637:名無しさん@お腹いっぱい。
06/06/13 16:06:33 c33DC7pH0
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?

638:名無しさん@お腹いっぱい。
06/06/13 18:40:44 338TCH+n0
URLを晒すと幸せになれるかもしんない。

639:名無しさん@お腹いっぱい。
06/06/18 13:04:12 wSTJWvth0
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。

>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。

640:名無しさん@お腹いっぱい。
06/06/19 08:01:49 dqgUGQtz0



641:名無しさん@お腹いっぱい。
06/06/22 09:20:23 uzO+jNTb0



642:名無しさん@お腹いっぱい。
06/06/23 21:24:02 cYsZ8A7S0
(´◕ω◕`)

643:名無しさん@お腹いっぱい。
06/06/24 02:27:59 qEZk/pQ+0
(´◕ω◕`)イイ!

644:名無しさん@お腹いっぱい。
06/06/26 08:06:18 wklS6px30
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。

645:名無しさん@お腹いっぱい。
06/06/26 09:18:17 arNW7AeZ0
>>644
このスレを全て読むと幸せになれますよ

646:644
06/06/27 08:37:13 rom9fVjk0
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。

647:名無しさん@お腹いっぱい。
06/06/27 08:39:54 +5QX/POu0
幸せになったな

648:名無しさん@お腹いっぱい。
06/06/27 12:57:27 ubHJbSGC0
だったら巡集作者がバージョンアップするのを待てばいい

649:名無しさん@お腹いっぱい。
06/06/28 10:57:55 3IOsJQBi0



650:名無しさん@お腹いっぱい。
06/06/28 22:36:14 92cQ9ydu0
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。

・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。

この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。

651:名無しさん@お腹いっぱい。
06/06/29 00:06:49 Sm203lko0
PangYa! Change Clothes Simulator
URLリンク(thunderbird.lar.jp)

このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。

652:名無しさん@お腹いっぱい。
06/06/29 00:49:08 magVV5uA0
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?


653:名無しさん@お腹いっぱい。
06/06/29 01:56:34 Sm203lko0
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。

654:sage
06/06/29 07:13:52 magVV5uA0
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?

ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。

655:名無しさん@お腹いっぱい。
06/06/29 08:12:57 RD0dQ6vs0
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?

ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。


656:名無しさん@お腹いっぱい。
06/06/29 10:40:16 Sm203lko0
>>654
ありがとうおございます。
やってみました。
駄目でしたね

657:654
06/06/29 18:31:15 magVV5uA0
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?

658:名無しさん@お腹いっぱい。
06/06/30 02:24:21 XmRbNBQ00
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?

659:名無しさん@お腹いっぱい。
06/06/30 05:12:26 Jk6AgcOW0
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive

# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive

# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: スレリンク(software板)

660:名無しさん@お腹いっぱい。
06/06/30 09:53:17 7cO984sA0
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。


661:名無しさん@お腹いっぱい。
06/06/30 22:49:53 XmRbNBQ00
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。

662:名無しさん@お腹いっぱい。
06/07/02 02:29:45 isM9PPA70
巡集が久々の更新

ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
 - 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
  フォルダ内に保存します。
* %を含むURLの判別処理を修正。

663:名無しさん@お腹いっぱい。
06/07/02 16:26:46 XcmbSRFm0
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○

664:名無しさん@お腹いっぱい。
06/07/03 13:17:44 r9jWzXf80
メールすればぁ?

665:名無しさん@お腹いっぱい。
06/07/03 18:21:20 JX+TxRmN0
>>663怠け者w

>>664イヤミw

666:名無しさん@お腹いっぱい。
06/07/03 18:21:58 7tfOkuGA0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛


667:名無しさん@お腹いっぱい。
06/07/03 23:55:40 hR8h/RGi0
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。


スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。

668:名無しさん@お腹いっぱい。
06/07/06 01:40:30 +r4X3LGm0
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。

GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・

更新チェックしながら一気に取得する方法ありませんか?

669:名無しさん@お腹いっぱい。
06/07/07 21:41:11 UczzMvQa0
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・

670:名無しさん@お腹いっぱい。
06/07/08 05:37:47 +tA7Wsvb0
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ


671:名無しさん@お腹いっぱい。
06/07/08 06:33:28 sn8S3sd80
使い方判らない人登場。

672:名無しさん@お腹いっぱい。
06/07/08 08:45:36 VZy8auUo0
わろた

673:名無しさん@お腹いっぱい。
06/07/08 10:20:01 +tA7Wsvb0
バーカ
もっといいソフトがあるんだよw

ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw

674:名無しさん@お腹いっぱい。
06/07/08 10:38:31 +tA7Wsvb0
まぁたぶん使用目的が偽装されてるからだろうな


675:名無しさん@お腹いっぱい。
06/07/08 12:01:03 UBvbKXaB0
わろた

676:名無しさん@お腹いっぱい。
06/07/08 13:39:28 okIMli3x0
>>673
kwsk

677:名無しさん@お腹いっぱい。
06/07/08 15:26:06 jF3Apejg0
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで

678:名無しさん@お腹いっぱい。
06/07/08 21:08:26 VpYiRS6G0
いいのって何なの?

679:名無しさん@お腹いっぱい。
06/07/09 02:26:38 MbLApNxB0
>>668自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。

先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。

ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz

あと、>>668訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。

680:名無しさん@お腹いっぱい。
06/07/09 13:31:01 v4TIo4jy0
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。
そもそもいちいち保存しなくてもお前の欲しいのは大抵
インターねっつにあるから心配するな。

681:名無しさん@お腹いっぱい。
06/07/09 20:13:43 IaGYU6z00
というより作者がへぼいだけだろw

682:名無しさん@お腹いっぱい。
06/07/10 12:09:39 vKtpvjKF0
初心者は馬鹿でも使える巡集を使っとけ
巡集で落ちないサイトは諦めろ

683:名無しさん@お腹いっぱい。
06/07/10 18:54:53 f2qghtk60
gethtmlwにあって巡集にないものとは?

684:名無しさん@お腹いっぱい。
06/07/11 01:03:35 jHSax2iS0
JavaScriptをダウンできないとか?

685:名無しさん@お腹いっぱい。
06/07/11 01:04:07 jHSax2iS0
ごめん間違ったよ

686:名無しさん@お腹いっぱい。
06/07/11 07:04:08 R0aWstP70
>>684-685
それ、逆だね。
         JAVA FLASH
GETHTMLW   ×   ×
巡集        ○   ○



687:名無しさん@お腹いっぱい。
06/07/11 07:13:28 HZp1e1RR0
gethtmlw糞じゃん

688:名無しさん@お腹いっぱい。
06/07/11 11:54:25 N0SA11Kz0
やはり俺が使ってる巡集は良ソフトだな

689:名無しさん@お腹いっぱい。
06/07/11 15:05:23 C3GAtwwn0
>>686
JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから

690:名無しさん@お腹いっぱい。
06/07/11 16:04:11 6ec6orra0
巡集でJavaScriptDL出来れば最強
GETHTMLWいらない。

691:名無しさん@お腹いっぱい。
06/07/11 19:42:13 c2z8nrEF0
結論は前スレで出たのに何でいまさらそんなこといってるの

692:名無しさん@お腹いっぱい。
06/07/11 21:37:36 FOCW558y0
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的

693:名無しさん@お腹いっぱい。
06/07/11 23:35:34 qMsR4eKh0
pixGet
直りんダウンローダー
Website Explorer
巡集

これだけ揃えてもまだちょっと
やはり巡集にjavascript対応すればなぁ

694:名無しさん@お腹いっぱい。
06/07/12 01:19:56 IOcgVf0g0
日本語でおk

695:名無しさん@お腹いっぱい。
06/07/12 09:12:12 p5txB6RR0
s = "URLリンク(";)
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか

696:名無しさん@お腹いっぱい。
06/07/12 09:32:30 NDj8wzrr0
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて
そこからURLを抽出する方法があるかな

697:名無しさん@お腹いっぱい。
06/07/12 12:10:45 IOcgVf0g0
全てのスクリプトに対応するのは無理だとしても
よく使われてるやつくらいは普通にDLできるようにしてほしい

698:名無しさん@お腹いっぱい。
06/07/12 13:23:15 LYcXZJBt0
巡集 ver1.7.1 使ってます。

URLリンク(lushie.priston.s3p.net)
このサイト。
DLするURLをTOPにすると、なぜかうまくDL出来ないので
このサイトのどこか適当なURL(アカウント情報とか)でDLすると
うまくDL出来たのですが、コミュニケーションのBBSメニュー
URLリンク(lushie.priston.s3p.net)
ここまでは、DL出来るんです
その先の、掲示板がDL出来ません。
掲示板のURLは
URLリンク(lushie.priston.s3p.net)
こんな感じのです。
URLフィルタはチェック入れてません。
詳細設定は
取得するファイル類の上位階層、外部サーバの二つだけにチェックです。
他全部にチェック入れて試しましたが
余分な物までDLするだけで、この掲示板はDLされませんでした。
どうやれば掲示板までDL出来るようになりますか?

699:名無しさん@お腹いっぱい。
06/07/12 13:40:08 5yC8oRyc0
>>698
とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。

700:名無しさん@お腹いっぱい。
06/07/12 16:08:58 LYcXZJBt0
>>699
ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。

701:名無しさん@お腹いっぱい。
06/07/12 16:17:16 LYcXZJBt0
某サイトを巡集で半日。
残りファイル数200万。
今もドンドン増え続けてる。
諦めるか。

702:名無しさん@お腹いっぱい。
06/07/12 16:21:17 5yC8oRyc0
>>700
BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。

703:名無しさん@お腹いっぱい。
06/07/12 16:58:02 AvQQm1GN0
ローカルにサーバー立てて再現すれば…
まあ、あまり意味ないけど。

704:名無しさん@お腹いっぱい。
06/07/12 18:38:41 eG0zoUk50
>>701
そこまでして保存したいサイトが知りたい

705:名無しさん@お腹いっぱい。
06/07/12 20:53:46 LYcXZJBt0
300万超えちゃった。

いつになったら終わるんだろう。

706:名無しさん@お腹いっぱい。
06/07/12 20:54:57 LYcXZJBt0
>>702
ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。

707:名無しさん@お腹いっぱい。
06/07/12 21:03:37 5yC8oRyc0
>>705
不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?

708:名無しさん@お腹いっぱい。
06/07/12 22:28:47 LYcXZJBt0
>>707
一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。

709:名無しさん@お腹いっぱい。
06/07/12 22:53:05 bVaCW9CI0
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。
同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか

710:名無しさん@お腹いっぱい。
06/07/13 07:26:36 0SzuAgk/0
>>697
> 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。

711:名無しさん@お腹いっぱい。
06/07/13 08:06:48 oMRpENR90
>>697
してほしいならその「よくつかわれてるやつ」のパターンを作者に伝えるぐらいの努力はしないとな


712:名無しさん@お腹いっぱい。
06/07/13 10:38:21 kD1Dcb1X0
要望出しても対応してくれないことが多いよ

713:名無しさん@お腹いっぱい。
06/07/13 10:40:45 kD1Dcb1X0
Javascript使ってるサイトは少なくないんだから
DLできるようにしてほしいと思ってるやつは多いはずなんだけどねえ

714:名無しさん@お腹いっぱい。
06/07/13 18:44:10 M8TScjQx0
スクリプトってなんだよ

715:名無しさん@お腹いっぱい。
06/07/13 18:50:51 M8TScjQx0
>>693
これの中で一番使えるの何?
今は準集使ってるけど

716:名無しさん@お腹いっぱい。
06/07/13 20:52:34 0wv2DWcp0
>>715
どれが一番ではなくそれぞれ特化してるところを使ってるだけ
1個で全部やろうなんて考えない方がいいかと
あくまで画像HTML収集に使ってるものだけど他のファイルも収集できるかも?
私がわかっているのはこんなところ

よさげなDLツール集
URLリンク(www7.ocn.ne.jp)

Website Explorer
指定URLの外部以外のファイルを詳しく解析し丸ごとダウンロード
metaタグ(ロボット避け)で不能になる

直りんダウンローダー
URL指定Webページに直接リンクされたファイルを一括ダウンロード
他にも同じようのソフトあるけどこれが楽だから
(GetFiles・NextHttp・まいダウン・CompleteGetter)
DCさくらある人なら不要かとただIE使わなきゃいけないけど

pixGet
?img?で埋め込み画像・直リン画像・リンク先html→埋め込み画像など(拡張子指定でいろいろ)一括ダウンロード
他のIrvineなどのソフトのように驚異的なサーバー負担がないそうです

巡集
広告を取り除いてサイトを丸ごとダウンロード
metaタグ(ロボット避け)無効にできるなどなど


ある意味すれ違いな内容ですいません



次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

4165日前に更新/239 KB
担当:undef