お勧めダウンロード( ..
607:名無しさん@お腹いっぱい。
06/05/03 16:31:42 MQZcxWlv0
WebReaper使ってみたけど
日本語化した後、すべてのファイルで「開くの・失敗しました」って出て
まったくダウンロードの収集ができない(´・ω・`)
608:名無しさん@お腹いっぱい。
06/05/04 05:35:37 Q/91ZJyU0
テキストファイルに書かれているURLのリストを読み込んで
全てダウンロードしてくれるソフトってありますか?
あるいは、テキストファイルからリストを読み込んで
別々のFirefoxのタブで開けてくれるのでもいいです。
609:名無しさん@お腹いっぱい。
06/05/04 06:43:26 UpflJBuU0
>>607
>>588だけど、ユーザーエージェントは何を使っている?
自分は、Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)を
使っているけど。
試しに次のサイトを取り込んでみたけど、問題なく取り込めるよ。
取り込んだものは、ローカルファイルとして開く事ができる。
取り込み先は、C:\とは別ドライブのパーティションM:\
OutPost 2ch まとめサイト
URLリンク(www.geocities.jp)
でログは次のとおり。
「2006/05/04 6:20:36: ダウンロード完成
2006/05/04 6:20:36: 654は処理されて、4862進の168 htmlをリンクします。
9は失敗しました, 0は(変わりのない)でスキップされて、
12.2Mbは44sでダウンロードされました. データ転送速度: 283Kb/sec.」
ファイアーウォールでWebReaperを遮断していない?
ブラウザやダウンロードツールと一緒だよ。
もちろんユーザーエージェントの考え方も。
それから報告するときは取り込み先の、URLを書いてくれないと、
何故取り込めなかったか解らない。OSもね。
610:名無しさん@お腹いっぱい。
06/05/05 01:32:45 Pfsbr6+N0
>>608
GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。
関係ないけど、UWSCでの自動化は便利だよ。
611:名無しさん@お腹いっぱい。
06/05/05 02:36:46 /mWfEwO20
>>610
情報d!!
612:名無しさん@お腹いっぱい。
06/05/05 10:48:46 gcfReHxt0
ダウンローダー雨でも出来る
613:名無しさん@お腹いっぱい。
06/05/09 22:09:47 CRMbofru0
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?
614:名無しさん@お腹いっぱい。
06/05/10 00:28:59 EKw6ZpzP0
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。
なんでだろう。
615:名無しさん@お腹いっぱい。
06/05/10 00:41:28 DRFHjAvL0
なんかサンプルのURLある?
漏れも試す
616:614
06/05/10 01:21:27 EKw6ZpzP0
URLリンク(not.s53.xrea.com)
自分が試したのはここのファイル。
617:名無しさん@お腹いっぱい。
06/05/10 02:35:04 DRFHjAvL0
確かにリクエストさえ送れないね。なんででしょ。
618:名無しさん@お腹いっぱい。
06/05/10 08:05:19 C3VpD3a20
7-Zipって圧縮ファイルなのね。
はじめて知ったよ。
619:名無しさん@お腹いっぱい。
06/05/10 09:06:27 EXd/P5Hl0
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・
620:名無しさん@お腹いっぱい。
06/05/10 15:45:50 Hg4Dg4Ty0
先頭が数字だとダメなんかな。
変数も最初数字使えないし。
621:名無しさん@お腹いっぱい。
06/05/10 21:10:14 EXd/P5Hl0
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。
既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は http:// のみ変換」で
ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す
といったところか。
622:名無しさん@お腹いっぱい。
06/05/12 17:07:14 CyaJVsOS0
GetHTMLW、URL残量50000とか出るorz
ネカフェから短時間で丸ごとダウンドローは辛い。。。
623:名無しさん@お腹いっぱい。
06/05/13 00:20:56 jdiEWgNW0
URLリンク(www.google.co.jp)
624:名無しさん@お腹いっぱい。
06/05/13 06:48:12 ybTFu6Xk0
URLリンク(www.vector.co.jp)
これ使ったことある人いますか?
625:名無しさん@お腹いっぱい。
06/05/13 20:37:03 ZOi5Wnm10
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
URLリンク(blog.livedoor.jp) のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。
これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?
これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。
626:名無しさん@お腹いっぱい。
06/05/13 21:28:30 xXeGX2L00
Speeeed
627:名無しさん@お腹いっぱい。
06/05/21 02:44:50 b6NaPvt80
GetHTMLWのサイトとかBBSまだ有るの?
628:名無しさん@お腹いっぱい。
06/05/29 00:42:00 JUXlDIOb0
junshuでしかダウンロードできない画像ファイルがあるんですが
URL構造を再現しない方法はありますか?
もしくは他のツールで代用できませんでしょうか?
629:名無しさん@お腹いっぱい。
06/05/29 01:16:49 1H+fTScG0
そこは考え方を変えて、巡集でダウンロードしたあと
「複数のフォルダから下層にある画像ファイルを探索して、
抜き出して一つのフォルダ下に集めるプログラム」のようなものを
使ったり使わなかったりしながら整理するというのはどうだろうか
630:名無しさん@お腹いっぱい。
06/06/06 07:51:05 qkCzqdXk0
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?
631:名無しさん@お腹いっぱい。
06/06/06 08:41:39 ksdWbR5q0
自分で作れば?
632:名無しさん@お腹いっぱい。
06/06/06 12:33:56 mNTKLJf30
Proxomitronでリダイレクトさせれば可能だな。
633:名無しさん@お腹いっぱい。
06/06/13 02:03:08 tJYFmeRW0
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?
634:名無しさん@お腹いっぱい。
06/06/13 02:17:17 tJYFmeRW0
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。
635:名無しさん@お腹いっぱい。
06/06/13 02:32:45 VxBRFoPm0
URL
636:名無しさん@お腹いっぱい。
06/06/13 08:13:23 D+Qs/Pks0
>>634
DLできないサイトのほうが珍しいと思うが。
637:名無しさん@お腹いっぱい。
06/06/13 16:06:33 c33DC7pH0
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?
638:名無しさん@お腹いっぱい。
06/06/13 18:40:44 338TCH+n0
URLを晒すと幸せになれるかもしんない。
639:名無しさん@お腹いっぱい。
06/06/18 13:04:12 wSTJWvth0
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。
>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。
640:名無しさん@お腹いっぱい。
06/06/19 08:01:49 dqgUGQtz0
641:名無しさん@お腹いっぱい。
06/06/22 09:20:23 uzO+jNTb0
642:名無しさん@お腹いっぱい。
06/06/23 21:24:02 cYsZ8A7S0
(´◕ω◕`)
643:名無しさん@お腹いっぱい。
06/06/24 02:27:59 qEZk/pQ+0
(´◕ω◕`)イイ!
644:名無しさん@お腹いっぱい。
06/06/26 08:06:18 wklS6px30
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。
645:名無しさん@お腹いっぱい。
06/06/26 09:18:17 arNW7AeZ0
>>644
このスレを全て読むと幸せになれますよ
646:644
06/06/27 08:37:13 rom9fVjk0
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。
647:名無しさん@お腹いっぱい。
06/06/27 08:39:54 +5QX/POu0
幸せになったな
648:名無しさん@お腹いっぱい。
06/06/27 12:57:27 ubHJbSGC0
だったら巡集作者がバージョンアップするのを待てばいい
649:名無しさん@お腹いっぱい。
06/06/28 10:57:55 3IOsJQBi0
650:名無しさん@お腹いっぱい。
06/06/28 22:36:14 92cQ9ydu0
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。
・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。
この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。
651:名無しさん@お腹いっぱい。
06/06/29 00:06:49 Sm203lko0
PangYa! Change Clothes Simulator
URLリンク(thunderbird.lar.jp)
このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。
652:名無しさん@お腹いっぱい。
06/06/29 00:49:08 magVV5uA0
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?
653:名無しさん@お腹いっぱい。
06/06/29 01:56:34 Sm203lko0
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。
654:sage
06/06/29 07:13:52 magVV5uA0
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?
ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。
655:名無しさん@お腹いっぱい。
06/06/29 08:12:57 RD0dQ6vs0
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?
ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。
656:名無しさん@お腹いっぱい。
06/06/29 10:40:16 Sm203lko0
>>654
ありがとうおございます。
やってみました。
駄目でしたね
657:654
06/06/29 18:31:15 magVV5uA0
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?
658:名無しさん@お腹いっぱい。
06/06/30 02:24:21 XmRbNBQ00
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?
659:名無しさん@お腹いっぱい。
06/06/30 05:12:26 Jk6AgcOW0
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive
# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive
# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: スレリンク(software板)
660:名無しさん@お腹いっぱい。
06/06/30 09:53:17 7cO984sA0
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。
661:名無しさん@お腹いっぱい。
06/06/30 22:49:53 XmRbNBQ00
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。
662:名無しさん@お腹いっぱい。
06/07/02 02:29:45 isM9PPA70
巡集が久々の更新
ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
- 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
フォルダ内に保存します。
* %を含むURLの判別処理を修正。
663:名無しさん@お腹いっぱい。
06/07/02 16:26:46 XcmbSRFm0
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○
664:名無しさん@お腹いっぱい。
06/07/03 13:17:44 r9jWzXf80
メールすればぁ?
665:名無しさん@お腹いっぱい。
06/07/03 18:21:20 JX+TxRmN0
>>663怠け者w
と
>>664イヤミw
666:名無しさん@お腹いっぱい。
06/07/03 18:21:58 7tfOkuGA0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│●│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
↓
667:名無しさん@お腹いっぱい。
06/07/03 23:55:40 hR8h/RGi0
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。
スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。
668:名無しさん@お腹いっぱい。
06/07/06 01:40:30 +r4X3LGm0
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。
GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・
更新チェックしながら一気に取得する方法ありませんか?
669:名無しさん@お腹いっぱい。
06/07/07 21:41:11 UczzMvQa0
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・
670:名無しさん@お腹いっぱい。
06/07/08 05:37:47 +tA7Wsvb0
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ
671:名無しさん@お腹いっぱい。
06/07/08 06:33:28 sn8S3sd80
使い方判らない人登場。
672:名無しさん@お腹いっぱい。
06/07/08 08:45:36 VZy8auUo0
わろた
673:名無しさん@お腹いっぱい。
06/07/08 10:20:01 +tA7Wsvb0
バーカ
もっといいソフトがあるんだよw
ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw
674:名無しさん@お腹いっぱい。
06/07/08 10:38:31 +tA7Wsvb0
まぁたぶん使用目的が偽装されてるからだろうな
675:名無しさん@お腹いっぱい。
06/07/08 12:01:03 UBvbKXaB0
わろた
676:名無しさん@お腹いっぱい。
06/07/08 13:39:28 okIMli3x0
>>673
kwsk
677:名無しさん@お腹いっぱい。
06/07/08 15:26:06 jF3Apejg0
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで
678:名無しさん@お腹いっぱい。
06/07/08 21:08:26 VpYiRS6G0
いいのって何なの?
679:名無しさん@お腹いっぱい。
06/07/09 02:26:38 MbLApNxB0
>>668自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。
先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。
ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz
あと、>>668訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。
680:名無しさん@お腹いっぱい。
06/07/09 13:31:01 v4TIo4jy0
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。
そもそもいちいち保存しなくてもお前の欲しいのは大抵
インターねっつにあるから心配するな。
681:名無しさん@お腹いっぱい。
06/07/09 20:13:43 IaGYU6z00
というより作者がへぼいだけだろw
682:名無しさん@お腹いっぱい。
06/07/10 12:09:39 vKtpvjKF0
初心者は馬鹿でも使える巡集を使っとけ
巡集で落ちないサイトは諦めろ
683:名無しさん@お腹いっぱい。
06/07/10 18:54:53 f2qghtk60
gethtmlwにあって巡集にないものとは?
684:名無しさん@お腹いっぱい。
06/07/11 01:03:35 jHSax2iS0
JavaScriptをダウンできないとか?
685:名無しさん@お腹いっぱい。
06/07/11 01:04:07 jHSax2iS0
ごめん間違ったよ
686:名無しさん@お腹いっぱい。
06/07/11 07:04:08 R0aWstP70
>>684-685
それ、逆だね。
JAVA FLASH
GETHTMLW × ×
巡集 ○ ○
687:名無しさん@お腹いっぱい。
06/07/11 07:13:28 HZp1e1RR0
gethtmlw糞じゃん
688:名無しさん@お腹いっぱい。
06/07/11 11:54:25 N0SA11Kz0
やはり俺が使ってる巡集は良ソフトだな
689:名無しさん@お腹いっぱい。
06/07/11 15:05:23 C3GAtwwn0
>>686
JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから
690:名無しさん@お腹いっぱい。
06/07/11 16:04:11 6ec6orra0
巡集でJavaScriptDL出来れば最強
GETHTMLWいらない。
691:名無しさん@お腹いっぱい。
06/07/11 19:42:13 c2z8nrEF0
結論は前スレで出たのに何でいまさらそんなこといってるの
692:名無しさん@お腹いっぱい。
06/07/11 21:37:36 FOCW558y0
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的
693:名無しさん@お腹いっぱい。
06/07/11 23:35:34 qMsR4eKh0
pixGet
直りんダウンローダー
Website Explorer
巡集
これだけ揃えてもまだちょっと
やはり巡集にjavascript対応すればなぁ
694:名無しさん@お腹いっぱい。
06/07/12 01:19:56 IOcgVf0g0
日本語でおk
695:名無しさん@お腹いっぱい。
06/07/12 09:12:12 p5txB6RR0
s = "URLリンク(";)
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか
696:名無しさん@お腹いっぱい。
06/07/12 09:32:30 NDj8wzrr0
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて
そこからURLを抽出する方法があるかな
697:名無しさん@お腹いっぱい。
06/07/12 12:10:45 IOcgVf0g0
全てのスクリプトに対応するのは無理だとしても
よく使われてるやつくらいは普通にDLできるようにしてほしい
698:名無しさん@お腹いっぱい。
06/07/12 13:23:15 LYcXZJBt0
巡集 ver1.7.1 使ってます。
URLリンク(lushie.priston.s3p.net)
このサイト。
DLするURLをTOPにすると、なぜかうまくDL出来ないので
このサイトのどこか適当なURL(アカウント情報とか)でDLすると
うまくDL出来たのですが、コミュニケーションのBBSメニュー
URLリンク(lushie.priston.s3p.net)
ここまでは、DL出来るんです
その先の、掲示板がDL出来ません。
掲示板のURLは
URLリンク(lushie.priston.s3p.net)
こんな感じのです。
URLフィルタはチェック入れてません。
詳細設定は
取得するファイル類の上位階層、外部サーバの二つだけにチェックです。
他全部にチェック入れて試しましたが
余分な物までDLするだけで、この掲示板はDLされませんでした。
どうやれば掲示板までDL出来るようになりますか?
699:名無しさん@お腹いっぱい。
06/07/12 13:40:08 5yC8oRyc0
>>698
とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。
700:名無しさん@お腹いっぱい。
06/07/12 16:08:58 LYcXZJBt0
>>699
ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。
701:名無しさん@お腹いっぱい。
06/07/12 16:17:16 LYcXZJBt0
某サイトを巡集で半日。
残りファイル数200万。
今もドンドン増え続けてる。
諦めるか。
702:名無しさん@お腹いっぱい。
06/07/12 16:21:17 5yC8oRyc0
>>700
BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。
703:名無しさん@お腹いっぱい。
06/07/12 16:58:02 AvQQm1GN0
ローカルにサーバー立てて再現すれば…
まあ、あまり意味ないけど。
704:名無しさん@お腹いっぱい。
06/07/12 18:38:41 eG0zoUk50
>>701
そこまでして保存したいサイトが知りたい
705:名無しさん@お腹いっぱい。
06/07/12 20:53:46 LYcXZJBt0
300万超えちゃった。
いつになったら終わるんだろう。
706:名無しさん@お腹いっぱい。
06/07/12 20:54:57 LYcXZJBt0
>>702
ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。
707:名無しさん@お腹いっぱい。
06/07/12 21:03:37 5yC8oRyc0
>>705
不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?
708:名無しさん@お腹いっぱい。
06/07/12 22:28:47 LYcXZJBt0
>>707
一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。
709:名無しさん@お腹いっぱい。
06/07/12 22:53:05 bVaCW9CI0
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。
同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか
710:名無しさん@お腹いっぱい。
06/07/13 07:26:36 0SzuAgk/0
>>697
> 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。
711:名無しさん@お腹いっぱい。
06/07/13 08:06:48 oMRpENR90
>>697
してほしいならその「よくつかわれてるやつ」のパターンを作者に伝えるぐらいの努力はしないとな
712:名無しさん@お腹いっぱい。
06/07/13 10:38:21 kD1Dcb1X0
要望出しても対応してくれないことが多いよ
713:名無しさん@お腹いっぱい。
06/07/13 10:40:45 kD1Dcb1X0
Javascript使ってるサイトは少なくないんだから
DLできるようにしてほしいと思ってるやつは多いはずなんだけどねえ
714:名無しさん@お腹いっぱい。
06/07/13 18:44:10 M8TScjQx0
スクリプトってなんだよ
715:名無しさん@お腹いっぱい。
06/07/13 18:50:51 M8TScjQx0
>>693
これの中で一番使えるの何?
今は準集使ってるけど
716:名無しさん@お腹いっぱい。
06/07/13 20:52:34 0wv2DWcp0
>>715
どれが一番ではなくそれぞれ特化してるところを使ってるだけ
1個で全部やろうなんて考えない方がいいかと
あくまで画像HTML収集に使ってるものだけど他のファイルも収集できるかも?
私がわかっているのはこんなところ
よさげなDLツール集
URLリンク(www7.ocn.ne.jp)
Website Explorer
指定URLの外部以外のファイルを詳しく解析し丸ごとダウンロード
metaタグ(ロボット避け)で不能になる
直りんダウンローダー
URL指定Webページに直接リンクされたファイルを一括ダウンロード
他にも同じようのソフトあるけどこれが楽だから
(GetFiles・NextHttp・まいダウン・CompleteGetter)
DCさくらある人なら不要かとただIE使わなきゃいけないけど
pixGet
?img?で埋め込み画像・直リン画像・リンク先html→埋め込み画像など(拡張子指定でいろいろ)一括ダウンロード
他のIrvineなどのソフトのように驚異的なサーバー負担がないそうです
巡集
広告を取り除いてサイトを丸ごとダウンロード
metaタグ(ロボット避け)無効にできるなどなど
ある意味すれ違いな内容ですいません
717:名無しさん@お腹いっぱい。
06/07/13 22:22:50 M8TScjQx0
>>716
●⊂(゚∀゚ )ウンコセンキュゥー♪
718:名無しさん@お腹いっぱい。
06/07/14 18:53:48 MCyKxz4p0
>>668,679再自己レス www.microsoft.comの件。
スクリプト(UWSC)で完全自動化できました。
1.Proxy Modeに切り替えて小さなGIFをウインドウ非表示のIEで読み込む
2.IEを閉じ、Local Modeへ戻す
3.URLリストファイルをGetHTMLWに読み込ませて複数URL取得
4.完了
弄ってて気付いたんだけど「1」の応用。
Proxy Mode 2にしてIEを操作する・・・もちろんウインドウ非表示。
文を解釈するのは当然ながらIEなのでJavaScriptの問題が解決できるかも。
しかし複数のIEを同時に起動することになるのでメモリ消費が・・・
今の所必要性を感じないのでやる気は無いけど、そのうち(ry
あ、「拡張子/文字列フィルタ」「許容URLの設定」の他にgethtml.mcfの
設定も活用した方がいいですよね。あとはProxomitronも必須ですよ。
719:名無しさん@お腹いっぱい。
06/07/14 19:11:28 SZSAL1w00
GetHTMLWって難しいな
使いこなせればすごく便利そうなんだけど
720:名無しさん@お腹いっぱい。
06/07/15 02:53:07 hHqwiwZd0
慣れればなんともねぇよ。
721:名無しさん@お腹いっぱい。
06/07/15 11:32:58 qEvRUBYL0
さっきコミックをダウンロードして
早速DVDーRに落とそうとしたのですが容量が大きいんです。
それで圧縮したまま落としたんですが今度は
コミックの画像をめくろうとしてもめくれなくなりました。
(すべて展開したときはめくれました)
そこでDVD-Rにコミックを上手に落とすやり方を教えてください。
722:名無しさん@お腹いっぱい。
06/07/15 11:55:12 xOdIpxC00
>>719
巡集で十分だから
使いこなす必要ないけど。
723:名無しさん@お腹いっぱい。
06/07/15 13:37:18 Shf58z9z0
html取り込んだときの、ページに挿入された画像なんかのパスは
どうなるの?
紙っていうソフトは取り込んだページの入ったフォルダを
別のディレクトリに置くと画像を表示できないんだけど
>>716
のソフトだとどうなの?
724:名無しさん@お腹いっぱい。
06/07/15 15:57:26 7zWws+CR0
どのソフトでもファイルを移動したら画像は見れないと思うが
725:名無しさん@お腹いっぱい。
06/07/15 16:42:51 8ajsOzSX0
いや、保存したページの入ってるフォルダのディレクトリの位置を変更した場合
726:名無しさん@お腹いっぱい。
06/07/15 16:46:54 SuSc2z8C0
普通は相対パスで記述されるから関係ないが、
紙ってのは、絶対パスで記録されてるの?
727:名無しさん@お腹いっぱい。
06/07/15 16:54:06 8SM57SL40
いんや相対パスもおk
728:名無しさん@お腹いっぱい。
06/07/15 17:39:42 8ajsOzSX0
有料版のkamicopiだけじゃないか?
紙2001の場合フォルダ位置変更したら悲惨
紙のようにすばやく取り込めてフォルダ移動しても画像が表示できるソフト
ないもんかな
729:名無しさん@お腹いっぱい。
06/07/15 22:41:17 43PQJzAZ0
紙はスクラップソフトで、丸ごとDLがメインのソフトじゃないからなあ
スレ違いのような気がする
730:716
06/07/15 23:47:53 F7aEEzWq0
>>723
紙がどうかは知りませんが
meta入りでなければ
Website Explorer
meta入りなら巡集
どちらもフォルダを丸ごとダウンロードなので画像&htmlなども一緒にダウンロードし
パスを表示するように変えていた気がします
731:名無しさん@お腹いっぱい。
06/07/16 09:48:14 1ZAmFtGK0
>>730
サンクス
HPを丸ごと保存したい時は便利なんだけど
ちょこっと取り込みたい時に相対パスにしたい場合は
やはり有料版を使うしかないのかなぁ…
732:名無しさん@お腹いっぱい。
06/07/16 11:38:38 nPjx6XBw0
gethtmlw 7.9.1>>>>直りんダウンローダー>>巡集>>>>>>>>>>>>>>>>>>>>>>>>>>>>gethtmlw
733:名無しさん@お腹いっぱい。
06/07/17 23:55:13 ynpOyNfH0
>731
相対パスな気がするけど違った?
734:名無しさん@お腹いっぱい。
06/07/18 00:40:29 wueRf7jg0
>>733
ひそかに無料版は絶対パスなんですよ…
酪西さんもせめて絶対パスくらいは無料版に入れておいてほしい…
質問掲示板にタマだかポチだか変なのがいるし
735:名無しさん@お腹いっぱい。
06/07/18 12:00:49 bAxP/BsX0
巡集より優秀なのないの?
736:名無しさん@お腹いっぱい。
06/07/18 12:08:19 avwMWO5e0
シェアソフトならいくらでも
737:名無しさん@お腹いっぱい。
06/07/19 23:36:12 hKuheq9p0
巡集
最近よくエラーで終了する。
また、最初からやり直し・・・。
サイトのファイル数が多いとよくなる。
738:名無しさん@お腹いっぱい。
06/07/20 00:18:04 LxXNZBci0
ああああああああああ
GetHTMLWの使い方忘れてもうた
739:名無しさん@お腹いっぱい。
06/07/20 00:24:00 LxXNZBci0
だめだ。
チョット前に、やっとこさ使い方覚えたのに。
740:名無しさん@お腹いっぱい。
06/07/20 05:40:26 XOz33T4X0
ウェブサイトエクスプローラーで取り込んだら
ページ内のリンクのパスが元のままで
クリックしても取り込んだリンク先のページに飛ばないんだけど
ブログとか。
やっぱり準州のほうがいいのだろうか
何が原因なのか教えてくださいm( __ __ )m
741:名無しさん@お腹いっぱい。
06/07/20 09:03:11 mo1/yRgW0
巡集で落としてみればいいじゃん
742:名無しさん@お腹いっぱい。
06/07/20 09:24:54 Sg6gAdw70
>>741
これの簡単操作に慣れてるので…
743:名無しさん@お腹いっぱい。
06/07/21 07:15:24 5ZVcX/Xk0
URLリンク(www.moviecaster.net)
ここの動画をDLする方法教えてください。
ここの動画を自サイトに貼ってあるサイトがあるのですが
ここの動画のだけ、抜けてしまいます。
744:名無しさん@お腹いっぱい。
06/07/21 08:07:26 1Fmd0LJi0
スレ違い
他で聞け
745:743
06/07/22 10:09:03 qiY1LIfY0
なぜスレ違い?
巡集じゃ駄目だから聞いたのだけど。
746:名無しさん@お腹いっぱい。
06/07/22 10:38:31 gX4X7/d00
ここはサイトを丸ごとDLするスレで
動画をDLしたいならそういうスレがあるうだろうと
747:743
06/07/22 11:56:59 qiY1LIfY0
そのサイトに>>743の動画が埋め込まれていたのと
丸ごと取り込み が括弧なのと
他にスレが見当たらないので
ここで質問したのですが、スレ違いでしたか。
申し訳ないです。
スレ見つからないのですが、どこいけばいいですか?
748:名無しさん@お腹いっぱい。
06/07/23 00:29:37 D2cdrWwl0
いまだにバージョン1.56の巡集を使ってる
最新バージョンはいろいろ機能が増えてるんだろうなあ
そろそろ切り替えようかな
749:名無しさん@お腹いっぱい。
06/07/23 02:16:31 I0SkJA950
使い分けすれば良いじゃん
750:名無しさん@お腹いっぱい。
06/07/23 08:33:05 6dax5LlF0
基本的にバグ修正だから、機能以前に新しいのにした方がいいよ。
751:名無しさん@お腹いっぱい。
06/07/23 09:35:19 HDARLGg50
wiki系DL出来るソフトってないですか?
巡集リンク辿ってくれないです。
752:名無しさん@お腹いっぱい。
06/07/23 09:48:31 LWSPeFzY0
>>749
使い分けする必要はないだろ?
最新版だけで充分
753:名無しさん@お腹いっぱい。
06/07/23 13:25:55 D1eTzzOP0
最新版はURLフィルタの登録が面倒なので1.55.5aと使い分けてるな。
UIも古いので慣れてるし。
754:名無しさん@お腹いっぱい。
06/07/23 15:53:32 bjHDzIQ30
オサーソだな
755:名無しさん@お腹いっぱい。
06/07/23 21:49:17 XuVdwTGj0
巡集1.56までは巡回禁止サイトでも落とせるんじゃなかった?
最新版でも落とせるの?
756:名無しさん@お腹いっぱい。
06/07/23 21:52:50 6dax5LlF0
> ver 1.57 (2004/10/27)
> * コマンドラインに -start と入れることで自動的にダウンロード開始。
> * 保存フォルダが参照されていないバグ修正。
> * 巡回が禁止されているサイトは辿れない仕様に変更。
巡回禁止サイトとか見ることないから、気にしてなかったが。
757:名無しさん@お腹いっぱい。
06/07/23 22:13:55 96xX6IgJ0
>>322によると巡回できそうだけど今のバージョンは無理なのかな?
あと>>650とか。
758:名無しさん@お腹いっぱい。
06/07/23 22:25:45 6dax5LlF0
METAタグを読まないで回避できるけど、
最近のサイトの作りだと無視したら弊害の方が大きそうだな。
>650の方法で、実行ファイルを弄ってやれば回避は出来た。
759:名無しさん@お腹いっぱい。
06/07/23 23:26:54 96xX6IgJ0
自分で書き換えするしかないのか。
760:名無しさん@お腹いっぱい。
06/07/23 23:56:23 9EfDbjx20
巡集作者の株式投資は順調なのか??
761:名無しさん@お腹いっぱい。
06/07/24 02:59:51 ODFw86KF0
書き換えなくても>>322で出来た。
762:名無しさん@お腹いっぱい。
06/07/24 03:11:07 ODFw86KF0
と思ったら途中で終了した。
出来てなかった。
残念。
書き換えてみた。
どうなるかな。
763:名無しさん@お腹いっぱい。
06/07/24 04:01:38 ODFw86KF0
結果同じ。
764:名無しさん@お腹いっぱい。
06/07/24 07:30:54 zZ/cf0g/0
あん?書き換えてもだめだったのか?
765:名無しさん@お腹いっぱい。
06/07/28 01:45:43 3BTczl/80
wiki系をDL出来るソフト教えてください。
766:名無しさん@お腹いっぱい。
06/07/29 10:54:34 wTKM0Z7g0
age
767:名無しさん@お腹いっぱい。
06/07/30 22:34:04 /iAGGsF40
HDDにどれだけ余裕があるんだ
768:名無しさん@お腹いっぱい。
06/07/31 06:45:10 Qh5TNdie0
インターネッツを使えばHDDはそんなに必要ありません。
769:名無しさん@お腹いっぱい。
06/08/01 00:04:10 SlGIcJRm0
インターネッツを一つください!
770:名無しさん@お腹いっぱい。
06/08/03 06:36:46 RjdRlgty0
771:名無しさん@お腹いっぱい。
06/08/04 17:18:46 WATol+TC0
gethtmlw 8.0
772:名無しさん@お腹いっぱい。
06/08/04 21:34:49 i4yt53ez0
>>771
うそつけ蛸
773:名無しさん@お腹いっぱい。
06/08/05 06:39:27 TO5G5TVH0
774:名無しさん@お腹いっぱい。
06/08/06 06:46:27 KP+Wbf4R0
775:名無しさん@お腹いっぱい。
06/08/06 22:08:30 60rmuwXp0
動画やネットラジオ保存ソフトのMPX2 Extreme Editionは使い勝手は
良いでしょうか?
保存の初心者なので市販ソフトのほうが無難だと思い、検索したらこの
ソフトしか見つけられなかったもので…。
宜しくお願いします。
776:名無しさん@お腹いっぱい。
06/08/06 23:49:40 oDHHiRG80
>>775
スレリンク(software板:743-746番)
777:名無しさん@お腹いっぱい。
06/08/12 10:17:02 aDABj0Tt0
778:名無しさん@お腹いっぱい。
06/08/14 10:05:49 XTehgQNA0
URLリンク(nirvana.s151.xrea.com)
このサイト、巡集で取得出来ないでしょうか?
.xreaがあるのが原因だと思い
広告削除設定無効にしてみましたが、駄目でした。
StirlingでrobotXにしても駄目でした。
1.56でも駄目でした。
URLフィルタは何も設定してません。
除外リンク-辿らなかったURLに
URLリンク(nirvana.s151.xrea.com)数字
が並んでます。
DL出来る方法があれば、教えてください。
よろしくお願いします。
779:名無しさん@お腹いっぱい。
06/08/14 10:58:28 gq5OngGZ0
とりあえずそのエラーを全部コピーして
ダウンロードリストに貼りつけたら行けたよ
全部落したわけじゃないけど
多分ローカルでのリンクが少しおかしくなるから
その辺はSpeeeedとかで上手くやればいいと主
「?」の位置が変なところにあるから解析に漏れてんのかな
よくわからん。
780:名無しさん@お腹いっぱい。
06/08/17 10:21:39 OWAii3rA0
>>538
のやり方教えて。
781:名無しさん@お腹いっぱい。
06/08/18 01:07:30 JQhDafy70
gethtmlw使ってますが、
URLリンク(www.planwell.com)
のサイトがうまく取り込めません。
cssの画像が取り込めてないようです。
どうやったら、とりこめるんでしょ
782:名無しさん@お腹いっぱい。
06/08/23 06:41:15 FWUQHZv/0
巡集だとふたばの画像が拾えない
783:名無しさん@お腹いっぱい。
06/08/24 09:56:05 QAgZj43b0
ふたばは専用のソフトがあったような
784:名無しさん@お腹いっぱい。
06/08/24 12:35:38 SlKi/ZY60
>>783
紹介きぼんぬ
785:名無しさん@お腹いっぱい。
06/08/24 13:59:14 QAgZj43b0
双助
やよネな
786:名無しさん@お腹いっぱい。
06/08/25 16:59:50 y/GD/V1c0
スレを読んで気になったので質問させてもらいます。
巡集1.71の取得設定欄のHTMLのMETAタグを読まないこと。
これにチェックするとMETAタグで巡回が禁止されているサイトを取り込むことができますが
METAタグを無視してDLする時やローカルでの閲覧に何か問題が起きることはありますか?
>>322や>>758などに副作用や弊害があるかもしれないと書かれていて
それがどういうものなのかわからなくて、チェックしていいものか迷っています。
不具合がありそうな1.56を使うのも不安です。
URLリンク(www.sem-r.com)
URLリンク(www5.plala.or.jp)
ひっかかりそうなのはスタイルシートというやつことかなと思ったのですが
Webサイト製作の経験がないためよくわかりません。
できればどういう弊害があるのか教えてもらえないでしょうか。
787:名無しさん@お腹いっぱい。
06/08/27 22:54:37 /HV2MXu10
URLリンク(heika-love.cool.ne.jp)
ふたば専用ブラウザ「双助」専用スレ part3
URLリンク(www.2chan.net)
やよネな公式サイト
URLリンク(www1.ocn.ne.jp)
788:名無しさん@お腹いっぱい。
06/08/28 14:07:30 9PRpApm+0
掲示板の書き込みが消されたりする記録をのこしたいのですが
波乗り野郎
だと更新された(削除された)掲示板の情報が上書きされてしまいます
何かよいソフトはないでしょうか?
789:名無しさん@お腹いっぱい。
06/08/28 14:10:23 9PRpApm+0
掲示板の書き込みが削除されるログの記録を残したいのですが
波乗り野郎
だと更新された(削除された)掲示板の情報が上書きされてしまい
消えてしまいます。
何かよいソフトないでしょうか
790:名無しさん@お腹いっぱい。
06/08/29 19:03:24 zGeMnRIr0
ダウンロードした動画をメディアにコピーするにはどうしたらいいの?
791:名無しさん@お腹いっぱい。
06/08/30 07:56:37 /cNYJd5Z0
>>790
初心者板で聞きなさい
792:名無しさん@お腹いっぱい。
06/08/30 19:46:27 DURerKoS0
>>790
copy 動画 メディア [enter]
793:名無しさん@お腹いっぱい。
06/09/06 17:04:54 EelDBoKC0
海外のモデルの画像のページなんですが
flashを使用して作られているページを丸ごとダウンロードしたいんですが
おすすめソフトありますか?
794:名無しさん@お腹いっぱい。
06/09/06 18:30:00 uyqfiUko0
巡集
795:名無しさん@お腹いっぱい。
06/09/07 16:15:01 jc8i/ggF0
ベクターからDLしてるのに
IrvineにCnsMinがくっついてくるのはなぜー
796:名無しさん@お腹いっぱい。
06/09/09 01:48:49 4cug9ezl0
Irvineの作者がJWordと提携してるから
797:名無しさん@お腹いっぱい。
06/09/09 11:58:19 2cCsZj9l0
>>786がわかる人いませんか?
798:名無しさん@お腹いっぱい。
06/09/09 12:51:44 S9JR/hNz0
>>797
「METAタグ」で検索汁
799:名無しさん@お腹いっぱい。
06/09/09 13:21:44 2cCsZj9l0
ありがと
勉強してきます
800:名無しさん@お腹いっぱい。
06/09/10 10:59:25 AZjNt6d50
>>796
そうだったのか
今まで知らずに使ってたとは恐ろしす・・・
801:名無しさん@お腹いっぱい。
06/09/10 13:26:10 7oFMcAHG0
教えてください
ど素人な質問だと思いますが・・
動画のデモをダウンロードする時
メディアプレーヤーでダウンロード
する場合と、何も画面は変わらなくて
左下にダウンロード中と出る時があります。
後の場合の動画ををiriaやイメージダウン
ローダーで回収に行ってもオブジェクトが
移動しましたと出てうまくいきません・・・
巡集も試しましたが。
諦めるしかないのでしょうか。
よろしくお願いいたします
802:名無しさん@お腹いっぱい。
06/09/10 13:29:11 uJJpZWds0
URLださないと。
803:名無しさん@お腹いっぱい。
06/09/10 20:29:39 36AwB+xG0
Refererを設定すればいけるんじゃないの
と適当に答えてみる
804:名無しさん@お腹いっぱい。
06/09/13 02:59:30 wJvEZSj40
URLリンク(www.imagegarden.net)
ここのサイトの画像をまとめて落としたいんですけど何がいいでしょうか?
ちなみにダウンロードのソフト使ったことありません!!
805:名無しさん@お腹いっぱい。
06/09/13 03:36:31 Hdcrdpz20
level: ?精?
体力: 2515 / 2709
魅力: 2436 / 7582
エロ本屋行った方がいいと思う。
806:名無しさん@お腹いっぱい。
06/09/13 08:23:15 XLQYnqX20
>>804
スレリンク(software板)
できるかどうかわからんけど
807:名無しさん@お腹いっぱい。
06/09/13 12:43:40 wJvEZSj40
>>806
ありがとうございます。ですが、だめでした…orz
808:名無しさん@お腹いっぱい。
06/09/23 16:07:21 v9oHY50j0
他のアプリケーションによるダウンロードが始まると
自分が行っているダウンロードを一時停止して、
他のアプリケーションによるダウンロードが終わると
ダウンロードを再開するような機能を持つ
ダウンローダーはありませんか?
809:名無しさん@お腹いっぱい。
06/09/23 23:32:45 G4qzdWG10
ない
810:名無しさん@お腹いっぱい。
06/09/29 12:30:07 e0Al5cww0
ストリーミング配信って、落すたびに違うファイルになるの?
getasfstreamとnettransportdで同じ物落としたんだけど、
ファイルサイズとかデータが違っているんだけど。
聞いてみたら、どっちも一応流れる内容は同じっぽいけど。
811:名無しさん@お腹いっぱい。
06/09/29 12:36:48 8EQD7cx+0
>>810
スレ違い。
GASは独自にIndexを付加するので、他のDLソフトとは若干ファイルの中身が変わる。
812:名無しさん@お腹いっぱい。
06/09/29 13:06:32 e0Al5cww0
なるほど、そうなのか。
どもありがとです。
813:名無しさん@お腹いっぱい。
06/10/05 00:36:15 AcBVrZo80
画像のリンク先が別鯖になってるページを一括DLする方法を教えてください
今はそのページを表示し右クリックでIrvineにすべてのURLを送る方法でやってるんですが
画像が置かれてる鯖がばらばらでファイル名を連番でリスト化する事ができません
Gethtmlだと設定を甘くしないと落とせず、そのため無関係のファイルが1000以上もかかって
DLが止まらず強制終了する羽目になりました
814:名無しさん@お腹いっぱい。
06/10/05 03:42:41 AyCykCBW0
>>813
2:.(jpe?g|gif|png)
0:*
815:813
06/10/05 17:30:57 AcBVrZo80
>>814
出来ました。ありがとうございましたm(_ _)m
816:名無しさん@お腹いっぱい。
06/10/09 02:44:15 0hr+FYWF0
URLリンク(www.imagegarden.net)
ここの画像を全部落としたいんですが何を使えば一番よいですか。
今までDLツールはirvine使ってたんですが・・・。
817:名無しさん@お腹いっぱい。
06/10/09 10:09:30 YVk1nwxD0
>>816
ない
818:名無しさん@お腹いっぱい。
06/10/24 07:52:11 30KjC2v30
>>816
moeBBS
819:名無しさん@お腹いっぱい。
06/11/04 16:36:15 mL+rvDGK0
サイトを丸ごと取り込みたいのですが、フォルダに保存しておく方法が分かりません。
WEBOXの中に取り込むことは出来たのですが…。
圧縮でも何でも良いので保存する方法をご教授お願いします。ちなみに
何故か巡集は蹴られてしまったので…。
820:名無しさん@お腹いっぱい。
06/11/04 16:45:48 mL+rvDGK0
サイトを丸ごと取り込みたいのですが、フォルダに保存しておく方法が分かりません。
WEBOXの中に取り込むことは出来たのですが…。
圧縮でも何でも良いので保存する方法をご教授お願いします。ちなみに
何故か巡集は蹴られてしまったので…。
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4168日前に更新/239 KB
担当:undef