[表示 : 全て 最新50 1-99 101- 201- 301- 2chのread.cgiへ]
Update time : 07/16 14:10 / Filesize : 93 KB / Number-of Response : 378
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト3



1 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/02/06(火) 19:13:37 ID:SEh3Iu6i0]
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
pc9.2ch.net/test/read.cgi/software/1085915277/

32 名前:こまったさん [2007/03/21(水) 23:32:49 ID:SFbcr1In0]
他の掲示板にも書込みしたのですが返信がないのでこちらにも書かせて
いただきます。パソコンのソフトを探しています。

まずキャプチャソフトで、そのページの画面に表示されている部分だけではなく
上から下まで全てキャプチャ出来るソフトでなおかつjpegなど画像形式での保存ではなくhtml形式で保存が出来るソフト。
もっと具体的な内容なのですが、例えば
・ttp://www.windsor-hotels.co.jp/0601/hotel/main.html
のサイトのキャプチャをしたいのですがどうしても、保存しても真っ白になって表示されたり、
00/100のように表示されてしまいます。

次に、最近多いFlashを使用したWebサイトをFlashも含めて丸ごとサイト自体を保存できるソフト。
・ttp://www.actors.jp/home.htm
のサイトを丸ごとインターネットで接続して閲覧しているときと同じように保存したいのですが、
それもどうしても真っ白になって表示されたりしてしまいます。

を探しています。いずれもFlashのみの保存ではなくWebページ全体での保存が希望です。
フリーソフトでもシェアソフトでも構いません。
今までベクターで検索したり、色々と購入して試してきましたが理想通りに保存できず・・・。
皆さんの知識を教えていただければ助かります。よろしくお願いします。

33 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/22(木) 01:20:24 ID:6cAWaJRR0]
マルチポスト乙

34 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/22(木) 03:29:11 ID:mWobe70O0]
>今までベクターで検索したり、色々と購入して試してきましたが
詳しく。

35 名前:こまったさん [2007/03/22(木) 05:05:00 ID:9uATb/Gl0]
>>34
今まで試してきたソフトは沢山ありすぎますが記載させていただきます。

<キャプチャソフト>
HyperShot/Instant Camera/SCap/Super Capture (スーパーキャプチャー)
WebScan/メモメモ+/Atropos/AutoCapture/ClipDesk/CrenaHtml2jpg
EasyCapture 2002/EzCutter/GOLD Japan Snap/IECapture/MiCapture
PHARMACY/ViewletBuilder4 PRO/WebExe/Webよ止まれ 〜EternalWeb〜
WinCapture/WinCatch!!/WinShot/みやきゃっぷ/ワンタッチ全画面キャプチャ
ワンタッチ全画面キャプチャ2/画像キャプチャ「おとりなさい」/画面キャプチャ君
画面ライター

<ダウンロードソフト>
1・2のHTMLダウンロード From CGI/INTERNET POWER DOWNLOAD 3.0
iScrap/ダウンロードNinja 4 for Windows/ダウンロードSpider4
驚速ダウンロードSUPER/紙copi/AutoURL!/CompleteGetter
EasyWebHunter/File Picker/Firefox/FlashGet (JetCar)/GetHTML
GetHTMLW/PageDown/webget/WeBoX/WEB収集ブラウザ/ダウンローダー雨
波乗野郎

になります。よろしくお願いします。

36 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/22(木) 09:07:08 ID:Vttpzofp0]
巡集は?

37 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/22(木) 16:16:32 ID:mWobe70O0]
>>35
ブラウザのファイルメニューから保存を選択すればよろしい。

38 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/22(木) 20:14:11 ID:NBcFje480]
>>32
safariでダウンロード
www.apple.com/jp/safari/

39 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/23(金) 06:25:27 ID:PBBDt6fb0]
> 巡集は?

それ Plagger で。

40 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/23(金) 08:47:04 ID:vfc6iUOY0]
めんどくさそう
ttp://www.otsune.com/fswiki/plagger.html



41 名前:こまったさん [2007/03/23(金) 16:19:04 ID:S6LCnbae0]
>>36
>>37
>>38
>>39
>>40

ありがとうございます。
試してみます。

42 名前:名無しさん@お腹いっぱい。 [2007/03/25(日) 21:49:09 ID:QJr1/7Rw0]
ダウンロードリストにて出力ファイル、フォルダ等を指定して
ダウンロードできるようなソフトってありますでしょうか?

43 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/03/25(日) 22:40:31 ID:0FOGxNpt0]
>>42
ダウンローダー総合スレ
pc11.2ch.net/test/read.cgi/software/1162627679/

44 名前:名無しさん@お腹いっぱい。 [2007/04/25(水) 20:11:26 ID:5UFLTEQ+0]
GETHTMLWで取得終了しましたが、トップページからリンクされている
別のサイトのページが取得できていませんでした。
別のサイトのページだけ取得するにはどうすればいいでしょうか。

45 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/25(水) 21:12:34 ID:tskrCebI0]
ttp://jugem.jp
ここのブログを使ったサイトをDLしたいのですが
巡集ではうまく落とすことができず困っています

「ダウンロードするURL」欄にhttp:/******.jugem.jpといれて
ダウンロード開始ボタンを押しているのに
そのページにリンクされてるページがDLできないのです

どなたかブログを丸ごと取り込むコツを教えてください
また巡集以外で簡単に取り込めるソフトがあればおしえてください

46 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/25(水) 22:06:10 ID:MVpOPi4X0]
ttp://***.jugem.jp/?month=200506
ttp://***.jugem.jp/?month=200507

こんなのがログみたいだから、
連番作成して適当なダウンローダーで落としたらどうかな
サイト構造の維持は厳しいだろうけど

47 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/04/25(水) 22:45:13 ID:tskrCebI0]
>>46
やってみます
ありがとうございます

48 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/03(木) 19:13:33 ID:qXeb/TgM0]
TeleportがSWFリンク辿ってくれたらなあ…

49 名前:名無しさん@お腹いっぱい。 [2007/05/11(金) 21:12:46 ID:deAEqze90]
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?

50 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/11(金) 21:38:41 ID:mMovTTY80]
>>48
遅レスながら同意



51 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/11(金) 21:44:26 ID:i6HOkKUj0]
NT一本で十分だろ。

52 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/11(金) 21:44:57 ID:i6HOkKUj0]
スレチすいませんでした。

53 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/12(土) 16:53:59 ID:t4vHNRDV0]
GETHTMLWが8になったね

54 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/13(日) 15:18:33 ID:p2YpN1ad0]
SDP Downloaderについての質問です。

このソフトでcmm://〜.wmvというファイルをダウンロードしているんですが、
何度やっても99%のところで止まってしまいます。
どうすれば100%にできるんでしょうか?

55 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/13(日) 16:26:52 ID:q23NirUR0]
今の取り込みソフトって、ロールオーバーって取り込めるソフトが大半なの?
それとも全く無いの?
昔、ダウンロードNINJAで1→2→3と試してもことごとく出来なかったから、
もう取り込みはあきらめてしまったのだが。
できるんなら、また取り込みやってみようかなと思うんだが。

56 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/13(日) 17:16:29 ID:WJenwP960]
>>54
スレタイ嫁
スレ違い

57 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/14(月) 15:34:51 ID:v+uhQcsb0]
XPSP2
巡集  ver 1.7.1A

巡集のlog開いた時の「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
前使ってた時は、小さかったんですが、新しく入れなおしたら、ちょっと大きくなってました。
ブラウザの文字の大きさの設定は「最大」ですが
前の巡集は、ブラウザの設定で言うと「中」の大きさでした。
後 「2007/05/14 15:11 : webサイト名 : URL」
とかってなってますが、URLの部分を消した状態で保存する事って出来ないでしょうか?

両方ともlogをメモ帳とかで開いて、書き換えるしかないですか?
文字の大きさは、何もしなくても小さかったと思うんですが・・・。

今のlogは↓のようになっています、どなたか教えてください。
長くなってすいません、よろしくお願いします。

<html>
<head>
<META http-equiv="Content-Type" content="text/html; charset=Shift_JIS">
<title>HTML参照</title>
</head>
<body>
2007/05/14 15:11 : <a href="ファイルが保存されているパス">タイトル</a> : <font color=red>URL</font><br>
</body>
</html>

58 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/14(月) 16:18:41 ID:934RTAGf0]
>「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
巡集は関係ないんじゃないか?
使ってるブラウザの設定の問題だろ

>URLの部分を消した状態で保存する事って出来ないでしょうか?
なぜ消したいのかが理解できないが、「URLの部分」だけ消すことはできない
HTML参照(log)そのものを残したくないなら設定→保存→履歴HTMLのチェックを外せばいい

59 名前:57 mailto:sage [2007/05/14(月) 16:21:11 ID:v+uhQcsb0]
>>58
いえ、前の巡集のlogには何やら色々コードが書いてあって
それで、小さくなってたと思います。
>>57みたいに、シンプルじゃありませんでした。
ブラウザの設定は変えずに、そのままでも小さかったです。

HTML参照(log)を残したいわけではなく、赤字のURLの部分を消したいんです。

60 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/14(月) 16:57:50 ID:934RTAGf0]
>>59
俺の巡集logにはそんな記述はないので、小さくなってたと思いますと言われても
ああそうですかとしか答えられない

後半は無理。
>「URLの部分」だけ消すことはできない
って書いただろ?
それでもあえて消したいなら、自分で書きかえるか全部消すしかないってことですよ



61 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/14(月) 17:05:06 ID:AYp/+A+V0]
漏れならSpeeeedでスタイルシートを挿入して
URLの部分を消すけどね
それだとログの追加時におかしくなる可能性はあるけども

このソフトは時々行方知れずになったから
探せば文字小な過去ヴァージョンをうpしてるところもあるんじゃないの


62 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/14(月) 17:09:46 ID:934RTAGf0]
念のために昔のバージョン1.44とと1.56と最新バージョン1.7.1Aのlogを比べてみたけど
全く同じだったよ

63 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/14(月) 17:15:39 ID:934RTAGf0]
もしかして1.00とかの超初期バージョンの話なのか?
だったら作者さんに要望を出したほうが早いんじゃないかねえ

64 名前:名無しさん@お腹いっぱい。 [2007/05/23(水) 11:48:30 ID:p9K8Da5+0]
rapgetでプロクシリストごと登録してひたすら待ってるんですが
いっこうに落ちてきません。これって自動的にリストにあるプロクシを
切り替えるんですよね?!(´・ω・`)

65 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/23(水) 11:57:25 ID:Ht77tPJ30]
>>64
ダウンローダー総合スレ
pc11.2ch.net/test/read.cgi/software/1162627679/

66 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/24(木) 18:28:19 ID:P17Tzbhp0]
巡集の最新版で、下記HPを保存しようとしましたが
画像が保存できませんでした。設定を何も変更していないのがいけないのでしょうか?
ttp://blog.goo.ne.jp/japanarts_mballet/

weBOXでは取り込みできましたが、後からの閲覧の簡単さからすると巡集が嬉しいのですが
どうすれば、画像も取り込めるようになりますか?

67 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/24(木) 18:56:12 ID:BTZH/2CX0]
プログラムはあなたが望んだように動くのではない
あなたが命じたように動く

68 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/27(日) 07:01:51 ID:vY46+4wG0]
晒すなよくず

69 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/05/27(日) 09:54:24 ID:84NDCMzr0]
サイト管理人降臨?

70 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/03(日) 09:43:11 ID:gej6GeXW0]
このCM映像ダウンロードしたいのですが、可能なソフトないでしょうか?
www.suntory.co.jp/softdrink/oolongtea/cm/album.html



71 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/03(日) 09:50:45 ID:jVi4CScL0]
>>70
>>65


72 名前:名無しさん@お腹いっぱい。 [2007/06/07(木) 04:27:10 ID:w9jL1zcV0]
ダウンロードソフトって、どうして必要なのか、わからなくて、
とりあえず、無料のソフトをおもいきり、いれてみた。
それで、インターネットをブラウジングしていると、動画とか音楽のサイトを
見ていると、わけのわからないアイコンがいくつも出てくる。
邪魔だから消す目的で、適当にいじると、勝手にダウンロードが始まって、
ビビった。それも、複数のソフトで同じファイルを同時ダウンロードするんだね。
これで、やっとダウンロードソフトの意味がわかった。
急いで、アンイストールしたのはいうまでもない。
つくづく漏れってパソコン暦長いのにアホだと思ったよ。

73 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/07(木) 12:18:09 ID:+MIU/Wbh0]
文才があるな

74 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/08(金) 12:43:31 ID:llkTmUkg0]
>>72
必要な理由

ブラウザの右クリックで保存するよりも速いから
ダウンロード後のファイルの整理をしやすいから

等など色々理由はあるけどここでいう「ダウンロード」は
閉鎖前のサイトをダウンロードしてローカルで閲覧したりとかそーゆー・・・

75 名前:名無しさん@お腹いっぱい。 [2007/06/09(土) 22:41:03 ID:HLXTvkEK0]
まるごとダウンロードと書いてあっても、swfの取り込みは簡単でないね。
swf取り込んでも、ページに配置されてなかったりとか、、。
みんなどうしてんの?

76 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/09(土) 22:46:06 ID:4465SMjJ0]
そんなの糞サイトだと罵る
ダウンロードするしないに限らずね

77 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/10(日) 00:04:43 ID:LgHJT65n0]
swfは専用のやつを使ったほうが良い

78 名前:名無しさん@お腹いっぱい。 [2007/06/10(日) 00:41:01 ID:NtDqBrEQ0]
htmlとswfは関連付けたままで落としたいのだが、、
無理なのかな?

ところで、ここにいるやつらはどんなサイトを落としているの?

79 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/10(日) 00:56:20 ID:LgHJT65n0]
それなら巡集はどうよ
単純な作りのものなら大抵のものは落とせるはず

80 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/10(日) 02:41:43 ID:Uw9zFxYD0]
丸ごと落としたいサイトがめっきり減ったのが
ソフトをあまり詳しく調べなくなった大きな要因だな(苦笑



81 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/16(土) 09:07:23 ID:KdRb8Kiy0]
巡集でJUGEMのブログを保存してみたんですが、
****.jugem.jp/ では最初のページしか保存されず、カテゴリごとに保存しても
コメントやその他のリンクを開くと「ページを表示できません」になってしまいます。
丸ごと保存するには何か設定が必要なんでしょうか?


82 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/16(土) 09:50:07 ID:JrRpMphm0]
>>81
最新版の1.7.1Aで公式ブログのinfo.jugem.jp/で実験してみた
残りファイル数が1万を超えそうになったから途中までしか試してないし結構適当だけど

・URL欄にinfo.jugem.jp/
・取得設定でクエリー(ファイル・HTML両方)にチェック
・URLフィルタの上部「以下の文字列に〜」と「上記のURLに〜」にチェックして
 */info.jugem.jp/*を登録

あとは自分で試行錯誤してください

83 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/16(土) 09:56:46 ID:JrRpMphm0]
あと、ブログのDLは普通のサイト以上に鯖に負担がかかるので
頻繁にダウンするのはやめたほうがいいかも

84 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/16(土) 09:59:28 ID:JrRpMphm0]
なんどもすまぬ
×・取得設定でクエリー(ファイル・HTML両方)にチェック
○・取得設定でクエリー(ファイル・HTML両方)にチェックを追加

85 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/16(土) 10:22:30 ID:KdRb8Kiy0]
>>82-84
ありがとうございます!
今DL中です。時間かかりそうですが、試行錯誤してみます。

86 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/17(日) 17:01:09 ID:5bFjc7r40]
>>49 :名無しさん@お腹いっぱい。 :2007/05/11(金) 21:12:46 ID:deAEqze90
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?

同じく同意

87 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/17(日) 19:46:05 ID:cpCk+QSv0]
ない

88 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 00:06:58 ID:pUUtjIyw0]
しかし埋め込み動画や細工のかかった音楽と違って
一気にダウンロードしてやろうと思うサイトがぼこぼこできるわけじゃないというのが
このスレの盛り上がらない原因かも
自分も落とす目的サイトを失ったまま腐らせてるソフトがいくつも…

89 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 07:56:56 ID:RyvgTM1J0]
前におまえら何落としてるんだ?と聞いた奴がいたけど
俺はネット小説サイトをダウンしてる
小説は読むのに時間がかかるからどうしてもネットに繋ぎっぱなしになるけど
そゆのはなんだか怖いので、一気に落として好きなときに読む

90 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 15:56:26 ID:pIa8QOUC0]
>>89
まさか今時ダイヤルアップなの??



91 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 17:12:58 ID:L7lfwHZK0]
うんにゃ。ブロードバンドですよ
ネットに繋ぎっぱなしが嫌いなだけ

92 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 19:25:55 ID:pIa8QOUC0]
>>91
常時接続なのに、わざわざルータとかモデムの電源切ってる、って事?

93 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 23:01:30 ID:A1Kcs3kZ0]
30分以上ネットに接続してないと自動で切れるようにルーターの設定してる
どのルーターにもそういう機能あるだろ?
いちいち設定画面を呼び出して切るのなんて面倒なことはしないよ

94 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/21(木) 23:12:24 ID:pUUtjIyw0]
常時ファイルの受け渡しをしている我が家のPCルーターでは(ry

95 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/22(金) 12:58:08 ID:tgIIcn/Y0]
自動でやるにしても、一々切る意味がサッパリ分からん。

96 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/22(金) 21:30:54 ID:oY0InkBF0]
Windowsはセキュリティホールの塊だから繋ぎっ放しでなんか進入されたら嫌
かといって他のOSだと仕事にならんし

97 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/23(土) 09:29:22 ID:rIzu0jgZ0]
animeEDENで使えるダウンロードするソフトとか知りませんか????
フラッシュゲットは使えませんでした。よろしければ教えて下さい。

98 名前:名無しさん@お腹いっぱい。 [2007/06/23(土) 15:42:14 ID:cxs0M3OE0]
age

99 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/23(土) 19:54:44 ID:8uttgXUI0]
weboxみたいな糞じゃなくて
もっとまともなの無い?

100 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/23(土) 20:18:04 ID:h2a2iVoP0]
>>97
スレチだよ。こっち池
ダウンローダー総合スレ
pc11.2ch.net/test/read.cgi/software/1162627679/



101 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/24(日) 12:48:27 ID:vyIwC8Dh0]
俺も
有料でもいいから
使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…

102 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/24(日) 12:51:00 ID:BKpQ2BQw0]
age


103 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/24(日) 14:04:27 ID:W4JWzNtg0]
> 使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…

define "使い勝手が良く"
define "まともに動く"

104 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/24(日) 16:19:01 ID:rw6d1fYO0]
フリーはGetHTMLと巡集とWeBoXがあれば事足りる

105 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/24(日) 23:20:22 ID:5kmu6rvm0]
>>104
シェアは?

106 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/24(日) 23:29:43 ID:R0y8b7g00]
やっぱ「このサイトのあれはどう落とすんですか?」みたいな音楽や動画を落とす質問も
あまりこないからこのスレ流行らないのかな

107 名前:名無しさん@お腹いっぱい。 [2007/06/25(月) 00:45:53 ID:K6zCrBFq0]
>>82
81じゃないですが
その方法で1.71Aで試してもHTMLとして取得できません。

_day=20051015
こんなかんじの拡張子のないファイルがダウンロードされてしまいます。

巡集ではむりなのでしょうか。


108 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/25(月) 01:16:12 ID:S2S8ZHTX0]
中身はHTMLじゃないの

109 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/25(月) 07:34:26 ID:MF8Xgs1n0]
だね

110 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/25(月) 07:36:46 ID:MF8Xgs1n0]
送信ミス
>>107
見れないわけじゃないんでしょ?



111 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/28(木) 17:58:02 ID:BW5JcD+Y0]
巡集、設定も簡単で良いんだけど、サイトによっては固まる事があるんで
もう少し安定性が欲しいね。

112 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/28(木) 20:11:42 ID:lM1iLQ6/0]
それは鯖側の問題でわ

113 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/28(木) 21:00:16 ID:L41fKHeH0]
>>112
いや、WebAutoだと問題無く落ちて来るんでソフト側の問題だと思う

114 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/28(木) 22:32:12 ID:bcAsTfsR0]
今までの経験だと、フィルタ設定が邪魔をしていることがあった。

115 名前:111,113 mailto:sage [2007/06/28(木) 22:47:44 ID:PaBI4yQU0]
ちなみに固まるのは↓のサイトで、毎回同じページで止まる
フィルタも外してみたり、設定も一通り試してみたんだけどね

gamerssquare.kanpaku.jp/

処理が止まる時に表示されてる情報は↓

タイトル: -ゲーム攻略・いきなり許婚!〜姫様のお輿入れ〜(ハ
Referer: gamerssquare.kanpaku.jp/kouryaku1.html
推定残りファイル数: 8728
ダウンロード完了数: 1256

116 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/29(金) 07:15:33 ID:/hYK4rPc0]
晒してんじゃねーよくず

117 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/29(金) 07:53:28 ID:ACHmcAQj0]
最新バージョン使ってる?

118 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/29(金) 08:38:08 ID:tVmtezGr0]
>>117
1.7.1A使ってる

119 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/29(金) 12:13:07 ID:reaf/Fky0]
>>166
問題が起きてる箇所を晒さなきゃ、他の環境でも同じ問題が起きるのか、
解決方法があるのか、って事が調べようがないと思うんだが

120 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/29(金) 17:17:52 ID:5XaCw8jN0]
試しにデフォ設定で仕掛けてみたけど
No Responseのファイルが多いなあ
負荷がかかると弾くようになってるとか?



121 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/06/29(金) 19:01:49 ID:eQCjGEX50]
>>120
検証thx!
やっぱり他の環境でも問題あるみたいですね
しかし、WebAutoだと上手く行くのは何か処理が違うのか…
出来れば巡集1本に絞りたいんだけど、しばらくは2本立てで行くしかないかな

122 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/07(土) 17:08:31 ID:Tb+R8x9h0]
Flashの多重構造のページは、どうやっても落とせないのかな。
Flashの中に絶対パスが入ってると、どうやってもローカルだけでは無理だよね…

123 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/09(月) 03:09:31 ID:oVQcI/2j0]
メンテが行われてるやつで、まともな丸ごと取り込みソフトプリーズ

124 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/09(月) 10:01:37 ID:sjq9Vusg0]
>>123
>>104を使い分け

125 名前:名無しさん@お腹いっぱい。 [2007/07/16(月) 15:55:23 ID:dH1p+oBA0]
エロサイトのさ、動画だけを勝手にダウンロードしてくれるソフトある?

126 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/16(月) 17:23:39 ID:phqg+eth0]
>>125
>>100


127 名前:名無しさん@お腹いっぱい。 [2007/07/17(火) 11:18:23 ID:eiV0COaA0]
W-ZERO3 esで50くらいRSSに登録してあるブログの未読記事をサクサク読みたいと思っています。(速度は×2です。)

まず母艦の巡集でDLしたものをmobisyncで同期して読もうと試みたのですが、
巡集でDL時に差分のみDLができない。
更新分だけ読みたいのに全部DL⇒全部同期
その結果、データ同期に非常に時間がかかる
フォルダ階層が複雑で見難い
ということで、上記問題をクリアしたダウンローダーはありますでしょうか。有償でも構いません。


128 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/17(火) 12:05:51 ID:AMtOc9ci0]
ない

129 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/17(火) 12:13:20 ID:+o4jIrbj0]
>>123
>>4の中で継続的に更新があるのはもう外国産のばかり
国産ものはかろうじて3ヶ月とか5ヶ月前に1回程度
この手のソフトは更新が止まってることが絶対的な価値じゃないので…

ちなみに
WeBoX
webox.sakura.ne.jp/software/webox/
ページ移動してました

130 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/17(火) 18:25:18 ID:3CDTJq3J0]
WeBoXマンセー



131 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 02:24:59 ID:jNElRSxC0]
今、まともなのを有料でもいいから作ったら売れるはず

もう3種類ぐらいのツールをあれこれ使い倒してやっと
そこそこダウンロード出来るってのはいやすぎるwww

132 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 02:45:08 ID:A3U8hVXH0]
> 今、まともなのを有料でもいいから作ったら売れるはず

その「まともなの」の要件を定義してくれれば作ってやるぜ。

133 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 10:39:02 ID:jNElRSxC0]
>>132

>>1-131

134 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 11:53:51 ID:IJa0GjXb0]
巡集がメタタグで巡回拒否するのをとっぱらって
ブログDLの機能を充実させてくれたら最強だと思うんだけどな
作者はまだ株にはまってんの?

135 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 14:39:59 ID:GiA8S2Rz0]
巡回拒否解除の方法は過去スレを読めば分かる

136 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 17:39:00 ID:D7l7CXE60]
Ctrlキー押しながらってやつ?
METAタグを読まないことによる弊害があるってことだけど
そこんところはどうなの?

137 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 17:42:38 ID:D7l7CXE60]
ごめん見逃してた
バイナリエディタで云々てことか

138 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 21:22:04 ID:A3U8hVXH0]
>>133
意味わかんね

139 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 21:25:37 ID:VkN+zF+r0]
「まともなの」が具体的には言えないただの口先野郎ってことじゃね?

そういう俺もこの手のソフトは何種類も入れてるがなーw

140 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 21:39:25 ID:A3U8hVXH0]
まあ、定義が出てきたところで釣り宣言する予定ではあった。



141 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 21:43:06 ID:VkN+zF+r0]
後出しの釣り宣言は寒いっすよ先輩
まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから
使い分けなんなりくらいすればと

142 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/20(金) 23:57:02 ID:jNElRSxC0]
>>139
>「まともなの」が具体的には言えないただの口先野郎ってことじゃね?
>
>そういう俺もこの手のソフトは何種類も入れてるがなーw

かわいそうにw

143 名前:名無しさん@お腹いっぱい。 mailto:age [2007/07/21(土) 23:39:55 ID:5rR7bwwf0]
Jugem取り込みはどれが適してるの?

巡集は正常に取得できないので抜きで

144 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/21(土) 23:46:00 ID:eQqNd7ws0]
ブログか…とりあえず取り込みたいページ挙げてみたら?(相手には迷惑だろうけど)
正直取りに行く興味はわかない

145 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/22(日) 01:40:06 ID:AU6DfnCq0]
>>143
できますが何か?

146 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/22(日) 02:56:15 ID:KKhFyJY+0]
>>135
前スレなら落ちてるけど


147 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/22(日) 02:58:27 ID:KKhFyJY+0]
31 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/03/12(月) 09:08:50 ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。

これって現バージョンでも有効なん?

148 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/22(日) 08:39:41 ID:AU6DfnCq0]
606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk
>>181
Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、


これ回避できなくなっていませんか?


612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606
Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避


613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612
ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?


614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。

149 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/22(日) 09:30:24 ID:b5dtrcSy0]
ググればキャッシュで読める

150 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/30(月) 22:40:42 ID:EerNmg9U0]
β1339



151 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/07/30(月) 22:52:02 ID:ouuQO56l0]
どこっすか?

152 名前:名無しさん@お腹いっぱい。 [2007/08/06(月) 00:41:28 ID:j9RPW2Jd0]
ここは>>125みたいなソフトの話ではないの?
ページを丸ごと保存する場合だけの話?

153 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 01:00:18 ID:jhVJeDzL0]
オカンに「エロ動画とかエロ画像を根こそぎDLしといて」って頼め。

154 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 01:42:36 ID:uM1LJPuz0]
>>152
スレ違い
YES

155 名前:名無しさん@お腹いっぱい。 [2007/08/06(月) 05:49:52 ID:cR7sHFPq0]
しかし、ダウンロードソフトって、いつからこんなに派手な行動をするようになったの?
ダウンロードできるものの上にポインターをおくと、
アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。
YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが
わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに
いれるかどうか選択画面があったけど、スタートアップにはいれていない。
それなのに、常駐しているみたいに勝手にたちあがる。
ダウンオタにはたまらなく魅力的なソフトだろ。
ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。

156 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 08:54:05 ID:3ve9QpmD0]
>>155
>>100pc11.2ch.net/test/read.cgi/software/1165934465/でやれ


157 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 12:02:10 ID:ZR1S+mu70]
>>72
>>155


158 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 17:04:09 ID:qUygctRD0]
phpで書かれているサイトで気付いたんだけど、
phpそのものはルートディレクトリに置かれているように見えるけど、
画像の相対参照を見たら、実はもう1個下の階層で動いていた

scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ

159 名前:名無しさん@お腹いっぱい。 mailto:age [2007/08/06(月) 18:25:43 ID:UW4kC6EQ0]
>>144
とりあえずこれでおねがい
kaela.jugem.jp/

>>145
方法を教えてください。

160 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 21:01:05 ID:iz1Y6S0t0]
>>159
>>82




161 名前:名無しさん@お腹いっぱい。 [2007/08/06(月) 22:09:06 ID:UW4kC6EQ0]
>>160
>>107と同じ


162 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/06(月) 22:21:28 ID:iz1Y6S0t0]
>>161
>>108


163 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/07(火) 20:40:19 ID:zDYP6yL/0]
巡集のHP消えた?

164 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/07(火) 21:20:31 ID:rmt4tXIP0]
無くなってるね
移転の告知とかも見た覚えがないけど

165 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/07(火) 22:53:48 ID:8FY65nq50]
株日記も消えてる・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。

166 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/07(火) 23:01:24 ID:Rnkdrzsb0]
うーん
これは本気で夜逃げでもしたかねえ
心配だ

167 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/15(水) 21:42:41 ID:xF/zK2Ra0]
>>163
ヘルプのページのミラーってあるの?
親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz

168 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/15(水) 22:32:55 ID:HzWu+63s0]
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず

169 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/15(水) 22:43:51 ID:k3HM8b2B0]
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。

170 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/25(土) 07:27:47 ID:wJoGTH6/0]
10日書き込み無し。
巡集も消えたまま。



171 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/25(土) 14:25:43 ID:3h2qNoKX0]
まだだ・・・っ!まだ終わら(ry

172 名前:名無しさん@お腹いっぱい。 mailto:age [2007/08/27(月) 01:53:20 ID:YfjxAlx50]
寿限無取り込みできないからなぁ巡集は。

173 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/27(月) 07:47:02 ID:pl/iWHG90]
できると何度言えば

174 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/01(土) 16:53:11 ID:UEbpedFs0]
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか

175 名前:名無しさん@お腹いっぱい。 [2007/09/15(土) 17:34:27 ID:shGMdTNK0]
巡集みたいにJavascriptを辿ってくれるソフトはないものか

176 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/16(日) 02:04:46 ID:dftJqUuf0]
>>175
_gu
Web Auto(シェアウェア)

177 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/17(月) 11:06:49 ID:wfwucYIg0]
あるのか!サンクス

178 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/17(月) 11:22:10 ID:wfwucYIg0]
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか

179 名前:名無しさん@お腹いっぱい。 [2007/10/03(水) 21:43:58 ID:pWzSNQy50]
具体的に
news.livedoor.com/article/detail/3312533/
このページとそこから下の各画像ページを落としたいのですが、
可能なソフトはありますか?

180 名前:名無しさん@お腹いっぱい。 [2007/10/06(土) 10:56:58 ID:2ZPpgW+10]
このスレこんなに人がいないんだ・・・



181 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/06(土) 16:02:36 ID:BjxdSh550]
しょこタン可愛いな。

182 名前:名無しさん@お腹いっぱい。 [2007/10/08(月) 20:24:11 ID:LFWOR3Ya0]
>>179
画像だけならこれとかでいけるけど
www.freewarefiles.com/program_5_173_35481.html

183 名前:名無しさん@お腹いっぱい。 [2007/10/09(火) 22:54:00 ID:uQB0ZqdW0]
Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
www.g-area.org/pgmain.htm
よろしくお願いします。

184 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/10(水) 08:28:33 ID:7BTa/w3d0]
>>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです

Irvineのことは専用スレへ
pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
pc11.2ch.net/test/read.cgi/software/1190549945/


185 名前:名無しさん@お腹いっぱい。 [2007/10/18(木) 23:24:07 ID:7tXtR67v0]
巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです



186 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/18(木) 23:36:32 ID:HXM7GKrN0]
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか

187 名前:185 mailto:sage [2007/10/19(金) 09:27:44 ID:io5KB4Vk0]
できました!
試しに風呂敷確認君で巡集を使ってみたら
chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました
ありがとうございました>>186

188 名前:185 mailto:sage [2007/10/19(金) 09:29:49 ID:io5KB4Vk0]
どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに

189 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 08:06:59 ID:X9NjLM0s0]
ttp://fantasticland.web.infoseek.co.jp/index.html

上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?

190 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 08:25:35 ID:X9NjLM0s0]
初期設定保存→初期設定で保存



191 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 20:52:21 ID:MXXrESKM0]
落とせないのはたぶん↓これのせい

>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。

取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる

192 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 22:22:35 ID:X9NjLM0s0]
>>191
ほんとだ、できました
どうもありがとうございます

193 名前:名無しさん@お腹いっぱい。 [2007/11/20(火) 19:31:24 ID:UO8+XWOH0]
ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます


194 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/11/20(火) 20:35:52 ID:+BL7nhGN0]
iriaかIrvine

195 名前:名無しさん@お腹いっぱい。 [2007/11/21(水) 18:58:15 ID:TdDk4QuK0]
すいません
不足してました
ページとしての体裁を保ってです

これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・


196 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/11/21(水) 19:52:04 ID:yPEtRi6u0]
FWがブロックしてんじゃないの?

197 名前:名無しさん@お腹いっぱい。 [2007/12/06(木) 21:50:51 ID:R8U55YGP0]
ttp://www.rolfinger.com/

みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので

198 名前:名無しさん@お腹いっぱい。 [2007/12/19(水) 03:03:46 ID:9yuHwmFr0]
gethtml (コマンドラインの方)で
tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?

199 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/19(水) 08:26:38 ID:rzYFr4Wu0]
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。

経験的にGetHTMLWはチャンクのデコード周りにバグがある。

チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。

HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。

200 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/19(水) 08:36:06 ID:rzYFr4Wu0]
うはw

試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw

HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。



201 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/19(水) 11:15:42 ID:9yuHwmFr0]
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー

202 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/25(火) 11:11:24 ID:GbgG+v1L0]
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも

203 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/25(火) 11:35:48 ID:PwgleQS90]
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?

ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる

204 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/29(土) 07:39:53 ID:qxdx6dP80]
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。

このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。

どなたか良いアドバイスをお願いします。

84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm

85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました

こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?

205 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/30(日) 23:06:29 ID:qlo4Nzf+0]
はい

206 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 17:24:55 ID:IiRpxgag0]
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい

207 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 15:18:18 ID:ZuxFg1x40]
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?

クエリー
データベースからデータを取り出すためのフォーマット

と意味を調べたのですが、いまいちピンと来ません

208 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 16:23:20 ID:OFGCoOwC0]
&や=で区切られてるURLをDLするんじゃないかと


209 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 16:23:53 ID:OFGCoOwC0]
?とか

210 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 16:46:29 ID:IYjarUeY0]
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?



211 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 17:33:47 ID:A5toxlAf0]
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。

1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加

↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。

212 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 18:31:47 ID:gw9zl8ah0]
URLを晒せば誰かが解析してくれるよ

213 名前:211 mailto:sage [2008/01/18(金) 18:54:52 ID:tCWJ6AtX0]
トップ www.din.or.jp/~osayo/
呼び出し miko3.jp/
CGI cgi.din.or.jp/~osayo/

サイトメニューは画面下部。

1.「かすたま」の中のファイルも一緒にダウンロードしたい。
cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル

2.「日記」のデータは読み込みたくない。
cgi.din.or.jp/~osayo/cgi/diary/diary.cgi

と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。

214 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 22:09:06 ID:gYZKpt5G0]
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか

215 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/24(木) 06:32:37 ID:JD3lJ93I0]
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン

216 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/24(木) 07:32:08 ID:oN1Lok+h0]
株にはまりすぎて開発してる暇がなくなったんじゃ

217 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 06:37:21 ID:NApTe0zp0]
ベクターの作者ページへのリンクが

218 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 07:44:23 ID:Uo5ZCYg70]
どうした?

219 名前:名無しさん@お腹いっぱい。 [2008/01/25(金) 17:45:12 ID:pOdyTSFw0]
bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html

すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?

220 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 22:06:45 ID:VQ1m2IF90]
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
pc11.2ch.net/test/read.cgi/software/1199195209/



221 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 22:12:43 ID:xmvyWrR/0]
>>219
www.google.co.jp/search?hl=ja&q=%E3%82%B9%E3%83%88%E3%83%AA%E3%83%BC%E3%83%9F%E3%83%B3%E3%82%B0%E4%BF%9D%E5%AD%98&lr=


222 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 19:25:30 ID:h3xkz2eJ0]
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。

223 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 20:07:25 ID:BB78zvk50]
>2階層以上取り込めません

リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない

224 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 20:50:47 ID:h3xkz2eJ0]
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/hp.vector.co.jp/authors/VA037488/junshu/index2.html

225 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 22:17:45 ID:Vw9+2j2y0]
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
hp.vector.co.jp/authors/ではじまるURLしかないじゃないw

226 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 22:20:24 ID:Vw9+2j2y0]
続き
web.archive.org/web/からはじまるアドレスでないと落とせないよ

227 名前:名無しさん@お腹いっぱい。 [2008/01/26(土) 23:17:56 ID:Nych28nF0]
219です。

mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv

このURLはどう見つければよいのですか?



228 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 23:34:13 ID:Vw9+2j2y0]
>>227
>>220に誘導されてるだろ
向こうのスレで聞いておいで

229 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 04:41:59 ID:2s4iBkil0]
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね

230 名前:名無しさん@お腹いっぱい。 [2008/01/27(日) 08:36:39 ID:Xxz+W6Ae0]
初心者にお勧めの物ってどれになりますか? 

weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。



231 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:02:21 ID:2s4iBkil0]
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。

232 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:20:40 ID:suXR9EeP0]
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが

233 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:54:18 ID:Xxz+W6Ae0]
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?

234 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 11:58:42 ID:2s4iBkil0]
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし

235 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 12:50:55 ID:Xxz+W6Ae0]
>>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。

236 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 13:39:28 ID:s6MxY/jc0]
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。

237 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 19:04:30 ID:2s4iBkil0]
>>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。

238 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/30(水) 01:36:11 ID:NOmqzNMO0]
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?

239 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/08(金) 00:48:18 ID:LyUhp1gB0]
mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?

240 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 20:21:44 ID:dYHnvlVd0]
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html



241 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 01:13:13 ID:jIBSXkqy0]
Super Capture ってなくなっちゃったんですか?

すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?

242 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 15:44:15 ID:pEdZWnO30]
>>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。

243 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 21:02:05 ID:Ftzz/E6Q0]
www.gymfan.de/gym_pic.html

↑このサイトなんですが、サイトそのものはwww.gymfan.de/
というところにあって、ソースを見ると画像はwww.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。

どうやればうまくできるか分かる人いませんか?

244 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 22:45:39 ID:S2Vi01b30]
取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。

245 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 23:31:39 ID:v9bgFmos0]
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。

>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?

246 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 23:48:23 ID:jIBSXkqy0]
>>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。

Super Capture - ベクターソフトニュース
www.vector.co.jp/magazine/softnews/050730/n0507301.html

イニシアという会社が作っていたのですが、会社のサイト(www.inisia.co.jp/
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。

Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。

Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
super-screen-capture.jp.brothersoft.com/


Super Captureがダウンロードできるところがあったら、教えてください。



247 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:43:15 ID:95oy4e+k0]
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture


248 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:49:38 ID:mFV8vQoX0]
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。

249 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:53:22 ID:zIVsZC2A0]
>>246
web.archive.org/web/*/http://www.inisia.co.jp/

1分であったぞ

250 名前:243 mailto:sage [2008/02/13(水) 13:10:32 ID:E8CaTYjJ0]
>>245
サンキュ。設定いじったら巡集でできた。



251 名前:名無しさん@お腹いっぱい。 [2008/03/02(日) 15:32:26 ID:SlT8oVxO0]
 

252 名前:名無しさん@お腹いっぱい。 [2008/03/02(日) 22:55:44 ID:XBPQmEY90]
以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
music.lionsgate.com/rambo/

253 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/04(火) 23:58:34 ID:8O1P5E4A0]
irvineでも巡集でもURLを直接指定すればええやん

254 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/18(火) 21:59:21 ID:ZzxB85Z00]
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?

255 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/19(水) 12:43:47 ID:YKorTSpT0]
>>254
んなわけない

256 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/20(木) 01:58:21 ID:m223Zsx40]
ありがとうございます!

257 名前:名無しさん@お腹いっぱい。 [2008/03/24(月) 04:25:21 ID:w4eXPHNQ0]
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな

258 名前:名無しさん@お腹いっぱい。 [2008/04/11(金) 08:00:28 ID:JS6+SD8u0]
そろそろ答えてください

259 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/13(日) 20:04:32 ID:oGL9AkZ60]
まだだ、まだ答えんよ

260 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/14(月) 19:23:15 ID:v2R7+9CM0]
雨は使ったことない(´・ω・`)



261 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 04:55:05 ID:UhKCBHwm0]
巡集の設定で聞きたいんですが

www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?

262 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 05:11:53 ID:Ye4EJlp40]
>>261
フィルタを使えばいけます

263 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 14:35:41 ID:UhKCBHwm0]
その設定をおねがいします><

264 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/22(火) 07:20:07 ID:ZhYRKd640]
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか

265 名前:名無しさん@お腹いっぱい。 [2008/04/26(土) 12:43:45 ID:bWElsVFw0]
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?

266 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/26(土) 14:34:15 ID:xuojH8LA0]
ダイアログに出ているタイトル

267 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 18:11:02 ID:t9WSIx9k0]
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?

268 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 18:11:26 ID:t9WSIx9k0]
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?

269 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 18:19:45 ID:cHvd4SHv0]
あるわけねーだろ

270 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 18:23:28 ID:Mg38eEgV0]
メモ帳




271 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 18:34:59 ID:t9WSIx9k0]
そうですか・・・残念だぴょん・・・・・・

272 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 19:01:15 ID:6J6AlWWJ0]
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?

273 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 19:27:05 ID:t9WSIx9k0]
>>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです

274 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 19:29:51 ID:GHBwk8a80]
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う

275 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 19:36:07 ID:Mg38eEgV0]
>>273
設定でスレッドタイトル=ファイル名は可能


276 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/06(火) 04:34:03 ID:pWIAuxdS0]
>>273
FirefoxだったらScrapBookをすすめるんだがな。

277 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/06(火) 19:54:31 ID:SBxlMPDL0]
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない

278 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/10(土) 04:00:05 ID:g0wuH1J20]
日本語でおk

279 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/11(日) 17:13:40 ID:5I6LyxnA0]
website explorer使ってる人俺以外にもいるのかな

280 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/11(日) 20:39:05 ID:OLc5kE2C0]
使ってるけど丸ごと取り込みには使わないな



281 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/12(月) 10:37:10 ID:9PCKZ1Jr0]
Firefox使いの俺はFownThemAll!とScrapBookだ。

282 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/12(月) 22:24:48 ID:tJ0QtoQm0]
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)

283 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/12(月) 23:42:25 ID:zqRUnBa00]
ダウンロードソフトはダウンロード板の管轄じゃないの?


284 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/13(火) 02:25:08 ID:ErVJOT7a0]
こっちじゃね?
ダウンローダー総合スレ Part2
pc11.2ch.net/test/read.cgi/software/1190549945/

285 名前:282 mailto:sage [2008/05/13(火) 06:41:48 ID:/touQVIB0]
スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。

286 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/27(火) 10:00:24 ID:qJm5C59n0]
gzipで送信されるページに対応した取り込みソフトはございませんか?

287 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/30(金) 01:20:05 ID:obDTDq910]
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…

288 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/03(火) 01:59:41 ID:V0GOfPnQ0]
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。

289 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/03(火) 07:40:12 ID:d5RR0Fde0]
>>288
No ResponseになるURLをフィルタさせる

もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある

290 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/03(火) 20:59:37 ID:V0GOfPnQ0]
>>289

こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・

保存先のブログはシーサーです。



291 名前:名無しさん@お腹いっぱい。 [2008/06/16(月) 23:48:15 ID:4NFpHfXZ0]
あげ

292 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/17(火) 07:58:10 ID:iH/5XAaL0]
なにか対象の指定の仕方に問題があるような気がする。

293 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/29(火) 03:34:12 ID:NXDRQEUV0]
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?


294 名前:名無しさん@お腹いっぱい。 [2008/08/14(木) 12:22:21 ID:z6Dy8mh40]
weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。

295 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/08/22(金) 18:44:21 ID:jiDXkNV10]
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?

UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。


296 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/08/25(月) 13:39:00 ID:6nouZRD10]
2chの女神板に貼り付いてるキモオタ共歓喜だな

>
> ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> www.savethevenus.com/
>


297 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/08/31(日) 01:18:45 ID:ISN52Ea80]
女神板は2chじゃないから

298 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 10:20:54 ID:TJ6Ap/Sl0]
ここの移転先教えてくれ
sdn255.web.fc2.com/

299 名前:HrSPwiYUsMDh mailto:jokwdm@wdgift.com [2008/09/10(水) 10:26:13 ID:ddMYkNpg0]
g7z0zX <a href="baqkzgurctep.com/">baqkzgurctep</a>, [url=knccjehvsqoe.com/]knccjehvsqoe[/url], [link=fyoddmbvukja.com/]fyoddmbvukja[/link], kfeaukherzmc.com/

300 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 10:53:49 ID:TJ6Ap/Sl0]
準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。



301 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 11:19:00 ID:iOGDU/hx0]
他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である

302 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 12:06:11 ID:TJ6Ap/Sl0]
ちょw

たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!

303 名前:London mailto:scyafd@mygrqr.com [2008/09/10(水) 12:13:50 ID:iwCGOnB80]
wAetOc <a href="jphcmeellktk.com/">jphcmeellktk</a>, [url=auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=unnngecegnmn.com/]unnngecegnmn[/link], hxtuikvjgkcq.com/

304 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 12:18:18 ID:Cga7s0C10]
ファイル名を変えたらリンクが正しく動作しなくなるだろ…

305 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 16:40:55 ID:aLDvX6Aj0]
巡集の作者、もしかして株で死んじゃったとか・・・?

306 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 23:10:10 ID:TJ6Ap/Sl0]
不吉なこと言うなダニよ

ソース公開して欲しい

307 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 23:35:48 ID:S8J67L6Y0]
巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな

後者に金を払う気があるかは本人次第

308 名前:名無しさん@お腹いっぱい。 mailto:age [2008/09/13(土) 15:46:14 ID:Dn+RZDfP0]
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし

309 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/14(日) 20:11:32 ID:ukWyxLCq0]
禁止URLとかの機能使えばいいじゃん。

310 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/23(火) 18:50:45 ID:twI/75ox0]
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。



311 名前:名無しさん@お腹いっぱい。 mailto:age [2008/09/24(水) 01:46:37 ID:hKMSKtdw0]
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。

一、か二かどっち?

二だとしたらやってはいけないようだ(ソースらしきもの)↓
jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;

↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。



312 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/24(水) 13:41:28 ID:1PhPO/s90]
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。

313 名前:名無しさん@お腹いっぱい。 [2008/10/06(月) 15:35:55 ID:eO1CMKz50]
こんなソフトありませんか?スレから来ました。

fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。

現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?

コマンドラインで使う類のソフトでもかまいません。

314 名前:313 [2008/10/06(月) 16:31:57 ID:eO1CMKz50]
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
www.oshiete-kun.net/archives/2008/02/getleft.html

外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。

could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)

315 名前:313 [2008/10/06(月) 18:17:34 ID:eO1CMKz50]
wgetで試行錯誤してみたらうまくいきました。

wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)

urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
  puts file
  urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq

以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com hogehoge.blog45.fc2.com/

--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)

316 名前:313 [2008/10/06(月) 18:21:17 ID:eO1CMKz50]
wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。

317 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/07(火) 00:37:00 ID:k78/uLlJ0]
>>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。

318 名前:313 [2008/10/07(火) 05:40:38 ID:hu35XLEh0]
>>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。

Wget for Windows
gnuwin32.sourceforge.net/packages/wget.htm

wget(Windows版) - 俺の基地
yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB

この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。

319 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/07(火) 06:33:16 ID:k78/uLlJ0]
>>318
ありがとうございます!これでやってみます。

320 名前:名無しさん@お腹いっぱい。 [2008/10/07(火) 07:56:16 ID:pjeOFoUzO]
パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい



321 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/09(木) 19:17:17 ID:rJyyGwzD0]
巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?

322 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/11(土) 23:38:49 ID:UlAef+iX0]
>>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。

323 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/14(火) 05:43:24 ID:CWdTo3bh0]
ttp://users.ugent.be/~bpuype/wget/

324 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/18(土) 09:14:27 ID:NA8ZY32U0]
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も

ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html


325 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 21:48:39 ID:SV8NrUaK0]
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。

1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。

2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。

326 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 21:49:38 ID:SV8NrUaK0]
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz

4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。

どうでもいいですが、DLしたサイトは東進 過去問データベースです。

327 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 23:16:00 ID:vXNKs2Pn0]
報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね

328 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/21(火) 06:16:41 ID:r9pcwQQ+0]
追記
Teleport Proは65530ファイルでDLを打ち切る様子。

329 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/22(水) 14:47:13 ID:Uty5mEif0]
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・

330 名前:名無しさん@お腹いっぱい。 mailto:age [2008/10/26(日) 22:56:41 ID:Z0qQpGL90]
>>328
使えにゃい。

>>329 スレ違い 紙とか。



331 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/08(土) 09:57:14 ID:HMLV6FJZ0]
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません

332 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/09(日) 05:43:33 ID:r9fZofmi0]
Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?

333 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/10(月) 12:34:07 ID:RJUgrUkx0]
うん

334 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/12(水) 09:40:33 ID:199gHslN0]
dlkey突破できる奴が有れば…


335 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/15(土) 02:12:07 ID:0sXE2VgW0]
JustDiver 2.0

336 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/17(月) 23:17:57 ID:bYSAyiWi0]
HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。

デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?

337 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/26(水) 22:46:57 ID:AvoPmSlt0]
www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz

338 名前:337 mailto:sage [2008/11/27(木) 07:07:22 ID:1gPOJKDS0]
巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。

www.doblog.com/weblog/myblog/31550*
img.doblog.com/32000/u31550/*


残りはコメントです。 引き続きよろしくお願いします。 orz

339 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/27(木) 10:21:47 ID:o5f/E9xS0]
「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。

予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。

沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。

340 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:06:37 ID:qDOzkieX0]
もうこういうソフトは需要がないかねえ…



341 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:58:34 ID:P2sFxOkY0]
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな

342 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:59:18 ID:qDOzkieX0]
動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない

343 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 22:10:50 ID:fX4eASw70]
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ

344 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/31(水) 09:18:41 ID:rscijB3A0]
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る

345 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/02(金) 01:44:45 ID:OLqz4XAA0]
FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。

346 名前:名無しさん@お腹いっぱい。 [2009/01/03(土) 23:05:19 ID:PUJY1CSF0]
Gethtmlについての質問です。

オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。

DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。

347 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:03:30 ID:7KtylUIv0]
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm

348 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:40:47 ID:agtqcM4Z0]
>>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。

349 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 11:31:36 ID:1GxGvmcA0]
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)

350 名前:名無しさん@お腹いっぱい。 [2009/01/04(日) 12:47:15 ID:zOoDAii/0]
アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?



351 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 20:29:51 ID:thlvUT4J0]
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。

352 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 19:35:25 ID:HKJ+mumj0]
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?

353 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 23:49:18 ID:HKJ+mumj0]
どうやらWeBOXで出来ますね、すみませんでした

354 名前:名無しさん@お腹いっぱい。 [2009/01/12(月) 18:55:19 ID:mtFSF/p40]

以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。

www.gamebanshee.com/neverwinternights/

うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。

宜しくお願いします。

355 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/12(月) 19:09:18 ID:Ad7xK/MA0]


356 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/14(水) 04:56:44 ID:XsghDILe0]
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。

だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける

357 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/15(木) 04:50:49 ID:14aIogQH0]
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…

358 名前:名無しさん@お腹いっぱい。 [2009/01/15(木) 22:38:28 ID:SkpOdVD30]
>>356
ご回答ありがとうございます。

スタイルシートについて、いろいろと調べたのですが、

リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、

新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。

このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?


359 名前:名無しさん@お腹いっぱい。 [2009/01/22(木) 10:04:12 ID:72T0n0l+0]
  ↑
あっ ↑ は、>>354からの書き込みです。

360 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/22(木) 10:13:00 ID:LOPrZeW60]
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません



361 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/08(日) 16:33:12 ID:1ew7wZVH0]
あああ

362 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/17(火) 21:27:34 ID:swvN60Nx0]
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?

363 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/03(火) 08:01:05 ID:hIoIaLsc0]
無理

364 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 02:02:52 ID:iOzdqfhq0]
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?

365 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 12:44:56 ID:kOsE1mcy0]
>>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を

366 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 20:52:19 ID:iOzdqfhq0]
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ

367 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 22:03:51 ID:SjWqihRZ0]
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?

368 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 08:05:04 ID:5euH1yl80]
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage

369 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 15:20:36 ID:y2etLDHA0]
管理側ですぐばれてアク禁

370 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 19:05:28 ID:5euH1yl80]
>>369
そうなのか、諦めるわ



371 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:13:12 ID:QC0/AZnI0]
この程度でなるわけねー

372 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:51:07 ID:5euH1yl80]
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?

373 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 00:54:24 ID:xnM4IX3Z0]
firefoxのscrapbookでのんびりと保存するのがベターかな

374 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 14:01:59 ID:i20Uaw0U0]
>>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。

375 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 15:00:53 ID:PmwxrF/V0]
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ

376 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/07(土) 15:46:28 ID:EX6aOmt+0]
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw

377 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/20(金) 22:02:39 ID:JSyDiuTFP]
hosyu






[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<93KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef