[表示 : 全て 最新50 1-99 101- 201- 301- 2chのread.cgiへ]
Update time : 07/16 14:10 / Filesize : 93 KB / Number-of Response : 378
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト3



1 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/02/06(火) 19:13:37 ID:SEh3Iu6i0]
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
pc9.2ch.net/test/read.cgi/software/1085915277/

166 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/07(火) 23:01:24 ID:Rnkdrzsb0]
うーん
これは本気で夜逃げでもしたかねえ
心配だ

167 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/15(水) 21:42:41 ID:xF/zK2Ra0]
>>163
ヘルプのページのミラーってあるの?
親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz

168 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/15(水) 22:32:55 ID:HzWu+63s0]
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず

169 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/15(水) 22:43:51 ID:k3HM8b2B0]
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。

170 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/25(土) 07:27:47 ID:wJoGTH6/0]
10日書き込み無し。
巡集も消えたまま。

171 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/25(土) 14:25:43 ID:3h2qNoKX0]
まだだ・・・っ!まだ終わら(ry

172 名前:名無しさん@お腹いっぱい。 mailto:age [2007/08/27(月) 01:53:20 ID:YfjxAlx50]
寿限無取り込みできないからなぁ巡集は。

173 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/08/27(月) 07:47:02 ID:pl/iWHG90]
できると何度言えば

174 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/01(土) 16:53:11 ID:UEbpedFs0]
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか



175 名前:名無しさん@お腹いっぱい。 [2007/09/15(土) 17:34:27 ID:shGMdTNK0]
巡集みたいにJavascriptを辿ってくれるソフトはないものか

176 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/16(日) 02:04:46 ID:dftJqUuf0]
>>175
_gu
Web Auto(シェアウェア)

177 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/17(月) 11:06:49 ID:wfwucYIg0]
あるのか!サンクス

178 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/09/17(月) 11:22:10 ID:wfwucYIg0]
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか

179 名前:名無しさん@お腹いっぱい。 [2007/10/03(水) 21:43:58 ID:pWzSNQy50]
具体的に
news.livedoor.com/article/detail/3312533/
このページとそこから下の各画像ページを落としたいのですが、
可能なソフトはありますか?

180 名前:名無しさん@お腹いっぱい。 [2007/10/06(土) 10:56:58 ID:2ZPpgW+10]
このスレこんなに人がいないんだ・・・

181 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/06(土) 16:02:36 ID:BjxdSh550]
しょこタン可愛いな。

182 名前:名無しさん@お腹いっぱい。 [2007/10/08(月) 20:24:11 ID:LFWOR3Ya0]
>>179
画像だけならこれとかでいけるけど
www.freewarefiles.com/program_5_173_35481.html

183 名前:名無しさん@お腹いっぱい。 [2007/10/09(火) 22:54:00 ID:uQB0ZqdW0]
Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
www.g-area.org/pgmain.htm
よろしくお願いします。

184 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/10(水) 08:28:33 ID:7BTa/w3d0]
>>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです

Irvineのことは専用スレへ
pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
pc11.2ch.net/test/read.cgi/software/1190549945/




185 名前:名無しさん@お腹いっぱい。 [2007/10/18(木) 23:24:07 ID:7tXtR67v0]
巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです



186 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/18(木) 23:36:32 ID:HXM7GKrN0]
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか

187 名前:185 mailto:sage [2007/10/19(金) 09:27:44 ID:io5KB4Vk0]
できました!
試しに風呂敷確認君で巡集を使ってみたら
chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました
ありがとうございました>>186

188 名前:185 mailto:sage [2007/10/19(金) 09:29:49 ID:io5KB4Vk0]
どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに

189 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 08:06:59 ID:X9NjLM0s0]
ttp://fantasticland.web.infoseek.co.jp/index.html

上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?

190 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 08:25:35 ID:X9NjLM0s0]
初期設定保存→初期設定で保存

191 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 20:52:21 ID:MXXrESKM0]
落とせないのはたぶん↓これのせい

>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。

取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる

192 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/10/25(木) 22:22:35 ID:X9NjLM0s0]
>>191
ほんとだ、できました
どうもありがとうございます

193 名前:名無しさん@お腹いっぱい。 [2007/11/20(火) 19:31:24 ID:UO8+XWOH0]
ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます


194 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/11/20(火) 20:35:52 ID:+BL7nhGN0]
iriaかIrvine



195 名前:名無しさん@お腹いっぱい。 [2007/11/21(水) 18:58:15 ID:TdDk4QuK0]
すいません
不足してました
ページとしての体裁を保ってです

これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・


196 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/11/21(水) 19:52:04 ID:yPEtRi6u0]
FWがブロックしてんじゃないの?

197 名前:名無しさん@お腹いっぱい。 [2007/12/06(木) 21:50:51 ID:R8U55YGP0]
ttp://www.rolfinger.com/

みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので

198 名前:名無しさん@お腹いっぱい。 [2007/12/19(水) 03:03:46 ID:9yuHwmFr0]
gethtml (コマンドラインの方)で
tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?

199 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/19(水) 08:26:38 ID:rzYFr4Wu0]
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。

経験的にGetHTMLWはチャンクのデコード周りにバグがある。

チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。

HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。

200 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/19(水) 08:36:06 ID:rzYFr4Wu0]
うはw

試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw

HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。

201 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/19(水) 11:15:42 ID:9yuHwmFr0]
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー

202 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/25(火) 11:11:24 ID:GbgG+v1L0]
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも

203 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/25(火) 11:35:48 ID:PwgleQS90]
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?

ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる

204 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/29(土) 07:39:53 ID:qxdx6dP80]
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。

このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。

どなたか良いアドバイスをお願いします。

84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm

85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました

こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?



205 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/12/30(日) 23:06:29 ID:qlo4Nzf+0]
はい

206 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/13(日) 17:24:55 ID:IiRpxgag0]
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい

207 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 15:18:18 ID:ZuxFg1x40]
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?

クエリー
データベースからデータを取り出すためのフォーマット

と意味を調べたのですが、いまいちピンと来ません

208 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 16:23:20 ID:OFGCoOwC0]
&や=で区切られてるURLをDLするんじゃないかと


209 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/16(水) 16:23:53 ID:OFGCoOwC0]
?とか

210 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 16:46:29 ID:IYjarUeY0]
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?

211 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 17:33:47 ID:A5toxlAf0]
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。

1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加

↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。

212 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 18:31:47 ID:gw9zl8ah0]
URLを晒せば誰かが解析してくれるよ

213 名前:211 mailto:sage [2008/01/18(金) 18:54:52 ID:tCWJ6AtX0]
トップ www.din.or.jp/~osayo/
呼び出し miko3.jp/
CGI cgi.din.or.jp/~osayo/

サイトメニューは画面下部。

1.「かすたま」の中のファイルも一緒にダウンロードしたい。
cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル

2.「日記」のデータは読み込みたくない。
cgi.din.or.jp/~osayo/cgi/diary/diary.cgi

と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。

214 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/18(金) 22:09:06 ID:gYZKpt5G0]
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか



215 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/24(木) 06:32:37 ID:JD3lJ93I0]
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン

216 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/24(木) 07:32:08 ID:oN1Lok+h0]
株にはまりすぎて開発してる暇がなくなったんじゃ

217 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 06:37:21 ID:NApTe0zp0]
ベクターの作者ページへのリンクが

218 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 07:44:23 ID:Uo5ZCYg70]
どうした?

219 名前:名無しさん@お腹いっぱい。 [2008/01/25(金) 17:45:12 ID:pOdyTSFw0]
bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html

すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?

220 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 22:06:45 ID:VQ1m2IF90]
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
pc11.2ch.net/test/read.cgi/software/1199195209/

221 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/25(金) 22:12:43 ID:xmvyWrR/0]
>>219
www.google.co.jp/search?hl=ja&q=%E3%82%B9%E3%83%88%E3%83%AA%E3%83%BC%E3%83%9F%E3%83%B3%E3%82%B0%E4%BF%9D%E5%AD%98&lr=


222 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 19:25:30 ID:h3xkz2eJ0]
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。

223 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 20:07:25 ID:BB78zvk50]
>2階層以上取り込めません

リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない

224 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 20:50:47 ID:h3xkz2eJ0]
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/hp.vector.co.jp/authors/VA037488/junshu/index2.html



225 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 22:17:45 ID:Vw9+2j2y0]
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
hp.vector.co.jp/authors/ではじまるURLしかないじゃないw

226 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 22:20:24 ID:Vw9+2j2y0]
続き
web.archive.org/web/からはじまるアドレスでないと落とせないよ

227 名前:名無しさん@お腹いっぱい。 [2008/01/26(土) 23:17:56 ID:Nych28nF0]
219です。

mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv

このURLはどう見つければよいのですか?



228 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/26(土) 23:34:13 ID:Vw9+2j2y0]
>>227
>>220に誘導されてるだろ
向こうのスレで聞いておいで

229 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 04:41:59 ID:2s4iBkil0]
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね

230 名前:名無しさん@お腹いっぱい。 [2008/01/27(日) 08:36:39 ID:Xxz+W6Ae0]
初心者にお勧めの物ってどれになりますか? 

weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。

231 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:02:21 ID:2s4iBkil0]
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。

232 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:20:40 ID:suXR9EeP0]
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが

233 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:54:18 ID:Xxz+W6Ae0]
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?

234 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 11:58:42 ID:2s4iBkil0]
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし



235 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 12:50:55 ID:Xxz+W6Ae0]
>>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。

236 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 13:39:28 ID:s6MxY/jc0]
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。

237 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 19:04:30 ID:2s4iBkil0]
>>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。

238 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/30(水) 01:36:11 ID:NOmqzNMO0]
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?

239 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/08(金) 00:48:18 ID:LyUhp1gB0]
mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?

240 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 20:21:44 ID:dYHnvlVd0]
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html

241 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 01:13:13 ID:jIBSXkqy0]
Super Capture ってなくなっちゃったんですか?

すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?

242 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 15:44:15 ID:pEdZWnO30]
>>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。

243 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 21:02:05 ID:Ftzz/E6Q0]
www.gymfan.de/gym_pic.html

↑このサイトなんですが、サイトそのものはwww.gymfan.de/
というところにあって、ソースを見ると画像はwww.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。

どうやればうまくできるか分かる人いませんか?

244 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 22:45:39 ID:S2Vi01b30]
取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。



245 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 23:31:39 ID:v9bgFmos0]
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。

>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?

246 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 23:48:23 ID:jIBSXkqy0]
>>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。

Super Capture - ベクターソフトニュース
www.vector.co.jp/magazine/softnews/050730/n0507301.html

イニシアという会社が作っていたのですが、会社のサイト(www.inisia.co.jp/
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。

Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。

Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
super-screen-capture.jp.brothersoft.com/


Super Captureがダウンロードできるところがあったら、教えてください。



247 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:43:15 ID:95oy4e+k0]
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture


248 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:49:38 ID:mFV8vQoX0]
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。

249 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:53:22 ID:zIVsZC2A0]
>>246
web.archive.org/web/*/http://www.inisia.co.jp/

1分であったぞ

250 名前:243 mailto:sage [2008/02/13(水) 13:10:32 ID:E8CaTYjJ0]
>>245
サンキュ。設定いじったら巡集でできた。

251 名前:名無しさん@お腹いっぱい。 [2008/03/02(日) 15:32:26 ID:SlT8oVxO0]
 

252 名前:名無しさん@お腹いっぱい。 [2008/03/02(日) 22:55:44 ID:XBPQmEY90]
以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
music.lionsgate.com/rambo/

253 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/04(火) 23:58:34 ID:8O1P5E4A0]
irvineでも巡集でもURLを直接指定すればええやん

254 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/18(火) 21:59:21 ID:ZzxB85Z00]
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?



255 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/19(水) 12:43:47 ID:YKorTSpT0]
>>254
んなわけない

256 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/20(木) 01:58:21 ID:m223Zsx40]
ありがとうございます!

257 名前:名無しさん@お腹いっぱい。 [2008/03/24(月) 04:25:21 ID:w4eXPHNQ0]
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな

258 名前:名無しさん@お腹いっぱい。 [2008/04/11(金) 08:00:28 ID:JS6+SD8u0]
そろそろ答えてください

259 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/13(日) 20:04:32 ID:oGL9AkZ60]
まだだ、まだ答えんよ

260 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/14(月) 19:23:15 ID:v2R7+9CM0]
雨は使ったことない(´・ω・`)

261 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 04:55:05 ID:UhKCBHwm0]
巡集の設定で聞きたいんですが

www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?

262 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 05:11:53 ID:Ye4EJlp40]
>>261
フィルタを使えばいけます

263 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 14:35:41 ID:UhKCBHwm0]
その設定をおねがいします><

264 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/22(火) 07:20:07 ID:ZhYRKd640]
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか



265 名前:名無しさん@お腹いっぱい。 [2008/04/26(土) 12:43:45 ID:bWElsVFw0]
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?

266 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/26(土) 14:34:15 ID:xuojH8LA0]
ダイアログに出ているタイトル






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<93KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef