[表示 : 全て 最新50 1-99 101- 201- 301- 2chのread.cgiへ]
Update time : 07/16 14:10 / Filesize : 93 KB / Number-of Response : 378
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト3



1 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/02/06(火) 19:13:37 ID:SEh3Iu6i0]
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
pc9.2ch.net/test/read.cgi/software/1085915277/

231 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:02:21 ID:2s4iBkil0]
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。

232 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:20:40 ID:suXR9EeP0]
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが

233 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 10:54:18 ID:Xxz+W6Ae0]
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?

234 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 11:58:42 ID:2s4iBkil0]
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし

235 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 12:50:55 ID:Xxz+W6Ae0]
>>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。

236 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 13:39:28 ID:s6MxY/jc0]
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。

237 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/27(日) 19:04:30 ID:2s4iBkil0]
>>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。

238 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/01/30(水) 01:36:11 ID:NOmqzNMO0]
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?

239 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/08(金) 00:48:18 ID:LyUhp1gB0]
mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?



240 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/11(月) 20:21:44 ID:dYHnvlVd0]
ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html

241 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 01:13:13 ID:jIBSXkqy0]
Super Capture ってなくなっちゃったんですか?

すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?

242 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 15:44:15 ID:pEdZWnO30]
>>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。

243 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 21:02:05 ID:Ftzz/E6Q0]
www.gymfan.de/gym_pic.html

↑このサイトなんですが、サイトそのものはwww.gymfan.de/
というところにあって、ソースを見ると画像はwww.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。

どうやればうまくできるか分かる人いませんか?

244 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 22:45:39 ID:S2Vi01b30]
取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。

245 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/12(火) 23:31:39 ID:v9bgFmos0]
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。

>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?

246 名前:名無しさん@お腹いっぱい。 [2008/02/12(火) 23:48:23 ID:jIBSXkqy0]
>>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。

Super Capture - ベクターソフトニュース
www.vector.co.jp/magazine/softnews/050730/n0507301.html

イニシアという会社が作っていたのですが、会社のサイト(www.inisia.co.jp/
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。

Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。

Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
super-screen-capture.jp.brothersoft.com/


Super Captureがダウンロードできるところがあったら、教えてください。



247 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:43:15 ID:95oy4e+k0]
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture


248 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:49:38 ID:mFV8vQoX0]
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。

249 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/02/13(水) 01:53:22 ID:zIVsZC2A0]
>>246
web.archive.org/web/*/http://www.inisia.co.jp/

1分であったぞ



250 名前:243 mailto:sage [2008/02/13(水) 13:10:32 ID:E8CaTYjJ0]
>>245
サンキュ。設定いじったら巡集でできた。

251 名前:名無しさん@お腹いっぱい。 [2008/03/02(日) 15:32:26 ID:SlT8oVxO0]
 

252 名前:名無しさん@お腹いっぱい。 [2008/03/02(日) 22:55:44 ID:XBPQmEY90]
以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
music.lionsgate.com/rambo/

253 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/04(火) 23:58:34 ID:8O1P5E4A0]
irvineでも巡集でもURLを直接指定すればええやん

254 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/18(火) 21:59:21 ID:ZzxB85Z00]
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?

255 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/19(水) 12:43:47 ID:YKorTSpT0]
>>254
んなわけない

256 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/03/20(木) 01:58:21 ID:m223Zsx40]
ありがとうございます!

257 名前:名無しさん@お腹いっぱい。 [2008/03/24(月) 04:25:21 ID:w4eXPHNQ0]
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな

258 名前:名無しさん@お腹いっぱい。 [2008/04/11(金) 08:00:28 ID:JS6+SD8u0]
そろそろ答えてください

259 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/13(日) 20:04:32 ID:oGL9AkZ60]
まだだ、まだ答えんよ



260 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/14(月) 19:23:15 ID:v2R7+9CM0]
雨は使ったことない(´・ω・`)

261 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 04:55:05 ID:UhKCBHwm0]
巡集の設定で聞きたいんですが

www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?

262 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 05:11:53 ID:Ye4EJlp40]
>>261
フィルタを使えばいけます

263 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/18(金) 14:35:41 ID:UhKCBHwm0]
その設定をおねがいします><

264 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/22(火) 07:20:07 ID:ZhYRKd640]
普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか

265 名前:名無しさん@お腹いっぱい。 [2008/04/26(土) 12:43:45 ID:bWElsVFw0]
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?

266 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/04/26(土) 14:34:15 ID:xuojH8LA0]
ダイアログに出ているタイトル

267 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 18:11:02 ID:t9WSIx9k0]
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?

268 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 18:11:26 ID:t9WSIx9k0]
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?

269 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 18:19:45 ID:cHvd4SHv0]
あるわけねーだろ



270 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 18:23:28 ID:Mg38eEgV0]
メモ帳


271 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 18:34:59 ID:t9WSIx9k0]
そうですか・・・残念だぴょん・・・・・・

272 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 19:01:15 ID:6J6AlWWJ0]
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?

273 名前:名無しさん@お腹いっぱい。 [2008/05/05(月) 19:27:05 ID:t9WSIx9k0]
>>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです

274 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 19:29:51 ID:GHBwk8a80]
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う

275 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/05(月) 19:36:07 ID:Mg38eEgV0]
>>273
設定でスレッドタイトル=ファイル名は可能


276 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/06(火) 04:34:03 ID:pWIAuxdS0]
>>273
FirefoxだったらScrapBookをすすめるんだがな。

277 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/06(火) 19:54:31 ID:SBxlMPDL0]
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない

278 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/10(土) 04:00:05 ID:g0wuH1J20]
日本語でおk

279 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/11(日) 17:13:40 ID:5I6LyxnA0]
website explorer使ってる人俺以外にもいるのかな



280 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/11(日) 20:39:05 ID:OLc5kE2C0]
使ってるけど丸ごと取り込みには使わないな

281 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/12(月) 10:37:10 ID:9PCKZ1Jr0]
Firefox使いの俺はFownThemAll!とScrapBookだ。

282 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/12(月) 22:24:48 ID:tJ0QtoQm0]
お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)

283 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/12(月) 23:42:25 ID:zqRUnBa00]
ダウンロードソフトはダウンロード板の管轄じゃないの?


284 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/13(火) 02:25:08 ID:ErVJOT7a0]
こっちじゃね?
ダウンローダー総合スレ Part2
pc11.2ch.net/test/read.cgi/software/1190549945/

285 名前:282 mailto:sage [2008/05/13(火) 06:41:48 ID:/touQVIB0]
スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。

286 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/27(火) 10:00:24 ID:qJm5C59n0]
gzipで送信されるページに対応した取り込みソフトはございませんか?

287 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/05/30(金) 01:20:05 ID:obDTDq910]
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…

288 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/03(火) 01:59:41 ID:V0GOfPnQ0]
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。

289 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/03(火) 07:40:12 ID:d5RR0Fde0]
>>288
No ResponseになるURLをフィルタさせる

もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある



290 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/03(火) 20:59:37 ID:V0GOfPnQ0]
>>289

こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・

保存先のブログはシーサーです。

291 名前:名無しさん@お腹いっぱい。 [2008/06/16(月) 23:48:15 ID:4NFpHfXZ0]
あげ

292 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/06/17(火) 07:58:10 ID:iH/5XAaL0]
なにか対象の指定の仕方に問題があるような気がする。

293 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/07/29(火) 03:34:12 ID:NXDRQEUV0]
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?


294 名前:名無しさん@お腹いっぱい。 [2008/08/14(木) 12:22:21 ID:z6Dy8mh40]
weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。

295 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/08/22(金) 18:44:21 ID:jiDXkNV10]
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?

UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。


296 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/08/25(月) 13:39:00 ID:6nouZRD10]
2chの女神板に貼り付いてるキモオタ共歓喜だな

>
> ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> www.savethevenus.com/
>


297 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/08/31(日) 01:18:45 ID:ISN52Ea80]
女神板は2chじゃないから

298 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 10:20:54 ID:TJ6Ap/Sl0]
ここの移転先教えてくれ
sdn255.web.fc2.com/

299 名前:HrSPwiYUsMDh mailto:jokwdm@wdgift.com [2008/09/10(水) 10:26:13 ID:ddMYkNpg0]
g7z0zX <a href="baqkzgurctep.com/">baqkzgurctep</a>, [url=knccjehvsqoe.com/]knccjehvsqoe[/url], [link=fyoddmbvukja.com/]fyoddmbvukja[/link], kfeaukherzmc.com/



300 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 10:53:49 ID:TJ6Ap/Sl0]
準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。

301 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 11:19:00 ID:iOGDU/hx0]
他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である

302 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 12:06:11 ID:TJ6Ap/Sl0]
ちょw

たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!

303 名前:London mailto:scyafd@mygrqr.com [2008/09/10(水) 12:13:50 ID:iwCGOnB80]
wAetOc <a href="jphcmeellktk.com/">jphcmeellktk</a>, [url=auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=unnngecegnmn.com/]unnngecegnmn[/link], hxtuikvjgkcq.com/

304 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 12:18:18 ID:Cga7s0C10]
ファイル名を変えたらリンクが正しく動作しなくなるだろ…

305 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 16:40:55 ID:aLDvX6Aj0]
巡集の作者、もしかして株で死んじゃったとか・・・?

306 名前:名無しさん@お腹いっぱい。 [2008/09/10(水) 23:10:10 ID:TJ6Ap/Sl0]
不吉なこと言うなダニよ

ソース公開して欲しい

307 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/10(水) 23:35:48 ID:S8J67L6Y0]
巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな

後者に金を払う気があるかは本人次第

308 名前:名無しさん@お腹いっぱい。 mailto:age [2008/09/13(土) 15:46:14 ID:Dn+RZDfP0]
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし

309 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/14(日) 20:11:32 ID:ukWyxLCq0]
禁止URLとかの機能使えばいいじゃん。



310 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/23(火) 18:50:45 ID:twI/75ox0]
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。

311 名前:名無しさん@お腹いっぱい。 mailto:age [2008/09/24(水) 01:46:37 ID:hKMSKtdw0]
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。

一、か二かどっち?

二だとしたらやってはいけないようだ(ソースらしきもの)↓
jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;

↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。



312 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/09/24(水) 13:41:28 ID:1PhPO/s90]
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。

313 名前:名無しさん@お腹いっぱい。 [2008/10/06(月) 15:35:55 ID:eO1CMKz50]
こんなソフトありませんか?スレから来ました。

fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。

現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?

コマンドラインで使う類のソフトでもかまいません。

314 名前:313 [2008/10/06(月) 16:31:57 ID:eO1CMKz50]
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
www.oshiete-kun.net/archives/2008/02/getleft.html

外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。

could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)

315 名前:313 [2008/10/06(月) 18:17:34 ID:eO1CMKz50]
wgetで試行錯誤してみたらうまくいきました。

wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)

urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
  puts file
  urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq

以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com hogehoge.blog45.fc2.com/

--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)

316 名前:313 [2008/10/06(月) 18:21:17 ID:eO1CMKz50]
wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。

317 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/07(火) 00:37:00 ID:k78/uLlJ0]
>>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。

318 名前:313 [2008/10/07(火) 05:40:38 ID:hu35XLEh0]
>>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。

Wget for Windows
gnuwin32.sourceforge.net/packages/wget.htm

wget(Windows版) - 俺の基地
yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB

この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。

319 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/07(火) 06:33:16 ID:k78/uLlJ0]
>>318
ありがとうございます!これでやってみます。



320 名前:名無しさん@お腹いっぱい。 [2008/10/07(火) 07:56:16 ID:pjeOFoUzO]
パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい

321 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/09(木) 19:17:17 ID:rJyyGwzD0]
巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?

322 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/11(土) 23:38:49 ID:UlAef+iX0]
>>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。

323 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/14(火) 05:43:24 ID:CWdTo3bh0]
ttp://users.ugent.be/~bpuype/wget/

324 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/18(土) 09:14:27 ID:NA8ZY32U0]
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も

ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html


325 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 21:48:39 ID:SV8NrUaK0]
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。

1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。

2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。

326 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 21:49:38 ID:SV8NrUaK0]
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz

4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。

どうでもいいですが、DLしたサイトは東進 過去問データベースです。

327 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 23:16:00 ID:vXNKs2Pn0]
報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね

328 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/21(火) 06:16:41 ID:r9pcwQQ+0]
追記
Teleport Proは65530ファイルでDLを打ち切る様子。

329 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/22(水) 14:47:13 ID:Uty5mEif0]
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・



330 名前:名無しさん@お腹いっぱい。 mailto:age [2008/10/26(日) 22:56:41 ID:Z0qQpGL90]
>>328
使えにゃい。

>>329 スレ違い 紙とか。

331 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/08(土) 09:57:14 ID:HMLV6FJZ0]
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<93KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef