1 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/02/06(火) 19:13:37 ID:SEh3Iu6i0] 過去ログ お勧めダウンロード(丸ごと取り込み)ソフト pc5.2ch.net/test/read.cgi/software/998567803/ お勧めダウンロード(丸ごと取り込み)ソフト2 pc9.2ch.net/test/read.cgi/software/1085915277/
313 名前:名無しさん@お腹いっぱい。 [2008/10/06(月) 15:35:55 ID:eO1CMKz50] こんなソフトありませんか?スレから来ました。 fc2などの画像サーバーが独立したWebサイトにも対応した 丸ごととりこみ保存するソフトを探しています。 現在は WeBoXをつかっているのですが、 fc2のブログなどでは、画像サーバーが別サーバーなので 同じブログ内でもリンク先画像などが取り込むことができません。 このような状況に対応できるダウンローダーはありませんでしょうか? コマンドラインで使う類のソフトでもかまいません。
314 名前:313 [2008/10/06(月) 16:31:57 ID:eO1CMKz50] Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net www.oshiete-kun.net/archives/2008/02/getleft.html 外部リンクを1リンクだけたどって保存できればよいのか?ということで、 こちらのソフトを使ってみているのですが、 下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。 困ってしまいました・・・。 could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory while executing "file size $fileName" (procedure "DownloadLinks" line 39) invoked from within "DownloadLinks $urlList $referer $level" (procedure "Descargar::ControlDownloading" line 21) invoked from within "Descargar::ControlDownloading $requestedUrl 1" (procedure "StartDownload" line 76) invoked from within "StartDownload $requestedUrl" (procedure "AutomaticDownload" line 21) invoked from within "AutomaticDownload [mainWin::UrlListSelectedUrl]" invoked from within ".extFrame.iconFrame.left.start invoke " invoked from within ".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } " (command bound to event)
315 名前:313 [2008/10/06(月) 18:17:34 ID:eO1CMKz50] wgetで試行錯誤してみたらうまくいきました。 wgetで一旦htmlのみを取得し、 Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの) urls = [] Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file| puts file urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq end puts urls.uniq 以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。 wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com hogehoge.blog45.fc2.com/ --convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、 あと、fc2は.htmlとなっていてもどうやら動的生成なようで カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。 (一回やらかしました)
316 名前:313 [2008/10/06(月) 18:21:17 ID:eO1CMKz50] wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・ この辺、Unix系の板で聞いてみます。
317 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/07(火) 00:37:00 ID:k78/uLlJ0] >>313 横レスすみません。レスとても参考になりました。 wgetをwinXPで使いたいのですが DLできるところ教えてください。
318 名前:313 [2008/10/07(火) 05:40:38 ID:hu35XLEh0] >>317 私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、 それでインストールしましたが、 ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。 Wget for Windows gnuwin32.sourceforge.net/packages/wget.htm wget(Windows版) - 俺の基地 yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB この辺ではないでしょうか?試してはないですが。 wgetはコマンドラインのツールなので注意です。 私はバッチファイルを書いて実行してます。
319 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/07(火) 06:33:16 ID:k78/uLlJ0] >>318 ありがとうございます!これでやってみます。
320 名前:名無しさん@お腹いっぱい。 [2008/10/07(火) 07:56:16 ID:pjeOFoUzO] パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
321 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/09(木) 19:17:17 ID:rJyyGwzD0] 巡集ってDLしたファイルを消す方法って フォルダ排除と設定ファイル排除しかない?
322 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/11(土) 23:38:49 ID:UlAef+iX0] >>320 パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。 ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
323 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/14(火) 05:43:24 ID:CWdTo3bh0] ttp://users.ugent.be/~bpuype/wget/
324 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/18(土) 09:14:27 ID:NA8ZY32U0] マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」 保存したWebページをPDF/JPEGファイルへ書き出す機能も ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
325 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 21:48:39 ID:SV8NrUaK0] 苦闘の末DLがうまくいったので記念カキコ。(無駄に長い 認証必要なサイトのDLのためにいろいろ試したので…。 1. Website Explorer ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。 認証も手軽にできて、細かい設定無しにDLしやすかったのですが、 膨大なデータ(100000ファイル超)のサイトの場合、 解析時のキャッシュが増えるにつれて、かなり処理が重くなる。 負けずに数日動かしていたのですが、 私が馬鹿やってエラー落ちしたので別ソフトを探しました。 2. WinHTTrack 複数URL指定ができていい感じ? いくつかのサイトを落とすときに利用して気に入った。 しかし、認証に弱い…。 認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。 どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、 charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
326 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 21:49:38 ID:SV8NrUaK0] 3.WeBoX DLを試しても一部のファイルしか落ちてこなくて使い物にならない。 恐らく、私が使い方を理解してないのが原因orz 4. Teleport Pro レビューが少ないのは、日本語化されてないし、有料だからですかね…? サイトの認証は簡単に成功しました。 DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、 ちょいちょい触ってるうちに理解しました。 結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。 どうでもいいですが、DLしたサイトは東進 過去問データベースです。
327 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/20(月) 23:16:00 ID:vXNKs2Pn0] 報告どうも よく分からないけど海外製のが一番うまくいったりする場合もあるのね
328 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/21(火) 06:16:41 ID:r9pcwQQ+0] 追記 Teleport Proは65530ファイルでDLを打ち切る様子。
329 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/22(水) 14:47:13 ID:Uty5mEif0] FirefoxのScrapBookみたいに すんなりスクラップできるソフトってありますか? まるごとじゃなくてもいいんです・・・・
330 名前:名無しさん@お腹いっぱい。 mailto:age [2008/10/26(日) 22:56:41 ID:Z0qQpGL90] >>328 使えにゃい。 >>329 スレ違い 紙とか。
331 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/08(土) 09:57:14 ID:HMLV6FJZ0] サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか? パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで… 説明わかりにくくてすいません
332 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/09(日) 05:43:33 ID:r9fZofmi0] Firefoxのツールバー で使えて 埋め込み動画が落せるのって ありませんか?
333 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/10(月) 12:34:07 ID:RJUgrUkx0] うん
334 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/12(水) 09:40:33 ID:199gHslN0] dlkey突破できる奴が有れば…
335 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/15(土) 02:12:07 ID:0sXE2VgW0] JustDiver 2.0
336 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/17(月) 23:17:57 ID:bYSAyiWi0] HTTrackを使っているんですが、FC2のサイトが保存出来ません。 2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。 デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。 上手く保存する方法は無いでしょうか?
337 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/26(水) 22:46:57 ID:AvoPmSlt0] www.doblog.com/weblog/myblog/31550 ここのブログをコメントと画像を含めて うまく保存する方法をよろしくお願いします orz
338 名前:337 mailto:sage [2008/11/27(木) 07:07:22 ID:1gPOJKDS0] 巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や 画像については何とかなったのではとおもいます。 www.doblog.com/weblog/myblog/31550* img.doblog.com/32000/u31550/* 残りはコメントです。 引き続きよろしくお願いします。 orz
339 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/27(木) 10:21:47 ID:o5f/E9xS0] 「波乗野郎」が、立ち上げた途端に異常終了する。 何故だ。 今までは動いていたのに。 機械のOSは、XPホームエディション。 予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、 現在、普通に動作している。 XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。 沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、 使い勝手が良いソフトなんで、捨てたくないんだよーん。
340 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:06:37 ID:qDOzkieX0] もうこういうソフトは需要がないかねえ…
341 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:58:34 ID:P2sFxOkY0] Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。 ゲームの攻略Wikiとかを人がいない時間に保存して 混んでる時間は保存してる方を見たいんだけどな
342 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:59:18 ID:qDOzkieX0] 動的なWikiは根本的に保存に無理あるんじゃないかなあ 保存できるソフトを聞いたことがない
343 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 22:10:50 ID:fX4eASw70] @wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
344 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/31(水) 09:18:41 ID:rscijB3A0] 取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた 特にゲーム攻略のWikiとかはよく消えてるから困る
345 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/02(金) 01:44:45 ID:OLqz4XAA0] FirefoxのScrapbookという拡張機能を使って、 ファイル一覧のページで一階層のみ保存、とか。
346 名前:名無しさん@お腹いっぱい。 [2009/01/03(土) 23:05:19 ID:PUJY1CSF0] Gethtmlについての質問です。 オプションの -f とはどのような機能なのでしょうか? 説明書ファイル(gethtml.txt)には "-f Filename" Filename of / terminated URL と書いてあるのですが意味がよくわかりません。 DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、 そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
347 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:03:30 ID:7KtylUIv0] >>346 gethtml.txt より > ・"-f Filename" > / で終わっている URL の WebPage データのファイル名を指定します。 > 例えば、URL が > www2s.biglobe.ne.jp/~pockey/ > の場合、得られたデータをどんな名前で保存すればよいか分かりません。 > 通常の場合、 > www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに > よって違い(MS のサーバは index.htm等)ますので、ここで指定します。 > index.html にしておくのが無難でしょう。デフォルトは index.html。 > 例) -f index.htm
348 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:40:47 ID:agtqcM4Z0] >>347 大変申し訳ありません!見逃していました。 重ねてありがとうございます。
349 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 11:31:36 ID:1GxGvmcA0] >>331 そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
350 名前:名無しさん@お腹いっぱい。 [2009/01/04(日) 12:47:15 ID:zOoDAii/0] アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか? それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
351 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 20:29:51 ID:thlvUT4J0] サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。 英語だけれど、使いやすい。 PageNest ttp://pagenest.com/index.html WebStripper系譜のようだ。
352 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 19:35:25 ID:HKJ+mumj0] ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか? また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
353 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 23:49:18 ID:HKJ+mumj0] どうやらWeBOXで出来ますね、すみませんでした
354 名前:名無しさん@お腹いっぱい。 [2009/01/12(月) 18:55:19 ID:mtFSF/p40] 以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。 紹介されている一通りのダウンローダを試しましたが、うまくいきません。 www.gamebanshee.com/neverwinternights/ うまく取れないところは、このページの左のリストにある EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。 更にクリックすると、ページの中央部に一覧表示されます。 これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、 ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。 宜しくお願いします。
355 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/12(月) 19:09:18 ID:Ad7xK/MA0] あ
356 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/14(水) 04:56:44 ID:XsghDILe0] 基本的にHTMLをみて、ダウンローダーの特性を理解したら なんとでもなるよ。 wgetなんかでもcssの中で@import とかは無視してくれちゃったり、 hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、 実際の本物のホスト名を含む絶対アドレスになったいたり こういうのがあるとサイトが正常に表示できない。 だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば よほどの動的サイトでない限りはまるごとダウンロードいける
357 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/15(木) 04:50:49 ID:14aIogQH0] どなたか巡集でshinobi.jpの広告削除設定を ご存知の方どうかご指南下さい 色々設定してみたけど全然上手くいきません…
358 名前:名無しさん@お腹いっぱい。 [2009/01/15(木) 22:38:28 ID:SkpOdVD30] >>356 様 ご回答ありがとうございます。 スタイルシートについて、いろいろと調べたのですが、 リンク元のウィンドウで <a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">....... で新しいウインドウに画像のURLを渡し、 新しいウィンドウで theShot = location.search.substring(1, location.search.length); document.write('<img src=' + theShot + '>') のように画像のURLを変数(上記の場合、theShot)に代入しているため、 URLがHTMLのソースに直接現れないような構造になっています。 このような場合はフィルタではどうしようもないと思うのですが、 何か良い手段はあるのでしょうか?
359 名前:名無しさん@お腹いっぱい。 [2009/01/22(木) 10:04:12 ID:72T0n0l+0] ↑ あっ ↑ は、>>354 からの書き込みです。
360 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/22(木) 10:13:00 ID:LOPrZeW60] まあこれで正確にHTMLが解析できれば誰も苦労しない罠 当然俺は分かりません
361 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/08(日) 16:33:12 ID:1ew7wZVH0] あああ
362 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/17(火) 21:27:34 ID:swvN60Nx0] サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
363 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/03(火) 08:01:05 ID:hIoIaLsc0] 無理
364 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 02:02:52 ID:iOzdqfhq0] 巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
365 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 12:44:56 ID:kOsE1mcy0] >>364 この世の全ての知識を手に入れようとゆうのかw 時間がかかって当然だろ、しかも正しい保障のない知識を
366 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 20:52:19 ID:iOzdqfhq0] ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
367 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 22:03:51 ID:SjWqihRZ0] wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
368 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 08:05:04 ID:5euH1yl80] 例えばこういうサイトとかなんだけども ttp://foobar2000.xrea.jp/index.php?FrontPage
369 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 15:20:36 ID:y2etLDHA0] 管理側ですぐばれてアク禁
370 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 19:05:28 ID:5euH1yl80] >>369 そうなのか、諦めるわ
371 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:13:12 ID:QC0/AZnI0] この程度でなるわけねー
372 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:51:07 ID:5euH1yl80] >>371 そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
373 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 00:54:24 ID:xnM4IX3Z0] firefoxのscrapbookでのんびりと保存するのがベターかな
374 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 14:01:59 ID:i20Uaw0U0] >>295 半年以上前の投稿だが、俺も同じ現象になった。 んで解決方法がわかった。DEP のセーフリストに GetHTMLW.exe を登録すれば、おk。
375 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 15:00:53 ID:PmwxrF/V0] >>373 回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
376 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/07(土) 15:46:28 ID:EX6aOmt+0] >>369-371 検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
377 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/20(金) 22:02:39 ID:JSyDiuTFP] hosyu