[表示 : 全て 最新50 1-99 101- 201- 301- 2chのread.cgiへ]
Update time : 07/16 14:10 / Filesize : 93 KB / Number-of Response : 378
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト3



1 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/02/06(火) 19:13:37 ID:SEh3Iu6i0]
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
pc9.2ch.net/test/read.cgi/software/1085915277/

328 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/21(火) 06:16:41 ID:r9pcwQQ+0]
追記
Teleport Proは65530ファイルでDLを打ち切る様子。

329 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/10/22(水) 14:47:13 ID:Uty5mEif0]
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・

330 名前:名無しさん@お腹いっぱい。 mailto:age [2008/10/26(日) 22:56:41 ID:Z0qQpGL90]
>>328
使えにゃい。

>>329 スレ違い 紙とか。

331 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/08(土) 09:57:14 ID:HMLV6FJZ0]
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません

332 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/09(日) 05:43:33 ID:r9fZofmi0]
Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?

333 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/10(月) 12:34:07 ID:RJUgrUkx0]
うん

334 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/12(水) 09:40:33 ID:199gHslN0]
dlkey突破できる奴が有れば…


335 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/15(土) 02:12:07 ID:0sXE2VgW0]
JustDiver 2.0

336 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/17(月) 23:17:57 ID:bYSAyiWi0]
HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。

デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?



337 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/26(水) 22:46:57 ID:AvoPmSlt0]
www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz

338 名前:337 mailto:sage [2008/11/27(木) 07:07:22 ID:1gPOJKDS0]
巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。

www.doblog.com/weblog/myblog/31550*
img.doblog.com/32000/u31550/*


残りはコメントです。 引き続きよろしくお願いします。 orz

339 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/11/27(木) 10:21:47 ID:o5f/E9xS0]
「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。

予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。

沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。

340 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:06:37 ID:qDOzkieX0]
もうこういうソフトは需要がないかねえ…

341 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:58:34 ID:P2sFxOkY0]
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな

342 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 21:59:18 ID:qDOzkieX0]
動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない

343 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/30(火) 22:10:50 ID:fX4eASw70]
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ

344 名前:名無しさん@お腹いっぱい。 mailto:sage [2008/12/31(水) 09:18:41 ID:rscijB3A0]
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る

345 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/02(金) 01:44:45 ID:OLqz4XAA0]
FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。

346 名前:名無しさん@お腹いっぱい。 [2009/01/03(土) 23:05:19 ID:PUJY1CSF0]
Gethtmlについての質問です。

オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。

DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。



347 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:03:30 ID:7KtylUIv0]
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm

348 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:40:47 ID:agtqcM4Z0]
>>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。

349 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 11:31:36 ID:1GxGvmcA0]
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)

350 名前:名無しさん@お腹いっぱい。 [2009/01/04(日) 12:47:15 ID:zOoDAii/0]
アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?

351 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 20:29:51 ID:thlvUT4J0]
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。

352 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 19:35:25 ID:HKJ+mumj0]
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?

353 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 23:49:18 ID:HKJ+mumj0]
どうやらWeBOXで出来ますね、すみませんでした

354 名前:名無しさん@お腹いっぱい。 [2009/01/12(月) 18:55:19 ID:mtFSF/p40]

以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。

www.gamebanshee.com/neverwinternights/

うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。

宜しくお願いします。

355 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/12(月) 19:09:18 ID:Ad7xK/MA0]


356 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/14(水) 04:56:44 ID:XsghDILe0]
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。

だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける



357 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/15(木) 04:50:49 ID:14aIogQH0]
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…

358 名前:名無しさん@お腹いっぱい。 [2009/01/15(木) 22:38:28 ID:SkpOdVD30]
>>356
ご回答ありがとうございます。

スタイルシートについて、いろいろと調べたのですが、

リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、

新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。

このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?


359 名前:名無しさん@お腹いっぱい。 [2009/01/22(木) 10:04:12 ID:72T0n0l+0]
  ↑
あっ ↑ は、>>354からの書き込みです。

360 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/22(木) 10:13:00 ID:LOPrZeW60]
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません

361 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/08(日) 16:33:12 ID:1ew7wZVH0]
あああ

362 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/17(火) 21:27:34 ID:swvN60Nx0]
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?

363 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/03(火) 08:01:05 ID:hIoIaLsc0]
無理

364 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 02:02:52 ID:iOzdqfhq0]
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?

365 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 12:44:56 ID:kOsE1mcy0]
>>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を

366 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 20:52:19 ID:iOzdqfhq0]
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ



367 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 22:03:51 ID:SjWqihRZ0]
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?

368 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 08:05:04 ID:5euH1yl80]
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage

369 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 15:20:36 ID:y2etLDHA0]
管理側ですぐばれてアク禁

370 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 19:05:28 ID:5euH1yl80]
>>369
そうなのか、諦めるわ

371 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:13:12 ID:QC0/AZnI0]
この程度でなるわけねー

372 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:51:07 ID:5euH1yl80]
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?

373 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 00:54:24 ID:xnM4IX3Z0]
firefoxのscrapbookでのんびりと保存するのがベターかな

374 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 14:01:59 ID:i20Uaw0U0]
>>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。

375 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 15:00:53 ID:PmwxrF/V0]
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ

376 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/07(土) 15:46:28 ID:EX6aOmt+0]
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw



377 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/20(金) 22:02:39 ID:JSyDiuTFP]
hosyu






[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<93KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef