[表示 : 全て 最新50 1-99 101- 201- 301- 2chのread.cgiへ]
Update time : 07/16 14:10 / Filesize : 93 KB / Number-of Response : 378
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

お勧めダウンロード(丸ごと取り込み)ソフト3



1 名前:名無しさん@お腹いっぱい。 mailto:sage [2007/02/06(火) 19:13:37 ID:SEh3Iu6i0]
過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
pc9.2ch.net/test/read.cgi/software/1085915277/

347 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:03:30 ID:7KtylUIv0]
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm

348 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 10:40:47 ID:agtqcM4Z0]
>>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。

349 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 11:31:36 ID:1GxGvmcA0]
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)

350 名前:名無しさん@お腹いっぱい。 [2009/01/04(日) 12:47:15 ID:zOoDAii/0]
アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?

351 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/04(日) 20:29:51 ID:thlvUT4J0]
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。

352 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 19:35:25 ID:HKJ+mumj0]
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?

353 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/06(火) 23:49:18 ID:HKJ+mumj0]
どうやらWeBOXで出来ますね、すみませんでした

354 名前:名無しさん@お腹いっぱい。 [2009/01/12(月) 18:55:19 ID:mtFSF/p40]

以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。

www.gamebanshee.com/neverwinternights/

うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。

宜しくお願いします。

355 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/12(月) 19:09:18 ID:Ad7xK/MA0]




356 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/14(水) 04:56:44 ID:XsghDILe0]
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。

だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける

357 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/15(木) 04:50:49 ID:14aIogQH0]
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…

358 名前:名無しさん@お腹いっぱい。 [2009/01/15(木) 22:38:28 ID:SkpOdVD30]
>>356
ご回答ありがとうございます。

スタイルシートについて、いろいろと調べたのですが、

リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、

新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。

このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?


359 名前:名無しさん@お腹いっぱい。 [2009/01/22(木) 10:04:12 ID:72T0n0l+0]
  ↑
あっ ↑ は、>>354からの書き込みです。

360 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/01/22(木) 10:13:00 ID:LOPrZeW60]
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません

361 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/08(日) 16:33:12 ID:1ew7wZVH0]
あああ

362 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/02/17(火) 21:27:34 ID:swvN60Nx0]
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?

363 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/03(火) 08:01:05 ID:hIoIaLsc0]
無理

364 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 02:02:52 ID:iOzdqfhq0]
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?

365 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 12:44:56 ID:kOsE1mcy0]
>>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を



366 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 20:52:19 ID:iOzdqfhq0]
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ

367 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/04(水) 22:03:51 ID:SjWqihRZ0]
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?

368 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 08:05:04 ID:5euH1yl80]
例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage

369 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 15:20:36 ID:y2etLDHA0]
管理側ですぐばれてアク禁

370 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 19:05:28 ID:5euH1yl80]
>>369
そうなのか、諦めるわ

371 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:13:12 ID:QC0/AZnI0]
この程度でなるわけねー

372 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/05(木) 22:51:07 ID:5euH1yl80]
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?

373 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 00:54:24 ID:xnM4IX3Z0]
firefoxのscrapbookでのんびりと保存するのがベターかな

374 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 14:01:59 ID:i20Uaw0U0]
>>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。

375 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/06(金) 15:00:53 ID:PmwxrF/V0]
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ



376 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/07(土) 15:46:28 ID:EX6aOmt+0]
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw

377 名前:名無しさん@お腹いっぱい。 mailto:sage [2009/03/20(金) 22:02:39 ID:JSyDiuTFP]
hosyu






[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](*・∀・)<93KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef