ダウンロード関係総合 ..
[2ch|▼Menu]
76:login:Penguin
04/11/10 18:51:50 6YKyNq2D
>>75
そんな便利なツールがあるのかどうか知らない。

lynx --dump でテキストに落してリスト作って
wget -i でダウンロードする って方法なら、
たいていのディストリでできる。

77:login:Penguin
04/11/10 19:07:41 ZwXvDuyG
>>75
w3mのLはだめ?

78:login:Penguin
04/11/12 20:11:27 LPD4q8X+
>>76
>>77
tnx!
WindowsでいうところのReGetとかIrvineみたいなインターフェースで
使えるソフトを探してます^^

79:75
04/11/13 01:34:20 8/TxwVUP
Firefox + FlashGot + Downloader for Xで出来ました^^
うれし〜

80:login:Penguin
05/01/01 19:54:52 4QDwxEVY
ネット上から、zipのファイルをダウンロードしたら、
99%まで、ダウンロードできて、
その後に、エラーメッセージがでてきて、
<〜〜〜ダウンロードしたファイル〜〜〜>が、あるか確認してください。
と表示されるんですが、この表示は、zipのファイルをDLした時だけ出る
んですが、どうすれば、DLできるんでしょうか?

81:login:Penguin
05/01/03 08:15:57 SCe3V3E9
URLリンク(www.st.ryukoku.ac.jp)
って、どうなったか御存じの方居ます?

>>80
何でDLしたのか書けよ。

82:login:Penguin
05/05/12 00:06:42 gFRdFvnn
Unix界の王様UA wgetがらみで質問です。
wgetでしている事をHTtrack Web Copy Projectのhttrackでしたい。
フロントエンドは使わずに。
(wgetのように)窓でなんだけどhttrackのオプションはwin unix linux
共通なはず。

ある程度grepしてwget -i -で標準入力からとかwget -i list.txtとかを
Httackでしたいんだけど出来ないかな?man(ユーザーガイドね)には

grep "http.*">list;hhtack %L list...みたいのはあったけど
どうもミラーリング後のアップデートチェックらしいんだ。

普通にミラーする際にトップから再起的にじゃなくて
ある程度パースしてから指定部分拾わせたいんだけどうまく出来ない。
教えて

wgetすばらしいんだけどHTtrack Web Copyは環境混在させる際
DOSやPDA、LFNやSFNなんかで絡んでもおkなのでどうしても
使いこなしたいんだよ。

HTtrack Web Copy日本語で詳しいとこないかな

くだしつはスレ違いにも落としてしまった。すまそ。

83:82
05/05/12 00:33:29 gFRdFvnn
いや別にHTtrackじゃなくても似たような
wgetライクで8.3形式で変換してくれれば
LFN>SFNやDOS
ほかのでもいいんですが

出来ばwget相当なオプションが欲しいです。
wgetクローンでそうゆうのありませんか?

こうゆうソフトスレなのかなぁこの内容は。。。。。
ダウンロード関連ですよね

wgetクローンは見るんですが。。。。

84:login:Penguin
05/10/01 19:04:50 ShhO50P6
hosyu

85:login:Penguin
05/10/14 02:50:26 /GVfW5Li
URLリンク(www.cnemule.com)
↑プロモ集があるっぽいんやけど、
どうやってみるの???

86:モン
06/02/11 19:33:07 Sq814pCU
誰かモンスターハンターのイベントクエストをダウンロードしてくれませんか?

87:login:Penguin
06/03/25 05:39:47 y+0Uucf6
Downloader for X入れましたが、これ2G以上のファイル落とせますか?

88:login:Penguin
06/03/26 02:35:18 DMJYpgSL
aria2はどうでつか?

89:login:Penguin
07/05/01 13:52:42 sGAO1w91
imageFAPの画像を wgetでおとすのは難しい?

90:login:Penguin
07/07/26 06:07:16 lY3hpjVv
stickamの動画ってどうやったら落とせるんでしょうか?
初心者ですいません・・・

91:90
07/07/26 06:29:06 lY3hpjVv
すいません、板間違えました

92:login:Penguin
07/11/13 15:19:12 1ijVZvXi
OrbitのLinux版があれば最高なのに

93:login:Penguin
07/11/13 16:14:13 LOcgD/Nc
gwgetって名前を別のものに変えて保存って出来るようになればいいのに

94:login:Penguin
08/08/14 01:55:52 XlUaNP3v
bittorrent LINUXで使ってる人いないの?

俺今度コンソールでダウンしてみようと思う。

95:login:Penguin
08/11/15 11:24:39 WjAj7tpz
>>80
鯖に置いてあるファイルそのものが壊れてるんジャMyCar?

96:login:Penguin
08/11/15 13:14:18 dYwXtTtW
分割ダウンロード対応してるのでariaより良さそうなの無いかな?

97:login:Penguin
08/11/15 18:59:03 5kPGxQTY
aria2おすすめ

98:login:Penguin
08/11/15 23:24:18 fH9mWqTi
4Xは?

99:login:Penguin
08/12/04 21:59:57 m67be/51
wgetで自動でリダイレクトされちゃうのを止めるオプションはありますか?
curlのデフォルト動作のように

100:login:Penguin
09/03/24 10:56:08 kFYSnsox
orbitみたいにyoutubeとかのflv系リンク解析やってくれるダウンローダーって無い?

101:login:Penguin
09/03/29 16:33:36 sqNLlUf1
>>100
firefoxのdownload helperは?

102:login:Penguin
09/07/01 04:06:18 3OeIBl6N
echo "What terms?"; read terms; terms="${terms// /+}"
T="$HOME"
mkdir -p $T/${terms}
for n in $(seq 0 10); do w3m -dump_source \
"URLリンク(images.google.com)" \
| sed -e 's/","http/\n","http/g; s/","/\n","/g' | grep -E -w "\",\"http:.*.jpg" | sed -e 's/^.*http/http/g' | wget -P $T/${terms} -r -l 1 --timeout=60 --tries=3 -c -e robots=off -U 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)' -i -
done


103:login:Penguin
09/07/02 22:46:59 sUoFv0PL
眠れない夜に
#! /bin/bash
echo "What terms?"; read terms; terms="${terms// /+}"
T="$HOME"
mkdir -p $T/${terms}
for n in $(seq 0 20 300); do w3m -dump_source \
"URLリンク(images.google.com)"
done | sed -e 's/","http/\n","http/g; s/","/\n","/g' | \
grep -w "\",\"http:.*.jpg" | sed -e 's/^.*http/http/g' | \
while read URL ; do
wget -P $T/${terms} -r -l 1 --timeout=30 --tries=2 -c -e robots=off -U 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)' $URL
done
sleep 3
I="`date +${terms}%Y%m%d`"
( cd $T/${terms}
find . -name "*.jpg" -a -size +30k | while read list; do
eval convert -strip $list $I$(printf %05d $num).jpg
let num=$num+1
done
)


104:login:Penguin
09/07/05 15:29:35 szIvdAE1
Flickrのoriginal画像一括ダウンロードってみんなどうやってる?Fxで
GreasemonkyのFlickr Link Original Imagesとdownthemallの組み合わせ
以外に便利な方法あるかなぁ。Flickr Link Original Imagesでlink読めない画像が
あってFlikr originalというアドオン使えば読めるんだけどこれだと1枚1枚ちまちまと
保存することになる。


105:login:Penguin
10/03/05 19:53:59 pzqRoAZY
どこで質問していいか悩んだのでここで…。

にこさうんどからブラウザを使わずにmp3を、
「wget」「perl」を使ってダウンロードしたいのですが…。
「パソコンへ転送」の文字列がURLでなく、うまくいきません。

最終的にバッチにしたいのです。
どなたか誘導、もしくはご教授下さいませ。


106:login:Penguin
10/06/02 00:20:07 QRgDxQY/
FC2動画ダウンロードスクリプト
#!/bin/sh
ua="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.1.4322)"
curlopts="-L"
function getfc2 {
vidinfo=$(curl -b $cookies -c $cookies -A "$ua" $curlopts "$1")
flashvars=$(echo "$vidinfo" | grep 'param name="FlashVars"')
i=$(echo "$flashvars" | sed -e 's/.*"i=\([[:alnum:]]*\)&.*/\1/')
tk=$(echo "$flashvars" | sed -e 's/.*&tk=\([[:alnum:]]*\)&.*/\1/')
if [ -z "$i" -o -z "$tk" ] ; then
return 1
fi
ginfourl="URLリンク(video.fc2.com)"
echo "ginfourl=$ginfourl"
filename=$(echo "$vidinfo" | grep '<div class="video_thumb">' | sed -e 's@.*/content/\([^/]*\)/.*@\1.flv@' | nkf -w --url-input | sed -e 's/[ \t ]/_/g')
filepath=$(curl -b $cookies -c $cookies -A "$ua" $curlopts "$ginfourl" | sed -e 's/^filepath=//' -e 's/\&.*//')
if [ -z "$filepath" ] ; then
return 1
fi
echo "filepath=$filepath"
echo "filename=$filename"
curl -b $cookies -c $cookies -o "$filename" -A "$ua" $curlopts "$filepath"
}
cookies=~/.getfc2cookies
oldumask=$(umask)
umask 0077
touch $cookies
umask $oldumask
for url in "$@" ; do
getfc2 "$url"
done

107:login:Penguin
10/06/02 00:28:27 QRgDxQY/
ログインしてフレンドのみ公開の動画を落とすには
下のログインスクリプトを先に実行しておく
XXXXXXXXXXの部分にメールアドレス、ZZZZZZZZの部分にパスワード

#!/bin/sh
ua="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.1.4322)"
curlopts="-L"
umask 0077
cookies=~/.getfc2cookies
cp /dev/null $cookies
logindone=$(curl -c $cookies -A "$ua" $curlopts \
-d "email=XXXXXXXXXX" -d "pass=ZZZZZZZZ" \
"URLリンク(secure.id.fc2.com)" | \
sed -e 's/.*http-equiv="Refresh" content="0; url=//' -e 's/">.*//')
curl -b $cookies -c $cookies -A "$ua" $curlopts "$logindone" >/dev/null
curl -b $cookies -c $cookies -A "$ua" $curlopts "URLリンク(video.fc2.com)<)"
memlogin=$(curl -b $cookies -c $cookies -A "$ua" -e "URLリンク(video.fc2.com)" $curlopts "$loginvideo")
memloginurl=$(echo "$memlogin" | sed -e 's/.*content="0; url=\([^"]*\)".*/\1/')
curl -b $cookies -c $cookies -A "$ua" $curlopts "$memloginurl" >/dev/null

108:login:Penguin
10/06/03 16:27:55 r9B8lAgG
まだ試してないけどありがたい
得ろ動画down

109:login:Penguin
10/06/03 21:34:01 QAdW/QGQ
エロ動画の閲覧回数制限を回避するには
クッキーを保存してある~/.getfc2cookiesを削除すればいい

110:login:Penguin
10/06/04 12:38:09 yVAlhaim
早速ドメイン変更かよ
ブラウザでもログイン出来なくなってるしw

111:login:Penguin
10/06/04 13:09:07 yVAlhaim
お、直った
ていうか元に戻った


最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

5389日前に更新/20 KB
担当:undef