[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 05/09 17:28 / Filesize : 215 KB / Number-of Response : 912
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

【GPGPU】くだすれCUDAスレ【NVIDIA】



1 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 11:13:52 ]
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。

CUDA・HomePage
www.nvidia.com/cuda

関連スレ
【GPGPU】NVIDIA CUDA質問スレッド
pc11.2ch.net/test/read.cgi/tech/1190008468/
GPUで汎用コンピューティングを行うスレ
pc11.2ch.net/test/read.cgi/tech/1167989627/
GPGPU#2
pc11.2ch.net/test/read.cgi/tech/1188374938/



75 名前:デフォルトの名無しさん [2008/06/27(金) 02:51:33 ]
質問です(全く素人です)

OpenGLを使えばGPGPUのプログラミングが出来ると聞いたのですが、
かたやCUDAなどの専用の言語が出てきているのはどうしてでしょうか?

76 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 03:13:39 ]
だったらcとか使わずfortran66でも塚っテロ

77 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 12:11:54 ]
>>76
いえ、ですから、OpenGLではGPUの使えない機能もあるのかなぁ、と思いまして。

78 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 16:55:21 ]
GPUで計算中でも画面は通常通り表示されますか?

79 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 22:56:10 ]
>>78
ハードについて勉強するよろし

80 名前:デフォルトの名無しさん mailto:sage [2008/06/28(土) 00:16:42 ]
CUDA実行中に、時たま怪しげな影が飛んだりフリーズしたりします。

81 名前:デフォルトの名無しさん mailto:sage [2008/06/29(日) 11:59:05 ]
Folding@HomeのGPU版をしている人居ます?
PS3の280GTXは6倍以上をこなしているようですが。

ベータ版が公開されているが時間がなくてまだ何もしていない(困った。)


82 名前:デフォルトの名無しさん mailto:sage [2008/06/29(日) 12:04:52 ]
>>81
マルチすんな。つーか、PS3の280GTXってなんだよpgr

83 名前:デフォルトの名無しさん [2008/06/30(月) 07:04:03 ]
>>69
OpenMPの使い方が根本的に間違っていると思う



84 名前:69 mailto:sage [2008/07/01(火) 22:08:51 ]
>>83
サンプルのcudaOpenMPを参考にしてやったんだけどなぁ。
これじゃどうだめなのかぜひとも教えてくれ。
ちなみにOpenMPの使い方はサンプルにあわせている。
ただsingle構文はサンプルでは使っていないがな。

85 名前:デフォルトの名無しさん mailto:sage [2008/07/02(水) 04:05:38 ]
VisualStudio2005はExpress?だったらOpenMPディレクティブは機能しないよ

86 名前:デフォルトの名無しさん [2008/07/02(水) 15:57:17 ]
nvidiaドライバを削除する方法ってどこかにのってないか@CentOS5

新しいグラボ買ったんだけどドライバの削除がわからないウンコー

87 名前:デフォルトの名無しさん [2008/07/02(水) 16:15:29 ]
grid, threadの意味がわからない
アニメに例えて教えろ

88 名前:デフォルトの名無しさん [2008/07/02(水) 21:30:09 ]
今amazonみたらGPUGems3の日本語版の予約を受け付けてるじゃn

89 名前:デフォルトの名無しさん [2008/07/03(木) 01:44:22 ]
ノート(OS:Vista)で動かそうとしても動きません
CUDAに対応したGPUを搭載しておりますし(8700M GT)
VC2005Expressをインストールしたのですが、コンパイルすると
nvcc fatal: nvcc cannot find a supported cl version.
Only MSVC 7.1 or 8.0.
と表示してしまいます。まったくわからなくて困ってます。
よろしければお教えください


90 名前:デフォルトの名無しさん mailto:sage [2008/07/03(木) 01:47:35 ]
2005以外のバージョンのVCも入れてる?
nvccが参照しているVCが2005じゃないように見える。


91 名前:デフォルトの名無しさん [2008/07/03(木) 10:56:29 ]
いれておりません。
インストールしたのは
VC2005EXとVC2005SP、VC2005SP Update for Vista
だけなのですが。

92 名前:69 mailto:sage [2008/07/03(木) 13:12:53 ]
>>85
VisualStudio2005Professionalを使っています。
とりあえずcuda使わないで純粋にCでOpenMP使ったら高速化されているのでOpenMP自体は動いている模様。

93 名前:デフォルトの名無しさん mailto:sage [2008/07/04(金) 21:25:01 ]
ttp://vipprog.net/wiki/CUDA.html



94 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 02:11:24 ]
>>93
なにこの糞サイト

95 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 02:42:51 ]
質問です

PhysXがGeforceでも使えるということを聞いたのですが、
PhysX SDKとCUDAやOpenCLというのは同じレイヤーでの話なのでしょうか?

96 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 05:08:31 ]
>>84
pthreadでは高速化された?


97 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 09:16:41 ]
>>88
アノ値段じゃ学生はp-子するから売れん罠

98 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 11:01:42 ]
Gem3はGPGPUに限って言うならあんまり役に立たなかった

99 名前:デフォルトの名無しさん [2008/07/08(火) 19:02:12 ]
>>86
--uninstall

100 名前:86 [2008/07/09(水) 13:42:42 ]
>>99
ありがトマト
ところでSobelFilter見ててShareMemの使い方がわからないんだが
フォーラムに質問と返答あったが内容わからん+英語で全然わからん
誰か全訳してくれ

101 名前:86 [2008/07/09(水) 13:44:25 ]
forums.nvidia.com/index.php?showtopic=52612&pid=286191&mode=threaded&show=&st=&#entry286191

誰か誰か!

102 名前:デフォルトの名無しさん mailto:sage [2008/07/10(木) 12:22:28 ]
>>86
訳すのはめんどいからパスだけど、ポイント絞って質問してくれたら回答するよ。

103 名前:デフォルトの名無しさん mailto:sage [2008/07/10(木) 12:28:53 ]
>>86
C:\WINDOWS\system32\drivers
から目的のドライバを手で削除すればよい。



104 名前:デフォルトの名無しさん [2008/07/13(日) 21:12:38 ]
>>102
神ktkr
ポイント絞るからちっと待ってて…

105 名前:102 mailto:sage [2008/07/14(月) 11:56:25 ]
問題は、自宅が規制に巻き込まれていてなかなか書き込めない辺り。
取り敢えず、注意点を列挙しておく。
・共有メモリを確保するのはglobalFunc<<<blocks, threads, sharedMemorySize, streamNo>>>(parameters)の
 三番目のパラメータでサイズが指定されたときだけ。
・共有メモリは一回の<<<>>>の呼び出しの間だけしか有効じゃない。
# つまり、次の回には残っていない。
・共有メモリをハンドリングするには、extern __shared__ anyType * nameで宣言するだけ。
# つまり、コンパイラは型のマッチングやサイズのチェックをしないので自分で管理しないといけない。
・共有メモリはblock間で独立、block内ではthread数に関わらず共有。
# つまり、実際のデバイスにそぐわないthread数を指定した場合はCUDA側で同期処理が入るのか、遅くなってしまう。
・あるthreadが共有メモリに書いた後、別threadが読む前には__syncthreads()で同期を取らないといけない。
# ある意味当然なんだけど、その所為で遅くなるのも事実。

あー、ついでにメモリの違いを簡単に。
※グローバルメモリ
・読み書きできる。coalescedにアクセスできれば結構速い。消えない。広い。
・ホスト側スレッドごとに独立している。ホスト側から見ると、毎回同じアドレスになるのでどのくらい使えるか判りにくい。
※共有メモリ
・読み書きできる。遅くない。
・呼び出しごとに消えてしまう。余り広く取れない。事実上同期を取る必要があって使い難い。
※定数メモリ
・速い。消えない。そこそこ広い。
・例えばfloat2を読み込むインストラクションがないので実はグローバルメモリからfloat2を読むより遅くなる場合もある。
・デバイス側から書き込めない。ホスト側スレッドごとに独立している。複数スレッドからCUDAを使うと毎回転送しなおすのか?
※レジスタ
・読み書きできる。速い。厳密に型チェックされる。つーか、型ごとに違うインストラクションが使われるからptxファイルで追える。
・呼び出しごとに消える。他のメモリに較べれば狭い。
# ローカルな配列は宣言したことないからよく判らん。

106 名前:デフォルトの名無しさん mailto:sage [2008/07/14(月) 19:10:53 ]
NVIDIAの仕様書見てもcoalescedの意味がいまいちわからないのだけど、どういうこと?
どこかわかりやすく解説しているサイトない?

107 名前:デフォルトの名無しさん mailto:sage [2008/07/14(月) 19:12:13 ]
カーネル内で__shared__つけて配列を宣言するのと、つけないで配列を宣言するのでは何が違うの?


108 名前:デフォルトの名無しさん mailto:sage [2008/07/14(月) 19:24:11 ]
>>106
GPUはWarp単位で同じインストラクションが走るから、要は16人17脚みたいに考えればいい。
メモリアクセスを16人17脚によるパン喰い競争みたいに考えると、自分のパンが目の前にある状態がcoalesced。
そのとき、2,3人パンを喰う必要がなくてもスルーするだけだから問題ない。
処が、二人のパンが入れ違っていたらそこで入れ替える間、みんなが待たされることになるって感じ。
# 判っている人には判るけど、判っていない人には判らない説明だなw

>>107
共有メモリを使うかどうか違うだけだと思うけど。ptx出力させて較べてみたら?

109 名前:デフォルトの名無しさん mailto:sage [2008/07/15(火) 00:26:16 ]
>>108
その説明、いただいてもいいですか?

110 名前:デフォルトの名無しさん mailto:sage [2008/07/15(火) 01:56:27 ]
>>109
本にするならもっと書かせてくれw
Vipのwikiに載せるなら是非やってくれ
金取って講習するのに使うのなら分け前よこせw

111 名前:デフォルトの名無しさん [2008/07/15(火) 07:52:19 ]
>>105
その通りですシェアードメモリとブロック数が理解できない

1. プロック数
dim3 blocks = dim3(iw/(4*BlockWidth)+(0!=iw%(4*BlockWidth)),

ih/threads.y+(0!=ih%threads.y));

なぜblocks.xはiw/threads.x+(0!=iw%threads.x)じゃなくて
上の式になるのか。

2. シェアードメモリ
int SharedPitch = ~0x3f&(4*(BlockWidth+2*Radius)+0x3f);

int sharedMem = SharedPitch*(threads.y+2*Radius);

SharedPitchはなぜ上の計算になるのか。
0x03fの意味、4*の意味、BlockWidth+2*Radiusの意味が理解できない

とりあえずSharedメモリの使い方はどこを調べればわかるんだ!ウンコ!

112 名前:デフォルトの名無しさん mailto:sage [2008/07/15(火) 08:45:54 ]
>>111
どんな数字を入れるとどんな結果になるか、Excelでも使って計算してみたら?
0x3f使うのは64の倍数にするためでしょ。

113 名前:デフォルトの名無しさん [2008/07/15(火) 16:57:48 ]
>>112
うーんそのなんで64にするのかがわからないのよ

関係ないかもしれんがシェアードメモリを使ってないSobelFIilterも
SobelTex<<ih, 384>>>でなぜ384かわからないお
こっちは1行1グリッドにして、1スレッド1ピクセルなんだと思うが
なんでスレッド数を画像の横幅iwにしないで384にするんだぁ
スレッド数が384だと計算が速い理由でもあるのかお!



114 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 00:40:50 ]
単純に、warp数の適当な倍数になるからってだけじゃなかろか。

115 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 18:09:02 ]
GPUコードではmemcpyは使えないの?

116 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 21:23:53 ]
>>115
デバイス側で、デバイス間のコピーをしたいってことなら、自前で書くしかないんじゃないかな。
でも多分、そこがボトルネックになると思う。

117 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 21:43:54 ]
global memoryからshared memoryへのコピーの時間と
shared memoryからglobal memoryへのコピーの時間が
異なるのは何でなんだぜ?
よく分からない…

118 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 21:47:14 ]
>>117
グローバルメモリへの書き込みはcoalscedでも遅いと思う。
そうでないなら、ptxファイル見てみないとなんとも。
プロファイラを使うともう少し様子が掴めるかも知れない。

そだ、プロファイラの使い方って、日本語で書かれたものがWeb上で見つからないんだよね。
誰か、まとめてない?

119 名前:デフォルトの名無しさん [2008/07/16(水) 23:29:54 ]
>>113
指定できるスレッド数の上限は合計512までだからだろ
もしくは、スレッド数を多くすると使用するレジスタ数がパンクするから


120 名前:デフォルトの名無しさん [2008/07/17(木) 00:02:48 ]
>>115
自前で作成したmemcpy関数(サンプル付き)
記憶で書いているのでデバッグは自分でよろしく
注意:sizeは4の倍数のみ

__device__ void memcpy1D(long* p_dst , const long* p_src , unsigned int size)
{
const long* p_end = p_src + (size >> 2);

p_src += threadIdx.x;
p_dst += threadIdx.x;

while (p_src < p_end)
{
*p_dst = *p_src;

p_src += blockDim.x;
p_dst += blockDim.x;
}
}

__device__ structHogeHoge g_data;

__global__ void sample(void)
{
__shared__ structHogeHoge s_data;

memcpy1D((long*)&s_data , (long*)&g_data , sizeof(s_data));
__syncthreads();
}


121 名前:デフォルトの名無しさん [2008/07/17(木) 15:32:10 ]
NVIDIAのサイトから、lameをCUDA化したサンプルコードをダウンロードして、コンパイルしてみたのだけど、
かえって遅くなるのだけど、速くなった人いる?
CPUはAthlon2.0GHzでGPUは8800GTXです。
コンパイルはサイトの指示通り、USE_GPU_HPFを有効にしてかつ、そのCPUパートはコメントアウトして実行しないようにしています。

122 名前:デフォルトの名無しさん mailto:sage [2008/07/17(木) 15:37:52 ]
>>121
nVidia「全然速くならないから誰か代わりにやってくれ。速くても賞金出すのは北米在住者のみな^^」
というコンテストだから当然

来週締切なのに今のところまともに投稿してるのが1チームという惨状

123 名前:121 [2008/07/17(木) 16:05:38 ]
賞金はともかく、NVIDIAの書いたコードだから、勉強になると思ったのですが



124 名前:デフォルトの名無しさん mailto:sage [2008/07/17(木) 16:14:53 ]
>>123
甘いな。ハードの設計している連中とドライバを作っている連中と
CUDAを作っている連中とそれの応用を作っている連中が勝手にやっているのがNVIDIAだ。

125 名前:デフォルトの名無しさん [2008/07/22(火) 17:35:55 ]
3.14.by/en/md5
forum.insidepro.com/viewtopic.php?t=2051

ttp://www.insidepro.com/eng/egb.shtml

MD5 Crack on CUDA で腕試しが流行っているみたいだよ。
日本も頑張らなきゃ。





126 名前:デフォルトの名無しさん mailto:sage [2008/07/23(水) 00:13:58 ]
だれかフォートラン仕様にしてくれ

127 名前:デフォルトの名無しさん mailto:sage [2008/07/23(水) 13:37:55 ]
>>122
2チーム目が来たね
2倍ちょっとって、これならquad core使った方がよくね?

128 名前:デフォルトの名無しさん mailto:sage [2008/07/23(水) 16:41:58 ]
GTX280でCUDAすると素人考えで単純にSP数増えてる分だけ
速くなりそうな気がしてしまうんだが実際はどーなの?
Warpとかいろいろ考えることもありそうなんだけど。。。

129 名前:125 [2008/07/23(水) 19:13:07 ]
>>127

英語読めていないよ。こんな簡単な読みも出来ないとなると
本当に困る。

Teamの人数が2人だよ。
登録が200を超え、提出者が20組 トップは6回目のUploadだ。
提出者が20組だから結構な盛況だと考えるよ。


130 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 00:13:47 ]
NVIDIA、GPGPUに関する説明会を開催 - 今年中のFortranのサポートを計画 (2) CUDA2.0正式版は近日中にリリース予定
journal.mycom.co.jp/articles/2008/07/23/gpgpu/001.html

2.0とマルチCPUサポートはそろそろ、マルチGPU・多言語・デバッガ・プロファイラサポートは多分おそらくきっとそのうちだってさ



131 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 02:24:04 ]
cudaを覚えはじめるのにぴったりな本ないかなぁ?

132 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 11:03:32 ]
CUDAに特化した本は未だないだろ。

133 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 12:24:23 ]
>>131
本家プログラミングガイド
変な日本語訳のプログラミングガイドもある。



134 名前:デフォルトの名無しさん [2008/07/24(木) 16:45:20 ]
>>132
出たら買うから 出してw

135 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 17:17:55 ]
じゃ、書くからNVIDIAと出版社相手の交渉は任せた。

136 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 22:53:31 ]
何か並列処理の本のおまけみたいな形じゃないと
正直売れないだろうなぁ

137 名前:デフォルトの名無しさん mailto:sage [2008/07/26(土) 17:15:12 ]
>>135
たぶん、猫でもできる・・・・とかと同じように、HPたててそこで解説したら出版社から来ると思う。
わざわざHPスペース借りてーとかでなくても、WIKIでもいいと思われ。
交渉とかは向こうが書いてくれっていうだけだと思う基本的に。
んで、ワードなり、一太郎なりで原稿書けばOKじゃね?
画面キャプチャなどの画像は、まとめて管理したほうがいいぽいよ。
なんか、ワードとかで埋め込んじゃったりすると、逆に手間かかるらしい。

138 名前:デフォルトの名無しさん [2008/07/28(月) 09:38:41 ]
NVIDIAの日本語サイトがようやく
更新されたw

139 名前:デフォルトの名無しさん [2008/07/28(月) 11:32:06 ]
gpuはcpuより劇早なんだから
使いたいよねえ

パスワード解析とかにも使えそう

140 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 11:37:29 ]
速くねーよ。

CPUをセダンに例えるならGPUは貨物車だな。
荷物を大量に扱う場合だけは効率がいい。

141 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 11:49:02 ]
それはそうとパスワードクラックなんて浮動小数演算能力が全く役に立たないものの代表格だな。

142 名前:デフォルトの名無しさん mailto:sage [2008/07/28(月) 12:08:10 ]
そうだね
並列処理すればいいじゃない?

143 名前:デフォルトの名無しさん mailto:sage [2008/07/28(月) 17:46:54 ]
そういや去年CUDA使ってそんなソフトが出てたな



144 名前:デフォルトの名無しさん [2008/07/28(月) 19:41:23 ]
>>141
MD5はやっていますが?
他に現在手に入るクラック専用マシンでCUDA以上のC/P
があればお話が成り立ちますがね。


145 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 20:22:47 ]
>>144
それやってるのは整数論理算術演算じゃん
乗算すら浮動小数じゃないよ。


つーかMD5なんてすでにハッシュアルゴリズムとしては死んでるんだが。
ワンタイムパスワードとしてならまだまだ現役でやれるだろうけど
性質上瞬時にクラックできないとクラックの意味もなくなる。


ああFPGA焼いた方がいいんじゃない?

今各社が力入れてるのはAESなどの128ビットブロック暗号だな。

146 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 20:35:07 ]
つーか個人でGPUで遊ぶ分にはアリかもしれんけど
でかいシステム組めるTeslaになると別に高CPでもなんでもないんだよね。
特に整数性能に関してはPS3でクラスタくんだ方がまだ良いくらい。

GTX280含め現行GPUの整数性能はまだまだ残念な印象。

147 名前:デフォルトの名無しさん mailto:sage [2008/07/28(月) 20:44:09 ]
パスワードクラックほどの極小のプログラムでも
Xeon>PS3だって自分のページで言ってなかったっけ?

148 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 21:02:00 ]
暗号関連ならCellはAESみたいなブロック暗号はそれなりに速いよ。
例のvpermもどき命令で1コア16並列でエンコード/デコードできるからね。
ただAESアクセラレーションはWestmereでの強化点にもなるのでこの先はわからん。


まあいずれにしてもCUDAはいろいろ残念だな。
ATiとのGPUシェア争い無視してでも汎用性能をとるか来たるLarrabeeとガチるかの瀬戸際だし。

149 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 09:58:39 ]
>性質上瞬時にクラックできないとクラックの意味もなくなる。
笑った。連れの言い分と全く一緒だからな。
流れているデータをリアルタイムで解読できなければ暗号解読ではない
というような考え。ある意味では正しいが、ネットのデータは記録可能
という点を考慮していないし大穴になる。

AESアクセラレーションハもう6年も前にある技術だし今さら。

しかし認証段階で破られたらAESは即死に体だよ。実際解読ソフト
使っているのでww


150 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 12:28:50 ]
別にCUDAは整数性能ウリにしてないし
このスレってムチャを前提にケチつけてるだけで結局何も出来ない無能者の集いだな・・・

151 名前:デフォルトの名無しさん [2008/07/29(火) 12:59:27 ]
並列演算の応用として暗号解読の話題を語ってるだけだと思うんだが・・・

152 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 13:50:22 ]
>>151
それがわかってないといわれてる原因なんでしょ…

153 名前:デフォルトの名無しさん mailto:sage [2008/07/30(水) 12:07:16 ]
そうなんだ



154 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 01:58:13 ]
 弱点だった倍精度もGTX280で改良された。しかし何かイマイチなんだよなぁ。
消費電力あたりの性能がたいした事ないからかなぁ

155 名前:通りすがり [2008/08/07(木) 11:07:41 ]
CUDAでレイトレーシングがいました。 CPUの15倍パフォーマンスが出ているようです。
noridon.seesaa.net/


156 名前:デフォルトの名無しさん mailto:sage [2008/08/07(木) 13:30:10 ]
SSEも使ってない2コアの速度と比べて15倍じゃ今一かも

157 名前:デフォルトの名無しさん mailto:sage [2008/08/07(木) 16:48:46 ]
www.nicovideo.jp/watch/sm4095447
www.nicovideo.jp/watch/sm4095398
レイトレーシング

158 名前:デフォルトの名無しさん mailto:sage [2008/08/07(木) 20:25:59 ]
>>154
このスレ的には正常進化じゃね?

159 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 01:46:07 ]
だれか4850にCUDA載せてくれ

160 名前:デフォルトの名無しさん [2008/08/08(金) 14:04:29 ]
Core2Duo(3GHz)×2 = 最大 1.89FPS
CUDA(GTX 280) = 最大52.48FPS

27.7倍高速出ているようです。

noridon.seesaa.net/

161 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 14:36:26 ]
それatiのgpuじゃ実行できないよね?

162 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 18:06:10 ]
CUDAですから

OpenCLはCUDAを採用したと聞いたが…本当なん?

163 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 18:18:50 ]
OpenCommonLisp



164 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 20:41:23 ]
4 x 2.5 GHz の 3 fps と比べても 17倍
これは大したものだ

165 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 00:50:56 ]
IntelC++ と比べてどうなんかな?

166 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 07:05:08 ]
うごかねえw

167 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 16:57:34 ]
>>162
んなわけない
既にMacOSXにもCUDAがあるのにわざわざ10.6でOpenCL採用を謳うかよw

168 名前:デフォルトの名無しさん [2008/08/09(土) 22:58:33 ]
インテルは0からスタートするわけだからどのぐらいの速度でIntel製GPU普及するのかは見ものだね。 NVDIAのGPUはすでにゲームやCAD、3Dグラフィックの用途にすでにかなり普及しているからね。今後はAMDやIntelのQuadcore CPUでCUDAが使えるようになるしね。

169 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 23:11:40 ]
SPがPentium-Mベースだから割と簡単に追いつけるんじゃない?

170 名前:デフォルトの名無しさん [2008/08/11(月) 09:30:11 ]
>>168
そのとおりだけど、intelには事実上CPUと抱き合わせ、という裏技があるからなあ。
今回はかなり本気っぽいし、微妙かも。

171 名前:デフォルトの名無しさん mailto:sage [2008/08/11(月) 13:44:37 ]
質問です。

libshをコンパイルしようとしたら以下のようなエラーが出ました。
何が足りないのでしょうか?

ShSwizzleImpl.hpp: In member function 'void SH::ShSwizzle::copy(const SH::ShSwizzle&, bool)':
ShSwizzleImpl.hpp:191: error: 'memcpy' was not declared in this scope
ShSwizzleImpl.hpp: In member function 'bool SH::ShSwizzle::operator==(const SH::ShSwizzle&) const':
ShSwizzleImpl.hpp:251: error: 'memcmp' was not declared in this scope

172 名前:デフォルトの名無しさん mailto:sage [2008/08/11(月) 14:36:44 ]
アハハ

173 名前:デフォルトの名無しさん mailto:sage [2008/08/11(月) 17:33:27 ]
夏だな



174 名前:デフォルトの名無しさん mailto:sage [2008/08/11(月) 18:07:18 ]
俺は夏かどうか確認するために書き込んだわけではありません。
馬鹿正直にくだらない質問に答えてくれる人を待っているだけですよ。
質問に答える気がない人間は不要。
スレ違いだと言わざるを得ませんね。

175 名前:デフォルトの名無しさん mailto:sage [2008/08/11(月) 20:14:53 ]
夏だね






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<215KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef