[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 2chのread.cgiへ]
Update time : 04/30 13:20 / Filesize : 182 KB / Number-of Response : 881
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

GPGPU#2



1 名前:デフォルトの名無しさん [2007/08/29(水) 17:08:58 ]
いつの間にやらCPUを超える演算性能を持ってしまったGPUに計算させてみるという
GPGPUについて語りましょう

前スレ
GPGPU
pc11.2ch.net/test/read.cgi/tech/1128780920/

関連スレ
pc11.2ch.net/test/read.cgi/tech/1167989627/

参考リンク
総本山? gpgpu.org
www.gpgpu.org/
CUDA
developer.nvidia.com/object/cuda.html
GPUをCPU的に活用するGPGPUの可能性
pcweb.mycom.co.jp/articles/2005/09/06/siggraph2/


45 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 11:34:54 ]
うへぇ、CUDAの文法がまるっきりCのそれだからつい、騙されて梃子摺ったぜ。
デバイス側のメモリを巧く使うのは難しいな。
しかも、それが動かしてみないと判らないし、エラーメッセージもunspecified failureだし……

46 名前:デフォルトの名無しさん mailto:age [2007/09/12(水) 14:06:51 ]
昨日の洗脳集会に参加した人は素直に挙手しなさい。

47 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 15:19:24 ]
行きたかったけど行けませんでした。
資料ください

48 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 15:25:56 ]
>>46
申し込んだのに定員オーバーで断られた俺が来ましたよ

49 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 21:36:10 ]
tokyo-uのやつ?どんな話だったん?

50 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 22:09:05 ]
>>49
簡単なレポならここに
pc.watch.impress.co.jp/docs/2007/0912/nvidia.htm

51 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 22:18:23 ]
全く行く価値が無かった
単なる宣伝に終始

家でUIUCのコースをマターリ聞いたほうが何倍もマシ
courses.ece.uiuc.edu/ece498/al1/Archive/Spring2007/Syllabus.html

52 名前:デフォルトの名無しさん mailto:sage [2007/09/12(水) 22:40:07 ]
>>45
kwsk
資料がプログラミングガイドしかないからどんな情報でも欲しい。

53 名前:デフォルトの名無しさん [2007/09/14(金) 00:20:58 ]
ttp://journal.mycom.co.jp/articles/2007/09/13/nvidia/001.html

>これをTeslaではWarp(ワープ)と呼んでいる。

ワープ(笑



54 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 00:35:45 ]
日本語ではワープでもいいんじゃないか。

55 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 00:57:39 ]
>>53
どこが笑いどころなの?

56 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 01:07:59 ]
>>53が笑い者

57 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 01:20:03 ]
OS/2でも笑えるんじゃないか。うらやましいヤツメ

58 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 02:32:34 ]
ヲープ(笑)

59 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 10:34:46 ]
まぁ外人相手にワープと言ってもハァ?な顔されるだろうな

60 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 11:18:49 ]
トレッキーに通じないわけが無かろうが。

61 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 20:58:34 ]
CUDAって結局8800以外に何で使えるの?
この後出る予定の8700とか対応するんだろうか。話題ぜんぜん出てこないし

62 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 21:05:23 ]
個人的には
>CUDAって結局8800以外に何で使えるの?
っていう質問が出てくること自体、凄く不思議なんだが。
おもいっきり、プログラミングガイドにかいてあるけど。

63 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 21:18:16 ]
俺もそれ見たけど、8600では使えないと書いてるところがあった



64 名前:デフォルトの名無しさん mailto:sage [2007/09/14(金) 23:25:41 ]
CUDAはそもそも研究者のオナペットなんだから8800くらい買えよ、安いもんだろ
まさかCUDAが一般に普及するとでも思ってるとか?ねーよw

65 名前:デフォルトの名無しさん mailto:sage [2007/09/15(土) 00:16:06 ]
8800だけならすぐ廃れるのか

66 名前:19 mailto:sage [2007/09/15(土) 01:25:26 ]
正直、8800GTXの消費電力と占有スペースを考えたら8600GTSか、いっそ補助電源も要らない8600GTでいいと思う。
#テストするだけならね。コストパフォーマンスも高いことだし。
勿論、チャンピオンデータ狙いなら8800Ultraで頑張ればいいと思うが。
つーか、このスレにも一覧書いておいたのになぁ……

67 名前:19 mailto:sage [2007/09/15(土) 01:26:52 ]
って>63や、どこに8600はダメと書いてあったのかね?

68 名前:デフォルトの名無しさん mailto:sage [2007/09/15(土) 07:38:54 ]
>>66
>>19は実際に動かした情報を基にした一覧なのか?

69 名前:19 mailto:sage [2007/09/15(土) 08:36:22 ]
>>68
ドキュメントに基づいた情報。

実際に動かしたのは次のボード。
--
ELSA 988GTX
ELSA 988GTS
ELSA 786GTS
ELSA 786GT
--
ちなみにTeslaボードも入荷次第テストする方向。

70 名前:デフォルトの名無しさん mailto:sage [2007/09/15(土) 11:08:22 ]
常駐者だったのか。つか、ここ何人くらいで回ってるんだろうw

71 名前:19 mailto:sage [2007/09/15(土) 13:51:44 ]
常駐というより、巡回しているだけだけどね。
折角だから、nvccの出力(ptx)でも張ってみようか。先ずはソース。
--
#include <cstdio> // WIN版だとリンクにvcを使う所為かiostreamを巧く使えない
const int NofThreads = 256; // 32以下なら1warp内で完結、最大512
const int NofBlocks = 256; // 物理ブロック数をオーバーしたら時分割処理される
// device側コード
#include <cuda_runtime.h>
__device__ float dVals[NofBlocks * NofThreads]; // >45も書いている、device側のメモリ
__global__ void foo(float ratio)
{
float vs, vc;
unsigned offset = blockIdx.x * blockDim.x + threadIdx.x; // この右辺の変数で何番目のデータスレッドか判る
__sincosf(offset * ratio, & vs, & vc); // sincosf()の組み込み命令版
dVals[offset] = vs * vs + vc * vc;
}
// host(CPU)側コード
const float M_PI = 3.14159265358979323846f;
int main()
{
foo<<<NofBlocks, NofThreads>>>(M_PI / (NofBlocks * NofThreads)); // ここで並列起動
float hVals[NofBlocks * NofThreads]; // host(CPU)側メモリ
// この場合はcudaMemcpyFromSymbol()を使用(cudaMalloc()した場合はcudaMemcpy())
cudaMemcpyFromSymbol(hVals, dVals, sizeof(* hVals) * NofBlocks * NofThreads);
for (unsigned ic = 0; ic < NofBlocks * NofThreads; ++ic) {
printf("%g ", hVals[ic]);
}
fputchar('\n');
return 0;
}
// 所要時間はCore2Duo 6320 @ 1.86GHzで1秒掛からない程度
// シンプルすぎて時間測定には不向きなので要注意

72 名前:19 mailto:sage [2007/09/15(土) 13:53:50 ]
んで、こっちがnvcc -ptx -O3した出力の抜粋
--
.global .align 4 .b8 dVals[262144];

.entry foo
{
.reg .u32 $r1,$r2,$r3,$r4,$r5,$r6,$r7,$r8;
.reg .f32 $f1,$f2,$f3,$f4,$f5,$f6,$f7;
.param .f32 __cudaparm_ratio;
.loc 12 10 0
$LBB1_foo:
.loc 12 15 0
cvt.u32.u16 $r1, %ctaid.x; //
cvt.u32.u16 $r2, %ntid.x; //
mul.lo.u32 $r3, $r1, $r2; //
cvt.u32.u16 $r4, %tid.x; //
add.u32 $r5, $r4, $r3; //
cvt.rn.f32.u32 $f1, $r5; //
ld.param.f32 $f2, [__cudaparm_ratio]; // id:31 __cudaparm_ratio+0x0
mul.f32 $f3, $f2, $f1; //
cos.f32 $f4, $f3; //
sin.f32 $f5, $f3; //
mul.f32 $f6, $f5, $f5; //
mad.f32 $f7, $f4, $f4, $f6; //
mov.u32 $r6, dVals; //
mul.lo.u32 $r7, $r5, 4; //
add.u32 $r8, $r6, $r7; //
st.global.f32 [$r8+0], $f7; // id:32 dVals+0x0
exit; //
} // foo
--
# 解説要るなら言っとくれ

73 名前:デフォルトの名無しさん mailto:sage [2007/09/15(土) 14:33:50 ]
8800だと、128の演算が並列で行われるのでしょうか?



74 名前:デフォルトの名無しさん mailto:sage [2007/09/15(土) 15:22:58 ]
>>73
warpを理解しろ

75 名前:デフォルトの名無しさん mailto:sage [2007/09/19(水) 18:13:38 ]
cudaで遊ぼうとしてまして、8400GSでサンプルを動かして速さを実感したのですが、
cudaを使ったフリーソフトとかソフトを集めてるサイトとかありませんか?
手始めにmp3エンコーダーのlameのDCT部分をCUFFTで置き換えられないかなと
勉強中なのですが、すでに誰かやってそうで。
公式フォーラムで、Diracデコーダーを実装した人が20倍速くなったと書いてるのでわくわく

76 名前:デフォルトの名無しさん mailto:sage [2007/09/19(水) 18:46:15 ]
あー、8400GSでも動くのか。
しかし、WoodcrestXeonだと恐らく速くなりそうもない罠。

77 名前:デフォルトの名無しさん mailto:sage [2007/09/21(金) 23:03:28 ]
Cgのことはこちらで聞いて言いのでしょうか
ttp://up-sv.ath.cx/up/1/source3/No_0718.txt
こういうコードがサンプルであったのですが、中のfor文は動くのでしょうか?

現在GPUが無いところでソースだけ打ち込んでいたのですが少々気になって


78 名前:デフォルトの名無しさん mailto:sage [2007/09/22(土) 00:21:54 ]
>>75
x264に手を入れてくれw

79 名前:デフォルトの名無しさん [2007/09/25(火) 01:08:16 ]
CUDA死亡確認
ttp://pc.watch.impress.co.jp/docs/2007/0925/idf10.htm

80 名前:デフォルトの名無しさん mailto:sage [2007/09/25(火) 02:11:48 ]
PS3でリアルタイムレイトレーシング、デモアプリ公開

IBM:Interactive Ray Tracer for Cell Broadband Engine
www.alphaworks.ibm.com/tech/irt

IBMより、Cell Broadband Engineで動作するインタラクティブ レイトレーシングのデモアプリがリリースされました。
PS3もしくはIBM QS20 Cell blade上のLinuxで動作します。

リアルタイムレイトレーシングのデモ動画はすでに4月に公開されていたものですが、今回デモアプリが公開されたことで、家庭のPS3でも(Linuxの知識があれば)手軽?に試すことが出来るようになりました。

パフォーマンスは、QS20 1台で1080p 1.6M Triangles時にフレームレート2.7fps程度、QS20を7台使って17fpsとなっています。
ということはPS3を1台使用した場合のフレームレートは1.0fpsぐらいでしょうか、公開されている動画ではPS3を3台使用しています。

pocketnews.cocolog-nifty.com/pkns/2007/09/ps3_b71c.html

81 名前:デフォルトの名無しさん mailto:sage [2007/09/25(火) 02:47:39 ]
今後数年以内に産業資本主義自体が滅びるからcudaとかps3とか無駄

82 名前:デフォルトの名無しさん mailto:sage [2007/09/25(火) 07:04:10 ]
Larrabeeの行く末ってCellが示してる気がするわ。
描画は遅くて使えない
FahじゃX1650XTにも勝てない

83 名前:デフォルトの名無しさん mailto:sage [2007/10/02(火) 14:52:31 ]
>>80
PS3を3台ってどうやってデータ渡してんの?
先を予測して時分割でやってんのか。



84 名前:デフォルトの名無しさん mailto:sage [2007/10/02(火) 15:08:24 ]
>>83
スレ違い。どう見てもCELLスレ向けです。
--
Cellプログラミングしちゃいなよ2
pc11.2ch.net/test/read.cgi/tech/1183091522/

85 名前:デフォルトの名無しさん mailto:sage [2007/10/09(火) 20:50:22 ]
最近CUDAで遊び始めた者です。
ひとつの変数に複数のスレッドから値を足し込むことをうまくやりたいのですが、
スレッド間の同期が取れていないためか、おかしな値が出てしまいます。
( 例えば C = A[ty][tx] * B[tx][ty] )
for文を使うとうまくいくのですが、このfor文がボトルネックになってしまい
困っています。

何かうまい方法を知っている方いれば教えていただきたいです。

86 名前:デフォルトの名無しさん mailto:sage [2007/10/09(火) 21:50:00 ]
>>85
【GPGPU】NVIDIA CUDA質問スレッド
pc11.2ch.net/test/read.cgi/tech/1190008468/

そのAやBは、ReadOnlyなのか? だったら読み込みに問題はないと思うんだが。

87 名前:デフォルトの名無しさん mailto:sage [2007/10/10(水) 18:21:34 ]
85です。
例に挙げた式、間違ってました。
C += A[ty][tx] * B[tx][ty] でした。申し訳ない。
for文を使う場合は for(i=0;i<BS;i++) C += A[ty][i] * B[i][ty]; こんな感じです。
iはint型変数、BSはブロックサイズです。
for文を使わないと、各スレッドがそれぞれのタイミングでCの値を参照し、計算結果
を足しこんでいるのでしょうか、Cの値が毎度おかしなものになります。
AとBはReadOnlyです。

86さんの誘導先に似たような事例がありましたので参考にしようと思います。
それにしても、スレッドの並列処理に比べてfor文があまりにも遅くて驚きました。


88 名前:デフォルトの名無しさん mailto:sage [2007/10/10(水) 22:57:16 ]
すいませんCgのことでちょっとお聞きしたいのですが

3次元テクスチャを使ってデータをやりとりしてるのですが
どうもメモリが解放されていなくて、徐々にメモリ使用率が上がっていってしまいます

普通CPUで3次元テクスチャを使った場合はメモリ使用量は一定なので
GPU側の問題と踏んでいるのですが

同じような症状の方いましたら、解決方法教えてください


89 名前:デフォルトの名無しさん mailto:sage [2007/10/10(水) 23:19:54 ]
すいません↑のは

普通にCPUで〜
です

nvidiaのサンプル(opengl two texture sample)を実行してみたところ
animationをさせるとメモリが増加していきました。。。
これは仕方が無いのでしょうか…

90 名前:デフォルトの名無しさん mailto:sage [2007/10/10(水) 23:43:41 ]
>>87
Cが一箇所だとどうしても並列動作できないねぇ。

もしできるのであれば乗算の結果を(その場で積算せず)リニアにグローバルメモリに保存しておき、
別の関数でその値をまとめるとかいっそ、CPUに転送してCPUで集計するとか。

ぶっちゃけ、そういう積算が必要なくなるようにアルゴリズムを見直すのが一番だけどね。

# どうせなら誘導先に書いて欲しかった。

91 名前:デフォルトの名無しさん mailto:sage [2007/10/11(木) 15:22:23 ]
Intel 「GPGPUは失敗する(笑)」
pc.watch.impress.co.jp/docs/2007/1011/kaigai392.htm

92 名前:デフォルトの名無しさん mailto:sage [2007/10/14(日) 18:16:45 ]
二分木で足しこんで行く手はある

93 名前:デフォルトの名無しさん mailto:sage [2007/10/30(火) 21:06:02 ]
市販GPUを使ってパスワードを高速クラック
japanese.engadget.com/2007/10/29/elcomsoft-gpgpu-password-cracking/



94 名前:デフォルトの名無しさん mailto:sage [2007/11/13(火) 18:28:19 BE:10105373-2BP(1)]
GF8500GT-P256H使うか

95 名前:デフォルトの名無しさん mailto:sage [2007/11/13(火) 21:55:28 ]
CUDA 1.1betaが会員に公開されたみたいね。
x64をサポート、しかしVistaはまだだそうだ。

96 名前:デフォルトの名無しさん mailto:sage [2007/11/14(水) 09:45:29 ]
Linuxは?できれば*BSDもサポートして欲しいが。


97 名前:デフォルトの名無しさん mailto:sage [2007/11/15(木) 21:57:28 ]
GPUつかって
描画と物理演算の二つをやりたいのですが、可能でしょうか。

GPUで物理演算したものを、GPUレイキャスで行う
という感じなのですが

Cgで片方・片方は出来たのですが、それを同時にするのって見当がつかなくて

98 名前:デフォルトの名無しさん mailto:sage [2007/11/18(日) 17:05:58 ]
AMDの3800シリーズのデモ(PingPong)では玉の動きを物理処理させつつ高度な光源処理を行っています。

99 名前:デフォルトの名無しさん mailto:sage [2007/11/18(日) 23:52:33 ]
>>98
そのサンプルとかありますか?

実際にどう実装しているのか。まだvertex fragmentのシェーダー一つを扱うのにいっぱいいっぱいで


100 名前:デフォルトの名無しさん mailto:sage [2007/11/19(月) 12:29:12 ]
ttp://ati.amd.com/products/pdf/DirectX10.1WhitePaperv1.0FINAL.pdf
ttp://www.4gamer.net/games/044/G004473/20071115005/
DX10.1の発表と同時位に公開されるんじゃないかな?
これはDX10.1のデモだし。
ソースが出るとすればATI SDKのページかな。
ttp://ati.amd.com/developer/SDK/Samples_Documents.html
システムメモリにアクセス頻発するようなゲーム物理だと
WDDM2.1(DX10.1)未対応の場合、GPUがストールしまくりで
実用的ではないらしいけどね。

101 名前:デフォルトの名無しさん mailto:sage [2007/11/21(水) 12:55:42 ]
CUDA 1.1 beta が表に出てきましたよ。
x64サポートされてますよ。
Vis未サポートですよ。

102 名前:デフォルトの名無しさん [2007/12/08(土) 12:30:19 ]
ゲフォ8kって、AGPは無くてPCI-eに移行しないといけない
のな。すると連動してS-ATAに移行させられてdebian系が
起動しない罠。
FreeBSDでCUDAしたい…。


103 名前:デフォルトの名無しさん mailto:sage [2007/12/09(日) 21:08:47 ]
>debian系が 起動しない罠。
いつの時代の人?



104 名前:デフォルトの名無しさん mailto:sage [2007/12/09(日) 23:32:31 ]
woodyでも使ってんのかね

105 名前:デフォルトの名無しさん mailto:sage [2007/12/12(水) 10:42:27 ]
>>102
【GPGPU】NVIDIA CUDA質問スレッド
pc11.2ch.net/test/read.cgi/tech/1190008468/

106 名前:デフォルトの名無しさん mailto:sage [2007/12/24(月) 13:17:16 ]
AMDもCALとBrook+きたようだ
ttp://ati.amd.com/technology/streamcomputing/register.html

107 名前:デフォルトの名無しさん mailto:sage [2007/12/24(月) 13:51:35 ]
vistaだとランタイムたりねぇって怒られる・・

108 名前:デフォルトの名無しさん mailto:sage [2007/12/25(火) 22:09:12 ]
pc.watch.impress.co.jp/docs/2007/1225/kaigai409.htm

109 名前:デフォルトの名無しさん mailto:sage [2007/12/26(水) 08:12:57 ]
べつにハード的な統合は一番最後で構わんのだし
CALとBrook+が出たことで、今後将来的なAMD GPUでもサポートされる
今はこっちを一般的にするほうが課題だな

110 名前:デフォルトの名無しさん mailto:sage [2007/12/29(土) 12:02:21 ]
次世代(nVIDIA、AMDどっちでも良い)は、奮発して高いGPU買いたいよね。

111 名前:デフォルトの名無しさん mailto:sage [2008/01/13(日) 00:20:16 ]
あけおめ、CUDAのWorldCommunityGrid Boincクライアント用のアプリを誰か書いてくれ

112 名前:デフォルトの名無しさん mailto:sage [2008/01/15(火) 10:17:49 ]
>>111
kwsk

113 名前:デフォルトの名無しさん [2008/02/05(火) 09:17:50 ]
流れが止まったな



114 名前:デフォルトの名無しさん mailto:sage [2008/02/05(火) 14:45:38 ]
今だから聞きたいんだが、

お前らAMDとNvidiaのどっちが優れている、又はスタンダードになると思う?

GPUのシェーダー性能はAMDが優れていて、開発環境としてはNvidiaのCUDAのほうが普及している。

DX10.1対応で先行しているAMD、今度Phsixを買収するNvidia。

ぱっと見、抜きつ抜かれつでいい勝負しているように見えるが、どうなんだろうか。

115 名前:デフォルトの名無しさん mailto:sage [2008/02/05(火) 21:50:23 ]
犬VidiaがCPUも開発すれば良いよ。
犬糞動けば良いんだからさ。


116 名前:デフォルトの名無しさん mailto:sage [2008/02/06(水) 03:19:55 ]
ゲーム屋からみると、開発リソースはnVidiaが勝っているように思えるな。
結局今は様子見しかない。
GPGPU か、 hyper parallel coprocessor かは、先が見えるまでに何年もかかるんじゃない?

117 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 14:13:03 ]
extern __shared__ int shared[];
でsharedメモリを使えますが、複数の配列を使いたい場合はどのようにすればよいのでしょうか?


118 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 14:24:39 ]
>>117
cudaの話ならCUDAスレでどうぞ。
pc11.2ch.net/test/read.cgi/tech/1190008468/

119 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 21:31:27 ]
もうさ、GPUを直接プログラミングしたほうが早くね?

120 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 22:13:13 ]
公開されていれば…

121 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 22:40:49 ]
intel全部公開? intellinuxgraphics.org/documentation.html
amd準備中らしい?
nvidia ?

cryptにひっかかる回りはどうなってるかしらないが、
その部分はブラックボックスになるんだろう。

122 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 22:56:30 ]
いや、こんなしょぼいの公開されてもやる気茄子

123 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 23:03:56 ]
結局ハード仕様書がないことにはAPIの速度は測れても
どの部分がどの程度動くかを定量的に測るのは難しいってことだろう。




124 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 12:10:57 ]
GPGPUの研究ってどこの機関が一番進んでるの?
企業名とか機関名とか教えて

大学でGPGPUやってたけど大学レベルはどこもダメだった

125 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 12:18:28 ]
>>124
NVIDIA

126 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 12:23:54 ]
駄目ならむしろチャンスなんじゃないのか。
設備的にもパソコン程度で済むものだし個人のアイデアレベルでも世界に出られるぜ、素養は必要だけどさ

127 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 14:44:18 ]
cutCreateTimerなどタイマー関係のリファレンスってどこにあるの?

128 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 15:35:20 ]
>>127
CUDAについては隔離スレがあるからそちらで。
cutなんちゃらはドキュメントが無かったと思うけど、大したことしていないからソースを読めばいいよ。

>>124
大学で結構真面目に取り組んでいるところもあるよ。
今度産学共同でやることになるかもしれないから名前は出さないけど。

129 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 16:12:12 ]
普通にstanfordが一番進んでるだろ

130 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 19:20:32 ]
AMD(旧ATI)のカードは何でプログラムを書けばいいの?CUDAみたいのはないの?

131 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 21:50:19 ]
CALとBrook+を使うんじゃないかな?

132 名前:デフォルトの名無しさん mailto:sage [2008/02/22(金) 06:40:35 ]
GeForce 9600 GTは64ビット計算できますか?

133 名前:デフォルトの名無しさん mailto:sage [2008/02/22(金) 10:10:29 ]
出来ません



134 名前:デフォルトの名無しさん mailto:sage [2008/02/22(金) 11:16:14 ]
改良するんじゃなかったっけ?

135 名前:デフォルトの名無しさん mailto:sage [2008/02/22(金) 12:19:14 ]
口先だけのfudです

136 名前:デフォルトの名無しさん mailto:sage [2008/02/22(金) 13:52:32 ]
FireStreamは倍精度が使えるらしいけど、HD38x0で使えなきゃ意味がないよな。

137 名前:デフォルトの名無しさん mailto:sage [2008/02/22(金) 23:40:24 ]
意外かもしれないが、限定条件付で64ビット実数もCUDAで計算できる罠。
それはさておき、9600GTでCUDAが使えると言うアナウンスが未だないんですが。

138 名前:デフォルトの名無しさん mailto:sage [2008/02/23(土) 07:19:06 ]
あれ、両社とも倍精度実装するんじゃないんか?
現世代買わずに待ってたのに。

139 名前:デフォルトの名無しさん mailto:sage [2008/02/23(土) 12:05:37 ]
Brook+でdouble使おうとしたらストリームデータとしては使えませんと言われたよ。

140 名前:デフォルトの名無しさん mailto:sage [2008/02/23(土) 13:07:08 ]
それは「Brook+」とやらが対応していないと言うことだろ。GPUが対応しているかどうかとは別の問題だ。

141 名前:デフォルトの名無しさん mailto:sage [2008/02/26(火) 18:56:43 ]
>>128
灯台のK塚研?
あそこってK塚さんよりも、その他の学生・助手の天才が
GPUを扱ってるんでしょ?

あの大学の産学プロジェクトは、でかい花火をばーっと揚げて
中身が伴わないから好かん。


つーか、GPGPUやGPUを扱うためのTIPが少ない…
JAPANは当然だけど、海外の論文も上っ面だけで
いざ実装の部分がまったくない。

周りも聞けないのばっかだし、みんなどこで情報得てるんだ?


142 名前:128 mailto:sage [2008/02/26(火) 23:44:10 ]
>>141
どことは言えないけれど、そこじゃないよ。

どことは言わないけれどCUDAを使った高速化を商売にしている会社があるんだけど、
そこが組んだロジックよりも私が組んだロジックの方が速かったりする事実。
どこも苦労しているんだろうねぇ。

143 名前:デフォルトの名無しさん mailto:sage [2008/02/27(水) 00:04:24 ]
どこも暗中模索・切磋琢磨してるんだねぇ

つーか大学の研究室じゃなくて
今、それをやってる研究者を知りたいわ
教授レベルじゃなくて、学生・ドクター・助手レベルで
論文も数が少ないし、ノウハウなんて個人が所有してるのしか無い
仲が悪くなれば、脱走して終了なんていくらでもあるしなぁ

というか128のロジックをうpってくれw



144 名前:128 mailto:sage [2008/02/27(水) 00:13:21 ]
>>143
CUDAスレに、断片くらいなら載せてたかも知れず。
まぁ、落ち着いたら一般化できるノウハウはまとめるかも知れないけれど。

145 名前:デフォルトの名無しさん mailto:sage [2008/02/27(水) 02:39:38 ]
>>142
とあるシンポジウムに来ていたあの企業かしら…






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<182KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef