【GPGPU】くだすれCUDAスレ【NVIDIA】 at TECH
[2ch|▼Menu]
[1からを表示]
50:デフォルトの名無しさん
08/05/04 08:40:58
レジスター

51:デフォルトの名無しさん
08/05/09 16:59:41
2つのGPUを同時に使いたい場合、
for (int i=0;i<2;i++)
{
    CUDA_SAFE_CALL(cudaSetDevice(i));
    somekernel<<< 64, 512>>>( );
}
のような形で書けばよいのでしょうか?
それともこれだと、一つ目のカーネルが終わらないと2つめのカーネルの実行が開始されないのでしょうか?

上記のように書いているのですが、実行速度が2倍になりません。



52:デフォルトの名無しさん
08/05/09 23:36:57
>>51
スレッドを分けるか、CUDA1.1で追加されたストリーム機能を使う必要がありそうです。
後者の場合、こんな流れでしょうかね。
--
for (int ic = 0; ic < 2; ++ic) {
cudaStreamCreate(& stream[ic]);
cudaSetDeviece(ic);
kernel<<<64, 512, 0, stream[ic]>>>();
}
for (int ic = 0; ic < 2; ++ic) {
cudaStreamSynchronize(stream[ic]);
postProcess(ic);
}
cudaThreadSynchronize();

53:51
08/05/10 08:54:52
>>52
ありがとうございます。
上記のようにやったのですが、
for (int ic = 0; ic < 2; ++ic) {
の部分を
for (int ic = 0; ic < 1; ++ic) {
に書き換えると、実行時間がちょうど半分になるので
やはり並列で実行されていないようです。
上記コード以外になにか付け加える必要があるのでしょうか。

54:デフォルトの名無しさん
08/05/10 09:22:20
>>53
CUDA_SAFE_CALLマクロは毎回cudaThreadSynchronize()を呼ぶから要注意。

55:51
08/05/10 09:29:14
>>52さんの書かれたとおり、

for (int ic = 0; ic < 2; ++ic) {
cudaStreamCreate(& stream[ic]);
cudaSetDevice(ic);
kernel<<<64, 512, 0, stream[ic]>>>();
}
for (int ic = 0; ic < 2; ++ic) {
cudaStreamSynchronize(stream[ic]);
}
cudaThreadSynchronize();

のようにしているのですが、逐次実行になってしまいます。

56:51
08/05/10 09:30:35
どこかにサンプルコードとかはないでしょうか?

57:デフォルトの名無しさん
08/05/10 11:34:03
cudaSetDevice()するとそのCPUスレッドで使うGPUデバイスが決定されるので、
それ以降の変更はできない模様。cudaSetDevice()しないでAPIを使うと、
無条件にDevice0を使うことにされてしまう模様。

CPUスレッドを分けるしかなさそうね。

NVIDIAのForumに行けばサンプルも転がっていそうだけれど……

58:57
08/05/10 11:35:55
あー、書くの忘れた。CudaProgramingGuide(1.1)の4.5.2.2参照で。

59:51
08/05/10 12:35:11
ストリームだけではなんともならないということでしょうか?

60:57
08/05/10 13:12:58
ならないっぽいですよ。ドキュメントを読む限り。
2.0betaのドキュメントも書き換わってないからそのままの悪寒。

61:デフォルトの名無しさん
08/05/10 18:52:45
geforce9以降もCUDA対応してるんでしょうか?

62:デフォルトの名無しさん
08/05/10 20:00:46
>>61
勿論。

63:51
08/05/11 19:48:55
>>60
そうですか、そうなると結構面倒ですね。
ところで、スレッド分けで2つのGPUを使う場合、pthreadなどでも良いのでしょうか?
それとも、サンプルにあるような方法のみが認められているのでしょうか?


64:デフォルトの名無しさん
08/05/11 20:10:22
>>63
ちっとはcutilの中身も見ようよ。cutStartThread()は、Linux版ではpthread_create()を呼んでいる。

65:デフォルトの名無しさん
08/06/17 19:19:34
GeForce GTX 280で倍精度を使うと、処理速度はどの程度落ちますか?

66:デフォルトの名無しさん
08/06/17 22:48:50
単精度の半分ぐらいでしょ。JK

67:デフォルトの名無しさん
08/06/18 00:54:10
いいえ、12分の1です。

68:デフォルトの名無しさん
08/06/18 05:03:23
GTX280 78GFLOPS
GTX260 62GFLOPS

69:デフォルトの名無しさん
08/06/20 13:29:07
うーむ。GPU2枚使うのって実はコツとかいる?
ホスト側でOpenMP使って2スレッド走らせて、それぞれのスレッドに別のGPUを割り当てて
るんだが、答えとしては正しいものが返ってくるんだが速くならない。
むしろ、ホスト1スレッドで1つのGPUで計算させたほうがいくらか速いくらい。
きちんとGPU2枚使ってそうだというのは確認できたんだが速くならない理由がわからない。
なんだかGPU0の処理が終わってからGPU1の処理が始まるとかやってそうな予感がしている。
GPUの切り替えの分だけちょっとだけ遅くなるというオチじゃないかと。。。
サンプルのmultigpuとか読むとホスト側のスレッド生成法は違うけど同じようなことやって
るんだよなー。
2枚使って速くなったって人いたらどういう風にやったか教えてくれませんか?
かれこれ2週間くらい悩み中だ。

70:デフォルトの名無しさん
08/06/20 15:38:55
>>69
pthreadでは速くなった?
開発環境は?

71:69
08/06/20 17:34:03
pthreadって要するにホスト側スレッド生成にcutStartThread()を使うってことだよね?
それは実はまだやっていないんだ。これからやってみようと思う。
とりあえずスレッド走らせればいいんだと思っていたから、使用経験のあるOpenMPを使った。
もしかして、cutStartThread()で生成したスレッドを使用して各GPUを使うっていうことが
暗黙の条件だったりしないよね。
cutStartThread()で速くなった人いますかね?
開発環境はVisualStudio2005。

72:デフォルトの名無しさん
08/06/20 17:40:20
うちでは速くなってるけど・・・
こちらはLinuxだけど、もしソースが載せられるならうpしてみて。



73:69
08/06/20 18:41:08
>>72
ソースは諸事情のため色々と削ったりしたもの。
ちなみにCore2Duo+GPU×2なのでホスト側スレッド数=GPU数な環境。

float *h_data = 0;
h_data = (float*)malloc(mem_size);
(h_dataの中身をこしらえる)
cudaGetDeviceCount(&num_gpus);
int num_cpus = omp_get_num_procs();
omp_set_num_threads(num_cpus);
#pragma omp parallel
{
unsigned int cpu_thread_id = omp_get_thread_num();
unsigned int num_cpu_threads = omp_get_num_threads();
unsigned int element_per_kernel = element / num_cpu_threads;
float *sub_h_data = h_data + cpu_thread_id * element_per_kernel;
int gpu_id = 0;
CUDA_SAFE_CALL(cudaSetDevice(cpu_thread_id % num_gpus));
CUDA_SAFE_CALL(cudaGetDevice(&gpu_id));
printf("CPU thread %d (of %d) uses CUDA device %d\n", cpu_thread_id, num_cpu_threads, gpu_id);

74:69
08/06/20 18:42:06
unsigned int mem_per_kernel = mem_size / num_cpu_threads;
float *d_data = 0;
CUDA_SAFE_CALL(cudaMalloc((void**) &d_data, mem_per_kernel));

dim3 dimBlock(num_thread);
dim3 dimGrid(num_block/num_cpu_threads);

for(i=0; i<T; i++){
#pragma omp single
{
total = 0;
for (j=0; j<element; j++) total += h_data[j];
(h_dataの値を色々いじる)
}
CUDA_SAFE_CALL(cudaMemcpy(d_data, sub_h_data, mem_per_kernel, cudaMemcpyHostToDevice));
calculate<<< dimGrid, dimBlock >>>(d_data, total);
CUDA_SAFE_CALL(cudaMemcpy(sub_h_data, d_data, mem_per_kernel, cudaMemcpyDeviceToHost));
}
}

諸事情によりomp singleを使っている場所があるんだがこいつが悪さをしているとかあるのかな。

75:デフォルトの名無しさん
08/06/27 02:51:33
質問です(全く素人です)

OpenGLを使えばGPGPUのプログラミングが出来ると聞いたのですが、
かたやCUDAなどの専用の言語が出てきているのはどうしてでしょうか?

76:デフォルトの名無しさん
08/06/27 03:13:39
だったらcとか使わずfortran66でも塚っテロ

77:デフォルトの名無しさん
08/06/27 12:11:54
>>76
いえ、ですから、OpenGLではGPUの使えない機能もあるのかなぁ、と思いまして。

78:デフォルトの名無しさん
08/06/27 16:55:21
GPUで計算中でも画面は通常通り表示されますか?

79:デフォルトの名無しさん
08/06/27 22:56:10
>>78
ハードについて勉強するよろし

80:デフォルトの名無しさん
08/06/28 00:16:42
CUDA実行中に、時たま怪しげな影が飛んだりフリーズしたりします。

81:デフォルトの名無しさん
08/06/29 11:59:05
Folding@HomeのGPU版をしている人居ます?
PS3の280GTXは6倍以上をこなしているようですが。

ベータ版が公開されているが時間がなくてまだ何もしていない(困った。)


82:デフォルトの名無しさん
08/06/29 12:04:52
>>81
マルチすんな。つーか、PS3の280GTXってなんだよpgr

83:デフォルトの名無しさん
08/06/30 07:04:03
>>69
OpenMPの使い方が根本的に間違っていると思う

84:69
08/07/01 22:08:51
>>83
サンプルのcudaOpenMPを参考にしてやったんだけどなぁ。
これじゃどうだめなのかぜひとも教えてくれ。
ちなみにOpenMPの使い方はサンプルにあわせている。
ただsingle構文はサンプルでは使っていないがな。

85:デフォルトの名無しさん
08/07/02 04:05:38
VisualStudio2005はExpress?だったらOpenMPディレクティブは機能しないよ

86:デフォルトの名無しさん
08/07/02 15:57:17
nvidiaドライバを削除する方法ってどこかにのってないか@CentOS5

新しいグラボ買ったんだけどドライバの削除がわからないウンコー

87:デフォルトの名無しさん
08/07/02 16:15:29
grid, threadの意味がわからない
アニメに例えて教えろ

88:デフォルトの名無しさん
08/07/02 21:30:09
今amazonみたらGPUGems3の日本語版の予約を受け付けてるじゃn

89:デフォルトの名無しさん
08/07/03 01:44:22
ノート(OS:Vista)で動かそうとしても動きません
CUDAに対応したGPUを搭載しておりますし(8700M GT)
VC2005Expressをインストールしたのですが、コンパイルすると
nvcc fatal: nvcc cannot find a supported cl version.
Only MSVC 7.1 or 8.0.
と表示してしまいます。まったくわからなくて困ってます。
よろしければお教えください


90:デフォルトの名無しさん
08/07/03 01:47:35
2005以外のバージョンのVCも入れてる?
nvccが参照しているVCが2005じゃないように見える。


91:デフォルトの名無しさん
08/07/03 10:56:29
いれておりません。
インストールしたのは
VC2005EXとVC2005SP、VC2005SP Update for Vista
だけなのですが。

92:69
08/07/03 13:12:53
>>85
VisualStudio2005Professionalを使っています。
とりあえずcuda使わないで純粋にCでOpenMP使ったら高速化されているのでOpenMP自体は動いている模様。

93:デフォルトの名無しさん
08/07/04 21:25:01
URLリンク(vipprog.net)

94:デフォルトの名無しさん
08/07/08 02:11:24
>>93
なにこの糞サイト

95:デフォルトの名無しさん
08/07/08 02:42:51
質問です

PhysXがGeforceでも使えるということを聞いたのですが、
PhysX SDKとCUDAやOpenCLというのは同じレイヤーでの話なのでしょうか?

96:デフォルトの名無しさん
08/07/08 05:08:31
>>84
pthreadでは高速化された?


97:デフォルトの名無しさん
08/07/08 09:16:41
>>88
アノ値段じゃ学生はp-子するから売れん罠

98:デフォルトの名無しさん
08/07/08 11:01:42
Gem3はGPGPUに限って言うならあんまり役に立たなかった

99:デフォルトの名無しさん
08/07/08 19:02:12
>>86
--uninstall

100:86
08/07/09 13:42:42
>>99
ありがトマト
ところでSobelFilter見ててShareMemの使い方がわからないんだが
フォーラムに質問と返答あったが内容わからん+英語で全然わからん
誰か全訳してくれ

101:86
08/07/09 13:44:25
URLリンク(forums.nvidia.com)

誰か誰か!

102:デフォルトの名無しさん
08/07/10 12:22:28
>>86
訳すのはめんどいからパスだけど、ポイント絞って質問してくれたら回答するよ。

103:デフォルトの名無しさん
08/07/10 12:28:53
>>86
C:\WINDOWS\system32\drivers
から目的のドライバを手で削除すればよい。

104:デフォルトの名無しさん
08/07/13 21:12:38
>>102
神ktkr
ポイント絞るからちっと待ってて…

105:102
08/07/14 11:56:25
問題は、自宅が規制に巻き込まれていてなかなか書き込めない辺り。
取り敢えず、注意点を列挙しておく。
・共有メモリを確保するのはglobalFunc<<<blocks, threads, sharedMemorySize, streamNo>>>(parameters)の
 三番目のパラメータでサイズが指定されたときだけ。
・共有メモリは一回の<<<>>>の呼び出しの間だけしか有効じゃない。
# つまり、次の回には残っていない。
・共有メモリをハンドリングするには、extern __shared__ anyType * nameで宣言するだけ。
# つまり、コンパイラは型のマッチングやサイズのチェックをしないので自分で管理しないといけない。
・共有メモリはblock間で独立、block内ではthread数に関わらず共有。
# つまり、実際のデバイスにそぐわないthread数を指定した場合はCUDA側で同期処理が入るのか、遅くなってしまう。
・あるthreadが共有メモリに書いた後、別threadが読む前には__syncthreads()で同期を取らないといけない。
# ある意味当然なんだけど、その所為で遅くなるのも事実。

あー、ついでにメモリの違いを簡単に。
※グローバルメモリ
・読み書きできる。coalescedにアクセスできれば結構速い。消えない。広い。
・ホスト側スレッドごとに独立している。ホスト側から見ると、毎回同じアドレスになるのでどのくらい使えるか判りにくい。
※共有メモリ
・読み書きできる。遅くない。
・呼び出しごとに消えてしまう。余り広く取れない。事実上同期を取る必要があって使い難い。
※定数メモリ
・速い。消えない。そこそこ広い。
・例えばfloat2を読み込むインストラクションがないので実はグローバルメモリからfloat2を読むより遅くなる場合もある。
・デバイス側から書き込めない。ホスト側スレッドごとに独立している。複数スレッドからCUDAを使うと毎回転送しなおすのか?
※レジスタ
・読み書きできる。速い。厳密に型チェックされる。つーか、型ごとに違うインストラクションが使われるからptxファイルで追える。
・呼び出しごとに消える。他のメモリに較べれば狭い。
# ローカルな配列は宣言したことないからよく判らん。

106:デフォルトの名無しさん
08/07/14 19:10:53
NVIDIAの仕様書見てもcoalescedの意味がいまいちわからないのだけど、どういうこと?
どこかわかりやすく解説しているサイトない?

107:デフォルトの名無しさん
08/07/14 19:12:13
カーネル内で__shared__つけて配列を宣言するのと、つけないで配列を宣言するのでは何が違うの?


108:デフォルトの名無しさん
08/07/14 19:24:11
>>106
GPUはWarp単位で同じインストラクションが走るから、要は16人17脚みたいに考えればいい。
メモリアクセスを16人17脚によるパン喰い競争みたいに考えると、自分のパンが目の前にある状態がcoalesced。
そのとき、2,3人パンを喰う必要がなくてもスルーするだけだから問題ない。
処が、二人のパンが入れ違っていたらそこで入れ替える間、みんなが待たされることになるって感じ。
# 判っている人には判るけど、判っていない人には判らない説明だなw

>>107
共有メモリを使うかどうか違うだけだと思うけど。ptx出力させて較べてみたら?

109:デフォルトの名無しさん
08/07/15 00:26:16
>>108
その説明、いただいてもいいですか?

110:デフォルトの名無しさん
08/07/15 01:56:27
>>109
本にするならもっと書かせてくれw
Vipのwikiに載せるなら是非やってくれ
金取って講習するのに使うのなら分け前よこせw

111:デフォルトの名無しさん
08/07/15 07:52:19
>>105
その通りですシェアードメモリとブロック数が理解できない

1. プロック数
dim3 blocks = dim3(iw/(4*BlockWidth)+(0!=iw%(4*BlockWidth)),

ih/threads.y+(0!=ih%threads.y));

なぜblocks.xはiw/threads.x+(0!=iw%threads.x)じゃなくて
上の式になるのか。

2. シェアードメモリ
int SharedPitch = ~0x3f&(4*(BlockWidth+2*Radius)+0x3f);

int sharedMem = SharedPitch*(threads.y+2*Radius);

SharedPitchはなぜ上の計算になるのか。
0x03fの意味、4*の意味、BlockWidth+2*Radiusの意味が理解できない

とりあえずSharedメモリの使い方はどこを調べればわかるんだ!ウンコ!

112:デフォルトの名無しさん
08/07/15 08:45:54
>>111
どんな数字を入れるとどんな結果になるか、Excelでも使って計算してみたら?
0x3f使うのは64の倍数にするためでしょ。

113:デフォルトの名無しさん
08/07/15 16:57:48
>>112
うーんそのなんで64にするのかがわからないのよ

関係ないかもしれんがシェアードメモリを使ってないSobelFIilterも
SobelTex<<ih, 384>>>でなぜ384かわからないお
こっちは1行1グリッドにして、1スレッド1ピクセルなんだと思うが
なんでスレッド数を画像の横幅iwにしないで384にするんだぁ
スレッド数が384だと計算が速い理由でもあるのかお!

114:デフォルトの名無しさん
08/07/16 00:40:50
単純に、warp数の適当な倍数になるからってだけじゃなかろか。

115:デフォルトの名無しさん
08/07/16 18:09:02
GPUコードではmemcpyは使えないの?

116:デフォルトの名無しさん
08/07/16 21:23:53
>>115
デバイス側で、デバイス間のコピーをしたいってことなら、自前で書くしかないんじゃないかな。
でも多分、そこがボトルネックになると思う。

117:デフォルトの名無しさん
08/07/16 21:43:54
global memoryからshared memoryへのコピーの時間と
shared memoryからglobal memoryへのコピーの時間が
異なるのは何でなんだぜ?
よく分からない…

118:デフォルトの名無しさん
08/07/16 21:47:14
>>117
グローバルメモリへの書き込みはcoalscedでも遅いと思う。
そうでないなら、ptxファイル見てみないとなんとも。
プロファイラを使うともう少し様子が掴めるかも知れない。

そだ、プロファイラの使い方って、日本語で書かれたものがWeb上で見つからないんだよね。
誰か、まとめてない?

119:デフォルトの名無しさん
08/07/16 23:29:54
>>113
指定できるスレッド数の上限は合計512までだからだろ
もしくは、スレッド数を多くすると使用するレジスタ数がパンクするから


120:デフォルトの名無しさん
08/07/17 00:02:48
>>115
自前で作成したmemcpy関数(サンプル付き)
記憶で書いているのでデバッグは自分でよろしく
注意:sizeは4の倍数のみ

__device__ void memcpy1D(long* p_dst , const long* p_src , unsigned int size)
{
const long* p_end = p_src + (size >> 2);

p_src += threadIdx.x;
p_dst += threadIdx.x;

while (p_src < p_end)
{
*p_dst = *p_src;

p_src += blockDim.x;
p_dst += blockDim.x;
}
}

__device__ structHogeHoge g_data;

__global__ void sample(void)
{
__shared__ structHogeHoge s_data;

memcpy1D((long*)&s_data , (long*)&g_data , sizeof(s_data));
__syncthreads();
}


121:デフォルトの名無しさん
08/07/17 15:32:10
NVIDIAのサイトから、lameをCUDA化したサンプルコードをダウンロードして、コンパイルしてみたのだけど、
かえって遅くなるのだけど、速くなった人いる?
CPUはAthlon2.0GHzでGPUは8800GTXです。
コンパイルはサイトの指示通り、USE_GPU_HPFを有効にしてかつ、そのCPUパートはコメントアウトして実行しないようにしています。

122:デフォルトの名無しさん
08/07/17 15:37:52
>>121
nVidia「全然速くならないから誰か代わりにやってくれ。速くても賞金出すのは北米在住者のみな^^」
というコンテストだから当然

来週締切なのに今のところまともに投稿してるのが1チームという惨状

123:121
08/07/17 16:05:38
賞金はともかく、NVIDIAの書いたコードだから、勉強になると思ったのですが

124:デフォルトの名無しさん
08/07/17 16:14:53
>>123
甘いな。ハードの設計している連中とドライバを作っている連中と
CUDAを作っている連中とそれの応用を作っている連中が勝手にやっているのがNVIDIAだ。

125:デフォルトの名無しさん
08/07/22 17:35:55
URLリンク(3.14.by)
URLリンク(forum.insidepro.com)

URLリンク(www.insidepro.com)

MD5 Crack on CUDA で腕試しが流行っているみたいだよ。
日本も頑張らなきゃ。





126:デフォルトの名無しさん
08/07/23 00:13:58
だれかフォートラン仕様にしてくれ

127:デフォルトの名無しさん
08/07/23 13:37:55
>>122
2チーム目が来たね
2倍ちょっとって、これならquad core使った方がよくね?

128:デフォルトの名無しさん
08/07/23 16:41:58
GTX280でCUDAすると素人考えで単純にSP数増えてる分だけ
速くなりそうな気がしてしまうんだが実際はどーなの?
Warpとかいろいろ考えることもありそうなんだけど。。。

129:125
08/07/23 19:13:07
>>127

英語読めていないよ。こんな簡単な読みも出来ないとなると
本当に困る。

Teamの人数が2人だよ。
登録が200を超え、提出者が20組 トップは6回目のUploadだ。
提出者が20組だから結構な盛況だと考えるよ。


130:デフォルトの名無しさん
08/07/24 00:13:47
NVIDIA、GPGPUに関する説明会を開催 - 今年中のFortranのサポートを計画 (2) CUDA2.0正式版は近日中にリリース予定
URLリンク(journal.mycom.co.jp)

2.0とマルチCPUサポートはそろそろ、マルチGPU・多言語・デバッガ・プロファイラサポートは多分おそらくきっとそのうちだってさ



131:デフォルトの名無しさん
08/07/24 02:24:04
cudaを覚えはじめるのにぴったりな本ないかなぁ?

132:デフォルトの名無しさん
08/07/24 11:03:32
CUDAに特化した本は未だないだろ。

133:デフォルトの名無しさん
08/07/24 12:24:23
>>131
本家プログラミングガイド
変な日本語訳のプログラミングガイドもある。

134:デフォルトの名無しさん
08/07/24 16:45:20
>>132
出たら買うから 出してw

135:デフォルトの名無しさん
08/07/24 17:17:55
じゃ、書くからNVIDIAと出版社相手の交渉は任せた。

136:デフォルトの名無しさん
08/07/24 22:53:31
何か並列処理の本のおまけみたいな形じゃないと
正直売れないだろうなぁ

137:デフォルトの名無しさん
08/07/26 17:15:12
>>135
たぶん、猫でもできる・・・・とかと同じように、HPたててそこで解説したら出版社から来ると思う。
わざわざHPスペース借りてーとかでなくても、WIKIでもいいと思われ。
交渉とかは向こうが書いてくれっていうだけだと思う基本的に。
んで、ワードなり、一太郎なりで原稿書けばOKじゃね?
画面キャプチャなどの画像は、まとめて管理したほうがいいぽいよ。
なんか、ワードとかで埋め込んじゃったりすると、逆に手間かかるらしい。

138:デフォルトの名無しさん
08/07/28 09:38:41
NVIDIAの日本語サイトがようやく
更新されたw

139:デフォルトの名無しさん
08/07/28 11:32:06
gpuはcpuより劇早なんだから
使いたいよねえ

パスワード解析とかにも使えそう

140:,,・´∀`・,,)っ
08/07/28 11:37:29
速くねーよ。

CPUをセダンに例えるならGPUは貨物車だな。
荷物を大量に扱う場合だけは効率がいい。

141:,,・´∀`・,,)っ
08/07/28 11:49:02
それはそうとパスワードクラックなんて浮動小数演算能力が全く役に立たないものの代表格だな。

142:デフォルトの名無しさん
08/07/28 12:08:10
そうだね
並列処理すればいいじゃない?

143:デフォルトの名無しさん
08/07/28 17:46:54
そういや去年CUDA使ってそんなソフトが出てたな

144:デフォルトの名無しさん
08/07/28 19:41:23
>>141
MD5はやっていますが?
他に現在手に入るクラック専用マシンでCUDA以上のC/P
があればお話が成り立ちますがね。


145:,,・´∀`・,,)っ
08/07/28 20:22:47
>>144
それやってるのは整数論理算術演算じゃん
乗算すら浮動小数じゃないよ。


つーかMD5なんてすでにハッシュアルゴリズムとしては死んでるんだが。
ワンタイムパスワードとしてならまだまだ現役でやれるだろうけど
性質上瞬時にクラックできないとクラックの意味もなくなる。


ああFPGA焼いた方がいいんじゃない?

今各社が力入れてるのはAESなどの128ビットブロック暗号だな。

146:,,・´∀`・,,)っ
08/07/28 20:35:07
つーか個人でGPUで遊ぶ分にはアリかもしれんけど
でかいシステム組めるTeslaになると別に高CPでもなんでもないんだよね。
特に整数性能に関してはPS3でクラスタくんだ方がまだ良いくらい。

GTX280含め現行GPUの整数性能はまだまだ残念な印象。

147:デフォルトの名無しさん
08/07/28 20:44:09
パスワードクラックほどの極小のプログラムでも
Xeon>PS3だって自分のページで言ってなかったっけ?

148:,,・´∀`・,,)っ
08/07/28 21:02:00
暗号関連ならCellはAESみたいなブロック暗号はそれなりに速いよ。
例のvpermもどき命令で1コア16並列でエンコード/デコードできるからね。
ただAESアクセラレーションはWestmereでの強化点にもなるのでこの先はわからん。


まあいずれにしてもCUDAはいろいろ残念だな。
ATiとのGPUシェア争い無視してでも汎用性能をとるか来たるLarrabeeとガチるかの瀬戸際だし。

149:デフォルトの名無しさん
08/07/29 09:58:39
>性質上瞬時にクラックできないとクラックの意味もなくなる。
笑った。連れの言い分と全く一緒だからな。
流れているデータをリアルタイムで解読できなければ暗号解読ではない
というような考え。ある意味では正しいが、ネットのデータは記録可能
という点を考慮していないし大穴になる。

AESアクセラレーションハもう6年も前にある技術だし今さら。

しかし認証段階で破られたらAESは即死に体だよ。実際解読ソフト
使っているのでww


150:デフォルトの名無しさん
08/07/29 12:28:50
別にCUDAは整数性能ウリにしてないし
このスレってムチャを前提にケチつけてるだけで結局何も出来ない無能者の集いだな・・・

151:デフォルトの名無しさん
08/07/29 12:59:27
並列演算の応用として暗号解読の話題を語ってるだけだと思うんだが・・・

152:デフォルトの名無しさん
08/07/29 13:50:22
>>151
それがわかってないといわれてる原因なんでしょ…

153:デフォルトの名無しさん
08/07/30 12:07:16
そうなんだ

154:デフォルトの名無しさん
08/08/04 01:58:13
 弱点だった倍精度もGTX280で改良された。しかし何かイマイチなんだよなぁ。
消費電力あたりの性能がたいした事ないからかなぁ

155:通りすがり
08/08/07 11:07:41
CUDAでレイトレーシングがいました。 CPUの15倍パフォーマンスが出ているようです。
URLリンク(noridon.seesaa.net)


156:デフォルトの名無しさん
08/08/07 13:30:10
SSEも使ってない2コアの速度と比べて15倍じゃ今一かも

157:デフォルトの名無しさん
08/08/07 16:48:46
URLリンク(www.nicovideo.jp)
URLリンク(www.nicovideo.jp)
レイトレーシング

158:デフォルトの名無しさん
08/08/07 20:25:59
>>154
このスレ的には正常進化じゃね?

159:デフォルトの名無しさん
08/08/08 01:46:07
だれか4850にCUDA載せてくれ

160:デフォルトの名無しさん
08/08/08 14:04:29
Core2Duo(3GHz)×2 = 最大 1.89FPS
CUDA(GTX 280) = 最大52.48FPS

27.7倍高速出ているようです。

URLリンク(noridon.seesaa.net)

161:デフォルトの名無しさん
08/08/08 14:36:26
それatiのgpuじゃ実行できないよね?

162:デフォルトの名無しさん
08/08/08 18:06:10
CUDAですから

OpenCLはCUDAを採用したと聞いたが…本当なん?

163:デフォルトの名無しさん
08/08/08 18:18:50
OpenCommonLisp

164:デフォルトの名無しさん
08/08/08 20:41:23
4 x 2.5 GHz の 3 fps と比べても 17倍
これは大したものだ

165:デフォルトの名無しさん
08/08/09 00:50:56
IntelC++ と比べてどうなんかな?

166:デフォルトの名無しさん
08/08/09 07:05:08
うごかねえw

167:デフォルトの名無しさん
08/08/09 16:57:34
>>162
んなわけない
既にMacOSXにもCUDAがあるのにわざわざ10.6でOpenCL採用を謳うかよw

168:デフォルトの名無しさん
08/08/09 22:58:33
インテルは0からスタートするわけだからどのぐらいの速度でIntel製GPU普及するのかは見ものだね。 NVDIAのGPUはすでにゲームやCAD、3Dグラフィックの用途にすでにかなり普及しているからね。今後はAMDやIntelのQuadcore CPUでCUDAが使えるようになるしね。

169:デフォルトの名無しさん
08/08/09 23:11:40
SPがPentium-Mベースだから割と簡単に追いつけるんじゃない?

170:デフォルトの名無しさん
08/08/11 09:30:11
>>168
そのとおりだけど、intelには事実上CPUと抱き合わせ、という裏技があるからなあ。
今回はかなり本気っぽいし、微妙かも。

171:デフォルトの名無しさん
08/08/11 13:44:37
質問です。

libshをコンパイルしようとしたら以下のようなエラーが出ました。
何が足りないのでしょうか?

ShSwizzleImpl.hpp: In member function 'void SH::ShSwizzle::copy(const SH::ShSwizzle&, bool)':
ShSwizzleImpl.hpp:191: error: 'memcpy' was not declared in this scope
ShSwizzleImpl.hpp: In member function 'bool SH::ShSwizzle::operator==(const SH::ShSwizzle&) const':
ShSwizzleImpl.hpp:251: error: 'memcmp' was not declared in this scope

172:デフォルトの名無しさん
08/08/11 14:36:44
アハハ

173:デフォルトの名無しさん
08/08/11 17:33:27
夏だな

174:デフォルトの名無しさん
08/08/11 18:07:18
俺は夏かどうか確認するために書き込んだわけではありません。
馬鹿正直にくだらない質問に答えてくれる人を待っているだけですよ。
質問に答える気がない人間は不要。
スレ違いだと言わざるを得ませんね。

175:デフォルトの名無しさん
08/08/11 20:14:53
夏だね

176:デフォルトの名無しさん
08/08/11 21:15:36
そんな失礼な態度のヤシに親切に答えてくれる人がどれだけいるか
待ってるより自分の頭で英語の意味を理解した方がずっと早いと思うがw


>error: 'memcpy' was not declared in this scope
>error: 'memcmp' was not declared in this scope
普通の頭の持ち主なら必要なincludeファイルがincludeされてないと解釈するだろうな

177:デフォルトの名無しさん
08/08/11 21:22:37
>>176
一つ言わせてもらう。

お前らに 「聞いてやってる」 んだよ。

聞いてほしくてたまらないんだろ?ニートで暇だから。
お前らが答えないなら別のやつに聞くだけ。
聞く相手はいくらでもいるんだよ。

178:デフォルトの名無しさん
08/08/11 21:35:15
>>176
ああ、ちなみにもう解決したから。自力で。
お前らみたいに大した知識もないくせにもったいぶった無能に聞いたのが間違いだったな。

ちなみに、ソースに手を加えずに解決した。
解決方法なんて書かないよ。
同じ問題に出会ったやつは ググレカスw

179:デフォルトの名無しさん
08/08/11 23:04:59
>>178
で、どこがCUDAに関係してたの?

180:デフォルトの名無しさん
08/08/11 23:42:51
凄いのが来たなぁ
釣りであると信じたいが天然厨房っぽいな

181:デフォルトの名無しさん
08/08/12 02:26:14
いや、質問主はまだ困ったままだろw
質問横取り煽り厨だろ

182:デフォルトの名無しさん
08/08/12 05:57:35
>>160
俺もやってみた
4コアCPUが必死に動いても8800GTに25倍くらいの差付けられた
レンダリングの革命やでぇ〜

183:デフォルトの名無しさん
08/08/12 06:15:06
GPGPUレンダはまだ無いから実用性のあるの早く作って売れば金になるんじゃね
今の外部レンダは綺麗だけど時間かかって静止画までしか実用性無いからな
お前らちゃんすだぞ
絶対金になるだろうから、多分作ってるところはもう取り組んでると思うけどね
ていうか俺が早く出してほしいんだよ

184:デフォルトの名無しさん
08/08/12 22:18:14
gemsもそうだが、なんでOpenGLやGPU関連の書籍というのべらぼうに高いんだ?

185:デフォルトの名無しさん
08/08/13 17:25:11
>>184
需要がない割りに書くのが大変だから。

186:デフォルトの名無しさん
08/08/13 17:32:40
OpenGLは需要あると思うが。

187:デフォルトの名無しさん
08/08/13 21:20:05
>>184
訳してる会社が(ry
「誰が買うんだこれ!?」って思う値段の本は大抵原著は安かったりする
酷いのは原著の2倍以上

188:デフォルトの名無しさん
08/08/14 00:20:49
OpenCLはIntel製GPUでも使えるのだろうか。

189:デフォルトの名無しさん
08/08/14 01:38:59
>>188
Larrabeeのこと?

190:デフォルトの名無しさん
08/08/14 02:57:25
>>188
使えるでしょ
自社が参加してるワーキンググループが発表するんだから

191:デフォルトの名無しさん
08/08/14 13:46:01
URLリンク(www.gpureview.com)
うーむ……

192:デフォルトの名無しさん
08/08/18 09:18:31
URLリンク(jp.youtube.com)
GeForceでスパコン終了
一時間が30秒に

193:デフォルトの名無しさん
08/08/18 10:23:41
ゲームをやってた助手が「あ、どうも」、わざとらしくてワラタw

194:デフォルトの名無しさん
08/08/19 14:09:07
こんちにわ。LinuxでCUDAのプログラムを作成している者です。
早速質問ですがMPIを用いて、複数のクラスタ(PC5台、そのうち1台が親機で4台が子機)で
CUDAプログラムの動作できた方はいませんでしょうか?
プログラムの内容として、子機で演算させ、親機では適当なメッセージを出すのみという、
並列演算とか関係なく、単にMPIでCUDAを動かすテストプログラムです。

下記のようなMakefileでコンパイルを行っています。
ROOTBINDIR = ./
ROOTDIR = /home/usr1/NFS/NVIDIA_CUDA_SDK/
# Add source files here
EXECUTABLE := mpicuda_matrixMul
# Cuda source files (compiled with cudacc)
CUFILES := mpicuda_matrixMul.cu
# C/C++ source files (compiled with gcc / c++)
CCFILES := \
matrixMul_gold.cpp

SMVERSIONFLAGS := -arch sm_11
############################################################
# Rules and targets
INCLUDES = -I/home/usr1/mpich-1.2.7p1/include -I/home/usr1/NFS/NVIDIA_CUDA_SDK/common/inc
USRLIB = -L/home/usr1/mpich-1.2.7p1/lib -L/home/usr1/NFS/NVIDIA_CUDA_SDK/lib -lmpich -lcutil
include ../../common/common.mk

195:194
08/08/19 14:09:55
続きです。
上記のようなMakefileをNVIDIAのCUDA関連のBBSで見つけたので参考に作成しました。
しかしコンパイル時に下記のようなエラーが出てきます、、

/usr/bin/ld: cannot find -lcutil
collect2: ldはステータス1で終了しました
make: ***[linux/release/mpicuda_matrixMul] エラー1

上記のエラー内容を調べたところ、libcutil.aというライブラリがリンクされていない、
という内容と思われるのですが、Makefileには正しい場所にリンクさせてあると考えています。
開発環境として、OSがはCentOS5、親機のGPUがGeForce7900、子機が8600です。
(親機でCUDAの演算は行わないので7900)

それでは、どなたかよろしくお願いします。


196:デフォルトの名無しさん
08/08/19 20:40:53
>>195
cutilはmakeした?
した積もりなら、ちゃんとライブラリファイルはできている?
OpenGLがインストールされていない環境だと、恐らく失敗している筈。
その場合、OpenGLをインストールするかOpenGL絡みのエラー修理辺りをコメントアウトすればmakeできるはず。

197:デフォルトの名無しさん
08/08/19 23:40:11
MPIでCUDAを試したことは無いけどGLUT,GREWがインストールしてないと
>>195のようなエラーが出たことがある

198:デフォルトの名無しさん
08/08/20 00:48:28
なあ、あのへんてこ日本語プログラミングガイドのリンクが消えているような気がするんだけど、
前からこんなんだっけ?

199:デフォルトの名無しさん
08/08/20 00:50:02
いいことだw

200:デフォルトの名無しさん
08/08/20 20:57:08
URLリンク(jp.youtube.com)
530万ドルのスーパーコンピュータ「CalcUA」で一時間
一台デスクトップPCで30秒

URLリンク(www.atmarkit.co.jp)
ベルギーのアントワープ大学では、それまで使っていたAMDベースの256ノードのクラスタサーバ「CalcUA」の性能を、8GPUを使ったデスクトップPCシステム「FASTRA」が上回った。「CalcUAは530万ドルのスーパーコンピュータ、FASTRAは7000ドルのデスクトップだ」(グプタ氏)。
NVIDIAによればGPUを使った同様のクラスタサーバは、NCSA、イリノイ大学、ノースカロライナ大学、マックスプランク研究所など、すでに十数の組織で使われているという。

201:194
08/08/21 15:43:36
>>196 さん 、>>197 さん
お返事ありがとうございます。
cutilのライブラリは確認済みです。CUDAインストール時に作成される、
〜/NVIDIA_CUDA_SDK/lib の中にlibcutil.aがありました。

OpenGLは前からインストールしており、またそのプログラムは動くので、
GLUT等はインストールされているはずなのですが。。

202:デフォルトの名無しさん
08/08/22 00:33:34
/home/usr1/NFS/NVIDIA_CUDA_SDK/と〜/NVIDIA_CUDA_SDK/libが違うって落ちじゃないよな。

203:デフォルトの名無しさん
08/08/22 01:02:50
自分からテスト専門です、って宣言してる派遣テスターって何なの?

将来プログラマとかSEになりたい、とかならわかるけど。
向上心ないよね、頑固だし。
そういう派遣テスターって、仕様書は読めない、
テスト仕様書も作れない、テストプログラムも作れない
やれることは「テキトーにプログラムを触る」ことだけ。

俺は派遣プだけどさ、こういう派遣テスターがいると
派遣全体がバカにされるんだよ。
テスト専門派遣なんて氏んで欲しいよ、まったく。

今日も正社員の人が派遣テスターに仕様書を読んで
テスト仕様書を作ってください、って説教してたよ。
その派遣は頑固に「何故、仕様書が必要なんですか?」って
反論してたから、きっとテスト専門派遣テスターだな。
仕様書も読まず、テスト仕様書も作らず、ただテキトーに
プログラム触るだけで給料もらおうなんて頭おかしいんじゃねーの?

あ〜あ、あの派遣テスターが3ヵ月後に切られるまで、
仕様書も読まねーでテキトーにテストしたバグ票がまわってくんのかよ。
そんな糞なもん、読んで処理する派遣プの身にもなってくれよ。
うわ〜、しかもそいつが切られる3ヵ月以内に中間納品あるじゃねーか!
テスト仕様書もなしにテキトーにテストして納品か。
中間納品後にソッコウクレームでデスマ必至だな。俺の休みも返上かよ。

派遣専門テスターさんよ、少しは向上心持てよ!
頑固な性格直して仕様書読めよ!テスト仕様書作れよ!


204:デフォルトの名無しさん
08/08/23 14:37:16
うちの客先はテスト専門部署があるけど
環境構築とかテストプログラム作ったり
海外のテスト専門会社へ行って研究したりしてるぞ

205:デフォルトの名無しさん
08/08/23 18:12:10
バカの作ったものをテストするなんて最悪な仕事の1つなんだぜ

206:デフォルトの名無しさん
08/08/23 18:24:28
以前入社してすぐやめた会社でテスターをやらされたが、
そこの会社、3Dの知識ないやつが、OpenGLで懸命に2Dの描画プログラム作ってた

まさにバカの作ったものでテストするのがバカらしくなって会社を辞めた

207:デフォルトの名無しさん
08/08/23 19:33:34
判ったからマ痛に行け。

208:デフォルトの名無しさん
08/08/23 19:54:30
>そこの会社、3Dの知識ないやつが、OpenGLで懸命に2Dの描画プログラム作ってた
こういうバカ、たまにいるよな
2Dだけ描画すればいい仕様なのにOpenGLしか知らないからとりあえずOpenGLで書いちゃうという
すぐに辞めさせないとプロジェクトが悲惨な結果になる

209:デフォルトの名無しさん
08/08/24 01:26:41
>>208
AutoCADは2DもOpenGLで描画していますが。

210:デフォルトの名無しさん
08/08/24 07:16:25
>>209
>207

211:デフォルトの名無しさん
08/08/24 10:49:13
3Dも描画するならいいだろ
2Dしか描画しないのにOpenGLはバカ

212:デフォルトの名無しさん
08/08/24 12:06:13
GDIで描画したらLinuxでWineが必要になっちゃうじゃん

213:デフォルトの名無しさん
08/08/24 12:27:07
いや、2Dだけ描くのにOpenGL使うようなバカはWindowsだけだろ

214:デフォルトの名無しさん
08/08/24 17:34:26
このスレでうだうだ3D話を続ける奴って頭弱いの?
それとも只の構ってちゃん?
しかも切っ掛けはコピペだって辺りが痛過ぎるよね。

215:デフォルトの名無しさん
08/08/24 17:41:37
きっかけはコピペでのバカの作ったものをバカにされるべき
GPU使っているはずなのにBITBLTしかしてないとかー
もーバカ杉

216:デフォルトの名無しさん
08/08/24 21:55:53
BITBLTの後ろ三つはベーコン・レタス・トマトの略だが、前のBITは何の略なんだ?

217:デフォルトの名無しさん
08/08/24 22:58:34
マルチプラットフォームで2Dを描くのに仕事で使えるレベルの表現力と速度を兼ね備えたライブラリって存在するの?
あればどんなものか教えてください。有償無償問わず。

218:デフォルトの名無しさん
08/08/24 23:02:35
>>217
OpenGL

219:デフォルトの名無しさん
08/08/24 23:23:16
マルチプラットフォームの仕事なんて普通ないだろ

プロならプラットフォームに最適化されたライブラリを選択しろよ

220:デフォルトの名無しさん
08/08/24 23:34:53
OpenGL専門学校の学生さんにマジレスするなよ

221:デフォルトの名無しさん
08/08/25 00:54:10
>>219
>マルチプラットフォームの仕事なんて普通ないだろ


222:デフォルトの名無しさん
08/08/25 00:56:55
>>217
URLリンク(d.hatena.ne.jp)

223:デフォルトの名無しさん
08/08/25 01:00:30
>>221
これから増えるだろう
お前は近視か?

224:デフォルトの名無しさん
08/08/25 01:01:51
間違った。>>219だ。

225:デフォルトの名無しさん
08/08/25 01:06:43
>>219
openofficeはいったい何なんだ?マルチプラットフォームのソフトウェアじゃないのか?

226:デフォルトの名無しさん
08/08/25 02:40:58
お前は仕事でopenofficeにかかわったのか?
違うだろ
派遣先のプラットフォームだろ

お前の会社がマルチプラットフォームの製品を開発してんのか?
違うだろ
派遣先のプラットフォームだろ

現実見ようぜ

227:デフォルトの名無しさん
08/08/25 02:51:05
>>226
まず、仮定からおかしい。
・マルチプラットフォームのソフトウェアはopenofficeだけではない。
>>225の仕事の内容を断定する根拠が見当たらない。
・なぜ無数にある可能性から>>226の仮定を導き出したのか不明。

説明をお願いします。

228:デフォルトの名無しさん
08/08/25 02:56:05
>>227
>・マルチプラットフォームのソフトウェアはopenofficeだけではない。
まず仮定からおかしい。
実際に仕事でマルチプラットフォームを開発しているのかを問題にしている。
>>225がopenofficeを開発したというのなら謝る。おみそれした。

>・>>225の仕事の内容を断定する根拠が見当たらない。
まず自分で開発してそうにないopenofficeを出してくるあたり、
ただのバカ=派遣ってこと

>・なぜ無数にある可能性から>>226の仮定を導き出したのか不明。
派遣に可能性なんてない

229:デフォルトの名無しさん
08/08/25 03:04:17
荒らしは放置の方向で。

230:あぼーん
08/08/25 08:29:00
219のほうがバカだと思います。
マルチぷラットフォームの仕事はあると思います。

231:デフォルトの名無しさん
08/08/25 09:16:36
だからお前はマルチプラットフォームの仕事をしたことあるのかと

232:デフォルトの名無しさん
08/08/25 11:23:15
サターンとプレステで同じゲームを同時に作ったぞ
同時に作っただけだけど

233:デフォルトの名無しさん
08/08/25 12:41:48
>>231
Firefoxはマルチプラットフォームじゃないのかね。

234:デフォルトの名無しさん
08/08/25 12:43:22
マルチプラットフォームの要件はオープンソースではかなり多い。
オープンソース系の企業ならそういう仕事していてもおかしくないね。

235:デフォルトの名無しさん
08/08/25 12:48:10
日本語読めないの?
聞かれてるのは「お前は仕事でマルチプラットフォームをやったことがあるのか?」だぞ


236:デフォルトの名無しさん
08/08/25 12:51:51
>>235
話のすりかえ。
俺自身は学生時代にFirefoxの開発に携わったが、
今の話題は「マルチプラットフォームの仕事があるかないか」。
お前が間違っていることに気づけ。

237:デフォルトの名無しさん
08/08/25 12:53:16
そもそも、ここの住人が開発に携わったことがあるかどうかなんて誰も興味を持っていないし、
信憑性もない。
もっと有益は議論をすべきだと思うけどね。


238:デフォルトの名無しさん
08/08/25 12:54:24
スレ違い お前らネットイナゴは佃煮にされて死んでしまえ

239:デフォルトの名無しさん
08/08/25 12:58:38
派遣先企業で派遣先企業のプラットフォームに合わせたものを実装するのがおまえら派遣プログラマの仕事だろ
派遣先正社員からマルチプラットフォーム対応なんて指示されてないだろ
くだらないこと考えて余計な工数使うなよ

240:デフォルトの名無しさん
08/08/25 13:13:32
>派遣先企業で派遣先企業のプラットフォームに合わせたものを実装するのがおまえら派遣プログラマの仕事だろ
派遣先がパッケージベンダってこともあるだろう
なにムキになってるの?

241:デフォルトの名無しさん
08/08/25 13:23:54
>>239
何故派遣にこだわる?

242:デフォルトの名無しさん
08/08/25 13:49:24
ID出すとしょうもない素人以下の奴がいろんなスレに粘着してた

243:デフォルトの名無しさん
08/08/25 14:17:22
>>242
この板はID出ないじゃん

244:デフォルトの名無しさん
08/08/25 14:18:21
なんだみんな派遣だったのか

245:デフォルトの名無しさん
08/08/25 15:59:39
派遣に異常なコンプレックスを持っている人がいるようですが、
池沼の方なので基本放置でおねがいします。

246:デフォルトの名無しさん
08/08/25 16:06:10
夏の間だけ2chもアカウント認証式にすればいいと思う。

247:デフォルトの名無しさん
08/08/25 21:59:49
正社員にコンプレックスでしょ?
派遣のどこにコンプレックスをもてと

248:デフォルトの名無しさん
08/08/25 23:45:38
ひどい脱線ぶりだな。

249:デフォルトの名無しさん
08/08/25 23:49:36
派遣野郎はスレ違い

250:デフォルトの名無しさん
08/08/26 00:13:24
>>232
それありそう。PS3 と Xbox360 とか。どう似せるかに力が注がれる・・・

251:デフォルトの名無しさん
08/08/26 00:59:55
ここはなんのスレなんだ

252:デフォルトの名無しさん
08/08/26 04:09:43
くだすれ

253:デフォルトの名無しさん
08/08/26 06:23:56
CUDAはマルチプラットフォーム。

254:デフォルトの名無しさん
08/08/26 07:35:34
アホかい。

255:デフォルトの名無しさん
08/09/25 14:29:37
━━━━━━━━━━━━━━━━━━━
■ 今週の名言
───────────────────
         「HPCは“ハイ・プロダクティビティ・コンピューティング”」
      日本SGIのHPC・サービス事業本部で本部長を務める田坂隆明執行役員)


256:デフォルトの名無しさん
08/09/28 22:50:51
CUDAってSIMD並列といいうことは、過去のスパコン用のコード
移植したら激速ってことでOK?

257:デフォルトの名無しさん
08/09/29 11:43:54
>>256
SIMDじゃないよ。仮にそうだとしても、そんなに単純な話じゃない。

258:デフォルトの名無しさん
08/09/30 05:16:33
SIMDだよw

259:デフォルトの名無しさん
08/09/30 16:35:15
SIMDじゃないなら、何なのか問いたい。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

5327日前に更新/215 KB
担当:undef