【GPGPU】くだすれCUD ..
2:デフォルトの名無しさん
14/11/20 23:15:41.57 jr3oZn27.net
関連サイト
CUDA
URLリンク(www.nvidia.co.jp)
CUDAに触れてみる
URLリンク(chihara.naist.jp)
CUDA のインストール
URLリンク(blog.goo.ne.jp)
NVIDIAの「GeForce 8800 GT(G92)」と次に控える64-bit GPUアーキテクチャ
URLリンク(pc.watch.impress.co.jp)
CUDAを使う
URLリンク(tech.ckme.co.jp)
NVIDIA CUDAを弄ってみた その2
URLリンク(dvd-r.sblo.jp)
CUDAベンチ
URLリンク(wataco.air-nifty.com)
3:2/cuda_2044.html KNOPPIX for CUDA http://www.yasuoka.mech.keio.ac.jp/cuda/
4: 【東電 69.8 %】
14/11/21 00:13:37.04 kFWiXf0I.net
>>1
ああ、キミ!また会えたね。久しぶりだ。どうだいあの件は?どうなったか説明したまえな。
神戸市の東、芦屋西宮の知的障害者施設で未成年利用者に性的な行為をして淫行条例で逮捕された三田谷学園元職員の堂垣直人(西宮市老松町)は、結局どういう罪になったの?
被害者家族のケアを芦屋市役所と兵庫県警はちゃんとやったのか?
差別や虐待は環境を選べない子供には関係ない。
URLリンク(www.youtube.com)
まあ、こっちに座れよ。ゆっくり話そうじゃないか。
5:デフォルトの名無しさん
14/11/21 07:36:45.42 JsFj8Vej.net
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
URLリンク(cisburger.com)
URLリンク(up.pangya.tv)
6:デフォルトの名無しさん
14/11/21 18:05:42.00 qiUQrZk/.net
syncthreadsとthreadfence_blockの違いが分かりません
syncthreadsだけで十分な気がしますが、どういう時に使い分けるのでしょうか?
7:デフォルトの名無しさん
14/11/22 13:34:27.11 Ke1g3qvZ.net
>>5
URLリンク(shobomaru.wordpress.com)
メモリの書き込み競合防止をするかどうかの違いみたいです。
これってatomic命令より軽いのか知らん?
8:デフォルトの名無しさん
14/11/22 13:48:05.92 S8C7U0PL.net
>>6
競合防止なんて書いてる?
複数のスレッドが同じメモリに書き込む時はatomicをsyncthreadsやthreadfenceと同時に使わないといけない気がする(誰か教えてください)
9:デフォルトの名無しさん
14/11/22 22:18:58.72 Ke1g3qvZ.net
すみません、誤読しました。
「同じブロック内の全スレッドがこの命令にたどり着く」
まで待つかどうかの違いですね。
10:デフォルトの名無しさん
14/11/24 04:18:18.83 qPQKDlD6.net
今一番コスパ高いカードってなに?
11:デフォルトの名無しさん
14/11/24 04:21:35.17 qPQKDlD6.net
謝罪文みても思い上がりが激しい
12:デフォルトの名無しさん
14/11/25 19:26:42.72 kFuypilU.net
プログラムのカーネル部分がどうしても実行されません(サンプルプログラムでは実行されていました)
どなたか原因に心当たりはありませんか?(私はありません)
ブレークポイントで確認したところカーネルの上下にあるクロックは実行されており、
カーネルだけが実行されていませんでした(カーネルの中へ入って行かないという意味です)
以下が呼び出しで、dim3はグローバルで定義してあります
dim3 blocks((num + max - 1) / max, (num + max - 1) / max);
dim3 threads(max, (1024 + max - 1) / max, 1);
void calculation(void)
{
clock_t start, end;
start = clock();
cal<<<blocks, threads>>>(con, num, points, data);
end = clock();
cout << double(end - start) / CLOCKS_PER_SEC << "\n";
}
13:デフォルトの名無しさん
14/11/25 21:02:59.83 N/U8okyJ.net
>>11
dim3構造体のメンバ変数をプリントしたらどうなりますか?
14:デフォルトの名無しさん
14/11/25 21:44:27.45 kFuypilU.net
>>12
>11のcalculation()の最後の行にプリントの一文を入れてみましたが
ブロックが(128,128)、スレッドが(128,8)と想定通りでした
(スレッドは1ブロック当たり1024個まで配置可能なのでギリギリセーフなはずです)
忘れていましたが、呼び出し先です
この中にブレークポイントを配置してもプログラムが止まらないという魔の領域となっています
(もちろんnsightのcuda debuggingでデバッグしています)
__global__ void cal(double con, int num, a_data *points, b_data *data)
{・・・}
15:デフォルトの名無しさん
14/11/26 18:34:20.92 cpKKMAIz.net
>>13
カーネルが実行されているかどうかはどうやって確認していますか?
16:デフォルトの名無しさん
14/11/26 19:30:35.81 mOjmGjn5.net
>>14
>>13に書いた通り、ブレークポイントをカーネルの中に入れて実行されているかどうかを確認しています
描画をするプログラムなので図形が動くか動かないかでも判断できます
17:デフォルトの名無しさん
14/11/26 20:04:14.26 qey6HT7s.net
おれもカーネルに入らないケース出たわ
原因調査中・・・
18:デフォルトの名無しさん
14/11/27 08:04:41.88 7alpN+o4.net
>>15
CUDAのデバッガ使った事がない(ひたすらprintf)ので
一般論的な事しか言えませんが、
怪しそうな処理をコメントアウトしていったらどうでしょう?
変なメモリアクセスで落ちるとか割とありがちな気が。
19:デフォルトの名無しさん
14/11/28 22:55:16.84 JeOcX4pA.net
おれもカーネルに入らない
ただなぜかcygwinでコンパイルするとカーネルが起動する
なんでじゃ・・・
例のvisual studio2013もインストールしてみたいな〜
20:デフォルトの名無しさん
14/11/28 23:06:00.72 JeOcX4pA.net
>>18だけど
osはwindows8.1
コンパイラはcuda6.5+vs2013 express
カーネルは担当する要素を+1するだけのもの
これをコマンドプロンプトでコンパイルしてもカーネルは動かなかった(?)
動かないと判断したのは結果をmemcpyしてホスト側に返しても+1されてなかったから
もしかしたら正常にmemcpyされてないだけかもしれない
カーネルに入らない人はcygwin使ってみるといいかもね
本質的な解決にはならないけど・・・
21:デフォルトの名無しさん
14/11/30 20:47:05.05 NdicNENH.net
ビジュアルプロファイラー使ってみたら。
22:デフォルトの名無しさん
14/12/03 14:38:19.35 GXBajCbw.net
kernel実行後にcudaGetLastError()でRCを取得
そうするとkernel実行結果が分かる
RCの数値は自分で調べてね
23:16,21
14/12/04 22:23:47.78 EZ4odEf+.net
21の情報は役だったかな?
自分の場
24:(LINUX)、RC=7(too many resources requested for launch)だったので コンパイルオプションに -Xptxas -vを追加して使用レジスタ数を確認。 結果ハードウェアのレジスタ数を超過したためにカーネルの処理が行われなかったことが判明。 スレッドサイズを小さくして問題解決。 因みに使用レジスタはハードウェアによって変わる。
25:デフォルトの名無しさん
14/12/05 14:06:24.56 +nFWXccn.net
>>22
ちょっと興味があるんですけれど、
カーネルのサイズは動的に決めてるんですか?
前にソースコードにブロック数とスレッド数をべた書きで
大きいサイズを指定したらコンパイルの段階ではじかれた事があったんで。
26:>>15
14/12/05 15:37:53.47 fpNGtjbn.net
>>21
ありがとうすごく役に立ったよ
ここ最近忙しくてpc触れなかったんだ
自分も同じく「error: too many resources requested for launch」だった
原因を調べてみるよ
あと、自動でエラー内容もだせるみたいだね
URLリンク(homepage2.nifty.com)
>>20
ビジュアルプロファイラーも便利そうだから調べてみるよ
27:デフォルトの名無しさん
14/12/07 18:17:39.03 g9DGYGEw.net
x,y,zの3つの変数から成る構造体配列A,B(同じサイズ)があったとして
BからAへそれぞれ対応するデータを転送する場合
Ax,Ay,Az,Bx,By,Bzという同じサイズの構造体でない配列が6つあったとして
BからAへそれぞれ対応するデータを転送する場合(BxからAxなど)
前者と後者では後者の方が転送速度は上がりますか?
28:デフォルトの名無しさん
14/12/08 12:53:10.47 JbpvX5Qi.net
>>25
一般論としてデータ量が同じなら一回にまとめてを転送した方が効率はよくなりますね。
29:デフォルトの名無しさん
14/12/11 11:46:54.75 kV0/O7vj.net
memcpyって同期とるもんね
30:デフォルトの名無しさん
14/12/12 21:54:58.15 PdQu+k/h.net
kernelの中で使えるタイマー関数はありますか?
31:デフォルトの名無しさん
14/12/12 23:43:18.27 q1FKM2bt.net
clock()関数が使えるよ。
32:名無しさん@そうだ選挙に行こう
14/12/13 22:02:15.64 B9P4oQcX.net
>>29
サンキュー
試してみるよ
33:デフォルトの名無しさん
14/12/16 21:07:44.74 6hyQD5WD.net
自分の持っていないGPUの共有メモリの量などの詳細を知ることはできますか?
34:デフォルトの名無しさん
14/12/17 08:36:19.04 0flByQKi.net
URLリンク(en.wikipedia.org)
の
Maximum amount of shared memory per multiprocessor
あたりかな。
35:デフォルトの名無しさん
14/12/17 20:16:42.59 D/43rANg.net
>>32
ありがとうございます
嬉しいことに5.0以降から容量が増えてるみたいですね
36:デフォルトの名無しさん
14/12/17 20:55:04.06 vfaS5qRM.net
なんでCCのバージョン3.5から5.0に飛んでるの?
SDKのバージョンと合わせたのか?
37:デフォルトの名無しさん
14/12/19 18:38:15.45 dxBCSCiu.net
二つ以上のGPUでVBOを使用する場合、データの流れはどうなっているのでしょう?
やはり一旦ディスプレイに接続側のGPU出力データが集められ出力されるのですか?
38:デフォルトの名無しさん
14/12/20 13:19:39.58 hlsDA/2
39:G.net
40:デフォルトの名無しさん
14/12/20 13:33:50.56 ARYnLzi0.net
>>34
ゲフォの800番台がスルーされたからかも?
41:デフォルトの名無しさん
14/12/20 14:31:13.88 NgIUM6cpA
メイン関数内でcudaMallocManagedを用いてユニファイドメモリを確保して
その後メイン関数内でデータを代入し、GPU関数へポインタを渡したのですが、
値を利用できません。
だれか詳しく解決方法を教えてください
42:デフォルトの名無しさん
14/12/20 14:34:48.04 NgIUM6cpA
38ですがこんな感じに参照してます
__global__ void check_mem(int *file_top,int *d_test){
int x = blockIdx.x * blockDim.x + threadIdx.x;
d_test[x] = *(file_top + x);
}
file_topに値が入っていることはメインで確認が取れてます
43:35
14/12/20 22:32:39.87 ovXiOWlC.net
>>36
少し気になって質問してみただけで今自分は一つしか持っていません!
もう一つGPUを購入した時の為にvisual profilerを使えるようになっておこうと思い
ビルドした実行ファイルでプロファイラを使用してみたところ「Warning: No CUDA application was profiled, exiting」とエラーが出てしまいました
6.5のツールキットを使用して新しいセッションを作成→ビルドした実行ファイルを選択→設定はデフォルト、としたのですが何がダメだったのでしょう?
nvidiaの説明書を見てもさっぱりです。ヒントだけでもいいので教えてください
44:デフォルトの名無しさん
14/12/21 10:11:52.91 aUL9MF/2V
cudaDeviceReset() が必要のはず。
Visual Studioで「CUDA X.X Runtime」のプロジェクトを作ったら、
kernel.cu の return 0; の直前のコードに、以下のように書いてある。
// cudaDeviceReset must be called before exiting in order for profiling and
// tracing tools such as Nsight and Visual Profiler to show complete traces.
cudaStatus = cudaDeviceReset();
45:デフォルトの名無しさん
14/12/21 12:30:22.37 C04pqXsd.net
>>40
cudaDeviceReset() が必要のはず。
Visual Studioで「CUDA X.X Runtime」のプロジェクトを作ったら、
kernel.cu の return 0; の直前のコードに、以下のように書いてある。
// cudaDeviceReset must be called before exiting in order for profiling and
// tracing tools such as Nsight and Visual Profiler to show complete traces.
cudaStatus = cudaDeviceReset();
46:35
14/12/21 22:57:23.15 McLr4XTH.net
>>42
ループしているプログラムなのでエスケープキーを押すと後処理関数をatexit関数で呼び出して終了するようになっています
その後処理関数の中にcudaDeviceReset();を入れているのですがこれではダメなようです
それともcudaError_t cudaStatus = cudaDeviceReset();としてcudaStatusをどこかへ渡すのでしょうか?
47:デフォルトの名無しさん
14/12/22 00:14:29.09 6pNe5aqW.net
>>43
とりあえず、>>42を新規プロジェクト作ってプロファイラの
動作を確かめてから、あらためて自分のソースコードに反映すれば?
48:デフォルトの名無しさん
14/12/23 10:16:58.70 rFJPpcq3i
玄人志向のPCI-Express x16→PCI-Express x1変換ケーブルキット
「PCIEX16-X1/KIT」を使ってcudaやってみた人いますか?
49:デフォルトの名無しさん
14/12/23 15:40:43.82 bsnZ8h6l.net
>>44
新規プロジェクトでサンプルプログラムが生成されるのを忘れていました
おそらくサンプルのプロファイルに成功したので自分のプログラムに反映させようと思います
ありがとうございました
50:42
14/12/24 18:51:30.92 /5m6EieY.net
一応書いておきます
調べてみた結果、必要なものはcudaDeviceReset();を呼び出すことのみでした
自分のプログラムがプロファイル出来なかった原因は.dllが.exeと同じ場所に無かったからでした
51:デフォルトの名無しさん
14/12/24 20:32:20.58 6fZpwBGv.net
並列化についての質問です
スレッドやブロックを増やしてもあまり計算速度に差が出ないのですがどのような理由が挙げられますか
52:デフォルトの名無しさん
14/12/24 20:59:33.63 SBHK+d/x.net
どう変わると思った?計算量自体は変わらんのだぞ。
53:デフォルトの名無しさん
14/12/24 21:07:44.58 6fZpwBGv.net
最初は一つのスレッドにつき4回ほどループさせ計算をしていました
その後、スレッド数を2倍にしてループ数を半分の2回しました
計算速度は2倍になるだろうと予想していましたが、あまり変わりませんでした
54:デフォルトの名無しさん
14/12/24 21:23:52.28 SBHK+d/x.net
ハード的に同時に実行できるスレッドは有限なんだから、それ以上スレッドを増やしても
物理的に速くなりようがない。
55:デフォルトの名無しさん
14/12/24 22:24:43.11 pbZqH+Xm.net
プログラム上のスレッド数とハード上のスレッド数は違うと言うことですか
56:デフォルトの名無しさん
14/12/24 22:50:48.00 3hqu78L7.net
スレッドが多ければ、メモリアクセスでスレッドが止まっている間
cudaコアは別のスレッドを実行できる
57:デフォルトの名無しさん
14/12/27 01:57:38.03 u9BI3CqV.net
基本的にはcudaコアの数だけしか並列計算出来ないのですか
だけしかと言ってもコアは何百もありますが
58:デフォルトの名無しさん
14/12/27 06:52:06.91 fxVjSbuk.net
ある瞬間、実際に並列に処理されているということと、理論上並列に扱われるということは別の話ですよ
上のレスにもありますが、計算速度的には実際に処理を行うヤツが足りていなければそこで頭打ちになるのは当然かと
59:デフォルトの名無しさん
14/12/27 10:09:35.39 W6Y2DM4+.net
cudaコアの数以上にスレッドを生成する利点は
メモリアクセスの遅延の隠蔽にある
60:デフォルトの名無しさん
14/12/28 20:39:13.97 52BL0aAq.net
550TIで使っていたプログラムを750TIで走らせて見たところ1.5倍ほど遅くなってしまいました
何故でしょうか?
61:デフォルトの名無しさん
14/12/29 02:19:31.23 YUQudPNs.net
腐ってやがる。早すぎたんだ
62:デフォルトの名無しさん
14/12/29 09:47:06.28 Sx0YYE+e.net
>>57
一度のカーネル実行で処理するデータ量を増やしたら改善しませんか?
63:デフォルトの名無しさん
14/12/29 09:51:11.07 Sx0YYE+e.net
>>57
maxwellは倍精度がそーとーしょぼいので、
cuda-zかなんかで性能をチェックした方がよいかもしれません。
URLリンク(sourceforge.jp)
64:デフォルトの名無しさん
14/12/29 12:03:33.25 oV4aoJAy.net
>>60
本当にしょぼかった。陽子ビームぶち込みたい。
どうやらマクスウェルさんは演算用には向いていないようですね
65:デフォルトの名無しさん
14/12/29 12:51:57.86 oV4aoJAy.net
コア数が3倍になっていることを考慮すればそれでも遅い気がしますね
66:デフォルトの名無しさん
14/12/31 21:08:03.80 3b0Wn462.net
CUDA初学者です
cudaBindTexture2D()のpitchとoffsetは何を表しているのですか?
手元の書籍のサンプルから推測するに
pitchは一次元の配列を二次元のテクスチャに入れる場合の折り返し地点のようなもの
でしょうか?それならwidthとhighだけでも十分ではないかと言う疑問も出てきます。
そして一番の疑問がテクスチャメモリの存在です。
いくら二次元、三次元配列が使えるとは言え512バイトしか容量のないテクスチャメモリは64キロバイトもあるコンスタントメモリに劣るのではないでしょうか?
長々と失礼いたしましたm(_ _)m
67:デフォルトの名無しさん
14/12/31 23:07:39.94 WrP28EMy.net
>>
68:56 それじゃあストリームは何のためにあるのさ?
69:デフォルトの名無しさん
15/01/01 12:48:51.81 82JnHkZd.net
>>64
どっちも使えるなら、実験して早い方を採用
同時に並んでいるスレッド数を増やしてcudaコアが遊ばない状況
を作り出すことが重要
ストリームの使い道は異なるカーネルの並列実行だと思ってる
70:デフォルトの名無しさん
15/01/02 01:42:39.20 aooXGYY5.net
>>65
なるほどね
71:デフォルトの名無しさん
15/01/02 10:40:26.85 2fT8SJ1Ez
>>65
「ストリームの使い道は異なるカーネルの並列実行」というのは
何が言いたいのか良くわからないが、捕捉すると、
ストリームはCPU-GPU間のデータ転送中(非同期のcudaMemcpy)に、GPUで演算(カーネル実行)させる為の仕組みだ。
「あるストリームがデータ転送待ち中に、別のストリームのカーネルを実行する。」
といった事を、賢くやってくれる。
(別のストリームが「異なるカーネル」でなく、「同じ関数のカーネル」でも良い。)
結果、「データ転送待ち」の時間を節約できる。
ストリームの詳細は、書籍に書いてあるが、
データ転送とカーネル実行をストリームに入れる「推奨の順番」が
cc3.5からは違うので、古い本の場合は読み替える必要あり。
72:67
15/01/02 11:01:01.35 2fT8SJ1Ez
まとめると、こんな感じ。
(※同じプログラムで、以下の両方を使う事も可能。)
・cudaコアの数以上にスレッドを生成する:「GPU」と「GPU側のDRAM」間のメモリアクセスの遅延の隠蔽が期待できる。
・ストリームを使う:「CPU側のDRAM」と「GPU側のDRAM」間のメモリアクセスの時間の節約が期待できる。
73:デフォルトの名無しさん
15/01/03 13:07:05.02 yWVdPt25.net
970/980は確かにゲームのパフォーマンスは上がってるが帯域減ってるから
GPGPU用途では微妙になってしまったな
74:デフォルトの名無しさん
15/01/09 00:33:57.02 Iq4Pw+IC.net
Toolkit 6.0 + VS 2008から
Toolkit 6.5 + VS 2013に移行したら
遅くなっちゃったんだけど、そういう人ほかにいる?
75:デフォルトの名無しさん
15/01/12 00:15:12.48 crrCnhEj.net
CUDAの日本語ページって4.0とかの古い情報ばっかりじゃね
6.0/6.5では全然仕様が違ってて全然使えない
76:デフォルトの名無しさん
15/01/16 07:53:04.52 IHSf0jGJ.net
CUDA7.0 RC
77:デフォルトの名無しさん
15/01/16 09:02:56.43 VQ2eHsT0.net
もうCUDAも成熟してしまった感があるなあ。
78:デフォルトの名無しさん
15/01/25 10:58:33.86 m2kue9j8.net
970の影響でGPUメモリテストが流行っているね。
79:デフォルトの名無しさん
15/02/06 21:35:53.90 72/Q/UeS.net
ここ何週間かデバッグを続けているのですが原因を突き止めることが出来ません
初学者がはまりやすいミスやデバッグのこつなんかを教えてもらえませんか?
明らかなバグなら原因を突き止めやすいのですが、かなり微妙なバグなのでなかなか見つけられず困っています
80:デフォルトの名無しさん
15/02/07 00:48:46.19 OS4q1AxS.net
printfとかで要素を表示してデバックしてみれば?
81:デフォルトの名無しさん
15/02/07 13:10:14.61 4cvxubK6.net
syncthreadとか?
if文の中に書いてたりすると同期ずれが起こったりするなー
他には確保してないメモリへのアクセスとか?
>>76の通り、printfとかで、配列の添字とか値を表示するしかないのかな?
82:デフォルトの名無しさん
15/02/08 15:23:01.85 E04CIgi2.net
>>76
>>77
ありがとうございます
1セットの計算量があまりにも多いのでprintfの方法は難しいです
シンクロや範囲外アクセスもありませんでした
原因が分かっちゃったかも知れないので質問です
中間計算結果→atomicAd
83:d 中間計算結果→配列→atomicAdd こんな風に同じ数値を使った計算でも一度配列を通してしまうとatomicAddによって追加された計算結果に差が出たりしますか?
84:デフォルトの名無しさん
15/02/08 15:48:00.96 E04CIgi2.net
変数に入れると精度は落ちますね
お騒がせしました
85:デフォルトの名無しさん
15/02/08 21:32:20.44 BpjOkBmf.net
>>78
ちょっと面倒だけど、要素が多い場合は減らしてやってみるとか、どうだろうか?
何はともあれ、原因判明したみたいで、おめでとう
86:デフォルトの名無しさん
15/02/08 22:56:08.44 KLuvC02r.net
>>80
それは意外な盲点でした
数を減らせば良かったのですね
87:デフォルトの名無しさん
15/02/09 10:20:08.08 pN+UjOmC.net
>>78
fpが(a+b)+c != a+(b+c)を知らないとかではないよね?
88:デフォルトの名無しさん
15/02/09 23:18:25.64 QR2S1do8.net
volatile使うとか?
変数の宣言とか関数の引数の型の前にvolatileをいれると・・・
89:デフォルトの名無しさん
15/02/17 21:40:32.15 K8c74Rhe.net
>>57
750TIでGPGPUって考えていたけど、750TIって2世代前の同ランクぐらいの550TIより性能悪いのか。
一般ゲーム用VGAではGPGPU能力ってたいして要らないから落としたのかな
いろいろなゲーム用VGAの単精度、倍精度の能力が載ったホームページ教えてください
90:undefined
15/02/19 11:23:20.97 aqLRWkl1.net
質問☆
cudaってドライバインストして、画像表示をcuda設定にするだけでは
効果ない?
91:デフォルトの名無しさん
15/02/19 14:30:54.02 iKdaAUCi.net
>>84
FP32とFP64の一覧表ならこれとか。
URLリンク(www.geeks3d.com)
ボトルネックになりうる点は他にもあるから、Compute Capability毎の仕様の違いも結構重要だと思う。
92:デフォルトの名無しさん
15/02/19 23:45:36.57 ngPIgbTR.net
maxwellさん自体にに倍精度が無いようだから
一世代前のkeplerさんか次世代のpascalさんを選べば良いんじゃないかな
93:デフォルトの名無しさん
15/02/19 23:54:19.28 Lt8lBsrZ.net
>>86
有難う。750TiのFP64悪すぎだな。
なんか大衆向け用でGPGPUするならFP32よ、FP64は使わないでだな。
94:デフォルトの名無しさん
15/02/20 04:05:21.12 fPdGyDpl.net
>>87
KeplerはMaxwell以上にピーキーだったような。
自分の用途がはっきりしていて、それがKeplerやMaxwellに向いているならありだろうけど。
64bit変数をほとんど使わなくても、不向きな処理ではGTX 680が570に惨敗したりする。
CUDAの開発環境とか情報量に魅力を感じて、あえて今から始めてみるという人に勧めるとすれば、個人的には
投げ売り続行中のGTX 570や580で、余裕があるなら型落ちCPU・マザボ・メモリのセット等と
組み合わせてCUDA専用マシンを用意かな。
>>88
それは差別化とか、グラフィック用途でのワットパフォーマンスとかで仕方がないかと。
95:デフォルトの名無しさん
15/02/20 08:52:57.87 xG3c1huj.net
keplerはinteger bit shiftが弱いGK110(tesla)以外は
maxwellはkepler比で2倍のスループットになってる
96:デフォルトの名無しさん
15/03/04 22:02:58.94 krHDLIbc3
コアレッシングて、なんでハーフワープじゃないとダメなのでありますか?
フルじゃダメなのでしょうか。
#deviceQuery:
# CUDA Capability Major/Minor version number: 3.2
# Warp size: 32
97:デフォルトの名無しさん
15/02/22 18:45:23.46 JhGx5uct.net
適当なプログラム作ってみても
maxwellの方がはやいね
shared memoryが倍になったのも大きいなぁ
98:名無し
15/03/07 10:52:38.85 UBzBpgz5.net
スレチなら申し訳ない
当方、モバイルでCUDAを使用したいけど
安い方法はどれが良いと思います?
(速度はそこそこで良く、外でテストして
パワーがいる場合はデスクトップを使用するつもり)
モバイル用は安く上げたいので
Chromebookかタブレットで探した方が良いですかね?
奇をてらってJetsonのtk1にACアダプタ用のバッテリーを積むとか
(可能かどうかわからないですが)
ちなみにゲームはやるつもりありません。
99:デフォルトの名無しさん
15/03/07 20:42:36.10 CzdLWIdo.net
thinkpad w550sのquadro K620mはダメなの?
ノートパソコンだよ
100:デフォルトの名無しさん
15/03/08 10:25:35.13 TYY6zzsE.net
レスありがとうございます
安くあげたいので予算的に厳しいかと
最初だけ計算量は多いですけど
要所ごとに定数化すれば、その後は計算量がへるかと思っているので外での使用は少ないデータ量でプログラムチェックができればいいかなと考えています。
K1がのったタブレットも安いのでそこから考えてみようと思います
ありがとうございました
101:デフォルトの名無しさん
15/03/18 02:36:15.45 jKTvW/7W.net
うわ、titan xの倍精度、しょぼ過ぎ・・・。
URLリンク(twitter.com)
102:デフォルトの名無しさん
15/03/18 09:22:22.19 33RtPIwm.net
単精度が7TFLOPS、倍精度が0.2TFLOPSで良いんだよな??
詳しい事は良く分からないんだけど倍精度ってそんなに使わないものなの?
PhysXっていう物理エンジン使ったりするのに
103:デフォルトの名無しさん
15/03/18 10:23:22.30 C11qPS4w.net
>>97
ゲームだと単精度で十分だったりするからじゃない?
もともとゲームのために作られたような物だから、倍精度の性能なんかあまりこだわってないと思う
104:デフォルトの名無しさん
15/03/19 07:37:41.52 M0RYJxHF.net
URLリンク(developer.nvidia.com)
CUDA 7 Downloads
105:デフォルトの名無しさん
15/03/19 07:39:40.96 M0RYJxHF.net
Dear Developer,
The CUDA? 7.0 Production Release is now available to the public. Run your application faster with this latest version of the CUDA Toolkit. It features 64-bit ARM support and the simplified programming model enabled by Unified Memory. Highlights include:
New cuSOLVER library
? Accelerates key LAPACK routines, 12x faster direct sparse solvers
New C++11 language features
? Increases productivity with lambdas, auto, and more
Runtime Compilation
? Enables highly optimized kernels to be generated at runtime
Download the CUDA 7 Production Release at www.nvidia.com/getcuda
Learn more about CUDA 7 by attending these webinars:
CUDA 7 Feature Review
Date/Time: Friday, April 10th at 10:00 AM PDT
Register: URLリンク(cc.readytalk.com)
CUDA 7 Performance Overview
Date/Time: Wednesday, April 15th at 11:30 AM PDT
Register: URLリンク(cc.readytalk.com)
Best regards,
Nadeem Mohammad
NVIDIA Developer Relations Team
106:デフォルトの名無しさん
15/03/24 05:27:05.96 7oVKj7vD.net
CUDAがgcc4.8でうまく動かない問題ってもう解決したの?
107:デフォルトの名無しさん
15/03/25 15:16:29.51 9JMqB0KU.net
うん
108:デフォルトの名無しさん
15/03/25 21:19:25.13 WRhchtaz.net
Driver API使ってコンパイル済みのptxを実行するプログラムを作ろうとしているんだけど、
64bitのホストコードから32bitのptxを実行することってできるんだっけ?
109:デフォルトの名無しさん
15/04/10 02:15:05.70 C60yUXFO.net
nvidia-smiでutilizationやmemory usageを確認できると思うのですが、全てのパラメータを確認できるのはtesla、quadro、Titanです。
Geforce系のGPUで、utilization、各プロセスのmemory usage等を確認するにはどうすればいいでしょうか?
110:デフォルトの名無しさん
15/04/10 07:26:02.69 nzpIVsUT.net
>>104
nvapi
URLリンク(masafumi.cocolog-nifty.com)
111:デフォルトの名無しさん
15/04/12 23:53:21.24 g4+PudFo.net
古いGeforceでもOpenCL1.1のプログラムなら動くのでしょうか
112:デフォルトの名無しさん
15/04/13 00:39:39.73 NPPeHBbv.net
少なくともCUDA対応している必要があるが、基本的にGeForce8シリーズ以降で動くはず。
特定の機種について知りたいならGeeks3Dのデータベース検索してみるとか。
しかしスレチ。
113:デフォルトの名無しさん
15/04/13 16:29:29.85 EBHbrztF.net
thinkpadに入ってるquadro K620Mはcudaのサポート無いんだな
インストールしようとしてワラタ
114:デフォルトの名無しさん
15/04/14 18:39:28.21 hgZdA2dw.net
Linux(CentOS6)の環境でTITAN BLACKでCUDA(Ver.6.5 or 7.0)使ってるのだけど、計算走らせると
NVIDIA X Server SettingsのPerformance LevelsのLevelが3から2に落ちてMemory Transfer Rateが7000Mhzから6000Mhzに落ちてしまう。
で結果的にノーマルTITANと性能が同じになってしまう。このメモリクロックを固定させることはできませんかね?
ちなみにTelsa K20 での固定クロックの方法はnvidia-smiがTITANに対応してないらしくできなかった。
ちなみにPreferred Modeは「Prefer Maxmum Performance」になっていて、
CUDAで計算しなければLevel3でメモリクロックも7000Mhzとなっています。
115:デフォルトの名無しさん
15/04/14 21:44:04.71 frAktQrJ.net
空冷を見直す。
116:デフォルトの名無しさん
15/04/15 11:49:47.50 DmeNPmdM.net
>>109
何時間もフルで使ってるならまだしも、GPU叩いた瞬間に7000Mhzから6000Mhzに落ちるって、TITAN BLACKの公称メモリクロック「7GHz」ってのは詐欺にならないか?
これじゃノーマルTITANと同じ性能・・・
117:デフォルトの名無しさん
15/04/15 23:05:57.76 +7B/lj1n.net
環境がわからんからなんとも言えんが、
どうしても固定したければどっかからbiosを引っ張ってくるしかないね。
118:デフォルトの名無しさん
15/04/16 13:27:15.95 xeug049T.net
ん?TITANのクロック制御はマザーのBIOSが管理してるのか?
119:デフォルトの名無しさん
15/04/16 14:34:33.50 PYEjJT3R.net
VGAボード側のだよ。
120:デフォルトの名無しさん
15/04/20 17:42:38.58 uqjf4eEG3
>109
とりあえず自己解決
CUDA7のドライバーをそのまま使うとLevel3の7000MhzからLevel2の6000Mhzに落ちる。
Ver.6.5もVer.6.0のもの同様。
で、CUDA様でない少し古いドライバーを使うと、Level3が7000Mhzで設定され、Level2も7000Mhzのままのものがある。
それを何とかCUDAで使えるようにして、7000Mhzのままで計算できるようになった。
121:デフォルトの名無しさん
15/04/23 12:42:01.23 GK/TBYtY.net
pycudaで既存のコンパイル済みのオブジェクトとリンクして
実行さ
122:ケるにはどうすればいいのでしょうか
123:デフォルトの名無しさん
15/04/23 18:12:10.80 GK/TBYtY.net
cmakeの自動configがGTX900シリーズなのにsm_20とか言ってくるのなんとかならないの?
124:デフォルトの名無しさん
15/04/27 00:54:11.64 XOkfLgXW.net
最近のマザーボードってビデオカード2枚刺して
両方に計算させることもできるの?
自分のcore2duoのパソコンだと1つしか刺す場所ないけど
最近のddr4を使うマザーみると
それらしき場所が3つぐらいあるから3並列計算できるってことかな?
125:デフォルトの名無しさん
15/04/29 08:43:39.45 2J/vCqrD.net
>>118
場合によっては、計算用のGPUと出力用のGPUで分けてたりする。少なくともNVIDIAはそういう方針
126:デフォルトの名無しさん
15/04/30 22:40:28.09 4E7PVA8Y.net
vexclのサンプルコードをcudaでコンパイルしようとしてるんだけど
エラーだらけ
何か依存パッケージが足りないのかな?
127:デフォルトの名無しさん
15/04/30 22:46:37.84 4E7PVA8Y.net
.bashrcに設定する変数名が
CUDA_PATH
だったり
CUDA_ROOT
だったりみんな違う
なんで統一しないのか
128:デフォルトの名無しさん
15/05/07 18:56:17.28 oEZIeMhu.net
vexclについてくるexampleプログラムの中のベンチマークってプログラムが面白い
このプログラムのベンチマークによると
GT430とかいう古いビデオカードなのに最近のCPUの10倍の計算速度でてる
129:デフォルトの名無しさん
15/05/08 17:34:25.55 8Z+VlnlSM
質問です。
Jetson TK1ってGPUは3.x世代だと思うんですが、
CUDA7/cuDNN(GTC2015で発表のあった正式版)には対応してないのでしょうか?
TK1はKepler世代なので大丈夫だと思ったのですが・・・。
130:101
15/05/13 12:03:41.64 3UCLt7KQ.net
thinkpad w550sのquadroでもcudaなんも問題なかった
やっと勉強できる
131:デフォルトの名無しさん
15/05/13 19:42:38.26 SKtXN3hT.net
3D映像でパストレーシングやモンテカルロ法を行いたい場合、光線とシーン中
のあらゆるポリゴンとの交差を判定し、条件分岐を行う必要があります。
しかし、GPGPUは条件分岐が遅いらしいので、もしかするとCPUと役割分担を
行うべきなのでしょうか?
例えば、シーン中のポリゴンとの交差判定はCPUでやった方が良いとか?
132:デフォルトの名無しさん
15/05/13 23:31:21.84 xMqj1fKt.net
if
A
else
B
end
のような文なら、AとBは逐次の処理になる
if
A
end
なら、Aを行わないスレッドは待つだけだから問題ない
もし3項演算で解決できる条件分岐なら3項演算子を用いて書く
133:デフォルトの名無しさん
15/05/14 07:59:10.95 CyZl9DuQ.net
>>126
>AとBは逐次の処理になる
これはどういう意味でしょう?
AとBが内部的には必ず両方とも実行されてしまうと言うことでしょうか?
134:デフォルトの名無しさん
15/05/14 09:14:40.23 CyZl9DuQ.net
Intel系CPUの場合、確か cmov などという命令は、bool 値が1の時だけ
転送するのだったと思います。そういう命令は無いんでしょうか?
仮に何かあったとして、CUDA や OpenCL でどうやってそのような
「専用命令」を生成する事は可能でしょうか?
135:デフォルトの名無しさん
15/05/15 01:05:26.23 WYo5pZkW.net
分岐命令の代わりに使えるプレディケート付き命令があるかという話なら
それは存在するし、分岐のあるコードではコンパイラさんがよしなにやってくれる。
と、ヘネパタ本には書いてあった。
136:デフォルトの名無しさん
15/05/15 08:19:31.91 pyCNH+0F.net
>>129
ありがとうございます。
では、「>>127」の方はどうですか?
137:デフォルトの名無しさん
15/05/15 09:39:10.09 mDU8aVUi.net
>>130
warp divergenceの話じゃないの?
138:デフォルトの名無しさん
15/05/15 15:58:50.84 pyCNH+0F.net
>>131
習慣的に(?)「ウォープ・ダイバージェンス」と読み、
URLリンク(news.mynavi.jp)
のことのようですね。
139:デフォルトの名無しさん
15/05/17 10:18:02.33 R3tkd0Ad.net
>>130
AとB両方実行されるよ
140:デフォルトの名無しさん
15/05/19 21:33:47.52 spimwXxa.net
今まで一つのソースファイルで書いてきたのですが、いい加減見づらくなってきたのでソースファイルを分けてみたところエラーがでたので質問させてください
extern __constant__ unsigned short v[n]; //nは#defineで定義しています。
メインのソースファイルで
__constant__ unsigned short v[n];
と定義し、ビルドすると「メインの方で再定義されている」というエラーが出てしまいます
他にも、__device__ double atomicAdd の定義をサブのソースファイルに書くと
ptxas fatal : Unresolved extern function '_Z9atomicAddPdd'
とエラーが出てしまいます。どうか解決方法を教えてください。
環境は
NVIDIA Nsight Visual Studio Edition v.4.2
CUDA 7.0 Toolkit
のはずです
141:125
15/05/19 21:42:34.97 spimwXxa.net
×CUDA 7.0
○CUDA 6.5
でした
142:125
15/05/20 16:28:14.38 MP+tATlH.net
CUDA5.0以降ではrdcを「はい」にするとファイルの分割が出来るという情報を得たのでさっそく試してみたところ
>>134のエラーは無くなったのですが
1>sub.cu.obj : error LNK2005: "long __cdecl genrand_int31(void)" (?genrand_int31@@YAJXZ) は既に main.cu.obj で定義されています。
上記のような二重定義エラーがいくつか出てきました
また、ヘッダファイルの拡張子を.cuhとしている方を見かけたのですが、.hとの違いはあるのでしょうか?
143:デフォルトの名無しさん
15/05/20 22:26:00.46 tQNdJIhT.net
デバイス関数ってインライン展開されるんじゃなかったっけ。
でもって、他のファイルからは使えなかったのでは?
144:125
15/05/20 23:53:16.57 MP+tATlH.net
>>137
ファイルを分割出来ないとなるとすごく不便になので、何かしらの方法があるのでは?と思っています
145:デフォルトの名無しさん
15/05/21 04:25:30.08 Dige6mTv.net
とりあえずCUDAの日本語wikiがあるから、そこの分割コンパイルの項目をみたらどうかな?
OSによっては解決できるかも
146:デフォルトの名無しさん
15/05/21 09:09:27.02 BxelVpyp.net
cuファイルをcuファイルにインクルードしてみるとか。
147:125
15/05/21 17:23:47.43 25nDpRt2.net
レスありがとうございます
どうやら>>136のエラーはCUDAとは関係なさそうなのでC++のスレで聞いてきます
148:125
15/05/24 22:10:36.84 FupD4mQN.net
>>136の方法で分割コンパイルに一応成功しました!
一応と言ったのはrdcを「はい」にした場合と「いいえ」にした場合とでプログラムの挙動が少し変わってしまうのです
今書いているプログラムは何億回もの計算結果を足し合わせていくものなので、誤差の蓄積による影響を受けていると思います
コンパイルの方法を変えた(?)事で誤差の蓄積が変化(?)し、プログラムの挙動が変わったということなのでしょうか?
コンパイルと誤差がどう関係するのかは分かりませんが
149:125
15/05/24 22:19:49.55 FupD4mQN.net
>>「はい」にした場合と「いいえ」にした場合
ファイルを分割するともちろん「いいえ」では動かないので、一つのファイルで完結しているプログラムでの話です
150:デフォルトの名無しさん
15/05/26 06:54:20.42 VVQAbCqm.net
最適化の仕方が変わるのかもね
誤差が出て困るなら、なるべく誤差が少なくなるような組み方を考えるしかない
151:デフォルトの名無しさん
15/05/26 07:49:49.21 3GnQrGbV.net
誤差にも種類があるが・・・
浮動小数点演算等の誤差なのか
同期ミスによる誤差なのか・・・
152:デフォルトの名無しさん
15/05/26 22:03:46.38 f2qMZr+T.net
>>144 かもね 今はatomicAddをそのまま使っているので、情報落ちをなんとかして誤差は減らす予定です >>145 原因と結果の関係性が分からないのでなんとも言えないです ちなみに同期ミスによる誤差とは何でしょうか?
154:デフォルトの名無しさん
15/05/26 22:55:29.89 sIi3toQP.net
つうか最適化で結果が変わったら
それはバグ以外に無いけどねえ。
155:デフォルトの名無しさん
15/06/03 15:26:06.85 f+QtTKYD.net
URLリンク(www.geeks3d.com)
だれかこれの最新版を知らんかえ?
156:デフォルトの名無しさん
15/06/17 22:35:16.09 uTokHIG4.net
今年はGTC Japan開催のリリース出ないな
例年ならもう出ているのに
中止かもしくは時期がずれたのかな
157:デフォルトの名無しさん
15/06/18 12:56:34.78 0ZPzSsHT.net
>>149
今年は9月18日に虎ノ門ヒルズで開催、だったかと。
158:デフォルトの名無しさん
15/06/18 13:04:11.34 9mEYqdNq.net
Visual studioでCUDAプログラムを作成しています
Nsightでstart CUDA debuggingからプログラムを走らせた時だけプログラムが動かないんですが
どのような原因が考えられますか?
以下の条件ではすべて正常に動作・終了します
デバッグなしで開始(debug,release共に)
start CUDA debuggingでブレイクポイントを仕掛けて1スレッドずつ動かす
159:142
15/06/18 13:16:06.49 9mEYqdNq.net
追加です
プログラムの詳細ですが
ある無向グラフに対して,与えられた2点が連結かどうか調べるプログラム
枝重み0と仮定してダイクストラのアルゴリズムを用いて判定しています.
1ブロックにつき16スレッドが同時に走ります.
その判定関数をfoo()とすると
if( blockIdx.x == tmp )
foo();
というように一つのブロックのみで扱うようにすると
tmpがどのような値でも正常に動作するのですが
2ブロック以上でfooに行くようにすると動かなくなります
エラーがでないことと,printfによるチェックですが
配列のアドレスも問題ありません
160:デフォルトの名無しさん
15/06/19 21:29:02.20 tQGft1o9.net
>>152
何かスレッドの実行順序に依存した処理があるか、排他が必要な競合でもあるんじゃね?
161:デフォルトの名無しさん
15/06/19 22:01:43.75 FLqfhWNF.net
>>150情報感謝です
162:デフォルトの名無しさん
15/06/22 21:23:14.11 FYteK6ai.net
デバイスメモリの内容を一時的にホスト側からアクセスしたいんですが、OpenCLでいう
clEnqueueMapBufferに相当する機能はCUDAにあるんでしょうか?
ちょっと調べてみたんですが、cudaHostRegisterは方向が逆だし、cudaMallocManagedは
既にあるデバイスメモリにアクセスするものではなさそうなので。
cudaMemcpyで読み出して終わったらまた書き出すという方法しかないんでしょうか。
163:デフォルトの名無しさん
15/06/23 13:14:37.10 DUXK3D31.net
OpenCLを知らないので外してるかも知れないけど、
基本的にはcudamemcpyするしかない。
CUDA6.0からUnified Memoryっていう機能が入って、
GPU上のメモリをホストメモリと同じように読めて、
自動的に同期を取ってくれる機能。用途によっては使えるかも。
164:デフォルトの名無しさん
15/06/24 08:02:13.81 wFw+UOzE.net
>>156
ありがとう。やっぱりcudaMemcpyするしかないのか。
165:デフォルトの名無しさん
15/06/25 22:41:21.74 t3bjYB8L.net
今日はじめてCUDAを入れた者ですが、VS2013でサンプルをビルドするとerror MSB3721…\simpleTemplates.cu"" はコード 1 で終了しました
って出るんだが何か設定とか必要ですか?
あとインストールの確認(?)でコマンドプロンプトでnvcc -Vのコマンド入れてもアクセスが拒否されましたと出る…
これが原因ですかね?
いろいろ調べてみましたが、これといった解決方法はなかったので助けて下さい。
よろしくお願いします。
166:149
15/06/25 23:09:29.97 t3bjYB8L.net
>>158です。
すいません自己解決いたしました。
ウィルスソフトが邪魔をしていたようです・・・
スレ汚し申し訳ございませんでした。
167:デフォルトの名無しさん
15/06/26 01:26:56.82 f2ddT7MK.net
750Tiってあんまりいけてないのか…
CUDA試したくてあんまり調べずに衝動買いしてしまった
900台にした方が良かったのかなあ
168:デフォルトの名無しさん
15/06/26 08:33:52.91 h0LNB3lK.net
ゲームするならかなりいけてるが倍精度はしょぼいな
倍精度が欲しいならfermiかgk110コアのがいいのか?
ゲームしないならamdでopenCLの方がコスパ良さそうなんだがどうなの?
169:デフォルトの名無しさん
15/06/26 09:30:43.08 gBS6mhz7.net
>>159
ちゃんとアンチウイルス入れておけよ。
170:デフォルトの名無しさん
15/06/26 11:48:22.16 JVzNXP51.net
CUDA7入れたのですが、
cublas.hが見つからないと出てしまいました。
cublas使うには他に何か必要なのでしょうか?
171:デフォルトの名無しさん
15/06/26 12:57:38.26 1v0mrakI.net
>>163
C:> dir /s /b "%CUDA_PATH%\cublas.h"
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include\cublas.h
172:デフォルトの名無しさん
15/06/26 13:07:12.91 JVzNXP51.net
ありがとうございます。
みつかりました
173:デフォルトの名無しさん
15/06/26 23:47:30.95 f2ddT7MK.net
>>161
>ゲームするならかなりいけてる
こういうのがイマイチよくわかりません
単純にFLOPSで性能を見ちゃいけないのでしょうか
ゲームやGPUプログラミングに向いてるかどうかってどうやって判断してるんでしょうか
174:デフォルトの名無しさん
15/06/27 03:38:35.85 y7j5+l1E.net
>>166
プロはGPGPUするのにゲーム用のGFやRadeonをはあんまり使わない
趣味レベルでOKのGPGPUならGPGPUがオマケであるゲーム用(ゲームドライバ)のVGAでも良いが。
Xeonが一般的な業務サーバーに普通のデスクトップPCをいっぱい使うなことは
しないのと同じ。あと、FLOPSは目的のGPGPUするのに必要なレベルあれあば良い。
低FLOPSでOKなGPGPU処理に超高FLOPSのものを使うって趣味だし
175:デフォルトの名無しさん
15/06/27 09:17:14.69 f1QkQQtg.net
プロだってコスパ考えるだろ。
倍精度演算性能と信頼性で妥協できるならゲーム用GPUの方が圧倒的に安いしな。
176:,,・´∀`・,,)っ-○○○
15/06/27 23:23:04.05 XHzW5ECE.net
まあ中国の天河1号はFireStreamですらないRadeonのデュアルGPUカードを大量搭載したが
結局実用にならなくて次の更新で全部Teslaに差し替えたからね
額面のFLOPS数だけで実用性は評価できない
177:デフォルトの名無しさん
15/06/28 09:51:05.56 MpgQMMEq.net
中国はスパコンにTESLAとか使えなくなったから、NVIDIAやインテルは大口顧客を失った。
178:デフォルトの名無しさん
15/06/28 16:33:48.10 zku7pwa+.net
>NVIDIAやインテルは大口顧客を失った。
その損失分は米国内の大型スパコンでの便宜をはかることで補填されてるから企業としては差し引きOKとなったはず
179:デフォルトの名無しさん
15/06/29 08:06:36.49 FIYCVjDt.net
windows7でchainer試そうとすると
pycudaでなんか不具合出る
180:デフォルトの名無しさん
15/06/29 08:13:35.83 FIYCVjDt.net
>>160
そうでもない
URLリンク(studylog.hateblo.jp)
181:デフォルトの名無しさん
15/06/29 09:25:13.60 uPSGGZxo.net
並列計算でGTX780Ti使ってるんだけどGTX980Tiにしたら倍精度の計算って遅くなる?
182:デフォルトの名無しさん
15/06/30 16:00:18.94 vWTsPJO/.net
cudaってMFCのcppから呼べますか?
サンプルで.cuから.cppを呼んでるのは見つけたんですが。
183:デフォルトの名無しさん
15/06/30 17:26:54.94 vWTsPJO/.net
あーexternで呼べました
184:デフォルトの名無しさん
15/07/02 01:47:05.99 cql5ELb9.net
>>174
単精度演算性能 コア数×クロック数×2
倍精度演算性能 単精度演算性能/24(Kepler), 単精度演算性能/32(Maxwell)
として計算すると、
780Tiが2880×875×2/24=205GFLOPS
980Tiが2816×1000×2/32=172GLOPS
だから、遅くなるんじゃね?
185:デフォルトの名無しさん
15/07/02 15:34:36.77 bfg1NSwR.net
CUDAって仕様上できないこともコンパイルとおるのか〜
186:デフォルトの名無しさん
15/07/02 23:26:03.68 Pfy0Io9G.net
Nvはゲームにゲーム用VGAには倍精度演算イラネから省くって流れだから
ゲーム用VGAで倍精度演算性能ほしいならRadeにしたほうがいいよな
187:デフォルトの名無しさん
15/07/03 14:37:16.26 WUZUNux9.net
>>177
ありがとう
Teslaは高くて買えないからPascalまで待つか
188:デフォルトの名無しさん
15/07/03 23:30:48.50 dkeXuonA.net
TITANヤフオクで探すのはどうでしょ
189:デフォルトの名無しさん
15/07/05 22:31:36.27 tW1t1zZP.net
全く値段見ないでカンで言うけど
中古の無印TITANならウンコに混じったコーン位の値段で売ってんじゃないの?
190:デフォルトの名無しさん
15/07/07 16:43:12.64 y9jINuhY.net
CULAのエラーでpos 1022ってなんですか?
LAPACKドキュメントを見よとか書いてありますが、見当たりません
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
1534日前に更新/248 KB
担当:undef