[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2ch.scのread.cgiへ]
Update time : 09/23 11:04 / Filesize : 248 KB / Number-of Response : 1045
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

【GPGPU】くだすれCUDAスレ part7【NVIDIA】



1 名前:デフォルトの名無しさん mailto:sage [2014/11/20(木) 23:14:46.66 ID:jr3oZn27.net]
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。

CUDA・HomePage
ttp://developer.nvidia.com/category/zone/cuda-zone

関連スレ
GPGPU#5
ttp://peace.2ch.net/test/read.cgi/tech/1281876470/l50

前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/
【GPGPU】くだすれCUDAスレ part5【NVIDIA】
toro.2ch.net/test/read.cgi/tech/1314104886/
【GPGPU】くだすれCUDAスレ part6【NVIDIA】
ttp://peace.2ch.net/test/read.cgi/tech/1348409867/

136 名前:デフォルトの名無しさん [2015/05/15(金) 08:19:31.91 ID:pyCNH+0F.net]
>>129
ありがとうございます。

では、「>>127」の方はどうですか?

137 名前:デフォルトの名無しさん mailto:sage [2015/05/15(金) 09:39:10.09 ID:mDU8aVUi.net]
>>130
warp divergenceの話じゃないの?

138 名前:デフォルトの名無しさん mailto:sage [2015/05/15(金) 15:58:50.84 ID:pyCNH+0F.net]
>>131
習慣的に(?)「ウォープ・ダイバージェンス」と読み、

news.mynavi.jp/special/2008/cuda/001.html

のことのようですね。

139 名前:デフォルトの名無しさん mailto:sage [2015/05/17(日) 10:18:02.33 ID:R3tkd0Ad.net]
>>130
AとB両方実行されるよ

140 名前:デフォルトの名無しさん [2015/05/19(火) 21:33:47.52 ID:spimwXxa.net]
今まで一つのソースファイルで書いてきたのですが、いい加減見づらくなってきたのでソースファイルを分けてみたところエラーがでたので質問させてください
extern __constant__ unsigned short v[n]; //nは#defineで定義しています。
メインのソースファイルで
__constant__ unsigned short v[n];
と定義し、ビルドすると「メインの方で再定義されている」というエラーが出てしまいます

他にも、__device__ double atomicAdd の定義をサブのソースファイルに書くと
ptxas fatal : Unresolved extern function '_Z9atomicAddPdd'
とエラーが出てしまいます。どうか解決方法を教えてください。

環境は
NVIDIA Nsight Visual Studio Edition v.4.2
CUDA 7.0 Toolkit
のはずです

141 名前:125 mailto:sage [2015/05/19(火) 21:42:34.97 ID:spimwXxa.net]
×CUDA 7.0
○CUDA 6.5
でした

142 名前:125 mailto:sage [2015/05/20(水) 16:28:14.38 ID:MP+tATlH.net]
CUDA5.0以降ではrdcを「はい」にするとファイルの分割が出来るという情報を得たのでさっそく試してみたところ
>>134のエラーは無くなったのですが
1>sub.cu.obj : error LNK2005: "long __cdecl genrand_int31(void)" (?genrand_int31@@YAJXZ) は既に main.cu.obj で定義されています。
上記のような二重定義エラーがいくつか出てきました

また、ヘッダファイルの拡張子を.cuhとしている方を見かけたのですが、.hとの違いはあるのでしょうか?

143 名前:デフォルトの名無しさん mailto:sage [2015/05/20(水) 22:26:00.46 ID:tQNdJIhT.net]
デバイス関数ってインライン展開されるんじゃなかったっけ。
でもって、他のファイルからは使えなかったのでは?

144 名前:125 mailto:sage [2015/05/20(水) 23:53:16.57 ID:MP+tATlH.net]
>>137
ファイルを分割出来ないとなるとすごく不便になので、何かしらの方法があるのでは?と思っています



145 名前:デフォルトの名無しさん mailto:sage [2015/05/21(木) 04:25:30.08 ID:Dige6mTv.net]
とりあえずCUDAの日本語wikiがあるから、そこの分割コンパイルの項目をみたらどうかな?
OSによっては解決できるかも

146 名前:デフォルトの名無しさん mailto:sage [2015/05/21(木) 09:09:27.02 ID:BxelVpyp.net]
cuファイルをcuファイルにインクルードしてみるとか。

147 名前:125 mailto:sage [2015/05/21(木) 17:23:47.43 ID:25nDpRt2.net]
レスありがとうございます

どうやら>>136のエラーはCUDAとは関係なさそうなのでC++のスレで聞いてきます

148 名前:125 mailto:sage [2015/05/24(日) 22:10:36.84 ID:FupD4mQN.net]
>>136の方法で分割コンパイルに一応成功しました!
一応と言ったのはrdcを「はい」にした場合と「いいえ」にした場合とでプログラムの挙動が少し変わってしまうのです
今書いているプログラムは何億回もの計算結果を足し合わせていくものなので、誤差の蓄積による影響を受けていると思います
コンパイルの方法を変えた(?)事で誤差の蓄積が変化(?)し、プログラムの挙動が変わったということなのでしょうか?
コンパイルと誤差がどう関係するのかは分かりませんが

149 名前:125 mailto:sage [2015/05/24(日) 22:19:49.55 ID:FupD4mQN.net]
>>「はい」にした場合と「いいえ」にした場合
ファイルを分割するともちろん「いいえ」では動かないので、一つのファイルで完結しているプログラムでの話です

150 名前:デフォルトの名無しさん mailto:sage [2015/05/26(火) 06:54:20.42 ID:VVQAbCqm.net]
最適化の仕方が変わるのかもね
誤差が出て困るなら、なるべく誤差が少なくなるような組み方を考えるしかない

151 名前:デフォルトの名無しさん mailto:sage [2015/05/26(火) 07:49:49.21 ID:3GnQrGbV.net]
誤差にも種類があるが・・・
浮動小数点演算等の誤差なのか
同期ミスによる誤差なのか・・・

152 名前:デフォルトの名無しさん mailto:sage [2015/05/26(火) 22:03:46.38 ID:f2qMZr+T.net]
>>144
かもね
今はatomicAddをそのまま使っているので、情報落ちをなんとかして誤差は減らす予定です

>>145
原因と結果の関係性が分からないのでなんとも言えないです
ちなみに同期ミスによる誤差とは何でしょうか? []
[ここ壊れてます]

154 名前:デフォルトの名無しさん mailto:sage [2015/05/26(火) 22:55:29.89 ID:sIi3toQP.net]
つうか最適化で結果が変わったら
それはバグ以外に無いけどねえ。



155 名前:デフォルトの名無しさん mailto:sage [2015/06/03(水) 15:26:06.85 ID:f+QtTKYD.net]
www.geeks3d.com/20140305/amd-radeon-and-nvidia-geforce-fp32-fp64-gflops-table-computing/
だれかこれの最新版を知らんかえ?

156 名前:デフォルトの名無しさん mailto:sage [2015/06/17(水) 22:35:16.09 ID:uTokHIG4.net]
今年はGTC Japan開催のリリース出ないな
例年ならもう出ているのに
中止かもしくは時期がずれたのかな

157 名前:デフォルトの名無しさん mailto:sage [2015/06/18(木) 12:56:34.78 ID:0ZPzSsHT.net]
>>149
今年は9月18日に虎ノ門ヒルズで開催、だったかと。

158 名前:デフォルトの名無しさん mailto:sage [2015/06/18(木) 13:04:11.34 ID:9mEYqdNq.net]
Visual studioでCUDAプログラムを作成しています
Nsightでstart CUDA debuggingからプログラムを走らせた時だけプログラムが動かないんですが
どのような原因が考えられますか?

以下の条件ではすべて正常に動作・終了します
デバッグなしで開始(debug,release共に)
start CUDA debuggingでブレイクポイントを仕掛けて1スレッドずつ動かす

159 名前:142 mailto:sage [2015/06/18(木) 13:16:06.49 ID:9mEYqdNq.net]
追加です
プログラムの詳細ですが
ある無向グラフに対して,与えられた2点が連結かどうか調べるプログラム
枝重み0と仮定してダイクストラのアルゴリズムを用いて判定しています.

1ブロックにつき16スレッドが同時に走ります.
その判定関数をfoo()とすると

if( blockIdx.x == tmp )
foo();
というように一つのブロックのみで扱うようにすると
tmpがどのような値でも正常に動作するのですが
2ブロック以上でfooに行くようにすると動かなくなります
エラーがでないことと,printfによるチェックですが
配列のアドレスも問題ありません

160 名前:デフォルトの名無しさん mailto:sage [2015/06/19(金) 21:29:02.20 ID:tQGft1o9.net]
>>152
何かスレッドの実行順序に依存した処理があるか、排他が必要な競合でもあるんじゃね?

161 名前:デフォルトの名無しさん mailto:sage [2015/06/19(金) 22:01:43.75 ID:FLqfhWNF.net]
>>150情報感謝です

162 名前:デフォルトの名無しさん mailto:sage [2015/06/22(月) 21:23:14.11 ID:FYteK6ai.net]
デバイスメモリの内容を一時的にホスト側からアクセスしたいんですが、OpenCLでいう
clEnqueueMapBufferに相当する機能はCUDAにあるんでしょうか?
ちょっと調べてみたんですが、cudaHostRegisterは方向が逆だし、cudaMallocManagedは
既にあるデバイスメモリにアクセスするものではなさそうなので。
cudaMemcpyで読み出して終わったらまた書き出すという方法しかないんでしょうか。

163 名前:デフォルトの名無しさん mailto:sage [2015/06/23(火) 13:14:37.10 ID:DUXK3D31.net]
OpenCLを知らないので外してるかも知れないけど、
基本的にはcudamemcpyするしかない。

CUDA6.0からUnified Memoryっていう機能が入って、
GPU上のメモリをホストメモリと同じように読めて、
自動的に同期を取ってくれる機能。用途によっては使えるかも。

164 名前:デフォルトの名無しさん mailto:sage [2015/06/24(水) 08:02:13.81 ID:wFw+UOzE.net]
>>156
ありがとう。やっぱりcudaMemcpyするしかないのか。



165 名前:デフォルトの名無しさん mailto:sage [2015/06/25(木) 22:41:21.74 ID:t3bjYB8L.net]
今日はじめてCUDAを入れた者ですが、VS2013でサンプルをビルドするとerror MSB3721…\simpleTemplates.cu"" はコード 1 で終了しました
って出るんだが何か設定とか必要ですか?

あとインストールの確認(?)でコマンドプロンプトでnvcc -Vのコマンド入れてもアクセスが拒否されましたと出る…
これが原因ですかね?

いろいろ調べてみましたが、これといった解決方法はなかったので助けて下さい。
よろしくお願いします。

166 名前:149 mailto:sage [2015/06/25(木) 23:09:29.97 ID:t3bjYB8L.net]
>>158です。
すいません自己解決いたしました。
ウィルスソフトが邪魔をしていたようです・・・
スレ汚し申し訳ございませんでした。

167 名前:デフォルトの名無しさん mailto:sage [2015/06/26(金) 01:26:56.82 ID:f2ddT7MK.net]
750Tiってあんまりいけてないのか…
CUDA試したくてあんまり調べずに衝動買いしてしまった
900台にした方が良かったのかなあ

168 名前:デフォルトの名無しさん mailto:sage [2015/06/26(金) 08:33:52.91 ID:h0LNB3lK.net]
ゲームするならかなりいけてるが倍精度はしょぼいな
倍精度が欲しいならfermiかgk110コアのがいいのか?
ゲームしないならamdでopenCLの方がコスパ良さそうなんだがどうなの?

169 名前:デフォルトの名無しさん mailto:sage [2015/06/26(金) 09:30:43.08 ID:gBS6mhz7.net]
>>159
ちゃんとアンチウイルス入れておけよ。

170 名前:デフォルトの名無しさん [2015/06/26(金) 11:48:22.16 ID:JVzNXP51.net]
CUDA7入れたのですが、
cublas.hが見つからないと出てしまいました。

cublas使うには他に何か必要なのでしょうか?

171 名前:デフォルトの名無しさん mailto:sage [2015/06/26(金) 12:57:38.26 ID:1v0mrakI.net]
>>163
C:> dir /s /b "%CUDA_PATH%\cublas.h"
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include\cublas.h

172 名前:デフォルトの名無しさん [2015/06/26(金) 13:07:12.91 ID:JVzNXP51.net]
ありがとうございます。
みつかりました

173 名前:デフォルトの名無しさん mailto:sage [2015/06/26(金) 23:47:30.95 ID:f2ddT7MK.net]
>>161
>ゲームするならかなりいけてる

こういうのがイマイチよくわかりません
単純にFLOPSで性能を見ちゃいけないのでしょうか
ゲームやGPUプログラミングに向いてるかどうかってどうやって判断してるんでしょうか

174 名前:デフォルトの名無しさん mailto:sage [2015/06/27(土) 03:38:35.85 ID:y7j5+l1E.net]
>>166
プロはGPGPUするのにゲーム用のGFやRadeonをはあんまり使わない
趣味レベルでOKのGPGPUならGPGPUがオマケであるゲーム用(ゲームドライバ)のVGAでも良いが。
Xeonが一般的な業務サーバーに普通のデスクトップPCをいっぱい使うなことは
しないのと同じ。あと、FLOPSは目的のGPGPUするのに必要なレベルあれあば良い。
低FLOPSでOKなGPGPU処理に超高FLOPSのものを使うって趣味だし



175 名前:デフォルトの名無しさん mailto:sage [2015/06/27(土) 09:17:14.69 ID:f1QkQQtg.net]
プロだってコスパ考えるだろ。
倍精度演算性能と信頼性で妥協できるならゲーム用GPUの方が圧倒的に安いしな。

176 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2015/06/27(土) 23:23:04.05 ID:XHzW5ECE.net]
まあ中国の天河1号はFireStreamですらないRadeonのデュアルGPUカードを大量搭載したが
結局実用にならなくて次の更新で全部Teslaに差し替えたからね
額面のFLOPS数だけで実用性は評価できない

177 名前:デフォルトの名無しさん mailto:sage [2015/06/28(日) 09:51:05.56 ID:MpgQMMEq.net]
中国はスパコンにTESLAとか使えなくなったから、NVIDIAやインテルは大口顧客を失った。

178 名前:デフォルトの名無しさん mailto:sage [2015/06/28(日) 16:33:48.10 ID:zku7pwa+.net]
>NVIDIAやインテルは大口顧客を失った。
その損失分は米国内の大型スパコンでの便宜をはかることで補填されてるから企業としては差し引きOKとなったはず

179 名前:デフォルトの名無しさん [2015/06/29(月) 08:06:36.49 ID:FIYCVjDt.net]
windows7でchainer試そうとすると
pycudaでなんか不具合出る

180 名前:デフォルトの名無しさん [2015/06/29(月) 08:13:35.83 ID:FIYCVjDt.net]
>>160

そうでもない
studylog.hateblo.jp/entry/2015/06/26/210516

181 名前:デフォルトの名無しさん mailto:sage [2015/06/29(月) 09:25:13.60 ID:uPSGGZxo.net]
並列計算でGTX780Ti使ってるんだけどGTX980Tiにしたら倍精度の計算って遅くなる?

182 名前:デフォルトの名無しさん [2015/06/30(火) 16:00:18.94 ID:vWTsPJO/.net]
cudaってMFCのcppから呼べますか?
サンプルで.cuから.cppを呼んでるのは見つけたんですが。

183 名前:デフォルトの名無しさん [2015/06/30(火) 17:26:54.94 ID:vWTsPJO/.net]
あーexternで呼べました

184 名前:デフォルトの名無しさん mailto:sage [2015/07/02(木) 01:47:05.99 ID:cql5ELb9.net]
>>174
単精度演算性能 コア数×クロック数×2
倍精度演算性能 単精度演算性能/24(Kepler), 単精度演算性能/32(Maxwell)
として計算すると、
780Tiが2880×875×2/24=205GFLOPS
980Tiが2816×1000×2/32=172GLOPS
だから、遅くなるんじゃね?



185 名前:デフォルトの名無しさん [2015/07/02(木) 15:34:36.77 ID:bfg1NSwR.net]
CUDAって仕様上できないこともコンパイルとおるのか〜

186 名前:デフォルトの名無しさん mailto:sage [2015/07/02(木) 23:26:03.68 ID:Pfy0Io9G.net]
Nvはゲームにゲーム用VGAには倍精度演算イラネから省くって流れだから
ゲーム用VGAで倍精度演算性能ほしいならRadeにしたほうがいいよな

187 名前:デフォルトの名無しさん mailto:sage [2015/07/03(金) 14:37:16.26 ID:WUZUNux9.net]
>>177
ありがとう
Teslaは高くて買えないからPascalまで待つか

188 名前:デフォルトの名無しさん mailto:sage [2015/07/03(金) 23:30:48.50 ID:dkeXuonA.net]
TITANヤフオクで探すのはどうでしょ

189 名前:デフォルトの名無しさん mailto:sage [2015/07/05(日) 22:31:36.27 ID:tW1t1zZP.net]
全く値段見ないでカンで言うけど
中古の無印TITANならウンコに混じったコーン位の値段で売ってんじゃないの?

190 名前:デフォルトの名無しさん [2015/07/07(火) 16:43:12.64 ID:y9jINuhY.net]
CULAのエラーでpos 1022ってなんですか?

LAPACKドキュメントを見よとか書いてありますが、見当たりません

191 名前:デフォルトの名無しさん [2015/07/08(水) 10:49:51.33 ID:UJb9gmN3.net]
CUDA7.5 RC

192 名前:デフォルトの名無しさん mailto:sage [2015/07/08(水) 20:10:01.47 ID:h2HOA+i0.net]
最近始めたんだけどversionって無理して最新にする必要無いのかな
7入れるのに結構苦労したんであんまり変えたくない
みなさんはガンガン上げてく感じですか?

193 名前:デフォルトの名無しさん mailto:sage [2015/07/08(水) 20:20:41.59 ID:QsV0kvB4.net]
共存できるやん

194 名前:デフォルトの名無しさん mailto:sage [2015/07/11(土) 13:57:32.12 ID:QRzfcgY3.net]
困らなければ基本的に更新とかはしないと思うけど…



195 名前:デフォルトの名無しさん mailto:sage [2015/07/13(月) 01:32:34.78 ID:BK2wG7MT.net]
でも最新のほうが速くなったりするかもしれないし

196 名前:デフォルトの名無しさん mailto:sage [2015/07/27(月) 20:50:16.33 ID:0YcBUgDv.net]
分割コンパイルができないんだけど、どうしたらいいんだろ?
ビルドどころか1ファイルのコンパイルもエラーになる

vs2013ce, cuda7.0, fermi, debug,x64

D:\cuda_test\cuda_test>
"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\bin\nvcc.exe"
-gencode=arch=compute_20,code=\"sm_20,compute_20\" --use-local-env --cl-version 2013
-ccbin "C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin\x86_amd64" -rdc=true
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\lib\x64"
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include"
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include"
-G --keep-dir x64\Debug -maxrregcount=0 --machine 64
--compile -cudart static -g -DWIN32 -DWIN64 -D_DEBUG -D_CONSOLE -D_UNICODE -DUNICODE
-Xcompiler "/EHsc /W3 /nologo /Od /Zi /RTC1 /MDd "/wd 4819""
-o x64\Debug\cuda_body.cu.obj "D:\cuda_test\cuda_test\cuda_body.cu"

1> nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified

197 名前:デフォルトの名無しさん mailto:sage [2015/07/27(月) 20:55:02.52 ID:0YcBUgDv.net]
nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified
コンパイルフェーズで出力ファイル指定するときは1ファイルでやれっていうけど、出力ファイル指定しないと何にも出力されないし、
cuda5.0以降は分割コンパイルは対応してるよね? rdcもdlinkも指定してるし何がいけないんだ

198 名前:デフォルトの名無しさん mailto:sage [2015/08/02(日) 15:01:41.54 ID:LFE7g0os.net]
別にCUDAじゃなくても良いんですが、
GPUで直接JPEGを、DirectXのテクスチャに展開して、そのまま表示したいです。
そういったライブラリって無いですか?
かなり需要がありそうなんですが

199 名前:デフォルトの名無しさん mailto:sage [2015/09/07(月) 00:27:30.12 ID:nK71AIt7.net]
ヘッダファイルで定義した定数は__device__内では使えないのでしょうか?

200 名前:183 mailto:sage [2015/09/08(火) 02:08:23.68 ID:V+WRCKAL.net]
少し分かったことがありました
グローバルで
const int i = 1;
const double d = 1;
と定義すると
__device__内でiは使えてdは使えませんでした
error: identifier "d" is undefined in device code
とエラーが出てしまいます
どうしてdouble型だとエラーになるのでしょうか?

201 名前:デフォルトの名無しさん mailto:sage [2015/09/11(金) 23:39:48.38 ID:myHMFCwl.net]
floatやlongは?

202 名前:デフォルトの名無しさん mailto:sage [2015/09/14(月) 22:17:35.79 ID:2IqUP8/H.net]
floatはダメでlong intはOK
だめならだめで引数とすれば良いんですけどね
整数だけというのはcudaの仕様ですかね?

203 名前:デフォルトの名無しさん mailto:sage [2015/09/15(火) 09:01:24.15 ID:10B5WSYL.net]
なんでだろうな。全く調べていないので100%想像だけど、
GPU上にstatic変数が確保されているとは思えないから、
(無いとは言い切れないが)
コンパイル時に定数展開しているんだろうな。
C++の言語仕様としてconst intは定数展開していいし、
(厳密な言い方だと間違いかもしれん)
クラスのstaticメンバにしても宣言のみで定義が不要ってのがあるから、
それに則った処理なんじゃなかろうか。

204 名前:デフォルトの名無しさん mailto:sage [2015/09/15(火) 14:26:04.38 ID:8ArN6+Sd.net]
Visual Studioでエラーでた
似たような状況の人いたら教えてほしいです

環境
CPU core i5 4570
GPU GTX 980

Visual Studio 2010 Ultimate
CUDA v7.0
NSIGHT v5.0
使用言語はC
エラーが起こる状況↓
__device__ function1(){
int array1[ 1000 ];
function2( array1 );
}
__device__ function2( int *array1 ){
int array2[ 1000 ];
for( int k = 0 ; k < 1000 ; k++ ){
array1[ k ] = rand(); // rand()は何らかの乱数を返す関数
array2[ k ] = rand();
}
}
function1を呼び出したとき,時折だがarray1の値がarray2の値と同じになってしまう
エラーが起きた状況で以下のことは確認済み
・array1,2ともにグローバルメモリに確保されている
・array1とarray2のポインタは異なっている
・rand()が異なる値を返している
また,array2の宣言をfunction1で行い,function2にarray2のポインタを返すことで回避ができる



205 名前:デフォルトの名無しさん mailto:sage [2015/09/15(火) 14:29:46.25 ID:JgRUCOJR.net]
全然知らんけど、スタックオーバーフローじゃね?
static int array2[1000];にすれば解決

206 名前:GPU太郎 [2015/09/16(水) 01:21:13.95 ID:6Rc88cmlK]
>>179
>Nvはゲームにゲーム用VGAには倍精度演算イラネから省くって流れだか

結局その理由は、PS4/XBoxONEにGCN世代GPUを獲られたからだ
つまり言葉は悪いが「ゲーム機は(DX12世代を見据えた)実験台」
とAMDは割り切っていた

そのためにGPGPU市場を見据えた大胆な実験を特にPS4で実行している
PCもその流れを受けて、これから海外パブリッシャーがどんどん超大作をそちらに合わせて出していく

これからは、AMDのFirePROにシフトするべき

207 名前:デフォルトの名無しさん mailto:sage [2015/09/17(木) 00:01:30.77 ID:6wQsOGVx.net]
>>193
device修飾してないだけとか馬鹿なおちはないよな?

208 名前:デフォルトの名無しさん mailto:sage [2015/09/27(日) 11:58:09.30 ID:X6SDQWu/.net]
VS2013 cuda7.0で
intelisenseがcudaの関数やthreadIdxなんかに赤線つけるんだけど
intelisenseを無効化させる方法ではなく、対応させられない?

209 名前:デフォルトの名無しさん [2015/09/29(火) 16:27:34.89 ID:++1fLQj6.net]
CUDAって余計な決まり事が多くてGLSLよりわかりにくくなってると思うんだけど

210 名前:デフォルトの名無しさん mailto:sage [2015/09/30(水) 06:44:35.73 ID:OmftLuOo.net]
>>201
#include<device_launch_parameters.h>
で消えない?

211 名前:デフォルトの名無しさん mailto:sage [2015/10/01(木) 00:53:18.68 ID:44xt2+tf.net]
cuda_header.hに以下をまとめて、これを.cuでインクルードしてるんだけど、インテリセンスがエラーとして表示したままなんだ。
また従来のcutil系の代わりのhelper関数のヘッダが開けないともなぜか出る。(プロジェクトの追加のインクルードDirには指定してあるんだが・・)
でもコンパイルはされるんだよ・・・。インテリセンスのキャッシュクリアしようと考えたんだが2013のメニューにはないみたいだし・・。

#include <cuda.h>
#include <cuda_runtime.h>
#include <device_launch_parameters.h>
#include <device_functions.h>
#include <math_constants.h>

#include <helper_cuda.h>
#include <helper_math.h>

212 名前:デフォルトの名無しさん [2015/11/11(水) 20:12:32.44 ID:1VxiIponn]
超初歩的な質問ですがよろしければお願いします
環境 windows7 64bit Visual Studio 2013 community CUDA7.5
CUDAインストール時にはVS2013をインストール済みと判定するものの
コマンドプロンプトからnvccでサンプルを実行させると
nvcc fatal  : nvcc cannot find a supported version of microsoft visual studio
とエラーが発生します
パスなどの設定の問題なのでしょうか?

213 名前:デフォルトの名無しさん mailto:sage [2015/11/11(水) 20:55:36.03 ID:FAkUvGGr.net]
超初歩的な質問ですがよろしければお願いします
環境 windows7 64bit Visual Studio 2013 community CUDA7.5
CUDAインストール時にはVS2013をインストール済みと判定するものの
コマンドプロンプトからnvccでサンプルを実行させると
nvcc fatal : nvcc cannot find a supported version of microsoft visual studio
とエラーが発生します
パスなどの設定の問題なのでしょうか?

214 名前:デフォルトの名無しさん mailto:sage [2015/11/11(水) 22:32:08.88 ID:kzShUi9X.net]
コマンドプロンプトからcl.exe叩くのと同じだろう。
VSの開発者コマンドプロンプトからやってみれば?



215 名前:デフォルトの名無しさん mailto:sage [2015/11/12(木) 06:18:25.24 ID:oFlt1n6m.net]
Communityでもいけるんだ?
少し前に断念してProにした記憶がある

216 名前:デフォルトの名無しさん mailto:sage [2015/11/16(月) 00:30:41.16 ID:wFEoXPFZ.net]
質問です
OpenGLとCUDAを使って流体のシミュレーションをしようと考えています
OpenGLの描画とCUDAの計算を別スレッドで行ってCUDAの計算の完了を待たずに描画をしようとするとプログラムが落ちてしまいます
そもそもこういう使い方は間違いですか?
GPUを二つ使わないと不可能なのでしょうか?

217 名前:デフォルトの名無しさん mailto:sage [2015/11/16(月) 04:31:20.12 ID:yRzaBdvH.net]
CUDAを待たずにどういったデータで描画してるの?

218 名前:デフォルトの名無しさん mailto:sage [2015/11/16(月) 11:12:07.65 ID:wFEoXPFZ.net]
正確には
      CUDAで計算
          ↓
計算用と描画用として二つのデータをメモリにコピー
     ↓        ↓
グラフィック描画  CUDAで計算  ←ここを並列化したい
               ↓
計算用と描画用として二つのデータをメモリにコピー
     ↓        ↓
グラフィック描画  CUDAで計算
               ↓

といった処理の流れです
描画と計算の処理の合計が少しでも速くなれば最終的には速くなる見込みなんですが、描画とCUDAは同時にはできないのでしょうか?

219 名前:デフォルトの名無しさん mailto:sage [2015/11/16(月) 13:12:47.35 ID:tPyDrti9.net]
>>209
そういうのは環境、sdk、cc、計算モード、HWによっても違うと思うんだけど。

大前提として計算してる最中でも、描画分のリソースは残してるのかね?

220 名前:デフォルトの名無しさん mailto:sage [2015/11/16(月) 18:15:47.96 ID:wFEoXPFZ.net]
すいません何故か解決しました
OpenGLによる描画をサブスレッドにしていたところメインスレッドにしたら問題なく実行できるようになりました

221 名前:デフォルトの名無しさん [2015/11/19(木) 10:22:54.59 ID:78JlLUmP.net]
AMD、GPGPUの向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供 | スラド
srad.jp/story/15/11/18/0657225/

222 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 18:31:49.90 ID:xKyOvSDo.net]
>>214
いまや一般向けプログラムですらGPUを使うことが普通になったから、
これがC++コンパイラーのデファクトになるだろうな。
DX12,VulkanでGPUするならAMDって流れにまってしまったからな

223 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 20:24:21.71 ID:FjjW9TL1.net]
え?
GPGPUの世界は圧倒的にNVIDIAなんだけど?

224 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 20:26:18.29 ID:Zq45eYUV.net]
PC用GPUでもAMDはシェア2割切ってるでしょ



225 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 21:33:26.48 ID:ngiRjlY7.net]
産業向けのガチのやつならNvidiaでくだ
カジュアルな一般向けならIntelをOpenCLでってとこかな

226 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 22:05:05.00 ID:btQoS/xZ.net]
開発の手間で言えばCUDAが一番楽。NV限定にできるなら趣味でやるにしてもそれが一番手軽。
OpenCLならせめてAMD。IntelはOpenCLの経験を積んだ苦労と向け。

227 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 22:09:50.57 ID:ngiRjlY7.net]
個人向けやオフィスPCでグラボ別にあるのって少数だから仕方ない。
数を優先するならむしろNvidia切ってIntelのみ対応という手もありうる。

228 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 22:10:45.45 ID:ngiRjlY7.net]
慣れてるし開発ツール揃ってるからNが一番楽なんだけど。

229 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 22:48:28.04 ID:btQoS/xZ.net]
HD GraphicsでOpenCLやってもCPUと大して性能変わらんぞ?
それに、オンボードグラフィックスのPC自体は多いだろうが、OpenCL1.0しか動かんとか
そもそもOpenCLが使えないのも少なくない。間口でいうならSSEでもやるほうがまし。
そうでなければAMDでOpenCL開発してNVとIntelで動作確認ってところだな。

230 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 23:05:53.48 ID:ngiRjlY7.net]
>>222
CPUの代わりというよりは少しでも計算パワーがほしい場合もあってさ。
GPU使ってる間CPU使えるなら2倍になるじゃん?
あるいはBGでうごかしてフロントでは通常のアプリ使えるじゃない?
絶対的なパワーというよりはそういう所に使いでを見出してる。

確かにOpenCLはHWアーキ変更激しいし世代でがらりと変えてくるからやりにくそうなんだけど。

231 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 23:06:47.02 ID:ngiRjlY7.net]
間違い。OpenCLではなくてIntelのGPUね

232 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 23:36:03.63 ID:u4ZVkU4H.net]
AMD関連使って良かったと思った印象が一度も無いから使いたくねえな

233 名前:デフォルトの名無しさん mailto:sage [2015/11/19(木) 23:54:31.95 ID:btQoS/xZ.net]
>>223
つまり、少しでもパフォーマンスは欲しいけどdGPUほどの性能は必要なくて、
数を優先するけどオンボードグラフィックスでOpenCLが動く環境に限定していいと。
最初の「カジュアル」からは想像つかないピンポイントな要件だなw

234 名前:デフォルトの名無しさん mailto:sage [2015/11/20(金) 00:37:51.03 ID:XYOZ5eLO.net]
カジュアルGPGPUなら内蔵GPUでOpenCL2確定
一方、外GPUを使う高性能GPGPUものは昔はNvidiaが圧倒していたけど、いまはAMDが圧倒しているんだろ?



235 名前:デフォルトの名無しさん mailto:sage [2015/11/20(金) 00:49:06.07 ID:H4wqwi3u.net]
>>226
そうなのかなあ?自分の文章の書き方が良くないのかもしれないが
ほとんどは内蔵GPUしか期待できないから、
その範囲で少しでも計算パワー稼ごうと思ったらそれしかないように思うのだけど

dGPUほどの性能はいらないわけじゃなくて、ほとんど期待できないからしかたなくという感じ。

236 名前:デフォルトの名無しさん mailto:sage [2015/11/20(金) 01:19:10.06 ID:mr/p17yR.net]
組み込みは知らないけど汎用PCでAMDが圧倒した話なんて聞いたことない






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<248KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef