[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 2chのread.cgiへ]
Update time : 05/30 06:39 / Filesize : 210 KB / Number-of Response : 866
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

【GPGPU】くだすれCUDAスレ part6【NVIDIA】



1 名前:デフォルトの名無しさん mailto:sage [2012/09/23(日) 23:17:47.58 ]
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。

CUDA・HomePage
ttp://developer.nvidia.com/category/zone/cuda-zone

関連スレ
GPGPU#5
ttp://hibari.2ch.net/test/read.cgi/tech/1281876470/

前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/
【GPGPU】くだすれCUDAスレ part5【NVIDIA】
toro.2ch.net/test/read.cgi/tech/1314104886/


252 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 08:07:53.55 ]
おいおい、TitanでDP使えるらしいじゃないか!
訂正記事書かれてるぞ
headlines.yahoo.co.jp/hl?a=20130220-00000025-mycomj-sci
2/28追記:記事掲載当初、「GTX TitanではKepler GPUの新機能であるDynamic ParallelismとHyper-Qという機能が省かれている」と記載させていただいておりまし
たが、GTX Titanでもこれらの機能をサポートしていることが明らかとなりましたので、当該部分ならびにそこに付随する文章
を修正させていただきました。

253 名前:デフォルトの名無しさん [2013/03/01(金) 09:42:16.44 ]
>>252
キター
DPって、倍精度と紛らわしいよね

254 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 11:19:34.68 ]
マジかよw
この訂正記事に気づいてない人の分だけ売上落ちるぞこれ

255 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 12:55:23.44 ]
このスレ見てて良かったと思う瞬間


256 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 16:59:12.85 ]
│  ↑
└─┘
おらっしゃあぁぁ!!!
 ∩∧ ∧
 ヽ( ゚Д゚)
   \⊂\
    O-、 )〜
      ∪

257 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 17:17:18.74 ]
計算ミスしないなら欲しい

258 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 18:55:26.41 ]
計算エラーって、確率的に起こるもんなの?
それとも同じところで再現?

259 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 19:58:01.79 ]
ハードウェア的には同じところだとは思うが、プログラム上の同じところで
再現してくれるとは限らない。

計算ミスするコアは必ずミスしてくれるかっていうと…詳しい人教えてください

260 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 20:12:57.40 ]
メモリエラーの場合は確率的じゃない?



261 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 20:40:09.11 ]
Dynamic Parallelismあり+Geforce並のエラー精度
Dynamic Parallelismなし+Tesla並のエラー精度

処理内容にもよるけどこの2択なら前者のほうが欲しい。
なんていうかGPGPUで何かさせるときは計算ミスは織り込んだ上で作る感じだし。
そういう意味でもTitanはおもしろいと思うけど、なぜにDynParal不可という報道を放置したし・・

262 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 21:02:25.16 ]
その記者がIntelから金渡されてたりして

263 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 23:24:13.26 ]
品薄もんだからよかったものの、
大量に捌きたいもんだったらNVidiaから訴えられてもおかしくないレベルw

264 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 23:26:48.44 ]
nVIDIA Japan公式Twitterだと使えるってアナウンスが
随分前にあったけど、使えるで確定なのねw

265 名前:デフォルトの名無しさん mailto:sage [2013/03/01(金) 23:31:11.08 ]
くそ、DPない情報に踊らされて買いそびれたじゃねぇか・・・
まだ店で売ってるのかな?

266 名前:デフォルトの名無しさん [2013/03/01(金) 23:42:31.95 ]
どさくさに紛れてGPUDirectも対応してないかな?

267 名前:デフォルトの名無しさん mailto:sage [2013/03/02(土) 09:08:59.28 ]
>>261
ECC無してTesla C1070、C2070、C2075、GTX580を使ってきた経験上、
計算エラーが起きたことは無い。
TSUBAMEのように大量に組めばECCも重要だろうけど、
デスクトップレベルなら気にすることは無い。
エラーがでたらやり直せばいい。
それが嫌ならK20を買えという事だ。

268 名前:デフォルトの名無しさん mailto:sage [2013/03/02(土) 09:43:58.97 ]
>>267
>エラーがでたらやり直せばいい。

ほんと、ただそれだけのことだよね。
処理結果を一定間隔で保存しとけば、
万一エラーが出ても、少し前からやり直すだけでいい。

ECCなんかにダイやサイクルを浪費するより、
よっぽど効率的。

269 名前:デフォルトの名無しさん mailto:sage [2013/03/02(土) 11:20:49.48 ]
そもそもエラーだと気付ければいいけどな
いつの間にか数値の一部が化けてたら気付かないぞ

270 名前:268 mailto:sage [2013/03/02(土) 11:37:11.88 ]
>>269
あ、そういえばw

まぁ、エラー「訂正」までせずに、「検知」に留めておいて
ロジックを減らすのはいいんじゃないかなぁ。



271 名前:デフォルトの名無しさん mailto:sage [2013/03/02(土) 11:53:59.26 ]
シミュレーションに使っているけど、計算ミスが問題になったことはないなぁ。
あ、そもそも精度が要るところはCPUで計算してたわ。

272 名前:デフォルトの名無しさん mailto:sage [2013/03/02(土) 16:30:38.24 ]
>>269
大事な計算が必要なら信頼性の高い
システムを使えばいいだけ。
指数部が化けたら気づきやすいだろうし、
仮数部が化けても気づかないならそもそも
それほど感度がいる解析ではないので重要ではないよ。
そもそも研究なりで回す場合はいくつも計算するだろうから、
明らかにおかしい値は人間のフィルタがかかるでしょ。

273 名前:デフォルトの名無しさん [2013/03/02(土) 17:05:17.55 ]
そんなに心配なら、同じ計算を別のボードでもやって比較すれば良い。
同じボードでやっても、あまり意味は無いぞ?

274 名前:デフォルトの名無しさん mailto:sage [2013/03/03(日) 22:00:13.88 ]
計算分野は狭いようで果てしなく広い分野だからな
エラー検知がどの程度重要かどうかは分野ごとに異なるから
自分の身の回りだけの話をしてもしょうがないだろ

275 名前:デフォルトの名無しさん mailto:sage [2013/03/03(日) 23:45:41.01 ]
これでTeslaと同じくらいの価格だな
akiba-pc.watch.impress.co.jp/img/ah/docs/590/125/html/s3201.jpg.html

276 名前:デフォルトの名無しさん mailto:sage [2013/03/06(水) 17:18:26.89 ]
CUDAとOpenCV併用するとき、.cuファイル内でOpenCV使うことってできないの?
コンパイル時にインクルードファイル周りでエラー吐いたからとりあえずOpenCV周りだけ.cppファイルに隔離したんだけど。
後々不便そうだから対策があれば教えてほしい。

277 名前:デフォルトの名無しさん mailto:sage [2013/03/06(水) 23:06:53.58 ]
>>276
CUDAのカーネル関係はlib化して、
ビルド時にリンクする方法を取ればいいんじゃね?
NVCCってそんなに賢くないから、CPU周りで遅くなるし。

278 名前:デフォルトの名無しさん mailto:sage [2013/03/06(水) 23:12:33.76 ]
ふと、CUDAで自分で書いたカーネルを実行しつつ、OpenCV の cv::gpu:: の機能も同時に使うと、どうなっちゃうんだろう、と思った。

279 名前:デフォルトの名無しさん mailto:sage [2013/03/07(木) 16:52:32.98 ]
>>278
どちらも実行されるよ。
普通のマルチスレッドのプログラミングと
考え方は変わらん。

280 名前:デフォルトの名無しさん [2013/03/19(火) 17:09:17.32 ]
news.mynavi.jp/series/nvidia_kepler_gpu/001/
【連載】
GPUの実効性能を上げるDynamic ParallelismとHyper-Q



281 名前:デフォルトの名無しさん mailto:sage [2013/03/19(火) 19:27:04.30 ]
>>280
安藤先生の記事や。
ありがたや〜。

282 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 00:32:25.98 ]
www.eevblog.com/forum/projects/hacking-nvidia-cards-into-their-professional-counterparts/

おいお前ら
GTX690がレジスタ変えるだけでTesraになるらしいぞ

半田班ちょっと人柱頼む

283 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 07:16:49.30 ]
>>282
どうやって発見したんだよ!w

284 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 08:04:17.97 ]
英語読める割に綴り間違うんだな

285 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 09:36:22.71 ]
>>282
レジスタってGPUのレジスタじゃないぞ。
抵抗のレジスタだ。

しかし、興味深いなあ。

286 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 09:59:06.90 ]
>>285
半田班ってんだからわかってくれよ
>>284
携帯だったんだよ興奮してたんだよ

287 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 10:07:36.15 ]
チップ自体は同じだから理論上可能というのは分かるんだけど、
よもやこんな方法でイネーブルにできるとはw

288 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 10:07:47.70 ]
>>283
俺が知りたいよ

早めに買っとかないと対策されそうな気がするけどこのチップ抵抗は怖いよな。。

289 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 10:08:50.58 ]
>>287
しかも690のがクロック高いから性能いいらしいぞ(;´Д`)
買ってみてやってみて

290 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 10:13:47.22 ]
>>289
マジかよw

あー、久々おもしろい話題でわくわくするw
やっぱハードウェアはこうでないとなw



291 名前:デフォルトの名無しさん [2013/03/20(水) 10:35:15.50 ]
マジレスすると、quadroやteslaでの構成と同等なものがないから、
ドライバ側が柔軟な作りに立っていないと不具合が出るだろうな。
例えばハードウェアのモニタリング用の石が載ってなかったりするだろうから。

nvidia的には、geforceがteslaになったところで、購買層が違うから放置だろうが、quadro化はマーケティング的にやばいので塞ぎにくるだろうな。

292 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 12:36:37.99 ]
>>291
ただそれはドライバを更新しなければいいだけの話だよね。

293 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 13:02:33.89 ]
>>292
しばらくは放置なんじゃなかな。
さすがにドライバだけでは対応しづらい気がする。
基板のリビジョンが変更になった時から使えなくなると思う。

294 名前:デフォルトの名無しさん [2013/03/20(水) 15:20:27.90 ]
K10化より、TITANをK20Xにしたい。

295 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 16:16:11.67 ]
おっ
また発見されたのかよ
むかしクワドロ化の方法が発見されたのに、まだまともな対策してなかったのか

296 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 18:48:30.94 ]
これ、カーネルドライバがボードに直接プロダクトIDを聞きにいくからカーネルフックじゃ駄目って書いてあるけど
ドライバ改造できればワンチャン有るってことじゃね。

297 名前:デフォルトの名無しさん [2013/03/20(水) 20:54:10.54 ]
GeForceをQuadro/Tesla化出来るからって、Quadro/Teslaの売り上げが
減るとは思えない。

298 名前:デフォルトの名無しさん mailto:sage [2013/03/20(水) 22:40:19.86 ]
tesla化するって言っても、gk110じゃないしな。gpgpuやってる人からすれば、
そんなにありがたみがないんじゃね

299 名前:デフォルトの名無しさん [2013/03/24(日) 16:59:47.30 ]
NVIDIA CUDA Gets Python Support | techPowerUp
www.techpowerup.com/181585/NVIDIA-CUDA-Gets-Python-Support.html

300 名前:デフォルトの名無しさん mailto:sage [2013/03/24(日) 19:08:27.70 ]
これネイティブ対応ってことなのかね。
パイソンってそんなに人気あったんだ・・・
ruby人気は国内限定?



301 名前:デフォルトの名無しさん mailto:sage [2013/03/24(日) 19:23:07.90 ]
うん

302 名前:デフォルトの名無しさん mailto:sage [2013/03/24(日) 19:23:52.69 ]
Visual StudioもPython使えるようになるパッチが出てるし
OpenCVもPython対応(一応)してるしLibreOfficeもマクロでPython使えるし
そしてCUDAまでも…ということで俺の身の周りではPython株が右肩上がり。

ネット上のサンプルが2.x用のソースだと動かなかったりして躓いたこともあったり
今でも躓いたりしてるけど、これから3.x用の情報がもっと増えてくれると嬉しいと思う。

303 名前:デフォルトの名無しさん mailto:sage [2013/03/27(水) 13:42:12.44 ]
SL#(えすえるしゃーぷ)とは、GPUで実行されるプログラマブルシェーダーを、超高級言語である
C#で書けてしまうという夢のようなオープンソースのフレームワークである。
monobook.org/wiki/SL_Sharp

304 名前:デフォルトの名無しさん mailto:sage [2013/03/27(水) 19:32:08.19 ]
C#イラネ

305 名前:デフォルトの名無しさん [2013/03/30(土) 17:24:17.17 ]
DXエラーだったのでdirectXかと思いここで聞きます
色々ググったのですが解決に至らず

i.imgur.com/XFoHQke.jpg
まず黒画面突入後にビープ音1回
待機マークでEsc押すと@が発生、続いてAが発生

某ゲームのランチャー起動後にこのエラーが出ます
誰かご教授下さい

306 名前:デフォルトの名無しさん mailto:sage [2013/03/30(土) 23:26:35.66 ]
スレチだし
ゲームの事は開発元に聞け
あとDX8のレンダリングにすら対応してないクソPCを捨てろ

307 名前:デフォルトの名無しさん mailto:sage [2013/04/02(火) 08:57:50.31 ]
なんでDirectXでこのスレなんだ?

308 名前:デフォルトの名無しさん mailto:sage [2013/04/05(金) 14:24:31.80 ]
本出るの久しぶりじゃない?
www.amazon.co.jp/dp/4061538209

309 名前:デフォルトの名無しさん mailto:sage [2013/04/05(金) 20:17:57.08 ]
>>308
おお〜、CUDA5本か!
注目だな〜。

って、誰が書いてるかと思いきや、
伊藤智義さんって、「栄光なき天才たち」シリーズの原作だった人じゃまいかw
「宇宙を夢みた男たち」は感動した!
まさか、こんなところでまた名前を見ることになるとは感慨深い。

next.rikunabi.com/tech/docs/ct_s03600.jsp?p=001216
つか、この人、すごい人なんだな!
原作やってたときは東大生のときだったのか・・・。

310 名前:デフォルトの名無しさん [2013/04/05(金) 22:20:39.03 ]
宣伝乙



311 名前:デフォルトの名無しさん [2013/04/06(土) 08:59:19.78 ]
もしかして、東大の初代grapeに関わった人?

312 名前:デフォルトの名無しさん mailto:sage [2013/04/06(土) 09:40:17.13 ]
そだよ!

313 名前:デフォルトの名無しさん [2013/04/12(金) 02:37:27.22 ]
もしかして、TitanってP2P使えない?
cudaDeviceCanAccessPeerで0が返ってくるのは想定の範囲内だったけど、
cudaDeviceEnablePeerAccessするとエラーになってしまう。


OS:CentOS 6.4 64bit
Driver:313.30
MB:P9X79
Titan 2枚をそれぞれPCIex gen3でx16接続

314 名前:デフォルトの名無しさん [2013/04/12(金) 17:39:21.97 ]
>>157
書籍「CUDA BY EXAMPLE」の「5.3.2 ドット積の(誤った)最適化」の項には、
真逆な事が書いてあって悩んでいる。

この項の概要は、
「__syncthreads()」をif文の中にいれたときに、
スレッドの一部が「__syncthreads()」に到達しないものが発生して、
プロセッサが事実上ハングするというもの。

しかし、サンプルプログラムを作成して実験しても、上記事象は発生せず、
正常終了する。
(「cudaGetLastError()」の結果も「cudaSuccess」が返る。)

書籍の内容は正しいのだろうか?
知っている人教えてください。

315 名前:デフォルトの名無しさん mailto:sage [2013/04/14(日) 00:10:01.63 ]
>>314
多分「CUDA BY EXAMPLE」が間違っているか、CUDAのバージョンが新しくなったことによって変わったのかもしれないが、基本的に__syncthreads()はスレッド間のフェンスみたいなものだから。SIMDの概念で考えればわかると思う。

316 名前:デフォルトの名無しさん mailto:sage [2013/04/14(日) 02:24:20.82 ]
PTX ISAのドキュメントには以下のように書いてある。
Barriers are executed on a per-warp basis as if all the threads in a warp are active. Thus, if any
thread in a warp executes a bar instruction, it is as if all the threads in the warp have executed
the bar instruction. All threads in the warp are stalled until the barrier completes, and the
arrival count for the barrier is incremented by the warp size (not the number of active threads
in the warp). In conditionally executed code, a bar instruction should only be used if it is known
that all threads evaluate the condition identically (the warp does not diverge). Since barriers
are executed on a per-warp basis, the optional thread count must be a multiple of the warp
size.

317 名前:デフォルトの名無しさん mailto:sage [2013/04/14(日) 02:44:35.83 ]
要は、_syncthreadsはwarp内の一つでも実行されたら
そのwarpの全てのthreadが実行したのと同じと看做される。
だから同一block内の全てのwarpそれぞれで、
いずれかのthreadがアクティブな状態で_syncthreadを実行すれば辻褄はあう。

逆にMPIのbarrierで辻褄を合わせるように、全threadでbarrierを実行しようと
分岐の両側に_syncthreadを置いて、実際にwarp内で両パスにthreadが別れてしまうと
困ることになるだろう。

318 名前:314 [2013/04/14(日) 05:11:45.30 ]
>>315 >>316 >>317
PTXレベルでの解説ありがとうございます。
なるほど、「CUDA BY EXAMPLE」を読んだだけの頃は
「MPIのbarrier」のような仕様をイメージしていましたが、
そうではないんですね。
「__syncthreads()」の分岐に入らなかったスレッド用に、
別の「__syncthreads()」を書く必要は無いということか。。。
SIMDの概念ならその仕様でないとダメなんですね。

319 名前:デフォルトの名無しさん mailto:sage [2013/04/23(火) 12:25:54.57 ]
ものすごく初心者丸出しな質問で申し訳無いのですが、質問させてください。
CUDA5.0をVS2008で使うにはどういった手順が必要になるのでしょうか?
ネット上だと2010や2012についてばかり見つかって2008について見つけられませんでした。
どうかよろしくお願いします。

320 名前:デフォルトの名無しさん [2013/04/24(水) 11:40:18.49 ]
マルチgpu環境での使い方が分からず困っています。
何か良い資料は有りませんでしょうか。



321 名前:デフォルトの名無しさん mailto:sage [2013/04/25(木) 22:41:10.57 ]
ハードウェアとCUDAのバージョン依存があるんでね?

322 名前:デフォルトの名無しさん mailto:sage [2013/04/26(金) 06:03:02.19 ]
>>320
www.meriken2ch.com/programming/merikens-tripcode-finder
マルチGPUをサポートしてて、ソースも付いてるよ。

323 名前:デフォルトの名無しさん [2013/04/26(金) 08:14:11.43 ]
compute capability 3.0 cuda 5.0 です。

324 名前:デフォルトの名無しさん mailto:sage [2013/04/26(金) 09:28:57.17 ]
>>320
1GPU毎に1CPUスレッドを割り当てて、それぞれのスレッドで
cudaSetDevice()を実行すればいいって話じゃないの?

325 名前:デフォルトの名無しさん mailto:sage [2013/04/26(金) 14:32:31.09 ]
>>320
デバイスドライバとの関係でメインスレッドでcudaSetDevice()すると巧くないので、
>324のようにcreate_pthread()した先でcudaSetDevice()するよろし。

326 名前:デフォルトの名無しさん [2013/04/26(金) 16:55:32.79 ]
cudaSetDevice()を呼び出した後はシングルgpuの場合と同様なんですよね。

gpuが二つある場合に単一スレッドで cudaSetDevice(0)を呼び出して作業した後に
cudaSetDevice(1)を呼び出した場合はどうなるのでしょうか。

327 名前:デフォルトの名無しさん mailto:sage [2013/04/26(金) 18:34:49.73 ]
二度目以降は無視されるよ。

328 名前:デフォルトの名無しさん [2013/04/26(金) 21:44:04.64 ]
各スレッドでcudaSetDevice()を呼び出して各スレッド毎に各gpuを割り当てますが、
複数のスレッドでcudaSetDevice()を呼び出さずにカーネルを実行したらどうなるのでしょうか。
また、複数のスレッドでcudaSetDevice()使って同一のデバイスを指定はできるのでしょうか。

329 名前:デフォルトの名無しさん mailto:sage [2013/04/26(金) 22:55:17.00 ]
>>328
何でそんなことしたいのかさっぱりわからん。

330 名前:デフォルトの名無しさん mailto:sage [2013/04/26(金) 22:59:08.02 ]
自分で試して確認しようとしていないようだけど、そういう環境がないのか?
何の為に学ぼうとしてるのかしらんが、そうやって無限に問い続けるつもりか?



331 名前:デフォルトの名無しさん [2013/04/27(土) 03:09:44.84 ]
環境がなくて試せないんです。すみません。

332 名前:デフォルトの名無しさん [2013/04/27(土) 04:12:10.93 ]
数千円でボードかえるのに環境がないとか甘えだろ。

333 名前:デフォルトの名無しさん mailto:sage [2013/04/27(土) 07:55:25.89 ]
>>326
CUDA C Programming Guide 5.0
3.2.6.2 Device Selection

334 名前:デフォルトの名無しさん mailto:sage [2013/04/28(日) 17:13:33.38 ]
環境がなくて試せないのに、なんでそんなに重箱の隅みたいなこと聞くのか

335 名前:デフォルトの名無しさん mailto:sage [2013/04/28(日) 17:49:38.30 ]
環境の構築(購入)に踏み切ろうか悩んでいるとか

336 名前:デフォルトの名無しさん mailto:sage [2013/04/29(月) 18:00:10.69 ]
マルチGPU環境とかこだわらなければ1万円以下でできるのにな。

337 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 13:11:10.63 ]
現在CUDAで画像処理を行っているのですが,GPUを長時間使用するような
プログラムを走らせると,「ディスプレイドライバの応答が停止しました」または
PCが落ちる,という事が頻発します.
現在は,ソースコード上で使用するブロック数とスレッド数の数を減らすことで工夫して対応していますが,実装上不便です.
上記に対して,ソースコード上で使用するスレッド数とブロック数を制限せずに,解決する方法は何かございますか?
環境はWindows7,CUDA5.0,VC2008,GT610です.
宜しくお願いします.

338 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 13:37:43.82 ]
タイムアウトの設定をレジストリで変えた?
たしかwin7だとデフォで1秒か2秒くらいになってて、それ以上カーネルが動きっぱなしに
なると「ディスプレイドライバの応答が〜」になるので変更する必要がある。

339 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 13:49:16.71 ]
可能ならディスプレイ表示用(ショボいので十分)とコンピューティング用GPUと2つ接続したいところだね。

340 名前:デフォルトの名無しさん [2013/05/05(日) 14:00:03.24 ]
最近はCPUオンチップGPU+CUDA用GPUという構成を組みやすい。



341 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 16:00:33.60 ]
>>338-340
ありがとうございます.
タイムアウトの設定は最後の手段としたいと思います.デフォルトでは2秒だそうです.
表示用と処理用のGPU二つ用意するのはいいですね.
残念ながら,このPCのBIOSではオンボードとGPUを共存できないうえ,
GPU二枚刺しも出来ないので,新しく機材を調達しようと思います.

342 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 16:15:31.63 ]
タイムアウトが最初の手段だと思うけど。。
それで不便だったらお金のかかる対策に移ればいいわけだし。

343 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 16:26:07.35 ]
GT610なんて使っている時点でCUDAの意味がないがな。
スレッドブロック数のチューニングにすらならん。

344 名前:デフォルトの名無しさん mailto:sage [2013/05/05(日) 23:29:26.34 ]
>>340
今はiGPU搭載CPUが普通で、それがCUDAお手軽構成って感じだよね

>>341
お薦めはAMDのAPUだよ。
値段が安いのにCPU部はIntelの高性能のi7並みの性能で、GPUはGT610より性能が良い

345 名前:デフォルトの名無しさん mailto:sage [2013/05/06(月) 20:16:35.75 ]
linuxでやれよハゲ

346 名前:デフォルトの名無しさん mailto:sage [2013/05/07(火) 07:37:55.74 ]
>>344
iGPUでCUDAができるかよ。やるならOpenCLだ。
AMDのCPUがi7並であるわけ無いだろ。
スレ違い。

347 名前:デフォルトの名無しさん mailto:sage [2013/05/07(火) 20:27:42.82 ]
GPGPUはHSAでAMDが主流になるって感じになってきたよな
一部のスパーコンピューティングでCUDAがつかわれ、それ以外はHSAのAMDになるのかな

348 名前:デフォルトの名無しさん mailto:sage [2013/05/08(水) 22:17:31.73 ]
>>347
性能が桁違いだから仕方がない。自作のアプリではTITANは
7970の6割ぐらいの性能だし。CUDAとOpenCLって
やってることはほとんど同じだから、移行するのもそんなに
難しくなかった。

349 名前:デフォルトの名無しさん mailto:sage [2013/05/08(水) 22:54:07.61 ]
あとSouthern Islands系のAMDのGPUは、CUDAに比べると分岐処理のペナルティが
はるかに小さいのでプログラミングしやすいというのもある。
(EvergreenやNorthern Islandsは共有メモリが遅かったり
ベクトル型を使わないと性能が出なかったりするのでこの限りでない)

350 名前:デフォルトの名無しさん [2013/05/09(木) 07:45:11.56 ]
()



351 名前:デフォルトの名無しさん mailto:sage [2013/05/09(木) 21:33:31.18 ]
>>349
お、GCNはだいぶいいんだね。

352 名前:デフォルトの名無しさん mailto:sage [2013/05/16(木) 00:41:04.04 ]
teslaでも使える温度計測ソフトはないものか






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<210KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef