1 名前:デフォルトの名無しさん mailto:sage [2012/09/23(日) 23:17:47.58 ] このスレッドは、他のスレッドでは書き込めない超低レベル、 もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage ttp://developer.nvidia.com/category/zone/cuda-zone 関連スレ GPGPU#5 ttp://hibari.2ch.net/test/read.cgi/tech/1281876470/ 前スレ 【GPGPU】くだすれCUDAスレ【NVIDIA】 ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/ 【GPGPU】くだすれCUDAスレ pert2【NVIDIA】 ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/ 【GPGPU】くだすれCUDAスレ pert3【NVIDIA】 ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/ 【GPGPU】くだすれCUDAスレ pert4【NVIDIA】 ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/ 【GPGPU】くだすれCUDAスレ part5【NVIDIA】 toro.2ch.net/test/read.cgi/tech/1314104886/
96 名前:デフォルトの名無しさん mailto:sage [2012/11/12(月) 23:48:40.00 ] Tesla K20きたぞ
97 名前:95 mailto:sage [2012/11/13(火) 01:28:48.03 ] >>96 予算処理上の都合だったらしい。
98 名前:デフォルトの名無しさん mailto:sage [2012/11/13(火) 03:25:03.66 ] 最近プログラム入門した CUDAとか聞くとワクワクするけど物理の知識も科学の知識も特にないので 数百万スレッド並列で処理するネタが思いつけなくて悲しい思いになる もっとちゃんと勉強しておけば良かった
99 名前:デフォルトの名無しさん mailto:sage [2012/11/13(火) 05:46:01.18 ] 京が3位に
100 名前:デフォルトの名無しさん [2012/11/13(火) 06:14:28.20 ] 東工大の学生たちはもうGK110貰ってるの?
101 名前:デフォルトの名無しさん mailto:sage [2012/11/13(火) 23:01:28.72 ] Intelがついに来るぞ pc.watch.impress.co.jp/docs/news/20121113_572526.html ソースの改変が少しでパラレル計算ができるとのことだが、実際の所どうなんだろうね。
102 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 00:25:44.33 ] >>101 nVIDIAが押されて、もうちっと貧乏客を引き込むマーケティングをやってくれんかな。 一般のビデオカードで定格の80%までクロックを公式に落とせかつその速度なら GPGPUの動作を保証。 これを是非やってほしい。仲がよいベンダーがいくつかあるし。
103 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 16:56:20.91 ] 開発環境やソフトウェアの安定性とか含めて、XeonPhi強そうだなぁ
104 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 18:03:25.42 ] XeonPhiは高いぞ 安いGPUは安い Tesla買うならXeonPhiのほうがよさそうだが
105 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 19:32:13.13 ] 半年ぐらいしたら、$500くらいのローエンドXeon Phiが出るだろうから、純粋にアクセラレータとしてのteslaは厳しいかもなあ。
106 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 20:08:20.86 ] Phi触ってみてぇ。 OpenMPで簡単マルチコアプログラミング♪ スレッドオーバーヘッドが小さいことを願う・・・
107 名前:デフォルトの名無しさん [2012/11/14(水) 20:25:15.46 ] SSEとかAVXみたいなのをちゃんと使える人じゃないと TESLAのような性能はでないよ。 512bit演算命令が命だから。 ただのロジックを複数スレッド回したい人なら、 TESLAより速いかもね。かなりの無駄だが(笑)
108 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 20:30:01.47 ] 512bit演算命令ってのがあるのか? AVXでも256bitだが・・・
109 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 20:32:10.61 ] VPUてので512ビット命令を処理するようだな
110 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 20:33:10.12 ] ま、経験上はベクトル命令はCUDAよりは扱いやすいよ
111 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 20:37:54.55 ] うん、イントリンシックでベクトリ処理書くの楽♪ 条件分岐がめんどいけど、LNIはマスクレジスタをサポートしてたからだいぶ楽に書けそう。 しかも512bitもあるなんて最高すぐる。 あー、Phi触りてぇ〜。
112 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 21:32:04.73 ] OEM向け1000個ロットでXeon Phi 5110Pが2650ドル らすぃ なんか価格でもTeslaやばそうだな Intel,スーパーコンピュータ向けアクセラレータ「Xeon Phi 5110P」発表。60基のx86コアを1チップ上に集積 ttp://www.4gamer.net/games/049/G004963/20121111001/
113 名前:デフォルトの名無しさん [2012/11/14(水) 21:33:53.30 ] むしろ値下げ合戦になればよい。
114 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 21:47:31.12 ] 合戦になるほど数競争起きる市場でもないべ
115 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 21:53:57.69 ] CUDAの強み:先行者利益、CUDAが一応動く環境が多め、設計製造がGPUと共用なので低コスト Xeon Phiの強み:たぶん使いやすさ って感じだと思う。HPCを本気でやる人たちはXeon Phiのほうに目がいくんじゃないかな。 Xeon Phiはそれはそれで制約があるんだろうけど、CUDAよりは融通が利きそうだから。 Geforce持ってるしCUDAで遊ぶのはいいけどXeon Phi買うとかありえんわっていう一般人としては、 KeplerはあきらめるとしてMaxwellで再びFermi並にGeforceにもGPGPUの機能を盛り込んでほしいと思う。 しかしFermiのときにNVIDIAはCUDA使いの増殖とCUDAアプリの誕生の期待をこめて Fermiにもそれなりに機能を持たせたんだと思う。しかし今後CUDAをうまく活用するアプリが HPC以外で出てくるかというと、結構諦めモードなんじゃないかと。 つまりMaxwellもGeforce製品はGPGPU捨ててくるんちゃうかと。 つまりCUDA使いのおまいらがんばってくださいおながいします
116 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 21:56:39.37 ] 長文の上に間違えてーらorz Fermiにもそれなりに機能を持たせたんだと思う→Geforceにもそれなりに機能を持たせたんだと思う
117 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 22:59:58.87 ] >>115 nVIDIAの株を空売りすれば儲かるということか。
118 名前:デフォルトの名無しさん mailto:sage [2012/11/14(水) 23:57:37.97 ] phiはCPUに内蔵させるGPUコアと共通化させて コスト落としつつマーケットシエア取る作戦かな? そしたら、本気でnVidia終わるな
119 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 00:11:23.74 ] >>112 Phi、扱い易そうだな。 ベクタ演算器処理の記述法が気になるとこだし、 nVidiaがアセンブラのように複雑ってディスってたけど、 イントリンシック記述だったら簡単だし、 条件分岐のマスクまでサポートしてくれたら文句なしだ。 これ、マジで触ってみたいな。
120 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 04:26:43.84 ] CUDAは開発環境タダだけどXeon PhiはIntel Compiler必須だよね
121 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 05:55:49.56 ] ものいりだねえ、 Phi
122 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 11:55:29.66 ] >>120 GCCが対応するって書いてあったぞ
123 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 15:34:52.68 ] そもそもintelコンパイラもLinux版はフリーだよな
124 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 18:21:21.39 ] ここのスレ見てたら、phiを月2、3万位でレンタルする商売が出来そうな気がしてきた…
125 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 20:33:05.20 ] GPUだってAmazonのクラウドで借りたりできるし Phiもそういうの出るだろう
126 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 23:35:19.70 ] >>114 まあ、ATI Streamが出てきたからといってTeslaが安くなったというわけじゃないからな。 しかし、今回の場合Phiの場合はコードの書きやすさからすると、CUDAの比じゃないから、 >>115 にあるお互いの強みを生かして、切磋琢磨して値下げ合戦してほしいわ。 両方のコードを書いている身としては安くなってくれればどっちでもいいんだが。
127 名前:デフォルトの名無しさん mailto:sage [2012/11/15(木) 23:36:48.09 ] Phi、4、5万で買えるようにならないかなぁ〜。
128 名前:デフォルトの名無しさん mailto:sage [2012/11/17(土) 12:12:13.46 ] Phいらないだろ 一晩中PC動かせばいいだけだろ
129 名前:デフォルトの名無しさん mailto:sage [2012/11/17(土) 12:35:26.08 ] 動画エンコ用途でもあるまいにw すでに一年中計算回してるような人に、これなら一ヶ月で済むよ、って訴求するのが筋の製品だろ
130 名前:デフォルトの名無しさん mailto:sage [2012/11/17(土) 13:00:33.16 ] 数時間、数日動かして、後から些細なバグに気づいた時の何とも言えない気持ち これを何とか少しでも解消してくれるシステムが欲しいな バグを直したら、その部分だけ再計算すればいいような仕組み
131 名前:デフォルトの名無しさん mailto:sage [2012/11/17(土) 14:05:25.11 ] >>130 とりあえず賽の河原症候群と名付けておくよ
132 名前:デフォルトの名無しさん mailto:sage [2012/11/19(月) 21:17:02.44 ] phiは本体CPUもXeon使った時の協調性とかで パワー増すんだろうなぁ Teslaやばいなぁ… …投げ売りになってくれると嬉しいなぁ
133 名前:デフォルトの名無しさん mailto:sage [2012/11/19(月) 22:16:34.19 ] しかし投げ売りの後に待っているのが撤退だとしたら…? Xeon Phiには縁がなさそうだから気軽に触れるCUDAにがんばってほしいなぁ
134 名前:デフォルトの名無しさん mailto:sage [2012/11/19(月) 22:19:19.97 ] 自作ゲームにCUDA利用してる奴っている? いるなら、何に使ってる?
135 名前:デフォルトの名無しさん mailto:sage [2012/11/22(木) 18:48:11.46 ] 使えもしないのに欲しくなってとりあえずダウンロードしているんだけど クソミソに通信速度遅い。 25〜60KB/sをウロウロしてるけどそんなもん? ttp://developer.download.nvidia.com/compute/cuda/5_0/rel-update-1/installers/cuda_5.0.35_winvista_win7_win8_general_64-1.msi
136 名前:デフォルトの名無しさん mailto:sage [2012/11/22(木) 19:03:52.66 ] >>135 ウチじゃ2.0MB/s位出ているぞ。
137 名前:デフォルトの名無しさん mailto:sage [2012/11/22(木) 20:53:34.08 ] まじすか 一端回線切ってIPアドレス変更とかしても速度出ない・・・ OCN保土ヶ谷
138 名前:デフォルトの名無しさん mailto:sage [2012/11/23(金) 01:07:04.36 ] >135 遅すぎ 間に無線とか入れてない?
139 名前:デフォルトの名無しさん mailto:sage [2012/11/30(金) 22:59:09.24 ] 人柱はまだか www.amazon.co.jp/dp/B00A31Q6QI/
140 名前:デフォルトの名無しさん mailto:sage [2012/12/01(土) 19:38:58.57 ] >>139 高すぎ。 今だったら34万くらいで買えるだろ。
141 名前:デフォルトの名無しさん mailto:sage [2012/12/01(土) 23:01:57.20 ] CPU内蔵のiGPUをPCの表示用に、dGPUをCUDA GPGPU専用にする場合 やdGPUを2つ使って片方をPCの表示用に、もう片方のdGPUをCUDA GPGPU専用にする場合 ってそれらが出来る(出来ない)マザー、CPU・APU、dGPUってある? 出来るのなら、これをPC表示用、これはGPGPU用って設定とかするの する場合どうするんですか?
142 名前:デフォルトの名無しさん mailto:sage [2012/12/01(土) 23:12:12.90 ] >>141 GTX 580/590とASUS Maximus V GeneとCore i7-3770Kの組み合わせなら出来た。 BIOSでどちらを表示用に使うか設定できる。
143 名前:デフォルトの名無しさん mailto:sage [2012/12/01(土) 23:59:21.54 ] >>142 劇速れすありがとう マザーのBIOSに設定があれば、iGPUとdGPUの場合は出来ると 思っていいのかな
144 名前:デフォルトの名無しさん mailto:sage [2012/12/02(日) 00:02:38.36 ] >>143 CUDAのデバイス指定はアプリケーション次第だよ。BIOSは関係ない。 ちゃんとどのデバイスを使うか指定できるようになっていれば問題ないよ。
145 名前:デフォルトの名無しさん mailto:sage [2012/12/02(日) 10:03:50.91 ] >>144 CPU内蔵の(CUDAが使えない)iGPUとグラボ側の(CUDAが使える)dGPUがあったとして、 今dGPUを表示用に使用して、iGUの方は眠らせるようにBIOSが設定されているのなら、 CUDAを使うとひとつのdGPUで表示もCUDAも使うことになると思う。 この場合はBIOSでiGPUを表示用に設定させないとダメなんじゃないか? あと、ついでに俺も聞きたいんだが、そうやってiGPUで表示してdGPUでCUDAする場合、 cudaGLSetGLDevice関数などを使ったCUDAとOpenGLドライバとの相互運用はできるの? (DirectXとの相互運用でもいいけど)
146 名前:デフォルトの名無しさん mailto:sage [2012/12/02(日) 10:25:11.74 ] >>145 だから、BIOSで設定するのは画面の表示だけってことなんだよ。 CUDAでの利用はそれとは全く別に行えるよ。 BIOSでiGPUを表示用に選んでマザボにディスプレイをつないでから、 CUDA対応アプリでdGPUを選べばいいだけの話。 OpenGLは使ったことないけど、CUDAを使った限りでは相互運用は全く問題ない ように見える。
147 名前:デフォルトの名無しさん mailto:sage [2012/12/02(日) 10:35:51.19 ] >>146 すまん、言い方が悪かった。 その「BIOSでiGPUを表示用に選んでマザボにディスプレイをつないでから」が、 CUDAを使ったプログラム側からは操作できないから、 BIOSをいじる必要があるよねという(当たり前と言えば当たり前の)確認だけだったんだ。 > OpenGLは使ったことないけど、CUDAを使った限りでは相互運用は全く問題ない > ように見える。 ん? cudaGLSetGLDevice関数を使った相互運用は、例えばCUDAの結果がVRAMに入ってて、 それを直接OpenGLのテクスチャとして使える(CPUやメインメモリを介さず)、 という事だと俺は認識してるんだが、表示用とCUDA用で分かれててもできるのか? もしかしたら、俺の認識を根底から改めねばならんかも・・・ 誰かこの辺り分かる人いる?
148 名前:デフォルトの名無しさん mailto:sage [2012/12/02(日) 10:45:06.90 ] >>145 グラフィックライブラリと相互運用する場合は 出力用GPUとCUDA用GPUは同じな必要があるんじゃない? 俺はそうしてる. 確かめたことがあるわけじゃないから無責任な言い方になるけど. GTX 580(1)から二画面,GTX 580(2)から一画面のトリプルディスプレイやった時に SDKのスモークパーティクルとか起動しなかった記憶がある.
149 名前:デフォルトの名無しさん mailto:sage [2012/12/02(日) 16:46:04.44 ] 表示用デバイスでなくてもOpenGLは動かせるから、cudaと連携できると思う。
150 名前:デフォルトの名無しさん mailto:sage [2012/12/21(金) 19:28:45.07 ] SDKのマーチングキューブのサンプルで、defines.hの中の #define SAMPLE_VOLUME ってところが 0だとあらかじめ用意された関数が、1(デフォ)だとファイルが読み込まれるんだけど、ここを0にしてもなにも表示されない コードはそこ以外いじってないんだけどほかにも変更しなきゃいけない部分とかあるのかしら
151 名前:デフォルトの名無しさん mailto:sage [2012/12/22(土) 19:54:35.28 ] >>150 ごめん自己解決した VSでコードいじってたんだけど、すべてリビルドしたら表示されるようになった
152 名前:デフォルトの名無しさん mailto:sage [2012/12/26(水) 08:21:21.01 ] Fermiでスレッドブッロクを512以上を指定すると、カーネルが起動しない。 Fermiはブロックごとに1024スレッド対応しているはずなので、 までレジスタが足りないからなのか、 シンプルなカーネルだと1024スレッドまでいける。 動かないならエラーで落ちて欲しいんだが。
153 名前: ◆4hloUmTGPY [2012/12/27(木) 10:24:29.87 ] 質問です CUDA+VisualStudio2012Deskという環境でプログラミングしているのですが、 Intellisenceがうまく動かないんです。 __global__ void kernel(){...} main() {... kernel<<<1,1>>>(); ...} の、<<< >>>だけうまく動かないんですよ。 ビルドは一応できて実行もできるんですが、気持ち悪いので何とかならないでしょうか
154 名前:デフォルトの名無しさん mailto:sage [2012/12/27(木) 11:09:28.44 ] >>153 いんてりせんすがC++以外の表記に対応していないんだろ。 自分でぷらぐいんを書けばなんとかなるんじゃね? 尤も、いんてりせんすに頼るような奴に書けるかどうかは知らんが。
155 名前:デフォルトの名無しさん mailto:sage [2012/12/27(木) 22:41:04.67 ] 2012じゃCUDAの環境がまだまだなんじゃね? 2010だとようやくこなれてきた感じがあるが。
156 名前: ◆4hloUmTGPY [2012/12/28(金) 11:54:50.91 ] >>154 >>155 ありがとうございます 無理そうなので諦めます
157 名前:デフォルトの名無しさん mailto:sage [2012/12/29(土) 11:26:38.86 ] こんな感じのカーネルがあって、 kernelfunc<<<1,16>>() { int ix = threadIdx.x; if(ix < 14) { 何らかの処理 __syncthreads(); } 何らかの処理 } MPIとかSMPなどではこのような処理は帰ってこなくなるけど CUDAのカーネルでは問題なく動く。 __syncthreads()っていうのは、分岐があってもWarp単位では分岐から外れたスレッドは単に何もしないだけで、 __syncthreads()がどっかで呼ばれたらとりあえず足並みを揃えることはする。 という理解でいいのかな?
158 名前:デフォルトの名無しさん mailto:sage [2012/12/29(土) 22:44:34.71 ] 大体そんな感じ。分岐から外れたスレッドが生きているか死んでいるかは兎も角も。
159 名前:デフォルトの名無しさん mailto:sage [2012/12/30(日) 13:32:23.86 ] >>158 ありがとう。
160 名前:デフォルトの名無しさん [2012/12/30(日) 15:06:29.69 ] CC3.5のGeForceまだ?
161 名前:デフォルトの名無しさん mailto:sage [2013/01/03(木) 11:10:10.18 ] K20が売れなくなるから当分無し
162 名前:デフォルトの名無しさん [2013/01/05(土) 10:06:43.42 ] CUDAの性能でいったらGTX580>GTX680なんですか?
163 名前:デフォルトの名無しさん mailto:sage [2013/01/05(土) 15:19:19.49 ] >>162 blog.accelereyes.com/blog/2012/04/26/benchmarking-kepler-gtx-680/ 倍精度を使うならGTX580が圧倒的。 単精度ならモノによるが、基本680は足回りが遅い感じ。
164 名前:デフォルトの名無しさん [2013/01/05(土) 21:13:33.60 ] >>163 ありがとです。
165 名前:デフォルトの名無しさん mailto:sage [2013/01/10(木) 18:01:12.19 ] ブロック数がSM数以上の場合、ブロックでの動作が終了したら次のブロックにいくんですか?
166 名前:デフォルトの名無しさん mailto:sage [2013/01/10(木) 18:27:54.28 ] 次のブロックっつーか、残りのブロックだな。
167 名前:デフォルトの名無しさん mailto:sage [2013/01/14(月) 00:28:51.24 ] CG法をCUDAで実装してMatrixMarketの疎行列を求解しようとしているんですが 連立一次方程式のb要素はどのように設定したらいいのでしょうか? MatrixMarketで与えられているのはAの疎行列だけなのでbをどのように設定したらいいのかわかりません
168 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 16:14:19.91 ] テクスチャメモリって使っててあまり早くならないんだけど,実際の効果ってどれくらいなの?
169 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:10:26.59 ] 質問です。 今までCソースをCUDAに置き換える作業をしていてうまくいっていたのですが、 C++ソースをCUDAに置き換えようとしたときに error C2059: 構文エラー : '<' というエラーが出ます。 Cを変える時と違い、C++では何か特別なことをしないといけないのですか? 考えられる原因などありましたら教えていただきたいのですが... ちなみにVisualStudio2008でCUDA4.2という環境です。
170 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:12:36.87 ] >>169 ソースの該当箇所の引用ぐらいしろよ。
171 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:17:57.52 ] >>169 nvccでコンパイルする対象(*.cu)ではテンプレートは使えなかったと思う。 C++からCのライブラリを呼ぶ要領で分割コンパイルすればホスト側で使う分にはOK。
172 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:30:58.43 ] >>170 申し訳ないです。カーネルの部分で以下のように記述しています。 // execute the kernel kernel <<< block, thread >>> (d_Org, d_Cur, d_SubShift, d_StrideCur, d_StrideOrg, d_Comp, d_Hor, d_Ver, uiSad, iSrchRngHorLeft, iSrchRngHorRight, iSrchRngVerTop, iSrchRngVerBottom, i_StrideOrg, i_Cols, i_Rows, piRefY, iRefStride, d_SAD, m_uiCost, m_iHor, m_iVer );
173 名前:デフォルトの名無しさん mailto:sage [2013/01/19(土) 20:26:41.74 ] >>172 extern Cをしてないだけじゃないのか? それにしても引数多いな。
174 名前:デフォルトの名無しさん mailto:sage [2013/01/19(土) 20:55:07.35 ] 関数のテンプレートは >>171 template <typename Float, bool checkBottom> __device__ void gpu_impl_sub(Float const * __restrict__ f, Float * __restrict__ fn, dim3 const &fDim, 以下略 みたいな感じで使ってるけど問題ないよ。
175 名前:169 mailto:sage [2013/01/20(日) 00:40:40.98 ] .cu単体ではコンパイルできるんですけどビルドしようとするとCUDA特有の記述の部分で エラーを吐きます。 でよく見てみるとその前に nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified みたいなエラー吐いてるんでリンク関連で間違えてるんですかね… ただSDKのソースは動くんでここら辺は間違っていないと思うんですけど…
176 名前:デフォルトの名無しさん [2013/01/20(日) 02:11:59.82 ] >>168 Fermiより前のL2キャッシュが無いようなGPUだと効果あるよ。 あとハードウェア補間を活かせる分野
177 名前:デフォルトの名無しさん mailto:sage [2013/01/20(日) 02:20:35.01 ] >>176 fermiでも場合によっては効果はある。 でも一番いいのは線形補完で使う時だな。
178 名前:デフォルトの名無しさん mailto:sage [2013/01/21(月) 13:30:50.30 ] >>175 リンク前の個々の .cuファイルのコンパイルの時点でのエラーのように見える。 どこかで nvcc -c -o a.o a.cu b.cu みたいな呼び出ししてるんじゃ。
179 名前:デフォルトの名無しさん mailto:sage [2013/01/23(水) 14:40:54.94 ] SMが10個あって処理の数が合計100個ある場合SMはそれぞれ10回動く? それとも重い処理があって時間がかかってるSMがあれば空いてる別のSMが担当する?
180 名前:デフォルトの名無しさん mailto:sage [2013/01/25(金) 23:00:07.64 ] なんとも答えにくい初心者の質問だな
181 名前:デフォルトの名無しさん [2013/01/26(土) 02:29:08.92 ] 質問 TESLA K20買おうと思ってるんだけど、プログラミングとは別にエンコでも使おうかなと思ってる。 やっぱりGTX680とかGTX580と較べて全然性能違う?(体感) 開発にはVS2012Pro持ってるからそれに追加しようと思ってる
182 名前:デフォルトの名無しさん [2013/01/26(土) 02:39:37.68 ] 宝の持ち腐れ臭
183 名前:デフォルトの名無しさん [2013/01/26(土) 02:44:45.43 ] >>182 一部のスーパープログラマー以外皆大なり小なり宝の持ち腐れだろう
184 名前:デフォルトの名無しさん mailto:sage [2013/01/26(土) 04:14:43.40 ] >>180 色々見たけど書いてないから自明なのかな?
185 名前:デフォルトの名無しさん mailto:sage [2013/01/26(土) 09:11:31.41 ] >>181 GTX680でええやん、いくらなんでも値段が凄まじすぎる>K20 それにGPUエンコは品質が……フィルタはともかく、AVCに落とすにはQSV使う方が速いし
186 名前:デフォルトの名無しさん [2013/01/26(土) 12:22:12.43 ] >>185 まーなー、BOINCもやってるからTESLAちゃんにBOINCさせたら どうなるのかなって気持ちもあったりするんだよな
187 名前:デフォルトの名無しさん [2013/01/26(土) 13:45:33.61 ] まぁ一応言っておくと、性能以前に Dynamic Parallelismの対応有無の差が大きい >GTX680とK20
188 名前:デフォルトの名無しさん [2013/01/28(月) 04:32:35.73 ] どうせ数年待てば下位にも降りてくるんだから 待ちなされ
189 名前:デフォルトの名無しさん mailto:sage [2013/01/28(月) 13:15:40.00 ] そして降りてくる時にはさらに凄い何かに目移りする訳ですね
190 名前:デフォルトの名無しさん mailto:sage [2013/01/28(月) 19:07:10.24 ] 質問です。 CUDA4.0に対応したCUDA C Best Practices Guideを探しているのですが、どこかに公開いないでしょうか
191 名前:デフォルトの名無しさん mailto:sage [2013/01/29(火) 00:35:26.56 ] >>190 ググればでてくるだろうに。 ttp://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html
192 名前:190 mailto:sage [2013/02/01(金) 11:59:03.69 ] 所用で確認できず、返信遅れました。すいません >>191 冒頭部分に This Best Practices Guide is a manual to help developers obtain the best performance from the NVIDIA® CUDA™ architecture using version 5.0 of the CUDA Toolkit. とあるので、これはCUDA5.0対応ではないでしょうか。 おそらくCUDA5.0対応のものでも、CUDA4.0の内容は満たすとは思いますが、どこが5.0のものかが判別できないと思うので、できればCUDA4.0対応のものがほしいのですが・・・
193 名前:デフォルトの名無しさん mailto:sage [2013/02/02(土) 10:55:34.50 ] DPでのQソートのソース見ちゃうと 無しでやるのがアホらしく感じてくるな
194 名前:デフォルトの名無しさん [2013/02/07(木) 00:52:32.17 ] CC3.5がコンシューマーに降りてくるかも♪ GK110を搭載するGeForce GTX 780 Titan 2013年2月末? northwood.blog60.fc2.com/blog-entry-6531.html
195 名前:デフォルトの名無しさん [2013/02/11(月) 00:01:58.59 ] winrarをcudaから展開するdllってなんか無いかな? pw付きでもこちらからの操作で出来るやつ
196 名前:デフォルトの名無しさん mailto:sage [2013/02/11(月) 02:10:48.39 ] >>195 GPU使ってパス解読できるソフトなら売られてるが、 CUDA使ってRAR解凍するソフトってあったっけ……