1 名前:デフォルトの名無しさん mailto:sage [2012/09/23(日) 23:17:47.58 ] このスレッドは、他のスレッドでは書き込めない超低レベル、 もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage ttp://developer.nvidia.com/category/zone/cuda-zone 関連スレ GPGPU#5 ttp://hibari.2ch.net/test/read.cgi/tech/1281876470/ 前スレ 【GPGPU】くだすれCUDAスレ【NVIDIA】 ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/ 【GPGPU】くだすれCUDAスレ pert2【NVIDIA】 ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/ 【GPGPU】くだすれCUDAスレ pert3【NVIDIA】 ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/ 【GPGPU】くだすれCUDAスレ pert4【NVIDIA】 ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/ 【GPGPU】くだすれCUDAスレ part5【NVIDIA】 toro.2ch.net/test/read.cgi/tech/1314104886/
151 名前:デフォルトの名無しさん mailto:sage [2012/12/22(土) 19:54:35.28 ] >>150 ごめん自己解決した VSでコードいじってたんだけど、すべてリビルドしたら表示されるようになった
152 名前:デフォルトの名無しさん mailto:sage [2012/12/26(水) 08:21:21.01 ] Fermiでスレッドブッロクを512以上を指定すると、カーネルが起動しない。 Fermiはブロックごとに1024スレッド対応しているはずなので、 までレジスタが足りないからなのか、 シンプルなカーネルだと1024スレッドまでいける。 動かないならエラーで落ちて欲しいんだが。
153 名前: ◆4hloUmTGPY [2012/12/27(木) 10:24:29.87 ] 質問です CUDA+VisualStudio2012Deskという環境でプログラミングしているのですが、 Intellisenceがうまく動かないんです。 __global__ void kernel(){...} main() {... kernel<<<1,1>>>(); ...} の、<<< >>>だけうまく動かないんですよ。 ビルドは一応できて実行もできるんですが、気持ち悪いので何とかならないでしょうか
154 名前:デフォルトの名無しさん mailto:sage [2012/12/27(木) 11:09:28.44 ] >>153 いんてりせんすがC++以外の表記に対応していないんだろ。 自分でぷらぐいんを書けばなんとかなるんじゃね? 尤も、いんてりせんすに頼るような奴に書けるかどうかは知らんが。
155 名前:デフォルトの名無しさん mailto:sage [2012/12/27(木) 22:41:04.67 ] 2012じゃCUDAの環境がまだまだなんじゃね? 2010だとようやくこなれてきた感じがあるが。
156 名前: ◆4hloUmTGPY [2012/12/28(金) 11:54:50.91 ] >>154 >>155 ありがとうございます 無理そうなので諦めます
157 名前:デフォルトの名無しさん mailto:sage [2012/12/29(土) 11:26:38.86 ] こんな感じのカーネルがあって、 kernelfunc<<<1,16>>() { int ix = threadIdx.x; if(ix < 14) { 何らかの処理 __syncthreads(); } 何らかの処理 } MPIとかSMPなどではこのような処理は帰ってこなくなるけど CUDAのカーネルでは問題なく動く。 __syncthreads()っていうのは、分岐があってもWarp単位では分岐から外れたスレッドは単に何もしないだけで、 __syncthreads()がどっかで呼ばれたらとりあえず足並みを揃えることはする。 という理解でいいのかな?
158 名前:デフォルトの名無しさん mailto:sage [2012/12/29(土) 22:44:34.71 ] 大体そんな感じ。分岐から外れたスレッドが生きているか死んでいるかは兎も角も。
159 名前:デフォルトの名無しさん mailto:sage [2012/12/30(日) 13:32:23.86 ] >>158 ありがとう。
160 名前:デフォルトの名無しさん [2012/12/30(日) 15:06:29.69 ] CC3.5のGeForceまだ?
161 名前:デフォルトの名無しさん mailto:sage [2013/01/03(木) 11:10:10.18 ] K20が売れなくなるから当分無し
162 名前:デフォルトの名無しさん [2013/01/05(土) 10:06:43.42 ] CUDAの性能でいったらGTX580>GTX680なんですか?
163 名前:デフォルトの名無しさん mailto:sage [2013/01/05(土) 15:19:19.49 ] >>162 blog.accelereyes.com/blog/2012/04/26/benchmarking-kepler-gtx-680/ 倍精度を使うならGTX580が圧倒的。 単精度ならモノによるが、基本680は足回りが遅い感じ。
164 名前:デフォルトの名無しさん [2013/01/05(土) 21:13:33.60 ] >>163 ありがとです。
165 名前:デフォルトの名無しさん mailto:sage [2013/01/10(木) 18:01:12.19 ] ブロック数がSM数以上の場合、ブロックでの動作が終了したら次のブロックにいくんですか?
166 名前:デフォルトの名無しさん mailto:sage [2013/01/10(木) 18:27:54.28 ] 次のブロックっつーか、残りのブロックだな。
167 名前:デフォルトの名無しさん mailto:sage [2013/01/14(月) 00:28:51.24 ] CG法をCUDAで実装してMatrixMarketの疎行列を求解しようとしているんですが 連立一次方程式のb要素はどのように設定したらいいのでしょうか? MatrixMarketで与えられているのはAの疎行列だけなのでbをどのように設定したらいいのかわかりません
168 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 16:14:19.91 ] テクスチャメモリって使っててあまり早くならないんだけど,実際の効果ってどれくらいなの?
169 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:10:26.59 ] 質問です。 今までCソースをCUDAに置き換える作業をしていてうまくいっていたのですが、 C++ソースをCUDAに置き換えようとしたときに error C2059: 構文エラー : '<' というエラーが出ます。 Cを変える時と違い、C++では何か特別なことをしないといけないのですか? 考えられる原因などありましたら教えていただきたいのですが... ちなみにVisualStudio2008でCUDA4.2という環境です。
170 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:12:36.87 ] >>169 ソースの該当箇所の引用ぐらいしろよ。
171 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:17:57.52 ] >>169 nvccでコンパイルする対象(*.cu)ではテンプレートは使えなかったと思う。 C++からCのライブラリを呼ぶ要領で分割コンパイルすればホスト側で使う分にはOK。
172 名前:デフォルトの名無しさん mailto:sage [2013/01/18(金) 18:30:58.43 ] >>170 申し訳ないです。カーネルの部分で以下のように記述しています。 // execute the kernel kernel <<< block, thread >>> (d_Org, d_Cur, d_SubShift, d_StrideCur, d_StrideOrg, d_Comp, d_Hor, d_Ver, uiSad, iSrchRngHorLeft, iSrchRngHorRight, iSrchRngVerTop, iSrchRngVerBottom, i_StrideOrg, i_Cols, i_Rows, piRefY, iRefStride, d_SAD, m_uiCost, m_iHor, m_iVer );
173 名前:デフォルトの名無しさん mailto:sage [2013/01/19(土) 20:26:41.74 ] >>172 extern Cをしてないだけじゃないのか? それにしても引数多いな。
174 名前:デフォルトの名無しさん mailto:sage [2013/01/19(土) 20:55:07.35 ] 関数のテンプレートは >>171 template <typename Float, bool checkBottom> __device__ void gpu_impl_sub(Float const * __restrict__ f, Float * __restrict__ fn, dim3 const &fDim, 以下略 みたいな感じで使ってるけど問題ないよ。
175 名前:169 mailto:sage [2013/01/20(日) 00:40:40.98 ] .cu単体ではコンパイルできるんですけどビルドしようとするとCUDA特有の記述の部分で エラーを吐きます。 でよく見てみるとその前に nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified みたいなエラー吐いてるんでリンク関連で間違えてるんですかね… ただSDKのソースは動くんでここら辺は間違っていないと思うんですけど…
176 名前:デフォルトの名無しさん [2013/01/20(日) 02:11:59.82 ] >>168 Fermiより前のL2キャッシュが無いようなGPUだと効果あるよ。 あとハードウェア補間を活かせる分野
177 名前:デフォルトの名無しさん mailto:sage [2013/01/20(日) 02:20:35.01 ] >>176 fermiでも場合によっては効果はある。 でも一番いいのは線形補完で使う時だな。
178 名前:デフォルトの名無しさん mailto:sage [2013/01/21(月) 13:30:50.30 ] >>175 リンク前の個々の .cuファイルのコンパイルの時点でのエラーのように見える。 どこかで nvcc -c -o a.o a.cu b.cu みたいな呼び出ししてるんじゃ。
179 名前:デフォルトの名無しさん mailto:sage [2013/01/23(水) 14:40:54.94 ] SMが10個あって処理の数が合計100個ある場合SMはそれぞれ10回動く? それとも重い処理があって時間がかかってるSMがあれば空いてる別のSMが担当する?
180 名前:デフォルトの名無しさん mailto:sage [2013/01/25(金) 23:00:07.64 ] なんとも答えにくい初心者の質問だな
181 名前:デフォルトの名無しさん [2013/01/26(土) 02:29:08.92 ] 質問 TESLA K20買おうと思ってるんだけど、プログラミングとは別にエンコでも使おうかなと思ってる。 やっぱりGTX680とかGTX580と較べて全然性能違う?(体感) 開発にはVS2012Pro持ってるからそれに追加しようと思ってる
182 名前:デフォルトの名無しさん [2013/01/26(土) 02:39:37.68 ] 宝の持ち腐れ臭
183 名前:デフォルトの名無しさん [2013/01/26(土) 02:44:45.43 ] >>182 一部のスーパープログラマー以外皆大なり小なり宝の持ち腐れだろう
184 名前:デフォルトの名無しさん mailto:sage [2013/01/26(土) 04:14:43.40 ] >>180 色々見たけど書いてないから自明なのかな?
185 名前:デフォルトの名無しさん mailto:sage [2013/01/26(土) 09:11:31.41 ] >>181 GTX680でええやん、いくらなんでも値段が凄まじすぎる>K20 それにGPUエンコは品質が……フィルタはともかく、AVCに落とすにはQSV使う方が速いし
186 名前:デフォルトの名無しさん [2013/01/26(土) 12:22:12.43 ] >>185 まーなー、BOINCもやってるからTESLAちゃんにBOINCさせたら どうなるのかなって気持ちもあったりするんだよな
187 名前:デフォルトの名無しさん [2013/01/26(土) 13:45:33.61 ] まぁ一応言っておくと、性能以前に Dynamic Parallelismの対応有無の差が大きい >GTX680とK20
188 名前:デフォルトの名無しさん [2013/01/28(月) 04:32:35.73 ] どうせ数年待てば下位にも降りてくるんだから 待ちなされ
189 名前:デフォルトの名無しさん mailto:sage [2013/01/28(月) 13:15:40.00 ] そして降りてくる時にはさらに凄い何かに目移りする訳ですね
190 名前:デフォルトの名無しさん mailto:sage [2013/01/28(月) 19:07:10.24 ] 質問です。 CUDA4.0に対応したCUDA C Best Practices Guideを探しているのですが、どこかに公開いないでしょうか
191 名前:デフォルトの名無しさん mailto:sage [2013/01/29(火) 00:35:26.56 ] >>190 ググればでてくるだろうに。 ttp://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html
192 名前:190 mailto:sage [2013/02/01(金) 11:59:03.69 ] 所用で確認できず、返信遅れました。すいません >>191 冒頭部分に This Best Practices Guide is a manual to help developers obtain the best performance from the NVIDIA® CUDA™ architecture using version 5.0 of the CUDA Toolkit. とあるので、これはCUDA5.0対応ではないでしょうか。 おそらくCUDA5.0対応のものでも、CUDA4.0の内容は満たすとは思いますが、どこが5.0のものかが判別できないと思うので、できればCUDA4.0対応のものがほしいのですが・・・
193 名前:デフォルトの名無しさん mailto:sage [2013/02/02(土) 10:55:34.50 ] DPでのQソートのソース見ちゃうと 無しでやるのがアホらしく感じてくるな
194 名前:デフォルトの名無しさん [2013/02/07(木) 00:52:32.17 ] CC3.5がコンシューマーに降りてくるかも♪ GK110を搭載するGeForce GTX 780 Titan 2013年2月末? northwood.blog60.fc2.com/blog-entry-6531.html
195 名前:デフォルトの名無しさん [2013/02/11(月) 00:01:58.59 ] winrarをcudaから展開するdllってなんか無いかな? pw付きでもこちらからの操作で出来るやつ
196 名前:デフォルトの名無しさん mailto:sage [2013/02/11(月) 02:10:48.39 ] >>195 GPU使ってパス解読できるソフトなら売られてるが、 CUDA使ってRAR解凍するソフトってあったっけ……
197 名前:デフォルトの名無しさん mailto:sage [2013/02/11(月) 07:57:27.35 ] それってそんなに意味あるの?
198 名前:デフォルトの名無しさん mailto:sage [2013/02/11(月) 12:16:16.19 ] >>196 パスワード解析なんかはGPUに向いてないんじゃないか?
199 名前:デフォルトの名無しさん mailto:sage [2013/02/11(月) 16:18:44.80 ] >>198 zip用→www.internal.co.jp/products/util/passgetter/about/ RAR用→www.golubev.com/rargpu.htm それなりに速度は出るっぽい
200 名前:デフォルトの名無しさん mailto:sage [2013/02/12(火) 11:46:35.13 ] >>198 ブルートフォースはGPUの独壇場じゃない? FPGAの専用プロセッサを除いて。
201 名前:デフォルトの名無しさん mailto:sage [2013/02/12(火) 12:50:32.08 ] ブルートフォース プルートフォース
202 名前:デフォルトの名無しさん mailto:sage [2013/02/12(火) 22:26:05.34 ] >>200 >>198 は、GPUは整数演算がそれ程得意では無い事を言いたいのでは?
203 名前:デフォルトの名無しさん mailto:sage [2013/02/12(火) 22:26:14.43 ] VirtexクラスのFPGAでチューニングして200MHzくらいで動かしたらハイエンドGPUより速い?
204 名前:デフォルトの名無しさん mailto:sage [2013/02/13(水) 00:38:36.16 ] >>202 http.developer.nvidia.com/GPUGems3/gpugems3_ch36.html ごめん、くっそ遅かった >>203 20KLUTsで20GBpsでる
205 名前:デフォルトの名無しさん mailto:sage [2013/02/14(木) 00:30:55.49 ] GeForce 8800の整数は遅いけど、Fermiはそれほど遅くない
206 名前:デフォルトの名無しさん mailto:sage [2013/02/14(木) 02:55:25.27 ] GeForceGTX Titanでは倍精度演算性能が削られている。単精度演算性能は4.70TFlops、倍精度演算性能はこれまでの“Kepler”と同様に単精度の1/24となり、196GFlopsにとどまる。 Pixel Fillrateは49GPixel/s、Texture Fillrateは196GTexel/sである。メモリ帯域は384-bitインターフェースもあいまって288.4GB/sに達する。 northwood.blog60.fc2.com/blog-entry-6558.html GTX580 197.6GFLOPS GTX590 311GFLOPS あれ?
207 名前:デフォルトの名無しさん [2013/02/14(木) 03:13:03.14 ] Fermiは大サービスだったんだよ。 もう倍精度欲しいならTesla買うしか無い。 K20でも30万くらいだろ? 自分は単精度しか使わないからTitan買うけど。
208 名前:デフォルトの名無しさん mailto:sage [2013/02/14(木) 03:30:00.81 ] 本当Fermiは大サービスだったよなぁ。整数やビット演算もまともだったし。 CUDA的にkepler refreshは大きく期待できることもないのでmaxwellが頼りなのだが
209 名前:デフォルトの名無しさん [2013/02/14(木) 12:17:13.77 ] >CUDA的にkepler refreshは大きく期待できることもない いやいやDPがあるだろ
210 名前:デフォルトの名無しさん mailto:sage [2013/02/14(木) 17:07:23.36 ] Xeon Phiの発売で貧乏人以外には完全にオワコンでしょ
211 名前:デフォルトの名無しさん mailto:sage [2013/02/14(木) 18:52:59.63 ] GPGPUはAMDですよ
212 名前:デフォルトの名無しさん mailto:sage [2013/02/14(木) 22:50:06.45 ] >>209 Dynamic Parallelism(綴り覚えた)ってそんなに大きいの? なんていうか使えるハードウェア資源が増えるわけじゃないし…って思って。 一方でXeon Phiがそれほど脅威って感じもしないんだよなぁ。 1. プログラムが組みやすい 2. 実効性能を引き出しやすい あれを使ったプログラムの組み方を知らないので当てずっぽうなんだけど、 1.は大差ないんじゃないかなって。並列処理の組み方がそんなに素晴らしく変わることは想像できない。 2.でCUDAにコストや電力で勝利なんてことにでもならない限りは棲み分けるかと。 まあ貧乏なんでそうあってほしいっていう願望も入ってるんだけど。
213 名前:デフォルトの名無しさん mailto:sage [2013/02/15(金) 00:32:37.20 ] インテル? Xeon Phi 5110PとNVIDIA Tesla K20の行列積における実効性能比較 www.hpc.co.jp/benchmark20130201.html 単精度計算ならK20、倍精度計算ならXeon Phi 5110P という結論らしい
214 名前:デフォルトの名無しさん mailto:sage [2013/02/15(金) 01:40:16.84 ] >>212 OpenMPだからPC用のプログラムがそのままで動くよ
215 名前:デフォルトの名無しさん mailto:sage [2013/02/15(金) 08:15:58.27 ] devgurus.amd.com/thread/159457 7970はDGEMM 665GFLOPSらしい。
216 名前:デフォルトの名無しさん [2013/02/15(金) 08:55:15.74 ] >>214 動くけど、専用ベクトル命令使わないと速度でないよね?
217 名前:デフォルトの名無しさん mailto:sage [2013/02/15(金) 18:51:43.68 ] >>213 このK20Mと5110Pっておいくら万円するんだろう。
218 名前:デフォルトの名無しさん mailto:sage [2013/02/15(金) 22:17:58.89 ] プログラムが簡単に書けることと、速度が出し切れることは大抵両立できない
219 名前:デフォルトの名無しさん mailto:sage [2013/02/16(土) 00:03:14.05 ] >>216 インテルコンパイラを使えばいい。 それに、インテルにはMKLがあるから、 線形問題であれば、既存のコードにディレクティブを挿入するだけで速くなる。 >>217 どちらも30万くらいだろ。
220 名前:デフォルトの名無しさん mailto:sage [2013/02/17(日) 11:06:58.52 ] Tesla買うならXeon Phiになるだろうが GTXなんとかでもCUDAは使えるからな
221 名前:デフォルトの名無しさん [2013/02/17(日) 18:30:01.37 ] ◇GeForce GTX Titan 演算性能 SP:4.5TFlops DP:1.3TFlops 単精度浮動小数点演算性能が4.5TFlops、倍精度浮動小数点演算性能が 1.3TFlopsと伝えられており、倍精度浮動小数点演算性能は 単精度浮動小数点演算性能の2/7程度となっています。 2月13日の情報では倍精度は単精度の1/32に制限されるという話も 出ていましたが、今回のスペックの通りならばGK110の 倍精度浮動小数点演算性能に制限がかかっている様子はなさそうです。 northwood.blog60.fc2.com/blog-entry-6565.html
222 名前:デフォルトの名無しさん mailto:sage [2013/02/18(月) 00:12:16.06 ] >>221 そんなうまい話は無いと思うけどね
223 名前:デフォルトの名無しさん mailto:sage [2013/02/18(月) 20:17:49.22 ] Titanたっけー。 誰か研究室とかで買って報告よろ。
224 名前:デフォルトの名無しさん mailto:sage [2013/02/19(火) 00:57:26.08 ] 初日か初週でゲーマーが争奪戦して在庫切れで終わりだろ 悠長に評価して予算付けてって頃にはもう終わってる
225 名前:デフォルトの名無しさん [2013/02/19(火) 01:11:14.40 ] 年度末で10万くらい予算余ってるから何か買っていいよ。 ってのが、今年は来ない。
226 名前:デフォルトの名無しさん mailto:sage [2013/02/19(火) 04:58:05.78 ] >>225 10万で買えるの?
227 名前:デフォルトの名無しさん mailto:sage [2013/02/20(水) 00:31:37.18 ] >>260 118000円で予約したからさすがに10万ジャストは無理
228 名前:デフォルトの名無しさん mailto:sage [2013/02/21(木) 19:46:59.76 ] K20の約半額か
229 名前:デフォルトの名無しさん mailto:sage [2013/02/21(木) 19:59:41.22 ] >>228 安いと言えば安いが、個人で遊ぶのはきつい価格だった。
230 名前:デフォルトの名無しさん mailto:sage [2013/02/21(木) 20:25:32.67 ] >>229 でも580や480と違って倍精度もtesla相当に設定できるようだし、 ECCと演算保証がないことに目をつぶればお得といえばお得じゃない? 後々の中古売却を考えるなら値崩れはTeslaのほうが少ないだろうけど。
231 名前:デフォルトの名無しさん mailto:sage [2013/02/23(土) 01:24:32.93 ] 「法人さんはTeslaを買ってくださいよ」(2/21) www.gdm.or.jp/voices/2013/0222/21236 「GeForce GTX TITAN」を「Tesla K20X」の代替え品として考えている 法人ユーザーも多いようで、早くも在庫の問い合わせが数件あるという。 お前らか…
232 名前:デフォルトの名無しさん mailto:sage [2013/02/23(土) 07:48:27.16 ] まー自分の金じゃないしとりあえず問い合わせぐらいはするでしょ
233 名前:デフォルトの名無しさん mailto:sage [2013/02/23(土) 22:46:08.24 ] 実際の性能向上率をみたり、書き換えが必要な場合それの専攻開発用とかに買うんだろ。 普通本番機ではサーバーと一緒にTESLA導入するよ。
234 名前:デフォルトの名無しさん mailto:sage [2013/02/24(日) 01:05:09.57 ] しかしTITANはDynamic Parallelismが無いのが不便だね 枝分かれが動的に決まる深さ優先探索を分散処理させたいのだけど
235 名前:デフォルトの名無しさん mailto:sage [2013/02/24(日) 01:08:24.14 ] ちょw Dynamic Parallelismないって致命的じゃんw
236 名前:デフォルトの名無しさん [2013/02/24(日) 01:15:58.14 ] オワタ しかし、GTX TitanではKepler GPUの新機能である Dynamic ParallelismとHyper-Qという機能が省かれている。 カ○タムBIOSでTesla化出来ないかな?
237 名前:デフォルトの名無しさん mailto:sage [2013/02/24(日) 12:09:11.09 ] Dynamic ParallelismつけたらTesla売れなくなるだろww
238 名前:デフォルトの名無しさん [2013/02/24(日) 14:45:08.55 ] 最も格安なCUDAできるノートPCはどれ?
239 名前:デフォルトの名無しさん [2013/02/24(日) 14:45:50.04 ] 倍精度付けてくれたから、Dynamic Parallelismもてっきり対応してるものかと。。 CUDAのページにはGTX TITAN CC 3.5って書いてるしね。 それに以前、nVIDIAはパフォーマンスは別としても、 同じプログラムが動くことが重要だと訴えてたはずだ。 納得できん。
240 名前:デフォルトの名無しさん mailto:sage [2013/02/24(日) 14:50:45.05 ] 最近はグラ用とコンピュート用で分化させる方針みたいだよ。 残念ながらね・・・。
241 名前:デフォルトの名無しさん [2013/02/25(月) 00:41:40.15 ] Hyper-Q Dynamic palallerlismはついているようだが? pc.watch.impress.co.jp/docs/news/20130219_588387.html
242 名前:デフォルトの名無しさん [2013/02/25(月) 01:03:16.82 ] >>241 >なお、既報の通り、HPC向けにGK110では「Hyper-Q」および「Dynamic Parallelism」という機能も追加されている。 news.mynavi.jp/articles/2013/02/20/geforce_gtx_titan/index.html >しかし、GTX TitanではKepler GPUの新機能であるDynamic ParallelismとHyper-Qという機能が省かれている。
243 名前:デフォルトの名無しさん mailto:sage [2013/02/25(月) 23:22:58.37 ] >>240 Fermiで懲りたんだろな VGAにGPGPUで使う機能をてんこ盛りして爆熱にしてもしょうがないし 高く売れるGPGPU機を安く売っているVGAで代替できるじゃ金儲けできないし
244 名前:デフォルトの名無しさん mailto:sage [2013/02/26(火) 04:32:52.99 ] TitanはXeon Phiが出てなかったら出なかったかもな
245 名前:デフォルトの名無しさん mailto:sage [2013/02/26(火) 09:55:19.15 ] Fremiで動いていたコードでKeplerで動かすとカーネルが起動しないらしくて、 計算できないんだが、Keplerだとなにか気をつけることってあるのかな
246 名前:デフォルトの名無しさん [2013/02/26(火) 11:17:27.91 ] Fermiで動いてたのはたまたまであって、 注意深く解析すると、そのコードはスレッドの起動順序などによって アクセス違反を起こす、とかね。
247 名前:デフォルトの名無しさん [2013/02/26(火) 11:32:45.34 ] もしかしてスレタイって下らないのクダとCUDAを掛けてるの?
248 名前:デフォルトの名無しさん mailto:sage [2013/02/26(火) 11:49:25.57 ] Xeon Phiって結局まだ個人では単品で入手できないね
249 名前:デフォルトの名無しさん [2013/02/26(火) 13:09:38.68 ] >>247 すげーーーーーーーーーーーーーーーー 良く気付いたな
250 名前:デフォルトの名無しさん mailto:sage [2013/02/26(火) 21:09:38.74 ] CUDAはCUDAらない。
251 名前:デフォルトの名無しさん mailto:sage [2013/02/27(水) 01:58:36.28 ] 今夜は良く冷えますね