1 名前:デフォルトの名無しさん mailto:sage [2012/09/23(日) 23:17:47.58 ] このスレッドは、他のスレッドでは書き込めない超低レベル、 もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage ttp://developer.nvidia.com/category/zone/cuda-zone 関連スレ GPGPU#5 ttp://hibari.2ch.net/test/read.cgi/tech/1281876470/ 前スレ 【GPGPU】くだすれCUDAスレ【NVIDIA】 ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/ 【GPGPU】くだすれCUDAスレ pert2【NVIDIA】 ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/ 【GPGPU】くだすれCUDAスレ pert3【NVIDIA】 ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/ 【GPGPU】くだすれCUDAスレ pert4【NVIDIA】 ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/ 【GPGPU】くだすれCUDAスレ part5【NVIDIA】 toro.2ch.net/test/read.cgi/tech/1314104886/
355 名前:デフォルトの名無しさん mailto:sage [2013/05/30(木) 23:33:46.73 ] またどっかの抵抗取り替えたりするとTITAN化するような仕掛けが潜んでたりして
356 名前:デフォルトの名無しさん mailto:sage [2013/05/31(金) 00:42:40.83 ] TITANをK20xにしたいんだけど
357 名前:デフォルトの名無しさん mailto:sage [2013/06/01(土) 17:17:27.06 ] TITANにECCつけたもの(SMXを一つくらい品質保証のため削るかもしれないが)をK20の後継として出るんじゃないかな? 今年のSCあたりで発表されそうだ
358 名前:デフォルトの名無しさん mailto:sage [2013/06/01(土) 18:12:25.50 ] ゲフォがFermiが倍精度1/4でKepler1/8で結局性能悪化って酷くない? ラデへの乗り換えを検討したほうがいいかな?
359 名前:デフォルトの名無しさん mailto:sage [2013/06/01(土) 18:38:27.12 ] CUDA使ったフリーウェアを作ってるのに、 げふぉに将来性がなくなったら詰む。
360 名前:デフォルトの名無しさん mailto:sage [2013/06/01(土) 19:05:28.96 ] >>359 CUDA で計算している部分だけ OpenCL に変えれば済む話では? どうせモジュール化してるんでしょ
361 名前:359 mailto:sage [2013/06/01(土) 19:33:33.76 ] >>360 そうかも。 OpenCLってデバイスごとにコンパイルが必要なんでしたっけ? 実行時コンパイルとかよくわからんです。 理想的にはバイナリを一個作っとけばどこでも使えるといいのですけれど。 入門書読めばその辺の話は載ってますか? スレ違いスマソ。
362 名前:デフォルトの名無しさん mailto:sage [2013/06/01(土) 21:06:59.29 ] >>361 その辺の話は全て入門書、あるいは入門ページに載っている
363 名前:359 mailto:sage [2013/06/01(土) 22:07:59.04 ] >>362 さんクス
364 名前:デフォルトの名無しさん mailto:sage [2013/06/02(日) 23:02:35.27 ] >>360 カーネルだけなら簡単だけど、メモリ周りとか考えると簡単にはいかないよ。
365 名前:デフォルトの名無しさん mailto:sage [2013/06/03(月) 01:40:28.77 ] >>364 CUDAで書く時はグローバルメモリへのコアレスアクセスとか シェアードメモリ使ってチューニングしてるけど、 OpenCLはそのへん配慮できるのかな。
366 名前:デフォルトの名無しさん mailto:sage [2013/06/03(月) 04:03:55.61 ] >>365 普通にできるよ。
367 名前:デフォルトの名無しさん mailto:sage [2013/06/03(月) 07:03:45.92 ] >>364 それは「げふぉに将来性がなくなったら詰む」ほどの事か?
368 名前:デフォルトの名無しさん mailto:sage [2013/06/03(月) 20:38:07.29 ] 結局、アーキテクチャ毎に最適なコードを書かなければならない。 そのように書かず、可搬性を意識しすぎるとGPU(などの並列プロセッサ)を使う旨みがない。 なんというジレンマ。
369 名前:デフォルトの名無しさん mailto:sage [2013/06/03(月) 21:37:12.36 ] つまり、コンパイラがまだまだ馬鹿ということか
370 名前:デフォルトの名無しさん mailto:sage [2013/06/05(水) 06:41:20.54 ] teslak20って一番安い所ではいくらで買えるんだろ? ヤフオクで三年間分有効の保証が残ってる奴が30万なんだが安いのかな?
371 名前:デフォルトの名無しさん mailto:sage [2013/06/05(水) 08:49:33.35 ] news.nvidia.com/t/213824/48003696/16930/10/ nvからkayla(armようcuda開発機)のおすすめメールが来た tegra3とGPU別w
372 名前:デフォルトの名無しさん [2013/06/07(金) 08:47:44.96 ] >>370 titanでいいやん。 ヤフオクで買う程度なら個人利用なんだろ? 会えてteslaを買う理由がないわ。
373 名前:デフォルトの名無しさん mailto:sage [2013/06/07(金) 09:27:17.14 ] マルチGPUするなら、GPUDirectの有無は大きいよ>TeslaとTitan
374 名前:デフォルトの名無しさん [2013/06/08(土) 09:03:33.73 ] titanでもGPUDirectはついてるよ。ないのはRDMAの機能の方だ。
375 名前:デフォルトの名無しさん mailto:sage [2013/06/10(月) 13:22:19.65 ] CUDA5.5はどうですか
376 名前:デフォルトの名無しさん mailto:sage [2013/06/10(月) 14:29:57.78 ] いいえ、どうではありません。
377 名前:デフォルトの名無しさん mailto:sage [2013/06/11(火) 09:31:22.59 ] MPIプログラムのプロファイルを取れるようになったのはでかいな。 https://developer.nvidia.com/cuda-toolkit
378 名前:デフォルトの名無しさん [2013/06/15(土) 23:05:03.06 ] cuda-gdbのステップ実行で、 コンソールが返ってこなくなる事がありますが、 原因を確認する方法はありますか? (普通のgdbも使った経験が無いのですが。。。)
379 名前:デフォルトの名無しさん mailto:sage [2013/06/17(月) 15:41:11.18 ] 海外amazonでGK208なGT640かったら やっぱSM35だった
380 名前:デフォルトの名無しさん mailto:sage [2013/06/18(火) 05:37:29.42 ] TOP500でxeon-phiがトップなたぞ
381 名前:デフォルトの名無しさん mailto:sage [2013/06/18(火) 12:06:25.31 ] 正直微妙だ Efficiency (%) Mflops/Watt Tianhe-2 61.68 1901.54 Titan 64.88 2142.77
382 名前:デフォルトの名無しさん mailto:sage [2013/06/18(火) 12:15:47.25 ] Starting LU Decomposition (CUDA Dynamic Parallelism) GPU Device 0: "GeForce GT 640" with compute capability 3.5 GPU device GeForce GT 640 has compute capabilities (SM 3.5) Compute LU decomposition of a random 1024x1024 matrix using CUDA Dynamic Parallelism Launching single task from device... GPU perf(dgetrf)= 3.358 Gflops Checking results... done Tests suceeded ------------------------------------------------------------------------------ starting hyperQ... GPU Device 0: "GeForce GT 640" with compute capability 3.5 > Detected Compute SM 3.5 hardware with 2 multi-processors Expected time for serial execution of 32 sets of kernels is between approx. 0.330s and 0.640s Expected time for fully concurrent execution of 32 sets of kernels is approx. 0.020s Measured time for sample = 0.050s
383 名前:デフォルトの名無しさん mailto:sage [2013/06/19(水) 09:00:43.77 ] >Detected Compute SM 3.5 hardware with 2 multi-processors SMX2器ってこと?
384 名前:デフォルトの名無しさん mailto:sage [2013/06/19(水) 13:12:02.16 ] そう deviceQueryDrv.exe Starting... CUDA Device Query (Driver API) statically linked version Detected 1 CUDA Capable device(s) Device 0: "GeForce GT 640" CUDA Driver Version: 5.5 CUDA Capability Major/Minor version number: 3.5 Total amount of global memory: 1024 MBytes (1073414144 bytes) ( 2) Multiprocessors x (192) CUDA Cores/MP: 384 CUDA Cores GPU Clock rate: 1046 MHz (1.05 GHz) Memory Clock rate: 2505 Mhz Memory Bus Width: 64-bit L2 Cache Size: 524288 bytes
385 名前:デフォルトの名無しさん mailto:sage [2013/06/19(水) 22:01:10.70 ] Dynamic Parallelismも使えるの?
386 名前:デフォルトの名無しさん mailto:sage [2013/06/19(水) 22:38:31.81 ] バス幅とL2キャッシュ典
387 名前:デフォルトの名無しさん mailto:sage [2013/06/20(木) 10:08:10.18 ] >385 hyperQとDynamic Parallelismは使えるようだね>382
388 名前:デフォルトの名無しさん mailto:sage [2013/06/20(木) 11:17:52.11 ] GK110でL2が1536KBだから512KBって結構でかいな
389 名前:デフォルトの名無しさん mailto:sage [2013/06/22(土) 09:56:35.61 ] GK208きた
390 名前:デフォルトの名無しさん mailto:sage [2013/06/24(月) 14:06:27.76 ] cudaGetDevicePropertiesで maxThreadsPerBlockが1024とでたので、 kernel<<<32, 1024>>>() とやったらKeplerはおKでFermiではだめだった。 基本的にはKeplerでも1ブロックあたり512スレッドが上限だったっけ?
391 名前:デフォルトの名無しさん [2013/06/30(日) 20:50:09.84 ] 使えるようにするまで2時間かかった
392 名前:デフォルトの名無しさん mailto:sage [2013/06/30(日) 20:58:07.76 ] CUDAは導入がメンドイね。 HSAはよ。
393 名前:デフォルトの名無しさん mailto:sage [2013/07/01(月) NY:AN:NY.AN ] >>392 Linuxだとホントしんどいよね。 何が悲しゅうてドライバインストールのために カーネルを再コンパイルせにゃならんのか。
394 名前:デフォルトの名無しさん mailto:sage [2013/07/01(月) NY:AN:NY.AN ] Linuxでの導入はなおさら OpenCL の方が楽だ プログラムはめんどいが
395 名前:やんやん ◆yanyan72E. mailto:sage [2013/07/01(月) NY:AN:NY.AN ] Linuxのカーネルのコンパイルといってもモジュールを コンパイルするだけなのだけれど、それってそんなに面倒? リブートも必要ないし。
396 名前:デフォルトの名無しさん mailto:sage [2013/07/02(火) NY:AN:NY.AN ] GUIを使わないモードでリブートして、 カーネルコンパイルして、 もう一回リブートしないとならないと思ったけど。
397 名前:やんやん ◆yanyan5.Xudd mailto:sage [2013/07/02(火) NY:AN:NY.AN ] GUIのサービス止めてモジュールをrmmodして nVidiaが提供するスクリプトを 使ってモジュールだけをコンパイルして insmodしてからGUIのサービス再開するだけだよ。
398 名前:デフォルトの名無しさん mailto:sage [2013/07/02(火) NY:AN:NY.AN ] Bumblebee はどうなの? 普段は CPU 内蔵のグラフィック機能を使って、 CUDA やる時、正確に言えば CUDA の結果を OpenGL でレンダリングするアプリの場合だけ Bumblebee で nVIDIA カードの方を使うってできるの? もしできるのなら Linux に乗り換えてみようかな。 他のことで Windows がちょっと使いづらくなってて、 でも踏ん切りつかなくて迷ってる。
399 名前:デフォルトの名無しさん mailto:sage [2013/07/03(水) NY:AN:NY.AN ] >>395 適切なOSとGCCのバージョンをそろえるのが面倒。 ちょっとでもNVIDIA推奨環境と違うと Getting Startedだけ読んででインストールするのは絶対無理 だと思う。
400 名前:デフォルトの名無しさん mailto:sage [2013/07/03(水) NY:AN:NY.AN ] >>399 別に面倒でも何でもない。 CUDAならメジャーなディストリならほぼ動く。 面倒なのは単にLinuxの知識がないだけ。 例外は組み込み系で使う場合。 そもそもCUDAの開発やるのに、 sudo bash NVIDIA-Linux-x86_64-xxx.xx.run できない奴なんていないだろ。
401 名前:デフォルトの名無しさん mailto:sage [2013/07/04(木) NY:AN:NY.AN ] >>400 その後 nouveau が邪魔だって言われて 「cuda nouveau install」でググるんですよね
402 名前:デフォルトの名無しさん mailto:sage [2013/07/04(木) NY:AN:NY.AN ] 多倍長整数の計算におすすめのライブラリとかある?
403 名前:デフォルトの名無しさん mailto:sage [2013/07/04(木) NY:AN:NY.AN ] >>400 X79の最新のチップセット使うとUbuntu 12以上じゃないと 動かなくてですね、そいつのデフォのバージョンのgccだと CUDAが対応しないんですわ。
404 名前:デフォルトの名無しさん mailto:sage [2013/07/06(土) NY:AN:NY.AN ] >>403 単にnvccのベースがgcc4.4までだからだろ。 Ubuntuならソフトウェアセンターでインストールしてalternativeで切り替えればいいだけ。 これはCUDAに限らず、インテルコンパイラでも必要。
405 名前:デフォルトの名無しさん mailto:sage [2013/07/06(土) NY:AN:NY.AN ] >>404 はいはい情弱ですみませんねえ。 みんながみんなGetting Startedだけ読んでインストールできたら 「Ubuntu 12.**でCUDA 5.0入れてみた」系のブログを書く人も読む人いないですよ。 ふーんだ。
406 名前:デフォルトの名無しさん mailto:sage [2013/07/06(土) NY:AN:NY.AN ] CUDA 5.0がだめなら、5.5 RCを試せばいいじゃない。
407 名前:デフォルトの名無しさん [2013/07/07(日) NY:AN:NY.AN ] cuda5.0のgccは4.6だろ? それよりnVidiaはFedora16のサポートが切れてることについてどう思ってるんだろう。
408 名前:デフォルトの名無しさん mailto:sage [2013/07/07(日) NY:AN:NY.AN ] Ubuntuにせよ、FedoraにせよNVIDIAは最近Linuxに対してあんまりやる気ないな。 リーナスに中指立てられて批判されたからかな?
409 名前:デフォルトの名無しさん mailto:sage [2013/07/08(月) NY:AN:NY.AN ] windowsが最高の開発環境だし
410 名前:デフォルトの名無しさん mailto:sage [2013/07/13(土) NY:AN:NY.AN ] GPGPUはAMDになってしまったから、Nvはやる気でないだろ
411 名前:デフォルトの名無しさん mailto:sage [2013/07/14(日) NY:AN:NY.AN ] はい?
412 名前:デフォルトの名無しさん mailto:sage [2013/07/15(月) NY:AN:NY.AN ] 適切なスレが分からなかったので、ここで質問します。 今のCUDAはCUDA CとOpenCLでバックエンドが共通になっていると聞きましたが、 今もしくは将来のCUDAで、HSA(Heterogeneous System Architecture)を 共通のバックエンドで動かすことは技術的に可能ですか?
413 名前:デフォルトの名無しさん mailto:sage [2013/07/17(水) NY:AN:NY.AN ] nvidiaに聞け 公開資料にない事の予定問われても スレの住人はnvidia関係者な訳じゃないし 関係者が居たとしても、2chで非公開の予定情報の可否なんか答える訳ないだろ
414 名前:デフォルトの名無しさん mailto:sage [2013/07/17(水) NY:AN:NY.AN ] メジャーになればそれなりの対応もあるだろうが 影も形もないものを・・
415 名前:デフォルトの名無しさん mailto:sage [2013/07/17(水) NY:AN:NY.AN ] 技術的に可能かどうかと言われれば可能でしょ。 メモリ空間が共通化されれば、GPUの演算器がCPUのSIMD演算器のように扱えるわけだし。 ただCUDAである必要があるかどうかはNVIDIAが判断するんじゃないか?
416 名前:デフォルトの名無しさん mailto:sage [2013/07/29(月) NY:AN:NY.AN ] N×1行列とM×N行列を計算して結果をテクスチャに書き込むという単純な処理で これを合計512スレッド(Mに関して並列化)で実行しているんだけど(N=3000 M=512) 各ブロックを16×16スレッドの2ブロックよりも 各ブロックは16×1スレッドの32ブロックのほうが2〜3%速度が速いという不可解な結果が出てしまっている 何でこんなことが起こるんだろう
417 名前:デフォルトの名無しさん mailto:sage [2013/07/30(火) NY:AN:NY.AN ] 適度に粒度下がってスケジューラの効率上がったとか?
418 名前:デフォルトの名無しさん mailto:sage [2013/07/30(火) NY:AN:NY.AN ] local memoryにレジスタが溢れているとか
419 名前:デフォルトの名無しさん mailto:sage [2013/07/30(火) NY:AN:NY.AN ] こういう予測しにくい挙動こそがGPGPUのクソなところ。
420 名前:デフォルトの名無しさん mailto:sage [2013/07/30(火) NY:AN:NY.AN ] そういえばNVIDIAはPGIを買収したらしいね ここに書くことでもないかも知れないが
421 名前:デフォルトの名無しさん mailto:sage [2013/07/31(水) NY:AN:NY.AN ] >>416 Nを並列化せずに本当に512スレッドしか使ってないんだったら、16warp*32threadより 32warp*16threadの方がわずかに効率が良いというだけの話じゃないのか?分岐やなんかで。
422 名前:デフォルトの名無しさん [2013/07/31(水) NY:AN:NY.AN ] >>416 メモリの配置次第で不可解でも何でもないと思うが。
423 名前:デフォルトの名無しさん [2013/08/07(水) NY:AN:NY.AN ] 【AMD涙目】デファクトスタンダードへの道を突き進むCUDA・・IBMやGoogleも陣営に加わる engawa.2ch.net/test/read.cgi/poverty/1375883942/
424 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] デファクトスタンダードへの道を突き進むCUDA IBMやGoogleも陣営に加わる kohada.2ch.net/test/read.cgi/pcnews/1375893221/
425 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] 性能の低さを政治力でカバーするのか?
426 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] まぁニュースサイトへの宣伝広告費でカバーしてるところより良いと思うよ
427 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] カーネル関数内で,乱数が生成されたD_c配列を用いて計算したくて, D_c配列のポインタを渡していくのが面倒なので以下としたけど,上手くいかない. __device__ double D_c[is_110][is_110][is_110]; curandGenerateUniformDouble(generator, (double*)&D_c, count); cutilSafeCall(cudaMemcpyFromSymbol(H_a, D_c, size_a)); //ここで30:Unknown error cudaMallocの場合には動くから,乱数生成場所がおかしいんだと思うけど. でも,curandGenerateの第2引数はdouble*型だけど,&D_cで配列の先頭を示してるから, 実質同じ事だと考えてたんだけど,違うの?
428 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] >>427 今手元にないから記憶で書くけど、D_cの型がdouble []じゃないからだと思う。 D_cの定義をdouble D_c[is_110 * is_110 * is_110]にしてみたらどうなる?
429 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] >>428 __device__ double D_c[is_110* is_110* is_110]; curandGenerateUniformDouble(generator, D_c, count); にしても,同じエラーだった. (double*)&D_cでdouble*型に変換してるからイケると思ってたんだけど… __device__ double *D_c;でcudamallocしたら乱数生成はできたけど, カーネル関数内でD_c[id_array]がアクセスエラーっぽい. __device__でやるのは無理があるのかなぁ?
430 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] >>429 うーん、よく判らんな。 少なくとも、cudaMemcpyFromSymbol()はCのコードとしては特殊(トリッキー)な仕様だから 使い難いんだよね。まるでプリプロセッサマクロのように。 だから私のところではリファクタリングの結果、使うのをやめてしまっている。 変に悩むくらいなら、代替手段を考えたほうがいいかもよ。
431 名前:デフォルトの名無しさん mailto:sage [2013/08/08(木) NY:AN:NY.AN ] >>430 特殊なのかー. アドバイス通り,普通にホストでMallocして,カーネル関数にポインタ渡す方式にします. ありがとう!
432 名前:デフォルトの名無しさん mailto:sage [2013/08/22(木) NY:AN:NY.AN ] ドライバをアップデートすると演算性能上がりますか?落ちますか?
433 名前:デフォルトの名無しさん mailto:sage [2013/08/23(金) NY:AN:NY.AN ] __global__の関数内でグローバルメモリの内容を一気にコピーしたいんだけどそういう方法ってある? 一要素ずつやった方が無難?
434 名前:デフォルトの名無しさん mailto:sage [2013/08/30(金) NY:AN:NY.AN ] >>433 コピーの手前でカーネル切って、新たに __global__ copy(double *a, double *b) { int tid = blockIdx * blockDim.x + threadIdx.x; b[tid] = a[tid] } を実行するのじゃだめ? あるいはダイナミックパラレリズムで何とかなるのかな。
435 名前:デフォルトの名無しさん mailto:sage [2013/08/30(金) NY:AN:NY.AN ] カーネル分けんでもindexの生成を工夫すれば同じことでしょ。 それがDtoDなら。DtoHやHtoDなら設計を見直すべき。
436 名前:デフォルトの名無しさん mailto:sage [2013/08/31(土) NY:AN:NY.AN ] ツールキット5.5プロダクションリリースってどういう意味ですか? ベータ版とかじゃなくて正式に使えるってこと?
437 名前:デフォルトの名無しさん mailto:sage [2013/08/31(土) NY:AN:NY.AN ] curandGenerateUniformって1.0を含むけど1.0を含まない乱数生成ってないの?
438 名前:デフォルトの名無しさん mailto:sage [2013/08/31(土) NY:AN:NY.AN ] それ使う所の式変形で対処できないの?
439 名前:デフォルトの名無しさん mailto:sage [2013/09/03(火) 08:02:37.87 ] >>435 ブロックまたいで同期する必要がある場合は?
440 名前:デフォルトの名無しさん mailto:sage [2013/09/03(火) 13:46:17.67 ] .cubin ファイルをエディターで・・・と 公式スライドにあるのですが、本当ですか?
441 名前:デフォルトの名無しさん mailto:sage [2013/09/04(水) 00:17:50.20 ] cudaErrorInvalidValueってカーネルがエラーはいたんだけどどういう状況でなる?
442 名前:デフォルトの名無しさん mailto:sage [2013/09/04(水) 08:47:55.31 ] >>441 詳細はAPIマニュアル見てねだけど、 ホントにカーネルで出てる? APIの引数を間違ってるんじゃない?
443 名前:デフォルトの名無しさん mailto:sage [2013/09/05(木) 06:10:12.96 ] 実行はできるし結果もそれっぽいけど画面が不安定になるなあ
444 名前:デフォルトの名無しさん mailto:sage [2013/09/08(日) 14:31:18.78 ] >>443 カーネル実行時間が長すぎると画面が真っ暗になる場合がある。 制限時間はレジストリをいじって変えられたはず。
445 名前:デフォルトの名無しさん mailto:sage [2013/09/09(月) 21:57:16.85 ] >>444 レジストリはいじったあとなんだけどそうなる
446 名前:デフォルトの名無しさん mailto:sage [2013/09/10(火) 12:17:17.37 ] >>445 メモリアクセスが間違ってても落ちることあるですよ。
447 名前:デフォルトの名無しさん mailto:sage [2013/09/10(火) 23:29:52.04 ] Geforce GT 530 で CUDAインストーラー(5.5)が「対応デバイスが無い」とかで失敗するので 古いドライバに変えてみたり再起動繰り返したりしたのですが、 developer.nvidia.com/cuda-gpus に、GT530が載ってませんでした・・・。 マシンに「nVidia GEFORCE with CUDA」のシールあるし、GPU対応のソフトも動いているのですが 開発用としては使えないってことでしょうか?
448 名前:デフォルトの名無しさん mailto:sage [2013/09/10(火) 23:41:30.09 ] セットアップがミスってんでしょ。
449 名前:447 mailto:sage [2013/09/11(水) 00:36:33.98 ] セットアップのミスの原因ってなにかありますか? 展開後は高速インストールかカスタムか選ぶだけだし、 どちらを選んでも失敗します・・・。 プログレスバー見てる感じ、Toolkitのインストール中10%くらいでエラーが出ます。 c:\NVIDIA\CUDAへの展開でかなり時間かかりますが、 インストール失敗すると、この下のインストーラー各種全部削除されて 最初からやり直す仕様なんですね・・・。(成功しても消えるのかもしれませんが)
450 名前:デフォルトの名無しさん mailto:sage [2013/09/11(水) 00:52:29.92 ] ちゃんとリリースノートやインストールノート読んでやってないところ あとはほんとに530のせいかどうかを他のグラボ(nvidiaね)に変えて切り分けして原因しぼっていくしかないだろ。 可能性だけなら グラボ、PCパーツの不良 DLしたソフトウエアの不良 システム不良 などたくさんあんだからさ
451 名前:デフォルトの名無しさん mailto:sage [2013/09/11(水) 02:12:53.82 ] 俺も今5.5のToolkit のインストールでずっこけてる。 Windows XP service pack 3 Quadro FX 580 Toolkit と sample以外はカスタムでインストールできたんだけど、 Toolkitが8割ぐらい行ったところで失敗しました、てなる。 インスコディレクトリにいくらかコピーできてるみたいなんだけど、 環境変数なんかは設定されてない。 リリースノート見てもGUI使うかmsiをシェルで実行しろとしか書いてなくて 困ったぽよ
452 名前:447 mailto:sage [2013/09/11(水) 04:56:20.56 ] もう朝だお。。。 Toolkitのインストーラーが失敗するから ログ取ろうとしたらなぜか成功したっぽい?? C:\NVIDIA\CUDA\CUDAToolkit> msiexec /i "NVIDIA (略).msi" /L*v install.log でも、サンプルのtemplateとか開いてビルドしようとしても 「error : The CUDA Toolkit v5.5 directory '' does not exist.〜」てなる。 環境変数(CudaToolkitDir?)が設定されてないのか、VisualStudioよく分かってないのか・・・。 スレチなら他行きますので・・・。
453 名前:447 mailto:sage [2013/09/11(水) 05:42:32.92 ] ここは俺の日記かお・・・。 VS2012でプロジェクト→プロパティ→構成プロパティ→デバッグ→環境 を選んで編集モードへ。 ここで「マクロ>>」をクリックすると設定されたCuda用環境変数もちらほらありますが $(CudaToolkitDir)の値がからっぽでした。 普通に動かせてる方、この辺の弄り方教えてください。 設定するパスはこれですかね?→C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5
454 名前:デフォルトの名無しさん mailto:sage [2013/09/11(水) 10:14:42.53 ] >>453 うちでは、NVIDIAのGPUが無くてもインストールとビルドできてるよ。(当然、このPCでは実行はできないけど) コンパイラはVS2008 Standard SP1, VS2010 Professional, VS2012 Professional UP3の3つ。 マクロの値は>>453 でok。 OSの環境変数は: CUDA_PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5 CUDA_PATH_V5_5=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5 NVCUDASAMPLES5_5_ROOT=C:\ProgramData\NVIDIA Corporation\CUDA Samples\v5.5 NVCUDASAMPLES_ROOT=C:\ProgramData\NVIDIA Corporation\CUDA Samples\v5.5 NVTOOLSEXT_PATH=C:\Program Files\NVIDIA Corporation\NvToolsExt\
455 名前:447 mailto:sage [2013/09/11(水) 16:32:58.66 ] >>454 ありがとうございます、template動きました。 他のサンプルも手作業コピーで動きました。 # C:\NVIDIA\CUDA\CUDASamples\の中身を # C:\ProgramData\NVIDIA Corporation\CUDA Samples\v5.5 # にコピーして、\v5.5\Samples_vs2012.sln開いて全部ビルド成功。 VolumeRenderのfpsが2.1〜2.2の貧弱環境ですが ひと通り習得できてきちんと開発できるようになったら 新しいグラフィクスカード買わないとな・・・。