1 名前:デフォルトの名無しさん mailto:sage [2009/10/08(木) 19:29:37 ] このスレッドは、他のスレッドでは書き込めない超低レベル、 もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage www.nvidia.com/cuda 関連スレ GPUで汎用コンピューティングを行うスレ pc11.2ch.net/test/read.cgi/tech/1167989627/ GPGPU#3 pc12.2ch.net/test/read.cgi/tech/1237630694/
59 名前:デフォルトの名無しさん mailto:sage [2009/11/04(水) 21:40:42 ] ちょっと日本語でOK
60 名前:デフォルトの名無しさん mailto:sage [2009/11/04(水) 23:27:30 ] 8800GTXを4本さす
61 名前:デフォルトの名無しさん mailto:sage [2009/11/04(水) 23:38:39 ] クロックを4倍に
62 名前:デフォルトの名無しさん mailto:sage [2009/11/05(木) 09:05:00 ] >>52 レスありがとう。 winでGTX280とTeslaさした状態だと、両方のデバイス認識してて、GTX280外してTesla単体にすると、 Teslaを認識しなくなるんだけど、原因わかる人いる?ドライバではないと思うけど・・ ちなみに、winデフォのリモートデスクトップで確認しました。
63 名前:デフォルトの名無しさん mailto:sage [2009/11/05(木) 09:10:33 ] DeviceQueryでどうなるのかはっきりして欲しい
64 名前:デフォルトの名無しさん mailto:sage [2009/11/05(木) 10:22:46 ] >>62 Tesla単体のときって画面は何に表示されるのでしょうか? TeslaはGPUを搭載していますが、ビデオカードではないことに注意してください。 Windowsの制約で複数ベンダーのビデオドライバを同時にロードできないので オンボードにATIやIntel製のビデオチップとかがあると駄目です。 どうしてもその構成にしたいのであればLinuxに。 というかWindowsのバージョンによるけどまず無理です。
65 名前:デフォルトの名無しさん mailto:sage [2009/11/05(木) 13:05:40 ] 馬鹿みたいに高いのに、すごい仕様だな
66 名前:デフォルトの名無しさん mailto:sage [2009/11/05(木) 15:11:24 ] >64 Win7からはWDDM1.1対応ドライバであれば普通に混載できる
67 名前:デフォルトの名無しさん [2009/11/05(木) 18:11:37 ] なんかメモリアロケートのアルゴリズムいじったら五倍以上速くなった、、 あやうく三枚発注するとこだったよ。よかった
68 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 00:56:55 ] CPUの100倍速い、になるまで満足しちゃいかん
69 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 02:21:26 ] 将来性は銅なのよ?
70 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 02:27:56 ] GeForce 8600 GT使って、3日目の初心者です。 素朴な疑問なのですが、GeForce 8600 GTには512MBのメモリが実装されているのですが、 cudaMalloc を行って、alloc領域が512MBを超えた場合には、どの様になるのでしょうか? ご存知の方がいらっしゃれば、事象や回避策を教えてください。m(_ _)m
71 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 03:25:19 ] >>70 素朴な通り取れない。 エラーが返ってくるはず。
72 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 03:27:14 ] >>67 これはCUDAの話?
73 名前:70 mailto:sage [2009/11/06(金) 08:35:41 ] >>71 ありがとうございます。 まだ、某サイトにあった手順でHellow…が出せた段階です。 もしや実装メモリ量を超えると、HDDとの間でガリガリswapでもするのかなぁ?っと思った次第です。
74 名前:73 mailto:sage [2009/11/06(金) 08:52:35 ] うっ… w 綴り違うし orz...
75 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 10:32:36 ] >>73 大丈夫、swapなんてするはずもない。そもそも512MiB全部使えるわけでさえない。 その世代で512MiB搭載のボードなら、実際に使えるのは高々511.69MiBだけだ。 しかも、そのボードを実際に描画にも使っているならそこから更に画面解像度に依存した分使える量が減る。 逆に、目一杯cudaMalloc()で確保した状態で画面解像度を上げたりすると面白いことになる。
76 名前:デフォルトの名無しさん mailto:sage [2009/11/06(金) 23:30:47 ] >>73 つかQueryつかってデバイスメモリの上限チェックしないと
77 名前:デフォルトの名無しさん mailto:sage [2009/11/07(土) 00:27:47 ] >>63 ,64 レスありがとう。どうやら、winではディスプレイ出力できるグラボを最低ひとつ積んでないと、 cuda使えないみたいです。つまりTesla単体では動かない。。deviceQueryしても、 there is no device supporting cudaしか返ってきませんでした。倍精度の数値計算したくて Teslaシングルで動かしたいときは、nvidiaの公式が推奨してるようにLinuxでやるのがベスト みたいです。いろいろとありがとうございました〜
78 名前:デフォルトの名無しさん [2009/11/07(土) 03:56:44 ] snow leopardじゃつかえないの?
79 名前:デフォルトの名無しさん [2009/11/07(土) 06:48:09 ] >>74 皮肉のつもりじゃなかったのか。
80 名前:34 mailto:sage [2009/11/09(月) 21:08:31 ] いまだにtemplateのコンパイルもできません。 32bitコンパイルしようとするとlibがないといわれ、 64bitコンパイルしようとするとスキップされる。 人に聞いたら、ソースが32bit用なんじゃないかって言われた。 ちゃんと64bit用SDKインスコしたつもりなんだけど、 64bit用のソースでなかったりするのでしょうか?
81 名前:デフォルトの名無しさん mailto:sage [2009/11/09(月) 21:49:20 ] >>80 リンカが言うようにlibのファイルがないんでしょ? パスが通ってるか、ファイルがあるかどうかくらい自分でなんとかしなよ。
82 名前:デフォルトの名無しさん mailto:sage [2009/11/09(月) 22:40:46 ] >>81 レスサンクスです。 でも、>>34 に書いたとおり、32bit用のlibはもともとないんです。 まったく初心者なので、勘違いしてたらすんません。
83 名前:デフォルトの名無しさん mailto:sage [2009/11/09(月) 22:45:41 ] >>82 それなら、リンカに指定するライブラリをcutil64D.libに変えたらいいじゃん。
84 名前:デフォルトの名無しさん mailto:sage [2009/11/09(月) 22:55:47 ] >>80 その書き込みから推測するに、出力先にtemplate.exeが存在しているため、スキップされると思われます。 SDKのtemplateをそのまま開いて64bitコンパイルしたいのなら、 出力先のtemplate.exeを削除してからビルドすればスキップされなくなるはずです。 C:\ProgramData\NVIDIA Corporation\NVIDIA GPU Computing SDK\C\bin\win64\Release\template.exe 私の環境ではこの場所。SDKにはすでにコンパイルされた.exeが入っているはずです。確認してみて下さい。 64bitSDKには32bitのlibが入っていないんじゃないかな?詳しく確認はしていないけれどね。
85 名前:デフォルトの名無しさん mailto:sage [2009/11/09(月) 23:03:07 ] >>83 ,84 ありがとっす〜 試してみます!
86 名前:73 mailto:sage [2009/11/09(月) 23:08:04 ] >>75 、76 どうもです。お返事遅れました。 先週はXPでやってましたが、今日からはFedoraに入れ直し実施してます。 結果ですが、画面が点滅したり、真っ黒になったり、となりました。 復旧には、sshで入ってプロセス消してもだめで、結局rebootで…。 ちゃんとsizeみて使う様にします。 m(_ _)m
87 名前:74 mailto:sage [2009/11/09(月) 23:11:42 ] 済みません。連投です。 >>79 はぃ、 天然ってより、単に英語は苦手です。
88 名前:34 mailto:sage [2009/11/09(月) 23:12:49 ] exe消してもだめでした、、、 つか、なんかソリューションエクスプローラーのところで template.cuを右クリック→プロパティにした時点で、 「操作を完了できませんでした。エラーを特定できません。」 ってなる(´・ω・`)だめぽ リンカへの指定はちょっと勉強してみます。
89 名前:デフォルトの名無しさん [2009/11/11(水) 17:55:34 ] どうにもうまくいかないので質問なのですが short intでGPUにmemcpyしたデータをFFTしたいのですが、 short intのデータをfloatにキャストするには どうしたらいいのでしょうか? int→floatやfloat→intはプログラミングガイドに載っていた通りできたのですが、 short intだとうまくいかないのは何故だろう…?
90 名前:デフォルトの名無しさん mailto:sage [2009/11/11(水) 18:45:15 ] >>89 何を試したのかよく分かりませんが、short2型をfloat2型に変換する感じがよさそうな。
91 名前:デフォルトの名無しさん mailto:sage [2009/11/11(水) 21:49:44 ] プログラミングガイド読んでたらハァハァ(´д`*)してきた なにこの気持ち(*´д`*)ハァハァ
92 名前:デフォルトの名無しさん mailto:sage [2009/11/12(木) 17:01:33 ] >>90 おかげさまで出来ました。ほんとにありがとう ちなみに試したのは __int_as_float(int)のような形式のキャストと __int2float_rn(int)のような形式のものです。 どちらもshortをキャストしたり、shortにキャストすることが出来ませんでした。
93 名前:デフォルトの名無しさん mailto:sage [2009/11/12(木) 17:28:04 ] GPUに型変換するのは遅いと思うのだが。
94 名前:デフォルトの名無しさん mailto:sage [2009/11/12(木) 20:44:37 ] その通りだな、そこで相当なロスが出ると思う
95 名前:デフォルトの名無しさん mailto:sage [2009/11/12(木) 23:30:59 ] voidでコピーして、floatのポインタで計算すれば良いんじゃねーの? 何か勘違いしてる?
96 名前:デフォルトの名無しさん mailto:sage [2009/11/12(木) 23:47:32 ] >>91 興奮してるなぁw
97 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 00:31:33 ] int -> floatのキャストなら1命令だからむしろ速いんじゃないのか アライメントは考慮したほうがいいけど
98 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 10:27:25 ] いやだから、gpuでshort -> intはダメだろ。 intで渡しておいて、int -> floatはイントリンシックで。
99 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 10:54:01 ] 別にshortで渡しても問題ないかと。 GPU内でshort -> intの変換をしてから int -> floatの変換が起こりますが、 そんなに頻繁に変換をするわけでなければメモリ転送量の削減効果の方が大きいでしょう。 #32-bitアクセスにするためにshort2型をお薦め。
100 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 11:55:38 ] GPGPUのハードのいいベンダーだか機種だかオススメある? 予算は潤沢にあるとして
101 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 12:11:15 ] NVIDIAのTesla。つーか、Teslaのラック筐体マジお勧め。 漏れなくNVIDIAのサポートがついてくるから。
102 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 12:36:58 ] >>101 CUDAしたいからtesla c1060を搭載した機種を買うのは 当然なんだけど、teslaを組み込んだ ハード全体としてのオススメを知りたいのでした。 ようするにフラクティカだとかELSAだとか爆速だとか、 どこがいいのよっって話です。 teslaのラック筐体ってなに? タワー型じゃなくてユニット型がいいってこと? それともteslaの名を冠したサーバーがあるの? すまんあんま詳しくないんでわからん
103 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 12:53:43 ] HPC用にTeslaC1060相当を4枚入れた、TeslaS1070っていうラック筐体があるですよ。 当然、PC筐体は別途必要。 PC本体なら、QuadroPlex2200S4ってーのがTeslaS1070にマザボをつけたような仕様だったかと。 ラック筐体じゃなければ、QuadroPlex2200D2がタワー型でGPU2枚挿しのPCになる。 NVIDIAの営業曰く、「GeForceなんてアキバ的発想はやめましょう」ということなので。 # GeForceでいいならELSA辺りがリファレンスボードをそのまま使うから安定しているけどね。 ## つーか、QuadroPlex使うような予算があるならソフト開発受注したいぞw
104 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 13:05:58 ] >>103 ありがと〜 調べてみる
105 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 14:48:43 ] www.supermicro.com/products/system/4U/7046/SYS-7046GT-TRF.cfm?GPU=TC4 これ、自分はアメリカで買った。 国内の代理店でも売ってるとこあるよ。
106 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 15:01:35 ] >105のPCすげぇ。TeslaC1060が4台も載っている。なのにVGAはMatrox。
107 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 15:20:48 ] おまえらどんな仕事してんだよ
108 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 15:25:42 ] 自宅の治安を守る仕事
109 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 15:31:22 ] >>106 だってサーバーだから。 すんごくうるさいよこのマシン。標準でリモート管理機能が付いているから、 リモートから電源のON/OFFやキーボード、マウス、VGA、IDEポートの ネットワークリダイレクトができる。 だから管理用IPアドレスだけ設定してサーバールームに入れっぱなし。
110 名前:デフォルトの名無しさん mailto:sage [2009/11/13(金) 21:37:09 ] >>105 国内のページ見つけたけど www.able.across.or.jp/catalog/product_info.php?products_id=2919 スペックが書いてあるようで書いてないような、、、 この値段は一体なんの値段なんだろう
111 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 00:42:44 ] GeForceとQuadroってどう違うんですか??
112 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 00:49:20 ] シールが違う。
113 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 01:02:41 ] >>93-99 色々参考になります。ありがとう とりあえずそれぞれのやり方で試して処理時間比較してみます。
114 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 01:16:16 ] >>110 書いてあるじゃん。 7046GT-TRF-TC4はサーバーのベアボーン。 箱、電源、マザーボード、ドライブエンクロージャ、そしてTesla C1060 * 4だけ。 あとはCPU、メモリ、ハードディスクを買ってきて刺してやれば動くってこと。
115 名前:111 mailto:sage [2009/11/14(土) 01:20:18 ] >>112 それだけですかw ありがとうございました m(_ _)m
116 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 02:51:33 ] >>109 自宅にサーバールームか。アニメみたいww
117 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 03:30:00 ] やはりワレワレはコストパフォーマンスの良いものをと考えて… i7-920、12GB ASUS P6T7 WS nForce200が二個乗り とりあえず GTX275あたりを二枚位かな 1000W電源 これでざっと20万コース?
118 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 04:37:05 ] randってつかえないのですか?
119 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 04:42:01 ] >>114 そっか単純にCPUもメモリもついてないのか 安いわけだ
120 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 05:12:47 ] サーバー用のメモリも安くなってきたから、サーバー用でいいかも。 Kingstonの4GB×3本で$350とかだ。
121 名前:デフォルトの名無しさん [2009/11/14(土) 05:32:24 ] CUDA_SAFE_CALLって必ず必要なのですか?
122 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 05:36:18 ] > nForce200が二個乗り おれの場合、O(n^2)だと、使うメモリ帯域<<計算量で、 x16で有る必要は無いなと思ったよ。
123 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 07:48:22 ] カーネルを実行する際に、引数で、変数を渡すことができますが、多数の数値を配列で渡したい場合、 配列をデバイスにコピーしてから、配列へのポインタを渡すしかないのでしょうか? オーバーヘッドの少ない、数値の渡し方を差がしているのですが・・・
124 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 08:32:24 ] 引数で配列のポインタを渡したって、どっちみちホストメモリ→デバイスメモリの コピーは要るし?
125 名前:デフォルトの名無しさん mailto:sage [2009/11/14(土) 15:41:12 ] すみません、CULAについて質問です。 Red Hat Enterprise Linux 5.3(64bit)に まず、CUDA3.2(ドライバ、ツールキット、SDK)をインストール。 (~/CUDA/ 以下。ツールキットは /CUDA/cuda/bin/nvccのようになっている) その後、CUDA3.2上でCUBLASが動作することを確認しました。(Dgemmを利用) 後に、CULAがあることを知り昨日CULA Basic 1.0をダウンロードし ~/cula/ 以下にインストールしました。 (~/cula/lib64/libcula.so) インストール後表示される export CULA_ROOT="/home/nakata/cula" export CULA_INC_PATH="$CULA_ROOT/include" export CULA_BIN_PATH_32="$CULA_ROOT/bin" export CULA_BIN_PATH_64="$CULA_ROOT/bin64" export CULA_LIB_PATH_32="$CULA_ROOT/lib" export CULA_LIB_PATH_64="$CULA_ROOT/lib64"
126 名前:続き mailto:sage [2009/11/14(土) 15:43:23 ] 以上を実行後、example/geqrf にある、Makefileを用いて make build64 を実行すると、 /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasDtrmv' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasZswap' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasZaxpy' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasCtrmv' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasZtrmv' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasZcopy' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasCgemv' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasCtrmm' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasCtrsm' /home/nakata/cula/lib64/libcula.so: undefined reference to `cublasZtrmm' リファレンスを調べてみると、例えば、cublasにDtrmvが無いように思えます。 これはどのようにすればいいのでしょうか。
127 名前:デフォルトの名無しさん [2009/11/15(日) 15:27:35 ] en_curr_regionがないってエラー出るんで、調べてたらbreakやcontinueのところでエラー出てるっぽいんだけど、CUDAってbreakやcontinueとの相性悪いのだろうか?
128 名前:デフォルトの名無しさん mailto:sage [2009/11/15(日) 16:54:01 ] 分岐は罪
129 名前:デフォルトの名無しさん mailto:sage [2009/11/15(日) 20:02:42 ] 質問です CUDAを使ったプログラムをCUDA toolkitをインストールせずに実行する方法ってありますか?
130 名前:デフォルトの名無しさん mailto:sage [2009/11/15(日) 20:56:22 ] 試した事はないけど、driverと実行ファイルがあれば出来るだろうな
131 名前:デフォルトの名無しさん mailto:sage [2009/11/15(日) 21:09:53 ] よ〜し、パパ、CUDAを覚えて会社で活躍しちゃうぞ〜!
132 名前:デフォルトの名無しさん mailto:sage [2009/11/16(月) 01:31:49 ] VCランタイムがあるとして、cudart.dllと、cutil32.dll だけ必要(Win32)。
133 名前:デフォルトの名無しさん mailto:sage [2009/11/16(月) 01:44:32 ] >>132 それって再配布できるの?
134 名前:デフォルトの名無しさん mailto:sage [2009/11/16(月) 03:58:07 ] cudatoolkitのEULA、cudart.dll はredistributableと書いてあるな CUTILは、cutil.cppの頭に「何の保証もしねぇよ」って書いてある。CUDAとは別で単なるサポート用なのかな。 ていうかcutil32.dllは無くても動くように書けると思う。ソースみたらくだらないぞこれ nVidiaのドライバ入れればCUDAも動く、ようにはまだなってないのかな。
135 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 00:52:04 ] >>134 cudart.dll はCUDAの上位互換を保つために、配布するんだそうだ。 ちなみに、cutil32 or 64 .lib は使わないほうが。。。 ともかく、 cudart's version <= cuda driver's version の条件が必須
136 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/11/17(火) 01:46:28 ] cutilはクソすぐる
137 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 01:55:12 ] いつの間にか団子が2ちゃんのスポンサーになってる・・・ 【2ちゃんねる10週年】神秘の「乳団子」の秘密とは? pc12.2ch.net/test/read.cgi/tech/9240911011/
138 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 05:06:18 ] Tesla C2050 $2,499 発表になったじゃない。倍精度500-630GFLOPS。 倍精度なら10倍速い、ってどかすか買うお金持ちな人居るんだろうなぁ。
139 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 08:14:48 ] 今まで散々売られてもいないLarrabeeを盾にして現存のプロセッサと それを擁護する人たちを馬鹿にしていた癖して いざ完成が近づいてくると ディスクリート版には期待していないキリッ とか馬鹿にしてるよな。
140 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 09:20:00 ] おまえは誰と戦って(ry
141 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 20:19:11 ] 書き込むスレ間違えたが分かっている人はいると思うから問題ない。
142 名前:デフォルトの名無しさん mailto:sage [2009/11/17(火) 20:52:26 ] >>138 倍精度性能だけ見るとHD5870と同じ性能だというのは本当なのか? 単精度の1/2の性能でいいって言ってるけど HD5870の単精度性能が数倍早いだけだという噂が
143 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 01:33:01 ] >>142 AMDはなにかを犠牲にしていると思うんだけど何を犠牲にしているの?
144 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/11/18(水) 02:05:20 ] >>143 たとえばプロセッサエレメントはFP演算とデータの読み書きは排他実行だったりとか それでなくとも各プロセッサエレメントにぶら下がってる5つの演算ユニットが平均2〜3程度しか稼動してないとか
145 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 06:05:13 ] ららびーは倍精度で1TFLOPSとか行くのかな。 Core i7で60GFLOPSくらいだっけ。
146 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 08:27:53 ] >>144 データ読み書きは別スレッドの分が並列に動くだろ。 メモリアクセス性能低いからALU命令の比率が余程高くないと 読み書き速度がネックになるけど。
147 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 10:21:58 ] 初歩的な疑問なのですが ttp://tech.ckme.co.jp/cuda_const.shtml のコードのように __constant__ float g_idata[10000]; とか書いた時,このconstantメモリ領域は いつ確保されるのでしょうか? 宣言だけ書かれてあっても host,device共にその領域を使うコードを実行しない限り, 領域確保は行われないと思っていいのでしょうか?
148 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 12:05:28 ] >>147 GPUにはそもそも領域確保と言う概念がありません。 定数メモリ領域も共有メモリ領域もただそこにあるだけなので、宣言はあくまでもコード上のものでしかありません。
149 名前:デフォルトの名無しさん [2009/11/18(水) 15:16:17 ] 一応タイムシェアリングできてるみたいだけどGPUのメモリ領域の退避はしないの?
150 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 18:43:48 ] CUDAでCPU、GPUを並列に動作させられますか? CPU GPU 並列 CUDA あたりで検索しても出てきません。 原理的にできそうな気もするのですが、 GPUで操作させている間はドライバを働かせているので無理なのでしょうか?
151 名前:デフォルトの名無しさん [2009/11/18(水) 18:52:14 ] スレッドを使えばできますよ。GPUのプログラムは殆んどCPUに負荷をかけません。
152 名前:デフォルトの名無しさん mailto:sage [2009/11/18(水) 22:50:37 ] >>150 GPUを起動したスレッドを待機状態のまま放置しておけば、他のスレッドでCPU資源を遣り繰りできます。 但し、SPの個数を超えるようなグリッドを食わせると途中で転送処理が入るので要注意。
153 名前:デフォルトの名無しさん [2009/11/19(木) 06:44:52 ] CentOSで動きますか?
154 名前:デフォルトの名無しさん mailto:sage [2009/11/19(木) 14:51:15 ] FermiでC言語が使えるってどーいうこと?
155 名前:デフォルトの名無しさん mailto:sage [2009/11/19(木) 17:13:26 ] >>153 動きます。
156 名前:デフォルトの名無しさん mailto:sage [2009/11/19(木) 19:37:25 ] fermi用のCコンパイラを用意しましたってことじゃねーの?
157 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 19:04:36 ] スレッド内部でレジスタがどのように使われているかわかりません 変数の数=レジスタの数という認識をしていたのですが、そうではないようです どなたかご教授ください
158 名前:デフォルトの名無しさん [2009/11/21(土) 10:30:39 ] すいません、テクスチャメモリで疑問があります。 よろしければどなたか教えて頂けませんか? コードは gpu.fixstars.com/index.php/%E3%83%86%E3%82%AF%E3%82%B9%E3%83%81%E3%83%A3%E3%83%A6%E3%83%8B%E3%83%83%E3%83%88%E3%82%92%E4%BD%BF%E3%81%86 のテクスチャメモリを参照するていう項目のソースをとりあえず勉強がてらコンパイルしてみました。 配列に値を3ずつ入れていって、バインドして、それにtex1Dでアクセスするというだけのものです 13行目にインデクスに3.14fを用いている事から線形補間なしの場合、小数切捨てで3になり 配列[3]の値を読んで、9が返ってくるのは理解できたんですが、線形補間を有りにすると 9と12の間を補間してるはずなのに7.921875なんていう値が帰ってきています。不思議に思ってv2.3のPrograming guideを読んだところ、P.139に記述があり、どうも与えた値が-0.5されているようです。 ので、はじめから+0.5シフトしてやれば正しい値になりそうですが、そもそも何故-0.5されているのかがわかりません。 検索してもぜんぜん出てこないので当たり前な事なのかもしれませんがドツボにハマってしまってわかりません。よろしければどなたか教えて頂けませんか?長文失礼しました
159 名前:デフォルトの名無しさん [2009/11/21(土) 10:32:29 ] 158です。 上記質問で訂正があります。programming guideのP.139ではなくP.137でした。すいません。