- 1 名前:デフォルトの名無しさん mailto:sage [2009/10/08(木) 19:29:37 ]
- このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage www.nvidia.com/cuda 関連スレ GPUで汎用コンピューティングを行うスレ pc11.2ch.net/test/read.cgi/tech/1167989627/ GPGPU#3 pc12.2ch.net/test/read.cgi/tech/1237630694/
- 582 名前:デフォルトの名無しさん mailto:sage [2010/02/12(金) 11:46:23 ]
- >>581
GeForce人数分
- 583 名前:デフォルトの名無しさん mailto:sage [2010/02/12(金) 11:49:25 ]
- TeslaかQuadroを配っておけば良いと思うよ
- 584 名前:デフォルトの名無しさん mailto:sage [2010/02/12(金) 11:56:09 ]
- cutil使わなければcudart.dllだけでよろしよ
- 585 名前:デフォルトの名無しさん mailto:sage [2010/02/12(金) 17:57:29 ]
- >>579
内部でケーブルでつながってても、 デバイスメモリが共有されるわけじゃないから CUDA的には関係ない。
- 586 名前:デフォルトの名無しさん [2010/02/13(土) 04:48:44 ]
- >>580
SDKにサンプルがある
- 587 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 12:30:31 ]
- CUDA FORTRANのセミナーが青木先生のとこで開催されるらしいが、おまいら行く?
- 588 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 12:42:11 ]
- >>587
青木先生か、Cだったら行くんだけどな
- 589 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 17:44:43 ]
- デバイスエミュレーション時の速度って、実際のCPUとの目安で考えたら
どのくらいスケールして考えればいいですか? 初めてエミュレーションモードを使ってみたんですが、3000倍以上の差が付いて明らかにおかしいと思うんです… CPU: Core i7 Q720@1.6GHz、 GPU:Tesla C1060
- 590 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 17:53:40 ]
- Q720って720QMのこと?
ノートPCにTeslaが搭載されているとか、聞いたことがないんだけど
- 591 名前:589 mailto:sage [2010/02/15(月) 17:56:06 ]
- 追記。
grid(2,1,1)、block(256,1,1)でのカーネルで、3000倍になります。 これからgridを増やすと、さらに差が広がっていきます。 カーネルで実装した内容を、CPU版で実装したくないけど速度比較はしたい。 ・・・無理でつか?
- 592 名前:589 mailto:sage [2010/02/15(月) 18:06:39 ]
- >>590
Teslaは別のデスクトップPCので、エミュを動かしたのはノートPCでの方です。 紛らわしくて申し訳ない。 どちらもPCもCUDA使えるんですが、CPU自体はノートの方が性能良かったのでこちらを使いました。 ノートPCのGPU: GeForce GTX 260M
- 593 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 18:14:45 ]
- そもそも、エミューレーションモードって非CUDA環境でも
CUDAカーネルのデバッグが出来るようにしたものでしょ あくまでテスト用のもの
- 594 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 18:15:25 ]
- 誤)エミューレーションモード
訂)エミュレーションモード
- 595 名前:デフォルトの名無しさん [2010/02/15(月) 19:10:55 ]
- 3000倍?そんなもんでしょ
- 596 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 19:28:11 ]
- 効率の良いブロック分けの仕方?がわからず困っています.
実行時にN個のデータ系列が与えられて, それぞれの系列へ施す処理内容自体は同一なのですが, その処理に用いるパラメタ値が異なります. 例えばN=3の場合,パラメタもp[0]〜p[2]の3個があって, データ系列0の全データ { D[0,0], D[0,1], D[0,2], ..., D[0,m0] } にはp[0]を加算, データ系列1の全データ { D[1,0], .... , D[1,m1] } にはp[1]を加算, データ系列2の全データ { D[2,0], .... , D[2,m2] } にはp[2]を加算 という具合です. 全系列のデータ数が同じ(m0=m1=m2)ならば グリッドの次元の1方向を系列(0〜N-1)に割り当てれば良いかと思うのですが, 系列毎にデータ個数がかなり異なる場合はどうすればいいのでしょうか? データ個数は系列ごとに少なくとも数千個くらいになります. 同じような割り振り方だと何もしないブロックが大量にできてしまいそうです.
- 597 名前:デフォルトの名無しさん [2010/02/15(月) 20:36:27 ]
- CにD[0,0]というものはないのでよくわからないけど、
いったん長い配列にまとめて処理して、あとでCPUでばらせばいいのでは。 D[i,j]のjについて、自分はどのpに属するのか覚えさせて。
- 598 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 23:36:05 ]
- >>592
Nvidia Nexus使えば?
- 599 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 23:37:13 ]
- 追記
Nexus使うとネットワーク経由で、 コード書く用のPCとデバッグするPCを分けられるよ、ってことね。
- 600 名前:デフォルトの名無しさん mailto:sage [2010/02/16(火) 14:48:16 ]
- >>598
うーん、デバッグというよりは単にCPUとGPUで速度比較をしたいだけなんです。 うまく並列化して普通は、1〜50倍くらいの成果になると思うんですが・・・ 目安でいいからエミュレーションモードから大体の速度が分からないのかなと。
- 601 名前:デフォルトの名無しさん [2010/02/16(火) 23:24:57 ]
- いまいち意味がわかんないけどCPUコードとGPUコードをデバイスエミュで実行したらCPUコードのが3000倍早いって事?
それだったらそんなもんかと。デバイスエミュは重いし。 違うんだったらごめん。 CPUとGPUで速度比較したいなら普通にCPUとGPUそれぞれ向けのコード書いて実行したらいいんじゃない??
- 602 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 00:50:55 ]
- >>601
あ、あれ? 自分のデバイスエミュの認識自体が間違ってたかな…? 言いたかったのは、実行するハードの方での両者の比較です。 CPUコードと言うのはありません。 カーネルや、その内部で呼ぶ__device__の関数らがGPUコードだよね?それを普通に「GPU」が実行した時の速度と、 デバイスエミュを使ってCPUが実行した場合(内部では逐次計算?)の速度では、普通に「GPU」で実行した方が3000倍速いということです。 >>591の通り、GPUコードが多くなりすぎて、同じ事をするCPUコードを実装するのが面倒なのです。 デバイスエミュはCPUが実行するとの事で淡い期待を抱いてましたが無理そうな感じなんですな…
- 603 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 01:32:32 ]
- >>602
比較する目的はなんでしょうか? 研究目的であれば面倒であろうがCPU用も実装しなければなりません。 そうでないなら比較なぞしなくてよいのではないかと。 ちなみにGPU:エミュが3000:1程度であればCPU用に普通に実装した方がGPUより速い可能性が十分にあります。
- 604 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 15:10:51 ]
- 面倒でも計算結果の比較しろよw
nvidiaのサンプルコードでも結果の比較してるだろ
- 605 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 15:41:47 ]
- >>602
emulation modeは,名前の通りGPUでの動作を模擬しているだけで, その計算速度とGPUの計算速度を比較することに意味はない. emulation modeがある理由は,カーネル内にprintfとかのコードを書いて debugしたり出来るようにするため. 従って,CPUとGPUの計算速度の比較を行いたいなら,それぞれに最適化した 2つのコードを書いて比較する必要がある. 関係ないけど, CPUとの比較しているときにCPUのコア一つとの比較が多い気がするけど, それフェアな比較じゃないよね.せめてOpenMPくらい使おうよと. まぁ使うとGPUの存在感が薄れるのだけれども….
- 606 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 17:32:51 ]
- >>603
研究なんて言えないようなものです。目的としては自己満足になりますね。 ただ、目安程度であれど比較できないとGPUとCUDAを使う意義に関わってきます。 早ければSUGEEEE!!ってなって満足し、遅ければそこできっぱり止めるという選択ができる。 そして3000:1ならまだCPUの方が早そうだというのは参考になりました。 >>605 おっしゃる通りですが、厳密に比較するまでは求めていないんです。 今自分がやってることは無意味なのか?(つまりCPUの方が普通に早い)が分かればいいんです。 grid(2,1,1)でフェアじゃないのは、コーディングが糞なので2以上じゃないとGPUで動作しないんです('A`)・・・(メモリ周りの関係で) 我侭な要求でスマン。
- 607 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 18:07:50 ]
- 逆に考えるんだ
CPU側で動作をきっちり検証したプログラムを、 GPUに移植して、速度を比べる。 GPUに本当に適した問題なら、数十倍出る場合もあるし。
- 608 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 18:47:11 ]
- >>605
GPUの優位性をうたうような文脈で 比較対象のCPUコードが1スレッドだったら それを評価する人間は目が余程の節穴でない限り、 CPUのコア数倍した結果と比べるでしょ。 物凄く差がある場合はそれでも十分優位性をうたえるから。
- 609 名前:デフォルトの名無しさん [2010/02/17(水) 21:05:25 ]
- >>605
1コアの40倍とあれば4コアの10倍と読み替えればいい訳で。
- 610 名前:デフォルトの名無しさん mailto:sage [2010/02/17(水) 22:05:37 ]
- 4コアと比較したらどうなるかということではなく、
1コアと比較してる人がCPU版もまともにチューニングしてるとは思えない、ということかと。 まぁ、皆GPU版ばっかりチューニングしてますから。
- 611 名前:デフォルトの名無しさん mailto:sage [2010/02/18(木) 06:16:20 ]
- たぶんCPU版はSSEすら使っていないんだろうね。
メモリ帯域がものを言うコードでなくて、CPUがNehalemだったら、 安いGPUなんかじゃ全く優位ないからね。
- 612 名前:デフォルトの名無しさん mailto:sage [2010/02/19(金) 02:31:33 ]
- 俺はNvidiaちゃんを信じるよ
twitter.com/NVIDIAGeForce/status/9265680539
- 613 名前:デフォルトの名無しさん mailto:sage [2010/02/19(金) 02:32:33 ]
- 誤爆った/(^o^)\
- 614 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 04:09:26 ]
- うちは理論で「***手法より*%高速化して最速!」とかやってないってのもあるけど
GPUで組んだ手法と既存の手法を比べる場合、既存のほうはベーシックにしろと指導された。 複数CPUだとかSSEを使ってガチガチに最適化した手法と比べちゃうと基準が分からなくなるからだと。 他の高速化との差を知りたければその論文と比較しろということだと思う。 CPU最適化して無いなんて糞というのも分かるけど、こういうところもあるということで。
- 615 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 08:30:23 ]
- コードの比較もいろいろだよな。
同じアルゴリズムを採用しても、CPUでも書き手によってGPUでも明らかに差が出てくる。 でもGPUを使う場合、多くの場合はCPUよりも速くなりました。というのが目的な訳で、 CPUの方が速いならあえてGPUを使う必要はないからね。 基準が曖昧になるのもわかるけど、そもそも基準が曖昧な気がするなあ。 場合によってはかなり恣意的になることもあるし・・・・。
- 616 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 10:07:52 ]
- Femiやばいまた延期確定かも
- 617 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 11:37:52 ]
- 一般人が入手できるのは1年後になる可能性もあるらしいね
- 618 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 11:44:04 ]
- なんでそんな度々延期になるの
- 619 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 12:14:45 ]
- >>618
ペーパーロンチで実際開発が 行われていないからだよ
- 620 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 13:17:36 ]
- 今回のケースは大きな欠陥があることを知りながら、小手先の改良でなんとかしようとして
「完成品」を大量生産をして、まとにチップが取れなかったのが原因だろ 1%程度とされる歩留まり率で、1チップ当たり5000ドルの原価 これでは商売にならないね
- 621 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 13:39:05 ]
- 3/19に東工大青木先生がCUDA Fortranのセミナやるんだって
- 622 名前:デフォルトの名無しさん mailto:sage [2010/02/20(土) 13:40:57 ]
- 関係者の宣伝おつ
- 623 名前:デフォルトの名無しさん mailto:sage [2010/02/23(火) 08:21:59 ]
- 青木先生に集客されたくねえなあ正直
- 624 名前:デフォルトの名無しさん mailto:sage [2010/02/23(火) 22:06:44 ]
- nexusをリモートで動かそうとしたが、ブレークポイントでとまらねぇ・・・。
色々試したがどうにも解決しないので教えてください。 状況としては、nexusのユーザーズガイドに沿って設定。 ためしにnexusサンプル動かそうとしたら、 ランタイムAPIプロジェクトはGetDeviceで引数に0が。 で、次の行で落ちる。 DriveAPIは落ちない。んでホスト側の画面右下に青いポップアップ出て、 ターゲットマシンにコンソール画面出てるのでプログラムは正常に動いてるっぽい。 でもカーネル関数内にブレークポイント置いても止まらず。 自分でSDKサンプルのプロジェクトの設定変えて試しても同じ。 マシン環境はこんな感じ。 ホストマシン Vista 64bit SP2 .Net3.5 SP1 Host nexus1.0(jan 64bit) GPU FX570 VC++ 2008 SP1 DirectX10 August 09 CUDA SDK2.3 32bit CUDA ToolKit2.3 32bit
- 625 名前:続き mailto:sage [2010/02/23(火) 22:08:57 ]
- ターゲットマシン
Vista 64bit SP2 .Net3.5 SP1 Target nexus1.0(jan 64bit) GTX285 VC++ 2008 DirectX 10 August 09 CUDA SDK2.3 32bit 他に設定としてはEnable Security Serverをfalse nexus→option→Enable secure connectionをfalseにしてます。 使い方は、ホストマシンでVC起動→プロジェクト読み込み→nexusデバッグ ターゲットマシンはデバッグモニタ起動のみ。 どこがおかしいのだろう?
- 626 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 22:31:24 ]
- Fermi終了したらこのスレも終了するんかなあ
- 627 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 23:16:54 ]
- the launch date for GeForce GTX 480 and GTX 470 is March 26
- 628 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 12:42:26 ]
- >>627
ペーパーリリースで全世界で1万枚以下の出荷といううわさだけどね 一般人が手に入れられるようになるのは、下手をすると来年 良くて年末という予想がある
- 629 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 13:15:26 ]
- やっぱ、シリコン丸ごと改良しないとだめなんか。
半分ダメで256コアでもいいんだけどww
- 630 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 20:23:58 ]
- 俺はNexusインストールすらできなかった
- 631 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 22:02:09 ]
- 消費電力280Wだっけ。。。GTX480
- 632 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 23:43:58 ]
- アム虫キモ
- 633 名前:625 mailto:sage [2010/02/26(金) 23:13:31 ]
- もうよくわからんからnexusのエミュモードでやることにした。
カーネル関数内でブレークするし、値もちゃんと表示されてそう。 >>630 OS対応してないとか?Vistaか7しかできない。 あとはOSとnexusのbitが違うとか。
- 634 名前:デフォルトの名無しさん mailto:sage [2010/02/27(土) 19:37:59 ]
- >>633
インストーラがVS2008 SP1入れてあるのに読み取ってくれなくて、 インストールができない状態だった。 Microsoftからダウンロードしたばっかりのイメージを使ってインストールしたから 当然SP1はあたっているものかと思っていたらあたっていなかった、っていう初歩的なミスだった。 ちょっくら遊んでくる
- 635 名前:デフォルトの名無しさん mailto:sage [2010/03/05(金) 11:16:51 ]
- ,. -‐'''''""¨¨¨ヽ
(.___,,,... -ァァフ| あ…ありのまま 今 起こった事を話すぜ! |i i| }! }} //| |l、{ j} /,,ィ//| 『おれはNvidiaにARE YOU READY?と言われて i|:!ヾ、_ノ/ u {:}//ヘ 準備していたら準備しているのはNvidiaの方だった』 |リ u' } ,ノ _,!V,ハ | /´fト、_{ル{,ィ'eラ , タ人 な… 何を言ってるのか わからねーと思うが /' ヾ|宀| {´,)⌒`/ |<ヽトiゝ おれも何をされたのかわからなかった ,゙ / )ヽ iLレ u' | | ヾlトハ〉 |/_/ ハ !ニ⊇ '/:} V:::::ヽ 頭がどうにかなりそうだった… // 二二二7'T'' /u' __ /:::::::/`ヽ /'´r -―一ァ‐゙T´ '"´ /::::/-‐ \ 128bitメモリバスだとかリネームテクノロジーだとか / // 广¨´ /' /:::::/´ ̄`ヽ ⌒ヽ そんなチャチなもんじゃあ 断じてねえ ノ ' / ノ:::::`ー-、___/:::::// ヽ } _/`丶 /:::::::::::::::::::::::::: ̄`ー-{:::... イ もっと恐ろしいものの片鱗を味わったぜ…
- 636 名前:デフォルトの名無しさん mailto:sage [2010/03/06(土) 00:09:36 ]
- GTX480がそこそこ出回るらしい(core数は当初想定よりも少なくなる可能性があるが)
Fermiアーキテクチャを思っていたよりも早い時期に体験出来る可能性が出てきた
- 637 名前:デフォルトの名無しさん mailto:sage [2010/03/06(土) 20:59:14 ]
- Fermi火事出すだろうな
電気食いすぎだ
- 638 名前:デフォルトの名無しさん mailto:sage [2010/03/07(日) 10:23:33 ]
- GF100(GTX480, 470)は高電力でお値段も高めになるだろうから、
Fermiアーキテクチャをとにかく早く試したい人以外はその次のGF104がいいと思う
- 639 名前:デフォルトの名無しさん mailto:sage [2010/03/07(日) 11:05:46 ]
- 半分だけの460とか出ないかな?
- 640 名前:デフォルトの名無しさん mailto:sage [2010/03/07(日) 11:26:00 ]
- この辺りの情報がそれかも知れん
The AMD's Cafe:ローコストなFermiやQuadroについて - livedoor Blog(ブログ) blog.livedoor.jp/amd646464/archives/51525107.html まだまだ先のようだ
- 641 名前:デフォルトの名無しさん mailto:sage [2010/03/07(日) 15:31:52 ]
- 売り物にならない奴はQuadro逝きか。
OpenGL市場ってほんと舐められてるな。 ゲイツに縛られない自由なAPIだったはずなのに。
- 642 名前:デフォルトの名無しさん mailto:sage [2010/03/09(火) 00:29:10 ]
- www8.plala.or.jp/b4zabeat/
- 643 名前:デフォルトの名無しさん mailto:sage [2010/03/09(火) 23:19:41 ]
- このレビューは何が言いたいのかよくわからんかった
pc.watch.impress.co.jp/docs/column/nishikawa/20090518_168541.html
- 644 名前:デフォルトの名無しさん mailto:sage [2010/03/16(火) 00:53:46 ]
- CUDA上の命令がどれくらいのクロックで動くかまとめられていませんか?
整数の乗算やら三角関数はプログラミングガイドに載っていたのですが,ほかの命令も知りたいです
- 645 名前:デフォルトの名無しさん mailto:sage [2010/03/16(火) 08:46:48 ]
- 「どのくらい」でいいなら実測すればいいかと
- 646 名前:デフォルトの名無しさん mailto:sage [2010/03/16(火) 16:42:16 ]
- エミュレーションモードでやるとうごくのですが、GPUをつかうと動きません。
const int c = border + (blockDim.x * blockIdx.x + threadIdx.x) * step * 2; const int r = border + (blockDim.y * blockIdx.y + threadIdx.y) * step * 2; const int i = 1; // atomicAdd(&count[0], 1);//ここでは動くのでatomicAddの問題ではない if(c >= i_width - border || r >= i_height - border) return; int i_max = -1, r_max = -1, c_max = -1; float max_val = 0; for (int ii = i; ii < min(i+2, intervals-1); ii += 1) for (int rr = r; rr < min(r+2*step, i_height - border); rr += step) for (int cc = c; cc < min(c+2*step, i_width - border); cc += step) { float val = getVal(d_m_det, o, ii, cc, rr, i_width, i_height); if (val > max_val) { max_val = val, i_max = ii, r_max = rr, c_max = cc; } } // Check the block extremum is an extremum across boundaries. /***********ここでd_iptsにiptを加えてもうごく*********/ // float4 ipt ; // d_ipts[atomicAdd(&counter, 1)] = ipt; if (max_val > 0.0004f && i_max != -1 && isExtremum(d_m_det,o, i_max, c_max, r_max, i_width, i_height, intervals)) { float4 ipt = interpolateExtremum(d_m_det, o, i_max, r_max, c_max, i_width, i_height); if(ipt.x >= 1) { d_ipts[atomicAdd(&counter, 1)] = ipt;//ここの行をコメントアウトすると動く ipt.x += 1; }} 最後のif文の中でd_iptsやcountにアクセスするのがだめっぽいのですが・・・ なにかif文を書いたときに同じような症状になった方や、これを見ただけでわかる方いらっしゃったら、教えてください。 よろしくおねがいします。
- 647 名前:デフォルトの名無しさん mailto:sage [2010/03/16(火) 23:39:20 ]
- とりあえず問題になってるatomicAdd(&counter, 1)の戻り値調べようか
- 648 名前:デフォルトの名無しさん mailto:sage [2010/03/17(水) 00:13:02 ]
- counterの宣言にちゃんと__device__は付いているのだろうか・・・
- 649 名前:646 mailto:sage [2010/03/17(水) 00:40:32 ]
- >>647
エミュレーションで確認したところ戻り値はcounterと同じ値になっていました。 実際にGPUでうごかすと、 counterをデバイスからホストへ送るところでunspecific launchとなるか、 永久ループに入るか何かで画面が固まり、ブルースクリーンになって落ちます。 >>648 _device_をつけてグローバル変数(っていうのかわからないけど)として定義しています。
- 650 名前:デフォルトの名無しさん mailto:sage [2010/03/17(水) 09:55:20 ]
- その反応だとアクセス違反のときが多いのだがそんなことないよな?
- 651 名前:デフォルトの名無しさん [2010/03/17(水) 13:42:58 ]
- CUDAでつかうlong doubleってWindowsとLinuxでサイズは違うの?
- 652 名前:デフォルトの名無しさん [2010/03/18(木) 00:14:29 ]
- >>650
アクセス違反ってcounterの位置がおかしいってことですか? このプログラムをいれずに単にcounterをデバイスからホストに送ることは可能でした(初期値として0をおくっていたので0が帰ってきていました)。 つまり、このプログラムのようにatomicAddをif文とか分岐が多くなるような文章内でつかうと、 今回でいえばcounterのアドレスがかわるということですか??
- 653 名前:デフォルトの名無しさん [2010/03/19(金) 07:46:47 ]
- パスワードクラックでTeslaがHD5970に完敗
www.geeks3d.com/20100316/radeon-hd-5970-the-ultimate-password-cracking-hardware/ www.geeks3d.com/public/jegx/201003/elcomsoft-wpa-psk-password-test.jpg
- 654 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 10:12:59 ]
- Dual-GPUとSingle-GPUを比べてる時点でアウト
- 655 名前:デフォルトの名無しさん [2010/03/19(金) 10:34:24 ]
- 1スロットどうしの比較だから問題ない
- 656 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 11:09:41 ]
- >>655
それを言い出すと、TeslaDが出てくるぞ。ブリッジ自体は1スロットだからなw
- 657 名前:デフォルトの名無しさん [2010/03/19(金) 11:22:52 ]
- はいはい、負け惜しみ
単純な計算性能では圧倒的にラデオンのほうが優れているんだよ
- 658 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 11:32:44 ]
- 比較対象にHD5870が入っていない時点で
なんか違和感があるんだが
- 659 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 11:37:34 ]
- Tesla C1070ってなに?Fermi?
- 660 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 11:42:09 ]
- www.elsa-jp.co.jp/products/hpc/tesla_s1070/index.html
これ
- 661 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 11:42:32 ]
- GT200じゃなかった?
- 662 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 14:33:49 ]
- ttp://developer.nvidia.com/object/gpucomputing.html
CUDA Programming Guideがリンク切れしているんですが 誰か正しいアドレスを知りませんか
- 663 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 18:21:58 ]
- 高い・遅い・熱い
- 664 名前:デフォルトの名無しさん mailto:sage [2010/03/19(金) 18:52:10 ]
- S1070ってGT200×4の奴だろ。
- 665 名前:デフォルトの名無しさん [2010/03/20(土) 17:28:11 ]
- CUDA 3.0 Downloads
developer.nvidia.com/object/cuda_3_0_downloads.html
- 666 名前:デフォルトの名無しさん mailto:sage [2010/03/20(土) 18:02:54 ]
- CPUでの計算にインテルコンパイラを使いたいのですが、どのようにすればいいのでありまするか?
- 667 名前:662 mailto:sage [2010/03/20(土) 20:32:56 ]
- >>665
ありがとうございます
- 668 名前:デフォルトの名無しさん mailto:sage [2010/03/20(土) 20:52:01 ]
- >>666
nvcc -cで*.cuをコンパイルしたら、できた*.oをiccでリンクすればいい。 Windowsの場合はnvccもiccも別々にオブジェクトを作ることになるからそれをVCでリンク。
- 669 名前:デフォルトの名無しさん mailto:sage [2010/03/20(土) 21:52:07 ]
- 利用者はCUDAなんて独占的技術を求めてませんよね
- 670 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2010/03/20(土) 22:52:58 ]
- まして永久β版のSDKなんて論外
- 671 名前:デフォルトの名無しさん mailto:sage [2010/03/20(土) 23:30:36 ]
- まあ利用者だけが決めるわけでもないのも悲しいけど現実なのよね
- 672 名前:デフォルトの名無しさん mailto:sage [2010/03/21(日) 04:48:10 ]
- なんか面白いことに使えないかな
もったいない
- 673 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2010/03/21(日) 08:27:51 ]
- 「何かには使える」って言ってるうちは何にも使えないまま終わるんですけどね。
ターゲットアプリケーションがあってはじめて、そのニーズに合わせてハードの機能・性能の拡充が行われうるわけで 今までであればゲームがそうだった。 ウン十並列のデータを同時処理するような用途のニーズが仮に高まってるとしても それはCPUのSIMD拡張によってもカバーできるでしょ
- 674 名前:デフォルトの名無しさん [2010/03/21(日) 08:51:43 ]
- Linuxでドライバのバージョンを調べる方法を教えてください
- 675 名前:デフォルトの名無しさん mailto:sage [2010/03/21(日) 08:58:16 ]
- もう少し具体的に聞かないと・・・・。
- 676 名前:デフォルトの名無しさん [2010/03/21(日) 09:00:06 ]
- ドライバのバージョンによって、振る舞いを変えたいので、
UbuntuでGPUのドライバのバージョンをプログラム上から調べる方法を教えてください
- 677 名前:デフォルトの名無しさん mailto:sage [2010/03/21(日) 09:22:25 ]
- Ubuntu限定な必要があるかどうかはともかく、ドライバ自体のバージョンを知るAPIは用意されていません。
/usr/lib64のディレクトリでlibcuda.so.* のレギュラーファイルを探すのが確実かと思います。
- 678 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2010/03/21(日) 09:33:40 ]
- CUDA実行環境がインストールされてるかどうかを調べてライブラリを遅延ロードできるような仕組みを
標準で用意して欲しいかな
- 679 名前:デフォルトの名無しさん mailto:sage [2010/03/21(日) 20:24:40 ]
- CUDA3.0
ttp://developer.nvidia.com/object/cuda_3_0_downloads.html
- 680 名前:デフォルトの名無しさん mailto:sage [2010/03/21(日) 21:52:46 ]
- Fermi対応版か
肝心のブツが手元にまわってくるかも怪しいのに
- 681 名前:デフォルトの名無しさん mailto:sage [2010/03/21(日) 22:30:11 ]
- deviceQueryがあるじゃん
- 682 名前:デフォルトの名無しさん mailto:sage [2010/03/22(月) 02:31:14 ]
- Fermiは、入手しやすくなるまで松わ。
初物は爆熱で卒倒価格だろうし。
|

|