1 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 11:13:52 ] このスレッドは、他のスレッドでは書き込めない超低レベル、 もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage www.nvidia.com/cuda 関連スレ 【GPGPU】NVIDIA CUDA質問スレッド pc11.2ch.net/test/read.cgi/tech/1190008468/ GPUで汎用コンピューティングを行うスレ pc11.2ch.net/test/read.cgi/tech/1167989627/ GPGPU#2 pc11.2ch.net/test/read.cgi/tech/1188374938/
604 名前:デフォルトの名無しさん mailto:sage [2009/04/22(水) 23:07:34 ] CUDAとOpenCLの認識の仕方として、 抽象レイヤ的にこんな感じかな?? APP -------- C/C++ -------- OpenCL -------- CUDA -------- driver and runtime
605 名前:,,・´∀`・,,)っ-○◎○ mailto:sage [2009/04/23(木) 06:04:45 ] >>603 見た目簡単そうに見えて実は使いづらくて、本質はCellよりも更に応用分野は厳しいからね。 「CPUの数十倍とか言ってたけど全然遅いじゃん!」で、使い方を理解しないままみんな匙j投げる いや、使い方がわかったところで、その正しい使い方が、本質的に目的のアプリケーション向きじゃなかったり。
606 名前:デフォルトの名無しさん mailto:sage [2009/04/23(木) 07:22:35 ] そうそう、その演算だけに絞れば確かに速いんだけど、アプリケーション全体で見るとXeonに勝てなかったりね。 ボードメーカ側も自覚しているらしく、私の客先でのCUDA開発は2チップGPUボード4枚挿しするところまでいってしまっているし。
607 名前:デフォルトの名無しさん mailto:sage [2009/04/23(木) 09:11:40 ] どうせララビーも期待外れに終るさ
608 名前:デフォルトの名無しさん mailto:sage [2009/04/23(木) 16:09:19 ] nv社員乙w
609 名前:デフォルトの名無しさん mailto:sage [2009/04/23(木) 20:57:12 ] Larrabeeは、たかがx86、されどx86だな Atomに毛が生えたような小規模なx86コアが数十コアあったら何が出来る? 汎用プロセッサとしては程度が知れてる分、逆に落胆しようがない。 良くも悪くも身の丈以上の期待はされてないからな。
610 名前:デフォルトの名無しさん mailto:sage [2009/04/23(木) 21:20:24 ] 流れをぶった切るが GeforceはCELLより変態的な構造って認識でおk?
611 名前:,,・´∀`・,,)っ-○◎○ mailto:sage [2009/04/23(木) 21:43:53 ] 餅は餅屋
612 名前:デフォルトの名無しさん mailto:sage [2009/04/23(木) 23:47:54 ] 色々調べて見たけど結局CUDAのsuper piはまだ出てないんだな CPUとGPUの比較が出来ると思ったのに
613 名前:デフォルトの名無しさん mailto:sage [2009/04/24(金) 05:23:51 ] むしろスーチーパイがもっとリアルにぬるぬる動けば…
614 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/04/24(金) 06:37:53 ] >スッチーのπ まで読んだ とりあえずPTXの自己コンパイルは最低限だろ どっかの営業さんが言うにさ 「たとえCPUより速くなくとも、CPUでやってる仕事を肩代わりしてやることが 出来るだけでも使う価値があるんじゃないでしょうか」 いや、それのお膳立てのためにCPU時間食うから本末転倒なのよ。
615 名前:デフォルトの名無しさん mailto:sage [2009/04/24(金) 06:44:16 ] >「たとえCPUより速くなくとも、CPUでやってる仕事を肩代わりしてやることが >出来るだけでも使う価値があるんじゃないでしょうか」 そういうことを臆面もなく語る営業マンを一人知っているんだけどw 同一人物と考えてよさそうだな。
616 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 00:58:56 ] 肩代わりしてやるなんて大それたことを無理に言い張るから、おかしくなるんだよね。 重要なのは、CPUとGPUとが各々の得意分野を担当し、住み分けをすることだろう。 GPUは汎用計算に向いていないのだから無理にGPUを使わずCPUを使えばいいし、 3Dゲームや科学技術計算などGPUの方が効率的な計算でGPUを使えばいいんだよ。 いわゆるアインシュタインとタイピストの喩えだ。 アインシュタインが優れた物理学論文を清書してもらうためにタイピストを雇ったら、 なんとまあそのタイピストよりアインシュタインの方がタイプが速かったとしよう。 じゃあ、そのタイピストを解雇すべきか?答えは否だ。タイプはタイピストに任せ、 アインシュタインは少しでも長い時間、優れた物理理論を考え出すことに費やすべきだ。 それが最も効率がいい。
617 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 01:48:13 ] >>615 営業ならだいたい同じこと言うんじゃねぇか?
618 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 03:57:19 ] >>616 >答えは否だ。 いや、答えは科研費の額によるだろうw
619 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 05:08:45 ] >>616 タイピストに指示だすのに、タイプするのと同じような時間がかかるから問題なんじゃね?
620 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/04/25(土) 06:42:29 ] 清書する段階で更に考えても無駄だろう
621 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 15:20:06 ] CPUを管理職、GPUを部下に例えてみよう。 CPUからGPUへの指示の中身が足りなかったりすると CPU-GPU間のやりとりが増えてしまい遅くなる。 CPUから指示する内容がGPUの能力を超えると なかなか結果が返ってこない。 逆にCPUの能力が低いとGPUへの指示や対応が遅くなる。 GPUの仕事に信用がおけないとCPU側でのチェックが 必要となり負荷となる。 GPUはCPUほど守備範囲は広くないし経験も少ない。 よいCPUやGPUを入手するには予算が必要である。 またCPU、GPUを動かし続けるには経費がかかる。(電気代、冷却設備) あまり負荷をかけるとうるさくなったり、たまに壊れたりする。 overclockによる故障は保証の範囲外であることに注意。
622 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 15:22:15 ] GPUのIPコアが強化されれば良いんだが。 それをしようとして、intelに待ったを掛けられたんかな。
623 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 16:40:02 ] チップセットのバスライセンスと何の関係が?
624 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 18:21:57 ] たとえ話にすると細部の理解が必要ないから生半可な知識でも初心者が騙せて優越感に浸れてうめぇw っていつも思う。
625 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 21:11:34 ] CPUとGPUは、お互いに交わる方向で じきに差は無くなるんだろ GPUいらねでおわりじゃねーの
626 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 21:13:38 ] 昔GPGPUスレに書いたが、別のパラメータで同じコンテキストの処理をするようなときに 高速に処理できるのがGPUの利点。 別々のコンテキストが必要なら、丁度良いマルチプロセシングの環境を探しなさい。 どちらも歩み寄っているようだけど、ゲーム屋的には、現行世代機的なトランジスタ バランスのマシンが次世代にも欲しいところ。
627 名前:626 mailto:sage [2009/04/25(土) 21:15:48 ] >>625 似たようなコストで作れるならな。 見当付いてるなら特許とって今すぐ始めるのがいいぞ。
628 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/04/25(土) 22:56:05 ] GTX280って28SMじゃなかったか?
629 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/04/25(土) 22:57:21 ] 260のほうか 280は30か
630 名前:デフォルトの名無しさん mailto:sage [2009/04/26(日) 17:16:50 ] >>619 常識的に考えてそんなことは起こらんだろ。 仮にタイピストに指示だすのにタイプするのと同じくらい時間がかかるなら、 それはこの喩えが適用できないケースだってだけの話だろう。 GPUに命令だすのにGPUで計算するのと同じくらいCPU時間がかかるなら、 そりゃGPUを使うのが不適切なケースだってだけのこと。 >>620 いや、清書してもらうのは既に考え出した理論であって、アインシュタインは タイピストが清書してる間に次の理論を考えるんだよ。
631 名前:デフォルトの名無しさん mailto:sage [2009/04/26(日) 17:24:31 ] たとえ話にすると細部の理解が必要ないから生半可な知識でも初心者が騙せて優越感に浸れてうめぇw っていつも思う。
632 名前:,,・´∀`・,,)っ-○◎○ mailto:sage [2009/04/26(日) 17:34:27 ] >>631 に全面的に同意
633 名前:デフォルトの名無しさん mailto:sage [2009/04/26(日) 18:23:11 ] >>624 >>631
634 名前:デフォルトの名無しさん mailto:sage [2009/04/26(日) 23:38:55 ] >>625 ジョンカーマックが昔言ってたわな。それ。 ま、今は宇宙大好きっ子になっちまったが。
635 名前:デフォルトの名無しさん mailto:sage [2009/04/27(月) 01:38:03 ] >>630 GPUを使うのが不適切なケースばっかりなのが問題。
636 名前:デフォルトの名無しさん mailto:sage [2009/04/27(月) 09:13:30 ] アインシュタインは一人しかいないけど、CPUとGPUがアインシュタインとタイピストのような関係なら、 CPU増やせばいいんじゃね?無理にGPUにしなくても。
637 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/04/27(月) 21:24:06 ] なんにも出来ないのになんでも出来ますと宣伝してるから問題なわけで。
638 名前:デフォルトの名無しさん mailto:sage [2009/04/28(火) 09:16:56 ] そらあんた、ドラッグレーサーをそれなりに走らせるためには適当なコースとそこまで運ぶためのトランスポーターと 燃料などの消耗品が必要になりますがな。 >>638 >631
639 名前:デフォルトの名無しさん mailto:sage [2009/04/28(火) 12:52:26 ] >>637 団子 自己紹介、乙。
640 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/04/28(火) 21:36:19 ] だんごやさんだよ だんごせんもんてんだよ
641 名前:デフォルトの名無しさん [2009/04/29(水) 15:05:31 ] AviUtlがCUDAに対応するのを待つか…
642 名前:デフォルトの名無しさん mailto:sage [2009/04/30(木) 21:33:03 ] 某フィルタでシェーダで書いたより遥かに遅くて駄目だしされたような
643 名前:デフォルトの名無しさん mailto:sage [2009/05/03(日) 00:16:21 ] 今日、CUDASDK入れてみた。CudaSetup-2.1とNVIDIA_SDK10_CUDA_2.10の入れる順番なのか 環境変数でコンパイルエラー、何度かやっているうちになんとか、サンプルが起動できるようになった。 SDKのサンプルはどこにインストールしているんだ アホか C:\に持ってきた。 サンプルへのパスを追加してやっとコンパイル、起動できた。
644 名前:デフォルトの名無しさん mailto:sage [2009/05/03(日) 00:24:59 ] >>643 2.1のサンプルって意味不明なとこおかれるよね。 VistaのUAC対策かと勝手に思ってるけど。
645 名前:デフォルトの名無しさん mailto:sage [2009/05/03(日) 06:12:04 ] NVIDIAは昔っから何でもそう。 ドライバも一旦C:\に展開してからインスコしてくださりやがる。 まぁ、GCCやそれ用のライブラリが、スペースの入ったパスを 嫌うからかも試練。
646 名前:デフォルトの名無しさん mailto:sage [2009/05/04(月) 00:48:26 ] 2.0はちゃんとProgram Files配下に置かれてたよ。
647 名前:デフォルトの名無しさん mailto:sage [2009/05/04(月) 23:00:36 ] >>635 GPUはゲームや科学技術計算では実績をあげているので、 不適切なケースばかりではないだろう。 >>636 アインシュタインという不世出の天才物理学者と タイピストという(当時は)いくらでもいた職業を 比較しているのが、この喩えの肝なんだよ。 CPUのコアを1個増やすより、GPUのSPを1個 (10個でもいい)増やす方が、ずっと簡単だろう。
648 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/05/04(月) 23:23:48 ] 別にCPUコアなんて年間何億個でも量産できるだろ
649 名前:デフォルトの名無しさん mailto:sage [2009/05/05(火) 05:38:26 ] タイピストが何人もいても意味無いだろw
650 名前:デフォルトの名無しさん mailto:sage [2009/05/05(火) 22:12:00 ] こんなコア橋の下に捨てますよ!
651 名前:デフォルトの名無しさん mailto:sage [2009/05/06(水) 08:41:31 ] Compute Capability 1.3 の GeForce って、GTX だけ? GTS とかはだめなの? ファンがうるさいのはやだな〜
652 名前:デフォルトの名無しさん mailto:sage [2009/05/06(水) 12:29:08 ] GTSは9800シリーズのリネーム
653 名前:デフォルトの名無しさん mailto:sage [2009/05/09(土) 23:52:17 ] 初歩的なこと聞くけど、これってグラボ一台でもできるよね? 表示用と別にCUDA専用のグラボって必要?
654 名前:デフォルトの名無しさん mailto:sage [2009/05/10(日) 06:05:44 ] >>653 その程度が分からないと厳しいかと思いますよ。 分からなくても、やってみて駄目だったら買い足すってことで問題ないと思うけど。
655 名前:デフォルトの名無しさん mailto:sage [2009/05/10(日) 12:20:36 ] >>653 ttp://ja.wikipedia.org/wiki/CUDA#.E3.83.8F.E3.83.BC.E3.83.89.E3.82.A6.E3.82.A7.E3.82.A2
656 名前:デフォルトの名無しさん mailto:sage [2009/05/10(日) 18:27:35 ] >>655 赤くなっている。。。 GTS250持っているからできると思ったんだけど、二台必要なのかな? GPUGRIDに参加しようかと思ったらドライバ入れてるのにCUDA対応のデバイスが見つかりませんっていわれるし・・・・。
657 名前:デフォルトの名無しさん mailto:sage [2009/05/10(日) 20:56:39 ] 1台でも使える。 ただ処理中に画面が固まってOSが制御不能になることがある。
658 名前:デフォルトの名無しさん mailto:sage [2009/05/10(日) 21:24:34 ] >>657 うーん、CUDAがちゃんと入ったかどうか確認する方法ってありますか?
659 名前:デフォルトの名無しさん mailto:sage [2009/05/11(月) 15:35:15 ] PyCUDAなんてあるのか、おもしろそう
660 名前:,,・´∀`・,,)っ-○◎● mailto:sage [2009/05/11(月) 20:57:31 ] RuCUDAが必要だな
661 名前:デフォルトの名無しさん mailto:sage [2009/05/11(月) 21:41:12 ] >>656 参加したいGPUGRIDがどんなのか分からんが、 もし、倍精度浮動小数点の演算が必要なものなら、 GTX200シリーズじゃないと無理。 ちなみに、モニタがつながっているかPhysX指定がされてないと、 CUDAでデバイス列挙されないぽい。
662 名前:デフォルトの名無しさん mailto:sage [2009/05/12(火) 01:29:13 ] Py損とかルビィとか手続き型スクリプト言語は向かんだろ。 ocamlとか、Earlangとかの関数型言語をGPGPU対応に した方が御利益は大きいんじゃね? 並列計算の場合、副作用とか、計算の依存関係が有ると 性能出ないんで…。
663 名前:デフォルトの名無しさん mailto:sage [2009/05/12(火) 22:31:21 ] Earlang(笑)
664 名前:デフォルトの名無しさん mailto:sage [2009/05/16(土) 00:29:01 ] 統計解析ソフト「R」用のパッケージ「gputools」: ttp://cran.r-project.org/web/packages/gputools これのWindows版バイナリを作ってくださるネ申はいらっしゃいませんでしょうか。 m(゚-゚;)カミサマ…
665 名前:デフォルトの名無しさん mailto:sage [2009/05/16(土) 10:27:22 ] >>660 こんなのはあるみたいですが ruby-opencl.rubyforge.org/
666 名前:デフォルトの名無しさん mailto:sage [2009/05/18(月) 17:38:13 ] GPUの計算部分で レジスタを多く使っちゃうようにコンパイラで最適化されちゃうんだけど 部分的に無効にする方法はありませんか?
667 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/05/18(月) 20:36:57 ] volatile
668 名前:デフォルトの名無しさん mailto:sage [2009/05/18(月) 23:05:56 ] >>667 ?volatileは最適化から外すだけで、レジスタには適応されるっしょ つか>>666 のレジスタ使ったら嬉しくない事ってのが想像できない。。。
669 名前:デフォルトの名無しさん mailto:sage [2009/05/18(月) 23:42:16 ] >>648 SPだって年間何億個でも量産できるけど。 >>649 誰も、GPUを何個も用意しろとは言ってない。
670 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/05/18(月) 23:56:12 ] >>668 volatile __shared__
671 名前:デフォルトの名無しさん mailto:sage [2009/05/19(火) 09:21:51 ] >666の動機によっては__shared__では何の解決にもならないような。 確認していないけれど、恐らくレジスタを使い回さずに消費しまくる方が速いんだろうねぇ。
672 名前:デフォルトの名無しさん mailto:sage [2009/05/26(火) 14:36:24 ] SP2+未公開パッチで7RC以上に軽くなってるよ Windows Vista SP3 Part1 pc12.2ch.net/test/read.cgi/win/1241571715/225
673 名前:デフォルトの名無しさん mailto:sage [2009/05/26(火) 14:38:56 ] ゴバーク
674 名前:デフォルトの名無しさん mailto:sage [2009/05/29(金) 18:11:27 ] SSE 4コアフルに使ったら 最上位品でも大差ないw
675 名前:デフォルトの名無しさん mailto:sage [2009/05/30(土) 15:06:57 ] code.google.com/p/thrust/ >Thrust is a CUDA library of parallel algorithms with an interface resembling the C++ Standard Template Library (STL).
676 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/05/30(土) 18:16:26 ] きた!STLきた!これで勝つる! ないない
677 名前:デフォルトの名無しさん mailto:sage [2009/05/30(土) 21:28:10 ] brookみたいだな。
678 名前:デフォルトの名無しさん [2009/06/02(火) 17:20:15 ] 仮想マシン上でCUDAのインストールに成功した方はいらっしゃいますか? 当方、ホストOS:Vista、ゲストOS:Ubuntu8.04です。 仮想マシンであるUbuntu上で、NVIDIAドライバ: NVIDIA-Linux-x86-180.22-pkg1.runを起動してみました。 すると、「 You do not appear to have an NVIDIA GPU supported by the 180.22 NVIDIA Linux graphics driver installed in this system」とエラーがでました。 GPUは、GeForce 9800 GTです。どなたか、アドバイスお願いします。
679 名前:デフォルトの名無しさん mailto:sage [2009/06/02(火) 17:50:02 ] 仮想マシンは無理
680 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 02:45:20 ] >>675 合計なんかCUDAでやって早くなるのか?
681 名前:,,・´∀`・,,)っ-○○○ mailto:sage [2009/06/03(水) 02:49:18 ] 分割統治法は並列化の基本だな
682 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 10:53:10 ] 合計求めるのは苦労したなぁ。 結局、分割数(128とか256とか)置きに足していって、その結果はPCで足した記憶がある。
683 名前:デフォルトの名無しさん mailto:sag [2009/06/03(水) 11:18:35 ] とりあえず公式の3つをインストールしたのですがTMPGEncで確認できませんみたいなことを言われました。 インストールするだけではcudaの恩恵を与れないのでしょうか?
684 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 11:31:01 ] すいません、直ぐ解決しましたorz クダがちゃんと動いているか確認したいのですが方法はありますでしょうか?
685 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 11:57:52 ] >>684 SDKをインストールしたのなら、サンプルもインストールしてビルドしてみよう。サンプルが動けば、大丈夫。 # 特に、deviceQueryは便利。
686 名前:デフォルトの名無しさん [2009/06/03(水) 14:12:00 ] こんにちは。CUDA初心者です。質問があります。 Visual C++ 2008、CUDA tool kit ver2.1、CUDA SDK ver2.1 で、サンプルのsimpleCUBLASをビルドすると、 1>LINK : fatal error LNK1181: 入力ファイル 'cutil32D.lib' を開けません。 と出ます。 そこで、CUDA SDKのlibを調べたところ、 cutil64D.libがあり、32のほうはありませんでした。 この場合、どうすればビルドできるのでしょうか?
687 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 15:00:01 ] リリースバージョンをリンクする。
688 名前:デフォルトの名無しさん [2009/06/03(水) 16:01:01 ] リリース構成でビルドしたところ、今度は、 1>LINK : fatal error LNK1181: 入力ファイル 'cutil32.lib' を開けません。 と出ました。 CUDA SDKには、64があり、32はありません。 32と64の違いって一体何なのでしょうか・・・
689 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 16:17:51 ] パスが通ってないんだろ
690 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 17:07:17 ] OSが64bitだと、32bitのCUDAライブラリはインストールされなかったような。
691 名前:デフォルトの名無しさん [2009/06/03(水) 17:07:40 ] ご回答ありがとうございます。 パスが通っていないということですが、 「パスを通す」について、詳しく説明していただけませんか? 知識不足で申し訳ありません;;
692 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 17:43:34 ] 環境を名に使ってるかによるが、 Visual Studioだとプロジェクトのプロパティからインクルードするファイルがあるディレクトリのパスと、 libがあるディレクトリのパスをついかする linuxだとコンパイラのオプションに追加する 詳しくはぐぐれ
693 名前:デフォルトの名無しさん [2009/06/03(水) 18:04:37 ] 何度も回答していただきありがとうございます。 リンカの追加ライブラリを調べたところ、 ちゃんと、SDKのcommon/libが指定されてました。 しかし、この中には、cutil32.libではなく、64があります。 ということは、690さんのおっしゃるとおり、 32bitのCUDAライブラリはインストールされなかったということなのでしょうか? もしそうでしたら、サンプルプログラムは64bitに対応してないが、 自分でプログラムを作る分には、上記のようなエラーはでないということでしょうか?
694 名前:デフォルトの名無しさん mailto:sage [2009/06/03(水) 23:53:30 ] サンプルのリンカ設定を編集して64bitのライブラリをリンクすればいいんじゃね?
695 名前:デフォルトの名無しさん [2009/06/04(木) 13:12:53 ] アクティブソリューションプラットフォームとプラットフォームをWin32からx64へ変更したところ、 エラーがなくなりました。 そのかわり、 1>------ ビルドのスキップ: プロジェクト: simpleCUBLAS ------ 1> ========== ビルド: 0 正常終了または最新の状態、0 失敗、1 スキップ ========== とスキップしてしまいました。 何が原因なのでしょうか・・・
696 名前:デフォルトの名無しさん [2009/06/04(木) 18:26:30 ] threadIdx.xがうまく値を返さなく困っています。 最小のプログラミングだと ちゃんとした値を確認できるんですけど、 規模のあるプログラム書いた物では、threadIdx.xをみると最大でも1000以内の数値が40000を超えていたりします。 かなりラフな書き方していて、グローバル変数使いまくってるのが意見ないのでしょうか? __device__ kouzoutai[2000];//グローバル変数 とか宣言しまくって搭載メモリーを超えちゃってるかもしれませんが、その時は明確なエラーとか出ますか?
697 名前:デフォルトの名無しさん mailto:sage [2009/06/04(木) 19:59:22 ] エラーは基本的に出ない
698 名前:デフォルトの名無しさん mailto:sage [2009/06/05(金) 09:08:24 ] >>696 threadIdxはプログラムで変更できないと思うが。 どうやってthreadIdx.xを「みる|確認できる」としたのか知らんが、その手段を確認すべきでは? ptx出力を眺めればthreadIdx.xをコピーした先で壊してたりするのが分かるんじゃない? グローバル変数にたった2000要素くらいなんてことないと思うが、巨大な構造体でも置いてるの? あーそれから、メモリをオーバフローしてもコンパイルエラーも実行時エラーも出ないどころか、 突然システムごとフリーズするかもしれないから覚悟しておいてね。
699 名前:デフォルトの名無しさん [2009/06/06(土) 17:41:22 ] >>501 ? ∧∧ (´・ω) _|⊃/(___ / ヽ_(____/  ̄ ̄ ̄ ̄ ̄ ̄ ̄
700 名前:デフォルトの名無しさん mailto:sage [2009/06/07(日) 01:25:14 ] 寝た子を起こしたなw
701 名前:デフォルトの名無しさん [2009/06/08(月) 08:06:10 ] >>699 ! ∧∧ (・ω・ ) _| ⊃/(__ / ヽ-(___/  ̄ ̄ ̄ ̄ ̄ ̄
702 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 20:11:26 ] あ" ∧∧ (◎ω◎) _| う/(__ / ヽ-(___/  ̄ ̄ ̄ ̄ ̄ ̄
703 名前:デフォルトの名無しさん [2009/06/09(火) 23:30:40 ] >>701 オハヨー!! ∧∧ ∩ (`・ω・)/ ⊂ ノ (つノ (ノ ___/(___ / (___/  ̄ ̄ ̄ ̄ ̄ ̄
704 名前:デフォルトの名無しさん mailto:sage [2009/06/10(水) 20:07:54 ] 質問。 グリッド・ブロック・スレッドのカーネル側での計算への応用方法が よくわからないのですが・・・・特に動きです。 const unsigned int tid =blockIdx.x * blockDim.x + threadIdx.x; がスレッドIDを示しているというのはわかるのですが・・・ for(int x=0;x<height;x++) for(int y=0;y<width;y++){ sum=sum+tex2D(tex, x, y)*((float)(cos((M_PI*((x*width+y)+0.5)*tid)/number))); } outputdata[tid]=sum; の中で、tidはどういう働きをしてるんでしょうか? 特に回収する配列であるoutputdataの動きが知りたいです。 わかる方ご教授お願いします・・・