- 1 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 11:13:52 ]
- このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。 CUDA使いが優しくコメントを返しますが、 お礼はCUDAの布教と初心者の救済をお願いします。 CUDA・HomePage www.nvidia.com/cuda 関連スレ 【GPGPU】NVIDIA CUDA質問スレッド pc11.2ch.net/test/read.cgi/tech/1190008468/ GPUで汎用コンピューティングを行うスレ pc11.2ch.net/test/read.cgi/tech/1167989627/ GPGPU#2 pc11.2ch.net/test/read.cgi/tech/1188374938/
- 69 名前:デフォルトの名無しさん mailto:sage [2008/06/20(金) 13:29:07 ]
- うーむ。GPU2枚使うのって実はコツとかいる?
ホスト側でOpenMP使って2スレッド走らせて、それぞれのスレッドに別のGPUを割り当てて るんだが、答えとしては正しいものが返ってくるんだが速くならない。 むしろ、ホスト1スレッドで1つのGPUで計算させたほうがいくらか速いくらい。 きちんとGPU2枚使ってそうだというのは確認できたんだが速くならない理由がわからない。 なんだかGPU0の処理が終わってからGPU1の処理が始まるとかやってそうな予感がしている。 GPUの切り替えの分だけちょっとだけ遅くなるというオチじゃないかと。。。 サンプルのmultigpuとか読むとホスト側のスレッド生成法は違うけど同じようなことやって るんだよなー。 2枚使って速くなったって人いたらどういう風にやったか教えてくれませんか? かれこれ2週間くらい悩み中だ。
- 70 名前:デフォルトの名無しさん mailto:sage [2008/06/20(金) 15:38:55 ]
- >>69
pthreadでは速くなった? 開発環境は?
- 71 名前:69 mailto:sage [2008/06/20(金) 17:34:03 ]
- pthreadって要するにホスト側スレッド生成にcutStartThread()を使うってことだよね?
それは実はまだやっていないんだ。これからやってみようと思う。 とりあえずスレッド走らせればいいんだと思っていたから、使用経験のあるOpenMPを使った。 もしかして、cutStartThread()で生成したスレッドを使用して各GPUを使うっていうことが 暗黙の条件だったりしないよね。 cutStartThread()で速くなった人いますかね? 開発環境はVisualStudio2005。
- 72 名前:デフォルトの名無しさん mailto:sage [2008/06/20(金) 17:40:20 ]
- うちでは速くなってるけど・・・
こちらはLinuxだけど、もしソースが載せられるならうpしてみて。
- 73 名前:69 mailto:sage [2008/06/20(金) 18:41:08 ]
- >>72
ソースは諸事情のため色々と削ったりしたもの。 ちなみにCore2Duo+GPU×2なのでホスト側スレッド数=GPU数な環境。 float *h_data = 0; h_data = (float*)malloc(mem_size); (h_dataの中身をこしらえる) cudaGetDeviceCount(&num_gpus); int num_cpus = omp_get_num_procs(); omp_set_num_threads(num_cpus); #pragma omp parallel { unsigned int cpu_thread_id = omp_get_thread_num(); unsigned int num_cpu_threads = omp_get_num_threads(); unsigned int element_per_kernel = element / num_cpu_threads; float *sub_h_data = h_data + cpu_thread_id * element_per_kernel; int gpu_id = 0; CUDA_SAFE_CALL(cudaSetDevice(cpu_thread_id % num_gpus)); CUDA_SAFE_CALL(cudaGetDevice(&gpu_id)); printf("CPU thread %d (of %d) uses CUDA device %d\n", cpu_thread_id, num_cpu_threads, gpu_id);
- 74 名前:69 mailto:sage [2008/06/20(金) 18:42:06 ]
- unsigned int mem_per_kernel = mem_size / num_cpu_threads;
float *d_data = 0; CUDA_SAFE_CALL(cudaMalloc((void**) &d_data, mem_per_kernel)); dim3 dimBlock(num_thread); dim3 dimGrid(num_block/num_cpu_threads); for(i=0; i<T; i++){ #pragma omp single { total = 0; for (j=0; j<element; j++) total += h_data[j]; (h_dataの値を色々いじる) } CUDA_SAFE_CALL(cudaMemcpy(d_data, sub_h_data, mem_per_kernel, cudaMemcpyHostToDevice)); calculate<<< dimGrid, dimBlock >>>(d_data, total); CUDA_SAFE_CALL(cudaMemcpy(sub_h_data, d_data, mem_per_kernel, cudaMemcpyDeviceToHost)); } } 諸事情によりomp singleを使っている場所があるんだがこいつが悪さをしているとかあるのかな。
- 75 名前:デフォルトの名無しさん [2008/06/27(金) 02:51:33 ]
- 質問です(全く素人です)
OpenGLを使えばGPGPUのプログラミングが出来ると聞いたのですが、 かたやCUDAなどの専用の言語が出てきているのはどうしてでしょうか?
- 76 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 03:13:39 ]
- だったらcとか使わずfortran66でも塚っテロ
- 77 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 12:11:54 ]
- >>76
いえ、ですから、OpenGLではGPUの使えない機能もあるのかなぁ、と思いまして。
- 78 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 16:55:21 ]
- GPUで計算中でも画面は通常通り表示されますか?
- 79 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 22:56:10 ]
- >>78
ハードについて勉強するよろし
- 80 名前:デフォルトの名無しさん mailto:sage [2008/06/28(土) 00:16:42 ]
- CUDA実行中に、時たま怪しげな影が飛んだりフリーズしたりします。
- 81 名前:デフォルトの名無しさん mailto:sage [2008/06/29(日) 11:59:05 ]
- Folding@HomeのGPU版をしている人居ます?
PS3の280GTXは6倍以上をこなしているようですが。 ベータ版が公開されているが時間がなくてまだ何もしていない(困った。)
- 82 名前:デフォルトの名無しさん mailto:sage [2008/06/29(日) 12:04:52 ]
- >>81
マルチすんな。つーか、PS3の280GTXってなんだよpgr
- 83 名前:デフォルトの名無しさん [2008/06/30(月) 07:04:03 ]
- >>69
OpenMPの使い方が根本的に間違っていると思う
- 84 名前:69 mailto:sage [2008/07/01(火) 22:08:51 ]
- >>83
サンプルのcudaOpenMPを参考にしてやったんだけどなぁ。 これじゃどうだめなのかぜひとも教えてくれ。 ちなみにOpenMPの使い方はサンプルにあわせている。 ただsingle構文はサンプルでは使っていないがな。
- 85 名前:デフォルトの名無しさん mailto:sage [2008/07/02(水) 04:05:38 ]
- VisualStudio2005はExpress?だったらOpenMPディレクティブは機能しないよ
- 86 名前:デフォルトの名無しさん [2008/07/02(水) 15:57:17 ]
- nvidiaドライバを削除する方法ってどこかにのってないか@CentOS5
新しいグラボ買ったんだけどドライバの削除がわからないウンコー
- 87 名前:デフォルトの名無しさん [2008/07/02(水) 16:15:29 ]
- grid, threadの意味がわからない
アニメに例えて教えろ
- 88 名前:デフォルトの名無しさん [2008/07/02(水) 21:30:09 ]
- 今amazonみたらGPUGems3の日本語版の予約を受け付けてるじゃn
- 89 名前:デフォルトの名無しさん [2008/07/03(木) 01:44:22 ]
- ノート(OS:Vista)で動かそうとしても動きません
CUDAに対応したGPUを搭載しておりますし(8700M GT) VC2005Expressをインストールしたのですが、コンパイルすると nvcc fatal: nvcc cannot find a supported cl version. Only MSVC 7.1 or 8.0. と表示してしまいます。まったくわからなくて困ってます。 よろしければお教えください
- 90 名前:デフォルトの名無しさん mailto:sage [2008/07/03(木) 01:47:35 ]
- 2005以外のバージョンのVCも入れてる?
nvccが参照しているVCが2005じゃないように見える。
- 91 名前:デフォルトの名無しさん [2008/07/03(木) 10:56:29 ]
- いれておりません。
インストールしたのは VC2005EXとVC2005SP、VC2005SP Update for Vista だけなのですが。
- 92 名前:69 mailto:sage [2008/07/03(木) 13:12:53 ]
- >>85
VisualStudio2005Professionalを使っています。 とりあえずcuda使わないで純粋にCでOpenMP使ったら高速化されているのでOpenMP自体は動いている模様。
- 93 名前:デフォルトの名無しさん mailto:sage [2008/07/04(金) 21:25:01 ]
- ttp://vipprog.net/wiki/CUDA.html
- 94 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 02:11:24 ]
- >>93
なにこの糞サイト
- 95 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 02:42:51 ]
- 質問です
PhysXがGeforceでも使えるということを聞いたのですが、 PhysX SDKとCUDAやOpenCLというのは同じレイヤーでの話なのでしょうか?
- 96 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 05:08:31 ]
- >>84
pthreadでは高速化された?
- 97 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 09:16:41 ]
- >>88
アノ値段じゃ学生はp-子するから売れん罠
- 98 名前:デフォルトの名無しさん mailto:sage [2008/07/08(火) 11:01:42 ]
- Gem3はGPGPUに限って言うならあんまり役に立たなかった
- 99 名前:デフォルトの名無しさん [2008/07/08(火) 19:02:12 ]
- >>86
--uninstall
- 100 名前:86 [2008/07/09(水) 13:42:42 ]
- >>99
ありがトマト ところでSobelFilter見ててShareMemの使い方がわからないんだが フォーラムに質問と返答あったが内容わからん+英語で全然わからん 誰か全訳してくれ
- 101 名前:86 [2008/07/09(水) 13:44:25 ]
- forums.nvidia.com/index.php?showtopic=52612&pid=286191&mode=threaded&show=&st=entry286191
誰か誰か!
- 102 名前:デフォルトの名無しさん mailto:sage [2008/07/10(木) 12:22:28 ]
- >>86
訳すのはめんどいからパスだけど、ポイント絞って質問してくれたら回答するよ。
- 103 名前:デフォルトの名無しさん mailto:sage [2008/07/10(木) 12:28:53 ]
- >>86
C:\WINDOWS\system32\drivers から目的のドライバを手で削除すればよい。
- 104 名前:デフォルトの名無しさん [2008/07/13(日) 21:12:38 ]
- >>102
神ktkr ポイント絞るからちっと待ってて…
- 105 名前:102 mailto:sage [2008/07/14(月) 11:56:25 ]
- 問題は、自宅が規制に巻き込まれていてなかなか書き込めない辺り。
取り敢えず、注意点を列挙しておく。 ・共有メモリを確保するのはglobalFunc<<<blocks, threads, sharedMemorySize, streamNo>>>(parameters)の 三番目のパラメータでサイズが指定されたときだけ。 ・共有メモリは一回の<<<>>>の呼び出しの間だけしか有効じゃない。 # つまり、次の回には残っていない。 ・共有メモリをハンドリングするには、extern __shared__ anyType * nameで宣言するだけ。 # つまり、コンパイラは型のマッチングやサイズのチェックをしないので自分で管理しないといけない。 ・共有メモリはblock間で独立、block内ではthread数に関わらず共有。 # つまり、実際のデバイスにそぐわないthread数を指定した場合はCUDA側で同期処理が入るのか、遅くなってしまう。 ・あるthreadが共有メモリに書いた後、別threadが読む前には__syncthreads()で同期を取らないといけない。 # ある意味当然なんだけど、その所為で遅くなるのも事実。 あー、ついでにメモリの違いを簡単に。 ※グローバルメモリ ・読み書きできる。coalescedにアクセスできれば結構速い。消えない。広い。 ・ホスト側スレッドごとに独立している。ホスト側から見ると、毎回同じアドレスになるのでどのくらい使えるか判りにくい。 ※共有メモリ ・読み書きできる。遅くない。 ・呼び出しごとに消えてしまう。余り広く取れない。事実上同期を取る必要があって使い難い。 ※定数メモリ ・速い。消えない。そこそこ広い。 ・例えばfloat2を読み込むインストラクションがないので実はグローバルメモリからfloat2を読むより遅くなる場合もある。 ・デバイス側から書き込めない。ホスト側スレッドごとに独立している。複数スレッドからCUDAを使うと毎回転送しなおすのか? ※レジスタ ・読み書きできる。速い。厳密に型チェックされる。つーか、型ごとに違うインストラクションが使われるからptxファイルで追える。 ・呼び出しごとに消える。他のメモリに較べれば狭い。 # ローカルな配列は宣言したことないからよく判らん。
- 106 名前:デフォルトの名無しさん mailto:sage [2008/07/14(月) 19:10:53 ]
- NVIDIAの仕様書見てもcoalescedの意味がいまいちわからないのだけど、どういうこと?
どこかわかりやすく解説しているサイトない?
- 107 名前:デフォルトの名無しさん mailto:sage [2008/07/14(月) 19:12:13 ]
- カーネル内で__shared__つけて配列を宣言するのと、つけないで配列を宣言するのでは何が違うの?
- 108 名前:デフォルトの名無しさん mailto:sage [2008/07/14(月) 19:24:11 ]
- >>106
GPUはWarp単位で同じインストラクションが走るから、要は16人17脚みたいに考えればいい。 メモリアクセスを16人17脚によるパン喰い競争みたいに考えると、自分のパンが目の前にある状態がcoalesced。 そのとき、2,3人パンを喰う必要がなくてもスルーするだけだから問題ない。 処が、二人のパンが入れ違っていたらそこで入れ替える間、みんなが待たされることになるって感じ。 # 判っている人には判るけど、判っていない人には判らない説明だなw >>107 共有メモリを使うかどうか違うだけだと思うけど。ptx出力させて較べてみたら?
- 109 名前:デフォルトの名無しさん mailto:sage [2008/07/15(火) 00:26:16 ]
- >>108
その説明、いただいてもいいですか?
- 110 名前:デフォルトの名無しさん mailto:sage [2008/07/15(火) 01:56:27 ]
- >>109
本にするならもっと書かせてくれw Vipのwikiに載せるなら是非やってくれ 金取って講習するのに使うのなら分け前よこせw
- 111 名前:デフォルトの名無しさん [2008/07/15(火) 07:52:19 ]
- >>105
その通りですシェアードメモリとブロック数が理解できない 1. プロック数 dim3 blocks = dim3(iw/(4*BlockWidth)+(0!=iw%(4*BlockWidth)), ih/threads.y+(0!=ih%threads.y)); なぜblocks.xはiw/threads.x+(0!=iw%threads.x)じゃなくて 上の式になるのか。 2. シェアードメモリ int SharedPitch = ~0x3f&(4*(BlockWidth+2*Radius)+0x3f); int sharedMem = SharedPitch*(threads.y+2*Radius); SharedPitchはなぜ上の計算になるのか。 0x03fの意味、4*の意味、BlockWidth+2*Radiusの意味が理解できない とりあえずSharedメモリの使い方はどこを調べればわかるんだ!ウンコ!
- 112 名前:デフォルトの名無しさん mailto:sage [2008/07/15(火) 08:45:54 ]
- >>111
どんな数字を入れるとどんな結果になるか、Excelでも使って計算してみたら? 0x3f使うのは64の倍数にするためでしょ。
- 113 名前:デフォルトの名無しさん [2008/07/15(火) 16:57:48 ]
- >>112
うーんそのなんで64にするのかがわからないのよ 関係ないかもしれんがシェアードメモリを使ってないSobelFIilterも SobelTex<<ih, 384>>>でなぜ384かわからないお こっちは1行1グリッドにして、1スレッド1ピクセルなんだと思うが なんでスレッド数を画像の横幅iwにしないで384にするんだぁ スレッド数が384だと計算が速い理由でもあるのかお!
- 114 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 00:40:50 ]
- 単純に、warp数の適当な倍数になるからってだけじゃなかろか。
- 115 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 18:09:02 ]
- GPUコードではmemcpyは使えないの?
- 116 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 21:23:53 ]
- >>115
デバイス側で、デバイス間のコピーをしたいってことなら、自前で書くしかないんじゃないかな。 でも多分、そこがボトルネックになると思う。
- 117 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 21:43:54 ]
- global memoryからshared memoryへのコピーの時間と
shared memoryからglobal memoryへのコピーの時間が 異なるのは何でなんだぜ? よく分からない…
- 118 名前:デフォルトの名無しさん mailto:sage [2008/07/16(水) 21:47:14 ]
- >>117
グローバルメモリへの書き込みはcoalscedでも遅いと思う。 そうでないなら、ptxファイル見てみないとなんとも。 プロファイラを使うともう少し様子が掴めるかも知れない。 そだ、プロファイラの使い方って、日本語で書かれたものがWeb上で見つからないんだよね。 誰か、まとめてない?
- 119 名前:デフォルトの名無しさん [2008/07/16(水) 23:29:54 ]
- >>113
指定できるスレッド数の上限は合計512までだからだろ もしくは、スレッド数を多くすると使用するレジスタ数がパンクするから
- 120 名前:デフォルトの名無しさん [2008/07/17(木) 00:02:48 ]
- >>115
自前で作成したmemcpy関数(サンプル付き) 記憶で書いているのでデバッグは自分でよろしく 注意:sizeは4の倍数のみ __device__ void memcpy1D(long* p_dst , const long* p_src , unsigned int size) { const long* p_end = p_src + (size >> 2); p_src += threadIdx.x; p_dst += threadIdx.x; while (p_src < p_end) { *p_dst = *p_src; p_src += blockDim.x; p_dst += blockDim.x; } } __device__ structHogeHoge g_data; __global__ void sample(void) { __shared__ structHogeHoge s_data; memcpy1D((long*)&s_data , (long*)&g_data , sizeof(s_data)); __syncthreads(); }
- 121 名前:デフォルトの名無しさん [2008/07/17(木) 15:32:10 ]
- NVIDIAのサイトから、lameをCUDA化したサンプルコードをダウンロードして、コンパイルしてみたのだけど、
かえって遅くなるのだけど、速くなった人いる? CPUはAthlon2.0GHzでGPUは8800GTXです。 コンパイルはサイトの指示通り、USE_GPU_HPFを有効にしてかつ、そのCPUパートはコメントアウトして実行しないようにしています。
- 122 名前:デフォルトの名無しさん mailto:sage [2008/07/17(木) 15:37:52 ]
- >>121
nVidia「全然速くならないから誰か代わりにやってくれ。速くても賞金出すのは北米在住者のみな^^」 というコンテストだから当然 来週締切なのに今のところまともに投稿してるのが1チームという惨状
- 123 名前:121 [2008/07/17(木) 16:05:38 ]
- 賞金はともかく、NVIDIAの書いたコードだから、勉強になると思ったのですが
- 124 名前:デフォルトの名無しさん mailto:sage [2008/07/17(木) 16:14:53 ]
- >>123
甘いな。ハードの設計している連中とドライバを作っている連中と CUDAを作っている連中とそれの応用を作っている連中が勝手にやっているのがNVIDIAだ。
- 125 名前:デフォルトの名無しさん [2008/07/22(火) 17:35:55 ]
- 3.14.by/en/md5
forum.insidepro.com/viewtopic.php?t=2051 ttp://www.insidepro.com/eng/egb.shtml MD5 Crack on CUDA で腕試しが流行っているみたいだよ。 日本も頑張らなきゃ。
- 126 名前:デフォルトの名無しさん mailto:sage [2008/07/23(水) 00:13:58 ]
- だれかフォートラン仕様にしてくれ
- 127 名前:デフォルトの名無しさん mailto:sage [2008/07/23(水) 13:37:55 ]
- >>122
2チーム目が来たね 2倍ちょっとって、これならquad core使った方がよくね?
- 128 名前:デフォルトの名無しさん mailto:sage [2008/07/23(水) 16:41:58 ]
- GTX280でCUDAすると素人考えで単純にSP数増えてる分だけ
速くなりそうな気がしてしまうんだが実際はどーなの? Warpとかいろいろ考えることもありそうなんだけど。。。
- 129 名前:125 [2008/07/23(水) 19:13:07 ]
- >>127
英語読めていないよ。こんな簡単な読みも出来ないとなると 本当に困る。 Teamの人数が2人だよ。 登録が200を超え、提出者が20組 トップは6回目のUploadだ。 提出者が20組だから結構な盛況だと考えるよ。
- 130 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 00:13:47 ]
- NVIDIA、GPGPUに関する説明会を開催 - 今年中のFortranのサポートを計画 (2) CUDA2.0正式版は近日中にリリース予定
journal.mycom.co.jp/articles/2008/07/23/gpgpu/001.html 2.0とマルチCPUサポートはそろそろ、マルチGPU・多言語・デバッガ・プロファイラサポートは多分おそらくきっとそのうちだってさ
- 131 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 02:24:04 ]
- cudaを覚えはじめるのにぴったりな本ないかなぁ?
- 132 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 11:03:32 ]
- CUDAに特化した本は未だないだろ。
- 133 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 12:24:23 ]
- >>131
本家プログラミングガイド 変な日本語訳のプログラミングガイドもある。
- 134 名前:デフォルトの名無しさん [2008/07/24(木) 16:45:20 ]
- >>132
出たら買うから 出してw
- 135 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 17:17:55 ]
- じゃ、書くからNVIDIAと出版社相手の交渉は任せた。
- 136 名前:デフォルトの名無しさん mailto:sage [2008/07/24(木) 22:53:31 ]
- 何か並列処理の本のおまけみたいな形じゃないと
正直売れないだろうなぁ
- 137 名前:デフォルトの名無しさん mailto:sage [2008/07/26(土) 17:15:12 ]
- >>135
たぶん、猫でもできる・・・・とかと同じように、HPたててそこで解説したら出版社から来ると思う。 わざわざHPスペース借りてーとかでなくても、WIKIでもいいと思われ。 交渉とかは向こうが書いてくれっていうだけだと思う基本的に。 んで、ワードなり、一太郎なりで原稿書けばOKじゃね? 画面キャプチャなどの画像は、まとめて管理したほうがいいぽいよ。 なんか、ワードとかで埋め込んじゃったりすると、逆に手間かかるらしい。
- 138 名前:デフォルトの名無しさん [2008/07/28(月) 09:38:41 ]
- NVIDIAの日本語サイトがようやく
更新されたw
- 139 名前:デフォルトの名無しさん [2008/07/28(月) 11:32:06 ]
- gpuはcpuより劇早なんだから
使いたいよねえ パスワード解析とかにも使えそう
- 140 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 11:37:29 ]
- 速くねーよ。
CPUをセダンに例えるならGPUは貨物車だな。 荷物を大量に扱う場合だけは効率がいい。
- 141 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 11:49:02 ]
- それはそうとパスワードクラックなんて浮動小数演算能力が全く役に立たないものの代表格だな。
- 142 名前:デフォルトの名無しさん mailto:sage [2008/07/28(月) 12:08:10 ]
- そうだね
並列処理すればいいじゃない?
- 143 名前:デフォルトの名無しさん mailto:sage [2008/07/28(月) 17:46:54 ]
- そういや去年CUDA使ってそんなソフトが出てたな
- 144 名前:デフォルトの名無しさん [2008/07/28(月) 19:41:23 ]
- >>141
MD5はやっていますが? 他に現在手に入るクラック専用マシンでCUDA以上のC/P があればお話が成り立ちますがね。
- 145 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 20:22:47 ]
- >>144
それやってるのは整数論理算術演算じゃん 乗算すら浮動小数じゃないよ。 つーかMD5なんてすでにハッシュアルゴリズムとしては死んでるんだが。 ワンタイムパスワードとしてならまだまだ現役でやれるだろうけど 性質上瞬時にクラックできないとクラックの意味もなくなる。 ああFPGA焼いた方がいいんじゃない? 今各社が力入れてるのはAESなどの128ビットブロック暗号だな。
- 146 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 20:35:07 ]
- つーか個人でGPUで遊ぶ分にはアリかもしれんけど
でかいシステム組めるTeslaになると別に高CPでもなんでもないんだよね。 特に整数性能に関してはPS3でクラスタくんだ方がまだ良いくらい。 GTX280含め現行GPUの整数性能はまだまだ残念な印象。
- 147 名前:デフォルトの名無しさん mailto:sage [2008/07/28(月) 20:44:09 ]
- パスワードクラックほどの極小のプログラムでも
Xeon>PS3だって自分のページで言ってなかったっけ?
- 148 名前:,,・´∀`・,,)っ mailto:sage [2008/07/28(月) 21:02:00 ]
- 暗号関連ならCellはAESみたいなブロック暗号はそれなりに速いよ。
例のvpermもどき命令で1コア16並列でエンコード/デコードできるからね。 ただAESアクセラレーションはWestmereでの強化点にもなるのでこの先はわからん。 まあいずれにしてもCUDAはいろいろ残念だな。 ATiとのGPUシェア争い無視してでも汎用性能をとるか来たるLarrabeeとガチるかの瀬戸際だし。
- 149 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 09:58:39 ]
- >性質上瞬時にクラックできないとクラックの意味もなくなる。
笑った。連れの言い分と全く一緒だからな。 流れているデータをリアルタイムで解読できなければ暗号解読ではない というような考え。ある意味では正しいが、ネットのデータは記録可能 という点を考慮していないし大穴になる。 AESアクセラレーションハもう6年も前にある技術だし今さら。 しかし認証段階で破られたらAESは即死に体だよ。実際解読ソフト 使っているのでww
- 150 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 12:28:50 ]
- 別にCUDAは整数性能ウリにしてないし
このスレってムチャを前提にケチつけてるだけで結局何も出来ない無能者の集いだな・・・
- 151 名前:デフォルトの名無しさん [2008/07/29(火) 12:59:27 ]
- 並列演算の応用として暗号解読の話題を語ってるだけだと思うんだが・・・
- 152 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 13:50:22 ]
- >>151
それがわかってないといわれてる原因なんでしょ…
- 153 名前:デフォルトの名無しさん mailto:sage [2008/07/30(水) 12:07:16 ]
- そうなんだ
- 154 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 01:58:13 ]
- 弱点だった倍精度もGTX280で改良された。しかし何かイマイチなんだよなぁ。
消費電力あたりの性能がたいした事ないからかなぁ
- 155 名前:通りすがり [2008/08/07(木) 11:07:41 ]
- CUDAでレイトレーシングがいました。 CPUの15倍パフォーマンスが出ているようです。
noridon.seesaa.net/
- 156 名前:デフォルトの名無しさん mailto:sage [2008/08/07(木) 13:30:10 ]
- SSEも使ってない2コアの速度と比べて15倍じゃ今一かも
- 157 名前:デフォルトの名無しさん mailto:sage [2008/08/07(木) 16:48:46 ]
- www.nicovideo.jp/watch/sm4095447
www.nicovideo.jp/watch/sm4095398 レイトレーシング
- 158 名前:デフォルトの名無しさん mailto:sage [2008/08/07(木) 20:25:59 ]
- >>154
このスレ的には正常進化じゃね?
- 159 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 01:46:07 ]
- だれか4850にCUDA載せてくれ
- 160 名前:デフォルトの名無しさん [2008/08/08(金) 14:04:29 ]
- Core2Duo(3GHz)×2 = 最大 1.89FPS
CUDA(GTX 280) = 最大52.48FPS 27.7倍高速出ているようです。 noridon.seesaa.net/
- 161 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 14:36:26 ]
- それatiのgpuじゃ実行できないよね?
- 162 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 18:06:10 ]
- CUDAですから
OpenCLはCUDAを採用したと聞いたが…本当なん?
- 163 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 18:18:50 ]
- OpenCommonLisp
- 164 名前:デフォルトの名無しさん mailto:sage [2008/08/08(金) 20:41:23 ]
- 4 x 2.5 GHz の 3 fps と比べても 17倍
これは大したものだ
- 165 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 00:50:56 ]
- IntelC++ と比べてどうなんかな?
- 166 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 07:05:08 ]
- うごかねえw
- 167 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 16:57:34 ]
- >>162
んなわけない 既にMacOSXにもCUDAがあるのにわざわざ10.6でOpenCL採用を謳うかよw
- 168 名前:デフォルトの名無しさん [2008/08/09(土) 22:58:33 ]
- インテルは0からスタートするわけだからどのぐらいの速度でIntel製GPU普及するのかは見ものだね。 NVDIAのGPUはすでにゲームやCAD、3Dグラフィックの用途にすでにかなり普及しているからね。今後はAMDやIntelのQuadcore CPUでCUDAが使えるようになるしね。
- 169 名前:デフォルトの名無しさん mailto:sage [2008/08/09(土) 23:11:40 ]
- SPがPentium-Mベースだから割と簡単に追いつけるんじゃない?
|

|