- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 309 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:16:01 ]
- >>307
CELLでNNやると速いのか?
- 310 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:26:52 ]
- >>309
浮動小数点数演算に特化して、しかもマルチコアだから、 それように作ったプログラムなら普通の数十倍出るかもね。 ただし、計算順序を工夫したりする必要はあるだろうけど。
- 311 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:30:36 ]
- CELLクラスタに俺の脳を移植してよ
- 312 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:28:54 ]
- それはいい考えだな
まずはコンパクトな脳から試すのがいいね
- 313 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:32:15 ]
- さて、そろそろ論文締め切りが間近だが、
切羽詰った状況でなぜか部屋の掃除がしたくなるのは俺だけではないはずだ
- 314 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:42:55 ]
- 俺も現在似たような状況だがドラクエIVのDS版を始めてしまった。
- 315 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 01:52:24 ]
- >>314
あ〜そりゃもうやめられないな お前、今回は落としたな
- 316 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 01:56:36 ]
- 代わりに書いてやろうか
- 317 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 03:22:08 ]
- ニューラルネットで、論文生成するプログラム組んだらいいんじゃない?
- 318 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 08:12:51 ]
- >>317
お前マジ頭いいな。
- 319 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 10:59:54 ]
- >>317
論文の内容を悩むところだが、 ニューラルネットで論文生成するプログラム組む方法を論文にすればいいんじゃね?
- 320 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 11:08:35 ]
- >>319
NNじゃないが、そういうのは前に発表されてたな pdos.csail.mit.edu/scigen/
- 321 名前:デフォルトの名無しさん [2008/01/17(木) 07:21:32 ]
- 生データから抽出すべき特徴量を決定する指針ってある?
あれば教えて欲しい
- 322 名前:デフォルトの名無しさん mailto:sage [2008/01/17(木) 11:39:20 ]
- 主成分分析
- 323 名前:デフォルトの名無しさん mailto:sage [2008/01/17(木) 11:39:44 ]
- あ,判別分析の方がいいかも
- 324 名前:デフォルトの名無しさん [2008/01/17(木) 12:54:47 ]
- なるほど
ググって調べてみる サンクス
- 325 名前:デフォルトの名無しさん [2008/01/22(火) 23:36:24 ]
- ニューラルネットワークで密や疎というのはどんな事を意味するんですか?
- 326 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 03:25:24 ]
- スパース表現のことか? それなら
「神経回路網モデルとコネクショニズム」甘利俊一 [補稿]黒崎政男 東京大学出版会 認知科学選書22 ISBN4-13-013072-2 1989年初版 の 5.4 スパース符号化による連想記憶 が参考になる.図書館で探して
- 327 名前:デフォルトの名無しさん [2008/01/23(水) 07:27:44 ]
- それみたいです
本も調べてみます ありがとうございます
- 328 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 20:51:28 ]
- 本が見つからない場合に備えて簡単に書いておくと,
データをどの位粗く表現するかってことで(マンマや), 例えば0〜15の整数を4bit(4本)の二進数で表現するのは(情報量的に)最も密な表現. これに対し,入力の線を16本用意してそのどれかを1にするのはやや疎な表現. 100本位用意して適当な数本(一本もあり)を1にするのは疎な表現. 1000本だと凄く疎な表現(こういう区別そのものは厳密ではないし,決まっているわけでもない). 大切な事は,疎な表現を採用すると連想記憶のの記憶容量を増やすことができる点. BP学習の場合は収束が速くなる(密な表現だと凄く収束し難いことは経験的に良く知られていた).
- 329 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 21:42:00 ]
- なるほど〜
すごく分かりやすい ありがとうございます
- 330 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:02:04 ]
- ニューラルネットワークでの株価予測について質問です
いくつかの論文で,予測株価と実際の株価の誤差を取るのではなく,方向一致率と呼ばれるもので判断しているんです 方向一致率は,上下変動が一致した回数を予測した回数で割ったものです これって単純に誤差を取るよりもどんなメリットがあるのでしょうか? ソースはあっても無くてもいいので,どなたか教えてください
- 331 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:26:55 ]
- >予測株価と実際の株価の誤差
は評価でき(るほど上手くいか)ないから代わりに使ってるんだと思われ
- 332 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:40:23 ]
- >>330
質問には答えられないのだが、参考までに ニューラルネットを使った株価予測の論文を読んでみたいです。 よければ、ポインタを教えてください
- 333 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 22:46:48 ]
- >330
株を売り買いして利益を出すには株価そのものを予測する必要はなく その時点から直近で上がるか下がるかだけ予測できれば良いから。 実用的に必要最小限の予測をしている(方が予測が当たりやすい)から だと思われ。まあ、変動があまりに小幅なら売買手数料のために逆に 損する可能性もあるが。
- 334 名前:デフォルトの名無しさん mailto:sage [2008/01/25(金) 16:14:45 ]
- GPUを使った実装というのに挑戦してみた。
オライリー本のAI入門に載ってる内容を弄っただけだし CPU版の実装よりクソ重いしと散々だけど動いてくれて嬉しいぜ…。 チラ裏
- 335 名前:デフォルトの名無しさん [2008/01/28(月) 09:11:15 ]
- ニューラルネットワーク
zoomtv.atspace.com/?X&2052226&0607@HiSpeedVision
- 336 名前:デフォルトの名無しさん mailto:sage [2008/01/28(月) 10:38:40 ]
- 上がるか下がるか当てるだけを評価するなら
ぶっちゃけ学習自体も regression じゃなくて classifier で良いような?
- 337 名前:デフォルトの名無しさん [2008/01/28(月) 17:19:14 ]
- ところで、データの娘の名前が思い出せない。
- 338 名前:デフォルトの名無しさん mailto:sage [2008/01/29(火) 01:01:48 ]
- >>334
へぇ、そんなのできるんだ。 昔ちょっとだけDirectXいじってたんだけど、どうやってしてるの? 最近のGPUだったらピクセルシェーダーとか使ってるのかな。 もしデバイスのIOを直接叩いてるんだったら、かなりのもんだね。
- 339 名前:デフォルトの名無しさん mailto:sage [2008/01/29(火) 08:30:21 ]
- shaderだろJK
- 340 名前:デフォルトの名無しさん mailto:sage [2008/01/29(火) 09:54:31 ]
- GPGPUだね
- 341 名前:デフォルトの名無しさん [2008/02/01(金) 16:49:06 ]
- ニューラルネットワークのプログラムを組んでみたんですが、バグのせいかどんな入力に対しても同じ値しか返しません
原因としてどのようなことが考えられるか、教えていただけないでしょうか?
- 342 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 16:52:10 ]
- だったらソース晒しなよ
- 343 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 16:58:38 ]
- >>334
CPUより遅かったら意味ないじゃんw でも、素子数が増加しても並列計算でスピード変わらん!とかあるのかな?
- 344 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 17:11:43 ]
- void back_propagation()
{ int i,j; double dih[Hneuron],dho[Oneuron]; //誤差 double sum; for(i=0; i<Oneuron; i++){ dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない) } for(i=0; i<Hneuron; i++){ //出力層の重み修正 for(j=0, sum=0; j<Oneuron; j++){ dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] ); who[j][i] += dwho[j][i]; sum += ( dho[j] * who[j][i] ); } dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号 } for(i=0; i<Oneuron; i++){ //出力のしきい値修正 dothreshold[i] = ( Eta * dho[i] ) + ( Alpha * dothreshold[i] );; othreshold[i] += dothreshold[i]; }
- 345 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 17:12:35 ]
-
for(i=0; i<Ineuron; i++){ //中間層の重み修正 for(j=0, sum=0; j<Hneuron; j++){ dwih[j][i] = ( Eta * dih[j] * iout[i] ) + ( Alpha * dwih[j][i] ); wih[j][i] += dwih[j][i]; sum += ( dih[j] * wih[j][i] ); } } for(i=0; i<Hneuron; i++){ //中間層のしきい値修正 dhthreshold[i] = ( Eta * dih[i] ) + ( Alpha * dhthreshold[i] ); hthreshold[i] += dhthreshold[i]; } } コンパイラはBCCを使ってます。
- 346 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 17:36:31 ]
- >>341
ソースまだ見てないけど、学習後の重みをファイル出力してみて、 全部0とかになってたら、BPの実装ミス。 そうでなかったら、全部同じ出力とかにはならないだろうから、 入出力間の伝搬のミスってことになる。
- 347 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 19:00:55 ]
- 重みがそれっぽい感じになってて、出力も学習元のデータからして異常とは言えない数値になってます。
具体的には、 学習させた結果の重みを別のプログラムに読ませて、foward propagationだけを行って予測させる。 その予測された結果を入力の一部として使って、さらに次の予測をさせる という風にしているのですが、最初の予測結果と2番目以降の予測結果が全く同じになります。 何回学習させても重みが変わらなかったり、1回目だけ変わってその後変わらなかったりするのでback propagationに問題があると思って途中の重みやその変化量を表示させているのですが、原因の見当がつかず困っています。
- 348 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 20:03:54 ]
- >dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
そもそもこれが許されてるのかどうか俺は知らんのだが、 >dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号 シグモイド通してないなら x*(1-x) が出てくるのはおかしくね?
- 349 名前:341 mailto:sage [2008/02/01(金) 20:08:23 ]
- >>348
中間層の出力はシグモイド関数にかけてるのでそこはあってると思います
- 350 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 20:47:11 ]
- > dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );
dwho[j][i]決めんのにdwho[j][i]使ってるけどこれっていいのかな? 時系列扱わせているみたいだから、前時刻の修正量を重みAlpha反映させたりしてるの? あと気になるのは、sumに足しこむのがwhoとかの修正前な気がする。 まあ、自分のコードと大分違うんでわからんけど。 多少面倒だが、いきなり目的のデータ使うんじゃなくて、 y = sin(x)のような既知の単純な学習データで検証するのも手かもしれない。
- 351 名前:デフォルトの名無しさん mailto:sage [2008/02/02(土) 03:37:33 ]
- しきい値に関しては定数入力を用意して重みで実現する方が
プログラムがすっきりするし高速化し易いから定石なんだよね この実装は普通のとかなり違うからコードだけじゃ分からないねぇ 元の式から書いた方がいいと思われ 元式の微分周りにはミスはない?
- 352 名前:341 mailto:sage [2008/02/02(土) 23:38:31 ]
- すいません。
BPではなく、最初に重みとしきい値を乱数生成する部分の範囲がおかしかったようです。 ご迷惑おかけしました。
- 353 名前:デフォルトの名無しさん mailto:sage [2008/02/02(土) 23:40:38 ]
- >>323の判別分析をググってみたんだが
これでNNに入力する特徴量を選択をする場合、 あるデータに対して特徴量ごとに判定結果を算出して その結果をもとに特徴量の有効性を計算するの? それとももっと正確な指標が数値で出るの?
- 354 名前:デフォルトの名無しさん mailto:sage [2008/02/03(日) 20:06:50 ]
- >生データから抽出すべき特徴量を決定する指針
の話だったから(分類用なら)判別分析で固有値が大きい方から順に と思ったのだが. 学習済みの NN の隠れ層に形成された特徴の寄与率を評価するのは また別の話になると思う 定番というのは知らない(あるのか?)が, 例えばあるニューロンを一個切り離して成績を比べるとか
- 355 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 14:49:34 ]
- 今回の卒検でjooneとかいうjavaのニューラルネットワーク・ライブラリを使おうとしてたんだが、
正直失敗した。 がんばって英文を読んだにもかかわらず、使いにくい設計、やる気をそぐスペルミス(cycle->cicle)など、 三日がんばったんだが、結局自作のプログラムに戻した。 そしたらやろうとしてたことが十分ぐらいでできてまた泣いた。 もうこの際みんなでオープンソースのライブラリ作らない?
- 356 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 15:31:42 ]
- 面白そうだとは思う。
しかし言いだしっぺが大まかな仕様や実装例を上げないとgdgdになる法則。
- 357 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 22:27:12 ]
- 俺はニューラルネットに全然詳しくないのだが、
こういう分野の理論ってライブラリ化できるものなんでしょうか? 俺みたいな詳しくなくてもコンポーネント的に簡単に使えるようになると、 すごく面白そうな悪寒。
- 358 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 22:45:06 ]
- haskellのfgl使ってろや
ニューラルネットとか言っても所詮はグラフ
- 359 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 23:56:23 ]
- 日本語でOK
- 360 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 00:02:15 ]
- まだ大学1年生でコンピュータサイエンスは素人同然なのですが、
ニューラルネットって重み付きグラフというものとは違うものなのですか?
- 361 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 01:01:53 ]
- >360
ただの情報(データ)表現の一種であるグラフ(重み付きでも)と 情報処理装置であるニューラルネットをどうやったら混同できるんだ?
- 362 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 01:09:37 ]
- 時間という流れるものに犯されすぎ
- 363 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 01:21:11 ]
- え、ぜんぜん関係ないんですか?
ニューラルネットは重み付きグラフで表現できない??
- 364 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 03:58:44 ]
- 接続関係だけ表現しても道路地図や路線地図と何も変わらん
- 365 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 04:26:00 ]
- 簡約によって副作用が生じる場合と生じない場合で「表現すること」と「計算すること」の同値性が崩れる場合があって,
「表現するだけでは足りないのだよ・・・副作用は表現では現れない」という結論を導きたかった. 具体的に言うと「ニューラルネットワークは重み付グラフで表せますか?」は 「ニューラルネットワークは自身の重みを時間の推移に従って書き換えていく(副作用)があるので,あらわせない」だ. で,簡約で副作用を容易に持ち込めるlispを使って例を挙げたかったがあきらめた(^p^ 重み付き非決定性グラフとかあれば表現可能かも
- 366 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 04:33:17 ]
- >>365
別にそういうアルゴリズムは副作用なくても表現できるんじゃないの。
- 367 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 04:47:05 ]
- だって、NNの推移って、グラフからグラフへの関数を一定時間ごとに呼び出すだけでしょ?
- 368 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 05:00:35 ]
- どうやら「表現」に関して認識の差があるみたいだ
語彙が足らなくてうまく伝えられないから引っ込むぉ
- 369 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:16:18 ]
- ニューラルネットにとって時間の推移(時間発展)は
本質的だと思うけどな。 そういう意味で(副作用の無い)関数とは全く異なる。 そう言えば「副作用」って大抵、時間に関係してるな。 「時間」の推移による変化も完全に記述できる「述語論理」が まだ発明されていないと言うのが大きいのかな?
- 370 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:33:04 ]
- >>369
たとえば、Haskellの場合はIOモナドに処理手順を閉じ込めてしまえば、main関数の終了時に順番に実行してくれる。 遅延評価だから、停止しない処理も記述可能。 1ms毎に関数を無限に適用し続けるといった処理も(言語仕様上では)副作用なしに記述可能。
- 371 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:55:17 ]
- >>369
たしかに、そうだな。 仕様記述言語のZという言語を研究で使ったことがあるが、たしかに時間に関する記述はできなかった。
- 372 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 11:15:48 ]
- >370
うん。 しかしHaskelの場合であっても時間による副作用を 全てI/O処理(言語仕様の外側)に閉じこめているだけであって、 時間発展(副作用)のある系の記述を無い系の記述に 全て変換してしまえるわけじゃないだろう?
- 373 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 11:27:57 ]
- >>370
時間見てワロタ お前いつ寝てんの?w
- 374 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 12:17:46 ]
- 結論として
「副作用の全く無い関数型言語のみで記述できるアルゴリズムでは 時間発展のある系の完全なコントロールはできない」のだと思う。 コントロールしようとするとどうしても アルゴリズムの中のどこかで副作用を意識せざるを得ない。
- 375 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 12:58:42 ]
- >367の間違いはニューラルネットの重み付け更新
(NNの推移)はその出力に依存する事を忘れている事だと思う。 即ちNNの機能は処理の時間的順序関係に強く依存している。
- 376 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 14:24:56 ]
- 昔々,Prolog で I/O もバックトラックしたら
という話を思い出した
- 377 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 16:48:58 ]
- ちょっと訂正
>375は「NNの推移はその入力に依存する」がより正しいな。 入力がすべて既知とするなら出力は先に計算できるわけだから。 提示される未知の入力に対して(その一部を)記憶し 適応するからこそ時間依存の(時間で発展する)系なわけだ。
- 378 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 17:58:01 ]
- もうひとつ結論
「記憶し、学習し、適応する」=「副作用」
- 379 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:05:32 ]
- 結局、NNのデータ構造はグラフってことでOK?
- 380 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:35:19 ]
- >379
いき値固定でかつ各ニューロンの情報処理(計算)機能を 省略して表現するなら。 また静的な重み付きグラフならある時点での (データ構造の)スナップショットと言う事になるな。
- 381 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:58:18 ]
- それNNじゃないしw
- 382 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 21:39:53 ]
- もちろん静的重み付きグラフはニューラルネットそのものではない。
ただし処理のアルゴリズムとは区分されたデータ構造では有りうる。 条件付きでだが。
- 383 名前:360 mailto:sage [2008/02/08(金) 21:47:24 ]
- ノードのラベルに閾値を割り当てればいいですか?
- 384 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 22:14:39 ]
- >383
純理論的にはそう思うけど。 ただBPとか実装しようと思うと他にもいろんな変数を使う必要が出てくると思う。 各ニューロン毎に保持したり、恒常的に保持する必要は無い変数だろうけど。
- 385 名前:360 mailto:sage [2008/02/08(金) 22:27:23 ]
- >>384
その点は問題ないと思いますよ。 ノードのラベルの型を代数的データ型にするか、ペアで表現すればよいと思います。
- 386 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 19:08:28 ]
- 学習によって全体的な誤差を小さくしていくと、最大の誤差は逆に増えていくのですが
この問題を解決する手法って何かありませんか?
- 387 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 20:16:45 ]
- 全体的な誤差って何? 最大の誤差って何?
解決って具体的にどういうこと?
- 388 名前:デフォルトの名無しさん mailto:sage [2008/02/10(日) 14:44:32 ]
- 総誤差関数の値が小さくなるように学習を続けると
特定の入力バターン(誤差が最大のもの)に対する誤差が 逆に大きくなると言う事でしょう。 その入力だけ元々パターンから外れている (ノイズが乗っている)て事は無いのかな?
- 389 名前:デフォルトの名無しさん mailto:sage [2008/02/10(日) 15:14:01 ]
- 解決したいってのが,
それも含めてフィットさせたい ってことなら考え直した方がいい
- 390 名前:デフォルトの名無しさん mailto:sage [2008/03/06(木) 23:30:51 ]
- ちょっと前にGPU(GPGPU?)使ってNN動かしたって人がいたけど、
世間的にもそういう動きがあるみたいだね。 GPGPUのキラーアプリケーションは「グラフィックス」 − @IT www.atmarkit.co.jp/news/200803/06/cuda.html 早めにフレームワークでも一つ作っておけば広く普及するかも。
- 391 名前:デフォルトの名無しさん [2008/03/08(土) 20:36:24 ]
- ニューラルネットを使った株価予想って具体的にどうやってるんですか?
- 392 名前:デフォルトの名無しさん mailto:sage [2008/03/08(土) 21:03:05 ]
- 現在から過去何単位時間かの株価の推移の情報を入力し、次の単位時間での株価を出力
- 393 名前:デフォルトの名無しさん [2008/03/08(土) 22:46:50 ]
- >392
なるほど、ありがとうございましたm(_ _)m
- 394 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 05:18:37 ]
- >>392
随分といい加減なwww
- 395 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 20:18:38 ]
- >391
共立の「ニューラルネットの基礎と応用」と言う本に「株価予測への応用」 と言う節があって、ほんの10ページくらいだが著者の一人(馬場則夫氏)が 作ったシステムが紹介されている。 それによると入力変数は X1:前日の終値 X2:前日の変化 X3:昨日の出来高/1週間前の出来高平均 x4:昨日の出来高/先月の出来高平均 X5:出来高変化 X6:今年の最高値- 前日の終値 X7:(前日の終値 - 3年前までの最安値)/(3年前までの最高値-3年前までの最安値) X8:50-PER X9:株主資本変化 X10:一株益変動 X11:株価変動 X12:円ドルレート変動 X13:1ヶ月後の増資予想 X14:ダウ平均の変動 X15:公定歩合 の15。後、2出力(上がるか下がるか)、隠れ層は2層だそうな。 内容については良く分からないので自分で本か論文に当たってくれ。
- 396 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 22:03:12 ]
- この手のシステムは本当に使い物になったら秘密にされるので
最先端は公開されないことに注意 まぁまだ実用には程遠いと思うけど
- 397 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 22:11:08 ]
- と言うか誰でも簡単にそのまま真似できるほど詳しい内容は普通、公開されないよ。
だが飽くまで研究目的の参考にしたいと言うなら先行研究がいろいろあるはず。 本当に物にしたければ自分で研究するしか無いだろう。
- 398 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 01:13:50 ]
- ニューラルネットの素人目に見てだけど・・・
>>395 どうモデルにするかで全然違ってきそうですね。 どこに注目するか?というか。
- 399 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 01:42:37 ]
- >398
現状のような外部要因でひどくグラグラ振れるような市況だと 何年も前に作ったシステムはもはや通用しなさそうだね。 円ドルレートだけじゃなくサブプライムがどうしたとか、 モノラインも危ないとか原油1バレル何ドルになったとか いろいろな事を加味しないととてもまともな予測にならない ような気がする。
- 400 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 03:57:58 ]
- 俺も株価予測の真似事してたけど、結局そこなんだよな。
影響範囲が広域すぎて、正攻法で学習させようとすると重み係数が多くなり過ぎちゃう。 多分NNの多段化やGA組み合わせればちょっとはマシになるんだろうけど、 基礎研ではそこまでできんかった。
- 401 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 13:19:28 ]
- FRBの議長の失言とかもあるしなぁ
- 402 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 18:53:07 ]
- 考慮すべき要因が多すぎるし、影響力も定量的には計れない。
NNだけで扱いきるのはむりぽ。 NNとは別に、その辺の事象を十分に少ない特徴量で表現する研究の方が重要じゃね?
- 403 名前:デフォルトの名無しさん [2008/03/13(木) 18:58:19 ]
- 意味のある特徴量をGAとかで検出できたらいいかも
- 404 名前:デフォルトの名無しさん mailto:sage [2008/03/14(金) 05:53:51 ]
- >GAとかで検出
GAが何か分かって言ってる? PCAやAIC辺りなら兎も角
- 405 名前:デフォルトの名無しさん [2008/03/14(金) 19:35:33 ]
- >>395
素人目でみてなので 突っ込み希望なのですが、 >>395みたいなのって、結局のところ、 多数のパラメーターからニューラルネットで最適値を見つけるように見えます。 そうすると(株でも先物でもいいのですが)システムトレード的には、 パラメータが多くなればなるほど、 過度の最適化というか、カーブフィッティングのようになってしまい、 未来の予測(といっていいかわかりませんが・・・)をするには不適ではないかと思えてなりません。 これは、モデル化の方法などでカバーできる問題なのでしょうか?
- 406 名前:デフォルトの名無しさん mailto:sage [2008/03/15(土) 11:27:13 ]
- 入出力が実数とは限らない
機能を入出力とすると ほ〜ら
- 407 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 09:05:55 ]
- 誰かSSE,MMX,デゥアルコアに完全対応していて
なおかつ入力出力サイズが可変出来て状態保存の可能な NNのWindows Cライブラリを作ってくれまいかね いやもちろん細部はアセンブラで超高速なわけですが
- 408 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 13:34:29 ]
- >>407
仕様とアルゴリズムを決めてくれたら作ってもいいけど。
- 409 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 19:19:37 ]
- アルゴリズムは教師信号を持ったバックプロバケーション
構造は選択式 単位データは32bit整数 必要なメモリを確保する関数 ・入力信号の配列数 ・出力信号の配列数 を指定すると確保したメモリのポインタを返す 教師信号配列を渡す関数 学習する関数(同期型と非同期型) 実行する関数(学習したものを利用するだけ、同期型と非同期型) 非同期用コールバック 学習情報を取得する関数 ファイルの保存はあっても無くても良い あるなら圧縮保存出来ると良い ハードウェアアクセラレータは自動検出し最適なコードを実行する こんなんでどうでしょう?
|

|