- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 2 名前:デフォルトの名無しさん mailto:sage [04/09/11 01:52:57]
- やだ
- 3 名前:デフォルトの名無しさん mailto:sage [04/09/11 02:12:46]
- やだ
- 4 名前:デフォルトの名無しさん [04/09/11 02:37:45]
- 矢田亜希子かわいい
- 5 名前:デフォルトの名無しさん mailto:sage [04/09/11 02:41:24]
- いいよって6が言ってたよ
- 6 名前:デフォルトの名無しさん [04/09/11 02:43:30]
- そんなこと知らなくていいよ。
- 7 名前:デフォルトの名無しさん [04/09/11 02:50:46]
- なつかしいな
>>1 卒業研究か?
- 8 名前:デフォルトの名無しさん mailto:sage [04/09/11 09:27:24]
- 板違い。シム板池
- 9 名前:デフォルトの名無しさん mailto:sage [04/09/11 11:02:50]
- NNの実装に関する話だったら別に構わないと思うよ
- 10 名前:デフォルトの名無しさん [04/09/11 15:12:19]
- ググれば本がいろいろ出てる
Cで実装したやつとか
- 11 名前:デフォルトの名無しさん [04/09/11 17:30:39]
- >>1
夢を見すぎだよ。 人工知能の時代はもうおしまいなんだよ
- 12 名前:デフォルトの名無しさん mailto:sage [04/09/11 17:45:06]
- ニューラルネットワーク=人工知能ではないと思うのだが。
- 13 名前:デフォルトの名無しさん [04/09/11 17:47:23]
- そうだが。
ニューラルネットワークを現在の2進コンピュータ だけで実現させようとは・・・・
- 14 名前:デフォルトの名無しさん [04/09/11 17:48:27]
- シグモイド関数 g(x) = 1/(1-e^(-k*x)) を使って、
1層ニューラルネットワークのn次元縦ベクトル v=(v_1, ・・・, v_n)^T に対する出力f(v)は、 f(v) = g(Σ[k=1, n]v_k*w_k) こういうの?>>1
- 15 名前:デフォルトの名無しさん mailto:sage [04/09/11 17:48:49]
- >>11
ばっかじゃないの。 歴史は「人工知能」と言われた技術が一般に膾炙されていく繰り返しなんだけど。 ニューラルネットも使いどころを辨えればちゃんと使えるし、使われてる。
- 16 名前:デフォルトの名無しさん mailto:sage [04/09/11 17:51:05]
- >>15
辨えれば→弁えれば→わきまえれば 何かと思ったら「弁」の旧字体だった。
- 17 名前:デフォルトの名無しさん mailto:sage [04/09/11 17:51:28]
- >>11
釣れた発言は禁止な。
- 18 名前:デフォルトの名無しさん mailto:sage [04/09/11 17:52:55]
- >>14
f は一つのニューロンの出力だった。スマソ
- 19 名前:デフォルトの名無しさん mailto:sage [04/09/11 18:16:27]
- >>15
使われてはいても当初の人間が想像していた物は実現できなかっただろう。 ばっかじゃないの
- 20 名前:デフォルトの名無しさん mailto:sage [04/09/11 18:17:36]
- これは酷いバカがあらわれたな。
- 21 名前:デフォルトの名無しさん mailto:sage [04/09/11 18:42:03]
- ホムンクルスでも作ってみるかぁ…
- 22 名前:デフォルトの名無しさん mailto:sage [04/09/11 18:42:28]
- 勇者募集中
- 23 名前:デフォルトの名無しさん mailto:sage [04/09/11 19:30:14]
- >>22
DQ3の世界の勇者です。アレフガルドからこの世界に来ました。
- 24 名前:デフォルトの名無しさん mailto:sage [04/09/11 19:36:27]
- DQ1の世界にお帰りください
- 25 名前:デフォルトの名無しさん mailto:sage [04/09/11 19:41:22]
- 興味ないんだったらスレ立てるなヴォケ>>1
- 26 名前:デフォルトの名無しさん mailto:sage [04/09/11 21:01:16]
- >>19
アホだな。当初の人間が想像していた物って何か、わかってるの? その期待がどうしてしぼんだか、その後どのようなブレークスルーが発見されて 次のブームが起きたか、言ってごらん。
- 27 名前:デフォルトの名無しさん mailto:sage [04/09/11 21:03:16]
- あまり構ってやるなよ。
- 28 名前: ◆HOTsoUpxjY mailto:sage [04/09/11 21:39:52]
- >>1
www.1101.com/morikawa/index_AI.html
- 29 名前:デフォルトの名無しさん mailto:sage [04/09/11 21:43:36]
- >>28
可愛いから買っちゃったよ。 子供向きで遊べるかな〜って思ったけど、絵本ほどの価値もなかった。
- 30 名前: ◆HOTsoUpxjY mailto:sage [04/09/11 21:52:35]
- >>14
シグモイド関数って谷底へ落ちるボールみたいに最適解を探して、 でも小さい谷に引っ掛かってローカルミニマムになっちゃうって、そこら辺の話で出てきたな >>29 「がんばれ森川君」かな?やったことないから分からないけど… ゲームなら、賛否が分かれるけどGPMとかEVA2とかがAIだね
- 31 名前:デフォルトの名無しさん mailto:sage [04/09/11 21:55:51]
- >>30
リンク先みた? マッチ箱の脳っていう本だよ
- 32 名前: ◆HOTsoUpxjY mailto:sage [04/09/11 22:25:18]
- >>31
>子供向きで遊べるかな〜 っていうから…ゲームの話かなと思った 入門書で実際にプログラムするのとは別って感じじゃない
- 33 名前:デフォルトの名無しさん mailto:sage [04/09/11 23:20:34]
- >>30
完全な最適解を求めることは不可能か、計算量があまりにも大きすぎます。 関数の形が完全に分かればともかく、グラディエントしか分からない場合は ローカルミニマムを求めるしかないです。
- 34 名前:デフォルトの名無しさん [04/09/11 23:25:43]
- ポストペットでつかわれてるお
- 35 名前:デフォルトの名無しさん mailto:sage [04/09/12 08:11:52]
- むりやり学習されるだけが脳じゃない
- 36 名前:デフォルトの名無しさん mailto:sage [04/09/13 00:13:53]
- >>35
ニューラルネットワークだけで人間が望むような学習を自動的にさせることは出来ません。
- 37 名前:35 mailto:sage [04/09/13 01:01:03]
- 出力を短時間で決定するためにBPなどを使うみたいですが
これは求める結果をあらかじめ固定しますよね 逆に結果によってどうさを切り替えるような構成って出来ないものでしょうか? 学識もない人間なので適当なことを言ってますが 人間の脳ってBPなんて機能はもってないですしね
- 38 名前:36 mailto:sage [04/09/13 01:18:15]
- 結果に対して動作を切り替えるとは、例えばどのような場合ですか?
入力と出力の組が分かっているとき(例えば、ある画像パターンAが「1」を意味する場合)、 画像パターンAを入力すると「1」を出力するように学習させることは出来ます。 (これは個人的な憶測ですが)おそらく、人が普段「何となくそんな感じがする」というときは BPによって(無意識のうちに)学習されているのかも知れません。 具体的に脳の学習のメカニズムがどうなっているのかまでは(勉強不足で)分かりません。
- 39 名前:35 mailto:sage [04/09/13 01:33:13]
- その場合ですと、初期状態でAが0を示すなら0がAであると
決めてしまえば学習する必要はないですし、類似のパターンについても 繰り返し入力することで0へかたよっていくような構成にしてしまう この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。 具体的にどうしたらいいかって聞かれても答えられませんが。。。 人間の脳は発火した細胞の結線は短いものがのびくっついてるものは より強化される。 発火がないとじょじょに萎縮していく。 と認識してます。 間違ってたら誰か指摘して下さい。
- 40 名前:36 mailto:sage [04/09/13 01:55:58]
- >その場合ですと、初期状態でAが0を示すなら0がAであると
>決めてしまえば学習する必要はないですし、類似のパターンについても >繰り返し入力することで0へかたよっていくような構成にしてしまう Aが0と決めると言っても、Aは実際には無数にあるので(24*24の白黒2値画像だと 2^576 通り)、 それら全ての組み合わせをあらかじめ決めておくことは現実的ではありません。 それを近似的に解決する方法の一つがNN(ニューラルネットワーク)です。 初期状態では何が何を指すのかは未知なので、新たに学習させる必要があります。 NNは、類似のパターンについても繰り返し入力することで期待する分類を行ってくれるようになる方法の一つです。 但し、常にうまくいくとは限りません。 >この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。 >具体的にどうしたらいいかって聞かれても答えられませんが。。。 NNは、A_1, A_2, ・・・・, A_n (n=10000くらい)の入力と出力の関係を学習させて、似たようなパターンが現れたら (良い条件のもとで)期待する出力を返すものです。一つだけパターンを与えて、それに似たものを全て 的確に答えてくれる高度なものはNNでは出来ません。 人間は、実は非常に高度な分類を日常的にしているので、それが凄いことだと気づかないのです。 >人間の脳は発火した細胞の結線は短いものがのびくっついてるものは >より強化される。 >発火がないとじょじょに萎縮していく。 >と認識してます。 >間違ってたら誰か指摘して下さい。 そんな感じでいいと思います。 コンピュータで実現するNNの場合は、学習結果の衰退が起こらないという点で実際の脳と違いますが・・・
- 41 名前:35 mailto:sage [04/09/13 02:31:54]
- 現実的でないのはわかります。
今後の展望という意味で人間の脳に近づけることは非常に良い結果を 得られるんじゃないかと考えているんですが。 例えば脳は小脳と大脳があって小脳はほぼ変化しないそうです。 かってな考えですが小脳が大脳をコントロールする役割を果たしてるんじゃないかと 考えています。 前文で言ったNNで自動化するって部分がこれに相当するんじゃないかと思っています。 とりとめのない話ではありますが。。。
- 42 名前:デフォルトの名無しさん mailto:sage [04/09/13 09:54:50]
- とりあえずこれでも読んでくれ。
脳とコンピュータはどう違うか www.amazon.co.jp/exec/obidos/ASIN/4062574128/
- 43 名前: ◆HOTsoUpxjY mailto:sage [04/09/13 18:52:17]
- >>33
完全な最適解を求めるのは無理だし無意味だよね Boltzmann machine でボールに勢い(温度)を持たせて 小さい谷なら越えちゃうというのは有効だね
- 44 名前: ◆HOTsoUpxjY mailto:sage [04/09/13 18:56:30]
- ゲームの話になるけど、カルネージハートってのがあって、AIじゃないけど非常に面白かった
んで知ってる人にしか分からないけど、あのパネルをNNのノードに見立てたらどうかな 刺激が多いとパネルか、それを繋ぐラインが成長するとか…誰か作ってくんないかな
- 45 名前:デフォルトの名無しさん [04/09/14 18:01:41]
- >>43
入力を表すベクトルを v、内部状態を表すベクトルを w、そのときの出力ベクトルを f(v)、望みの出力を f0 とするとき、 E =|f(v, w)-f0|^2 (|x|はユークリッドノルム) w_0 を初期の内部状態として w_(n+1) = w_n - δ*∂E/∂w とするのが最急降下法による学習ですが、 w と同じ次元の乱数ベクトル r を使って w_(n+1) = w_n - δ*∂E/∂w + r_n とするのでしょうか?
- 46 名前:デフォルトの名無しさん mailto:sage [04/09/15 07:48:33]
- Blondie24: Playing at the Edge of AI
www.amazon.com/exec/obidos/ASIN/1558607838 IBMのDeepBlueは人間が過去に蓄積したチェスの知識を強力なマシンで ぶん回す力ずくの代物だったのに対し、この本では何の知識も無い ニューラルネットがパソコン上で自身と対戦して学習するだけで トップレベルのチェッカープレーヤに成長する過程を書いている。 どっちがAIの成果と言えるのか考えさせられる良書
- 47 名前:デフォルトの名無しさん mailto:sage [04/09/15 21:28:41]
- でもニューラルネットでできるのは、それがチェッカーだからだけどな。
パソコン上で自分自身または他のプログラムと対戦させて強くする、というのは 囲碁なんかでもあるね。
- 48 名前:デフォルトの名無しさん mailto:sage [04/09/15 23:13:54]
- ちなみに>>46のチェッカープログラムは自己学習したニューラル
ネットだけでトップレベルに達することを実証するため、定石や 結論の出ているデータをわざと使わないで作っている。 強さだけを論じるなら、数百年に渡る人間の知識再生型チェッカー プログラムはさらに強い。 バックギャモンもニューラルネットプログラムが強いが、こちらは 知識再生型プログラムは激ヨワでお話しにならず、ニューラルネット 導入で初めてトッププレーヤの域に達した。 ニューラルネットが適するかはゲームの複雑さも影響するが、 ゲームの性格に因る所が大きい。囲碁も知識再生だけに頼ると 限界が近いタイプのゲームに思える。
- 49 名前:デフォルトの名無しさん [05/01/16 17:38:50]
- 3層ニューラルネットワークをC言語で作成しろって課題が出たんだが、
参考になりそうなサイト無い?
- 50 名前:デフォルトの名無しさん mailto:sage [05/01/16 19:07:58]
- ニューラルネットワークなんて何層でも同じ様なコードだろ
- 51 名前:デフォルトの名無しさん mailto:sage [05/02/20 17:18:40 ]
- >>49
今どきの学生はそのくらいの課題をウェブに頼ろうとするのか…。
- 52 名前:デフォルトの名無しさん [05/03/01 00:02:51 ]
- Javaで階層型ニューラルネットワークのコードを書いてみたよ
興味があったら使ってみて、バグ探しとか、改良して www.geocities.jp/retort_curry119/NN.htm とりあえす、XORの入出力関係を学習するのを作ってある
- 53 名前:デフォルトの名無しさん [2005/08/10(水) 23:35:32 ]
- ニューラルタシーロはいつできるようになるんですか?
- 54 名前:なつかしい [2005/08/12(金) 01:19:42 ]
- うは、なつかしい。
ニューラルネットワークは、大学のゼミの卒論テーマだった。 いまから13年前だ。。。 そこで、文字認識をやらせるプログラムをC言語で組んだ。 いまのパソコン性能なら一瞬で終わる処理が、13時間とか かかってたなー。 まあ、卒論発表近くで重大なバグを発見して、血の気が引いたけど。 >>49 こういうこともあるから、自分で一から作ってかないと、痛い目にあうよ。 あのころと理論変わってないのかな?3層のやつ? 理論の名称も浮かばないや。 卒業したてのころは、競馬予想をやるソフトを開発してやろうと 思ってたけど、仕事が楽しくて、そっちに気が回らなくなったよなw
- 55 名前:デフォルトの名無しさん [2005/08/15(月) 18:26:22 ]
- >>35
人間のように、反抗してワザと駄目な値を模索したりとかなら面白いと思います。 なんらかの自律的動きをしてるようにうかがえる範囲で。
- 56 名前:デフォルトの名無しさん [2005/08/26(金) 12:26:02 ]
- >30
>GPMとかEVA2とかがAIだね 殆どのゲームでAIって使ってんじゃないか?(程度の上下はあるが) ガンパレとかはAIの程度の高さを売りにしてのかな?
- 57 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 12:44:35 ]
- ニューラルネットワークに「学習」させる方法は
バックプロパゲーションとかいろいろあると思うけど 実際の脳ではシナプスの重みの調整をどんな方法でやってるの? おせぇてエロい人
- 58 名前:デフォルトの名無しさん [2005/08/26(金) 13:36:36 ]
- >>57
興奮とか抑制とか よくわかってないスマソ
- 59 名前:デフォルトの名無しさん [2005/08/26(金) 15:15:05 ]
- ヘッブしゅん!
- 60 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 15:58:29 ]
- >>57
www.tmd.ac.jp/artsci/biol/textlife/synapse2.jpg 結合を司る細胞の数、だと思う。たぶん。
- 61 名前:デフォルトの名無しさん [2005/08/26(金) 16:26:36 ]
- >>60
その「細胞の数」がどういうときに調整されるのかが知りたいんだが。 どういうときにどう調整されれば「学習」できるのか。
- 62 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:09:52 ]
- 電流の通る頻度だと思う
- 63 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:19:30 ]
- 単純に電気の通る頻度なら、
少しでも電気の通りやすいところがあったら そこに電気が通って、さらに通りやすくなって、 またそこに電気が通っての繰り返しになって 学習もなにもあったもんじゃないような希ガス。 いや、俺はニューラルネットワークは知らないんだが。
- 64 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:27:51 ]
- >>63
筋肉と同じで、使えば使うほど強くなると思うが、消費が激しいと老化が早くなるかもな。 筋肉は入れ替えが起こるが、神経はそうもいかんし。 接続強さの上限があって、あまりに激しく使用すると、その接続部分だけ疲弊するかもな。 それが、忘れる事だったり、柔軟性だったりするかもな。
- 65 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:50:31 ]
- >>63
通りやすくなれば通る頻度が上がるとは限らないわけで。
- 66 名前:デフォルトの名無しさん mailto:sage [2005/08/27(土) 01:48:18 ]
- たぶんこんなん
homepage1.nifty.com/kaneko/ed.htm
- 67 名前:デフォルトの名無しさん [2005/09/04(日) 09:07:12 ]
- ∧_∧
`∧( ´∀`) age ( ⊂ ⊃ ( つ ノ ノ |(__)_) (__)_)
- 68 名前:デフォルトの名無しさん mailto:sage [2005/09/04(日) 10:29:41 ]
- 柔軟性が接続部分の疲弊だったら、
数学なんていらないんじゃないのか。(この世に)
- 69 名前:デフォルトの名無しさん [2005/09/04(日) 11:08:27 ]
- |ヽ‐-へ
i _゚Д゚」 ゙´ノノ)))) l ノ゚ヮ゚ノl ノ⊂)卯!つ ´((く/_||リ しソ
- 70 名前:デフォルトの名無しさん mailto:sage [2005/09/09(金) 05:23:53 ]
- www.google.co.jp/search?q=%E3%82%B0%E3%83%AA%E3%82%A2+%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%AD%E3%83%B3+%E5%9B%9E%E8%B7%AF%E7%B6%B2
- 71 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 02:53:52 ]
- >>57
樹状突起のスパイン(棘)が増えたり減ったりするのがメインらしいが 樹状突起自体も増えたり減ったり 神経細胞自体も増えたり減ったり する ベースにあるのは蛋白質の合成過程と言われている
- 72 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 03:35:51 ]
- レセプターのリン酸化非リン酸化とかいろいろ複雑だよねえ
- 73 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 07:51:29 ]
- >>71
記憶って作業が、そんな物理的な構造の変化によって行われるのなら 俺の記憶力が悪いのも頷ける。
- 74 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 11:59:16 ]
- ストレスが強いとマジで記憶の定着が悪くなる
長時間考えると覚えられる(40分程度は掛かるそうだ)
- 75 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 19:16:31 ]
- >>74
覚えた事をすぐに取り出せないのですが・・・ 毎日会っているはずの人の名前がすぐに出てこなかったり。 覚えてはいるはずなんだけど。
- 76 名前:デフォルトの名無しさん mailto:sage [2005/09/12(月) 06:34:05 ]
- それ、病院で診察受けた方がいいかもよ。
- 77 名前:デフォルトの名無しさん mailto:sage [2005/09/14(水) 21:07:45 ]
- >>71
メインの現象で追加 スパインの増減もあるけど イオンチャネルの数(チャネルのスパイン表面への運搬、挿入による) チャネルのイオン透過性(チャネルのリン酸化による) 神経伝達物質の放出確率(シラネ)も増減します >神経細胞自体も増えたり減ったり 発生過程では正解 ご存知のとおり、神経細胞は成熟した脳ではほとんど増えません
- 78 名前:デフォルトの名無しさん mailto:sage [2005/09/14(水) 21:16:26 ]
- >>76
なんか診てもらっても凹むだけの気が。
- 79 名前:71 mailto:sage [2005/09/16(金) 00:20:04 ]
- >>77
それどの位の時間で発生してどの位維持されるの? うん,学習の基本になる機構としてはアポトーシスが一番重要なんじゃ ないかと最近考えてる.今のNNにはそれが抜けてるんだよね さらに,大脳皮質は「野」が階層構造になってるけど物理的には一枚(大き 目のハンカチ程度)なわけで,これが階層構造を構成する仕組みも重要ではないかと
- 80 名前:71 mailto:sage [2005/09/16(金) 00:21:46 ]
- >>75
それ単なるストレス過多(まだ40歳前なら) 連書きスマソ
- 81 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 01:01:24 ]
- >>80
うぐ・・・そうなのか。確かにストレス溜まっているかも。 まだ31です。客先常駐なのに名前忘れるから困る。
- 82 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 14:47:57 ]
- >>81
ストレス過多もあるけど忙し過ぎるって可能性もある 前に書いたけど記憶の定着には40分〜1時間程度掛かるから その間に注意が他の事に逝ってしまったらきちんと定着されない 次の仕事との間にある程度間をおくのが有効かも知れない(試したことはない)
- 83 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 20:34:41 ]
- >>82
今まで働きづめだからな・・・俺に限らないだろうけど。 にしても教えてくれてありがと。ためになったよ。
- 84 名前:デフォルトの名無しさん [2005/09/23(金) 01:14:53 ]
- age
- 85 名前:デフォルトの名無しさん [2005/10/24(月) 00:53:24 ]
- 階層型のNNの伝達関数にRBFを使った場合、
関数の中心,分散を意味する変数の修正は、 通常のBPと同様に、微分で計算するの?
- 86 名前:デフォルトの名無しさん [2005/10/26(水) 21:58:15 ]
- 3層バックプロパゲーションモデルって今でも定番なのね。
17年前にSun3でC言語とSunViewで組んだ記憶が・・・。 重み値を遡及して再計算したり、大変そうw 発火、教師データ、類似度、なんていう表記も使ってたっけ。 これに企業の財務諸表データを入れ、複数の重みセットを組み合わせると 面白そうだなと思っていた時期があった。
- 87 名前:デフォルトの名無しさん mailto:age [2005/11/21(月) 00:25:07 ]
- 質問(?)します!
相互結合型ニューラルネットの代表的な例でいいですから、 アルゴリズムの名前を教えてください。
- 88 名前:デフォルトの名無しさん mailto:sage [2005/11/21(月) 01:36:51 ]
- ホップフィールドとか
その一種のボルツマンマシンとか
- 89 名前:デフォルトの名無しさん mailto:sage [2005/12/08(木) 00:35:56 ]
- 3層バックプロパゲーションモデルの典型的なプログラムを掲載しているサイト教えてよん
- 90 名前:デフォルトの名無しさん [2005/12/22(木) 17:42:15 ]
- age
- 91 名前:デフォルトの名無しさん [2005/12/23(金) 00:42:35 ]
- SOMは相互結合型でOK?
- 92 名前:デフォルトの名無しさん [2006/03/04(土) 19:51:58 ]
- 20年くらい前に、家電でニューロブームがあったが、
どんな内容だったんだろう。
- 93 名前:デフォルトの名無しさん [2006/03/05(日) 01:03:28 ]
- ファジィじゃなくて?
- 94 名前:デフォルトの名無しさん mailto:sage [2006/03/12(日) 02:15:51 ]
- 朧な記憶では,ニューロで学習したパラメタをハードコードしただけだったかと
- 95 名前:デフォルトの名無しさん mailto:sage [2006/03/17(金) 13:00:21 ]
- 単純なニューロでメンバーシップ関数を作って、ファジーチップに書き込んでいた
実際、最適値は、処理目的ごとに似たような結果になるので、ファジーで十分 家電の制御回路に、ニューロを組み込んで、「家電購入後、1ヶ月は、学習中です」 なんて、イヤ
- 96 名前:http://www.vector.co.jp/soft/win95/util/se072729.html mailto:http://msdn2.microsoft.com/ja-jp/library/h2k70f3s.aspx [2006/03/18(土) 22:20:05 ]
- TextSS のWindowsXP(Professional)64bit対応化おながいします
もしくは64bitにネイティブ対応したテキスト置換ソフトありますか? そういや64bitにネイティブ対応している2chブラウザてありましたっけ?
- 97 名前:デフォルトの名無しさん [2006/03/18(土) 22:23:39 ]
- マルチガッ!
- 98 名前:デフォルトの名無しさん mailto:sage [2006/04/23(日) 09:15:29 ]
- sage
- 99 名前:デフォルトの名無しさん mailto:sage [2006/05/30(火) 08:49:09 ]
- >95
あらかじめある程度学習させておけば良いんじゃないのか?
- 100 名前:デフォルトの名無しさん [2006/05/31(水) 16:15:58 ]
- 自己相関学習と相互相関学習ってなにさ?
- 101 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 01:23:23 ]
- C++を使った鉄棒ロボットシミュレータプログラムで
ロボットに鉄棒での倒立運動を学習させる、という研究に ニューラルネットワークを応用したいのですが・・・ BP法など、本を読んでもよくわかりません。 そもそも、教師値というのは、正解データの事ですよね? 正解データが、欲しいデータが分かっているのにネットワークに学習させる、 というのがよく分かりません・・・。 BP法とは、どのような使い方をするのでしょうか。 具体的に知りたいです。 というか、 そもそも、この研究にニューラルネットを使うことが間違っているのでしょうか? 分かる範囲でいいので、何かアドバイスがあればお願いします。
|

|