[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 05/09 14:36 / Filesize : 232 KB / Number-of Response : 916
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

ニューラルネットワーク



1 名前:1 [04/09/11 01:48:08]
について教えてよ

52 名前:デフォルトの名無しさん [05/03/01 00:02:51 ]
Javaで階層型ニューラルネットワークのコードを書いてみたよ
興味があったら使ってみて、バグ探しとか、改良して

www.geocities.jp/retort_curry119/NN.htm

とりあえす、XORの入出力関係を学習するのを作ってある

53 名前:デフォルトの名無しさん [2005/08/10(水) 23:35:32 ]
ニューラルタシーロはいつできるようになるんですか?

54 名前:なつかしい [2005/08/12(金) 01:19:42 ]
うは、なつかしい。
ニューラルネットワークは、大学のゼミの卒論テーマだった。
いまから13年前だ。。。
そこで、文字認識をやらせるプログラムをC言語で組んだ。
いまのパソコン性能なら一瞬で終わる処理が、13時間とか
かかってたなー。
まあ、卒論発表近くで重大なバグを発見して、血の気が引いたけど。
>>49
こういうこともあるから、自分で一から作ってかないと、痛い目にあうよ。

あのころと理論変わってないのかな?3層のやつ?
理論の名称も浮かばないや。
卒業したてのころは、競馬予想をやるソフトを開発してやろうと
思ってたけど、仕事が楽しくて、そっちに気が回らなくなったよなw


55 名前:デフォルトの名無しさん [2005/08/15(月) 18:26:22 ]
>>35
人間のように、反抗してワザと駄目な値を模索したりとかなら面白いと思います。
なんらかの自律的動きをしてるようにうかがえる範囲で。

56 名前:デフォルトの名無しさん [2005/08/26(金) 12:26:02 ]
>30
>GPMとかEVA2とかがAIだね
殆どのゲームでAIって使ってんじゃないか?(程度の上下はあるが)
ガンパレとかはAIの程度の高さを売りにしてのかな?

57 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 12:44:35 ]
ニューラルネットワークに「学習」させる方法は
バックプロパゲーションとかいろいろあると思うけど
実際の脳ではシナプスの重みの調整をどんな方法でやってるの?

おせぇてエロい人


58 名前:デフォルトの名無しさん [2005/08/26(金) 13:36:36 ]
>>57
興奮とか抑制とか




よくわかってないスマソ


59 名前:デフォルトの名無しさん [2005/08/26(金) 15:15:05 ]
ヘッブしゅん!

60 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 15:58:29 ]
>>57
www.tmd.ac.jp/artsci/biol/textlife/synapse2.jpg
結合を司る細胞の数、だと思う。たぶん。



61 名前:デフォルトの名無しさん [2005/08/26(金) 16:26:36 ]
>>60
その「細胞の数」がどういうときに調整されるのかが知りたいんだが。

どういうときにどう調整されれば「学習」できるのか。


62 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:09:52 ]
電流の通る頻度だと思う

63 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:19:30 ]
単純に電気の通る頻度なら、
少しでも電気の通りやすいところがあったら
そこに電気が通って、さらに通りやすくなって、
またそこに電気が通っての繰り返しになって
学習もなにもあったもんじゃないような希ガス。

いや、俺はニューラルネットワークは知らないんだが。


64 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:27:51 ]
>>63
筋肉と同じで、使えば使うほど強くなると思うが、消費が激しいと老化が早くなるかもな。
筋肉は入れ替えが起こるが、神経はそうもいかんし。
接続強さの上限があって、あまりに激しく使用すると、その接続部分だけ疲弊するかもな。
それが、忘れる事だったり、柔軟性だったりするかもな。

65 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:50:31 ]
>>63
通りやすくなれば通る頻度が上がるとは限らないわけで。

66 名前:デフォルトの名無しさん mailto:sage [2005/08/27(土) 01:48:18 ]
たぶんこんなん
homepage1.nifty.com/kaneko/ed.htm

67 名前:デフォルトの名無しさん [2005/09/04(日) 09:07:12 ]
  ∧_∧
`∧( ´∀`) age
( ⊂   ⊃
( つ ノ ノ
|(__)_)
(__)_)

68 名前:デフォルトの名無しさん mailto:sage [2005/09/04(日) 10:29:41 ]
柔軟性が接続部分の疲弊だったら、
数学なんていらないんじゃないのか。(この世に)



69 名前:デフォルトの名無しさん [2005/09/04(日) 11:08:27 ]
 |ヽ‐-へ
 i _゚Д゚」
 ゙´ノノ))))
 l ノ゚ヮ゚ノl
 ノ⊂)卯!つ
´((く/_||リ
   しソ

70 名前:デフォルトの名無しさん mailto:sage [2005/09/09(金) 05:23:53 ]
www.google.co.jp/search?q=%E3%82%B0%E3%83%AA%E3%82%A2+%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%AD%E3%83%B3+%E5%9B%9E%E8%B7%AF%E7%B6%B2



71 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 02:53:52 ]
>>57
樹状突起のスパイン(棘)が増えたり減ったりするのがメインらしいが
樹状突起自体も増えたり減ったり
神経細胞自体も増えたり減ったり
する ベースにあるのは蛋白質の合成過程と言われている

72 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 03:35:51 ]
レセプターのリン酸化非リン酸化とかいろいろ複雑だよねえ

73 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 07:51:29 ]
>>71
記憶って作業が、そんな物理的な構造の変化によって行われるのなら
俺の記憶力が悪いのも頷ける。

74 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 11:59:16 ]
ストレスが強いとマジで記憶の定着が悪くなる
長時間考えると覚えられる(40分程度は掛かるそうだ)

75 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 19:16:31 ]
>>74
覚えた事をすぐに取り出せないのですが・・・
毎日会っているはずの人の名前がすぐに出てこなかったり。
覚えてはいるはずなんだけど。

76 名前:デフォルトの名無しさん mailto:sage [2005/09/12(月) 06:34:05 ]
それ、病院で診察受けた方がいいかもよ。


77 名前:デフォルトの名無しさん mailto:sage [2005/09/14(水) 21:07:45 ]
>>71
メインの現象で追加

スパインの増減もあるけど
イオンチャネルの数(チャネルのスパイン表面への運搬、挿入による)
チャネルのイオン透過性(チャネルのリン酸化による)
神経伝達物質の放出確率(シラネ)も増減します

>神経細胞自体も増えたり減ったり
発生過程では正解
ご存知のとおり、神経細胞は成熟した脳ではほとんど増えません

78 名前:デフォルトの名無しさん mailto:sage [2005/09/14(水) 21:16:26 ]
>>76
なんか診てもらっても凹むだけの気が。


79 名前:71 mailto:sage [2005/09/16(金) 00:20:04 ]
>>77
それどの位の時間で発生してどの位維持されるの?
うん,学習の基本になる機構としてはアポトーシスが一番重要なんじゃ
ないかと最近考えてる.今のNNにはそれが抜けてるんだよね
さらに,大脳皮質は「野」が階層構造になってるけど物理的には一枚(大き
目のハンカチ程度)なわけで,これが階層構造を構成する仕組みも重要ではないかと

80 名前:71 mailto:sage [2005/09/16(金) 00:21:46 ]
>>75
それ単なるストレス過多(まだ40歳前なら)
連書きスマソ



81 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 01:01:24 ]
>>80
うぐ・・・そうなのか。確かにストレス溜まっているかも。
まだ31です。客先常駐なのに名前忘れるから困る。

82 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 14:47:57 ]
>>81
ストレス過多もあるけど忙し過ぎるって可能性もある
前に書いたけど記憶の定着には40分〜1時間程度掛かるから
その間に注意が他の事に逝ってしまったらきちんと定着されない
次の仕事との間にある程度間をおくのが有効かも知れない(試したことはない)


83 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 20:34:41 ]
>>82
今まで働きづめだからな・・・俺に限らないだろうけど。
にしても教えてくれてありがと。ためになったよ。

84 名前:デフォルトの名無しさん [2005/09/23(金) 01:14:53 ]
age

85 名前:デフォルトの名無しさん [2005/10/24(月) 00:53:24 ]
階層型のNNの伝達関数にRBFを使った場合、
関数の中心,分散を意味する変数の修正は、
通常のBPと同様に、微分で計算するの?


86 名前:デフォルトの名無しさん [2005/10/26(水) 21:58:15 ]
3層バックプロパゲーションモデルって今でも定番なのね。
17年前にSun3でC言語とSunViewで組んだ記憶が・・・。

重み値を遡及して再計算したり、大変そうw
発火、教師データ、類似度、なんていう表記も使ってたっけ。
これに企業の財務諸表データを入れ、複数の重みセットを組み合わせると
面白そうだなと思っていた時期があった。

87 名前:デフォルトの名無しさん mailto:age [2005/11/21(月) 00:25:07 ]
質問(?)します!
相互結合型ニューラルネットの代表的な例でいいですから、
アルゴリズムの名前を教えてください。

88 名前:デフォルトの名無しさん mailto:sage [2005/11/21(月) 01:36:51 ]
ホップフィールドとか
その一種のボルツマンマシンとか

89 名前:デフォルトの名無しさん mailto:sage [2005/12/08(木) 00:35:56 ]
3層バックプロパゲーションモデルの典型的なプログラムを掲載しているサイト教えてよん

90 名前:デフォルトの名無しさん [2005/12/22(木) 17:42:15 ]
age



91 名前:デフォルトの名無しさん [2005/12/23(金) 00:42:35 ]
SOMは相互結合型でOK?

92 名前:デフォルトの名無しさん [2006/03/04(土) 19:51:58 ]
20年くらい前に、家電でニューロブームがあったが、
どんな内容だったんだろう。

93 名前:デフォルトの名無しさん [2006/03/05(日) 01:03:28 ]
ファジィじゃなくて?

94 名前:デフォルトの名無しさん mailto:sage [2006/03/12(日) 02:15:51 ]
朧な記憶では,ニューロで学習したパラメタをハードコードしただけだったかと

95 名前:デフォルトの名無しさん mailto:sage [2006/03/17(金) 13:00:21 ]
単純なニューロでメンバーシップ関数を作って、ファジーチップに書き込んでいた
実際、最適値は、処理目的ごとに似たような結果になるので、ファジーで十分
家電の制御回路に、ニューロを組み込んで、「家電購入後、1ヶ月は、学習中です」
なんて、イヤ

96 名前:http://www.vector.co.jp/soft/win95/util/se072729.html mailto:http://msdn2.microsoft.com/ja-jp/library/h2k70f3s.aspx [2006/03/18(土) 22:20:05 ]
TextSS のWindowsXP(Professional)64bit対応化おながいします

もしくは64bitにネイティブ対応したテキスト置換ソフトありますか?

そういや64bitにネイティブ対応している2chブラウザてありましたっけ?


97 名前:デフォルトの名無しさん [2006/03/18(土) 22:23:39 ]
マルチガッ!

98 名前:デフォルトの名無しさん mailto:sage [2006/04/23(日) 09:15:29 ]
sage

99 名前:デフォルトの名無しさん mailto:sage [2006/05/30(火) 08:49:09 ]
>95
あらかじめある程度学習させておけば良いんじゃないのか?

100 名前:デフォルトの名無しさん [2006/05/31(水) 16:15:58 ]
自己相関学習と相互相関学習ってなにさ?



101 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 01:23:23 ]
C++を使った鉄棒ロボットシミュレータプログラムで
ロボットに鉄棒での倒立運動を学習させる、という研究に
ニューラルネットワークを応用したいのですが・・・

BP法など、本を読んでもよくわかりません。

そもそも、教師値というのは、正解データの事ですよね?
正解データが、欲しいデータが分かっているのにネットワークに学習させる、
というのがよく分かりません・・・。
BP法とは、どのような使い方をするのでしょうか。
具体的に知りたいです。

というか、
そもそも、この研究にニューラルネットを使うことが間違っているのでしょうか?

分かる範囲でいいので、何かアドバイスがあればお願いします。

102 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 02:45:14 ]
>>101
> BP法とは、どのような使い方をするのでしょうか。

文字認識で、最初にそれぞれの文字教えといて、問題の図形がどの文字か判定させるとか。
そういう、分類する問題に強いと思った。

103 名前:デフォルトの名無しさん mailto:age [2006/06/13(火) 11:59:56 ]
age

104 名前:デフォルトの名無しさん mailto:sage [2006/06/15(木) 23:59:22 ]
ニューラルネットワークを利用した卒論修論でおもしろい利用法ないですかね?

105 名前:デフォルトの名無しさん mailto:sage [2006/06/16(金) 00:45:37 ]
あっても2chにゃ書かねーわなw

106 名前:デフォルトの名無しさん mailto:sage [2006/06/16(金) 00:56:35 ]
>>102
まさに今日その講義を聴いたところだw
他にはなにも思いつかない

>>105
そりゃそうかw
NNがどういうことに利用できるか検討がつかないんです。
C++でNNだけ作るとしたら、スキルの差もあるでしょうが
何行ぐらいでできるものなんでしょうか?

107 名前:デフォルトの名無しさん [2006/06/18(日) 20:20:03 ]
あげ

108 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 20:27:54 ]
お前らシミュレーション板がありますよ。
面白いネタが多いんだが、過疎なんだよな。あそこ。

109 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 21:20:03 ]
おもしろいネタってどんなのがあるよ

110 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 21:35:31 ]
いけばいいじゃん。知的好奇心をあおられると思うけど。




111 名前:デフォルトの名無しさん [2006/06/27(火) 23:07:34 ]
これね↓
science4.2ch.net/test/read.cgi/sim/1015733653/l50

112 名前:デフォルトの名無しさん [2006/07/12(水) 18:45:11 ]
一つのニューロンへの入力は2通りしかだめですよね。
例えば3通りあったとして、それぞれ 0, 0.5, 1.0 としても 0.5 と 1.0 の意味が違うのに
単に大きさの違いとしか捉えきれないと言う事です。
では、一つのニューロンに3通り以上の入力を関連付けたい場合はどうすればいいのでしょうか?

ちなみに、ニューラルネットの事はあまり分かってないので、的外れのことを言っていたらすみません。

113 名前:デフォルトの名無しさん mailto:sage [2006/07/12(水) 21:07:11 ]
複数の入力に分ける

114 名前:デフォルトの名無しさん mailto:age [2006/09/30(土) 15:02:11 ]
www.aso.ecei.tohoku.ac.jp/~myn/research/research.html
そいやこんなもの見つけたんだがちゃんとコンパイルできる?

それとも俺がヘタレなだけなんだろうか?

115 名前:デフォルトの名無しさん mailto:sage [2006/09/30(土) 15:15:19 ]
いいえ

116 名前:デフォルトの名無しさん mailto:sage [2006/11/07(火) 15:07:22 ]
ニューラルネットワークの仕組みが分からないなら、まずファジー技術を
学べ。それが理解できるならニューラルネットの学習法則も理解できよう。
まあ、仕組みなど理解できなくても利用できるし、理解する必要など無いし
特徴だけしっていればという考えの奴がほとんどだとおもうがw

117 名前:デフォルトの名無しさん mailto:sage [2006/11/07(火) 21:25:41 ]
何だ藪から棒に

118 名前:デフォルトの名無しさん mailto:age [2006/11/10(金) 15:12:17 ]
抽象化層の意味を理解せず、ニューラルネットワークの学習機能だけを
耳コピーしたような奴ばっかりだなw。
愚か

119 名前:デフォルトの名無しさん mailto:sage [2006/11/12(日) 02:23:54 ]
>>118
自分で考えず教科書の建前な所だけしか理解できない奴が増えているのは
事実だが、それは放置して具体的例で教えてやったらどうだ?

120 名前:デフォルトの名無しさん mailto:age [2006/11/14(火) 02:31:07 ]
結局、新しいアルゴリズムは何もでない。



121 名前:デフォルトの名無しさん mailto:Tage [2006/11/14(火) 22:37:25 ]
はい?

122 名前:デフォルトの名無しさん [2006/11/15(水) 03:10:13 ]
ニューラルネットワークとは信者が作った幻想にしかすぎない。
これは事実であって、どんなに力説しようが、絵に書いた餅。
研究対象として企業から支援してもらう為、あらゆる分野で
大騒ぎしている香具師が一部にいるだけなのをご存知じゃないだけ。

123 名前:デフォルトの名無しさん [2006/11/15(水) 03:53:22 ]
あ、そうなんだ。
研究室変えるわ。

124 名前:デフォルトの名無しさん mailto:sage [2006/11/15(水) 04:17:42 ]
>>101
教師あり学習・教師なし学習を調べろ。って6月か。




つうか、ニューラルネットって、能力の限界はとっくに明らかになってるだろ?
ニューロン自体に新しいモデルを入れないとだめじゃん?

ってBPとかフィードフォワード型だけだっけ?
甘利の本読まなきゃと思いつつ未だに読んでない。

125 名前:デフォルトの名無しさん mailto:sage [2006/11/15(水) 23:30:22 ]
ミンスキーの論文に書いてある。

126 名前:デフォルトの名無しさん [2006/11/18(土) 01:43:11 ]
ニューラルチップというのは過去に大手半導体メーカーが何度も試作したが
複雑さが増えれば指数的に組み合わせが無限に増える訳で音声認識が限界だと
ファイナルアンサー済み。

127 名前:デフォルトの名無しさん [2006/11/27(月) 01:21:43 ]
1つだけ言わせてくれ。今更ニューラルやってもデータ量の分布が激しいと
絶対使えないと思う。プログラム組んでみて解った。数式だけじゃ現実は
解決しないんだよ。こんなの採用するやつは何を考えているんだろう。

128 名前:デフォルトの名無しさん [2006/11/27(月) 02:11:28 ]
>>126
チップの方だって、ムーアの法則で指数関数的に性能向上してる訳だぜ?

129 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 05:16:57 ]
>>127
1つのニューラルで全て解決しようとするからそうなる。

130 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 09:01:15 ]
>>128
それも終わった、intelががんばったおかげだが



131 名前:デフォルトの名無しさん [2006/11/27(月) 12:32:52 ]
>>130
終わってないよ。intelのロードマップでは10年までに数百のコアを積んでくる。
それ以降も、予想が付かないほど進んでいくよ。

132 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 14:58:26 ]
>>128では性能と言ってるけど元々ムーアの法則は集積度の話だから、
そういう意味では終わりつつあるといってもいいと思うよ。
集積度上げるのが厳しくなってきたから、コア増やして誤魔化してるに過ぎないし。

133 名前:デフォルトの名無しさん [2006/11/27(月) 15:49:08 ]
>>132
別に誤魔化している訳ではないだろ。
集積度を上げるコストやクロック数を上げるコストより、
コア増やす方がパフォーマンスがあがるということもある。
あと消費電力の問題もあるわけで。
P4系がなくなったのも、そういう理由だし。

134 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 15:58:27 ]
三次元配線の検討もされているらしいし、集積度もやっぱり上がると思うぜ。

135 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 16:21:39 ]
人間より強い商用バックギャモンプログラムSnowieは複数のニューラルネット
ワーク、TD学習の改良版を使ってる。開発経緯や機能はここから辿れる。
www.snowiegroup.com/index.dhtml
フリーソフトのgnubgは簡易化した構成だけど、こいつですら恐ろしく強い。

136 名前:デフォルトの名無しさん mailto:sage [2006/11/28(火) 04:59:28 ]
>>135
学習しない状態で強いわけないだろw
愚かw

137 名前:デフォルトの名無しさん mailto:sage [2006/11/28(火) 05:01:53 ]
>>128
それはチップの集積度の緩やかな増加状態。
ニューラルネットワークで膨らむのはビックバン的な指数増加。
比較にならん罠

138 名前:デフォルトの名無しさん [2006/11/29(水) 16:12:14 ]
>>137
ビックバン的は誇張もすぎないか?
ムーアの法則は緩やかな成長ですがニューラルネットワークだと次元が
増えるような組み合わせなので比較するのはニューラルネットワーク自体を
建前的にしか知らない奴だかなぁ。
根本的に逆誤差伝播則みたいなも定番だけを利用するアルゴリズムだけを
評価しているので単純モデルが引き起こす複雑さ回路にもろに出ている
訳で脳のニューロンはそんなに組み合わせがあるわけではなく
可能性がある組み合わせであって、実配線を伴うチップと比較できる
ような仕組みではないと思う。

139 名前:デフォルトの名無しさん mailto:sage [2006/11/29(水) 16:14:18 ]
>>138
もうちょっと落ち着いて書こう

140 名前:デフォルトの名無しさん mailto:sage [2006/11/29(水) 21:59:38 ]
カンチガイさんが多いスレですね。
なんか人工知能がもてはやされた時代を生きた40代後半のにおいがぷんぷんします。

おじさんたちの時代の人工知能と今の人工知能とでは言葉の意味が違うよ。



141 名前:デフォルトの名無しさん mailto:sage [2006/11/29(水) 23:54:07 ]
>>140
違わないよ

142 名前:デフォルトの名無しさん [2006/12/01(金) 23:46:11 ]
「人工知能」って、達成されると「こりゃただのプログラムで『人工知能』なんてモノじゃない」になるからなぁ。
嘗ては最適化コンパイラや、鉄道乗換え案内が「人工知能」だった。

143 名前:デフォルトの名無しさん mailto:sage [2006/12/02(土) 00:24:40 ]
まぁ、学習と記憶は別物で、
それはわかってるが、じゃあ何が違うのかってのは厳密に定義されてないからなぁ。
そういう意味で、技術革新によって、今ある人工知能はいずれ人口無能と呼ばれる。

144 名前:デフォルトの名無しさん mailto:sage [2006/12/03(日) 08:17:26 ]
うずらだって初期のころに登場すれば
「人工知能」だったろうしな。


145 名前:デフォルトの名無しさん mailto:sage [2006/12/05(火) 13:59:50 ]
>>143
>技術革新によって、
それは、勘違いだよ。
技術じゃなく、価値観の革命がなされないかぎり現状のまま。


146 名前:デフォルトの名無しさん mailto:sage [2007/01/16(火) 11:33:54 ]
(´^ื౪^ื)

147 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 00:00:56 ]
>ニューラルネットワーク
これを理解できずに、仕組みだけを暗記して語る奴ておおいよな。
ネットワークは繋がりであって途中で基本的演算を組み合わせている
わけではない、さらに細かい原理があるように思い込みたいのはいいんだが
これ以上細かい原理は存在しない。
何故入力から計算せずに答えがでるのか?これが理解できない奴には
ニューラルネットワークの1%も理解できているとはいえない。
単に解説本を暗記しただけで中身を全く受け止めていないDQNそのもの。


148 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 01:51:18 ]
なぜ答えが出るかって、分かるやつはその前に居ないだろ
なぜだかわからないが、答えが出るのがニューラルネットワーク

149 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 02:21:23 ]
3層パーセプトロンやバックプロパゲーションだけじゃないんだけどねぇ

150 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 03:38:33 ]
ホップフィールドだってある!...いや,すまん.



151 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 05:00:28 ]
>>148
自然淘汰という理屈があるだろ、そのぐらい誰でも知っている。
因果関係が自然に答えを見つける仕組みだよ。

152 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 05:25:39 ]
それは解答になっていない。
そんなものが答えであるとマジメに言う気ならどうかしてる。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<232KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef