- 608 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:49:53 ]
- ニューラルネットが独立した手法とか概念だと思っている時点でダメすぎ。
しょせん統計学の後追い手法だからな。 わざわざ ニューラルネット用語(笑) を発明したアホどもが 入力ユニット(笑) とか 結合の重み(笑) とか呼んでるせいでによって分かりづらくなっているが、 こんなもんは古典的な近似関数の亜種だ。雑種だ。従って、ニューラルネットワークは 統計学にあるのと同じ、古くさい問題をぜんぶ抱え込んでいる。 「学習」の一番オードソックスなやつは、線型近似だ。 それじゃ実用にならないからってんで、k次関数近似として次元数を上げていくと 数値上は100%フィットするようになる。より適切な近似/補完手法も存在する。 だが、「誤差に弱すぎて意味が無い」ところまで突っ走って満足する輩が多すぎる。 自由度(入出力因子数、中間層層数、中間層因子数)が増えるほど 結果が無意味になっていくのは、近似関数全般に通じるいち常識でしかないのだが なぜか「中間層が増えると賢くなる」と誤解する人が後を絶たない。 どんな魔法だよwwwwwニューラルネットワーク(笑)wwwww
|

|