- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 35 名前:デフォルトの名無しさん mailto:sage [04/09/12 08:11:52]
- むりやり学習されるだけが脳じゃない
- 36 名前:デフォルトの名無しさん mailto:sage [04/09/13 00:13:53]
- >>35
ニューラルネットワークだけで人間が望むような学習を自動的にさせることは出来ません。
- 37 名前:35 mailto:sage [04/09/13 01:01:03]
- 出力を短時間で決定するためにBPなどを使うみたいですが
これは求める結果をあらかじめ固定しますよね 逆に結果によってどうさを切り替えるような構成って出来ないものでしょうか? 学識もない人間なので適当なことを言ってますが 人間の脳ってBPなんて機能はもってないですしね
- 38 名前:36 mailto:sage [04/09/13 01:18:15]
- 結果に対して動作を切り替えるとは、例えばどのような場合ですか?
入力と出力の組が分かっているとき(例えば、ある画像パターンAが「1」を意味する場合)、 画像パターンAを入力すると「1」を出力するように学習させることは出来ます。 (これは個人的な憶測ですが)おそらく、人が普段「何となくそんな感じがする」というときは BPによって(無意識のうちに)学習されているのかも知れません。 具体的に脳の学習のメカニズムがどうなっているのかまでは(勉強不足で)分かりません。
- 39 名前:35 mailto:sage [04/09/13 01:33:13]
- その場合ですと、初期状態でAが0を示すなら0がAであると
決めてしまえば学習する必要はないですし、類似のパターンについても 繰り返し入力することで0へかたよっていくような構成にしてしまう この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。 具体的にどうしたらいいかって聞かれても答えられませんが。。。 人間の脳は発火した細胞の結線は短いものがのびくっついてるものは より強化される。 発火がないとじょじょに萎縮していく。 と認識してます。 間違ってたら誰か指摘して下さい。
- 40 名前:36 mailto:sage [04/09/13 01:55:58]
- >その場合ですと、初期状態でAが0を示すなら0がAであると
>決めてしまえば学習する必要はないですし、類似のパターンについても >繰り返し入力することで0へかたよっていくような構成にしてしまう Aが0と決めると言っても、Aは実際には無数にあるので(24*24の白黒2値画像だと 2^576 通り)、 それら全ての組み合わせをあらかじめ決めておくことは現実的ではありません。 それを近似的に解決する方法の一つがNN(ニューラルネットワーク)です。 初期状態では何が何を指すのかは未知なので、新たに学習させる必要があります。 NNは、類似のパターンについても繰り返し入力することで期待する分類を行ってくれるようになる方法の一つです。 但し、常にうまくいくとは限りません。 >この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。 >具体的にどうしたらいいかって聞かれても答えられませんが。。。 NNは、A_1, A_2, ・・・・, A_n (n=10000くらい)の入力と出力の関係を学習させて、似たようなパターンが現れたら (良い条件のもとで)期待する出力を返すものです。一つだけパターンを与えて、それに似たものを全て 的確に答えてくれる高度なものはNNでは出来ません。 人間は、実は非常に高度な分類を日常的にしているので、それが凄いことだと気づかないのです。 >人間の脳は発火した細胞の結線は短いものがのびくっついてるものは >より強化される。 >発火がないとじょじょに萎縮していく。 >と認識してます。 >間違ってたら誰か指摘して下さい。 そんな感じでいいと思います。 コンピュータで実現するNNの場合は、学習結果の衰退が起こらないという点で実際の脳と違いますが・・・
- 41 名前:35 mailto:sage [04/09/13 02:31:54]
- 現実的でないのはわかります。
今後の展望という意味で人間の脳に近づけることは非常に良い結果を 得られるんじゃないかと考えているんですが。 例えば脳は小脳と大脳があって小脳はほぼ変化しないそうです。 かってな考えですが小脳が大脳をコントロールする役割を果たしてるんじゃないかと 考えています。 前文で言ったNNで自動化するって部分がこれに相当するんじゃないかと思っています。 とりとめのない話ではありますが。。。
- 42 名前:デフォルトの名無しさん mailto:sage [04/09/13 09:54:50]
- とりあえずこれでも読んでくれ。
脳とコンピュータはどう違うか www.amazon.co.jp/exec/obidos/ASIN/4062574128/
- 43 名前: ◆HOTsoUpxjY mailto:sage [04/09/13 18:52:17]
- >>33
完全な最適解を求めるのは無理だし無意味だよね Boltzmann machine でボールに勢い(温度)を持たせて 小さい谷なら越えちゃうというのは有効だね
- 44 名前: ◆HOTsoUpxjY mailto:sage [04/09/13 18:56:30]
- ゲームの話になるけど、カルネージハートってのがあって、AIじゃないけど非常に面白かった
んで知ってる人にしか分からないけど、あのパネルをNNのノードに見立てたらどうかな 刺激が多いとパネルか、それを繋ぐラインが成長するとか…誰か作ってくんないかな
- 45 名前:デフォルトの名無しさん [04/09/14 18:01:41]
- >>43
入力を表すベクトルを v、内部状態を表すベクトルを w、そのときの出力ベクトルを f(v)、望みの出力を f0 とするとき、 E =|f(v, w)-f0|^2 (|x|はユークリッドノルム) w_0 を初期の内部状態として w_(n+1) = w_n - δ*∂E/∂w とするのが最急降下法による学習ですが、 w と同じ次元の乱数ベクトル r を使って w_(n+1) = w_n - δ*∂E/∂w + r_n とするのでしょうか?
- 46 名前:デフォルトの名無しさん mailto:sage [04/09/15 07:48:33]
- Blondie24: Playing at the Edge of AI
www.amazon.com/exec/obidos/ASIN/1558607838 IBMのDeepBlueは人間が過去に蓄積したチェスの知識を強力なマシンで ぶん回す力ずくの代物だったのに対し、この本では何の知識も無い ニューラルネットがパソコン上で自身と対戦して学習するだけで トップレベルのチェッカープレーヤに成長する過程を書いている。 どっちがAIの成果と言えるのか考えさせられる良書
- 47 名前:デフォルトの名無しさん mailto:sage [04/09/15 21:28:41]
- でもニューラルネットでできるのは、それがチェッカーだからだけどな。
パソコン上で自分自身または他のプログラムと対戦させて強くする、というのは 囲碁なんかでもあるね。
- 48 名前:デフォルトの名無しさん mailto:sage [04/09/15 23:13:54]
- ちなみに>>46のチェッカープログラムは自己学習したニューラル
ネットだけでトップレベルに達することを実証するため、定石や 結論の出ているデータをわざと使わないで作っている。 強さだけを論じるなら、数百年に渡る人間の知識再生型チェッカー プログラムはさらに強い。 バックギャモンもニューラルネットプログラムが強いが、こちらは 知識再生型プログラムは激ヨワでお話しにならず、ニューラルネット 導入で初めてトッププレーヤの域に達した。 ニューラルネットが適するかはゲームの複雑さも影響するが、 ゲームの性格に因る所が大きい。囲碁も知識再生だけに頼ると 限界が近いタイプのゲームに思える。
- 49 名前:デフォルトの名無しさん [05/01/16 17:38:50]
- 3層ニューラルネットワークをC言語で作成しろって課題が出たんだが、
参考になりそうなサイト無い?
- 50 名前:デフォルトの名無しさん mailto:sage [05/01/16 19:07:58]
- ニューラルネットワークなんて何層でも同じ様なコードだろ
- 51 名前:デフォルトの名無しさん mailto:sage [05/02/20 17:18:40 ]
- >>49
今どきの学生はそのくらいの課題をウェブに頼ろうとするのか…。
- 52 名前:デフォルトの名無しさん [05/03/01 00:02:51 ]
- Javaで階層型ニューラルネットワークのコードを書いてみたよ
興味があったら使ってみて、バグ探しとか、改良して www.geocities.jp/retort_curry119/NN.htm とりあえす、XORの入出力関係を学習するのを作ってある
- 53 名前:デフォルトの名無しさん [2005/08/10(水) 23:35:32 ]
- ニューラルタシーロはいつできるようになるんですか?
- 54 名前:なつかしい [2005/08/12(金) 01:19:42 ]
- うは、なつかしい。
ニューラルネットワークは、大学のゼミの卒論テーマだった。 いまから13年前だ。。。 そこで、文字認識をやらせるプログラムをC言語で組んだ。 いまのパソコン性能なら一瞬で終わる処理が、13時間とか かかってたなー。 まあ、卒論発表近くで重大なバグを発見して、血の気が引いたけど。 >>49 こういうこともあるから、自分で一から作ってかないと、痛い目にあうよ。 あのころと理論変わってないのかな?3層のやつ? 理論の名称も浮かばないや。 卒業したてのころは、競馬予想をやるソフトを開発してやろうと 思ってたけど、仕事が楽しくて、そっちに気が回らなくなったよなw
- 55 名前:デフォルトの名無しさん [2005/08/15(月) 18:26:22 ]
- >>35
人間のように、反抗してワザと駄目な値を模索したりとかなら面白いと思います。 なんらかの自律的動きをしてるようにうかがえる範囲で。
- 56 名前:デフォルトの名無しさん [2005/08/26(金) 12:26:02 ]
- >30
>GPMとかEVA2とかがAIだね 殆どのゲームでAIって使ってんじゃないか?(程度の上下はあるが) ガンパレとかはAIの程度の高さを売りにしてのかな?
- 57 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 12:44:35 ]
- ニューラルネットワークに「学習」させる方法は
バックプロパゲーションとかいろいろあると思うけど 実際の脳ではシナプスの重みの調整をどんな方法でやってるの? おせぇてエロい人
- 58 名前:デフォルトの名無しさん [2005/08/26(金) 13:36:36 ]
- >>57
興奮とか抑制とか よくわかってないスマソ
- 59 名前:デフォルトの名無しさん [2005/08/26(金) 15:15:05 ]
- ヘッブしゅん!
- 60 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 15:58:29 ]
- >>57
www.tmd.ac.jp/artsci/biol/textlife/synapse2.jpg 結合を司る細胞の数、だと思う。たぶん。
- 61 名前:デフォルトの名無しさん [2005/08/26(金) 16:26:36 ]
- >>60
その「細胞の数」がどういうときに調整されるのかが知りたいんだが。 どういうときにどう調整されれば「学習」できるのか。
- 62 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:09:52 ]
- 電流の通る頻度だと思う
- 63 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:19:30 ]
- 単純に電気の通る頻度なら、
少しでも電気の通りやすいところがあったら そこに電気が通って、さらに通りやすくなって、 またそこに電気が通っての繰り返しになって 学習もなにもあったもんじゃないような希ガス。 いや、俺はニューラルネットワークは知らないんだが。
- 64 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:27:51 ]
- >>63
筋肉と同じで、使えば使うほど強くなると思うが、消費が激しいと老化が早くなるかもな。 筋肉は入れ替えが起こるが、神経はそうもいかんし。 接続強さの上限があって、あまりに激しく使用すると、その接続部分だけ疲弊するかもな。 それが、忘れる事だったり、柔軟性だったりするかもな。
- 65 名前:デフォルトの名無しさん mailto:sage [2005/08/26(金) 18:50:31 ]
- >>63
通りやすくなれば通る頻度が上がるとは限らないわけで。
- 66 名前:デフォルトの名無しさん mailto:sage [2005/08/27(土) 01:48:18 ]
- たぶんこんなん
homepage1.nifty.com/kaneko/ed.htm
- 67 名前:デフォルトの名無しさん [2005/09/04(日) 09:07:12 ]
- ∧_∧
`∧( ´∀`) age ( ⊂ ⊃ ( つ ノ ノ |(__)_) (__)_)
- 68 名前:デフォルトの名無しさん mailto:sage [2005/09/04(日) 10:29:41 ]
- 柔軟性が接続部分の疲弊だったら、
数学なんていらないんじゃないのか。(この世に)
- 69 名前:デフォルトの名無しさん [2005/09/04(日) 11:08:27 ]
- |ヽ‐-へ
i _゚Д゚」 ゙´ノノ)))) l ノ゚ヮ゚ノl ノ⊂)卯!つ ´((く/_||リ しソ
- 70 名前:デフォルトの名無しさん mailto:sage [2005/09/09(金) 05:23:53 ]
- www.google.co.jp/search?q=%E3%82%B0%E3%83%AA%E3%82%A2+%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%AD%E3%83%B3+%E5%9B%9E%E8%B7%AF%E7%B6%B2
- 71 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 02:53:52 ]
- >>57
樹状突起のスパイン(棘)が増えたり減ったりするのがメインらしいが 樹状突起自体も増えたり減ったり 神経細胞自体も増えたり減ったり する ベースにあるのは蛋白質の合成過程と言われている
- 72 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 03:35:51 ]
- レセプターのリン酸化非リン酸化とかいろいろ複雑だよねえ
- 73 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 07:51:29 ]
- >>71
記憶って作業が、そんな物理的な構造の変化によって行われるのなら 俺の記憶力が悪いのも頷ける。
- 74 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 11:59:16 ]
- ストレスが強いとマジで記憶の定着が悪くなる
長時間考えると覚えられる(40分程度は掛かるそうだ)
- 75 名前:名無しさん@そうだ選挙に行こう mailto:sage [2005/09/11(日) 19:16:31 ]
- >>74
覚えた事をすぐに取り出せないのですが・・・ 毎日会っているはずの人の名前がすぐに出てこなかったり。 覚えてはいるはずなんだけど。
- 76 名前:デフォルトの名無しさん mailto:sage [2005/09/12(月) 06:34:05 ]
- それ、病院で診察受けた方がいいかもよ。
- 77 名前:デフォルトの名無しさん mailto:sage [2005/09/14(水) 21:07:45 ]
- >>71
メインの現象で追加 スパインの増減もあるけど イオンチャネルの数(チャネルのスパイン表面への運搬、挿入による) チャネルのイオン透過性(チャネルのリン酸化による) 神経伝達物質の放出確率(シラネ)も増減します >神経細胞自体も増えたり減ったり 発生過程では正解 ご存知のとおり、神経細胞は成熟した脳ではほとんど増えません
- 78 名前:デフォルトの名無しさん mailto:sage [2005/09/14(水) 21:16:26 ]
- >>76
なんか診てもらっても凹むだけの気が。
- 79 名前:71 mailto:sage [2005/09/16(金) 00:20:04 ]
- >>77
それどの位の時間で発生してどの位維持されるの? うん,学習の基本になる機構としてはアポトーシスが一番重要なんじゃ ないかと最近考えてる.今のNNにはそれが抜けてるんだよね さらに,大脳皮質は「野」が階層構造になってるけど物理的には一枚(大き 目のハンカチ程度)なわけで,これが階層構造を構成する仕組みも重要ではないかと
- 80 名前:71 mailto:sage [2005/09/16(金) 00:21:46 ]
- >>75
それ単なるストレス過多(まだ40歳前なら) 連書きスマソ
- 81 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 01:01:24 ]
- >>80
うぐ・・・そうなのか。確かにストレス溜まっているかも。 まだ31です。客先常駐なのに名前忘れるから困る。
- 82 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 14:47:57 ]
- >>81
ストレス過多もあるけど忙し過ぎるって可能性もある 前に書いたけど記憶の定着には40分〜1時間程度掛かるから その間に注意が他の事に逝ってしまったらきちんと定着されない 次の仕事との間にある程度間をおくのが有効かも知れない(試したことはない)
- 83 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 20:34:41 ]
- >>82
今まで働きづめだからな・・・俺に限らないだろうけど。 にしても教えてくれてありがと。ためになったよ。
- 84 名前:デフォルトの名無しさん [2005/09/23(金) 01:14:53 ]
- age
- 85 名前:デフォルトの名無しさん [2005/10/24(月) 00:53:24 ]
- 階層型のNNの伝達関数にRBFを使った場合、
関数の中心,分散を意味する変数の修正は、 通常のBPと同様に、微分で計算するの?
- 86 名前:デフォルトの名無しさん [2005/10/26(水) 21:58:15 ]
- 3層バックプロパゲーションモデルって今でも定番なのね。
17年前にSun3でC言語とSunViewで組んだ記憶が・・・。 重み値を遡及して再計算したり、大変そうw 発火、教師データ、類似度、なんていう表記も使ってたっけ。 これに企業の財務諸表データを入れ、複数の重みセットを組み合わせると 面白そうだなと思っていた時期があった。
- 87 名前:デフォルトの名無しさん mailto:age [2005/11/21(月) 00:25:07 ]
- 質問(?)します!
相互結合型ニューラルネットの代表的な例でいいですから、 アルゴリズムの名前を教えてください。
- 88 名前:デフォルトの名無しさん mailto:sage [2005/11/21(月) 01:36:51 ]
- ホップフィールドとか
その一種のボルツマンマシンとか
- 89 名前:デフォルトの名無しさん mailto:sage [2005/12/08(木) 00:35:56 ]
- 3層バックプロパゲーションモデルの典型的なプログラムを掲載しているサイト教えてよん
- 90 名前:デフォルトの名無しさん [2005/12/22(木) 17:42:15 ]
- age
- 91 名前:デフォルトの名無しさん [2005/12/23(金) 00:42:35 ]
- SOMは相互結合型でOK?
- 92 名前:デフォルトの名無しさん [2006/03/04(土) 19:51:58 ]
- 20年くらい前に、家電でニューロブームがあったが、
どんな内容だったんだろう。
- 93 名前:デフォルトの名無しさん [2006/03/05(日) 01:03:28 ]
- ファジィじゃなくて?
- 94 名前:デフォルトの名無しさん mailto:sage [2006/03/12(日) 02:15:51 ]
- 朧な記憶では,ニューロで学習したパラメタをハードコードしただけだったかと
- 95 名前:デフォルトの名無しさん mailto:sage [2006/03/17(金) 13:00:21 ]
- 単純なニューロでメンバーシップ関数を作って、ファジーチップに書き込んでいた
実際、最適値は、処理目的ごとに似たような結果になるので、ファジーで十分 家電の制御回路に、ニューロを組み込んで、「家電購入後、1ヶ月は、学習中です」 なんて、イヤ
- 96 名前:http://www.vector.co.jp/soft/win95/util/se072729.html mailto:http://msdn2.microsoft.com/ja-jp/library/h2k70f3s.aspx [2006/03/18(土) 22:20:05 ]
- TextSS のWindowsXP(Professional)64bit対応化おながいします
もしくは64bitにネイティブ対応したテキスト置換ソフトありますか? そういや64bitにネイティブ対応している2chブラウザてありましたっけ?
- 97 名前:デフォルトの名無しさん [2006/03/18(土) 22:23:39 ]
- マルチガッ!
- 98 名前:デフォルトの名無しさん mailto:sage [2006/04/23(日) 09:15:29 ]
- sage
- 99 名前:デフォルトの名無しさん mailto:sage [2006/05/30(火) 08:49:09 ]
- >95
あらかじめある程度学習させておけば良いんじゃないのか?
- 100 名前:デフォルトの名無しさん [2006/05/31(水) 16:15:58 ]
- 自己相関学習と相互相関学習ってなにさ?
- 101 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 01:23:23 ]
- C++を使った鉄棒ロボットシミュレータプログラムで
ロボットに鉄棒での倒立運動を学習させる、という研究に ニューラルネットワークを応用したいのですが・・・ BP法など、本を読んでもよくわかりません。 そもそも、教師値というのは、正解データの事ですよね? 正解データが、欲しいデータが分かっているのにネットワークに学習させる、 というのがよく分かりません・・・。 BP法とは、どのような使い方をするのでしょうか。 具体的に知りたいです。 というか、 そもそも、この研究にニューラルネットを使うことが間違っているのでしょうか? 分かる範囲でいいので、何かアドバイスがあればお願いします。
- 102 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 02:45:14 ]
- >>101
> BP法とは、どのような使い方をするのでしょうか。 文字認識で、最初にそれぞれの文字教えといて、問題の図形がどの文字か判定させるとか。 そういう、分類する問題に強いと思った。
- 103 名前:デフォルトの名無しさん mailto:age [2006/06/13(火) 11:59:56 ]
- age
- 104 名前:デフォルトの名無しさん mailto:sage [2006/06/15(木) 23:59:22 ]
- ニューラルネットワークを利用した卒論修論でおもしろい利用法ないですかね?
- 105 名前:デフォルトの名無しさん mailto:sage [2006/06/16(金) 00:45:37 ]
- あっても2chにゃ書かねーわなw
- 106 名前:デフォルトの名無しさん mailto:sage [2006/06/16(金) 00:56:35 ]
- >>102
まさに今日その講義を聴いたところだw 他にはなにも思いつかない >>105 そりゃそうかw NNがどういうことに利用できるか検討がつかないんです。 C++でNNだけ作るとしたら、スキルの差もあるでしょうが 何行ぐらいでできるものなんでしょうか?
- 107 名前:デフォルトの名無しさん [2006/06/18(日) 20:20:03 ]
- あげ
- 108 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 20:27:54 ]
- お前らシミュレーション板がありますよ。
面白いネタが多いんだが、過疎なんだよな。あそこ。
- 109 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 21:20:03 ]
- おもしろいネタってどんなのがあるよ
- 110 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 21:35:31 ]
- いけばいいじゃん。知的好奇心をあおられると思うけど。
- 111 名前:デフォルトの名無しさん [2006/06/27(火) 23:07:34 ]
- これね↓
science4.2ch.net/test/read.cgi/sim/1015733653/l50
- 112 名前:デフォルトの名無しさん [2006/07/12(水) 18:45:11 ]
- 一つのニューロンへの入力は2通りしかだめですよね。
例えば3通りあったとして、それぞれ 0, 0.5, 1.0 としても 0.5 と 1.0 の意味が違うのに 単に大きさの違いとしか捉えきれないと言う事です。 では、一つのニューロンに3通り以上の入力を関連付けたい場合はどうすればいいのでしょうか? ちなみに、ニューラルネットの事はあまり分かってないので、的外れのことを言っていたらすみません。
- 113 名前:デフォルトの名無しさん mailto:sage [2006/07/12(水) 21:07:11 ]
- 複数の入力に分ける
- 114 名前:デフォルトの名無しさん mailto:age [2006/09/30(土) 15:02:11 ]
- www.aso.ecei.tohoku.ac.jp/~myn/research/research.html
そいやこんなもの見つけたんだがちゃんとコンパイルできる? それとも俺がヘタレなだけなんだろうか?
- 115 名前:デフォルトの名無しさん mailto:sage [2006/09/30(土) 15:15:19 ]
- いいえ
- 116 名前:デフォルトの名無しさん mailto:sage [2006/11/07(火) 15:07:22 ]
- ニューラルネットワークの仕組みが分からないなら、まずファジー技術を
学べ。それが理解できるならニューラルネットの学習法則も理解できよう。 まあ、仕組みなど理解できなくても利用できるし、理解する必要など無いし 特徴だけしっていればという考えの奴がほとんどだとおもうがw
- 117 名前:デフォルトの名無しさん mailto:sage [2006/11/07(火) 21:25:41 ]
- 何だ藪から棒に
- 118 名前:デフォルトの名無しさん mailto:age [2006/11/10(金) 15:12:17 ]
- 抽象化層の意味を理解せず、ニューラルネットワークの学習機能だけを
耳コピーしたような奴ばっかりだなw。 愚か
- 119 名前:デフォルトの名無しさん mailto:sage [2006/11/12(日) 02:23:54 ]
- >>118
自分で考えず教科書の建前な所だけしか理解できない奴が増えているのは 事実だが、それは放置して具体的例で教えてやったらどうだ?
- 120 名前:デフォルトの名無しさん mailto:age [2006/11/14(火) 02:31:07 ]
- 結局、新しいアルゴリズムは何もでない。
- 121 名前:デフォルトの名無しさん mailto:Tage [2006/11/14(火) 22:37:25 ]
- はい?
- 122 名前:デフォルトの名無しさん [2006/11/15(水) 03:10:13 ]
- ニューラルネットワークとは信者が作った幻想にしかすぎない。
これは事実であって、どんなに力説しようが、絵に書いた餅。 研究対象として企業から支援してもらう為、あらゆる分野で 大騒ぎしている香具師が一部にいるだけなのをご存知じゃないだけ。
- 123 名前:デフォルトの名無しさん [2006/11/15(水) 03:53:22 ]
- あ、そうなんだ。
研究室変えるわ。
- 124 名前:デフォルトの名無しさん mailto:sage [2006/11/15(水) 04:17:42 ]
- >>101
教師あり学習・教師なし学習を調べろ。って6月か。 つうか、ニューラルネットって、能力の限界はとっくに明らかになってるだろ? ニューロン自体に新しいモデルを入れないとだめじゃん? ってBPとかフィードフォワード型だけだっけ? 甘利の本読まなきゃと思いつつ未だに読んでない。
- 125 名前:デフォルトの名無しさん mailto:sage [2006/11/15(水) 23:30:22 ]
- ミンスキーの論文に書いてある。
- 126 名前:デフォルトの名無しさん [2006/11/18(土) 01:43:11 ]
- ニューラルチップというのは過去に大手半導体メーカーが何度も試作したが
複雑さが増えれば指数的に組み合わせが無限に増える訳で音声認識が限界だと ファイナルアンサー済み。
- 127 名前:デフォルトの名無しさん [2006/11/27(月) 01:21:43 ]
- 1つだけ言わせてくれ。今更ニューラルやってもデータ量の分布が激しいと
絶対使えないと思う。プログラム組んでみて解った。数式だけじゃ現実は 解決しないんだよ。こんなの採用するやつは何を考えているんだろう。
- 128 名前:デフォルトの名無しさん [2006/11/27(月) 02:11:28 ]
- >>126
チップの方だって、ムーアの法則で指数関数的に性能向上してる訳だぜ?
- 129 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 05:16:57 ]
- >>127
1つのニューラルで全て解決しようとするからそうなる。
- 130 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 09:01:15 ]
- >>128
それも終わった、intelががんばったおかげだが
- 131 名前:デフォルトの名無しさん [2006/11/27(月) 12:32:52 ]
- >>130
終わってないよ。intelのロードマップでは10年までに数百のコアを積んでくる。 それ以降も、予想が付かないほど進んでいくよ。
- 132 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 14:58:26 ]
- >>128では性能と言ってるけど元々ムーアの法則は集積度の話だから、
そういう意味では終わりつつあるといってもいいと思うよ。 集積度上げるのが厳しくなってきたから、コア増やして誤魔化してるに過ぎないし。
- 133 名前:デフォルトの名無しさん [2006/11/27(月) 15:49:08 ]
- >>132
別に誤魔化している訳ではないだろ。 集積度を上げるコストやクロック数を上げるコストより、 コア増やす方がパフォーマンスがあがるということもある。 あと消費電力の問題もあるわけで。 P4系がなくなったのも、そういう理由だし。
- 134 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 15:58:27 ]
- 三次元配線の検討もされているらしいし、集積度もやっぱり上がると思うぜ。
- 135 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 16:21:39 ]
- 人間より強い商用バックギャモンプログラムSnowieは複数のニューラルネット
ワーク、TD学習の改良版を使ってる。開発経緯や機能はここから辿れる。 www.snowiegroup.com/index.dhtml フリーソフトのgnubgは簡易化した構成だけど、こいつですら恐ろしく強い。
|

|