[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 05/09 14:36 / Filesize : 232 KB / Number-of Response : 916
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

ニューラルネットワーク



1 名前:1 [04/09/11 01:48:08]
について教えてよ

600 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:22:58 ]
追加で学習しても以前の学習結果を保持しているような方法ってあるの?
実用的なレベルでね
例えば関節の動きを学習させるのにいちいち前回の姿勢情報と行動結果を
すべて記録して再学習させるなんて時間が掛かりすぎるからね
行動したら学習するっていう単純なサイクルを繰り返したいわけですよ

601 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:27:03 ]
>>600
ノードが多ければできるんじゃない?
以前の学習結果がプールできて、
かつ場合によって新旧どちらを選ぶかの余裕をもたせてやれば

602 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:58:42 ]
>>600
Temporal Difference Learning

603 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:05:34 ]
>>600
それニューラルネットワークじゃないから。

604 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:08:18 ]
収束を待つとか悠長なことを言っている時点で
ニューラルネットワークが実時間処理に向かないことは自明。

収束早める方法がうんたらかんたら〜というゴミのように見える
論文が量産されているけど、実際にゴミだ。
実時間処理に向かない理由の根本的な改善にはなってない。

605 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:10:38 ]
そんなの用途しだいだろ。
実時間処理っつってもピンキリだし、だいたい対象が分かってるなら普通の適応フィルタ
で済むしな。

606 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:27:03 ]
そう。大抵の問題にはニューラルネットよりも良い方法がある。
つまりニューラルネットワークを使おうと思った時点で、そいつは
何か大事な前提を勘違いしていることのほうが多い。

そもそもニューラルネットワークの学習というのは、隠れ層の層数に
比例した次元数に固定されているものだからな。
次元数自体を学習によって適切な数になるまで減らしていくSVMなどに比べて
粗悪な結果になるのは当然のこと。

>>585は本気で中間層を増やせばいいと思ってるらしいが。やれやれ。

607 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:43:42 ]
>>602
Q learningってのがそうなの?
論文見てもよくわかりません
実装例とかどっかにないですか?

608 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:49:53 ]
ニューラルネットが独立した手法とか概念だと思っている時点でダメすぎ。
しょせん統計学の後追い手法だからな。

わざわざ ニューラルネット用語(笑) を発明したアホどもが 入力ユニット(笑) とか
結合の重み(笑) とか呼んでるせいでによって分かりづらくなっているが、
こんなもんは古典的な近似関数の亜種だ。雑種だ。従って、ニューラルネットワークは
統計学にあるのと同じ、古くさい問題をぜんぶ抱え込んでいる。

「学習」の一番オードソックスなやつは、線型近似だ。

それじゃ実用にならないからってんで、k次関数近似として次元数を上げていくと
数値上は100%フィットするようになる。より適切な近似/補完手法も存在する。
だが、「誤差に弱すぎて意味が無い」ところまで突っ走って満足する輩が多すぎる。

自由度(入出力因子数、中間層層数、中間層因子数)が増えるほど
結果が無意味になっていくのは、近似関数全般に通じるいち常識でしかないのだが
なぜか「中間層が増えると賢くなる」と誤解する人が後を絶たない。

どんな魔法だよwwwwwニューラルネットワーク(笑)wwwww



609 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 00:01:29 ]
Q-learning は、行動と状態を同一視して扱うもので、見方によっては
ニューラルネットワークのようにも見えるし、あるいはもっと単純に
でっかい行列として見ることもできる。

ニューラルネットワークのように全体を一斉に更新するなどという
非生物的で邪悪な操作を行わない点が、利点。

しかし一般に、実時間学習での問題点は、なによりも「時間」をどう扱うかだ。
ヴァーチャルな箱庭の中(もちろん行動にはtuneの概念がある)で
アニマットに餌を食うように行動学習させるだけでも、数ターンぶんの行動を
バッファに貯めて、逆伝播させていく必要があったというし。
細長い袋小路(局所最適解)に囚われないようにするには、バッファを
かなり長くとらないといけなかったという。

ヒトの場合はエピソード記録とか、便利なイベント単位の記憶があるので、
学習が楽になっているようだが。このへんの手法は未だ未知の領域だったりするので
こころしてかかるこった。


610 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 00:32:36 ]
Q-learningでぐぐって出てくるページにも書いてあるけど、
「ロボットのセンサを統合して複雑な行動を学習させる」みたいな
ちょっと複雑な問題を処理させようとすると、アホみたいに行列が
でっかくなっていくんだよ。

それに加えて、>>609で書いたように一定ターン数 or 一定時間ぶんだけ
行列の組が必要になるわけで。昆虫の足だか玩具の足だかを
クロールさせるのならともかく、あんまり複雑な処理になると
もはや悪夢だね。

これじゃ、a)メモリに入りきらない または b)メモリに入りきるように
削ったら汎用性が無くなった あるいは、その両方 ということになる。
パソコンに有線で繋いでおかなきゃ、学習もままならないんじゃないかね。
まさに本末転倒ってやつだ。

611 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:23:11 ]
ニューラルネットを学べば学ぶほどその無意味さを実感する。
でも実感してもまだニューラルネットのろくな根拠のない可能性を信じれる人が新しいやり方を作って行けるような気がする

612 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:27:40 ]
もし状況を想像し辛いなら、ロボットアームの動きをシミュレートすると
分かりやすいと思われる。

     ○
    /  \
  /      \
■          匚

       ●←ボール

■は肩。○は肘。匚は手。
ここで、手の操作は省略して、「決まった位置に置いてあるボールに手で触れる」という
比較的簡単な問題をえてみる。

さて、>>609 に照らして設計を考えると・・・
入力因子
    行動:肩の行動、肘の行動
    状態:肩の角度、肘の角度

出力因子
    行動:肩の行動、肘の行動
    状態:肩の角度、肘の角度

となる。

613 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:30:03 ]
ふう,なぜNNがあれだけもてはやされたか全然分かってないな
統計的な手法より「実際の問題に使い易かった」だけなんだよ
統計的な手法を使おうとするとその方面を相当勉強しなければならないが
NNなら適当な前処理(これは領域知識だから既に持ってる)を噛まして
適当な層数とニューロン数でやってみればそこそこ使える結果が得られる
現実の問題ってのはそんなに難しい問題じゃない場合が多いからね
数学的にとか本質的にとかと全然関係ない理由で流行ったんだよ

614 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:34:35 ]
各時点での情報は最低限上記のものが必要で、その対応関係は
最も単純な形では4×4の行列になるだろう。これが学習によって
更新されてゆくことになる。

時系列を考慮すると、たとえば5ターン分の情報のセットを記録しておくなら、
配列は5個という形になる。(しかし、ただ伸ばせばいいというわけではない。
自由度が増えると精度が落ちるし、ターン制ならともかく実時間だと大変困ったことになる)

[ 4 ]→[ 3 ]→[ 2 ]→[ 1 ]→[ 0 ]

(図:[ ]は行列。数字はn個前をあらわす)

んで、てきとーに動いて[ 0 ]でボールに接触したら、過去に向かって記録を
辿っていき、報酬を与えていく。これを繰り返してゆく。
(残念ながら、あまりエレガントなアルゴリズムは存在しない。別分野での
 研究成果を応用したりするといいかもしれない)

[ 4 ]←[ 3 ]←[ 2 ]←[ 1 ]←【 0 】 ボールに触った!

#蛇足だが、学習時の行動選択がランダムである場合、
#これはコンピュータ囲碁におけるモンテカルロ法に非常によく似た
#アルゴリズムになる。この類似はなかなか面白い。

615 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:53:59 ]
脳の並列処理能力はすさまじい。
もし将来、ニューロンがランダムに発火し、脳がモンテカルロ法で動いている
(論理的な思考は大して重要ではない)という結果が出ても、
驚きより納得のほうが先に来てしまいそうだ。

616 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 02:04:44 ]
モンテカルロ法のような方法がうまくいくのは
答えがたくさんある場合だと思う。遺伝的アルゴリズムと同じ。

617 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:03:52 ]
Qlearningの意味が分かった
入力と出力の全組み合わせパターンのデータベースを作って
それぞれの組み合わせの出現確率で重みをつけていって
学習結果は一番重みの大きいものを適用するわけだな
これは自分で既に前からアイデアとしては持ってた
自然言語処理で似た様なアルゴリズムは応用したけど
画像認識のような組み合わせパターンが必然的に巨大になるようなのは
現状のHDDじゃ容量が足りないぞ

618 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:15:31 ]
今すごいアイデア思いついた
統計的アプローチで追加学習可能でニューラルネットと同等の精度が出せるもの
ちょっと実装してみるわ



619 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:24:30 ]
データマイニング、情報抽出などの分野はどうですかね。

学習がうまくいったとしても、最適な学習データがそもそも分からないなら意味が無い。
むしろ、同時進行のほうがいいかもしれないし。

620 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 08:22:46 ]
さて、NNライブラリ何かないかと聞いた575ですが
もちろん>>613さんが言ってる通りの意味で使ってみよと思ってるわけですよ。
統計素人ですがこんなの常識じゃないんですかね。
>>606
SVMは別途試してますがNNでも試そうと思ってるんですよ。理論はともかく
実際に使える道具(ライブラリとかのことね)で実際の問題にあたってみなければ
分からないでしょ?
今時のPCは十分速いので単純に中間層を増やしてプリプロセスの代わりになるな
らそれはそれで別に問題ないと思うんですがね。
本物の研究者さんの最新の実装とかの情報があればいいなとは思ったんだけど
やっぱり難しいですねぇ、そういうのは叩かれそうだし。
さすがにこんな過疎で

621 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 17:50:14 ]
>>620が尊大なゆとりじゃなければもうちょっとレスもつくんだろうけどねぇ。

622 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 17:52:12 ]
>統計素人ですがこんなの常識じゃないんですかね。

いちおう念のために聞いておくけど、素人が偉そうにするのってどこの国の常識?

623 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 19:40:56 ]
>>613
もしかして別の板で、GAは山登り法でできることをわざわざ変なやり方している
と書きまくっていた人でしょうか。
いや雰囲気がそっくりなんです。

624 名前:613 mailto:sage [2008/09/06(土) 20:29:21 ]
そう思わないでもないが,俺ではない

625 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:23:42 ]
>>621-622
自治厨乙。
スレ違いなんだよ。
>>623
山登り法ってどこの方言だ。

626 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:33:29 ]
↑君が無知なだけ。

627 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:41:35 ]
山登り法も知らないやつがこのスレにいることが間違い



628 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:43:07 ]
>>623
全然似てないじゃん



629 名前:デフォルトの名無しさん [2008/09/06(土) 23:48:42 ]
そういえば昔は掃除機屋もニューロとかファジーとか騒いでたな。
今はどうなったんだろう。

630 名前:デフォルトの名無しさん [2008/09/07(日) 00:06:01 ]
その日の気分で吸ったり吸わなかったりか。
俺といっしょじゃん。

631 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:10:58 ]
>>629
当時レベルのファジーやらなんたらは平凡に使われているという話である。
今はやってないから言わなくなった

632 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:25:21 ]
非ファジー
        _____
         |
_____|



ファジー
          ____
         /
____/


こうして図にしてみると、いまさらこんなのに名前をつけても売れないことが
よく理解できる。やはり売るなら実体の無い宗教、マイナスイオンだね。
実体が無いものならPL法にひっかからないし、宗教なら非難されようがないもんね。

633 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:28:39 ]
板違い

634 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 14:07:25 ]
エアコンは今でもニューロ回路持ってるだろ


635 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 21:24:18 ]
自分で学習するオセロ作ったぞ
今戦って教えてる所です

636 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:04:47 ]
ほほう
強くなったらうpして

637 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:23:16 ]
そもそも学習させている事例が良ろしくなければ(ry

638 名前:デフォルトの名無しさん [2008/09/08(月) 00:24:42 ]
Yahooオセロbot作って自動で学習したらいいよ



639 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:31:57 ]
そんな事は無駄

640 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:35:52 ]
>>637
具体的にどんな事例がよろしくないの?


641 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:17:31 ]
構造上強くも弱くもならないよ
対戦相手の強さをそのまま学習する仕組みだからいずれ同レベルになるだけ

642 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:19:52 ]
何万回くらい対局すれば強さは収束する?

643 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:29:23 ]
ていうか>>618の思いついたのを実装して
オセロに適用したんですよ
どれくらい効果があるのはまったく予想不能

644 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 02:09:26 ]
結果もってこいや


645 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 02:13:02 ]
まさかとは思うが、ネタを振っといて
結果が思わしくなければを出さないなんて事は無いだろうな。

646 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 03:11:45 ]
ただのエキスパートシステム(笑)が出来るに1クロン

647 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 04:00:40 ]
>>642
あっけなく負ける強さに収束するから意味なし。
問題は強さの定義だろう。どうやって強さを教えるんだ?

648 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 04:11:14 ]
>>647




649 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 10:01:29 ]
>>647
強さとは、素人の俺と対戦したときの勝ち負けできまる。
すべて俺基準な。

650 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 12:40:17 ]
>>649
学習が終わる前にお前死んでると思うが


651 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 14:14:14 ]
>>649
>>46のチェッカープログラムは遺伝的アルゴリズム
>>135のバックギャモンプログラムはTD学習
を使い自己対戦で学習してトップレベルの強さになってる。
多分瞬殺されると思うよ。

652 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 04:14:02 ]
>651
ほー、どっちも自己対戦学習で強くなってるのか。
チェス、将棋、囲碁でもそれができるのかが興味深いところだな。

653 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 04:20:06 ]
やっぱりニューラルネットワークと強化学習の枠組みって
相性が良いのかな?

654 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 05:00:26 ]
>>651
閉じた環境で育った知恵というのは、厚みがなくちょっとした
認知不能な流れで最弱な流れになるものだよ。
自己対戦なんて典型的な閉じた世界だろ、何せ相手は自分と同じ論理で
行動するわけだから情報処理ネットワークが狭い閉じた世界に収束してしまう。
いわいる建前の強さというやつ。
>>652
自己対戦で強くなるなんて思っているコンピュータ将棋もチェスの作者は
いないよ、みんな多様性を学習させるためにいろいろな相手に対戦させて
いる。
緻密で正しい勝つ確率がもっとも高いことしか選ばないソフトに勝つことは
非常に容易である、羽生の対戦でもみて勉強してこい、てな雰囲気だよなw
ソフトで学習が容易なのは戦術であって戦略ではない、困難なのは高次の
戦略を感じ取る抽象的な思考能力、頂点で闘うゲームでは強さではなく
ブラフというものが最終的な勝ち負けを決める。
何故なら全手計算できないからだ、予測できない域で勝敗が決まる勝負では
予測できない域を制覇できるものが勝者となる。
>>651君が求めているのは予測可能、全数計算可能な域での話であって、
予測不可能な試合では通じない論理だ。

655 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 10:57:54 ]
強さに何の意味があるのかね
知能の本質は強さじゃない
天然ボケってのは人間のような高等な推論をする上で必要不可欠な機能だよ
ボケを持たない知能はただの機械的回路にすぎない

656 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 11:56:48 ]
身をもって知らせたわけですね。わかります。

657 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 12:18:23 ]
>>656
さわるなよ

658 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 12:42:02 ]
某スレから馬鹿が流れてきたのか



659 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:30:43 ]
ボケっていうのは例外事象に柔軟に対応するシステムなわけだ
これがあるから人間ってのは数学的収束を持たない
一度収束した回路は二度と別の用途には利用出来ない
例えばひたすらチェスを学習させた人工知能は将棋を学習することは出来ない
チェスも将棋もこなす人工知能は存在出来ない
だが人間はこれが出来る
これが出来る理由がボケというシステムの存在だ

660 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:34:13 ]
最高に強いAIチェスなどに興味はない
人並みの強さだがどんなゲームにも柔軟に対応できるAIこそ
真の人工知能だ

661 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:42:30 ]
それが分からないやつには人工知能なんて作れないよ

662 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:46:16 ]
現状の翻訳システムとか音声認識とか自然言語処理とか見てみろ
機械的な入力条件じゃないと正しい結果が出せやしない
結局機械に毛が生えたようなただのおもちゃだよ
関西弁を翻訳出来てこそ人工知能だろ?
顔文字を認識出来てこそ自然言語処理だろ?
ちがうか?

663 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:00:02 ]
違うね

664 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:02:00 ]
というか、何が言いたいのかサパーリだな。
よっぽど何かトラウマとか劣等感があるのだろうね。

665 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:24:48 ]
自分定義の人工知能を語るのって新手のオナニー?

666 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:14:57 ]
そんなこと言ってるから何時まで経っても進歩しねーんだよ
英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ
そもそも言語とは何かってところから学習を始めないと意味がないんだろ
そして英語もフランス語も同時に学習していかないと使えないんだよ
チェスを学習するということはチェスとは何かを学習することだ
強さじゃねー


667 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:21:14 ]
そんなに気持ちいいのですか。

668 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:22:11 ]
形態素解析エンジンを作りましたこれで自然言語処理が出来るとか馬鹿なこと言ってんじゃねー
形態素解析こそ自動学習で最初に作るべきものだろうが



669 名前:デフォルトの名無しさん [2008/09/09(火) 16:05:08 ]
別の世界からこにゃにゃちわ(・ω・)/

670 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 22:46:25 ]
犬語とか猫語?
あ、それはもうあったか。

671 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 00:19:21 ]
>英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ
どんな妄想だこれ?w

672 名前:デフォルトの名無しさん [2008/09/10(水) 15:14:36 ]
www.si.hirosaki-u.ac.jp/~ei_sys/neuro/backprop.c
これのvoid backward()のところの式あってる?



673 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 16:47:45 ]
その位自分で分からないのなら手を出すなw
せめて自分が正しいと思うコードを書くとかしないと

674 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 21:35:27 ]
>>672
それないよ
BPにすらなってないソース掲示されても困るよな

675 名前:デフォルトの名無しさん mailto:sage [2008/09/12(金) 10:38:22 ]
マヌケな無能君が、途中結果もだせず、考えもまとまらず、誰にも評価され
ない情況が続くので必死に2chで喘いでいます、オマエだ、オマエしかいない。

すくなくともオマエの意見に賛同するのはオマエだけ。
匿名で発言しても何も変わらんし、おまえのストレスが増えてゆくだけ。
ここで答えが求まるとか議論していると勘違いしている君には
治療薬すらない。


676 名前:デフォルトの名無しさん [2008/09/12(金) 12:06:15 ]
BPになってないワロタ
プログラミングしたことないのか

677 名前:デフォルトの名無しさん [2008/09/12(金) 19:09:51 ]
>>672
8行目と9行目のsum+=のとこと
delta1[j]=のとこが微妙だな

678 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 20:59:38 ]
>>608
分かりやすい説明だな。



679 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 21:14:10 ]
「ロジスティック回帰モデルと単層パーセプトロンは等価である」
と言うのは本当でしょうか?

またWikipediaの説明によれば単層パーセプトロンに隠れ層(連合層)が
あるように書かれていますが、これはおかしいのでは無いでしょうか?

680 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 18:38:55 ]
頼むおしえてください!
誤差逆伝播法で忘却項を導入する方法があるけど
いったいどんな利点があるんでしょうか?

681 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 19:03:32 ]
>>679
単層というのは学習する層がひとつで中間層はあっていいよ

682 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:19 ]
>隠れ層(連合層)が あるように
隠れ層と連合層は同じじゃない
どちらも中間層のではあるが連合層を隠れ層とは呼ばない


683 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:47 ]
「の」が余分だった

684 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 08:51:49 ]
> 野良犬(ポチ)
野良犬とポチは同じじゃない
どちらも生物ではあるがポチを野良犬とは呼ばない


みたいな?


685 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:17:41 ]
ニューラルネットワークの「原理」は存在し検証できる。

しかし知的「仕組み」は先天的に作るものと後天的に生まれるものがあり
先天的なものが何かを特定できない時点で構築する以前の問題ではないか、
知的なものが後天的に全て学ぶものだと仮定すれば、すべて学習となり、
人が20年程度かけて修学するほどの手間がかかり、100%の全てが
大人になりえるわけでもない。
現状で原理の上に築く先天的な仕組みがどのような物かを微小なり概念なり
説明できるのならやってくれ、できないからこを糞スレに粘着しているんだろう。

それとは違う先天的な構築方法で行うメタ的な情報を築く手法の過程では
ライブラリーのように地道に確実に積み上げしてゆくことが大事だと
何故気がつかないか?

自動で全てが成りえるという幻想でもいいが、自動ほど恐いものはない、
自動で成りえる情報の秩序を暴走させずに、奇形にならずにバランスを
もった特定の形へなるなら人だってキチガイは生まれないだろう。
確率の問題なのか、それであれば永遠に近い時間で偶然を待つしかない。
人すら教育が困難なのに、人が生み出す人工知能の教育が簡単で一瞬で
できあがると思うのか?


686 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:29:47 ]
面白くないコピペだな

687 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 08:13:20 ]
> ニューラルネットワーク  原理

>                     後天的
>        何か                 問題
> 知的
> 人                       100%

>    原理の上に築く先天的な仕組み             概念
>                       糞   粘着


> 自動
>           秩序 暴走     奇形
>                 キチガイ

>    教育 困難          人工知能
> できあがる

重要な単語のみ抽出した
つまりニューラルネットワークは,人が何か後天的に知的な問題を,
原理的で先天的な仕組みの概念で糞が粘着し
自動的な秩序の暴走を促す(?)奇形(キチガイ)を教育する人工知能を作る物.

という壮大な物語だったのさ

688 名前:デフォルトの名無しさん mailto:ww [2008/09/21(日) 10:32:18 ]
と、自作自演な厨が荒らしております。



689 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 14:10:52 ]
一生懸命考えた結果がこれだよ!

690 名前:デフォルトの名無しさん [2008/09/22(月) 00:14:47 ]
糞スレに常駐するDQNは何もできないからこそ常駐して妬んでいるだけ。
まさに病気そのものwっうぇええうぇうぇっうぇ

691 名前:真スレッドストッパー mailto:sage [2008/09/25(木) 01:28:39 ]
つか、本とかの解説どおり習得して終わり。
さあ満足したか?それでおわり、その先はない。

結局自分では真似だけして何もできないのが、その先があると勘違いして
騒ぐが結局は自分で生み出したものではないので何もできない。
つまんねーなw。すこしは自分で結果をだしてみろよ。
物事を生み出すことができないのは君が論理に支配されているからだ。
論理を超えてみろよ、嘆きの壁は越えられない。
そう定義されているから、だから諦めろw

692 名前:デフォルトの名無しさん [2008/09/25(木) 18:14:44 ]
>>672
そのソースは修正のところで、教師信号がp個あったら
現状での、全てのパターンの信号の誤差を和算して一気に修正してるけど、

データ0で誤差を計算し修正。
データ1で修正後の荷重を用いて誤差を計算し修正
データ2、データ3で・・・・データpでってやるのが

693 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 07:39:30 ]
>>692
日本語でおk

694 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:44:10 ]
逐次更新より一括のほうが正しい計算だろ


695 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:47:36 ]
シミュレーション板へ帰れ!
ここはプログラミング板だ

696 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:49:14 ]
この板はプログラムを作る人のための板です。

あらゆる質問はまずすれ立てるまでもない質問はここでスレにしてください。

その他、お勉強ページへのリンクスレ、
推薦図書・必読書スレ
もあります。

プログラム・ソフトの使い方は PC 初心者板やソフトウェア板へ。
ウイルス、ハッキング・クラッキングを求めるような発言は禁止です。
Javascript は Web 制作板、CGI は Web プログラミング板へ。
業界談義、愚痴はプログラマ板へどうぞ。
ゲーム関係の話題はゲーム製作板へどうぞ。
ネタ、板とは関係の無い話題はご遠慮ください。


697 名前:デフォルトの名無しさん [2008/10/01(水) 17:35:15 ]
>>231のソースコードが見れない見たい。

698 名前:デフォルトの名無しさん [2008/10/07(火) 17:33:51 ]
>>227-228
のデータを3層ニューラルネットワーク、中間層の素子数10でやると
5秒くらいで学習が完了するんですけど、
素子数を100にすると学習がなかなか進みません。
100って多すぎるんですかね?



699 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 01:19:21 ]
>>698
素子数の組み合わせの数がどれぐらいになるか計算もできないの?
単純なニューラルネットワークは大規模になるほど指数的に難しくなる。


700 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 09:48:51 ]
>>698
中間層増やし過ぎるとカーブフィッティングしまくりで使いものにならないよ。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<232KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef