- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 701 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 19:32:13 ]
- 問題ごとに中間層の素子数はどのくらいが適正なんて
ノウハウは公開されたものはどこにも無いのな? みんな経験と勘で決めてるのだろうか?
- 702 名前:デフォルトの名無しさん mailto:sage [2008/10/27(月) 00:24:08 ]
- >>701
だいたいは経験と勘。 もし適切な数というものを半自動的に決めたいのなら、そこは 統計学の分野に一日の長がある。 具体的には多変量解析、重回帰分析、増減法とかでぐぐれ。 それすら単なるノウハウと言ってしまえばそれまでだがな。
- 703 名前:デフォルトの名無しさん mailto:sage [2008/10/28(火) 23:52:50 ]
- >702
サンクス。 何かものの本を見るとAIC(赤池情報量基準) とか言う決め方があるみたいだな。 勉強してみよう。
- 704 名前:デフォルトの名無しさん mailto:sage [2008/12/14(日) 18:58:12 ]
- わかる人いるか
自己組織化マップ(SOM)に興味もってる。 脳は自己組織化を実現してるのは間違いないと思うけど、 一方で自己組織化を実現する本質はSOMじゃねえと思ってる。 近傍学習・競合学習を、ニューロンが持つ単純な計算機能を SOMみたいな入力層・競合層みたいな構造ではない、ほかの構造で、 実現しているんだと思う。 でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 時間軸方向に、何か発火の時間的なタイミングとかパターンが 意味を持つような形で、構造化されてるんじゃないかと思う。 たとえば視覚情報は、シリアルな値として入力層に現れるんじゃないか、という話。 SOMの学習済み競合層は、よく2次元でマップされてるのが例として出てくるけど、 これは時間軸方向までを含めて、ある時間軸の窓の中での自己組織化を 切り出した形なんじゃねーのか、という話。 これ、形式化したいんだが、どうしよう。
- 705 名前:デフォルトの名無しさん mailto:sage [2008/12/19(金) 00:58:48 ]
- SOMから離れろ
海外の論文を漁れ
- 706 名前:デフォルトの名無しさん [2009/01/15(木) 19:28:54 ]
- >>704
日本語でおk?
- 707 名前:デフォルトの名無しさん [2009/01/25(日) 09:46:59 ]
- >>704
よくわからんが、時間変化というか時間軸方向でのパタンこそが、ってことかな。 俺もそれは思う。
- 708 名前:デフォルトの名無しさん mailto:sage [2009/03/14(土) 01:31:09 ]
- 文字認識や波形からのデータマイニングに使える気がするんだけど・・・・
- 709 名前:デフォルトの名無しさん mailto:sage [2009/03/19(木) 00:41:14 ]
- 教師有り学習と教師無し学習って手法毎に明確に分類できるわけじゃないよね?
- 710 名前:デフォルトの名無しさん mailto:sage [2009/03/21(土) 12:53:00 ]
- 人間が曖昧な記憶をするのは、
曖昧な認識をするためじゃないのかなー。 データを信号に変えて、曖昧な記憶をさせたらどうだろう。
- 711 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:11:26 ]
- ちょっと質問、遺伝的アルゴリズム(GA)とニューラルネットワークって違うんでしょうか?
どっかで、GAのスレがあったら教えてください。
- 712 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:15:15 ]
- 違う
science6.2ch.net/test/read.cgi/sim/1017102268/
- 713 名前:デフォルトの名無しさん [2009/04/17(金) 21:52:34 ]
- >>710
非論理を記憶させ、それを構築するには、それを与える人が非論理を理解 していなければ成り立たないだろ。 おまのは、そのようになったらいいな、とか、 やってみたらどうだろとか、誰でも始めに思いつくことを言っているに過ぎない。 曖昧な記憶だ?んなのは人工知能を始めて想像した数学者チューリングすら やっていた思考実験だ、バカス。
- 714 名前:デフォルトの名無しさん mailto:sage [2009/04/18(土) 09:13:03 ]
- むしろ曖昧な記憶って何?
そういう研究領域ってあるの?
- 715 名前:デフォルトの名無しさん mailto:sage [2009/04/19(日) 08:33:32 ]
- >>712
ありがとう
- 716 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 03:28:18 ]
- >>714
心理学とか? 記憶がどう変容していくかとかの実験とかやってた 凶器注目効果とかも近いかも
- 717 名前:デフォルトの名無しさん mailto:sage [2009/05/24(日) 18:10:08 ]
- なぜ誤差逆伝搬学習法による中間層-中間層のシナプス結合荷重を変化させると非線形の出力に対しての領域わけができるのでしょうか?
- 718 名前:デフォルトの名無しさん [2009/06/08(月) 00:08:14 ]
- >>717
自然淘汰、ダメなものが消滅、良いものが生き残る。
- 719 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:22:42 ]
- >>714
無意識で記録される記憶、 意味にならない記憶、 無意味な記憶 無意味を情報処理する方法を脳が潜在意識として実現している。 ニューラルネットワークなどの仮想モデルの説明では、 自己組織化で自動構築されるので外部からそれを見ることも観測する こともできない、できても意味がない。 動的に構築されるというのはそういうタイプの情報処理である。 その辺で無意味を扱えるのは科学ではない、非科学の領域だよ。 だから考える必要すらない。研究したらトンデモ研究に認定される。
- 720 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:36:12 ]
- >717
それって、 「なぜパーセプトロンは線形分離可能なパターンしか分類できないのか?」 の裏命題だよね? ミンスキー&パパートの「パーセプトロン」を読め、じゃあ無くて 単純パーセプトロンは結局、入出力関係を線形一次結合にしかできない 中間層-中間層があれば非線形な関係を表現できるとしか 説明しようが無いんじゃあ? 逆誤差伝播法が発明されたのでそれを実際に学習させる事が可能になったと。
- 721 名前:デフォルトの名無しさん [2009/06/08(月) 00:49:41 ]
- 旨くいかないのは、ほとんどが学習で集束しないという話である。
- 722 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 15:51:19 ]
- >>721
見積もりができてないだけじゃん。 そもそも規則性が無いものは学習できない。 秩序がない抽象的なものを学習させるのは無理というもの。 それ以前に学習させたか怪しいな。多層構造になると学習させるのが 単純ではないぐらい理解してないとかw
- 723 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 22:14:04 ]
- 抽象的も何もデータになってる以上はできるだろ
使ったこと有って教えてる?
- 724 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 00:13:42 ]
- なにも分らない奴ほど短いレスをする法則
- 725 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 01:17:46 ]
- でも簡潔で全てを物語ってるな
- 726 名前:デフォルトの名無しさん [2009/06/09(火) 22:02:30 ]
- だんだん短く
- 727 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:28:24 ]
- なる
- 728 名前:デフォルトの名無しさん [2009/06/09(火) 23:43:21 ]
- よ
- 729 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:46:55 ]
-
- 730 名前:真スレッドストッパー mailto:sage [2009/06/10(水) 12:10:30 ]
- 512KBを超えました、新しいスレッドを作ってください。
- 731 名前:デフォルトの名無しさん mailto:sage [2009/06/10(水) 12:17:40 ]
- >でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、
発火の失敗もある。つまり1と0だけではない。
- 732 名前:デフォルトの名無しさん mailto:sage [2009/06/26(金) 23:10:42 ]
- グーグルで
「階層型 ニューラルネットワーク java」で検索すると出てくる www.geocities.jp/retort_curry119/NN.htm からDLできるソースってちゃんとニューラルネットワークできますか?
- 733 名前:デフォルトの名無しさん [2009/07/12(日) 19:15:20 ]
- 今レポート書いてんだけど。
ニューラルネットワークって実際の脳の仕組みと同じなのかな? 詳しい人教えてほしいです
- 734 名前:デフォルトの名無しさん mailto:sage [2009/07/12(日) 19:35:33 ]
- 同じじゃない
ニューロンとシナプスの構造を単純化したもの
- 735 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 09:00:05 ]
- >>733
根本原理は用語的には同じ。というよりニューロンのネットワークだから 直訳すれば神経網、脳が神経網とは違うのか?と聞いているのと同じ。 貴方が聞いているのはコンピュータモデルでの単純化したタイプだと 734が予想&補完した返事をしているだけ。 ニューラルネットワークは単純化した部分がもっとも重要であり 主幹として機能しているが実際の脳とは学習アルゴリズムは違う ので比較ができない。 >>732 階層じゃなくても貴方のいうニュールネットワークはできる。 しかしそれは生きた神経網を採取して部分的に成長さえて機能ができている かを確認しているのにすぎない。 貴方が背景で考えていると予測してその意味的な「できる?」という返事なら それはできない。理由として貴方にそれを扱うスキルがない。 貴方が思っている対象は多分、高等な情報処理であり、実験的なものではない 機能させる対象が単純モデルならNNを使う必要すらない。高等なら貴方に そのスキルがないってこと。貴方の学習でも階層を使う必要すらない。 コンピュータで比喩すれば、現在のWindowの大型アプリを使うのではなく 電子ブロックを抜き差ししている状況だと悟ろう。
- 736 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 10:32:44 ]
- 入出力連続値、閾値なしのBP対応3層NNを作りましたが、
3層から多層に変えると、記憶できるパターン数は増やせますか? 3層の中間層を増やすことと同じであまり期待できないのでしょうか?
- 737 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:29:37 ]
- >>736
既に作ったなら多層にするのは大変なことじゃないだろ? なぜ自分で試してみない?
- 738 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:51:20 ]
- 中間層を増やすとか言う曖昧な表現してるから理解できてないんだろう
- 739 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 16:47:05 ]
- いや返事もないので、すでに多層化した。
- 740 名前:デフォルトの名無しさん mailto:sage [2009/07/21(火) 22:26:58 ]
- それどこが難しいんだ
小学生でもできるレベルの改良だろ
- 741 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 07:51:00 ]
- アソシアトロンってどうでしょう
- 742 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 09:04:22 ]
- >>740
難しい?。簡単だよ。だけどその後の検証が面倒なんだ。 既にわかってることに時間かけても仕方ないからね。
- 743 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 18:50:18 ]
- では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ
プライドのためだけに>>739の様なレスを書く時間をかけたのは無駄ではないのか
- 744 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:04:28 ]
- もしかして、「3層の中間層をふやす」って文章のこと?
文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。 3層の中間層のノードを増やすが正解。
- 745 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:32:48 ]
- 表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない
おめーら雑談たのしいの?
- 746 名前:デフォルトの名無しさん mailto:sage [2009/07/24(金) 23:04:58 ]
- 本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような
振る舞いをするのはイタイ レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ
- 747 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 01:21:50 ]
- 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
- 748 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 06:37:25 ]
- >>741
ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。 記憶に興味がもてたらもう一回調べてみよう。 今朝思いついたけど、夢を見たことを忘れるのは、 寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。
- 749 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 07:10:15 ]
- たった一行のレスに時間をかけたといったり、
一言コメントしてからおめーらといったり。 論理が破綻してるひと多すぎ。
- 750 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 12:52:19 ]
- まだまだ燃料としては弱い
夏で外が暑いからといって燃料投下を止めていいと思うなよ
- 751 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 19:21:36 ]
- 学問でやりたいなら数学の板が適してるんだろうけど
数学理解する力がないんだろ
- 752 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:00:56 ]
- 英語と数学は壁だね。何やるにしても。
- 753 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:14:50 ]
- ムキムキしながらって表現になんか笑ったw
なんだそれw
- 754 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:49:35 ]
- さぁレスするぞーー!!
_ / jjjj _ / タ {!!! _ ヽ、 オーー!! ,/ ノ ~ `、 \ _ `、 `ヽ. ∧_∧ , ‐'` ノ / `j ∧_∧_ \ `ヽ( ´∀` )" .ノ/ / /`ー' オーー!! ( ´∀`)  ̄"⌒ヽ `、ヽ. ``Y" r ' 〈 `ヽ / ) ヽ' / 、 `、 i. 、 ¥ ノ `、 ヽ∧_∧ γ --‐ ' λ. ; `、.` -‐´;`ー イ 〉 ´∀) ,-、、 f 、 ヾ / ) i 彡 i ミ/ / ノ  ̄⌒ヽ 「 〉 ! ノヽ、._, '`"/ _,. '" } { ノ ' L `ヽ./ / |  ̄`ー-`ヽ 〈 < _ ヽ. / `\ / , ' ノ\ ´ / !、__,,, l ,\_,ソ ノ / /ヽ、 ヽ. ( ∠_ ヽ、_, ' 〈'_,/ / / / ノ ヽ. ) i 、 ヽ | | イ-、__ \ `ヽ { f _,, ┘ 「`ー-ァ j l.__| }_ l \ \ | i f" ノ { / _.| .〔 l l ノ _> j キ | i⌒" ̄ / /_ 〔___! '--' <.,,_/~ 〈 `、ヾ,,_」 i___,,」 `ー-‐'
- 755 名前:デフォルトの名無しさん mailto:sage [2009/07/26(日) 14:46:56 ]
- 階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は
シグモイド関数のα(ゲイン)の値を小さくして、 (X−Xmin)/(Xmax−Xmin)と基準化させて出力。 出力結果を質的データとして出したい時は αの値を大きくして(ほぼ?)0,1の出力をする。 という理解で大丈夫ですか?
- 756 名前:デフォルトの名無しさん mailto:sage [2009/07/27(月) 06:21:43 ]
- 返事もないので、すでに自己解決した。
- 757 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 03:41:16 ]
- >>755
やってみてから考えろ。
- 758 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 07:39:54 ]
- SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?
- 759 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 15:25:50 ]
- >>758
やたら挑戦的なweb記事が見つかった www.mindware-jp.com/basic/faq2.html
- 760 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 08:41:25 ]
- >>759
どうもです。 長らく悪菌でした・・・ 面白いですねw もっともだと思うこともあれば根拠なき断定ではというのもありますね。 ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、 アカデミアではどう受け止められているんでしょうか?
- 761 名前:デフォルトの名無しさん [2010/01/16(土) 03:17:11 ]
- くだらんおべんちゃらはよせ
- 762 名前:デフォルトの名無しさん mailto:sage [2010/01/19(火) 19:14:55 ]
- www.natureasia.com/japan/highlights/details.php?id=570
- 763 名前:デフォルトの名無しさん mailto:sage [2010/01/21(木) 21:10:58 ]
- 話題がねーなー
- 764 名前:デフォルトの名無しさん [2010/02/01(月) 04:53:50 ]
- 多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が
必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、 前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか? 関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。
- 765 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 20:00:53 ]
- 肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの
どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし
- 766 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 22:43:37 ]
- 私自身、はじめは目視でやっていたのですが、
目視ではなく、プログラム側で自動で判別できるような条件 等があれば良いかなと思うんですがどうですか? 初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する 方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある 関数で、谷間の間の部分の教師データが採用されない等の問題がありました。 そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で 制御できないかなと思い質問しました。どうでしょうか・・・?
- 767 名前:デフォルトの名無しさん mailto:sage [2010/02/02(火) 21:57:28 ]
- 特徴量がうまくとらえられていないデータは似たような位置が似たような値をとっているはず
多すぎるデータを間引くのならそういう場所は削って良いね 同じ位置の値が似てるかどうかはエントロピーでも見れば判るかな
- 768 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:11:27 ]
- とりあえず、すべてのデータに大して隣り合う点との距離について計算して
その距離があるしきい値以上ならば学習データとして採用することにしました。 これで平坦な部分(関数全体からみて)についてはデータを少なくとることができたのかな? 変化の激しい部分はデータを多くとれるはず。 (データをある程度しぼって学習して、学習が進んでからデータを追加する仕様で プログラムを作成しています) >>767 近い位置のエントロピーを見てみるということですか。 うーんと・・・エントロピーってなんでしたっけ?平均情報量? 大学でやったような気がしますが教科書あげちゃったな… この場合、具体的に何を計算すればいいのかな。
- 769 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:15:39 ]
- ああ、表現が不味いかも上の"距離"というのは入力がx、出力がf(x)のときのf(x)のことです。
作成したプログラムは3次元の関数近似が目的なのでx,yの入力に対してのf(x,y)の値を 参考にしていますが… f(x,y)の値が隣のデータと離れていればいるほど、付近では関数の値が急に変化していると考えられるので 先に学習することでのちの学習がスムーズに行くのでは?と考えたためです。
- 770 名前:デフォルトの名無しさん mailto:sage [2010/02/06(土) 23:15:03 ]
- 手書き文字のサンプルを集めたいんでけど
どうすればいいかな? HTMLで作るとか?
- 771 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 01:10:28 ]
- >770
昔自分で用意したときはペイントで描いてから拡大表示してデータを作った。 5人ぐらいでやればみんなが違うパターンのを得られて楽でした。 そんなに精度要らないなら自分で作ったほうがはやいかも。
- 772 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 18:22:43 ]
- 卒論NNやれって言われちゃったよ・・・
なにやればいいんだ?
- 773 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 22:31:07 ]
- >772
時間がかなりかかるから今からじゃあ無理だと思うけど。 ああ、来年発表ですか?それなら NNっても卒論にするならいろいろあるからテーマが決まってないなら いくつか論文読んでからまたどうぞ。
- 774 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 19:59:05 ]
- ニューラルの論文集みたいなの無い?
- 775 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:33:42 ]
- うーん…多分NNやれって言われたならそれなりに準備してくれると思いますが、
先生に論文どれを読んだらいいか聞いてみたほうがよいかもしれません。 論文集をまとめてあるサイトは知りませんが検索したらいくらでもでてくると 思いますよ。
- 776 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:38:31 ]
- googleにgoogle scholarっていう学術論文検索できるやつがあるのでここから
scholar.google.co.jp/schhp?hl=ja 探せばいいかな。 でも、ニューラルネットワークで検索しても多すぎるし古いので、 例えばパターン認識とかリカレントニューラルネットワークとか誤差逆伝播法とか そのへんも検索に入れるといいかもしれませんね。 あなたのところの卒論のレベルは知りませんが、学部生ならこのへんの論文を参考に書けば十分だと思いますが。
- 777 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 01:56:21 ]
- 混合ガウス分布ってもう実用に使えるの?
共分散の自動調節が変だった記憶あるんだけど
- 778 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 14:23:18 ]
- 文字認識の精度が上がらないよー
- 779 名前:778 mailto:sage [2010/02/11(木) 15:12:01 ]
- ただ、手書きの文字を入力にしてるからかな?
手書き文字からパターンを抽出したいんだけど、どうやればいいかさっぱり分からん・・・
- 780 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 19:46:36 ]
- >778
プログラムあってるのか? あと、文字数を減らせばいいんじゃないか? とりあえずAとBとCの3つぐらいからやれば… 入力するパターンもAが5つ、Bが5つ、Cが5つとかにするんだぞ それぞれのパターンで書き方を少し変えればいい。 あともう少し実験の条件を晒してくれ… 入力してる文字とか…
- 781 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 20:43:38 ]
- 特徴量のとり方はどうやってる?
- 782 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 01:21:30 ]
- >>780
ありがとう、認識文字は0〜9で、 0〜9の入力に対してそれぞれ200回更新して、それを200回ループ回してるんだけど、 3と8と2がうまく学習できない。 てか、最後に学習した8になっちゃう感じ プログラムは↓ for(i=1 ; i<200 ;i++) { for(patarn=0 ; patarn<10 ; patarn++)//パターンをそれぞれ一つずつ学習 //教師信号割り当て //入力割り当て for(j=1 ; j<200 ;j++) { //入力誤差、出力計算 } } } こんな感じ、
- 783 名前:デフォルトの名無しさん mailto:sage [2010/02/16(火) 17:38:16 ]
- >782
見た感じ間違ってない気がするな。 数字の認識は3,8,2が上手く学習できてないのはなんだろうな 中間層の素子の数が足りないのかな。 もしくはこのプログラムは何回かやってみた?更新回数を増やすとか、学習係数の値の変更とか。 たしか、自分がやったときは文字の線が細いところを太く書いたら上手く分離できるようになったと思う。 とくに数字なら斜めの部分を太めにやってくれれば違うかもしれない。 あんまり似てると上手く分けられないからあえて違うように文字を書くのも最初のうちはありかも あと、0〜9を0から順番に学習しているから8が最後になっているみたいだが、これに関して 順番を変えることで結果はどうなるのか試してみたらどうかな。 (9から1に学習したら2になるかどうか?)
- 784 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 23:35:08 ]
- たまにはレスするか・・・
ニューラルで指紋認証やりたいんだけど 指紋そのまま抽出するより、特徴を抽出したほうが良いよね? 指紋の特徴って何がある?
- 785 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 07:00:32 ]
- 特徴点
- 786 名前:デフォルトの名無しさん mailto:sage [2010/04/02(金) 09:58:40 ]
- パーセプトロンで作ってみました
www4.cncm.ne.jp/~tsuri/per/aaa.wmv
- 787 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 15:46:09 ]
- hebb学習ってバックプロバみたいな正解と出力の関連付けが出来ないけど
出来るようにする方法を思いついた ちょっと実験してみよう >>784 特徴っていってもいろいろあるからな 角を検出したり直線を検出したり曲線を検出したり 画像処理スレの方が詳しい人が居るだろう
- 788 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 18:42:38 ]
- 自分が使う不出来な構造のNNの為に特徴抽出の
お膳立てしてあげようとしたら その前処理段階で判別に十分な特徴出ちゃったりなんて話も
- 789 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:15:57 ]
- 音声を入れたら文字が出力されて
文字を入れたら音声が出力されるNNを作ろうと思うんだけど これって研究対処になる?
- 790 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:30:42 ]
- >>789
そりゃなるでしょう。 特に英語なら綴りと発音の関係がややこしいし。 音声認識は昔からNNの研究対象分野だし。 ただ、DecTalkとか言う先行研究がすでに有ったような。
- 791 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:00:00 ]
- 卒論のテーマ考えてるんだけど
何やればいいかわからん 誰か助けて
- 792 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:29:43 ]
- 興味があること
- 793 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 03:37:31 ]
- NNって別にすごいことしてないしな
何をやってるのか解析しようと思えば出来るだろう いや実際数式化しようと思えば出来ると思うがな 特にバックプロバケーションタイプなんて もろ教師信号からパラメータの中央値を糞無駄な計算を繰り返して 導き出して、しまいにはそのパラメーターを使いまわし しかも使う人間も馬鹿だから全部のパラメータが重要だと思って 無駄計算を繰り返してるだろ
- 794 名前:デフォルトの名無しさん mailto:sage [2010/04/18(日) 21:12:18 ]
- 連想記憶モデルって何の役に立つんだ?
- 795 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 16:59:00 ]
- SVMは単に2値に分離するだけだけど
NNは無限個に分離できる可能性がある 可能性があるというのは構造や規模次第って意味で ただいろいろ不利な点がある 追加学習が出来ない 適切な構造が分からない 計算に時間が掛かる いろいろ解決法は考案されてるものの誰もそのアイデアを公表しない そして秘密にして利益を守ろうとする割にはアイデアがしょぼいw だから発展しないし利用出来るだけの材料がまったく揃ってない
- 796 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 17:16:59 ]
- 例えば
XOR問題を空間であらわすと SVMは ○| ----- |○ NNは □| ----- |□ みたいな感じだな SVMは角が無いんだよ
- 797 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 00:03:08 ]
- ニューラルネットで実用的なモデルって何?
何に需要あるの?これたちの悪い罰ゲームなの?
- 798 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 01:44:12 ]
- 構造をいちいち検証せずとも自動的に決定してくれて
学習に何週間も時間を費やさずともよくて フリーのライブラリが各言語に標準に近い状態で実装されてれば かなり需要があると思うが 現状ではNNを利用するには目的にあったNNを発明する所から始めないといけないという だから作ったものは自分にしか需要がない
- 799 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 23:26:35 ]
- 多層のフィードフォーワードとリカレントの特徴の違いを教えてください
- 800 名前:デフォルトの名無しさん mailto:sage [2010/04/22(木) 07:53:31 ]
- フォーワードは
BPのように入力から出力の一方向接続があって 教師信号で逆方向の重みを計算する この時に出力の計算式と修正の計算式が違う それを統合してしまおうというんおがリカレント 出力層と中間層は入力層に接続されていて それぞれの出力計算と重み修正の計算式は常に同じ しかも線形だから実に簡略化されたもの でFA?
|

|