1 名前:1 [04/09/11 01:48:08] について教えてよ
666 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:14:57 ] そんなこと言ってるから何時まで経っても進歩しねーんだよ 英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ そもそも言語とは何かってところから学習を始めないと意味がないんだろ そして英語もフランス語も同時に学習していかないと使えないんだよ チェスを学習するということはチェスとは何かを学習することだ 強さじゃねー
667 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:21:14 ] そんなに気持ちいいのですか。
668 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:22:11 ] 形態素解析エンジンを作りましたこれで自然言語処理が出来るとか馬鹿なこと言ってんじゃねー 形態素解析こそ自動学習で最初に作るべきものだろうが
669 名前:デフォルトの名無しさん [2008/09/09(火) 16:05:08 ] 別の世界からこにゃにゃちわ(・ω・)/
670 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 22:46:25 ] 犬語とか猫語? あ、それはもうあったか。
671 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 00:19:21 ] >英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ どんな妄想だこれ?w
672 名前:デフォルトの名無しさん [2008/09/10(水) 15:14:36 ] www.si.hirosaki-u.ac.jp/~ei_sys/neuro/backprop.c これのvoid backward()のところの式あってる?
673 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 16:47:45 ] その位自分で分からないのなら手を出すなw せめて自分が正しいと思うコードを書くとかしないと
674 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 21:35:27 ] >>672 それないよ BPにすらなってないソース掲示されても困るよな
675 名前:デフォルトの名無しさん mailto:sage [2008/09/12(金) 10:38:22 ] マヌケな無能君が、途中結果もだせず、考えもまとまらず、誰にも評価され ない情況が続くので必死に2chで喘いでいます、オマエだ、オマエしかいない。 すくなくともオマエの意見に賛同するのはオマエだけ。 匿名で発言しても何も変わらんし、おまえのストレスが増えてゆくだけ。 ここで答えが求まるとか議論していると勘違いしている君には 治療薬すらない。
676 名前:デフォルトの名無しさん [2008/09/12(金) 12:06:15 ] BPになってないワロタ プログラミングしたことないのか
677 名前:デフォルトの名無しさん [2008/09/12(金) 19:09:51 ] >>672 8行目と9行目のsum+=のとこと delta1[j]=のとこが微妙だな
678 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 20:59:38 ] >>608 分かりやすい説明だな。
679 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 21:14:10 ] 「ロジスティック回帰モデルと単層パーセプトロンは等価である」 と言うのは本当でしょうか? またWikipediaの説明によれば単層パーセプトロンに隠れ層(連合層)が あるように書かれていますが、これはおかしいのでは無いでしょうか?
680 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 18:38:55 ] 頼むおしえてください! 誤差逆伝播法で忘却項を導入する方法があるけど いったいどんな利点があるんでしょうか?
681 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 19:03:32 ] >>679 単層というのは学習する層がひとつで中間層はあっていいよ
682 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:19 ] >隠れ層(連合層)が あるように 隠れ層と連合層は同じじゃない どちらも中間層のではあるが連合層を隠れ層とは呼ばない
683 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:47 ] 「の」が余分だった
684 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 08:51:49 ] > 野良犬(ポチ) 野良犬とポチは同じじゃない どちらも生物ではあるがポチを野良犬とは呼ばない みたいな?
685 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:17:41 ] ニューラルネットワークの「原理」は存在し検証できる。 しかし知的「仕組み」は先天的に作るものと後天的に生まれるものがあり 先天的なものが何かを特定できない時点で構築する以前の問題ではないか、 知的なものが後天的に全て学ぶものだと仮定すれば、すべて学習となり、 人が20年程度かけて修学するほどの手間がかかり、100%の全てが 大人になりえるわけでもない。 現状で原理の上に築く先天的な仕組みがどのような物かを微小なり概念なり 説明できるのならやってくれ、できないからこを糞スレに粘着しているんだろう。 それとは違う先天的な構築方法で行うメタ的な情報を築く手法の過程では ライブラリーのように地道に確実に積み上げしてゆくことが大事だと 何故気がつかないか? 自動で全てが成りえるという幻想でもいいが、自動ほど恐いものはない、 自動で成りえる情報の秩序を暴走させずに、奇形にならずにバランスを もった特定の形へなるなら人だってキチガイは生まれないだろう。 確率の問題なのか、それであれば永遠に近い時間で偶然を待つしかない。 人すら教育が困難なのに、人が生み出す人工知能の教育が簡単で一瞬で できあがると思うのか?
686 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:29:47 ] 面白くないコピペだな
687 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 08:13:20 ] > ニューラルネットワーク 原理 > > 後天的 > 何か 問題 > 知的 > 人 100% > > 原理の上に築く先天的な仕組み 概念 > 糞 粘着 > > > 自動 > 秩序 暴走 奇形 > キチガイ > > 教育 困難 人工知能 > できあがる 重要な単語のみ抽出した つまりニューラルネットワークは,人が何か後天的に知的な問題を, 原理的で先天的な仕組みの概念で糞が粘着し 自動的な秩序の暴走を促す(?)奇形(キチガイ)を教育する人工知能を作る物. という壮大な物語だったのさ
688 名前:デフォルトの名無しさん mailto:ww [2008/09/21(日) 10:32:18 ] と、自作自演な厨が荒らしております。
689 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 14:10:52 ] 一生懸命考えた結果がこれだよ!
690 名前:デフォルトの名無しさん [2008/09/22(月) 00:14:47 ] 糞スレに常駐するDQNは何もできないからこそ常駐して妬んでいるだけ。 まさに病気そのものwっうぇええうぇうぇっうぇ
691 名前:真スレッドストッパー mailto:sage [2008/09/25(木) 01:28:39 ] つか、本とかの解説どおり習得して終わり。 さあ満足したか?それでおわり、その先はない。 結局自分では真似だけして何もできないのが、その先があると勘違いして 騒ぐが結局は自分で生み出したものではないので何もできない。 つまんねーなw。すこしは自分で結果をだしてみろよ。 物事を生み出すことができないのは君が論理に支配されているからだ。 論理を超えてみろよ、嘆きの壁は越えられない。 そう定義されているから、だから諦めろw
692 名前:デフォルトの名無しさん [2008/09/25(木) 18:14:44 ] >>672 そのソースは修正のところで、教師信号がp個あったら 現状での、全てのパターンの信号の誤差を和算して一気に修正してるけど、 データ0で誤差を計算し修正。 データ1で修正後の荷重を用いて誤差を計算し修正 データ2、データ3で・・・・データpでってやるのが
693 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 07:39:30 ] >>692 日本語でおk
694 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:44:10 ] 逐次更新より一括のほうが正しい計算だろ
695 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:47:36 ] シミュレーション板へ帰れ! ここはプログラミング板だ
696 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:49:14 ] この板はプログラムを作る人のための板です。 あらゆる質問はまずすれ立てるまでもない質問はここでスレにしてください。 その他、お勉強ページへのリンクスレ、 推薦図書・必読書スレ もあります。 プログラム・ソフトの使い方は PC 初心者板やソフトウェア板へ。 ウイルス、ハッキング・クラッキングを求めるような発言は禁止です。 Javascript は Web 制作板、CGI は Web プログラミング板へ。 業界談義、愚痴はプログラマ板へどうぞ。 ゲーム関係の話題はゲーム製作板へどうぞ。 ネタ、板とは関係の無い話題はご遠慮ください。
697 名前:デフォルトの名無しさん [2008/10/01(水) 17:35:15 ] >>231 のソースコードが見れない見たい。
698 名前:デフォルトの名無しさん [2008/10/07(火) 17:33:51 ] >>227-228 のデータを3層ニューラルネットワーク、中間層の素子数10でやると 5秒くらいで学習が完了するんですけど、 素子数を100にすると学習がなかなか進みません。 100って多すぎるんですかね?
699 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 01:19:21 ] >>698 素子数の組み合わせの数がどれぐらいになるか計算もできないの? 単純なニューラルネットワークは大規模になるほど指数的に難しくなる。
700 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 09:48:51 ] >>698 中間層増やし過ぎるとカーブフィッティングしまくりで使いものにならないよ。
701 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 19:32:13 ] 問題ごとに中間層の素子数はどのくらいが適正なんて ノウハウは公開されたものはどこにも無いのな? みんな経験と勘で決めてるのだろうか?
702 名前:デフォルトの名無しさん mailto:sage [2008/10/27(月) 00:24:08 ] >>701 だいたいは経験と勘。 もし適切な数というものを半自動的に決めたいのなら、そこは 統計学の分野に一日の長がある。 具体的には多変量解析、重回帰分析、増減法とかでぐぐれ。 それすら単なるノウハウと言ってしまえばそれまでだがな。
703 名前:デフォルトの名無しさん mailto:sage [2008/10/28(火) 23:52:50 ] >702 サンクス。 何かものの本を見るとAIC(赤池情報量基準) とか言う決め方があるみたいだな。 勉強してみよう。
704 名前:デフォルトの名無しさん mailto:sage [2008/12/14(日) 18:58:12 ] わかる人いるか 自己組織化マップ(SOM)に興味もってる。 脳は自己組織化を実現してるのは間違いないと思うけど、 一方で自己組織化を実現する本質はSOMじゃねえと思ってる。 近傍学習・競合学習を、ニューロンが持つ単純な計算機能を SOMみたいな入力層・競合層みたいな構造ではない、ほかの構造で、 実現しているんだと思う。 でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 時間軸方向に、何か発火の時間的なタイミングとかパターンが 意味を持つような形で、構造化されてるんじゃないかと思う。 たとえば視覚情報は、シリアルな値として入力層に現れるんじゃないか、という話。 SOMの学習済み競合層は、よく2次元でマップされてるのが例として出てくるけど、 これは時間軸方向までを含めて、ある時間軸の窓の中での自己組織化を 切り出した形なんじゃねーのか、という話。 これ、形式化したいんだが、どうしよう。
705 名前:デフォルトの名無しさん mailto:sage [2008/12/19(金) 00:58:48 ] SOMから離れろ 海外の論文を漁れ
706 名前:デフォルトの名無しさん [2009/01/15(木) 19:28:54 ] >>704 日本語でおk?
707 名前:デフォルトの名無しさん [2009/01/25(日) 09:46:59 ] >>704 よくわからんが、時間変化というか時間軸方向でのパタンこそが、ってことかな。 俺もそれは思う。
708 名前:デフォルトの名無しさん mailto:sage [2009/03/14(土) 01:31:09 ] 文字認識や波形からのデータマイニングに使える気がするんだけど・・・・
709 名前:デフォルトの名無しさん mailto:sage [2009/03/19(木) 00:41:14 ] 教師有り学習と教師無し学習って手法毎に明確に分類できるわけじゃないよね?
710 名前:デフォルトの名無しさん mailto:sage [2009/03/21(土) 12:53:00 ] 人間が曖昧な記憶をするのは、 曖昧な認識をするためじゃないのかなー。 データを信号に変えて、曖昧な記憶をさせたらどうだろう。
711 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:11:26 ] ちょっと質問、遺伝的アルゴリズム(GA)とニューラルネットワークって違うんでしょうか? どっかで、GAのスレがあったら教えてください。
712 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:15:15 ] 違う science6.2ch.net/test/read.cgi/sim/1017102268/
713 名前:デフォルトの名無しさん [2009/04/17(金) 21:52:34 ] >>710 非論理を記憶させ、それを構築するには、それを与える人が非論理を理解 していなければ成り立たないだろ。 おまのは、そのようになったらいいな、とか、 やってみたらどうだろとか、誰でも始めに思いつくことを言っているに過ぎない。 曖昧な記憶だ?んなのは人工知能を始めて想像した数学者チューリングすら やっていた思考実験だ、バカス。
714 名前:デフォルトの名無しさん mailto:sage [2009/04/18(土) 09:13:03 ] むしろ曖昧な記憶って何? そういう研究領域ってあるの?
715 名前:デフォルトの名無しさん mailto:sage [2009/04/19(日) 08:33:32 ] >>712 ありがとう
716 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 03:28:18 ] >>714 心理学とか? 記憶がどう変容していくかとかの実験とかやってた 凶器注目効果とかも近いかも
717 名前:デフォルトの名無しさん mailto:sage [2009/05/24(日) 18:10:08 ] なぜ誤差逆伝搬学習法による中間層-中間層のシナプス結合荷重を変化させると非線形の出力に対しての領域わけができるのでしょうか?
718 名前:デフォルトの名無しさん [2009/06/08(月) 00:08:14 ] >>717 自然淘汰、ダメなものが消滅、良いものが生き残る。
719 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:22:42 ] >>714 無意識で記録される記憶、 意味にならない記憶、 無意味な記憶 無意味を情報処理する方法を脳が潜在意識として実現している。 ニューラルネットワークなどの仮想モデルの説明では、 自己組織化で自動構築されるので外部からそれを見ることも観測する こともできない、できても意味がない。 動的に構築されるというのはそういうタイプの情報処理である。 その辺で無意味を扱えるのは科学ではない、非科学の領域だよ。 だから考える必要すらない。研究したらトンデモ研究に認定される。
720 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:36:12 ] >717 それって、 「なぜパーセプトロンは線形分離可能なパターンしか分類できないのか?」 の裏命題だよね? ミンスキー&パパートの「パーセプトロン」を読め、じゃあ無くて 単純パーセプトロンは結局、入出力関係を線形一次結合にしかできない 中間層-中間層があれば非線形な関係を表現できるとしか 説明しようが無いんじゃあ? 逆誤差伝播法が発明されたのでそれを実際に学習させる事が可能になったと。
721 名前:デフォルトの名無しさん [2009/06/08(月) 00:49:41 ] 旨くいかないのは、ほとんどが学習で集束しないという話である。
722 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 15:51:19 ] >>721 見積もりができてないだけじゃん。 そもそも規則性が無いものは学習できない。 秩序がない抽象的なものを学習させるのは無理というもの。 それ以前に学習させたか怪しいな。多層構造になると学習させるのが 単純ではないぐらい理解してないとかw
723 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 22:14:04 ] 抽象的も何もデータになってる以上はできるだろ 使ったこと有って教えてる?
724 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 00:13:42 ] なにも分らない奴ほど短いレスをする法則
725 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 01:17:46 ] でも簡潔で全てを物語ってるな
726 名前:デフォルトの名無しさん [2009/06/09(火) 22:02:30 ] だんだん短く
727 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:28:24 ] なる
728 名前:デフォルトの名無しさん [2009/06/09(火) 23:43:21 ] よ
729 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:46:55 ]
730 名前:真スレッドストッパー mailto:sage [2009/06/10(水) 12:10:30 ] 512KBを超えました、新しいスレッドを作ってください。
731 名前:デフォルトの名無しさん mailto:sage [2009/06/10(水) 12:17:40 ] >でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 発火の失敗もある。つまり1と0だけではない。
732 名前:デフォルトの名無しさん mailto:sage [2009/06/26(金) 23:10:42 ] グーグルで 「階層型 ニューラルネットワーク java」で検索すると出てくる www.geocities.jp/retort_curry119/NN.htm からDLできるソースってちゃんとニューラルネットワークできますか?
733 名前:デフォルトの名無しさん [2009/07/12(日) 19:15:20 ] 今レポート書いてんだけど。 ニューラルネットワークって実際の脳の仕組みと同じなのかな? 詳しい人教えてほしいです
734 名前:デフォルトの名無しさん mailto:sage [2009/07/12(日) 19:35:33 ] 同じじゃない ニューロンとシナプスの構造を単純化したもの
735 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 09:00:05 ] >>733 根本原理は用語的には同じ。というよりニューロンのネットワークだから 直訳すれば神経網、脳が神経網とは違うのか?と聞いているのと同じ。 貴方が聞いているのはコンピュータモデルでの単純化したタイプだと 734が予想&補完した返事をしているだけ。 ニューラルネットワークは単純化した部分がもっとも重要であり 主幹として機能しているが実際の脳とは学習アルゴリズムは違う ので比較ができない。 >>732 階層じゃなくても貴方のいうニュールネットワークはできる。 しかしそれは生きた神経網を採取して部分的に成長さえて機能ができている かを確認しているのにすぎない。 貴方が背景で考えていると予測してその意味的な「できる?」という返事なら それはできない。理由として貴方にそれを扱うスキルがない。 貴方が思っている対象は多分、高等な情報処理であり、実験的なものではない 機能させる対象が単純モデルならNNを使う必要すらない。高等なら貴方に そのスキルがないってこと。貴方の学習でも階層を使う必要すらない。 コンピュータで比喩すれば、現在のWindowの大型アプリを使うのではなく 電子ブロックを抜き差ししている状況だと悟ろう。
736 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 10:32:44 ] 入出力連続値、閾値なしのBP対応3層NNを作りましたが、 3層から多層に変えると、記憶できるパターン数は増やせますか? 3層の中間層を増やすことと同じであまり期待できないのでしょうか?
737 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:29:37 ] >>736 既に作ったなら多層にするのは大変なことじゃないだろ? なぜ自分で試してみない?
738 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:51:20 ] 中間層を増やすとか言う曖昧な表現してるから理解できてないんだろう
739 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 16:47:05 ] いや返事もないので、すでに多層化した。
740 名前:デフォルトの名無しさん mailto:sage [2009/07/21(火) 22:26:58 ] それどこが難しいんだ 小学生でもできるレベルの改良だろ
741 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 07:51:00 ] アソシアトロンってどうでしょう
742 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 09:04:22 ] >>740 難しい?。簡単だよ。だけどその後の検証が面倒なんだ。 既にわかってることに時間かけても仕方ないからね。
743 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 18:50:18 ] では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ プライドのためだけに>>739 の様なレスを書く時間をかけたのは無駄ではないのか
744 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:04:28 ] もしかして、「3層の中間層をふやす」って文章のこと? 文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。 3層の中間層のノードを増やすが正解。
745 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:32:48 ] 表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない おめーら雑談たのしいの?
746 名前:デフォルトの名無しさん mailto:sage [2009/07/24(金) 23:04:58 ] 本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ
747 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 01:21:50 ] 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
748 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 06:37:25 ] >>741 ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。 記憶に興味がもてたらもう一回調べてみよう。 今朝思いついたけど、夢を見たことを忘れるのは、 寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。
749 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 07:10:15 ] たった一行のレスに時間をかけたといったり、 一言コメントしてからおめーらといったり。 論理が破綻してるひと多すぎ。
750 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 12:52:19 ] まだまだ燃料としては弱い 夏で外が暑いからといって燃料投下を止めていいと思うなよ
751 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 19:21:36 ] 学問でやりたいなら数学の板が適してるんだろうけど 数学理解する力がないんだろ
752 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:00:56 ] 英語と数学は壁だね。何やるにしても。
753 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:14:50 ] ムキムキしながらって表現になんか笑ったw なんだそれw
754 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:49:35 ] さぁレスするぞーー!! _ / jjjj _ / タ {!!! _ ヽ、 オーー!! ,/ ノ ~ `、 \ _ `、 `ヽ. ∧_∧ , ‐'` ノ / `j ∧_∧_ \ `ヽ( ´∀` )" .ノ/ / /`ー' オーー!! ( ´∀`)  ̄"⌒ヽ `、ヽ. ``Y" r ' 〈 `ヽ / ) ヽ' / 、 `、 i. 、 ¥ ノ `、 ヽ∧_∧ γ --‐ ' λ. ; `、.` -‐´;`ー イ 〉 ´∀) ,-、、 f 、 ヾ / ) i 彡 i ミ/ / ノ  ̄⌒ヽ 「 〉 ! ノヽ、._, '`"/ _,. '" } { ノ ' L `ヽ./ / |  ̄`ー-`ヽ 〈 < _ ヽ. / `\ / , ' ノ\ ´ / !、__,,, l ,\_,ソ ノ / /ヽ、 ヽ. ( ∠_ ヽ、_, ' 〈'_,/ / / / ノ ヽ. ) i 、 ヽ | | イ-、__ \ `ヽ { f _,, ┘ 「`ー-ァ j l.__| }_ l \ \ | i f" ノ { / _.| .〔 l l ノ _> j キ | i⌒" ̄ / /_ 〔___! '--' <.,,_/~ 〈 `、ヾ,,_」 i___,,」 `ー-‐'
755 名前:デフォルトの名無しさん mailto:sage [2009/07/26(日) 14:46:56 ] 階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は シグモイド関数のα(ゲイン)の値を小さくして、 (X−Xmin)/(Xmax−Xmin)と基準化させて出力。 出力結果を質的データとして出したい時は αの値を大きくして(ほぼ?)0,1の出力をする。 という理解で大丈夫ですか?
756 名前:デフォルトの名無しさん mailto:sage [2009/07/27(月) 06:21:43 ] 返事もないので、すでに自己解決した。
757 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 03:41:16 ] >>755 やってみてから考えろ。
758 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 07:39:54 ] SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?
759 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 15:25:50 ] >>758 やたら挑戦的なweb記事が見つかった www.mindware-jp.com/basic/faq2.html
760 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 08:41:25 ] >>759 どうもです。 長らく悪菌でした・・・ 面白いですねw もっともだと思うこともあれば根拠なき断定ではというのもありますね。 ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、 アカデミアではどう受け止められているんでしょうか?
761 名前:デフォルトの名無しさん [2010/01/16(土) 03:17:11 ] くだらんおべんちゃらはよせ
762 名前:デフォルトの名無しさん mailto:sage [2010/01/19(火) 19:14:55 ] www.natureasia.com/japan/highlights/details.php?id=570
763 名前:デフォルトの名無しさん mailto:sage [2010/01/21(木) 21:10:58 ] 話題がねーなー
764 名前:デフォルトの名無しさん [2010/02/01(月) 04:53:50 ] 多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が 必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、 前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか? 関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。
765 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 20:00:53 ] 肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし
766 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 22:43:37 ] 私自身、はじめは目視でやっていたのですが、 目視ではなく、プログラム側で自動で判別できるような条件 等があれば良いかなと思うんですがどうですか? 初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する 方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある 関数で、谷間の間の部分の教師データが採用されない等の問題がありました。 そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で 制御できないかなと思い質問しました。どうでしょうか・・・?