1 名前:1 [04/09/11 01:48:08] について教えてよ
672 名前:デフォルトの名無しさん [2008/09/10(水) 15:14:36 ] www.si.hirosaki-u.ac.jp/~ei_sys/neuro/backprop.c これのvoid backward()のところの式あってる?
673 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 16:47:45 ] その位自分で分からないのなら手を出すなw せめて自分が正しいと思うコードを書くとかしないと
674 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 21:35:27 ] >>672 それないよ BPにすらなってないソース掲示されても困るよな
675 名前:デフォルトの名無しさん mailto:sage [2008/09/12(金) 10:38:22 ] マヌケな無能君が、途中結果もだせず、考えもまとまらず、誰にも評価され ない情況が続くので必死に2chで喘いでいます、オマエだ、オマエしかいない。 すくなくともオマエの意見に賛同するのはオマエだけ。 匿名で発言しても何も変わらんし、おまえのストレスが増えてゆくだけ。 ここで答えが求まるとか議論していると勘違いしている君には 治療薬すらない。
676 名前:デフォルトの名無しさん [2008/09/12(金) 12:06:15 ] BPになってないワロタ プログラミングしたことないのか
677 名前:デフォルトの名無しさん [2008/09/12(金) 19:09:51 ] >>672 8行目と9行目のsum+=のとこと delta1[j]=のとこが微妙だな
678 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 20:59:38 ] >>608 分かりやすい説明だな。
679 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 21:14:10 ] 「ロジスティック回帰モデルと単層パーセプトロンは等価である」 と言うのは本当でしょうか? またWikipediaの説明によれば単層パーセプトロンに隠れ層(連合層)が あるように書かれていますが、これはおかしいのでは無いでしょうか?
680 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 18:38:55 ] 頼むおしえてください! 誤差逆伝播法で忘却項を導入する方法があるけど いったいどんな利点があるんでしょうか?
681 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 19:03:32 ] >>679 単層というのは学習する層がひとつで中間層はあっていいよ
682 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:19 ] >隠れ層(連合層)が あるように 隠れ層と連合層は同じじゃない どちらも中間層のではあるが連合層を隠れ層とは呼ばない
683 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:47 ] 「の」が余分だった
684 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 08:51:49 ] > 野良犬(ポチ) 野良犬とポチは同じじゃない どちらも生物ではあるがポチを野良犬とは呼ばない みたいな?
685 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:17:41 ] ニューラルネットワークの「原理」は存在し検証できる。 しかし知的「仕組み」は先天的に作るものと後天的に生まれるものがあり 先天的なものが何かを特定できない時点で構築する以前の問題ではないか、 知的なものが後天的に全て学ぶものだと仮定すれば、すべて学習となり、 人が20年程度かけて修学するほどの手間がかかり、100%の全てが 大人になりえるわけでもない。 現状で原理の上に築く先天的な仕組みがどのような物かを微小なり概念なり 説明できるのならやってくれ、できないからこを糞スレに粘着しているんだろう。 それとは違う先天的な構築方法で行うメタ的な情報を築く手法の過程では ライブラリーのように地道に確実に積み上げしてゆくことが大事だと 何故気がつかないか? 自動で全てが成りえるという幻想でもいいが、自動ほど恐いものはない、 自動で成りえる情報の秩序を暴走させずに、奇形にならずにバランスを もった特定の形へなるなら人だってキチガイは生まれないだろう。 確率の問題なのか、それであれば永遠に近い時間で偶然を待つしかない。 人すら教育が困難なのに、人が生み出す人工知能の教育が簡単で一瞬で できあがると思うのか?
686 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:29:47 ] 面白くないコピペだな
687 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 08:13:20 ] > ニューラルネットワーク 原理 > > 後天的 > 何か 問題 > 知的 > 人 100% > > 原理の上に築く先天的な仕組み 概念 > 糞 粘着 > > > 自動 > 秩序 暴走 奇形 > キチガイ > > 教育 困難 人工知能 > できあがる 重要な単語のみ抽出した つまりニューラルネットワークは,人が何か後天的に知的な問題を, 原理的で先天的な仕組みの概念で糞が粘着し 自動的な秩序の暴走を促す(?)奇形(キチガイ)を教育する人工知能を作る物. という壮大な物語だったのさ
688 名前:デフォルトの名無しさん mailto:ww [2008/09/21(日) 10:32:18 ] と、自作自演な厨が荒らしております。
689 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 14:10:52 ] 一生懸命考えた結果がこれだよ!
690 名前:デフォルトの名無しさん [2008/09/22(月) 00:14:47 ] 糞スレに常駐するDQNは何もできないからこそ常駐して妬んでいるだけ。 まさに病気そのものwっうぇええうぇうぇっうぇ
691 名前:真スレッドストッパー mailto:sage [2008/09/25(木) 01:28:39 ] つか、本とかの解説どおり習得して終わり。 さあ満足したか?それでおわり、その先はない。 結局自分では真似だけして何もできないのが、その先があると勘違いして 騒ぐが結局は自分で生み出したものではないので何もできない。 つまんねーなw。すこしは自分で結果をだしてみろよ。 物事を生み出すことができないのは君が論理に支配されているからだ。 論理を超えてみろよ、嘆きの壁は越えられない。 そう定義されているから、だから諦めろw
692 名前:デフォルトの名無しさん [2008/09/25(木) 18:14:44 ] >>672 そのソースは修正のところで、教師信号がp個あったら 現状での、全てのパターンの信号の誤差を和算して一気に修正してるけど、 データ0で誤差を計算し修正。 データ1で修正後の荷重を用いて誤差を計算し修正 データ2、データ3で・・・・データpでってやるのが
693 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 07:39:30 ] >>692 日本語でおk
694 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:44:10 ] 逐次更新より一括のほうが正しい計算だろ
695 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:47:36 ] シミュレーション板へ帰れ! ここはプログラミング板だ
696 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:49:14 ] この板はプログラムを作る人のための板です。 あらゆる質問はまずすれ立てるまでもない質問はここでスレにしてください。 その他、お勉強ページへのリンクスレ、 推薦図書・必読書スレ もあります。 プログラム・ソフトの使い方は PC 初心者板やソフトウェア板へ。 ウイルス、ハッキング・クラッキングを求めるような発言は禁止です。 Javascript は Web 制作板、CGI は Web プログラミング板へ。 業界談義、愚痴はプログラマ板へどうぞ。 ゲーム関係の話題はゲーム製作板へどうぞ。 ネタ、板とは関係の無い話題はご遠慮ください。
697 名前:デフォルトの名無しさん [2008/10/01(水) 17:35:15 ] >>231 のソースコードが見れない見たい。
698 名前:デフォルトの名無しさん [2008/10/07(火) 17:33:51 ] >>227-228 のデータを3層ニューラルネットワーク、中間層の素子数10でやると 5秒くらいで学習が完了するんですけど、 素子数を100にすると学習がなかなか進みません。 100って多すぎるんですかね?
699 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 01:19:21 ] >>698 素子数の組み合わせの数がどれぐらいになるか計算もできないの? 単純なニューラルネットワークは大規模になるほど指数的に難しくなる。
700 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 09:48:51 ] >>698 中間層増やし過ぎるとカーブフィッティングしまくりで使いものにならないよ。
701 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 19:32:13 ] 問題ごとに中間層の素子数はどのくらいが適正なんて ノウハウは公開されたものはどこにも無いのな? みんな経験と勘で決めてるのだろうか?
702 名前:デフォルトの名無しさん mailto:sage [2008/10/27(月) 00:24:08 ] >>701 だいたいは経験と勘。 もし適切な数というものを半自動的に決めたいのなら、そこは 統計学の分野に一日の長がある。 具体的には多変量解析、重回帰分析、増減法とかでぐぐれ。 それすら単なるノウハウと言ってしまえばそれまでだがな。
703 名前:デフォルトの名無しさん mailto:sage [2008/10/28(火) 23:52:50 ] >702 サンクス。 何かものの本を見るとAIC(赤池情報量基準) とか言う決め方があるみたいだな。 勉強してみよう。
704 名前:デフォルトの名無しさん mailto:sage [2008/12/14(日) 18:58:12 ] わかる人いるか 自己組織化マップ(SOM)に興味もってる。 脳は自己組織化を実現してるのは間違いないと思うけど、 一方で自己組織化を実現する本質はSOMじゃねえと思ってる。 近傍学習・競合学習を、ニューロンが持つ単純な計算機能を SOMみたいな入力層・競合層みたいな構造ではない、ほかの構造で、 実現しているんだと思う。 でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 時間軸方向に、何か発火の時間的なタイミングとかパターンが 意味を持つような形で、構造化されてるんじゃないかと思う。 たとえば視覚情報は、シリアルな値として入力層に現れるんじゃないか、という話。 SOMの学習済み競合層は、よく2次元でマップされてるのが例として出てくるけど、 これは時間軸方向までを含めて、ある時間軸の窓の中での自己組織化を 切り出した形なんじゃねーのか、という話。 これ、形式化したいんだが、どうしよう。
705 名前:デフォルトの名無しさん mailto:sage [2008/12/19(金) 00:58:48 ] SOMから離れろ 海外の論文を漁れ
706 名前:デフォルトの名無しさん [2009/01/15(木) 19:28:54 ] >>704 日本語でおk?
707 名前:デフォルトの名無しさん [2009/01/25(日) 09:46:59 ] >>704 よくわからんが、時間変化というか時間軸方向でのパタンこそが、ってことかな。 俺もそれは思う。
708 名前:デフォルトの名無しさん mailto:sage [2009/03/14(土) 01:31:09 ] 文字認識や波形からのデータマイニングに使える気がするんだけど・・・・
709 名前:デフォルトの名無しさん mailto:sage [2009/03/19(木) 00:41:14 ] 教師有り学習と教師無し学習って手法毎に明確に分類できるわけじゃないよね?
710 名前:デフォルトの名無しさん mailto:sage [2009/03/21(土) 12:53:00 ] 人間が曖昧な記憶をするのは、 曖昧な認識をするためじゃないのかなー。 データを信号に変えて、曖昧な記憶をさせたらどうだろう。
711 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:11:26 ] ちょっと質問、遺伝的アルゴリズム(GA)とニューラルネットワークって違うんでしょうか? どっかで、GAのスレがあったら教えてください。
712 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:15:15 ] 違う science6.2ch.net/test/read.cgi/sim/1017102268/
713 名前:デフォルトの名無しさん [2009/04/17(金) 21:52:34 ] >>710 非論理を記憶させ、それを構築するには、それを与える人が非論理を理解 していなければ成り立たないだろ。 おまのは、そのようになったらいいな、とか、 やってみたらどうだろとか、誰でも始めに思いつくことを言っているに過ぎない。 曖昧な記憶だ?んなのは人工知能を始めて想像した数学者チューリングすら やっていた思考実験だ、バカス。
714 名前:デフォルトの名無しさん mailto:sage [2009/04/18(土) 09:13:03 ] むしろ曖昧な記憶って何? そういう研究領域ってあるの?
715 名前:デフォルトの名無しさん mailto:sage [2009/04/19(日) 08:33:32 ] >>712 ありがとう
716 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 03:28:18 ] >>714 心理学とか? 記憶がどう変容していくかとかの実験とかやってた 凶器注目効果とかも近いかも
717 名前:デフォルトの名無しさん mailto:sage [2009/05/24(日) 18:10:08 ] なぜ誤差逆伝搬学習法による中間層-中間層のシナプス結合荷重を変化させると非線形の出力に対しての領域わけができるのでしょうか?
718 名前:デフォルトの名無しさん [2009/06/08(月) 00:08:14 ] >>717 自然淘汰、ダメなものが消滅、良いものが生き残る。
719 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:22:42 ] >>714 無意識で記録される記憶、 意味にならない記憶、 無意味な記憶 無意味を情報処理する方法を脳が潜在意識として実現している。 ニューラルネットワークなどの仮想モデルの説明では、 自己組織化で自動構築されるので外部からそれを見ることも観測する こともできない、できても意味がない。 動的に構築されるというのはそういうタイプの情報処理である。 その辺で無意味を扱えるのは科学ではない、非科学の領域だよ。 だから考える必要すらない。研究したらトンデモ研究に認定される。
720 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:36:12 ] >717 それって、 「なぜパーセプトロンは線形分離可能なパターンしか分類できないのか?」 の裏命題だよね? ミンスキー&パパートの「パーセプトロン」を読め、じゃあ無くて 単純パーセプトロンは結局、入出力関係を線形一次結合にしかできない 中間層-中間層があれば非線形な関係を表現できるとしか 説明しようが無いんじゃあ? 逆誤差伝播法が発明されたのでそれを実際に学習させる事が可能になったと。
721 名前:デフォルトの名無しさん [2009/06/08(月) 00:49:41 ] 旨くいかないのは、ほとんどが学習で集束しないという話である。
722 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 15:51:19 ] >>721 見積もりができてないだけじゃん。 そもそも規則性が無いものは学習できない。 秩序がない抽象的なものを学習させるのは無理というもの。 それ以前に学習させたか怪しいな。多層構造になると学習させるのが 単純ではないぐらい理解してないとかw
723 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 22:14:04 ] 抽象的も何もデータになってる以上はできるだろ 使ったこと有って教えてる?
724 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 00:13:42 ] なにも分らない奴ほど短いレスをする法則
725 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 01:17:46 ] でも簡潔で全てを物語ってるな
726 名前:デフォルトの名無しさん [2009/06/09(火) 22:02:30 ] だんだん短く
727 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:28:24 ] なる
728 名前:デフォルトの名無しさん [2009/06/09(火) 23:43:21 ] よ
729 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:46:55 ]
730 名前:真スレッドストッパー mailto:sage [2009/06/10(水) 12:10:30 ] 512KBを超えました、新しいスレッドを作ってください。
731 名前:デフォルトの名無しさん mailto:sage [2009/06/10(水) 12:17:40 ] >でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 発火の失敗もある。つまり1と0だけではない。
732 名前:デフォルトの名無しさん mailto:sage [2009/06/26(金) 23:10:42 ] グーグルで 「階層型 ニューラルネットワーク java」で検索すると出てくる www.geocities.jp/retort_curry119/NN.htm からDLできるソースってちゃんとニューラルネットワークできますか?
733 名前:デフォルトの名無しさん [2009/07/12(日) 19:15:20 ] 今レポート書いてんだけど。 ニューラルネットワークって実際の脳の仕組みと同じなのかな? 詳しい人教えてほしいです
734 名前:デフォルトの名無しさん mailto:sage [2009/07/12(日) 19:35:33 ] 同じじゃない ニューロンとシナプスの構造を単純化したもの
735 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 09:00:05 ] >>733 根本原理は用語的には同じ。というよりニューロンのネットワークだから 直訳すれば神経網、脳が神経網とは違うのか?と聞いているのと同じ。 貴方が聞いているのはコンピュータモデルでの単純化したタイプだと 734が予想&補完した返事をしているだけ。 ニューラルネットワークは単純化した部分がもっとも重要であり 主幹として機能しているが実際の脳とは学習アルゴリズムは違う ので比較ができない。 >>732 階層じゃなくても貴方のいうニュールネットワークはできる。 しかしそれは生きた神経網を採取して部分的に成長さえて機能ができている かを確認しているのにすぎない。 貴方が背景で考えていると予測してその意味的な「できる?」という返事なら それはできない。理由として貴方にそれを扱うスキルがない。 貴方が思っている対象は多分、高等な情報処理であり、実験的なものではない 機能させる対象が単純モデルならNNを使う必要すらない。高等なら貴方に そのスキルがないってこと。貴方の学習でも階層を使う必要すらない。 コンピュータで比喩すれば、現在のWindowの大型アプリを使うのではなく 電子ブロックを抜き差ししている状況だと悟ろう。
736 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 10:32:44 ] 入出力連続値、閾値なしのBP対応3層NNを作りましたが、 3層から多層に変えると、記憶できるパターン数は増やせますか? 3層の中間層を増やすことと同じであまり期待できないのでしょうか?
737 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:29:37 ] >>736 既に作ったなら多層にするのは大変なことじゃないだろ? なぜ自分で試してみない?
738 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:51:20 ] 中間層を増やすとか言う曖昧な表現してるから理解できてないんだろう
739 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 16:47:05 ] いや返事もないので、すでに多層化した。
740 名前:デフォルトの名無しさん mailto:sage [2009/07/21(火) 22:26:58 ] それどこが難しいんだ 小学生でもできるレベルの改良だろ
741 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 07:51:00 ] アソシアトロンってどうでしょう
742 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 09:04:22 ] >>740 難しい?。簡単だよ。だけどその後の検証が面倒なんだ。 既にわかってることに時間かけても仕方ないからね。
743 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 18:50:18 ] では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ プライドのためだけに>>739 の様なレスを書く時間をかけたのは無駄ではないのか
744 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:04:28 ] もしかして、「3層の中間層をふやす」って文章のこと? 文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。 3層の中間層のノードを増やすが正解。
745 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:32:48 ] 表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない おめーら雑談たのしいの?
746 名前:デフォルトの名無しさん mailto:sage [2009/07/24(金) 23:04:58 ] 本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ
747 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 01:21:50 ] 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
748 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 06:37:25 ] >>741 ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。 記憶に興味がもてたらもう一回調べてみよう。 今朝思いついたけど、夢を見たことを忘れるのは、 寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。
749 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 07:10:15 ] たった一行のレスに時間をかけたといったり、 一言コメントしてからおめーらといったり。 論理が破綻してるひと多すぎ。
750 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 12:52:19 ] まだまだ燃料としては弱い 夏で外が暑いからといって燃料投下を止めていいと思うなよ
751 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 19:21:36 ] 学問でやりたいなら数学の板が適してるんだろうけど 数学理解する力がないんだろ
752 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:00:56 ] 英語と数学は壁だね。何やるにしても。
753 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:14:50 ] ムキムキしながらって表現になんか笑ったw なんだそれw
754 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:49:35 ] さぁレスするぞーー!! _ / jjjj _ / タ {!!! _ ヽ、 オーー!! ,/ ノ ~ `、 \ _ `、 `ヽ. ∧_∧ , ‐'` ノ / `j ∧_∧_ \ `ヽ( ´∀` )" .ノ/ / /`ー' オーー!! ( ´∀`)  ̄"⌒ヽ `、ヽ. ``Y" r ' 〈 `ヽ / ) ヽ' / 、 `、 i. 、 ¥ ノ `、 ヽ∧_∧ γ --‐ ' λ. ; `、.` -‐´;`ー イ 〉 ´∀) ,-、、 f 、 ヾ / ) i 彡 i ミ/ / ノ  ̄⌒ヽ 「 〉 ! ノヽ、._, '`"/ _,. '" } { ノ ' L `ヽ./ / |  ̄`ー-`ヽ 〈 < _ ヽ. / `\ / , ' ノ\ ´ / !、__,,, l ,\_,ソ ノ / /ヽ、 ヽ. ( ∠_ ヽ、_, ' 〈'_,/ / / / ノ ヽ. ) i 、 ヽ | | イ-、__ \ `ヽ { f _,, ┘ 「`ー-ァ j l.__| }_ l \ \ | i f" ノ { / _.| .〔 l l ノ _> j キ | i⌒" ̄ / /_ 〔___! '--' <.,,_/~ 〈 `、ヾ,,_」 i___,,」 `ー-‐'
755 名前:デフォルトの名無しさん mailto:sage [2009/07/26(日) 14:46:56 ] 階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は シグモイド関数のα(ゲイン)の値を小さくして、 (X−Xmin)/(Xmax−Xmin)と基準化させて出力。 出力結果を質的データとして出したい時は αの値を大きくして(ほぼ?)0,1の出力をする。 という理解で大丈夫ですか?
756 名前:デフォルトの名無しさん mailto:sage [2009/07/27(月) 06:21:43 ] 返事もないので、すでに自己解決した。
757 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 03:41:16 ] >>755 やってみてから考えろ。
758 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 07:39:54 ] SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?
759 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 15:25:50 ] >>758 やたら挑戦的なweb記事が見つかった www.mindware-jp.com/basic/faq2.html
760 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 08:41:25 ] >>759 どうもです。 長らく悪菌でした・・・ 面白いですねw もっともだと思うこともあれば根拠なき断定ではというのもありますね。 ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、 アカデミアではどう受け止められているんでしょうか?
761 名前:デフォルトの名無しさん [2010/01/16(土) 03:17:11 ] くだらんおべんちゃらはよせ
762 名前:デフォルトの名無しさん mailto:sage [2010/01/19(火) 19:14:55 ] www.natureasia.com/japan/highlights/details.php?id=570
763 名前:デフォルトの名無しさん mailto:sage [2010/01/21(木) 21:10:58 ] 話題がねーなー
764 名前:デフォルトの名無しさん [2010/02/01(月) 04:53:50 ] 多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が 必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、 前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか? 関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。
765 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 20:00:53 ] 肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし
766 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 22:43:37 ] 私自身、はじめは目視でやっていたのですが、 目視ではなく、プログラム側で自動で判別できるような条件 等があれば良いかなと思うんですがどうですか? 初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する 方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある 関数で、谷間の間の部分の教師データが採用されない等の問題がありました。 そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で 制御できないかなと思い質問しました。どうでしょうか・・・?
767 名前:デフォルトの名無しさん mailto:sage [2010/02/02(火) 21:57:28 ] 特徴量がうまくとらえられていないデータは似たような位置が似たような値をとっているはず 多すぎるデータを間引くのならそういう場所は削って良いね 同じ位置の値が似てるかどうかはエントロピーでも見れば判るかな
768 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:11:27 ] とりあえず、すべてのデータに大して隣り合う点との距離について計算して その距離があるしきい値以上ならば学習データとして採用することにしました。 これで平坦な部分(関数全体からみて)についてはデータを少なくとることができたのかな? 変化の激しい部分はデータを多くとれるはず。 (データをある程度しぼって学習して、学習が進んでからデータを追加する仕様で プログラムを作成しています) >>767 近い位置のエントロピーを見てみるということですか。 うーんと・・・エントロピーってなんでしたっけ?平均情報量? 大学でやったような気がしますが教科書あげちゃったな… この場合、具体的に何を計算すればいいのかな。
769 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:15:39 ] ああ、表現が不味いかも上の"距離"というのは入力がx、出力がf(x)のときのf(x)のことです。 作成したプログラムは3次元の関数近似が目的なのでx,yの入力に対してのf(x,y)の値を 参考にしていますが… f(x,y)の値が隣のデータと離れていればいるほど、付近では関数の値が急に変化していると考えられるので 先に学習することでのちの学習がスムーズに行くのでは?と考えたためです。
770 名前:デフォルトの名無しさん mailto:sage [2010/02/06(土) 23:15:03 ] 手書き文字のサンプルを集めたいんでけど どうすればいいかな? HTMLで作るとか?
771 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 01:10:28 ] >770 昔自分で用意したときはペイントで描いてから拡大表示してデータを作った。 5人ぐらいでやればみんなが違うパターンのを得られて楽でした。 そんなに精度要らないなら自分で作ったほうがはやいかも。
772 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 18:22:43 ] 卒論NNやれって言われちゃったよ・・・ なにやればいいんだ?
773 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 22:31:07 ] >772 時間がかなりかかるから今からじゃあ無理だと思うけど。 ああ、来年発表ですか?それなら NNっても卒論にするならいろいろあるからテーマが決まってないなら いくつか論文読んでからまたどうぞ。
774 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 19:59:05 ] ニューラルの論文集みたいなの無い?
775 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:33:42 ] うーん…多分NNやれって言われたならそれなりに準備してくれると思いますが、 先生に論文どれを読んだらいいか聞いてみたほうがよいかもしれません。 論文集をまとめてあるサイトは知りませんが検索したらいくらでもでてくると 思いますよ。
776 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:38:31 ] googleにgoogle scholarっていう学術論文検索できるやつがあるのでここから scholar.google.co.jp/schhp?hl=ja 探せばいいかな。 でも、ニューラルネットワークで検索しても多すぎるし古いので、 例えばパターン認識とかリカレントニューラルネットワークとか誤差逆伝播法とか そのへんも検索に入れるといいかもしれませんね。 あなたのところの卒論のレベルは知りませんが、学部生ならこのへんの論文を参考に書けば十分だと思いますが。
777 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 01:56:21 ] 混合ガウス分布ってもう実用に使えるの? 共分散の自動調節が変だった記憶あるんだけど
778 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 14:23:18 ] 文字認識の精度が上がらないよー
779 名前:778 mailto:sage [2010/02/11(木) 15:12:01 ] ただ、手書きの文字を入力にしてるからかな? 手書き文字からパターンを抽出したいんだけど、どうやればいいかさっぱり分からん・・・
780 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 19:46:36 ] >778 プログラムあってるのか? あと、文字数を減らせばいいんじゃないか? とりあえずAとBとCの3つぐらいからやれば… 入力するパターンもAが5つ、Bが5つ、Cが5つとかにするんだぞ それぞれのパターンで書き方を少し変えればいい。 あともう少し実験の条件を晒してくれ… 入力してる文字とか…
781 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 20:43:38 ] 特徴量のとり方はどうやってる?
782 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 01:21:30 ] >>780 ありがとう、認識文字は0〜9で、 0〜9の入力に対してそれぞれ200回更新して、それを200回ループ回してるんだけど、 3と8と2がうまく学習できない。 てか、最後に学習した8になっちゃう感じ プログラムは↓ for(i=1 ; i<200 ;i++) { for(patarn=0 ; patarn<10 ; patarn++)//パターンをそれぞれ一つずつ学習 //教師信号割り当て //入力割り当て for(j=1 ; j<200 ;j++) { //入力誤差、出力計算 } } } こんな感じ、
783 名前:デフォルトの名無しさん mailto:sage [2010/02/16(火) 17:38:16 ] >782 見た感じ間違ってない気がするな。 数字の認識は3,8,2が上手く学習できてないのはなんだろうな 中間層の素子の数が足りないのかな。 もしくはこのプログラムは何回かやってみた?更新回数を増やすとか、学習係数の値の変更とか。 たしか、自分がやったときは文字の線が細いところを太く書いたら上手く分離できるようになったと思う。 とくに数字なら斜めの部分を太めにやってくれれば違うかもしれない。 あんまり似てると上手く分けられないからあえて違うように文字を書くのも最初のうちはありかも あと、0〜9を0から順番に学習しているから8が最後になっているみたいだが、これに関して 順番を変えることで結果はどうなるのか試してみたらどうかな。 (9から1に学習したら2になるかどうか?)
784 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 23:35:08 ] たまにはレスするか・・・ ニューラルで指紋認証やりたいんだけど 指紋そのまま抽出するより、特徴を抽出したほうが良いよね? 指紋の特徴って何がある?
785 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 07:00:32 ] 特徴点
786 名前:デフォルトの名無しさん mailto:sage [2010/04/02(金) 09:58:40 ] パーセプトロンで作ってみました www4.cncm.ne.jp/~tsuri/per/aaa.wmv
787 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 15:46:09 ] hebb学習ってバックプロバみたいな正解と出力の関連付けが出来ないけど 出来るようにする方法を思いついた ちょっと実験してみよう >>784 特徴っていってもいろいろあるからな 角を検出したり直線を検出したり曲線を検出したり 画像処理スレの方が詳しい人が居るだろう
788 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 18:42:38 ] 自分が使う不出来な構造のNNの為に特徴抽出の お膳立てしてあげようとしたら その前処理段階で判別に十分な特徴出ちゃったりなんて話も
789 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:15:57 ] 音声を入れたら文字が出力されて 文字を入れたら音声が出力されるNNを作ろうと思うんだけど これって研究対処になる?
790 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:30:42 ] >>789 そりゃなるでしょう。 特に英語なら綴りと発音の関係がややこしいし。 音声認識は昔からNNの研究対象分野だし。 ただ、DecTalkとか言う先行研究がすでに有ったような。
791 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:00:00 ] 卒論のテーマ考えてるんだけど 何やればいいかわからん 誰か助けて
792 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:29:43 ] 興味があること
793 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 03:37:31 ] NNって別にすごいことしてないしな 何をやってるのか解析しようと思えば出来るだろう いや実際数式化しようと思えば出来ると思うがな 特にバックプロバケーションタイプなんて もろ教師信号からパラメータの中央値を糞無駄な計算を繰り返して 導き出して、しまいにはそのパラメーターを使いまわし しかも使う人間も馬鹿だから全部のパラメータが重要だと思って 無駄計算を繰り返してるだろ
794 名前:デフォルトの名無しさん mailto:sage [2010/04/18(日) 21:12:18 ] 連想記憶モデルって何の役に立つんだ?
795 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 16:59:00 ] SVMは単に2値に分離するだけだけど NNは無限個に分離できる可能性がある 可能性があるというのは構造や規模次第って意味で ただいろいろ不利な点がある 追加学習が出来ない 適切な構造が分からない 計算に時間が掛かる いろいろ解決法は考案されてるものの誰もそのアイデアを公表しない そして秘密にして利益を守ろうとする割にはアイデアがしょぼいw だから発展しないし利用出来るだけの材料がまったく揃ってない
796 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 17:16:59 ] 例えば XOR問題を空間であらわすと SVMは ○| ----- |○ NNは □| ----- |□ みたいな感じだな SVMは角が無いんだよ
797 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 00:03:08 ] ニューラルネットで実用的なモデルって何? 何に需要あるの?これたちの悪い罰ゲームなの?
798 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 01:44:12 ] 構造をいちいち検証せずとも自動的に決定してくれて 学習に何週間も時間を費やさずともよくて フリーのライブラリが各言語に標準に近い状態で実装されてれば かなり需要があると思うが 現状ではNNを利用するには目的にあったNNを発明する所から始めないといけないという だから作ったものは自分にしか需要がない
799 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 23:26:35 ] 多層のフィードフォーワードとリカレントの特徴の違いを教えてください
800 名前:デフォルトの名無しさん mailto:sage [2010/04/22(木) 07:53:31 ] フォーワードは BPのように入力から出力の一方向接続があって 教師信号で逆方向の重みを計算する この時に出力の計算式と修正の計算式が違う それを統合してしまおうというんおがリカレント 出力層と中間層は入力層に接続されていて それぞれの出力計算と重み修正の計算式は常に同じ しかも線形だから実に簡略化されたもの でFA?
801 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 00:01:01 ] www1.axfc.net/uploader/Sc/so/106271.zip ダウンロードパス: im NNの概念とか無視してプログラム的に結局こういうことをやってんでしょってのを考えてみた 連想記憶用メモリみたいなもんです 特徴としては 追加学習が出来るのと強化学習が出来る 強化学習はまだ実装してない 結果を取り出すのは入力桁数ステップでいいからかなり高速 そしてアルゴリズムは教えないw
802 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 04:49:56 ] windowsを消し去って初めて後悔した
803 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 06:41:49 ] ニューラルで何か新しいことを研究にしたんだけど 何も思いつかんわ 誰か知恵を貸して
804 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 07:47:15 ] 株価予測、文字識別、ニューロ制御、TSP、 グリッドコンピューティング、803より賢い無脳 は、何も見てないけど、既にたくさん研究されているだろう
805 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:35:21 ] fx.104ban.com/up/src/up16120.png XOR問題を解いてみた
806 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:36:37 ] >>801 のやつね
807 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 17:17:21 ] 誰か文字認識のプログラムちょうだい!
808 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 19:13:27 ] >>801 ので強化学習が出来るってのを実験したいんだけど どういうアプリ作ったら分かりやすいかね? テスト用なんであんまり大規模なのは勘弁
809 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 19:58:04 ] ちなみに>>801 の何が普通のNNと違うか見てもらえばわかるけど 赤が1.0青が0.0を学習させてるんだけど しばらくあるポイントの情報を学習させた後にポイントを生成しなおして切り替えても しばらくはもともと学習してたポイントの記憶を保持してる だから追加的に学習していっても古い記憶を保持したまま新たな記憶を覚えていく 時間がたつと古い記憶は薄れていって同じ学習入力が無いと消える この時間は調整可能 だからノイズの学習が行われても簡単には過去の記憶は消えない
810 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:28:35 ] 連想記憶は自己相関での結合行列に重みを付けしての誤り訂正とか、 相互相関で記憶したパターンを順番に生成するぐらいしかないんだと思っていた この分野でテンプレに出てきそうな書籍ってないの?
811 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:29:17 ] アルゴリズム教えて!
812 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:35:39 ] この分野で卒研着手するとなると、使用する言語って何がいいんだ matlabとかR?Java,c++? boostとgslかじって、c++が幸せそうな気がしているけれども
813 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 23:00:20 ] 俺はC++ 行列使うならmatlabじゃん?
814 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 03:05:28 ] >しばらくはもともと学習してたポイントの記憶を保持してる どうやってるの?
815 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:10:39 ] >>814 予備知識もなにもなかったんだが SOMってのがかなり近いみたいだ 根本的にアルゴリズムは別物だけど 発想が似てる
816 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:20:14 ] 入力を次元で考えたのがまったくSOMと同じだった 中身はかなり違うけど SOMは分類するだけだけどこれは学習するからね むしろ逆に分割するとも言える
817 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 22:17:30 ] 入力が次元なだけに増えると指数関数的に処理速度が低下するのが欠点で 今それで悩んでたんだけど こいつの記憶保持のメカニズムがBPに応用出来そうな気がするんだよな
818 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 00:26:57 ] SOMのユークリッド距離を使うアイデアはなかなかいいですね 計算を単純化出来る その方法で重み修正をやるようにしてみたけどうまくいった 記憶保持機能もそのまま SOMとは計算式がぜんぜん違うけども
819 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 12:49:15 ] www1.axfc.net/uploader/Sc/so/107963.zip パス im とりあえず最新版 学習方法をランダムポイントにしたので遅いけど変化が分かりやすい 一旦XORを学習させてランダムで上書きしようとしたらかなり抵抗するのが分かる
820 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 23:42:52 ] こんな場所で実行ファイルだけアーカイブしても誰も実行してくれないんじゃ…
821 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:10:54 ] ソースは公開しないけど まだバグとか改良の余地があるから 設定出来るパラメータも単純化したいし そのうち組み込みで使えるようにライブラリはアップするかも
822 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:15:20 ] 専門家でもないし学生でもないし たまだまNNに興味があったプログラム好きのど素人だから 公開したらアイデアぱくられて終わりとか悲しすぎるしw
823 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:54:26 ] たいしたアイディアでも無いくせにな
824 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 04:15:11 ] まあ、過疎ってるよりはいいかな
825 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:47:48 ] 今年4年の学部生です ニューラルネットワークでルービックキューブの解法を探す研究をしようと思うのですが 実現可能でしょうか?出来そうかだけ教えてください
826 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:51:41 ] うん
827 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:53:41 ] Yes.
828 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 22:41:04 ] >>826-827 単にNNでできるかできないかで言えばそうだろうけど、研究可能ですかって意味では車輪の再発明じゃね? 既知を研究するもまた研究という人もいるだろうけどさ。。。
829 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 23:31:32 ] でも、難しいと思うよ
830 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 00:58:43 ] wrongway.org/cube/solve.html
831 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 01:09:02 ] ニューラルでやってんの?それ
832 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 02:36:02 ] ニューラルでやったらそこそこの研究になるんじゃない?
833 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 03:12:30 ] >>830 のソース読んでNN使えば(多分)改善する箇所思いついた やってみよっと
834 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 08:21:13 ] 解法って最短解法って意味ならNNじゃ無理だよ 時間はともかく必ずいつかは解ける方法を学ばせるのは可能だけど
835 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:12:01 ] なんで最短は無理なん?
836 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:29:32 ] ってかNNでできるのか? 構造とかどうすればいいんだ? 俺には全然わからん
837 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 03:26:20 ] ルービックキューブのルール通りに動くようにNNを構築するのは難しくね? ばらばらの色の配置→6面完成だけならできると思うけど
838 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 09:13:29 ] NNを神格化してるのか知らないが ただの連想記憶装置だから 0.0〜1.0のアナログデータを保存するだけだから 0.1区切りなのか0.01区切りなのかはNNの規模で決まるだけで 実際に表現出来る範囲には制限がある ルービックキューブには何億通りのパターンがあって それを全部記憶するのは無理だから無理 どんな並びだろうと一定の法則があって 簡単に算出出来る規則性があるなら可能だけど
839 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 13:24:15 ] 表面的に知ってるだけだから 使い方・使い所がわかってないんだなぁ
840 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:24:31 ] NNは脳の構造を真似して作ったものだけど 研究していくうちに実は数学的にクラスタリングする機能しかないことが分かって だったら無駄な計算なんかしないで直接的に数学問題を解けばいいじゃない ってんで生まれたのがSVMとかで 最初は主に顔画像を検出したりする画像処理に利用しようとしてたけどうまくいかない なぜなら数学的に問題を解いてもなおプログラム的には速度が遅いし 適切な記憶容量が計算出来ないからだけど それで画像処理分野ではSVMなんかで統計を取る前処理として データ構造を統計上問題の無い方法で単純化しようという研究が行われて 光源によって色が変わるから色は無視しようとか、角度によって分布が変わるから 方向は無視しようってな具合でどんどん条件を絞り込んでいったら 結局数学的にクラスタリングする機能を1つづつ専門分野に適用していってるだけだったというオチ 万能なNNを作ろうとすれば結局は数億規模のデータを処理出来るコンピュータが必要だという 結論に至っただけですよ
841 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:29:31 ] そして顔画像検出の有効な利用法を発明したんだけど 誰か研究してみたら? 心霊写真を見つけられるw
842 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 20:34:35 ] ニューラルネットってなんなの? SOMもリカレントもボルツマン機械もぜんぶNN? それとも、多段のフィードフォーワードのみのこと?
843 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 20:44:19 ] >>838 マッカロックピッツがどーこーの、1,-1をつかうモデルは何なんだ
844 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 22:00:40 ] >>842 定義としたらNNの仲間なんじゃないの? 一応ニューロンという概念と抑制性を利用してるわけだから ただ発明した人はもう数学的に問題を解いただけだから 個人的にはニューロンとかいう言葉を使うのもどうかと思うけど SOMは次元データを2次元に置換する公式を解くだけのものだし リカレントはBPに時間遅延の概念を入れただけ 本来のニューロンのネットワークという意味でのNNとはどんどん離れていってるw
845 名前:デフォルトの名無しさん mailto:sage [2010/05/03(月) 02:58:10 ] 刻々と変化するネットワークをエネルギー関数を用いて最適化するのもNNって言うの?
846 名前:デフォルトの名無しさん mailto:sage [2010/05/07(金) 23:15:02 ] どうやってルービックの解法をNN探すの? 最適化だからホップフィールドでやんの?
847 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 01:53:47 ] 俺も教えて欲しい
848 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 11:15:00 ] それが分かった時点で研究が完了する
849 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 16:54:15 ] 俺の出した結論は無理
850 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 19:32:49 ] 浅いねぇ
851 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 20:50:25 ] 無理なんて言葉は使わず非常に困難とかにしとけ
852 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 06:05:30 ] で、このスレにできそうなやついんの?
853 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:23:15 ] 俺の考えが浅いのかお前らがNN理解してないのか…… 〜INPUT〜 キューブは6面、1面には9パネル 操作はまわすことにより9パネルのうち3パネルが4面に関して入れ替わる 〜探索終了条件〜 6面の9パネルがおのおの同じ色になること 初期状態は探索終了状態のn手手前の状態 INPUTの操作を逐次記録する 典型的な探索問題だろ? むしろこれができなかったらNNなんて何ができるんだよ。
854 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:30:38 ] どうやって探索するの?
855 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:32:48 ] どうやって状態が遷移するのかが思いつかない
856 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 17:24:27 ] >>853 それでできるかもしれないけど記憶量が多すぎる TSPみたいにエネルギー関数を使って勝手に最適化する方法は無いかな?
857 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 18:30:57 ] っ【連想記憶】 本なんかによっては別称かもしれん
858 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 14:29:15 ] ルービックキューブをNNでやるってのは ルービックキューブに一定の解法の公式が存在することを証明する行為と同義でしょ NNは関数近似なんだから わざわざNNでやってみて試すことじゃないと思うけど 無理だけど、どうしてもやってみたいというのなら まずは何億通りのパターンを一括で学習させるのは不可能だから 追加的に学習させるNNを作るのが先になるだろう その時点でもう研究課題として成立しそうだけどw
859 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 14:54:34 ] ずっと俺のターン!なオセロやチェスと考えるんだ。 チェスなら参考論文とかでてくるだろ。
860 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 15:49:42 ] >>858 ハズレ >>859 正解
861 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 16:17:18 ] >>859 オセロやチェスは置くところ間違えてもゲーム終了するけど ルービックキューブは終了しないから無理
862 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 20:00:16 ] じゃあ連想記憶じゃできないの?
863 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 22:58:18 ] >>862 どんな風に解くんだ? 初期配置のパターンを結合行列にでも記憶させて、極小値でも探すのか? キューブはどうやって回すんだ
864 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 01:09:05 ] 俺が考えたのは、まずエネルギー関数を作って 初期配置から、次の状態になりえる状態を列挙し、 列挙した中で、エネルギー関数が一番小さい状態に一つ決めて、 それを繰り返す方法じゃ無理かな? これだとエネルギー関数しか使わなくて、閾値も結合荷重もシグモイドも使わないからNNといえるか わからんけど
865 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:03:33 ] >>864 正解
866 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:06:39 ] NNでできそうだけどな どうすればいいか分からんけど
867 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:22:16 ] >>864 NN使ってもできるんだけどね 使うメリットとデメリットどっちが大きいかは知らないけど
868 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:27:45 ] >>867 概要だけでも教えてくれ なんかやってみたくなくなった
869 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:29:50 ] 連想記憶ですべてのパターンを記憶する以外にNNで実装する方法は?
870 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:51:07 ] >>864 NNじゃないね それじゃただ統計取ってるだけだw
871 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:55:16 ] 閾値と重みを使って、ルービックキューブのルールどおりに状態遷移しないと駄目・・・ うーん難しい これは立派な研究になるんじゃない?
872 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:00:31 ] そうか・・・無いなら作ればいいんだ・・・ルービックキューブのルールどおりに振舞うNNを・・・
873 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:33:26 ] >閾値と重みを使って、ルービックキューブのルールどおりに状態遷移 こんなのにNN使わん
874 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:37:04 ] NNでできないってこと?
875 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:45:36 ] 何が?
876 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:48:40 ] >>875 NNでルービックキューブの解法を見つけること
877 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 06:16:51 ] >>861 オセロは何をしても基本60手以内で終わるけど、チェスは相手次第だよ。 一部の人は何かムダに難しく考えてないか? 主な条件は>>853 で書いた。 終了状態をf(n)とするなら開始状態はf(0)で、解くまでにn手掛かる。 NNで行うのはf(N-1)からf(N)を導くこと。 学習としては ・ある地点では不可能な操作を導いた場合は重みを変更する ・ある地点の値aがそれ以前の値Aと一致した場合、それは前に進んでない操作なのでAからaまでの操作の各々に対して重みを変更する ・f(0)に到達した場合はそれに至った操作の各々に対して重みを変更する 辺りで。普通にBPでいいんじゃね? 強化学習辺りを調べるといいかも。 NNに関する研究って意味では車輪の再発明以上のものにはならないはずだけど、研究したいなら俺には止める権利も義務もない。まぁがんばれ。 っていうかこれどこかの研究室の学生の春休みの宿題なんてオチはないよな?
878 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 06:46:15 ] >>877 躓いているのはそういうレベルの話じゃないと思うよ。 単純に何を入力したらいいのかわからないとか、教師信号をどうやって 取得したらいいのかわからないとか、そもそもNNがなにか分からないとかw そんな気がする。
879 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:09:06 ] >>853 まわすと4面の12パネルに加えて、 回したパネル行(列)の側面も90°回すと思ったんだけどあってる? 回転させて意味あるパターンは4通りだっけ
880 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:16:13 ] >>877 それはルービックキューブの解法が分かってる時、次にどうすればいいかNNで学習させてるだけで やりたいのは、初期配置を入力したら完成までの手順を見つける一連の操作をNNで実装したいんじゃないの? NNで扱えるかは別として
881 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:20:59 ] ちなみに「ルービックキューブ AI 解く」でぐぐった結果、20手あれば解けることが証明されてるそうなので20手以上掛かる操作はアウトと教えてもいいだろうね。 読み込んでないからAIが具体的に何を使ったかまではわからん。論文検索できる人は論文を当たればでるんじゃないかな?
882 名前:デフォルトの名無しさん mailto:sage 馬鹿な質問する前にググれ [2010/05/11(火) 07:26:23 ] 3x3の学習パターンから、NxN面を解くとかダメポ?
883 名前:880 mailto:sage [2010/05/11(火) 07:29:47 ] 説明が分かりにくかったかもしれない >>877 のように説明すると f(0)は初期状態 f(N)は終了状態(6面完成) まずf(0)を入力する、すると f(0)→f(1)→f(2)→・・・f(N) のうように完成までの手順が見つかる これをNNで作るってこと
884 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 08:02:27 ] >>883 強化学習とか連想記憶とかキーワードあげたろ? 作ればいいじゃん。 ちなみに「ルービックキューブ AI 解く」でぐぐった結果、 AIとは無関係にルービックキューブの最速解じゃないけど解法自体はでてきた。
885 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 12:11:52 ] >>877 だから f(N-1)からf(N)を求めることがすべてNNに向いてるわけじゃないんだって 全パターンと次の手を完全に記憶するんだったらただの統計データベースなの リュービックキューブのパターンを全部NNに入れ込もうとしたら物理的に 完全なデーターベースを作るのと同じ容量が必要になるの NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの そうするとほとんどのパターンは正確に記憶できないの だから無理
886 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 12:22:22 ] >NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの ここダウト。それは>>885 が勝手にNNはそういうものにしなくてはいけないって思い込んでるだけ。 今回の話はあくまでルービックキューブをNNで解くって話でしかない。話そらすな。 はっきり言ってNNを利用する必然は無いし、 NNがこの問題を解くのに最適だなんてことはこのスレの人間は誰も思っちゃいないわけよ。 いわば練習問題。
887 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 15:49:14 ] >>886 全部記録したらただの統計データベースだって 「連想」記憶じゃなくなるwだからNNではないw
888 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 15:55:23 ] 連想じゃなきゃNNじゃないっておめーXOR解かせた事ないのか
889 名前:デフォルトの名無しさん [2010/05/11(火) 15:58:39 ] 俺が思うに連想記憶じゃアルゴリズムで解かせてるのと同じになる ホップフィールドネットワークでルービックキューブ解けないかな?
890 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 19:32:58 ] NN (正確には ANN) の問題意識は,単に NN で何ができるかだけではなく, NN の研究を通じて人間の(生体の)NN がどういうメカニズムで動いて いるかを解明することにある これを忘れてはイカン
891 名前:デフォルトの名無しさん [2010/05/11(火) 19:50:18 ] 巡回セールスマン問題が解けてルービックキューブが解け無いなんてことないでしょ どうするかは知らんけど
892 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 21:31:01 ] >>888 XORが連想に見えないお前があほなんだ 11=0なのは例えでよく使われるだけで 実際には0.9 0.9 = 0.1 みたいなものも包括してるんだ
893 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:11:38 ] NNの分離能力が0.9 0.9 = 0.1 みたいなものも包括してる事と XORが連想でないこととは関連性が無い
894 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:25:12 ] >>893 XORが連想じゃないって言ってるのは888だろw なんで連想記憶問題によくXORが例示されるのか分かってないのかなw 一定のパターンを記憶出来ることを証明するためじゃないぞw
895 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:37:03 ] 連想記憶ってのはようは 例えば整数値1....10000なんてのがあったらこれを00〜0.1に置き換える問題で ただし尺度は可変だからn/10000なんて単純な式じゃない 例えば0.3〜0.4は200〜1000だけど0.4〜0.5は1000〜1010なんてことが起こせる関数の総称だよ XOR問題は特殊でこれにさらに前後入れ替え作用まで引き起こせる関数の実証に使われる ただのデータベースはn/10000だからNNじゃない
896 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:50:07 ] >>891 そりゃ解いたのが誰だかしらないが解いた気になってるとしたら相当あほなんだろ 気づかずにただ道順の総パターンの記憶装置を作っただけだと思うがね
897 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 00:18:18 ] >>896 いやおまえが馬鹿だ 解法あるのにさ
898 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:43:10 ] >>897 総当たり以外に解法があるのか?まじで?教えてw
899 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:47:09 ] >>897 もしそれが本当なら最短経路探索にも解法が存在することになって これはかなり実用的なものだぞ
900 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:55:17 ] 「解法」って何の事なんだろうね
901 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:58:12 ] >>900 知らないが、総当りで得ものはNNではないといい続けてるから >>897 の言う解法はそういう意味ではなく、純粋に多項式で解く方法を意味して言ってるんだろ思ったんだが アルゴリズムを高速化しただけの近似解法はただの総当たりなんでこれも違うだろうし
902 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:59:08 ] 総当りでやるものは
903 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 02:40:49 ] ホップフィールドで、巡回セールスマン問題は解ける(もちろん、決定的な解じゃなく、総当たりで) ルービックキューブはNN使って総当たりで解け無いの?
904 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 02:53:22 ] キューブの解法 っwww.google.co.jp/hws/search?hl=ja&q=%E3%83%AB%E3%83%BC%E3%83%93%E3%83%83%E3%82%AF%E3%82%AD%E3%83%A5%E3%83%BC%E3%83%96+%E8%A7%A3%E6%B3%95&client=fenrir&adsafe=off&safe=off&lr=lang_ja NNとは本来多項式等でもしかしたら解けるかもしれないものの、どんな多項式で解けばいいのか分かっていない対象をNNによってブラックボックス化することで多項式の代わりとするもの。 それ以上のことをNNに求めてる人は夢見がちなのかただの無知なのかどっちよ? 極端な話、一部の人が言ってる「ただのデータベース」です。 NNスレでNNの定義から始めないと各々の認識が違いすぎるっぽいな…… >>890 出てる学部が違うのかな、NNの成り立ちと混ざってるのかな、どっちか分からないけどダウト。 >>896 ググッた記事読んだ感じだと、そのただのあほのようだぞ? AIと名乗っているのはルールベースっぽい。それ以上はわからんかった。 >>899 NNが解法です(キリッってことか?
905 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 04:49:40 ] もうだれかやってみろよ
906 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 04:59:23 ] >>984 >>NNによってブラックボックス化することで多項式の代わりとするもの。 ずっとそう言ってんだけど だから多項式解法が存在しないものにNNを使う意味がないと 仮に使ってもそれはNNの本来の使われ方じゃないからNNじゃなくなると 正確にはただのデータベースとしても使える 多項式を記憶出来るから当然線形問題も記憶出来る だけどそれはわざわざNNでやる話ではないというだけのこと
907 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 05:17:46 ] なんかよく分からなくなってきた ホップフィールドネットワークで解く巡回セールスマン問題は多項式解法なの?
908 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 05:27:17 ] なんかルービックキューブの解法の場合は、プログラムする側が「次の手順が分かっていなければ」次の状態を記憶することができないみたいだね 人間がこれだ!という手順を知らなくても発見的に次の手順を見つけるNNは構成できないわけだ
909 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:09:39 ] 俺も>>908 みたいな話だと思っていた TSP(巡回セールスマン問題)で例えると、最短の経路を求めるために相互結合NNを使って、最短の経路を求める(近似解ではあるが) ルービックキューブも同じように、解法経路を求めるためにNNを使い経路を求める(どんなNNか分からんがおそらく相互結合型に近いNN) どちらも共通して言えることは、人間側は解がどのようになるかは分からないってことで、勝手に解を見つけられるNNを作ることはできるか?って話題じゃないのか? 解法を随時記録していくって話じゃなくてさ
910 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:28:16 ] >>908 プログラマが分かるってのは総当たりチェックして最適解を学習させることと何が違うんだ >>909 近似解って意味なら出来る場合もあるけど たぶんその巡回セールス問題のやつは都市数が少なくて近似でもなんでもないんだろうけど 近似解はあくまで近似解でセールス問題もゴールありきだから間違えても問題ないけど ルービックキューブは間違えると永遠にループしたりどんどん離れていったりするから無理 どれくらいの割合で正解するかは単純にNNの記憶容量に依存するだけ だからやっても面白くもなんともない
911 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:35:29 ] TSPの場合は解(近似解)が最後に求めることができればそれで終わりだけど ルービックの場合は解法の経路を求めるから根本的に違うかもしれないけど、 経路をNNで求められたら面白いと思うけどな
912 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:56:46 ] 実時間で計算出来るサイズのNNじゃ正解率1%もいかないと予想
913 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 08:50:05 ] >>910 ループや離れるから無理ってんならチェスも無理だな。 ユーザが意図的にループさせる手を打ってくる可能性もあるし。 本当にそうなのかな?かな?
914 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 08:53:58 ] 多項式解法が存在しないものなんて世の中に存在するのか? 多項式解法が証明されているかいないかだけの話だろ。どちらかというとNNよりカオスな話になっちゃうけど。
915 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 09:15:29 ] ここでルービックキューブの問題は出来ないって言ってる人に質問。 逆にNNでできることって何? 具体的に。 ○○のようなこと、とかじゃなく○○ができるって言い切りの形で。 ついでに勝手に解を見つけるNNの具体例もあるとありがたい。 どういう状態のNNのことを勝手に解を見つけるNNと言ってるのか分かりやすくなるから。