- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 741 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 07:51:00 ]
- アソシアトロンってどうでしょう
- 742 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 09:04:22 ]
- >>740
難しい?。簡単だよ。だけどその後の検証が面倒なんだ。 既にわかってることに時間かけても仕方ないからね。
- 743 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 18:50:18 ]
- では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ
プライドのためだけに>>739の様なレスを書く時間をかけたのは無駄ではないのか
- 744 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:04:28 ]
- もしかして、「3層の中間層をふやす」って文章のこと?
文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。 3層の中間層のノードを増やすが正解。
- 745 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:32:48 ]
- 表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない
おめーら雑談たのしいの?
- 746 名前:デフォルトの名無しさん mailto:sage [2009/07/24(金) 23:04:58 ]
- 本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような
振る舞いをするのはイタイ レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ
- 747 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 01:21:50 ]
- 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
- 748 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 06:37:25 ]
- >>741
ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。 記憶に興味がもてたらもう一回調べてみよう。 今朝思いついたけど、夢を見たことを忘れるのは、 寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。
- 749 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 07:10:15 ]
- たった一行のレスに時間をかけたといったり、
一言コメントしてからおめーらといったり。 論理が破綻してるひと多すぎ。
- 750 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 12:52:19 ]
- まだまだ燃料としては弱い
夏で外が暑いからといって燃料投下を止めていいと思うなよ
- 751 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 19:21:36 ]
- 学問でやりたいなら数学の板が適してるんだろうけど
数学理解する力がないんだろ
- 752 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:00:56 ]
- 英語と数学は壁だね。何やるにしても。
- 753 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:14:50 ]
- ムキムキしながらって表現になんか笑ったw
なんだそれw
- 754 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:49:35 ]
- さぁレスするぞーー!!
_ / jjjj _ / タ {!!! _ ヽ、 オーー!! ,/ ノ ~ `、 \ _ `、 `ヽ. ∧_∧ , ‐'` ノ / `j ∧_∧_ \ `ヽ( ´∀` )" .ノ/ / /`ー' オーー!! ( ´∀`)  ̄"⌒ヽ `、ヽ. ``Y" r ' 〈 `ヽ / ) ヽ' / 、 `、 i. 、 ¥ ノ `、 ヽ∧_∧ γ --‐ ' λ. ; `、.` -‐´;`ー イ 〉 ´∀) ,-、、 f 、 ヾ / ) i 彡 i ミ/ / ノ  ̄⌒ヽ 「 〉 ! ノヽ、._, '`"/ _,. '" } { ノ ' L `ヽ./ / |  ̄`ー-`ヽ 〈 < _ ヽ. / `\ / , ' ノ\ ´ / !、__,,, l ,\_,ソ ノ / /ヽ、 ヽ. ( ∠_ ヽ、_, ' 〈'_,/ / / / ノ ヽ. ) i 、 ヽ | | イ-、__ \ `ヽ { f _,, ┘ 「`ー-ァ j l.__| }_ l \ \ | i f" ノ { / _.| .〔 l l ノ _> j キ | i⌒" ̄ / /_ 〔___! '--' <.,,_/~ 〈 `、ヾ,,_」 i___,,」 `ー-‐'
- 755 名前:デフォルトの名無しさん mailto:sage [2009/07/26(日) 14:46:56 ]
- 階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は
シグモイド関数のα(ゲイン)の値を小さくして、 (X−Xmin)/(Xmax−Xmin)と基準化させて出力。 出力結果を質的データとして出したい時は αの値を大きくして(ほぼ?)0,1の出力をする。 という理解で大丈夫ですか?
- 756 名前:デフォルトの名無しさん mailto:sage [2009/07/27(月) 06:21:43 ]
- 返事もないので、すでに自己解決した。
- 757 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 03:41:16 ]
- >>755
やってみてから考えろ。
- 758 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 07:39:54 ]
- SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?
- 759 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 15:25:50 ]
- >>758
やたら挑戦的なweb記事が見つかった www.mindware-jp.com/basic/faq2.html
- 760 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 08:41:25 ]
- >>759
どうもです。 長らく悪菌でした・・・ 面白いですねw もっともだと思うこともあれば根拠なき断定ではというのもありますね。 ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、 アカデミアではどう受け止められているんでしょうか?
- 761 名前:デフォルトの名無しさん [2010/01/16(土) 03:17:11 ]
- くだらんおべんちゃらはよせ
- 762 名前:デフォルトの名無しさん mailto:sage [2010/01/19(火) 19:14:55 ]
- www.natureasia.com/japan/highlights/details.php?id=570
- 763 名前:デフォルトの名無しさん mailto:sage [2010/01/21(木) 21:10:58 ]
- 話題がねーなー
- 764 名前:デフォルトの名無しさん [2010/02/01(月) 04:53:50 ]
- 多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が
必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、 前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか? 関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。
- 765 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 20:00:53 ]
- 肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの
どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし
- 766 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 22:43:37 ]
- 私自身、はじめは目視でやっていたのですが、
目視ではなく、プログラム側で自動で判別できるような条件 等があれば良いかなと思うんですがどうですか? 初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する 方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある 関数で、谷間の間の部分の教師データが採用されない等の問題がありました。 そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で 制御できないかなと思い質問しました。どうでしょうか・・・?
- 767 名前:デフォルトの名無しさん mailto:sage [2010/02/02(火) 21:57:28 ]
- 特徴量がうまくとらえられていないデータは似たような位置が似たような値をとっているはず
多すぎるデータを間引くのならそういう場所は削って良いね 同じ位置の値が似てるかどうかはエントロピーでも見れば判るかな
- 768 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:11:27 ]
- とりあえず、すべてのデータに大して隣り合う点との距離について計算して
その距離があるしきい値以上ならば学習データとして採用することにしました。 これで平坦な部分(関数全体からみて)についてはデータを少なくとることができたのかな? 変化の激しい部分はデータを多くとれるはず。 (データをある程度しぼって学習して、学習が進んでからデータを追加する仕様で プログラムを作成しています) >>767 近い位置のエントロピーを見てみるということですか。 うーんと・・・エントロピーってなんでしたっけ?平均情報量? 大学でやったような気がしますが教科書あげちゃったな… この場合、具体的に何を計算すればいいのかな。
- 769 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:15:39 ]
- ああ、表現が不味いかも上の"距離"というのは入力がx、出力がf(x)のときのf(x)のことです。
作成したプログラムは3次元の関数近似が目的なのでx,yの入力に対してのf(x,y)の値を 参考にしていますが… f(x,y)の値が隣のデータと離れていればいるほど、付近では関数の値が急に変化していると考えられるので 先に学習することでのちの学習がスムーズに行くのでは?と考えたためです。
- 770 名前:デフォルトの名無しさん mailto:sage [2010/02/06(土) 23:15:03 ]
- 手書き文字のサンプルを集めたいんでけど
どうすればいいかな? HTMLで作るとか?
- 771 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 01:10:28 ]
- >770
昔自分で用意したときはペイントで描いてから拡大表示してデータを作った。 5人ぐらいでやればみんなが違うパターンのを得られて楽でした。 そんなに精度要らないなら自分で作ったほうがはやいかも。
- 772 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 18:22:43 ]
- 卒論NNやれって言われちゃったよ・・・
なにやればいいんだ?
- 773 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 22:31:07 ]
- >772
時間がかなりかかるから今からじゃあ無理だと思うけど。 ああ、来年発表ですか?それなら NNっても卒論にするならいろいろあるからテーマが決まってないなら いくつか論文読んでからまたどうぞ。
- 774 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 19:59:05 ]
- ニューラルの論文集みたいなの無い?
- 775 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:33:42 ]
- うーん…多分NNやれって言われたならそれなりに準備してくれると思いますが、
先生に論文どれを読んだらいいか聞いてみたほうがよいかもしれません。 論文集をまとめてあるサイトは知りませんが検索したらいくらでもでてくると 思いますよ。
- 776 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:38:31 ]
- googleにgoogle scholarっていう学術論文検索できるやつがあるのでここから
scholar.google.co.jp/schhp?hl=ja 探せばいいかな。 でも、ニューラルネットワークで検索しても多すぎるし古いので、 例えばパターン認識とかリカレントニューラルネットワークとか誤差逆伝播法とか そのへんも検索に入れるといいかもしれませんね。 あなたのところの卒論のレベルは知りませんが、学部生ならこのへんの論文を参考に書けば十分だと思いますが。
- 777 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 01:56:21 ]
- 混合ガウス分布ってもう実用に使えるの?
共分散の自動調節が変だった記憶あるんだけど
- 778 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 14:23:18 ]
- 文字認識の精度が上がらないよー
- 779 名前:778 mailto:sage [2010/02/11(木) 15:12:01 ]
- ただ、手書きの文字を入力にしてるからかな?
手書き文字からパターンを抽出したいんだけど、どうやればいいかさっぱり分からん・・・
- 780 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 19:46:36 ]
- >778
プログラムあってるのか? あと、文字数を減らせばいいんじゃないか? とりあえずAとBとCの3つぐらいからやれば… 入力するパターンもAが5つ、Bが5つ、Cが5つとかにするんだぞ それぞれのパターンで書き方を少し変えればいい。 あともう少し実験の条件を晒してくれ… 入力してる文字とか…
- 781 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 20:43:38 ]
- 特徴量のとり方はどうやってる?
- 782 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 01:21:30 ]
- >>780
ありがとう、認識文字は0〜9で、 0〜9の入力に対してそれぞれ200回更新して、それを200回ループ回してるんだけど、 3と8と2がうまく学習できない。 てか、最後に学習した8になっちゃう感じ プログラムは↓ for(i=1 ; i<200 ;i++) { for(patarn=0 ; patarn<10 ; patarn++)//パターンをそれぞれ一つずつ学習 //教師信号割り当て //入力割り当て for(j=1 ; j<200 ;j++) { //入力誤差、出力計算 } } } こんな感じ、
- 783 名前:デフォルトの名無しさん mailto:sage [2010/02/16(火) 17:38:16 ]
- >782
見た感じ間違ってない気がするな。 数字の認識は3,8,2が上手く学習できてないのはなんだろうな 中間層の素子の数が足りないのかな。 もしくはこのプログラムは何回かやってみた?更新回数を増やすとか、学習係数の値の変更とか。 たしか、自分がやったときは文字の線が細いところを太く書いたら上手く分離できるようになったと思う。 とくに数字なら斜めの部分を太めにやってくれれば違うかもしれない。 あんまり似てると上手く分けられないからあえて違うように文字を書くのも最初のうちはありかも あと、0〜9を0から順番に学習しているから8が最後になっているみたいだが、これに関して 順番を変えることで結果はどうなるのか試してみたらどうかな。 (9から1に学習したら2になるかどうか?)
- 784 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 23:35:08 ]
- たまにはレスするか・・・
ニューラルで指紋認証やりたいんだけど 指紋そのまま抽出するより、特徴を抽出したほうが良いよね? 指紋の特徴って何がある?
- 785 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 07:00:32 ]
- 特徴点
- 786 名前:デフォルトの名無しさん mailto:sage [2010/04/02(金) 09:58:40 ]
- パーセプトロンで作ってみました
www4.cncm.ne.jp/~tsuri/per/aaa.wmv
- 787 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 15:46:09 ]
- hebb学習ってバックプロバみたいな正解と出力の関連付けが出来ないけど
出来るようにする方法を思いついた ちょっと実験してみよう >>784 特徴っていってもいろいろあるからな 角を検出したり直線を検出したり曲線を検出したり 画像処理スレの方が詳しい人が居るだろう
- 788 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 18:42:38 ]
- 自分が使う不出来な構造のNNの為に特徴抽出の
お膳立てしてあげようとしたら その前処理段階で判別に十分な特徴出ちゃったりなんて話も
- 789 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:15:57 ]
- 音声を入れたら文字が出力されて
文字を入れたら音声が出力されるNNを作ろうと思うんだけど これって研究対処になる?
- 790 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:30:42 ]
- >>789
そりゃなるでしょう。 特に英語なら綴りと発音の関係がややこしいし。 音声認識は昔からNNの研究対象分野だし。 ただ、DecTalkとか言う先行研究がすでに有ったような。
- 791 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:00:00 ]
- 卒論のテーマ考えてるんだけど
何やればいいかわからん 誰か助けて
- 792 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:29:43 ]
- 興味があること
- 793 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 03:37:31 ]
- NNって別にすごいことしてないしな
何をやってるのか解析しようと思えば出来るだろう いや実際数式化しようと思えば出来ると思うがな 特にバックプロバケーションタイプなんて もろ教師信号からパラメータの中央値を糞無駄な計算を繰り返して 導き出して、しまいにはそのパラメーターを使いまわし しかも使う人間も馬鹿だから全部のパラメータが重要だと思って 無駄計算を繰り返してるだろ
- 794 名前:デフォルトの名無しさん mailto:sage [2010/04/18(日) 21:12:18 ]
- 連想記憶モデルって何の役に立つんだ?
- 795 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 16:59:00 ]
- SVMは単に2値に分離するだけだけど
NNは無限個に分離できる可能性がある 可能性があるというのは構造や規模次第って意味で ただいろいろ不利な点がある 追加学習が出来ない 適切な構造が分からない 計算に時間が掛かる いろいろ解決法は考案されてるものの誰もそのアイデアを公表しない そして秘密にして利益を守ろうとする割にはアイデアがしょぼいw だから発展しないし利用出来るだけの材料がまったく揃ってない
- 796 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 17:16:59 ]
- 例えば
XOR問題を空間であらわすと SVMは ○| ----- |○ NNは □| ----- |□ みたいな感じだな SVMは角が無いんだよ
- 797 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 00:03:08 ]
- ニューラルネットで実用的なモデルって何?
何に需要あるの?これたちの悪い罰ゲームなの?
- 798 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 01:44:12 ]
- 構造をいちいち検証せずとも自動的に決定してくれて
学習に何週間も時間を費やさずともよくて フリーのライブラリが各言語に標準に近い状態で実装されてれば かなり需要があると思うが 現状ではNNを利用するには目的にあったNNを発明する所から始めないといけないという だから作ったものは自分にしか需要がない
- 799 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 23:26:35 ]
- 多層のフィードフォーワードとリカレントの特徴の違いを教えてください
- 800 名前:デフォルトの名無しさん mailto:sage [2010/04/22(木) 07:53:31 ]
- フォーワードは
BPのように入力から出力の一方向接続があって 教師信号で逆方向の重みを計算する この時に出力の計算式と修正の計算式が違う それを統合してしまおうというんおがリカレント 出力層と中間層は入力層に接続されていて それぞれの出力計算と重み修正の計算式は常に同じ しかも線形だから実に簡略化されたもの でFA?
- 801 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 00:01:01 ]
- www1.axfc.net/uploader/Sc/so/106271.zip
ダウンロードパス: im NNの概念とか無視してプログラム的に結局こういうことをやってんでしょってのを考えてみた 連想記憶用メモリみたいなもんです 特徴としては 追加学習が出来るのと強化学習が出来る 強化学習はまだ実装してない 結果を取り出すのは入力桁数ステップでいいからかなり高速 そしてアルゴリズムは教えないw
- 802 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 04:49:56 ]
- windowsを消し去って初めて後悔した
- 803 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 06:41:49 ]
- ニューラルで何か新しいことを研究にしたんだけど
何も思いつかんわ 誰か知恵を貸して
- 804 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 07:47:15 ]
- 株価予測、文字識別、ニューロ制御、TSP、
グリッドコンピューティング、803より賢い無脳 は、何も見てないけど、既にたくさん研究されているだろう
- 805 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:35:21 ]
- fx.104ban.com/up/src/up16120.png
XOR問題を解いてみた
- 806 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:36:37 ]
- >>801のやつね
- 807 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 17:17:21 ]
- 誰か文字認識のプログラムちょうだい!
- 808 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 19:13:27 ]
- >>801ので強化学習が出来るってのを実験したいんだけど
どういうアプリ作ったら分かりやすいかね? テスト用なんであんまり大規模なのは勘弁
- 809 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 19:58:04 ]
- ちなみに>>801の何が普通のNNと違うか見てもらえばわかるけど
赤が1.0青が0.0を学習させてるんだけど しばらくあるポイントの情報を学習させた後にポイントを生成しなおして切り替えても しばらくはもともと学習してたポイントの記憶を保持してる だから追加的に学習していっても古い記憶を保持したまま新たな記憶を覚えていく 時間がたつと古い記憶は薄れていって同じ学習入力が無いと消える この時間は調整可能 だからノイズの学習が行われても簡単には過去の記憶は消えない
- 810 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:28:35 ]
- 連想記憶は自己相関での結合行列に重みを付けしての誤り訂正とか、
相互相関で記憶したパターンを順番に生成するぐらいしかないんだと思っていた この分野でテンプレに出てきそうな書籍ってないの?
- 811 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:29:17 ]
- アルゴリズム教えて!
- 812 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:35:39 ]
- この分野で卒研着手するとなると、使用する言語って何がいいんだ
matlabとかR?Java,c++? boostとgslかじって、c++が幸せそうな気がしているけれども
- 813 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 23:00:20 ]
- 俺はC++
行列使うならmatlabじゃん?
- 814 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 03:05:28 ]
- >しばらくはもともと学習してたポイントの記憶を保持してる
どうやってるの?
- 815 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:10:39 ]
- >>814
予備知識もなにもなかったんだが SOMってのがかなり近いみたいだ 根本的にアルゴリズムは別物だけど 発想が似てる
- 816 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:20:14 ]
- 入力を次元で考えたのがまったくSOMと同じだった
中身はかなり違うけど SOMは分類するだけだけどこれは学習するからね むしろ逆に分割するとも言える
- 817 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 22:17:30 ]
- 入力が次元なだけに増えると指数関数的に処理速度が低下するのが欠点で
今それで悩んでたんだけど こいつの記憶保持のメカニズムがBPに応用出来そうな気がするんだよな
- 818 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 00:26:57 ]
- SOMのユークリッド距離を使うアイデアはなかなかいいですね
計算を単純化出来る その方法で重み修正をやるようにしてみたけどうまくいった 記憶保持機能もそのまま SOMとは計算式がぜんぜん違うけども
- 819 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 12:49:15 ]
- www1.axfc.net/uploader/Sc/so/107963.zip
パス im とりあえず最新版 学習方法をランダムポイントにしたので遅いけど変化が分かりやすい 一旦XORを学習させてランダムで上書きしようとしたらかなり抵抗するのが分かる
- 820 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 23:42:52 ]
- こんな場所で実行ファイルだけアーカイブしても誰も実行してくれないんじゃ…
- 821 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:10:54 ]
- ソースは公開しないけど
まだバグとか改良の余地があるから 設定出来るパラメータも単純化したいし そのうち組み込みで使えるようにライブラリはアップするかも
- 822 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:15:20 ]
- 専門家でもないし学生でもないし
たまだまNNに興味があったプログラム好きのど素人だから 公開したらアイデアぱくられて終わりとか悲しすぎるしw
- 823 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:54:26 ]
- たいしたアイディアでも無いくせにな
- 824 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 04:15:11 ]
- まあ、過疎ってるよりはいいかな
- 825 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:47:48 ]
- 今年4年の学部生です
ニューラルネットワークでルービックキューブの解法を探す研究をしようと思うのですが 実現可能でしょうか?出来そうかだけ教えてください
- 826 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:51:41 ]
- うん
- 827 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:53:41 ]
- Yes.
- 828 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 22:41:04 ]
- >>826-827
単にNNでできるかできないかで言えばそうだろうけど、研究可能ですかって意味では車輪の再発明じゃね? 既知を研究するもまた研究という人もいるだろうけどさ。。。
- 829 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 23:31:32 ]
- でも、難しいと思うよ
- 830 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 00:58:43 ]
- wrongway.org/cube/solve.html
- 831 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 01:09:02 ]
- ニューラルでやってんの?それ
- 832 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 02:36:02 ]
- ニューラルでやったらそこそこの研究になるんじゃない?
- 833 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 03:12:30 ]
- >>830のソース読んでNN使えば(多分)改善する箇所思いついた
やってみよっと
- 834 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 08:21:13 ]
- 解法って最短解法って意味ならNNじゃ無理だよ
時間はともかく必ずいつかは解ける方法を学ばせるのは可能だけど
- 835 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:12:01 ]
- なんで最短は無理なん?
- 836 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:29:32 ]
- ってかNNでできるのか?
構造とかどうすればいいんだ? 俺には全然わからん
- 837 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 03:26:20 ]
- ルービックキューブのルール通りに動くようにNNを構築するのは難しくね?
ばらばらの色の配置→6面完成だけならできると思うけど
- 838 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 09:13:29 ]
- NNを神格化してるのか知らないが
ただの連想記憶装置だから 0.0〜1.0のアナログデータを保存するだけだから 0.1区切りなのか0.01区切りなのかはNNの規模で決まるだけで 実際に表現出来る範囲には制限がある ルービックキューブには何億通りのパターンがあって それを全部記憶するのは無理だから無理 どんな並びだろうと一定の法則があって 簡単に算出出来る規則性があるなら可能だけど
- 839 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 13:24:15 ]
- 表面的に知ってるだけだから
使い方・使い所がわかってないんだなぁ
- 840 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:24:31 ]
- NNは脳の構造を真似して作ったものだけど
研究していくうちに実は数学的にクラスタリングする機能しかないことが分かって だったら無駄な計算なんかしないで直接的に数学問題を解けばいいじゃない ってんで生まれたのがSVMとかで 最初は主に顔画像を検出したりする画像処理に利用しようとしてたけどうまくいかない なぜなら数学的に問題を解いてもなおプログラム的には速度が遅いし 適切な記憶容量が計算出来ないからだけど それで画像処理分野ではSVMなんかで統計を取る前処理として データ構造を統計上問題の無い方法で単純化しようという研究が行われて 光源によって色が変わるから色は無視しようとか、角度によって分布が変わるから 方向は無視しようってな具合でどんどん条件を絞り込んでいったら 結局数学的にクラスタリングする機能を1つづつ専門分野に適用していってるだけだったというオチ 万能なNNを作ろうとすれば結局は数億規模のデータを処理出来るコンピュータが必要だという 結論に至っただけですよ
- 841 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:29:31 ]
- そして顔画像検出の有効な利用法を発明したんだけど
誰か研究してみたら? 心霊写真を見つけられるw
|

|