[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 05/09 14:36 / Filesize : 232 KB / Number-of Response : 916
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

ニューラルネットワーク



1 名前:1 [04/09/11 01:48:08]
について教えてよ

231 名前:デフォルトの名無しさん mailto:sage [2007/11/15(木) 23:20:27 ]
>>229
汚いソースコードで恐縮ですが、うpしときました。
www.uploda.org/uporg1113870.zip.html

中のframeworkパッケージがメインで、Tableを使ってプログラムします。
重ねてすみませんが、プログラム自体は特別な処理はしていません。

232 名前:224 mailto:sage [2007/11/15(木) 23:27:59 ]
要約しますとこんな感じです。

・入力数15、出力数1、サンプルデータ32の成績推測で、予測が±0.1以内に収まらなければならない。
・自分で組んだ誤差逆伝搬法とttp://www.geocities.jp/retort_curry119/NN.htmここのBP法では±0.2が限界。
・教授は確率が良かったネットワークを足し合わせて平均してる。

どうしたいのか

・この研究の前提としてサンプルデータが少なすぎることを指摘したい
・もし上の主張が間違っているのであれば、正しいネットワークの学習法を知りたい(その場合は潔く頭を下げに行きます

233 名前:224 mailto:sage [2007/11/15(木) 23:45:05 ]
こちらのほうにプログラム全体のソースコードをアップしときました。
sund1.sakura.ne.jp/uploader/source/up14952.zip
基本的なテストはJUnitで書いてますので、tpフォルダ内のプログラムを見ればどう使っているのかがわかると思います。

234 名前:デフォルトの名無しさん mailto:sage [2007/11/16(金) 00:01:28 ]
サンプルが少なすぎる事を証明したいならサンプルを増やして精度が上がることを示せばいいんじゃないの?
さらにサンプルを用意して比較するとか、
それが難しいなら教師信号を少ない数から学習させていって精度の向上具合をグラフにしてまだ上がりそうな事を示すとか。
まぁそもそも元のデータにノイズが入ってるとサンプルを増やしても精度は或る程度の誤差を持ったまま頭打ちになるけど。

235 名前:224 mailto:sage [2007/11/16(金) 00:09:15 ]
> それが難しいなら教師信号を少ない数から学習させていって精度の向上具合をグラフにしてまだ上がりそうな事を示すとか。

それなら出来そうですが・・・、俺ならこのデータでも十分だ!、とか言いそうで怖い・・・。

> まぁそもそも元のデータにノイズが入ってるとサンプルを増やしても精度は或る程度の誤差を持ったまま頭打ちになるけど。

それは考えてませんでした。
サンプルデータの右端の列(出力の教師信号)を見てもらえばわかるんですが、
すべての値を0.1刻みに区切ってあるんです。つまり、サンプルデータ自体に±0.05の誤差を含むんでいます。
これで誤差を持ってることが証明できますね。ありがとうございます。

236 名前:デフォルトの名無しさん mailto:sage [2007/11/16(金) 00:48:31 ]
>それなら出来そうですが・・・、俺ならこのデータでも十分だ!、とか言いそうで怖い・・・。
SVMって聞いたことある?サポートベクターマシン。
少ない教師信号でも未知データに対する精度がBP法より高いと言われてるから、
それと同程度ならBP法でも十分な学習ができたと判断していいんじゃないかな。
SVMライブラリはググればいくつか見つかる。

237 名前:224 mailto:sage [2007/11/16(金) 00:59:29 ]
>>236
名前は聞いたことがあるのですが、実際にやってみたことはありませんでした。
そのSVMとBP法の予測を比較してみようと思います。

238 名前:デフォルトの名無しさん mailto:sage [2007/11/19(月) 10:47:51 ]
というか、これ中間層の数いくつでやってるの?
中間層のユニット数増やせば、いくらでも誤差減らせると思うんだけど
今ためしに自分の書いたプログラムで中間層の数5でやってみたら1秒かからずにここまで誤差減らせたけど
0 0.682308 0.700000 16 0.576228 0.600000
1 0.484078 0.500000 17 0.310864 0.300000
2 0.620793 0.600000 18 0.305802 0.300000
3 0.213112 0.200000 19 0.196997 0.200000
4 0.417943 0.400000 20 0.496074 0.500000
5 0.713331 0.700000 21 0.537518 0.500000
6 0.400664 0.400000 22 0.377821 0.400000
7 0.492160 0.500000 23 0.333802 0.300000
8 0.531899 0.500000 24 0.491570 0.500000
9 0.280287 0.300000 25 -0.012757 0.000000
10 0.600956 0.600000 26 0.376582 0.400000
11 0.297781 0.300000 27 0.499210 0.500000
12 0.200848 0.200000 28 0.495079 0.500000
13 0.538449 0.600000 29 0.499226 0.500000
14 0.568660 0.600000 30 0.011226 0.000000
15 0.503874 0.500000 31 0.309703 0.300000

239 名前:デフォルトの名無しさん mailto:sage [2007/11/19(月) 12:27:23 ]
>>238
>・32個のサンプルデータのうち、24個を学習に使い、誤差逆伝搬法で学習する。
>・十分に学習できたところで、残りの8個を推測する。
>・残りの8個の真の値(教師信号)と、ネットワークで推測した出力の誤差で、ネットワークの正確さを評価する



240 名前:デフォルトの名無しさん mailto:sage [2007/11/19(月) 12:47:56 ]
全然読んでなかった
最初の24個を使って学習させて、残りの8個を推測させたら全くでたらめだった
0 0.173739 0.500000
1 0.736736 0.000000
2 0.313203 0.400000
3 0.843554 0.500000
4 0.302446 0.500000
5 0.441595 0.500000
6 0.831326 0.000000
7 0.853432 0.300000

241 名前:224 mailto:sage [2007/11/19(月) 17:49:57 ]
>>240
わざわざ実行してもらってありがとうございます。

やはりここまででたらめな推測値が出るっていうのはサンプルに一貫性がないか、
データ数が全然足りないかのどちらか(もしくは両方)だと思うのですが、
この考えはあっているでしょうか?

242 名前:デフォルトの名無しさん mailto:sage [2007/11/19(月) 18:36:22 ]
さあどうなんだろう?
ただ同じ構造のネットワークで24件だけでなく32件全てに当てはまる
パラメータは確かにあるわけだから、どんな初期値で24件の学習だけからでも
残りの8件をうまく予測するパラメータに収束させる方法があるのかもしれない

SVMとかいうのはどうなんだろうか
やってみた?

243 名前:224 mailto:sage [2007/11/19(月) 20:35:45 ]
>>242
いえ、現在はサンプル数を増やしたときに、精度が上がることを証明する実験と、
中間報告の書類を書くのに手がいっぱいで、教えてもらいながら申し訳ないことに、SVMまで手が回っていません。

244 名前:224 mailto:sage [2007/11/20(火) 14:50:43 ]
あれから学習データを段階的に増やしていき、予測精度が上がるかを実験してみたのですが、
残念なことにほとんど上昇が見られませんでした。
こうなると、もはや汎化能力の限界が0.2であるとしか思えないのですが、それを肯定するような実験結果も出せていません。
とりあえず、今からSVMでどこまでやれるか試してみようと思います。

245 名前:224 mailto:sage [2007/11/20(火) 15:52:57 ]
なんだかスレを占有してしまっているみたいですみません。

現在、サンプルデータ数と重みの数について調べていたところ、このような記述がありました。

> 3.4 まとめ
> (1)汎化能力をもつには、学習データ数と重みの数の比率は少なくとも10以上は必要である。

3章 学習データと入力表現
ttp://cae.co.jp/ksrg/report/reportnn03.htm
の一番下

入力数15の場合、中間層ニューロン数が3でも、15 * 3 + 3 * 1 = 48の重みがあるので、
データ数:重みの数 = 32 : 48 となり、比率は1にも届きません。
やはりサンプル数が圧倒的に少ないと思うのですが、どうでしょうか。

246 名前:224 mailto:sage [2007/11/20(火) 22:29:16 ]
>>224です。とりあえず納得できる理由が見つかったので、これで最後にしようと思います。

ネットワークの評価を調べてVC次元関連を見ていたところ、「次元の呪い」という事象があることを知りました。

次元の呪い - 朱鷺の杜Wiki
ttp://ibisforest.org/index.php?%E6%AC%A1%E5%85%83%E3%81%AE%E5%91%AA%E3%81%84

入力数15というのが、ここのいう高次元に当てはまるかというのはわかりませんが、
中で説明されている、球面集中現象は、私が求めていたイメージとぴったりでした。
あとはこれを元に中間発表を仕上げようと思います。

混乱していたときに、方向性を示してくださった皆さんには感謝しても感謝しつくせません。
長々とつきあってくださったみなさん、どうもありがとうございました。

247 名前:デフォルトの名無しさん mailto:sage [2007/11/20(火) 22:47:20 ]
SVMはどうだった?
興味あるから最後と言わずもっと書いて欲しいな。

248 名前:224 mailto:sage [2007/11/20(火) 23:31:40 ]
>>247
そういっていただけるのは非常にありがたいです。
それに、よく考えればここまでしていただいて、
ことの顛末(教授がどんなリアクションを取るか)を言わずに去るのは失礼というもんですね。

今さっきの言葉を翻すようですが、今週中に中間発表が終わりますので、
今週末ぐらいに中間発表の雰囲気と教授のリアクション、
それとできればSVMとの比較を短くまとめて上げさせてもらおうと思います。

249 名前:デフォルトの名無しさん mailto:sage [2007/11/21(水) 02:39:53 ]
ん、15次元で高次元てのはいくらなんでも無理がある気が。



250 名前:デフォルトの名無しさん mailto:sage [2007/11/21(水) 12:35:25 ]
>>249
そうかな?入力が10以上もあれば球面集中現象は起こりうると思うんだけど。

251 名前:224 mailto:sage [2007/11/27(火) 13:17:16 ]
>>224です。先週末中に報告すると書いていたのですが、遅れてすみませんでした。

先週末に発表があったのですが、結果から書くと正しかったみたいです。
中間報告で主に、
・汎化能力を得るには最低でも数百が必要
・球面集中現象
・サンプルデータの誤差
などについて詳しく報告しました。
プレゼンが上手くなかったことと、ニューラルネットワークに明るい教授らが多くなかったこともあり、
特に質問はなかったのですが、「なぜいままで失敗に気づかなかったのか」という質問に対して、
「担当の教官が正しいと言い張っていた」と答えたところ、会場に笑いが広がりました(失笑ではなかった、と思います)
教授も同じ会場だったのですが、周りに混じって苦笑していました。

そのときに、ひとまず私の主張は認められたようで、それ以来教授との間は一応平静を保っています。

252 名前:224 mailto:sage [2007/11/27(火) 13:24:36 ]
これでひとまず認められ、一矢報いることが出来たと思うので、私としてはこの件に納得できました。

今後は、大幅に遅れましたがニューラルネットワークの応用分野か、
もしくは今回の経験を元に、汎化能力を得るために必要な条件(サンプル数、最大誤差、重みの数など)を
研究しようと思います。
重ね重ね、力になってくださった皆さん、本当にありがとうございました。

蛇足ですが、SVMとの比較はまだ全く出来ていないので、実験できて次第こちらで報告させてもらおうと思います。

253 名前:デフォルトの名無しさん mailto:sage [2007/11/27(火) 13:36:39 ]
ぉっぉっ
SVMの報告も楽しみにしてる

254 名前:デフォルトの名無しさん mailto:sage [2007/12/02(日) 20:23:34 ]
今初めて読んだけど、頑張ったね (^^

SVMは分類器 (サンプルがどのカテゴリに入るのかを答える) なので、
回帰分析に使いたければ、SVR (Support Vector Regression) でぐぐるといいよ。

次元の呪いでサンプル数が足りない場合には、
主成分分析や因子分析 (どちらも似たようなもの) で、
次元数 (入力ユニット数) を減らせる「場合もある」よ。

SVRはBP法よりも難しいので、アルゴリズム自体を研究したいのでなければ、
ライブラリを使うといいかもね。



255 名前:254 mailto:sage [2007/12/02(日) 20:31:57 ]
>>254>>224宛てでした。
言語はC++だけど、OnlineSVRというライブラリが公開されていたはず。
追加学習できるように改良されているのと、他のライブラリに依存していなくて読みやすいので、
私はJavaに移植して自分の研究で使っていました (他の部分が全部Javaなので) 。

ここまで書いて、見つけてきた。
eris.liralab.it/wiki/OnlineSVR



256 名前:224 mailto:sage [2007/12/02(日) 20:59:30 ]
>>255
ありがとうございます。冒頭の優しいお言葉に思わず目が潤んでしまいました。
実は先週からテスト期間に突入してまして、SVMについて調べられていなかったんですが、
SVRというものがあるんですね。ライブラリも公開されているようで、是非活用させていただきます。
言語は一応C++も使えるので、長期的に使う予定のない現状なら、そのままC++で実験しようかと思います。

257 名前:デフォルトの名無しさん [2007/12/30(日) 02:05:23 ]
あげ

258 名前:デフォルトの名無しさん mailto:sage [2007/12/30(日) 16:07:56 ]
ニューラルネットワークって人工知能のことだろ?
シリコンのCPUじゃ無理なんだよ
バイオコンピューターでも開発してくれ

259 名前:デフォルトの名無しさん [2007/12/30(日) 16:13:59 ]
aho



260 名前:デフォルトの名無しさん mailto:sage [2007/12/30(日) 18:42:51 ]
攻殻機動隊のタチコマは、ニューロチップなるものを使用してAIを実現してるらしい。
名前からすると、チップの構造自体が自己組織化する(物理)人工ニューラルネットワーク見たいなものか。

261 名前:デフォルトの名無しさん mailto:sage [2007/12/30(日) 18:58:32 ]
計算機でシミュレーションすればいいじゃん。

262 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 04:23:18 ]
できるかどうかは別にして。実用的なニューラルネットワークのシステムを作る場合。
計算機のシミュレーションじゃ遅すぎて使い物にならないと思われ。

263 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 04:53:30 ]
実際ニューラルネットワークってでこかで実用されてるの?
うちの教授が画像診断で実用化されて、優秀な結果を出してるとか力説してたけど。

264 名前:デフォルトの名無しさん [2007/12/31(月) 10:12:10 ]
実用例知ってんじゃん

265 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 10:22:47 ]
早い遅い
どこら辺が基準


266 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 10:37:44 ]
もう既に実用的に使えるなら、みんな知ってるだろ。
探さないと無いような物は、実際には使えなかったもの。
研究者は実用に使えると言う場合が多いが、製品にならないと実用とはいえない。

267 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 10:51:05 ]
>>265
速い遅いと判断できる実用的なものは無いと思われ。
実用的なものが出来てから判断するもの。
遅いから実用にならないのかもしれんがなw

268 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 11:40:46 ]
だいぶ前から家電なんかにも使われてると甘利先生が書いてた
話題にならなくなった時が実用化された時

269 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 11:49:00 ]
それはファジーじゃないのか? ニューラルネットワークを使った製品の出して。



270 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 17:36:07 ]
音声認識とか文字認識とか

271 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 20:32:04 ]
音声認識とか文字認識とかをニューラルネットワークで作った家電品があるのか?

272 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 21:14:32 ]
普通のロジックで作られた音声認識も文字認識も一般の製品で販売され、
プリンターやスキャナーには無料で添付され。そこかしこに溢れかえっている。
もし、ニューラルネットワークで作られた音声認識や文字認識が優秀なら、
それら製品と入れ替わっているはずだが、そうなっては居ない。
ここから言える結論は、
ニューラルネットワークのシステムはいまだ使い物にならない。(実用化されていない)

273 名前:デフォルトの名無しさん [2007/12/31(月) 21:31:20 ]
普通のロジック?????

274 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 21:40:42 ]
まあ、プログラムと言い換えてくれ。

275 名前:デフォルトの名無しさん [2007/12/31(月) 21:45:47 ]
普通のロジックで作られた音声認識も文字認識も一般の製品で販売され、
→プログラムで作られた音声認識も文字認識も一般の製品で販売され、
????

276 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 21:53:05 ]
>>275
もっと詳しく書かないと理解できないのか?

プログラムで作られた音声認識システムも文字認識システムは、一般の製品で販売されている。
この場合のプログラムとは、ニューラルネットワークの仕組みではなく、手続き型のプログラムを意味する。

これでも足りないか?

277 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 21:53:47 ]
×プログラムで作られた音声認識システムも文字認識システムは、一般の製品で販売されている。
○プログラムで作られた音声認識システムや文字認識システムは、一般の製品で販売されている。


278 名前:デフォルトの名無しさん [2007/12/31(月) 22:00:37 ]
進化型計算もここでいいですか?

ちょっと齧ってみた素人なんですが、進化型計算で得られる結果は主にアルゴリズム(計算方法)という認識でよろしいでしょうか?

279 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 22:05:14 ]
結果はアルゴリズムではない。



280 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 22:11:42 ]
>>276
最初から手続き型と書けよw

281 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 22:14:05 ]
279だが、もう少し詳しく。
一般に、進化型計算で得られる結果は、目的の値または目的を効率よく得られたパラメータの
値の事かな?
どちらにしてもアルゴリズムとは言えない。上記認識で有っているか?
有っていないなら、より詳しい説明を求む。

282 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 22:18:02 ]
>>280
ニューラルネットワークのエミュレーションも手続き型の結果だからね。
その辺の混乱を、普通のロジック=ニューラルネットワークの仕組みではなく、手続き型のプログラムを意味する
のつもりで書いたのだが、短文で意味を伝えるのは難しいな。

283 名前:デフォルトの名無しさん [2007/12/31(月) 22:45:01 ]
>>281
278ds

進化型計算の結果は「進化した計算手法」だと思っている。
簡単な例だと、「1,2,3,4の4つの数値から四則演算を任意に行って10を作りなさい」という目的が設定された環境で
進化するエージェントは四則演算をパラメータとしてみてその組み合わせを目的に合うように最適化していく。

という感じで、その結果得られるのは「目的を満たすための手段=アルゴリズム」だと思っている。

284 名前:268 mailto:age [2007/12/31(月) 23:09:44 ]
KYずに遅レス
家電で実用化されてるのは,と言うより今実用化されてるNNはパターン認識系ではなく,BPNNの補間機能を利用したソフトな制御を行うタイプ.
だから分野はファジーと同じだが,一旦値が決まってしまえばファジーより簡単に(小さなコストで)実装できる.
他にはPOS,データマインニング,クレジットカードの悪用検出などで使われていると聞いている.

285 名前:268 mailto:sage [2007/12/31(月) 23:12:09 ]
スマソ,上げちまった

286 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 23:29:45 ]
進化型計算の目標に遺伝子のアルゴリズムが有ると思う。これは、自身のアルゴリズムを
自身で書き換えて進化してきた。しかし、現在の計算機での進化型計算は、自身で自身を
書き換えるまでに達していない。既に内包しているアルゴリズムを再発見して違う形のパラ
メーターとして最適化しているに過ぎない。これでは、プリグラムで定義された範囲内を超
える事は出来ない。これは、既に組み込まれた内容の範囲をパラメーターで指定している
に過ぎない。新たなアルゴリズムを導き出したと言えるのだろうか?

もしそれでいいのなら、コンパイラコンパイラに代表するプログラムジェネレーター総てが
進化型計算計算と大差が無い。
自身に内包するアルゴリズムを出したのでもいいなら、結果がアルゴリズムでいいだろう。
特にプログラムジェネレーターはアルゴリズムを実際に出している。
それに比べ、プログラムの動き方が変わったパラメーターが生成できたとして、
私はそれがアルゴリズムだとは言いたくない。

進化型計算が目指すものは、遺伝子と同じく自身を書き換え新たなアルゴリズムを
目つけることが必要ではないか、私はそう考えている。

287 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 23:39:57 ]
286、言い回しの重なりと 計算計算の2重化、申し訳ない。
よろしければ、うまく汲み取って欲しい。

288 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 23:53:57 ]
>POS,データマインニング,クレジットカードの悪用検出などで使われていると聞いている.
これに付いての知識が無いため、評価する事が出来ない。

私が参加した元々の命題。「早い遅い  どこら辺が基準」に対して。
基準とは、一般に広まった結果の最大公約数的なものが必要だと思っている。
したがって、極一部の例で速い遅いの判断は不可能であると指摘したい。

289 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 23:57:30 ]
なんか細かい話はよくわからんが、例えばスパコンだって汎用的に使えるわけじゃないけど「速い」んだから
一般的にどうこうってのは、あんまり意味がない気がする。



290 名前:デフォルトの名無しさん mailto:sage [2007/12/31(月) 23:59:51 ]
スパコンには、一般的に評価できる計算プログラムが有りますよ。

291 名前:デフォルトの名無しさん mailto:sage [2008/01/01(火) 00:02:05 ]
その評価プログラムの結果なら正当な評価なの?

292 名前:デフォルトの名無しさん mailto:sage [2008/01/01(火) 00:07:16 ]
ランキングが世界的に認められてるから正当だと思われ。
ちなみに、君のPCでも実行できたはず。

293 名前:デフォルトの名無しさん mailto:sage [2008/01/01(火) 00:09:26 ]
意味が通じてないみたいだからいいや。お休み。

294 名前:デフォルトの名無しさん mailto:sage [2008/01/01(火) 00:09:37 ]
ニューラルネットは、それが間違いなく動作するのかどうかテストするのが難しいから、
市販品には採用されることはほとんどない。
しかし、最先端のロボットなどには積極的に使われているよ。

295 名前:デフォルトの名無しさん mailto:sage [2008/01/01(火) 08:01:00 ]
ニューラルネットって効率悪いよな

296 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:13:36 ]
>間違いなく動作するのかどうかテストするのが難しいから
これは目的による.したがって,
>市販品には採用されることはほとんどない
これは誤り.学習させたNNの機能は簡単にテストできる.

297 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:17:49 ]
>>296
不可能。
NNのテストはすべての取りうる値を入力しなければならないから。

298 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:19:34 ]
>>296
テストのことを知らないnoobかもしくは
研究室から一歩も出たことないボンボンですか?

299 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:20:57 ]
>NNのテストはすべての取りうる値を入力しなければならない
え?



300 名前:296 mailto:sage [2008/01/03(木) 09:49:19 ]
あのな,離散値でしか使わないNN応用も一杯あるの
それに連続値でも「分解能」ってのがあるの
コンピュータを知らない純粋数学屋さん?

301 名前:デフォルトの名無しさん mailto:sage [2008/01/03(木) 19:41:48 ]
296の言いたいことは分かるけど、
網羅テストが簡単に出来るような問題は
NNに向いてないんじゃないかな?

で、組み合わせ爆発が起きるような問題に対しては
テンプレートデータを出来るだけ多く持ってきてテストするしかないから、
「テストが難しいから〜」っていうのは結局どんな手法にも当てはまるんだよね。
結局、NNがそう言われるのは過程がブラックボックス的というか
人の直感から遠いから、気持ち悪いって事だと思う。

302 名前:デフォルトの名無しさん mailto:sage [2008/01/03(木) 19:59:58 ]
まぁ,テスト云々っていったら
「熟練工が作る鋳物は必ず成功しているか?一度ためしに使ってうまくいったから成功といえるのか?」
というもんだからな

303 名前:デフォルトの名無しさん mailto:sage [2008/01/07(月) 21:18:23 ]
>網羅テストが簡単に出来るような問題は NNに向いてないんじゃないかな?
実際にそういう応用が多いという事実が答えでしょう
これは俺の推測だが,実際の応用は組込みシステムでのデータ量や計算量の圧縮的な用途が多い様な気がする
普通のやり方でもできるけど表が大きくなるとか計算に時間が掛かるとか

304 名前:デフォルトの名無しさん mailto:sage [2008/01/07(月) 21:33:50 ]
>>303
確か前に計算したことがあるが、適切なアルゴリズムを用いればNNよりもあらゆる面で効率的に処理可能だったと思うぞ。

305 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 01:28:54 ]
そりゃハードと問題(必要な機能)に依存するはず
常に成立するとは思えないし,少なくとも証明は不可能だろう
32 or 16 bit 程度の積和演算だけはやたら速いプロセッサもあるし

306 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 11:16:49 ]
積和演算といえばDSPか

307 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 15:03:19 ]
最近?はマルチメディアプロセッサなんてのもあるな

308 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 15:05:54 ]
>>306
携帯v.sニューロというわけか

309 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:16:01 ]
>>307
CELLでNNやると速いのか?



310 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:26:52 ]
>>309
浮動小数点数演算に特化して、しかもマルチコアだから、
それように作ったプログラムなら普通の数十倍出るかもね。
ただし、計算順序を工夫したりする必要はあるだろうけど。

311 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:30:36 ]
CELLクラスタに俺の脳を移植してよ

312 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:28:54 ]
それはいい考えだな
まずはコンパクトな脳から試すのがいいね

313 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:32:15 ]
さて、そろそろ論文締め切りが間近だが、
切羽詰った状況でなぜか部屋の掃除がしたくなるのは俺だけではないはずだ

314 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:42:55 ]
俺も現在似たような状況だがドラクエIVのDS版を始めてしまった。

315 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 01:52:24 ]
>>314
あ〜そりゃもうやめられないな
お前、今回は落としたな

316 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 01:56:36 ]
代わりに書いてやろうか

317 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 03:22:08 ]
ニューラルネットで、論文生成するプログラム組んだらいいんじゃない?

318 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 08:12:51 ]
>>317
お前マジ頭いいな。

319 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 10:59:54 ]
>>317
論文の内容を悩むところだが、
ニューラルネットで論文生成するプログラム組む方法を論文にすればいいんじゃね?



320 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 11:08:35 ]
>>319
NNじゃないが、そういうのは前に発表されてたな
pdos.csail.mit.edu/scigen/

321 名前:デフォルトの名無しさん [2008/01/17(木) 07:21:32 ]
生データから抽出すべき特徴量を決定する指針ってある?
あれば教えて欲しい

322 名前:デフォルトの名無しさん mailto:sage [2008/01/17(木) 11:39:20 ]
主成分分析

323 名前:デフォルトの名無しさん mailto:sage [2008/01/17(木) 11:39:44 ]
あ,判別分析の方がいいかも

324 名前:デフォルトの名無しさん [2008/01/17(木) 12:54:47 ]
なるほど
ググって調べてみる
サンクス

325 名前:デフォルトの名無しさん [2008/01/22(火) 23:36:24 ]
ニューラルネットワークで密や疎というのはどんな事を意味するんですか?

326 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 03:25:24 ]
スパース表現のことか? それなら
「神経回路網モデルとコネクショニズム」甘利俊一 [補稿]黒崎政男
東京大学出版会 認知科学選書22 ISBN4-13-013072-2 1989年初版
の 5.4 スパース符号化による連想記憶
が参考になる.図書館で探して

327 名前:デフォルトの名無しさん [2008/01/23(水) 07:27:44 ]
それみたいです
本も調べてみます
ありがとうございます

328 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 20:51:28 ]
本が見つからない場合に備えて簡単に書いておくと,
データをどの位粗く表現するかってことで(マンマや),
例えば0〜15の整数を4bit(4本)の二進数で表現するのは(情報量的に)最も密な表現.
これに対し,入力の線を16本用意してそのどれかを1にするのはやや疎な表現.
100本位用意して適当な数本(一本もあり)を1にするのは疎な表現.
1000本だと凄く疎な表現(こういう区別そのものは厳密ではないし,決まっているわけでもない).
大切な事は,疎な表現を採用すると連想記憶のの記憶容量を増やすことができる点.
BP学習の場合は収束が速くなる(密な表現だと凄く収束し難いことは経験的に良く知られていた).

329 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 21:42:00 ]
なるほど〜
すごく分かりやすい
ありがとうございます



330 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:02:04 ]
ニューラルネットワークでの株価予測について質問です
いくつかの論文で,予測株価と実際の株価の誤差を取るのではなく,方向一致率と呼ばれるもので判断しているんです
方向一致率は,上下変動が一致した回数を予測した回数で割ったものです
これって単純に誤差を取るよりもどんなメリットがあるのでしょうか?
ソースはあっても無くてもいいので,どなたか教えてください

331 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:26:55 ]
>予測株価と実際の株価の誤差
は評価でき(るほど上手くいか)ないから代わりに使ってるんだと思われ






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<232KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef