- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 445 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 09:14:37 ]
- ちなみに(言うまでもない事だが)
ニューラルネットが関数近似器としてその実用性を 発揮するのは元となる関数が「未知」の場合だよ。 つまり入力データと出力データのセットのみ 与えられていて、その関係は不明な場合だ。 (そのような現象は現実に山のように存在する) 最初から関係が既知であるのなら その関数を使えば良いだけなのだから。
- 446 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 12:29:27 ]
- とりあえずfirst class objectって何なのか考えるといいよ
- 447 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 13:44:25 ]
- >446
何でプログラム言語の話が唐突に? 誤爆?
- 448 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:30:58 ]
- >>445
まさにその通り 関数が未知の場合にだけちょっとだけ役に立つ「アルゴリズム」の一種でしかない もっとわかりやすく考えよう SHA-1からキーを解読するNNを組んだとしよう むちゃくちゃ早いが正解率は低いw 一時しのぎの解決手段だな
- 449 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:34:40 ]
- 正確な解答を得るにはマルコフの統計をとるのが一番良い
ただこれは情報量がすさまじいことになる 最近のPCは大容量なんである程度はいけるだろう 問題は近似算出だな 大量にあるデータから一番近い2ペアを探しだしてその中間値を返す この計算量がばかでかい
- 450 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:35:59 ]
- 簡単に言えばだ
SHA-1の解読処理をしようと思ったら SHA-1ハッシュとキーのペアデータベースを作るのが一番早いし正確だろ?
- 451 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:17:38 ]
- 何でSHA-1ハッシュの解読処理にこだわってるんだ?
そういう厳密性を要求される処理にニューラルネットが 向いているとは始めから思えないし。
- 452 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:19:22 ]
- 誰もこだわってないよ?
- 453 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:23:48 ]
- じゃあ、ニューラルネットの適用課題としてはそもそも不適切。
(始めから向いていない応用)
- 454 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:31:24 ]
- ハッシュテーブルになぞらえるとは...パッチワークが正解だろ
あとill-posedな問題にも使えるという利点もある
- 455 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:46:29 ]
- >454
ill-posedな問題って何かと思ったら逆問題の事か。 で、「パッチワーク」ってどんな応用の事?
- 456 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 19:05:24 ]
- もしかすると電子透かしの話かな?
- 457 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 23:09:54 ]
- データマイニングや統計解析で使われているって本に書いてあったけど本当?
- 458 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 00:41:36 ]
- >>453
それが何か? そんな事はわかった上で話してるんだよ。
- 459 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 01:34:32 ]
- (話が低レベルだなぁ・・・)
- 460 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 02:57:44 ]
- (・∀・)クスクス
- 461 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 14:46:25 ]
- ああ、有袋類の猿みたいな生き物。
- 462 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 18:04:51 ]
- Ill-posedは不良設定問題
拘束条件が自由度より少なくて解が一意に決まらない(から解析的に解けない) しかしill-posedって言葉を知らないってことはNNの事を全然勉強してないんだな
- 463 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 20:17:43 ]
- >462
Thanks. ニューラルネットの事は確かに大して勉強してないが、 俺の持ってる(唯一読んでる)ちょっと古い本には "ill-posed"なんて用語は載ってないんだよ、 "逆問題"なら載ってるが(洋書じゃないし)。 (大学等で真剣に勉強した人にはとても適わないぜ) ところで誰か、"Practical Neural Network Recipes in C++" と言う本持ってる人(or 読んだ事のある人)居る? いろんなニューラルネットのプログラム例が載ってるらしい のだが分かりやすいかな? 本屋で偶々「ゲーム開発者のためのAI入門」と言う本を見かけたので 読んでみたらニューラルネットのプログラミングの参考文献として 薦められてた。 日本語の本でニューラルネットプログラミングの参考書は ほとんど無いよね。「Cでつくるニューラルネットワーク」は かなり古いし(プログラム例がNEC98シリーズのDOS前提)
- 464 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 13:51:32 ]
- ニューラルネットワークって巷で数十年前から噂のエージェント指向もカバーしている?
- 465 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:02:14 ]
- >>464
エージェント指向なんて言葉は一部の人間(大したことないのに特別な名前を付けて特別な技術として売りたい人間) しか使っていないと思うが、意味している技術なら既に一般的に使われてるよ。
- 466 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:10:16 ]
- そういう意味ではニューラルネットワークも大したことないな
- 467 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:20:46 ]
- ああ、それからエージェント指向とニューラルネットは全くの別物。
- 468 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:08 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 469 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:23 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 470 名前:469 mailto:sage [2008/04/01(火) 15:37:40 ]
- いかん、二重カキコしちまった。
スマソ!
- 471 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:44:02 ]
- エージェント指向って言葉は4,5年前にちょこっと見かけたっきり最近は全く見なくなったね。
- 472 名前:エージェント指向 mailto:sage [2008/04/01(火) 15:48:14 ]
- みんなありがとう
確かにニューラルネットは意思決定とか行動決定の段階で使われる感じだったな エージェント指向はオブジェクト指向以上にわからんが,エージェント指向プログラミングならわかる人間でした
- 473 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 16:12:42 ]
- 1980年代の論文にAIとか人工知能とかファジーとかいう言葉が書かれてあると自分まで恥ずかしくなってくる。
- 474 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:40:36 ]
- それでも理系はまだマシだよ・・・
査読をかいくぐってポストと予算を獲得するのがプロの学者なんだろうな 頭のいい人間が衒学的なことをするんだから性質が悪い
- 475 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:46:26 ]
- 俺の事か
- 476 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 00:17:02 ]
- とゲーテ言い
- 477 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 01:17:10 ]
- >473
誰だって自分の書いた論文を後から読み直すと恥ずかしくなってくると思うが。 そういう羞恥心をある意味捨て去って(あるいは本当に偉大な研究をしてると 舞い上がって)論文を書き続けられないと職業的研究者になんかなれないのだ と思う。(俺は憧れだけ持ってて成れなかった口だが) 最近、一番自戒してるのは「こんな事は誰でも思いつくだろう」とか 「こんな研究は誰か既に実行していて成功/失敗してるだろう」と 勝手に決め込んで自分のアイデアを簡単に捨ててしまう事。
- 478 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 02:37:48 ]
- 確かに何気無く追求してみたら世界一や世界初だったって事はあるな。
- 479 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 03:52:08 ]
- 俺も経験あるわ。
- 480 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 08:19:22 ]
- 運
- 481 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 14:49:26 ]
- 子
- 482 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:37:17 ]
- 研究者畑ってそういう妄想に襲われるんだ・・・・なるほど
- 483 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:43:48 ]
- いや、マジで狭い世界では世界一になるのは簡単だからね。
- 484 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 04:21:44 ]
- うん
- 485 名前:デフォルトの名無しさん [2008/04/03(木) 14:04:08 ]
-
なんだ愚痴の書き込みスレになってるな。 日記じゃないんだからw
- 486 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 14:10:11 ]
- 便所の落書きに日記を書いて何がわるい
- 487 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 16:27:21 ]
- 何らかの意味で世界一あるいは世界初の研究を
ものにしない限り、博士号なんか取れないよね。 もちろん狭〜い範囲に限られた世界一が ほとんどなわけだが。
- 488 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 00:40:37 ]
- ところで複素ニューラルネットワークって何が嬉しいんだろう?
普通の(実数型)NNよりパラメータ数の割に能力が高いとしたら それはなぜなんだろうか?
- 489 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 17:25:55 ]
- >>488
興味深いですね。学生でもない素人ですが、 NNの肝は複雑さだと直観的に思えるので、 複素数を用いた方が複雑さが増していい結果を もたらすのではと思ってます。そもそも 学習したNNがなぜ知能があるように振る舞う のかということすらわかっていないわけで、 錬金術のごとく、ひたすらこねくり回すことが 大事なんじゃないかなと。
- 490 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:35:16 ]
- >学習したNNがなぜ知能があるように振る舞う
寡聞にして初耳だが
- 491 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:52:30 ]
- そっか
- 492 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:18:55 ]
- 知能の定義によりますね。
- 493 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:45:52 ]
- 「ように」ってのでどこまで許容するかにもよるな
- 494 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 15:33:58 ]
- 細胞性粘菌の振る舞いに知能があるように感じるかどうかも問題だな。
全体にベターッと広がってから最短経路に集まる様子には知性を感じない。
- 495 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 23:05:26 ]
- >>494
俺は489の書き込みにも知能は感じない
- 496 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 02:50:39 ]
- そもそも知能とは何なのか。
- 497 名前:デフォルトの名無しさん [2008/04/07(月) 13:27:32 ]
- 知能があるようにってのは
最初に意図してプログラムしていたのと違う結果を出す ってことだべ。
- 498 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 13:46:57 ]
- 知能とは何かなんて、知能なんて言葉を使わなければ考えなくていいよ。
だから、最近は論文に人工知能なんてタイトルを付ける人がいなくなったんだろ。
- 499 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 17:58:53 ]
- 自分の書いたプログラムが意図と異なる結果を出力したらそれが知能です。
- 500 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:39:25 ]
- それなんてバグ?
- 501 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:53:22 ]
- >>488
NNの節の数が増えるのと同じ効果が得られるだけじゃなかろうか?
- 502 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 02:10:40 ]
- 情報科学や工学的利用価値にしか関心のない
人からしたら知能なんてことを哲学的、科学的に 追求する必要ありませんからね。 >>501 よければそういう考察に至った経緯を教えて ください。
- 503 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:06:03 ]
- >501
それだと複素ニューラルネットワークに 特別な有り難みは何も無いと言う事になるね。 節を増やしたのと同じ効果しか得られないのなら。
- 504 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:28:25 ]
- 複素じゃなくても入力値又は出力値をを或る関数に通せばNN段階で学習する関数の形が簡単になって
汎化能力や精度がよくなる事があるのと同じ原理ではないかと予想
- 505 名前:デフォルトの名無しさん mailto:sage [2008/04/10(木) 11:54:29 ]
- NNの節数を2倍にすると複素ニューラルネットワークと同等のものは構築できる
複素数を使うこと=制約条件 になってるからその辺になにかいい事があるのかな?
- 506 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 02:45:59 ]
- 構築できるっていう根拠あるの?
先行研究なんかの論文があれば教えて欲しい
- 507 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 06:09:00 ]
- >506
二つの実数(実数のペア)に特定の演算ルール (演算ルールに対する制約条件)を課したものが すなわち複素数。 複素ニューラルネットワークもまた同じ。
- 508 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:22:08 ]
- >>507
ノード数が倍になることと関係ないね
- 509 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:42:06 ]
- >>508
iを虚数単位とする 複素NN 節α (x1+y1*i) 節β (x2+y2*i) α→β (a+b*i) であるとき β=(x1*a-y1*b)+(x1*b+y1*a)*i x2=x1*a-y1*b y2=x1*b+y1*a NN 節A x1 節B y1 節C x2 節D y2 A→C a A→D b B→C -b B→D a であるとき C=x2=x1*a-y1*b D=y2=x1*b+y1*a
- 510 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 13:26:17 ]
- >508
複素ニューラルネットワークがどんなものかまず調べなよ。 ググればたくさん見つかるよ。 www.kki.yamanashi.ac.jp/~masaki/koba_lab/complex.html など。
- 511 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 14:19:21 ]
- なるほど。
- 512 名前:デフォルトの名無しさん [2008/04/14(月) 12:04:00 ]
- ニューラルネットの基本的なことを質問させてください。
ニューラルネットとは、組み合わせが多すぎて到底 総当たりでは評価しきれない複数のパラメータがあるシステムの 中の最適なものを算出する手法 ということであっていますでしょうか? 何がいいたいかといいますと、株、先物のデータ分析(というか予想) に使っている人をみかけたのですが、 パラメータをたくさん用意して、最適解求めるのだと 過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
- 513 名前:デフォルトの名無しさん [2008/04/14(月) 13:11:32 ]
- あっていません
- 514 名前:デフォルトの名無しさん mailto:sage [2008/04/14(月) 14:56:48 ]
- >過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
これは、学習方法をどうするかにかかっているんだな カーブフィッティングさせるように学習させれば、そうなるし そうならないように工夫すれば、またそうなる。 学習とはそもそも何かと考えるハメになるのだ。
- 515 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 02:15:40 ]
- >514
過度の最適化に陥っているかどうかの判定は結局、新しい(未学習の) データを持ってきて評価させてみるしか無いのかね?
- 516 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 06:46:55 ]
- まずは「過度の最適化」を定義してみてくれ
そうすれば判定方法も自ずと明らかになるだろ
- 517 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 07:01:56 ]
- 過学習でググレよ。
- 518 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 13:54:47 ]
- >>515
もしそうすると、再びその「未学習」のデータに対して過度の最適化を始めるだけかと それもちょっと非効率なね、だから学習とは何かを考える必要がでてくると。
- 519 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:06:27 ]
- そのための cross validation だろ……jk
- 520 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:21:59 ]
- cross validation とは何をするものかという事をよく考えてみると、自滅していることに気づけるよ。
- 521 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:31:10 ]
- カーブフィッティングの問題は、ニューラルネットワークというよりはノンパラメトリック解析の難しさが表面化しているというのが実態かもしれない
そうなるとちょっとスレ違い気味だね。
- 522 名前:512 mailto:sage [2008/04/18(金) 01:04:24 ]
- レスありがとう。
ニューラルネットワークは全然詳しくないのでついていけないのですが、 ニューラルのキーが学習ならば、過学習がカギっぽいですね。 つきつめるとニューラルとは違う方面になっちゃうのかな? cross validation は、ぐぐってみたのですが、 株とか先物だと既存のデータを、推定と検証用に分けて検証するってことかな? システムトレードで言うバックテストデータと、フォワードテストデータをわけるということかな。
- 523 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 12:24:05 ]
- >>518
日本の品格を著しく下げている在日チョンや 在日チャンコロの排斥が必要なのは言うまでもないでしょう。 まずは東京から。石原閣下に期待です。 前述した残業代を要求して裁判を起こしたりしているのも、 ほとんどはその手の輩ですしね。 日本の国際競争力を低下させようと工作しているんでしょう。
- 524 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 16:34:03 ]
- >523
凄い誤爆だな。
- 525 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 17:42:54 ]
- >>523
石原?冗談じゃねぇよ、あの財政破綻野郎 新銀行東京の責任とらせて全財産没収にしろ 小泉復活キボンネ
- 526 名前:デフォルトの名無しさん mailto:sage [2008/04/21(月) 00:48:52 ]
- 財政破綻野郎ってw
破綻してたのをここまで回復させたのが石原だろ 美濃部とか青島とかのダメダメ都知事を知らんのか
- 527 名前:デフォルトの名無しさん mailto:sage [2008/04/24(木) 08:18:13 ]
- 入力層から隠れ層への重みの大きな入力が重要な入力と言うことになるんでしょうか?
- 528 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 17:55:55 ]
- ちょっと話題がそれるかもしれないけど
今日は天気が悪い 今日は非常に天気が良い という2つの項目がDBにあったとします 「今日は天気が良い」で検索した場合後者のほうが一致率が高いわけですが これを抽出するSQL文は書けますか? テーブル構成は自由に設計してもらってかまいません 単語毎に項目を分割格納してもいいです
- 529 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 21:08:00 ]
- >>528
>後者のほうが一致率が高いわけですが こういうことは「一致率」の定義をしていないから言えないんだよ。
- 530 名前:デフォルトの名無しさん mailto:sage [2008/04/28(月) 01:54:11 ]
- >>527
そういう考え方もあるけど 「重要な入力」をどう定義するかが問題で, 一般には「ある出力」に対する影響が大きなものだから 影響をきちんと計算すべき(非線型だから定数にはならない)
- 531 名前:デフォルトの名無しさん mailto:sage [2008/04/28(月) 09:08:51 ]
- >>529
この場合の一致率は一致する文字の数です 多くて余った分は無視 短い方の文の文字すべてが存在する場合は完全一致と判断します
- 532 名前:デフォルトの名無しさん mailto:sage [2008/04/29(火) 03:36:27 ]
- これは何かのクイズですか?
SQLでは難しいけど、NNならできます、というオチですか?
- 533 名前:デフォルトの名無しさん mailto:sage [2008/04/30(水) 00:46:33 ]
- >>531
それNNの使いどころが無いよ
- 534 名前:デフォルトの名無しさん mailto:sage [2008/05/01(木) 16:20:58 ]
- ついにやったぞ!
この技術は今のコンピュータを本質的に変えるかも知れない。 wiredvision.jp/news/200805/2008050123.html
- 535 名前:デフォルトの名無しさん mailto:sage [2008/05/02(金) 18:25:29 ]
- >>534
usbメモリサイズでnnの構造の書き込みと計算結果の出力が出来るものがあるといいな
- 536 名前:デフォルトの名無しさん mailto:sage [2008/05/02(金) 22:14:31 ]
- 二端子のアクティブ素子は皆淘汰されたからなぁ
メモリ以外の使い道は難しそう MRAMとどっちが早いか/速いか
- 537 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 03:23:38 ]
- 端子数の問題じゃ無いんじゃない?
どちらかと言うと現状のLSI技術に馴染んで集積化できるかどうか? もし可能なら本当にアナログニューロLSIチップや集積化した アナログコンピュータも夢じゃ無いと思う。 その際の演算部分はやっぱりOPアンプかな? あれってそんな集積化できたっけ?
- 538 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 14:50:06 ]
- 二端子アクティブ素子は回路/システム設計が難しい
トンネルダイオードやパラメトロンは当時としては非常に優れた素子だったが 信号を一方向に流す(入出力を分離する)ために三相クロックが必要で廃れた 今の回路技術なら何とかなるのかも知れないが アナログは(A級動作なので)消費電力が大きいのが大問題 上手くパルスorD級で使えればいいのだが
- 539 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 15:51:22 ]
- 隠れ層の数が多すぎる場合、学習の精度は良くても別のデータでの予測精度が悪くなったりするんでしょうか?
- 540 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 17:11:18 ]
- 悪くなったり良くなったりする
- 541 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 18:11:17 ]
- OpenCVのリファレンス(日本語版)をさらっと見ていたらNNに関する機能も提供しているようなことが書いてあったんですが、
使ってる人いたらNNのライブラリとしてどう思うか感想をお願いします。
- 542 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 20:25:56 ]
- >多すぎる場合
と書いてるんだから,多過ぎるかどうかの判定手段として訊いてるんじゃまいか 学習データにもよるが,一般的にはそう考えて構わない(overfitting)
- 543 名前:デフォルトの名無しさん mailto:sage [2008/05/09(金) 01:05:29 ]
- NNの並列化に関する情報
ちょうあい
- 544 名前:デフォルトの名無しさん mailto:sage [2008/05/09(金) 02:30:42 ]
- 意味不明
- 545 名前:デフォルトの名無しさん mailto:sage [2008/05/12(月) 23:07:55 ]
- >>541
OpenCVの物体検出関数で使ってるよ
|

|