- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 428 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 20:57:47 ]
- 例えば家庭用あるいは介護用ロボットで物を扱う場合
対象の質量やモーメントを事前に測定しておくことはできない こういう物に対応させるには何らかのadaptiveな手法が必要 その一要素としてNNを使うのが現代的 NNだけでやれることは非常に限られるし
- 429 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 21:41:30 ]
- 高次元でグニャグニャ曲がった未知関数を近似したいと言う時、
バックプロパゲーション型のニューラルネットは有用だと思う。 特定の応用にどんなものがあるのかは良く知らんが。
- 430 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 22:43:48 ]
- >>428
学習したカテゴリに属さないお婆ちゃん(ってどんなのかは知らんけど)は放り投げられたりして。 まあ冗談だけど。 >>429は何か応用例があったら知りたい。 それでも解析的に解けない問題には数値演算(反復解法)があるし ニューラルネットとは違って計算を打ち切った時点なりの精度は得られる。
- 431 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:06:11 ]
- >430
数値演算で解くためにはともかく方程式を立てる必要があるでしょう? 微分方程式なり何なりの形で。 対象にしているシステムの性質に未知な部分が多くて、その方程式 自体が立てられないと言うような状況にニューラルネットは有用。 関数近似器になると言うのはそういう意味。 いったん近似できたら後はその極大値(極小値)を探すと言うような応用。
- 432 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:49:09 ]
- 対象となるシステムをじっくり観察して、それを単純で理解可能な
部品にまで分解し、次にそれら部品同士の関係を方程式で記述して システム全体を表現しようと言う(特に物理学などに)伝統的な 考え方がある。 いわゆるデカルトの還元主義。 それと正反対に内部の仕組みは良く分からないが、そのシステムの 入出力関係に着目してその動作を真似しようとか予測しようとか言う 考え方に立ってるのがニューラルネットその他の学習機械だと思う。
- 433 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:57:34 ]
- あ、把握しました。ありがとう。
>>420 これって共著が出村先生じゃないか。 それだったら出来たかも知れんね・・・
- 434 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:22:32 ]
- 私は読んだ事無いけど「脳とニューラルネット」って本の事を言ってる?
- 435 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:33:54 ]
- ググったらそれが出てきたんだが、題名は覚えてないんだわ。
時期的には多分。
- 436 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:38:16 ]
- 実際近似になってるのかね?
単なるハッシュデータベースと同じようなものの気がする それはそれで応用範囲はあるわけだけど そこんところが発展の妨げになってるな NNはただの情報蓄積装置だと考えると今応用されてるものが当然の結果だと分かるし それ以上が不可能だということも了解出来るだろ
- 437 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:43:53 ]
- 人間の脳は固定長じゃないんだよ
特定の作業を繰り返して情報量が増えると自動的に別の部位を加えるようになってる 目が見えない人は音声解析能力が飛躍的に上昇するのは目に使っていた領域を 耳に置き換えたからだ NNはそういうことを前提にしてないでしょ コンピューターでNNの領域を増やして安定させるってのは難しいだろうので 単純化するには単純に自動膨張タイプのマルコフ連鎖データベースにするのがいいだろう
- 438 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:46:02 ]
- ただマルコフだと近似算出に膨大な計算が必要になるんだよな
- 439 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 21:47:10 ]
- >436
どういう応用形態を前提に考えてるのか良く分からんが、 単なる(ハッシュでもなんでも)データベースなら訓練用データに 存在しない無いポイントの値を参照しようとしても不可能だろ? ニューラルネット(あるいは他の関数近似手法)なら データに無い途中や端にあるポイントの値も答えてくれる。 いわゆる般化能力。
- 440 名前:デフォルトの名無しさん [2008/03/29(土) 00:08:35 ]
- >437
>217で紹介されてるが「自己増殖型ニューラルネットワーク」 なんて物も考えられているらしい。 どういう物かあまり良くは知らないが、必要な箇所のニューロンを 増やして(増殖して)学習、識別能力を上げようと言う試みのようだ。
- 441 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 00:10:25 ]
- 間違えてアゲちまった、スマソ。
- 442 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 03:21:37 ]
- こう考えると分かりやすい
特定の文字列を与えるとSHA-1ハッシュを吐くNNを組んだら 確かにそれは実用的で実行速度はまじめに計算するより早い 記憶に無いデータも学習した計算方法からなんとなく答えを出す それ以上でもそれ以下でもなくただのハッシュ関数なんだよ 実用的な速度で動くし答えは適当だけどそこそこの正解率はある 途中の計算を省略したハッシュ関数みたいなもんだ
- 443 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 04:04:50 ]
- そこそこ正解率あるのかなぁ
あればあんまりいいハッシュ関数とは言えないような気も ちょっと気になり始めた
- 444 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 08:40:00 ]
- >442
オイオイ、そりゃニューラルネットをハッシュ値の 生成に使えばある種のハッシュ関数だろうさ。 だからと言ってニューラルネットを単なる ハッシュ関数の一種に過ぎないと言うのは暴論だろ? 例えば普通のハッシュ関数で連想記憶やパターン認識を 実現できるかい? それともデータの類似度を定義してそれを表現するような 特殊なハッシュ関数を想定してるのかな?
- 445 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 09:14:37 ]
- ちなみに(言うまでもない事だが)
ニューラルネットが関数近似器としてその実用性を 発揮するのは元となる関数が「未知」の場合だよ。 つまり入力データと出力データのセットのみ 与えられていて、その関係は不明な場合だ。 (そのような現象は現実に山のように存在する) 最初から関係が既知であるのなら その関数を使えば良いだけなのだから。
- 446 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 12:29:27 ]
- とりあえずfirst class objectって何なのか考えるといいよ
- 447 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 13:44:25 ]
- >446
何でプログラム言語の話が唐突に? 誤爆?
- 448 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:30:58 ]
- >>445
まさにその通り 関数が未知の場合にだけちょっとだけ役に立つ「アルゴリズム」の一種でしかない もっとわかりやすく考えよう SHA-1からキーを解読するNNを組んだとしよう むちゃくちゃ早いが正解率は低いw 一時しのぎの解決手段だな
- 449 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:34:40 ]
- 正確な解答を得るにはマルコフの統計をとるのが一番良い
ただこれは情報量がすさまじいことになる 最近のPCは大容量なんである程度はいけるだろう 問題は近似算出だな 大量にあるデータから一番近い2ペアを探しだしてその中間値を返す この計算量がばかでかい
- 450 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:35:59 ]
- 簡単に言えばだ
SHA-1の解読処理をしようと思ったら SHA-1ハッシュとキーのペアデータベースを作るのが一番早いし正確だろ?
- 451 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:17:38 ]
- 何でSHA-1ハッシュの解読処理にこだわってるんだ?
そういう厳密性を要求される処理にニューラルネットが 向いているとは始めから思えないし。
- 452 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:19:22 ]
- 誰もこだわってないよ?
- 453 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:23:48 ]
- じゃあ、ニューラルネットの適用課題としてはそもそも不適切。
(始めから向いていない応用)
- 454 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:31:24 ]
- ハッシュテーブルになぞらえるとは...パッチワークが正解だろ
あとill-posedな問題にも使えるという利点もある
- 455 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:46:29 ]
- >454
ill-posedな問題って何かと思ったら逆問題の事か。 で、「パッチワーク」ってどんな応用の事?
- 456 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 19:05:24 ]
- もしかすると電子透かしの話かな?
- 457 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 23:09:54 ]
- データマイニングや統計解析で使われているって本に書いてあったけど本当?
- 458 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 00:41:36 ]
- >>453
それが何か? そんな事はわかった上で話してるんだよ。
- 459 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 01:34:32 ]
- (話が低レベルだなぁ・・・)
- 460 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 02:57:44 ]
- (・∀・)クスクス
- 461 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 14:46:25 ]
- ああ、有袋類の猿みたいな生き物。
- 462 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 18:04:51 ]
- Ill-posedは不良設定問題
拘束条件が自由度より少なくて解が一意に決まらない(から解析的に解けない) しかしill-posedって言葉を知らないってことはNNの事を全然勉強してないんだな
- 463 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 20:17:43 ]
- >462
Thanks. ニューラルネットの事は確かに大して勉強してないが、 俺の持ってる(唯一読んでる)ちょっと古い本には "ill-posed"なんて用語は載ってないんだよ、 "逆問題"なら載ってるが(洋書じゃないし)。 (大学等で真剣に勉強した人にはとても適わないぜ) ところで誰か、"Practical Neural Network Recipes in C++" と言う本持ってる人(or 読んだ事のある人)居る? いろんなニューラルネットのプログラム例が載ってるらしい のだが分かりやすいかな? 本屋で偶々「ゲーム開発者のためのAI入門」と言う本を見かけたので 読んでみたらニューラルネットのプログラミングの参考文献として 薦められてた。 日本語の本でニューラルネットプログラミングの参考書は ほとんど無いよね。「Cでつくるニューラルネットワーク」は かなり古いし(プログラム例がNEC98シリーズのDOS前提)
- 464 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 13:51:32 ]
- ニューラルネットワークって巷で数十年前から噂のエージェント指向もカバーしている?
- 465 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:02:14 ]
- >>464
エージェント指向なんて言葉は一部の人間(大したことないのに特別な名前を付けて特別な技術として売りたい人間) しか使っていないと思うが、意味している技術なら既に一般的に使われてるよ。
- 466 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:10:16 ]
- そういう意味ではニューラルネットワークも大したことないな
- 467 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:20:46 ]
- ああ、それからエージェント指向とニューラルネットは全くの別物。
- 468 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:08 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 469 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:23 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 470 名前:469 mailto:sage [2008/04/01(火) 15:37:40 ]
- いかん、二重カキコしちまった。
スマソ!
- 471 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:44:02 ]
- エージェント指向って言葉は4,5年前にちょこっと見かけたっきり最近は全く見なくなったね。
- 472 名前:エージェント指向 mailto:sage [2008/04/01(火) 15:48:14 ]
- みんなありがとう
確かにニューラルネットは意思決定とか行動決定の段階で使われる感じだったな エージェント指向はオブジェクト指向以上にわからんが,エージェント指向プログラミングならわかる人間でした
- 473 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 16:12:42 ]
- 1980年代の論文にAIとか人工知能とかファジーとかいう言葉が書かれてあると自分まで恥ずかしくなってくる。
- 474 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:40:36 ]
- それでも理系はまだマシだよ・・・
査読をかいくぐってポストと予算を獲得するのがプロの学者なんだろうな 頭のいい人間が衒学的なことをするんだから性質が悪い
- 475 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:46:26 ]
- 俺の事か
- 476 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 00:17:02 ]
- とゲーテ言い
- 477 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 01:17:10 ]
- >473
誰だって自分の書いた論文を後から読み直すと恥ずかしくなってくると思うが。 そういう羞恥心をある意味捨て去って(あるいは本当に偉大な研究をしてると 舞い上がって)論文を書き続けられないと職業的研究者になんかなれないのだ と思う。(俺は憧れだけ持ってて成れなかった口だが) 最近、一番自戒してるのは「こんな事は誰でも思いつくだろう」とか 「こんな研究は誰か既に実行していて成功/失敗してるだろう」と 勝手に決め込んで自分のアイデアを簡単に捨ててしまう事。
- 478 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 02:37:48 ]
- 確かに何気無く追求してみたら世界一や世界初だったって事はあるな。
- 479 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 03:52:08 ]
- 俺も経験あるわ。
- 480 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 08:19:22 ]
- 運
- 481 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 14:49:26 ]
- 子
- 482 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:37:17 ]
- 研究者畑ってそういう妄想に襲われるんだ・・・・なるほど
- 483 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:43:48 ]
- いや、マジで狭い世界では世界一になるのは簡単だからね。
- 484 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 04:21:44 ]
- うん
- 485 名前:デフォルトの名無しさん [2008/04/03(木) 14:04:08 ]
-
なんだ愚痴の書き込みスレになってるな。 日記じゃないんだからw
- 486 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 14:10:11 ]
- 便所の落書きに日記を書いて何がわるい
- 487 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 16:27:21 ]
- 何らかの意味で世界一あるいは世界初の研究を
ものにしない限り、博士号なんか取れないよね。 もちろん狭〜い範囲に限られた世界一が ほとんどなわけだが。
- 488 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 00:40:37 ]
- ところで複素ニューラルネットワークって何が嬉しいんだろう?
普通の(実数型)NNよりパラメータ数の割に能力が高いとしたら それはなぜなんだろうか?
- 489 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 17:25:55 ]
- >>488
興味深いですね。学生でもない素人ですが、 NNの肝は複雑さだと直観的に思えるので、 複素数を用いた方が複雑さが増していい結果を もたらすのではと思ってます。そもそも 学習したNNがなぜ知能があるように振る舞う のかということすらわかっていないわけで、 錬金術のごとく、ひたすらこねくり回すことが 大事なんじゃないかなと。
- 490 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:35:16 ]
- >学習したNNがなぜ知能があるように振る舞う
寡聞にして初耳だが
- 491 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:52:30 ]
- そっか
- 492 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:18:55 ]
- 知能の定義によりますね。
- 493 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:45:52 ]
- 「ように」ってのでどこまで許容するかにもよるな
- 494 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 15:33:58 ]
- 細胞性粘菌の振る舞いに知能があるように感じるかどうかも問題だな。
全体にベターッと広がってから最短経路に集まる様子には知性を感じない。
- 495 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 23:05:26 ]
- >>494
俺は489の書き込みにも知能は感じない
- 496 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 02:50:39 ]
- そもそも知能とは何なのか。
- 497 名前:デフォルトの名無しさん [2008/04/07(月) 13:27:32 ]
- 知能があるようにってのは
最初に意図してプログラムしていたのと違う結果を出す ってことだべ。
- 498 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 13:46:57 ]
- 知能とは何かなんて、知能なんて言葉を使わなければ考えなくていいよ。
だから、最近は論文に人工知能なんてタイトルを付ける人がいなくなったんだろ。
- 499 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 17:58:53 ]
- 自分の書いたプログラムが意図と異なる結果を出力したらそれが知能です。
- 500 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:39:25 ]
- それなんてバグ?
- 501 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:53:22 ]
- >>488
NNの節の数が増えるのと同じ効果が得られるだけじゃなかろうか?
- 502 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 02:10:40 ]
- 情報科学や工学的利用価値にしか関心のない
人からしたら知能なんてことを哲学的、科学的に 追求する必要ありませんからね。 >>501 よければそういう考察に至った経緯を教えて ください。
- 503 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:06:03 ]
- >501
それだと複素ニューラルネットワークに 特別な有り難みは何も無いと言う事になるね。 節を増やしたのと同じ効果しか得られないのなら。
- 504 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:28:25 ]
- 複素じゃなくても入力値又は出力値をを或る関数に通せばNN段階で学習する関数の形が簡単になって
汎化能力や精度がよくなる事があるのと同じ原理ではないかと予想
- 505 名前:デフォルトの名無しさん mailto:sage [2008/04/10(木) 11:54:29 ]
- NNの節数を2倍にすると複素ニューラルネットワークと同等のものは構築できる
複素数を使うこと=制約条件 になってるからその辺になにかいい事があるのかな?
- 506 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 02:45:59 ]
- 構築できるっていう根拠あるの?
先行研究なんかの論文があれば教えて欲しい
- 507 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 06:09:00 ]
- >506
二つの実数(実数のペア)に特定の演算ルール (演算ルールに対する制約条件)を課したものが すなわち複素数。 複素ニューラルネットワークもまた同じ。
- 508 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:22:08 ]
- >>507
ノード数が倍になることと関係ないね
- 509 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:42:06 ]
- >>508
iを虚数単位とする 複素NN 節α (x1+y1*i) 節β (x2+y2*i) α→β (a+b*i) であるとき β=(x1*a-y1*b)+(x1*b+y1*a)*i x2=x1*a-y1*b y2=x1*b+y1*a NN 節A x1 節B y1 節C x2 節D y2 A→C a A→D b B→C -b B→D a であるとき C=x2=x1*a-y1*b D=y2=x1*b+y1*a
- 510 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 13:26:17 ]
- >508
複素ニューラルネットワークがどんなものかまず調べなよ。 ググればたくさん見つかるよ。 www.kki.yamanashi.ac.jp/~masaki/koba_lab/complex.html など。
- 511 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 14:19:21 ]
- なるほど。
- 512 名前:デフォルトの名無しさん [2008/04/14(月) 12:04:00 ]
- ニューラルネットの基本的なことを質問させてください。
ニューラルネットとは、組み合わせが多すぎて到底 総当たりでは評価しきれない複数のパラメータがあるシステムの 中の最適なものを算出する手法 ということであっていますでしょうか? 何がいいたいかといいますと、株、先物のデータ分析(というか予想) に使っている人をみかけたのですが、 パラメータをたくさん用意して、最適解求めるのだと 過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
- 513 名前:デフォルトの名無しさん [2008/04/14(月) 13:11:32 ]
- あっていません
- 514 名前:デフォルトの名無しさん mailto:sage [2008/04/14(月) 14:56:48 ]
- >過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
これは、学習方法をどうするかにかかっているんだな カーブフィッティングさせるように学習させれば、そうなるし そうならないように工夫すれば、またそうなる。 学習とはそもそも何かと考えるハメになるのだ。
- 515 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 02:15:40 ]
- >514
過度の最適化に陥っているかどうかの判定は結局、新しい(未学習の) データを持ってきて評価させてみるしか無いのかね?
- 516 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 06:46:55 ]
- まずは「過度の最適化」を定義してみてくれ
そうすれば判定方法も自ずと明らかになるだろ
- 517 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 07:01:56 ]
- 過学習でググレよ。
- 518 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 13:54:47 ]
- >>515
もしそうすると、再びその「未学習」のデータに対して過度の最適化を始めるだけかと それもちょっと非効率なね、だから学習とは何かを考える必要がでてくると。
- 519 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:06:27 ]
- そのための cross validation だろ……jk
- 520 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:21:59 ]
- cross validation とは何をするものかという事をよく考えてみると、自滅していることに気づけるよ。
- 521 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:31:10 ]
- カーブフィッティングの問題は、ニューラルネットワークというよりはノンパラメトリック解析の難しさが表面化しているというのが実態かもしれない
そうなるとちょっとスレ違い気味だね。
- 522 名前:512 mailto:sage [2008/04/18(金) 01:04:24 ]
- レスありがとう。
ニューラルネットワークは全然詳しくないのでついていけないのですが、 ニューラルのキーが学習ならば、過学習がカギっぽいですね。 つきつめるとニューラルとは違う方面になっちゃうのかな? cross validation は、ぐぐってみたのですが、 株とか先物だと既存のデータを、推定と検証用に分けて検証するってことかな? システムトレードで言うバックテストデータと、フォワードテストデータをわけるということかな。
- 523 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 12:24:05 ]
- >>518
日本の品格を著しく下げている在日チョンや 在日チャンコロの排斥が必要なのは言うまでもないでしょう。 まずは東京から。石原閣下に期待です。 前述した残業代を要求して裁判を起こしたりしているのも、 ほとんどはその手の輩ですしね。 日本の国際競争力を低下させようと工作しているんでしょう。
- 524 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 16:34:03 ]
- >523
凄い誤爆だな。
- 525 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 17:42:54 ]
- >>523
石原?冗談じゃねぇよ、あの財政破綻野郎 新銀行東京の責任とらせて全財産没収にしろ 小泉復活キボンネ
- 526 名前:デフォルトの名無しさん mailto:sage [2008/04/21(月) 00:48:52 ]
- 財政破綻野郎ってw
破綻してたのをここまで回復させたのが石原だろ 美濃部とか青島とかのダメダメ都知事を知らんのか
- 527 名前:デフォルトの名無しさん mailto:sage [2008/04/24(木) 08:18:13 ]
- 入力層から隠れ層への重みの大きな入力が重要な入力と言うことになるんでしょうか?
- 528 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 17:55:55 ]
- ちょっと話題がそれるかもしれないけど
今日は天気が悪い 今日は非常に天気が良い という2つの項目がDBにあったとします 「今日は天気が良い」で検索した場合後者のほうが一致率が高いわけですが これを抽出するSQL文は書けますか? テーブル構成は自由に設計してもらってかまいません 単語毎に項目を分割格納してもいいです
|

|