- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 401 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 13:19:28 ]
- FRBの議長の失言とかもあるしなぁ
- 402 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 18:53:07 ]
- 考慮すべき要因が多すぎるし、影響力も定量的には計れない。
NNだけで扱いきるのはむりぽ。 NNとは別に、その辺の事象を十分に少ない特徴量で表現する研究の方が重要じゃね?
- 403 名前:デフォルトの名無しさん [2008/03/13(木) 18:58:19 ]
- 意味のある特徴量をGAとかで検出できたらいいかも
- 404 名前:デフォルトの名無しさん mailto:sage [2008/03/14(金) 05:53:51 ]
- >GAとかで検出
GAが何か分かって言ってる? PCAやAIC辺りなら兎も角
- 405 名前:デフォルトの名無しさん [2008/03/14(金) 19:35:33 ]
- >>395
素人目でみてなので 突っ込み希望なのですが、 >>395みたいなのって、結局のところ、 多数のパラメーターからニューラルネットで最適値を見つけるように見えます。 そうすると(株でも先物でもいいのですが)システムトレード的には、 パラメータが多くなればなるほど、 過度の最適化というか、カーブフィッティングのようになってしまい、 未来の予測(といっていいかわかりませんが・・・)をするには不適ではないかと思えてなりません。 これは、モデル化の方法などでカバーできる問題なのでしょうか?
- 406 名前:デフォルトの名無しさん mailto:sage [2008/03/15(土) 11:27:13 ]
- 入出力が実数とは限らない
機能を入出力とすると ほ〜ら
- 407 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 09:05:55 ]
- 誰かSSE,MMX,デゥアルコアに完全対応していて
なおかつ入力出力サイズが可変出来て状態保存の可能な NNのWindows Cライブラリを作ってくれまいかね いやもちろん細部はアセンブラで超高速なわけですが
- 408 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 13:34:29 ]
- >>407
仕様とアルゴリズムを決めてくれたら作ってもいいけど。
- 409 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 19:19:37 ]
- アルゴリズムは教師信号を持ったバックプロバケーション
構造は選択式 単位データは32bit整数 必要なメモリを確保する関数 ・入力信号の配列数 ・出力信号の配列数 を指定すると確保したメモリのポインタを返す 教師信号配列を渡す関数 学習する関数(同期型と非同期型) 実行する関数(学習したものを利用するだけ、同期型と非同期型) 非同期用コールバック 学習情報を取得する関数 ファイルの保存はあっても無くても良い あるなら圧縮保存出来ると良い ハードウェアアクセラレータは自動検出し最適なコードを実行する こんなんでどうでしょう?
- 410 名前:デフォルトの名無しさん mailto:sage [2008/03/17(月) 11:53:49 ]
- >>409
>教師信号を持ったバックプロバケーション このあたり、もう少し具体的に書いてくれ。 詳細な説明のあるサイトへのリンクでもいいし、サンプルコードでもいい。 当方最適化は得意だが、NNの知識が足らないので。
- 411 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 01:54:02 ]
- いろいろ調べてたらGPGPUのほうが早いらしいので却下w
- 412 名前:デフォルトの名無しさん [2008/03/18(火) 22:14:51 ]
- Cellも早いらしいぞ
- 413 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 02:14:41 ]
- 俺の方が早い
- 414 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 19:17:59 ]
- Cell B.E.でニューラルネットワークを実装した研究例ってあったっけ?
Cell&Neural Networkで検索してもCellular Neural Networkとか 細胞の方のCellとニューラルネットワーク関連の話しか出てこない。
- 415 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 08:02:36 ]
- お前らちょっと聞きますよ
バックプロパで重みをランダム修正するじゃない すべてのパターンで正常な結果が出たら完了じゃない これって古い学習結果をある程度保持したまま 随時新しいパターンを学習していくって方法はないのけ? 画像認識だとものすごい量の学習サンプルが一度に必要になるじゃない 随時で学習できればいいのにと思うのです そういうアルゴリズムってあるのですかね?
- 416 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 12:57:44 ]
- 多峰性とか局所最適解とか考えた上での発言・・・とは思えない
- 417 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 15:06:23 ]
- >415
BPで入力パターンが来る毎に少しずつ学習させていく手法は可能だし、 普通にあるよ。 参考: ttp://matrix.cs.ce.nihon-u.ac.jp/~matsui/research/bp/bp.html ttp://www.twcu.ac.jp/~asakawa/waseda2002/bp.pdf ただ、いつまでも学習させてると上の人も言ってるように 局所解とか過学習(般化能力の欠如)が問題になってくる。
- 418 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 22:11:26 ]
- >>414
去年、サクシスって学会で賞をもらってた人がやってたような気がする
- 419 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 00:20:30 ]
- >>416
ペッ >>417 ありがとう、そういうことです 過学習かどうかの判断は結局プログラム的には無理だから 人為的に止めることは考えてますとも
- 420 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 01:46:34 ]
- ニューラルネットって懐かしいな
その昔、甘利さんの本に二足歩行の最適化てのがあって憧れたんだが 今思うと嘘臭いよな。現実的な時間で収束すると思えないし 二足の自律歩行モデルなんて当時はロボティクスの人でも出来てないだろ
- 421 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 18:46:13 ]
- >420
反論したいんだが、何らかの根拠を示した反論ができない。 ちなみに二足歩行ではどうか知らないが、倒立振り子を ニューラルネットでうまく制御したと言う研究をかなり 昔にTV番組か何かで見たな。 傾き具合をカメラで検出しながらレールの上で台車を 左右に動かして制御する方式だったと思う。 (二足歩行よりはるかに簡単だったとは思うが)
- 422 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 19:16:44 ]
- 確かに倒立振子だと出来そうだけど、どう考えても解析的に解いたほうが良さそう
他の手法よりもニューラルネットが最も適するような問題って何かあるんだろうか それが見つからない&学術的につまんない->飽きられる->予算取れない->今に至る。で、あってる?
- 423 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 01:08:27 ]
- >422
倒立振り子のてっぺんに腕を付けてさらにその両端に小さな振り子を 付けたりしたら(つまりカオス振り子に仕立てたら)解析的に解いて 制御する事はもはやできんだろう。 ニューラルネットでうまく制御できるかどうか、やってみないと 分からないし、そんな事に何の意味があるのかと問われると困るが。
- 424 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 02:51:33 ]
- 解析的に解かなくても制御できるのがNNの利点なのだが
例えば人間の腕なんて解析しようにも必要なパラメタの測定が大変だし 一回測定してもどんどん変化しちゃうわけで
- 425 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 11:33:45 ]
- 人間の腕なんて解析して何に使うんだよ
- 426 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 13:23:32 ]
- >425
高度な義手あるいはロボットアームの開発
- 427 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 19:20:50 ]
- パラメタを測定してモデル化というのはバイオメカニクス的手法なんだろうが
それならニューラルネットを利用できるかも知れない やっぱりそれが最適とは思わんけど 運動学・動力学的な束縛を解く手法はここ10年程で物凄く進んでいる わざわざ不安材料の多いニューラルネットを導入する必要はないはず 倒立振子も3段の制御に成功したというのをどこかで見たがソース失念
- 428 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 20:57:47 ]
- 例えば家庭用あるいは介護用ロボットで物を扱う場合
対象の質量やモーメントを事前に測定しておくことはできない こういう物に対応させるには何らかのadaptiveな手法が必要 その一要素としてNNを使うのが現代的 NNだけでやれることは非常に限られるし
- 429 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 21:41:30 ]
- 高次元でグニャグニャ曲がった未知関数を近似したいと言う時、
バックプロパゲーション型のニューラルネットは有用だと思う。 特定の応用にどんなものがあるのかは良く知らんが。
- 430 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 22:43:48 ]
- >>428
学習したカテゴリに属さないお婆ちゃん(ってどんなのかは知らんけど)は放り投げられたりして。 まあ冗談だけど。 >>429は何か応用例があったら知りたい。 それでも解析的に解けない問題には数値演算(反復解法)があるし ニューラルネットとは違って計算を打ち切った時点なりの精度は得られる。
- 431 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:06:11 ]
- >430
数値演算で解くためにはともかく方程式を立てる必要があるでしょう? 微分方程式なり何なりの形で。 対象にしているシステムの性質に未知な部分が多くて、その方程式 自体が立てられないと言うような状況にニューラルネットは有用。 関数近似器になると言うのはそういう意味。 いったん近似できたら後はその極大値(極小値)を探すと言うような応用。
- 432 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:49:09 ]
- 対象となるシステムをじっくり観察して、それを単純で理解可能な
部品にまで分解し、次にそれら部品同士の関係を方程式で記述して システム全体を表現しようと言う(特に物理学などに)伝統的な 考え方がある。 いわゆるデカルトの還元主義。 それと正反対に内部の仕組みは良く分からないが、そのシステムの 入出力関係に着目してその動作を真似しようとか予測しようとか言う 考え方に立ってるのがニューラルネットその他の学習機械だと思う。
- 433 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:57:34 ]
- あ、把握しました。ありがとう。
>>420 これって共著が出村先生じゃないか。 それだったら出来たかも知れんね・・・
- 434 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:22:32 ]
- 私は読んだ事無いけど「脳とニューラルネット」って本の事を言ってる?
- 435 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:33:54 ]
- ググったらそれが出てきたんだが、題名は覚えてないんだわ。
時期的には多分。
- 436 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:38:16 ]
- 実際近似になってるのかね?
単なるハッシュデータベースと同じようなものの気がする それはそれで応用範囲はあるわけだけど そこんところが発展の妨げになってるな NNはただの情報蓄積装置だと考えると今応用されてるものが当然の結果だと分かるし それ以上が不可能だということも了解出来るだろ
- 437 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:43:53 ]
- 人間の脳は固定長じゃないんだよ
特定の作業を繰り返して情報量が増えると自動的に別の部位を加えるようになってる 目が見えない人は音声解析能力が飛躍的に上昇するのは目に使っていた領域を 耳に置き換えたからだ NNはそういうことを前提にしてないでしょ コンピューターでNNの領域を増やして安定させるってのは難しいだろうので 単純化するには単純に自動膨張タイプのマルコフ連鎖データベースにするのがいいだろう
- 438 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:46:02 ]
- ただマルコフだと近似算出に膨大な計算が必要になるんだよな
- 439 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 21:47:10 ]
- >436
どういう応用形態を前提に考えてるのか良く分からんが、 単なる(ハッシュでもなんでも)データベースなら訓練用データに 存在しない無いポイントの値を参照しようとしても不可能だろ? ニューラルネット(あるいは他の関数近似手法)なら データに無い途中や端にあるポイントの値も答えてくれる。 いわゆる般化能力。
- 440 名前:デフォルトの名無しさん [2008/03/29(土) 00:08:35 ]
- >437
>217で紹介されてるが「自己増殖型ニューラルネットワーク」 なんて物も考えられているらしい。 どういう物かあまり良くは知らないが、必要な箇所のニューロンを 増やして(増殖して)学習、識別能力を上げようと言う試みのようだ。
- 441 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 00:10:25 ]
- 間違えてアゲちまった、スマソ。
- 442 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 03:21:37 ]
- こう考えると分かりやすい
特定の文字列を与えるとSHA-1ハッシュを吐くNNを組んだら 確かにそれは実用的で実行速度はまじめに計算するより早い 記憶に無いデータも学習した計算方法からなんとなく答えを出す それ以上でもそれ以下でもなくただのハッシュ関数なんだよ 実用的な速度で動くし答えは適当だけどそこそこの正解率はある 途中の計算を省略したハッシュ関数みたいなもんだ
- 443 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 04:04:50 ]
- そこそこ正解率あるのかなぁ
あればあんまりいいハッシュ関数とは言えないような気も ちょっと気になり始めた
- 444 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 08:40:00 ]
- >442
オイオイ、そりゃニューラルネットをハッシュ値の 生成に使えばある種のハッシュ関数だろうさ。 だからと言ってニューラルネットを単なる ハッシュ関数の一種に過ぎないと言うのは暴論だろ? 例えば普通のハッシュ関数で連想記憶やパターン認識を 実現できるかい? それともデータの類似度を定義してそれを表現するような 特殊なハッシュ関数を想定してるのかな?
- 445 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 09:14:37 ]
- ちなみに(言うまでもない事だが)
ニューラルネットが関数近似器としてその実用性を 発揮するのは元となる関数が「未知」の場合だよ。 つまり入力データと出力データのセットのみ 与えられていて、その関係は不明な場合だ。 (そのような現象は現実に山のように存在する) 最初から関係が既知であるのなら その関数を使えば良いだけなのだから。
- 446 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 12:29:27 ]
- とりあえずfirst class objectって何なのか考えるといいよ
- 447 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 13:44:25 ]
- >446
何でプログラム言語の話が唐突に? 誤爆?
- 448 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:30:58 ]
- >>445
まさにその通り 関数が未知の場合にだけちょっとだけ役に立つ「アルゴリズム」の一種でしかない もっとわかりやすく考えよう SHA-1からキーを解読するNNを組んだとしよう むちゃくちゃ早いが正解率は低いw 一時しのぎの解決手段だな
- 449 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:34:40 ]
- 正確な解答を得るにはマルコフの統計をとるのが一番良い
ただこれは情報量がすさまじいことになる 最近のPCは大容量なんである程度はいけるだろう 問題は近似算出だな 大量にあるデータから一番近い2ペアを探しだしてその中間値を返す この計算量がばかでかい
- 450 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:35:59 ]
- 簡単に言えばだ
SHA-1の解読処理をしようと思ったら SHA-1ハッシュとキーのペアデータベースを作るのが一番早いし正確だろ?
- 451 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:17:38 ]
- 何でSHA-1ハッシュの解読処理にこだわってるんだ?
そういう厳密性を要求される処理にニューラルネットが 向いているとは始めから思えないし。
- 452 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:19:22 ]
- 誰もこだわってないよ?
- 453 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:23:48 ]
- じゃあ、ニューラルネットの適用課題としてはそもそも不適切。
(始めから向いていない応用)
- 454 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:31:24 ]
- ハッシュテーブルになぞらえるとは...パッチワークが正解だろ
あとill-posedな問題にも使えるという利点もある
- 455 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:46:29 ]
- >454
ill-posedな問題って何かと思ったら逆問題の事か。 で、「パッチワーク」ってどんな応用の事?
- 456 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 19:05:24 ]
- もしかすると電子透かしの話かな?
- 457 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 23:09:54 ]
- データマイニングや統計解析で使われているって本に書いてあったけど本当?
- 458 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 00:41:36 ]
- >>453
それが何か? そんな事はわかった上で話してるんだよ。
- 459 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 01:34:32 ]
- (話が低レベルだなぁ・・・)
- 460 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 02:57:44 ]
- (・∀・)クスクス
- 461 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 14:46:25 ]
- ああ、有袋類の猿みたいな生き物。
- 462 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 18:04:51 ]
- Ill-posedは不良設定問題
拘束条件が自由度より少なくて解が一意に決まらない(から解析的に解けない) しかしill-posedって言葉を知らないってことはNNの事を全然勉強してないんだな
- 463 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 20:17:43 ]
- >462
Thanks. ニューラルネットの事は確かに大して勉強してないが、 俺の持ってる(唯一読んでる)ちょっと古い本には "ill-posed"なんて用語は載ってないんだよ、 "逆問題"なら載ってるが(洋書じゃないし)。 (大学等で真剣に勉強した人にはとても適わないぜ) ところで誰か、"Practical Neural Network Recipes in C++" と言う本持ってる人(or 読んだ事のある人)居る? いろんなニューラルネットのプログラム例が載ってるらしい のだが分かりやすいかな? 本屋で偶々「ゲーム開発者のためのAI入門」と言う本を見かけたので 読んでみたらニューラルネットのプログラミングの参考文献として 薦められてた。 日本語の本でニューラルネットプログラミングの参考書は ほとんど無いよね。「Cでつくるニューラルネットワーク」は かなり古いし(プログラム例がNEC98シリーズのDOS前提)
- 464 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 13:51:32 ]
- ニューラルネットワークって巷で数十年前から噂のエージェント指向もカバーしている?
- 465 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:02:14 ]
- >>464
エージェント指向なんて言葉は一部の人間(大したことないのに特別な名前を付けて特別な技術として売りたい人間) しか使っていないと思うが、意味している技術なら既に一般的に使われてるよ。
- 466 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:10:16 ]
- そういう意味ではニューラルネットワークも大したことないな
- 467 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:20:46 ]
- ああ、それからエージェント指向とニューラルネットは全くの別物。
- 468 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:08 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 469 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:23 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 470 名前:469 mailto:sage [2008/04/01(火) 15:37:40 ]
- いかん、二重カキコしちまった。
スマソ!
- 471 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:44:02 ]
- エージェント指向って言葉は4,5年前にちょこっと見かけたっきり最近は全く見なくなったね。
- 472 名前:エージェント指向 mailto:sage [2008/04/01(火) 15:48:14 ]
- みんなありがとう
確かにニューラルネットは意思決定とか行動決定の段階で使われる感じだったな エージェント指向はオブジェクト指向以上にわからんが,エージェント指向プログラミングならわかる人間でした
- 473 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 16:12:42 ]
- 1980年代の論文にAIとか人工知能とかファジーとかいう言葉が書かれてあると自分まで恥ずかしくなってくる。
- 474 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:40:36 ]
- それでも理系はまだマシだよ・・・
査読をかいくぐってポストと予算を獲得するのがプロの学者なんだろうな 頭のいい人間が衒学的なことをするんだから性質が悪い
- 475 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:46:26 ]
- 俺の事か
- 476 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 00:17:02 ]
- とゲーテ言い
- 477 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 01:17:10 ]
- >473
誰だって自分の書いた論文を後から読み直すと恥ずかしくなってくると思うが。 そういう羞恥心をある意味捨て去って(あるいは本当に偉大な研究をしてると 舞い上がって)論文を書き続けられないと職業的研究者になんかなれないのだ と思う。(俺は憧れだけ持ってて成れなかった口だが) 最近、一番自戒してるのは「こんな事は誰でも思いつくだろう」とか 「こんな研究は誰か既に実行していて成功/失敗してるだろう」と 勝手に決め込んで自分のアイデアを簡単に捨ててしまう事。
- 478 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 02:37:48 ]
- 確かに何気無く追求してみたら世界一や世界初だったって事はあるな。
- 479 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 03:52:08 ]
- 俺も経験あるわ。
- 480 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 08:19:22 ]
- 運
- 481 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 14:49:26 ]
- 子
- 482 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:37:17 ]
- 研究者畑ってそういう妄想に襲われるんだ・・・・なるほど
- 483 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:43:48 ]
- いや、マジで狭い世界では世界一になるのは簡単だからね。
- 484 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 04:21:44 ]
- うん
- 485 名前:デフォルトの名無しさん [2008/04/03(木) 14:04:08 ]
-
なんだ愚痴の書き込みスレになってるな。 日記じゃないんだからw
- 486 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 14:10:11 ]
- 便所の落書きに日記を書いて何がわるい
- 487 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 16:27:21 ]
- 何らかの意味で世界一あるいは世界初の研究を
ものにしない限り、博士号なんか取れないよね。 もちろん狭〜い範囲に限られた世界一が ほとんどなわけだが。
- 488 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 00:40:37 ]
- ところで複素ニューラルネットワークって何が嬉しいんだろう?
普通の(実数型)NNよりパラメータ数の割に能力が高いとしたら それはなぜなんだろうか?
- 489 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 17:25:55 ]
- >>488
興味深いですね。学生でもない素人ですが、 NNの肝は複雑さだと直観的に思えるので、 複素数を用いた方が複雑さが増していい結果を もたらすのではと思ってます。そもそも 学習したNNがなぜ知能があるように振る舞う のかということすらわかっていないわけで、 錬金術のごとく、ひたすらこねくり回すことが 大事なんじゃないかなと。
- 490 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:35:16 ]
- >学習したNNがなぜ知能があるように振る舞う
寡聞にして初耳だが
- 491 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:52:30 ]
- そっか
- 492 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:18:55 ]
- 知能の定義によりますね。
- 493 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:45:52 ]
- 「ように」ってのでどこまで許容するかにもよるな
- 494 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 15:33:58 ]
- 細胞性粘菌の振る舞いに知能があるように感じるかどうかも問題だな。
全体にベターッと広がってから最短経路に集まる様子には知性を感じない。
- 495 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 23:05:26 ]
- >>494
俺は489の書き込みにも知能は感じない
- 496 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 02:50:39 ]
- そもそも知能とは何なのか。
- 497 名前:デフォルトの名無しさん [2008/04/07(月) 13:27:32 ]
- 知能があるようにってのは
最初に意図してプログラムしていたのと違う結果を出す ってことだべ。
- 498 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 13:46:57 ]
- 知能とは何かなんて、知能なんて言葉を使わなければ考えなくていいよ。
だから、最近は論文に人工知能なんてタイトルを付ける人がいなくなったんだろ。
- 499 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 17:58:53 ]
- 自分の書いたプログラムが意図と異なる結果を出力したらそれが知能です。
- 500 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:39:25 ]
- それなんてバグ?
|

|