- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 369 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:16:18 ]
- ニューラルネットにとって時間の推移(時間発展)は
本質的だと思うけどな。 そういう意味で(副作用の無い)関数とは全く異なる。 そう言えば「副作用」って大抵、時間に関係してるな。 「時間」の推移による変化も完全に記述できる「述語論理」が まだ発明されていないと言うのが大きいのかな?
- 370 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:33:04 ]
- >>369
たとえば、Haskellの場合はIOモナドに処理手順を閉じ込めてしまえば、main関数の終了時に順番に実行してくれる。 遅延評価だから、停止しない処理も記述可能。 1ms毎に関数を無限に適用し続けるといった処理も(言語仕様上では)副作用なしに記述可能。
- 371 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:55:17 ]
- >>369
たしかに、そうだな。 仕様記述言語のZという言語を研究で使ったことがあるが、たしかに時間に関する記述はできなかった。
- 372 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 11:15:48 ]
- >370
うん。 しかしHaskelの場合であっても時間による副作用を 全てI/O処理(言語仕様の外側)に閉じこめているだけであって、 時間発展(副作用)のある系の記述を無い系の記述に 全て変換してしまえるわけじゃないだろう?
- 373 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 11:27:57 ]
- >>370
時間見てワロタ お前いつ寝てんの?w
- 374 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 12:17:46 ]
- 結論として
「副作用の全く無い関数型言語のみで記述できるアルゴリズムでは 時間発展のある系の完全なコントロールはできない」のだと思う。 コントロールしようとするとどうしても アルゴリズムの中のどこかで副作用を意識せざるを得ない。
- 375 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 12:58:42 ]
- >367の間違いはニューラルネットの重み付け更新
(NNの推移)はその出力に依存する事を忘れている事だと思う。 即ちNNの機能は処理の時間的順序関係に強く依存している。
- 376 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 14:24:56 ]
- 昔々,Prolog で I/O もバックトラックしたら
という話を思い出した
- 377 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 16:48:58 ]
- ちょっと訂正
>375は「NNの推移はその入力に依存する」がより正しいな。 入力がすべて既知とするなら出力は先に計算できるわけだから。 提示される未知の入力に対して(その一部を)記憶し 適応するからこそ時間依存の(時間で発展する)系なわけだ。
- 378 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 17:58:01 ]
- もうひとつ結論
「記憶し、学習し、適応する」=「副作用」
- 379 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:05:32 ]
- 結局、NNのデータ構造はグラフってことでOK?
- 380 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:35:19 ]
- >379
いき値固定でかつ各ニューロンの情報処理(計算)機能を 省略して表現するなら。 また静的な重み付きグラフならある時点での (データ構造の)スナップショットと言う事になるな。
- 381 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:58:18 ]
- それNNじゃないしw
- 382 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 21:39:53 ]
- もちろん静的重み付きグラフはニューラルネットそのものではない。
ただし処理のアルゴリズムとは区分されたデータ構造では有りうる。 条件付きでだが。
- 383 名前:360 mailto:sage [2008/02/08(金) 21:47:24 ]
- ノードのラベルに閾値を割り当てればいいですか?
- 384 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 22:14:39 ]
- >383
純理論的にはそう思うけど。 ただBPとか実装しようと思うと他にもいろんな変数を使う必要が出てくると思う。 各ニューロン毎に保持したり、恒常的に保持する必要は無い変数だろうけど。
- 385 名前:360 mailto:sage [2008/02/08(金) 22:27:23 ]
- >>384
その点は問題ないと思いますよ。 ノードのラベルの型を代数的データ型にするか、ペアで表現すればよいと思います。
- 386 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 19:08:28 ]
- 学習によって全体的な誤差を小さくしていくと、最大の誤差は逆に増えていくのですが
この問題を解決する手法って何かありませんか?
- 387 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 20:16:45 ]
- 全体的な誤差って何? 最大の誤差って何?
解決って具体的にどういうこと?
- 388 名前:デフォルトの名無しさん mailto:sage [2008/02/10(日) 14:44:32 ]
- 総誤差関数の値が小さくなるように学習を続けると
特定の入力バターン(誤差が最大のもの)に対する誤差が 逆に大きくなると言う事でしょう。 その入力だけ元々パターンから外れている (ノイズが乗っている)て事は無いのかな?
- 389 名前:デフォルトの名無しさん mailto:sage [2008/02/10(日) 15:14:01 ]
- 解決したいってのが,
それも含めてフィットさせたい ってことなら考え直した方がいい
- 390 名前:デフォルトの名無しさん mailto:sage [2008/03/06(木) 23:30:51 ]
- ちょっと前にGPU(GPGPU?)使ってNN動かしたって人がいたけど、
世間的にもそういう動きがあるみたいだね。 GPGPUのキラーアプリケーションは「グラフィックス」 − @IT www.atmarkit.co.jp/news/200803/06/cuda.html 早めにフレームワークでも一つ作っておけば広く普及するかも。
- 391 名前:デフォルトの名無しさん [2008/03/08(土) 20:36:24 ]
- ニューラルネットを使った株価予想って具体的にどうやってるんですか?
- 392 名前:デフォルトの名無しさん mailto:sage [2008/03/08(土) 21:03:05 ]
- 現在から過去何単位時間かの株価の推移の情報を入力し、次の単位時間での株価を出力
- 393 名前:デフォルトの名無しさん [2008/03/08(土) 22:46:50 ]
- >392
なるほど、ありがとうございましたm(_ _)m
- 394 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 05:18:37 ]
- >>392
随分といい加減なwww
- 395 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 20:18:38 ]
- >391
共立の「ニューラルネットの基礎と応用」と言う本に「株価予測への応用」 と言う節があって、ほんの10ページくらいだが著者の一人(馬場則夫氏)が 作ったシステムが紹介されている。 それによると入力変数は X1:前日の終値 X2:前日の変化 X3:昨日の出来高/1週間前の出来高平均 x4:昨日の出来高/先月の出来高平均 X5:出来高変化 X6:今年の最高値- 前日の終値 X7:(前日の終値 - 3年前までの最安値)/(3年前までの最高値-3年前までの最安値) X8:50-PER X9:株主資本変化 X10:一株益変動 X11:株価変動 X12:円ドルレート変動 X13:1ヶ月後の増資予想 X14:ダウ平均の変動 X15:公定歩合 の15。後、2出力(上がるか下がるか)、隠れ層は2層だそうな。 内容については良く分からないので自分で本か論文に当たってくれ。
- 396 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 22:03:12 ]
- この手のシステムは本当に使い物になったら秘密にされるので
最先端は公開されないことに注意 まぁまだ実用には程遠いと思うけど
- 397 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 22:11:08 ]
- と言うか誰でも簡単にそのまま真似できるほど詳しい内容は普通、公開されないよ。
だが飽くまで研究目的の参考にしたいと言うなら先行研究がいろいろあるはず。 本当に物にしたければ自分で研究するしか無いだろう。
- 398 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 01:13:50 ]
- ニューラルネットの素人目に見てだけど・・・
>>395 どうモデルにするかで全然違ってきそうですね。 どこに注目するか?というか。
- 399 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 01:42:37 ]
- >398
現状のような外部要因でひどくグラグラ振れるような市況だと 何年も前に作ったシステムはもはや通用しなさそうだね。 円ドルレートだけじゃなくサブプライムがどうしたとか、 モノラインも危ないとか原油1バレル何ドルになったとか いろいろな事を加味しないととてもまともな予測にならない ような気がする。
- 400 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 03:57:58 ]
- 俺も株価予測の真似事してたけど、結局そこなんだよな。
影響範囲が広域すぎて、正攻法で学習させようとすると重み係数が多くなり過ぎちゃう。 多分NNの多段化やGA組み合わせればちょっとはマシになるんだろうけど、 基礎研ではそこまでできんかった。
- 401 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 13:19:28 ]
- FRBの議長の失言とかもあるしなぁ
- 402 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 18:53:07 ]
- 考慮すべき要因が多すぎるし、影響力も定量的には計れない。
NNだけで扱いきるのはむりぽ。 NNとは別に、その辺の事象を十分に少ない特徴量で表現する研究の方が重要じゃね?
- 403 名前:デフォルトの名無しさん [2008/03/13(木) 18:58:19 ]
- 意味のある特徴量をGAとかで検出できたらいいかも
- 404 名前:デフォルトの名無しさん mailto:sage [2008/03/14(金) 05:53:51 ]
- >GAとかで検出
GAが何か分かって言ってる? PCAやAIC辺りなら兎も角
- 405 名前:デフォルトの名無しさん [2008/03/14(金) 19:35:33 ]
- >>395
素人目でみてなので 突っ込み希望なのですが、 >>395みたいなのって、結局のところ、 多数のパラメーターからニューラルネットで最適値を見つけるように見えます。 そうすると(株でも先物でもいいのですが)システムトレード的には、 パラメータが多くなればなるほど、 過度の最適化というか、カーブフィッティングのようになってしまい、 未来の予測(といっていいかわかりませんが・・・)をするには不適ではないかと思えてなりません。 これは、モデル化の方法などでカバーできる問題なのでしょうか?
- 406 名前:デフォルトの名無しさん mailto:sage [2008/03/15(土) 11:27:13 ]
- 入出力が実数とは限らない
機能を入出力とすると ほ〜ら
- 407 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 09:05:55 ]
- 誰かSSE,MMX,デゥアルコアに完全対応していて
なおかつ入力出力サイズが可変出来て状態保存の可能な NNのWindows Cライブラリを作ってくれまいかね いやもちろん細部はアセンブラで超高速なわけですが
- 408 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 13:34:29 ]
- >>407
仕様とアルゴリズムを決めてくれたら作ってもいいけど。
- 409 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 19:19:37 ]
- アルゴリズムは教師信号を持ったバックプロバケーション
構造は選択式 単位データは32bit整数 必要なメモリを確保する関数 ・入力信号の配列数 ・出力信号の配列数 を指定すると確保したメモリのポインタを返す 教師信号配列を渡す関数 学習する関数(同期型と非同期型) 実行する関数(学習したものを利用するだけ、同期型と非同期型) 非同期用コールバック 学習情報を取得する関数 ファイルの保存はあっても無くても良い あるなら圧縮保存出来ると良い ハードウェアアクセラレータは自動検出し最適なコードを実行する こんなんでどうでしょう?
- 410 名前:デフォルトの名無しさん mailto:sage [2008/03/17(月) 11:53:49 ]
- >>409
>教師信号を持ったバックプロバケーション このあたり、もう少し具体的に書いてくれ。 詳細な説明のあるサイトへのリンクでもいいし、サンプルコードでもいい。 当方最適化は得意だが、NNの知識が足らないので。
- 411 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 01:54:02 ]
- いろいろ調べてたらGPGPUのほうが早いらしいので却下w
- 412 名前:デフォルトの名無しさん [2008/03/18(火) 22:14:51 ]
- Cellも早いらしいぞ
- 413 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 02:14:41 ]
- 俺の方が早い
- 414 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 19:17:59 ]
- Cell B.E.でニューラルネットワークを実装した研究例ってあったっけ?
Cell&Neural Networkで検索してもCellular Neural Networkとか 細胞の方のCellとニューラルネットワーク関連の話しか出てこない。
- 415 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 08:02:36 ]
- お前らちょっと聞きますよ
バックプロパで重みをランダム修正するじゃない すべてのパターンで正常な結果が出たら完了じゃない これって古い学習結果をある程度保持したまま 随時新しいパターンを学習していくって方法はないのけ? 画像認識だとものすごい量の学習サンプルが一度に必要になるじゃない 随時で学習できればいいのにと思うのです そういうアルゴリズムってあるのですかね?
- 416 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 12:57:44 ]
- 多峰性とか局所最適解とか考えた上での発言・・・とは思えない
- 417 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 15:06:23 ]
- >415
BPで入力パターンが来る毎に少しずつ学習させていく手法は可能だし、 普通にあるよ。 参考: ttp://matrix.cs.ce.nihon-u.ac.jp/~matsui/research/bp/bp.html ttp://www.twcu.ac.jp/~asakawa/waseda2002/bp.pdf ただ、いつまでも学習させてると上の人も言ってるように 局所解とか過学習(般化能力の欠如)が問題になってくる。
- 418 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 22:11:26 ]
- >>414
去年、サクシスって学会で賞をもらってた人がやってたような気がする
- 419 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 00:20:30 ]
- >>416
ペッ >>417 ありがとう、そういうことです 過学習かどうかの判断は結局プログラム的には無理だから 人為的に止めることは考えてますとも
- 420 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 01:46:34 ]
- ニューラルネットって懐かしいな
その昔、甘利さんの本に二足歩行の最適化てのがあって憧れたんだが 今思うと嘘臭いよな。現実的な時間で収束すると思えないし 二足の自律歩行モデルなんて当時はロボティクスの人でも出来てないだろ
- 421 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 18:46:13 ]
- >420
反論したいんだが、何らかの根拠を示した反論ができない。 ちなみに二足歩行ではどうか知らないが、倒立振り子を ニューラルネットでうまく制御したと言う研究をかなり 昔にTV番組か何かで見たな。 傾き具合をカメラで検出しながらレールの上で台車を 左右に動かして制御する方式だったと思う。 (二足歩行よりはるかに簡単だったとは思うが)
- 422 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 19:16:44 ]
- 確かに倒立振子だと出来そうだけど、どう考えても解析的に解いたほうが良さそう
他の手法よりもニューラルネットが最も適するような問題って何かあるんだろうか それが見つからない&学術的につまんない->飽きられる->予算取れない->今に至る。で、あってる?
- 423 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 01:08:27 ]
- >422
倒立振り子のてっぺんに腕を付けてさらにその両端に小さな振り子を 付けたりしたら(つまりカオス振り子に仕立てたら)解析的に解いて 制御する事はもはやできんだろう。 ニューラルネットでうまく制御できるかどうか、やってみないと 分からないし、そんな事に何の意味があるのかと問われると困るが。
- 424 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 02:51:33 ]
- 解析的に解かなくても制御できるのがNNの利点なのだが
例えば人間の腕なんて解析しようにも必要なパラメタの測定が大変だし 一回測定してもどんどん変化しちゃうわけで
- 425 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 11:33:45 ]
- 人間の腕なんて解析して何に使うんだよ
- 426 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 13:23:32 ]
- >425
高度な義手あるいはロボットアームの開発
- 427 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 19:20:50 ]
- パラメタを測定してモデル化というのはバイオメカニクス的手法なんだろうが
それならニューラルネットを利用できるかも知れない やっぱりそれが最適とは思わんけど 運動学・動力学的な束縛を解く手法はここ10年程で物凄く進んでいる わざわざ不安材料の多いニューラルネットを導入する必要はないはず 倒立振子も3段の制御に成功したというのをどこかで見たがソース失念
- 428 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 20:57:47 ]
- 例えば家庭用あるいは介護用ロボットで物を扱う場合
対象の質量やモーメントを事前に測定しておくことはできない こういう物に対応させるには何らかのadaptiveな手法が必要 その一要素としてNNを使うのが現代的 NNだけでやれることは非常に限られるし
- 429 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 21:41:30 ]
- 高次元でグニャグニャ曲がった未知関数を近似したいと言う時、
バックプロパゲーション型のニューラルネットは有用だと思う。 特定の応用にどんなものがあるのかは良く知らんが。
- 430 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 22:43:48 ]
- >>428
学習したカテゴリに属さないお婆ちゃん(ってどんなのかは知らんけど)は放り投げられたりして。 まあ冗談だけど。 >>429は何か応用例があったら知りたい。 それでも解析的に解けない問題には数値演算(反復解法)があるし ニューラルネットとは違って計算を打ち切った時点なりの精度は得られる。
- 431 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:06:11 ]
- >430
数値演算で解くためにはともかく方程式を立てる必要があるでしょう? 微分方程式なり何なりの形で。 対象にしているシステムの性質に未知な部分が多くて、その方程式 自体が立てられないと言うような状況にニューラルネットは有用。 関数近似器になると言うのはそういう意味。 いったん近似できたら後はその極大値(極小値)を探すと言うような応用。
- 432 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:49:09 ]
- 対象となるシステムをじっくり観察して、それを単純で理解可能な
部品にまで分解し、次にそれら部品同士の関係を方程式で記述して システム全体を表現しようと言う(特に物理学などに)伝統的な 考え方がある。 いわゆるデカルトの還元主義。 それと正反対に内部の仕組みは良く分からないが、そのシステムの 入出力関係に着目してその動作を真似しようとか予測しようとか言う 考え方に立ってるのがニューラルネットその他の学習機械だと思う。
- 433 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:57:34 ]
- あ、把握しました。ありがとう。
>>420 これって共著が出村先生じゃないか。 それだったら出来たかも知れんね・・・
- 434 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:22:32 ]
- 私は読んだ事無いけど「脳とニューラルネット」って本の事を言ってる?
- 435 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:33:54 ]
- ググったらそれが出てきたんだが、題名は覚えてないんだわ。
時期的には多分。
- 436 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:38:16 ]
- 実際近似になってるのかね?
単なるハッシュデータベースと同じようなものの気がする それはそれで応用範囲はあるわけだけど そこんところが発展の妨げになってるな NNはただの情報蓄積装置だと考えると今応用されてるものが当然の結果だと分かるし それ以上が不可能だということも了解出来るだろ
- 437 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:43:53 ]
- 人間の脳は固定長じゃないんだよ
特定の作業を繰り返して情報量が増えると自動的に別の部位を加えるようになってる 目が見えない人は音声解析能力が飛躍的に上昇するのは目に使っていた領域を 耳に置き換えたからだ NNはそういうことを前提にしてないでしょ コンピューターでNNの領域を増やして安定させるってのは難しいだろうので 単純化するには単純に自動膨張タイプのマルコフ連鎖データベースにするのがいいだろう
- 438 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:46:02 ]
- ただマルコフだと近似算出に膨大な計算が必要になるんだよな
- 439 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 21:47:10 ]
- >436
どういう応用形態を前提に考えてるのか良く分からんが、 単なる(ハッシュでもなんでも)データベースなら訓練用データに 存在しない無いポイントの値を参照しようとしても不可能だろ? ニューラルネット(あるいは他の関数近似手法)なら データに無い途中や端にあるポイントの値も答えてくれる。 いわゆる般化能力。
- 440 名前:デフォルトの名無しさん [2008/03/29(土) 00:08:35 ]
- >437
>217で紹介されてるが「自己増殖型ニューラルネットワーク」 なんて物も考えられているらしい。 どういう物かあまり良くは知らないが、必要な箇所のニューロンを 増やして(増殖して)学習、識別能力を上げようと言う試みのようだ。
- 441 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 00:10:25 ]
- 間違えてアゲちまった、スマソ。
- 442 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 03:21:37 ]
- こう考えると分かりやすい
特定の文字列を与えるとSHA-1ハッシュを吐くNNを組んだら 確かにそれは実用的で実行速度はまじめに計算するより早い 記憶に無いデータも学習した計算方法からなんとなく答えを出す それ以上でもそれ以下でもなくただのハッシュ関数なんだよ 実用的な速度で動くし答えは適当だけどそこそこの正解率はある 途中の計算を省略したハッシュ関数みたいなもんだ
- 443 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 04:04:50 ]
- そこそこ正解率あるのかなぁ
あればあんまりいいハッシュ関数とは言えないような気も ちょっと気になり始めた
- 444 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 08:40:00 ]
- >442
オイオイ、そりゃニューラルネットをハッシュ値の 生成に使えばある種のハッシュ関数だろうさ。 だからと言ってニューラルネットを単なる ハッシュ関数の一種に過ぎないと言うのは暴論だろ? 例えば普通のハッシュ関数で連想記憶やパターン認識を 実現できるかい? それともデータの類似度を定義してそれを表現するような 特殊なハッシュ関数を想定してるのかな?
- 445 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 09:14:37 ]
- ちなみに(言うまでもない事だが)
ニューラルネットが関数近似器としてその実用性を 発揮するのは元となる関数が「未知」の場合だよ。 つまり入力データと出力データのセットのみ 与えられていて、その関係は不明な場合だ。 (そのような現象は現実に山のように存在する) 最初から関係が既知であるのなら その関数を使えば良いだけなのだから。
- 446 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 12:29:27 ]
- とりあえずfirst class objectって何なのか考えるといいよ
- 447 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 13:44:25 ]
- >446
何でプログラム言語の話が唐突に? 誤爆?
- 448 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:30:58 ]
- >>445
まさにその通り 関数が未知の場合にだけちょっとだけ役に立つ「アルゴリズム」の一種でしかない もっとわかりやすく考えよう SHA-1からキーを解読するNNを組んだとしよう むちゃくちゃ早いが正解率は低いw 一時しのぎの解決手段だな
- 449 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:34:40 ]
- 正確な解答を得るにはマルコフの統計をとるのが一番良い
ただこれは情報量がすさまじいことになる 最近のPCは大容量なんである程度はいけるだろう 問題は近似算出だな 大量にあるデータから一番近い2ペアを探しだしてその中間値を返す この計算量がばかでかい
- 450 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:35:59 ]
- 簡単に言えばだ
SHA-1の解読処理をしようと思ったら SHA-1ハッシュとキーのペアデータベースを作るのが一番早いし正確だろ?
- 451 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:17:38 ]
- 何でSHA-1ハッシュの解読処理にこだわってるんだ?
そういう厳密性を要求される処理にニューラルネットが 向いているとは始めから思えないし。
- 452 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:19:22 ]
- 誰もこだわってないよ?
- 453 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:23:48 ]
- じゃあ、ニューラルネットの適用課題としてはそもそも不適切。
(始めから向いていない応用)
- 454 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:31:24 ]
- ハッシュテーブルになぞらえるとは...パッチワークが正解だろ
あとill-posedな問題にも使えるという利点もある
- 455 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:46:29 ]
- >454
ill-posedな問題って何かと思ったら逆問題の事か。 で、「パッチワーク」ってどんな応用の事?
- 456 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 19:05:24 ]
- もしかすると電子透かしの話かな?
- 457 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 23:09:54 ]
- データマイニングや統計解析で使われているって本に書いてあったけど本当?
- 458 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 00:41:36 ]
- >>453
それが何か? そんな事はわかった上で話してるんだよ。
- 459 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 01:34:32 ]
- (話が低レベルだなぁ・・・)
- 460 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 02:57:44 ]
- (・∀・)クスクス
- 461 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 14:46:25 ]
- ああ、有袋類の猿みたいな生き物。
- 462 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 18:04:51 ]
- Ill-posedは不良設定問題
拘束条件が自由度より少なくて解が一意に決まらない(から解析的に解けない) しかしill-posedって言葉を知らないってことはNNの事を全然勉強してないんだな
- 463 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 20:17:43 ]
- >462
Thanks. ニューラルネットの事は確かに大して勉強してないが、 俺の持ってる(唯一読んでる)ちょっと古い本には "ill-posed"なんて用語は載ってないんだよ、 "逆問題"なら載ってるが(洋書じゃないし)。 (大学等で真剣に勉強した人にはとても適わないぜ) ところで誰か、"Practical Neural Network Recipes in C++" と言う本持ってる人(or 読んだ事のある人)居る? いろんなニューラルネットのプログラム例が載ってるらしい のだが分かりやすいかな? 本屋で偶々「ゲーム開発者のためのAI入門」と言う本を見かけたので 読んでみたらニューラルネットのプログラミングの参考文献として 薦められてた。 日本語の本でニューラルネットプログラミングの参考書は ほとんど無いよね。「Cでつくるニューラルネットワーク」は かなり古いし(プログラム例がNEC98シリーズのDOS前提)
- 464 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 13:51:32 ]
- ニューラルネットワークって巷で数十年前から噂のエージェント指向もカバーしている?
- 465 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:02:14 ]
- >>464
エージェント指向なんて言葉は一部の人間(大したことないのに特別な名前を付けて特別な技術として売りたい人間) しか使っていないと思うが、意味している技術なら既に一般的に使われてるよ。
- 466 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:10:16 ]
- そういう意味ではニューラルネットワークも大したことないな
- 467 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:20:46 ]
- ああ、それからエージェント指向とニューラルネットは全くの別物。
- 468 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:08 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
- 469 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:23 ]
- >464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント などの見出しで(日本語の)ウィキペディアに解説があるよ。 それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。 (エージェントに自律性を与える手段としてはあり得るのかも知れないが) >466 意味が分からん。
|

|