1 名前:1 [04/09/11 01:48:08] について教えてよ
488 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 00:40:37 ] ところで複素ニューラルネットワークって何が嬉しいんだろう? 普通の(実数型)NNよりパラメータ数の割に能力が高いとしたら それはなぜなんだろうか?
489 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 17:25:55 ] >>488 興味深いですね。学生でもない素人ですが、 NNの肝は複雑さだと直観的に思えるので、 複素数を用いた方が複雑さが増していい結果を もたらすのではと思ってます。そもそも 学習したNNがなぜ知能があるように振る舞う のかということすらわかっていないわけで、 錬金術のごとく、ひたすらこねくり回すことが 大事なんじゃないかなと。
490 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:35:16 ] >学習したNNがなぜ知能があるように振る舞う 寡聞にして初耳だが
491 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:52:30 ] そっか
492 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:18:55 ] 知能の定義によりますね。
493 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:45:52 ] 「ように」ってのでどこまで許容するかにもよるな
494 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 15:33:58 ] 細胞性粘菌の振る舞いに知能があるように感じるかどうかも問題だな。 全体にベターッと広がってから最短経路に集まる様子には知性を感じない。
495 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 23:05:26 ] >>494 俺は489の書き込みにも知能は感じない
496 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 02:50:39 ] そもそも知能とは何なのか。
497 名前:デフォルトの名無しさん [2008/04/07(月) 13:27:32 ] 知能があるようにってのは 最初に意図してプログラムしていたのと違う結果を出す ってことだべ。
498 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 13:46:57 ] 知能とは何かなんて、知能なんて言葉を使わなければ考えなくていいよ。 だから、最近は論文に人工知能なんてタイトルを付ける人がいなくなったんだろ。
499 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 17:58:53 ] 自分の書いたプログラムが意図と異なる結果を出力したらそれが知能です。
500 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:39:25 ] それなんてバグ?
501 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:53:22 ] >>488 NNの節の数が増えるのと同じ効果が得られるだけじゃなかろうか?
502 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 02:10:40 ] 情報科学や工学的利用価値にしか関心のない 人からしたら知能なんてことを哲学的、科学的に 追求する必要ありませんからね。 >>501 よければそういう考察に至った経緯を教えて ください。
503 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:06:03 ] >501 それだと複素ニューラルネットワークに 特別な有り難みは何も無いと言う事になるね。 節を増やしたのと同じ効果しか得られないのなら。
504 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:28:25 ] 複素じゃなくても入力値又は出力値をを或る関数に通せばNN段階で学習する関数の形が簡単になって 汎化能力や精度がよくなる事があるのと同じ原理ではないかと予想
505 名前:デフォルトの名無しさん mailto:sage [2008/04/10(木) 11:54:29 ] NNの節数を2倍にすると複素ニューラルネットワークと同等のものは構築できる 複素数を使うこと=制約条件 になってるからその辺になにかいい事があるのかな?
506 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 02:45:59 ] 構築できるっていう根拠あるの? 先行研究なんかの論文があれば教えて欲しい
507 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 06:09:00 ] >506 二つの実数(実数のペア)に特定の演算ルール (演算ルールに対する制約条件)を課したものが すなわち複素数。 複素ニューラルネットワークもまた同じ。
508 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:22:08 ] >>507 ノード数が倍になることと関係ないね
509 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:42:06 ] >>508 iを虚数単位とする 複素NN 節α (x1+y1*i) 節β (x2+y2*i) α→β (a+b*i) であるとき β=(x1*a-y1*b)+(x1*b+y1*a)*i x2=x1*a-y1*b y2=x1*b+y1*a NN 節A x1 節B y1 節C x2 節D y2 A→C a A→D b B→C -b B→D a であるとき C=x2=x1*a-y1*b D=y2=x1*b+y1*a
510 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 13:26:17 ] >508 複素ニューラルネットワークがどんなものかまず調べなよ。 ググればたくさん見つかるよ。 www.kki.yamanashi.ac.jp/~masaki/koba_lab/complex.html など。
511 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 14:19:21 ] なるほど。
512 名前:デフォルトの名無しさん [2008/04/14(月) 12:04:00 ] ニューラルネットの基本的なことを質問させてください。 ニューラルネットとは、組み合わせが多すぎて到底 総当たりでは評価しきれない複数のパラメータがあるシステムの 中の最適なものを算出する手法 ということであっていますでしょうか? 何がいいたいかといいますと、株、先物のデータ分析(というか予想) に使っている人をみかけたのですが、 パラメータをたくさん用意して、最適解求めるのだと 過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
513 名前:デフォルトの名無しさん [2008/04/14(月) 13:11:32 ] あっていません
514 名前:デフォルトの名無しさん mailto:sage [2008/04/14(月) 14:56:48 ] >過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。 これは、学習方法をどうするかにかかっているんだな カーブフィッティングさせるように学習させれば、そうなるし そうならないように工夫すれば、またそうなる。 学習とはそもそも何かと考えるハメになるのだ。
515 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 02:15:40 ] >514 過度の最適化に陥っているかどうかの判定は結局、新しい(未学習の) データを持ってきて評価させてみるしか無いのかね?
516 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 06:46:55 ] まずは「過度の最適化」を定義してみてくれ そうすれば判定方法も自ずと明らかになるだろ
517 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 07:01:56 ] 過学習でググレよ。
518 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 13:54:47 ] >>515 もしそうすると、再びその「未学習」のデータに対して過度の最適化を始めるだけかと それもちょっと非効率なね、だから学習とは何かを考える必要がでてくると。
519 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:06:27 ] そのための cross validation だろ……jk
520 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:21:59 ] cross validation とは何をするものかという事をよく考えてみると、自滅していることに気づけるよ。
521 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:31:10 ] カーブフィッティングの問題は、ニューラルネットワークというよりはノンパラメトリック解析の難しさが表面化しているというのが実態かもしれない そうなるとちょっとスレ違い気味だね。
522 名前:512 mailto:sage [2008/04/18(金) 01:04:24 ] レスありがとう。 ニューラルネットワークは全然詳しくないのでついていけないのですが、 ニューラルのキーが学習ならば、過学習がカギっぽいですね。 つきつめるとニューラルとは違う方面になっちゃうのかな? cross validation は、ぐぐってみたのですが、 株とか先物だと既存のデータを、推定と検証用に分けて検証するってことかな? システムトレードで言うバックテストデータと、フォワードテストデータをわけるということかな。
523 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 12:24:05 ] >>518 日本の品格を著しく下げている在日チョンや 在日チャンコロの排斥が必要なのは言うまでもないでしょう。 まずは東京から。石原閣下に期待です。 前述した残業代を要求して裁判を起こしたりしているのも、 ほとんどはその手の輩ですしね。 日本の国際競争力を低下させようと工作しているんでしょう。
524 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 16:34:03 ] >523 凄い誤爆だな。
525 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 17:42:54 ] >>523 石原?冗談じゃねぇよ、あの財政破綻野郎 新銀行東京の責任とらせて全財産没収にしろ 小泉復活キボンネ
526 名前:デフォルトの名無しさん mailto:sage [2008/04/21(月) 00:48:52 ] 財政破綻野郎ってw 破綻してたのをここまで回復させたのが石原だろ 美濃部とか青島とかのダメダメ都知事を知らんのか
527 名前:デフォルトの名無しさん mailto:sage [2008/04/24(木) 08:18:13 ] 入力層から隠れ層への重みの大きな入力が重要な入力と言うことになるんでしょうか?
528 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 17:55:55 ] ちょっと話題がそれるかもしれないけど 今日は天気が悪い 今日は非常に天気が良い という2つの項目がDBにあったとします 「今日は天気が良い」で検索した場合後者のほうが一致率が高いわけですが これを抽出するSQL文は書けますか? テーブル構成は自由に設計してもらってかまいません 単語毎に項目を分割格納してもいいです
529 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 21:08:00 ] >>528 >後者のほうが一致率が高いわけですが こういうことは「一致率」の定義をしていないから言えないんだよ。
530 名前:デフォルトの名無しさん mailto:sage [2008/04/28(月) 01:54:11 ] >>527 そういう考え方もあるけど 「重要な入力」をどう定義するかが問題で, 一般には「ある出力」に対する影響が大きなものだから 影響をきちんと計算すべき(非線型だから定数にはならない)
531 名前:デフォルトの名無しさん mailto:sage [2008/04/28(月) 09:08:51 ] >>529 この場合の一致率は一致する文字の数です 多くて余った分は無視 短い方の文の文字すべてが存在する場合は完全一致と判断します
532 名前:デフォルトの名無しさん mailto:sage [2008/04/29(火) 03:36:27 ] これは何かのクイズですか? SQLでは難しいけど、NNならできます、というオチですか?
533 名前:デフォルトの名無しさん mailto:sage [2008/04/30(水) 00:46:33 ] >>531 それNNの使いどころが無いよ
534 名前:デフォルトの名無しさん mailto:sage [2008/05/01(木) 16:20:58 ] ついにやったぞ! この技術は今のコンピュータを本質的に変えるかも知れない。 wiredvision.jp/news/200805/2008050123.html
535 名前:デフォルトの名無しさん mailto:sage [2008/05/02(金) 18:25:29 ] >>534 usbメモリサイズでnnの構造の書き込みと計算結果の出力が出来るものがあるといいな
536 名前:デフォルトの名無しさん mailto:sage [2008/05/02(金) 22:14:31 ] 二端子のアクティブ素子は皆淘汰されたからなぁ メモリ以外の使い道は難しそう MRAMとどっちが早いか/速いか
537 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 03:23:38 ] 端子数の問題じゃ無いんじゃない? どちらかと言うと現状のLSI技術に馴染んで集積化できるかどうか? もし可能なら本当にアナログニューロLSIチップや集積化した アナログコンピュータも夢じゃ無いと思う。 その際の演算部分はやっぱりOPアンプかな? あれってそんな集積化できたっけ?
538 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 14:50:06 ] 二端子アクティブ素子は回路/システム設計が難しい トンネルダイオードやパラメトロンは当時としては非常に優れた素子だったが 信号を一方向に流す(入出力を分離する)ために三相クロックが必要で廃れた 今の回路技術なら何とかなるのかも知れないが アナログは(A級動作なので)消費電力が大きいのが大問題 上手くパルスorD級で使えればいいのだが
539 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 15:51:22 ] 隠れ層の数が多すぎる場合、学習の精度は良くても別のデータでの予測精度が悪くなったりするんでしょうか?
540 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 17:11:18 ] 悪くなったり良くなったりする
541 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 18:11:17 ] OpenCVのリファレンス(日本語版)をさらっと見ていたらNNに関する機能も提供しているようなことが書いてあったんですが、 使ってる人いたらNNのライブラリとしてどう思うか感想をお願いします。
542 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 20:25:56 ] >多すぎる場合 と書いてるんだから,多過ぎるかどうかの判定手段として訊いてるんじゃまいか 学習データにもよるが,一般的にはそう考えて構わない(overfitting)
543 名前:デフォルトの名無しさん mailto:sage [2008/05/09(金) 01:05:29 ] NNの並列化に関する情報 ちょうあい
544 名前:デフォルトの名無しさん mailto:sage [2008/05/09(金) 02:30:42 ] 意味不明
545 名前:デフォルトの名無しさん mailto:sage [2008/05/12(月) 23:07:55 ] >>541 OpenCVの物体検出関数で使ってるよ
546 名前:デフォルトの名無しさん mailto:sage [2008/05/29(木) 03:17:57 ] 学習が進むと、誤差は極小値に落ち着くんですよね? だったら、どうして過学習が起きるんでしょうか?
547 名前:デフォルトの名無しさん mailto:sage [2008/05/29(木) 03:38:53 ] だったらって、両者には何の関係も無いよ。
548 名前:デフォルトの名無しさん mailto:sage [2008/05/29(木) 12:24:00 ] 関数の近似に対する局所的な誤差の最小化がローカルミニマム 学習しすぎて関数の近似なんて関係なくなったのが過学習
549 名前:デフォルトの名無しさん mailto:sage [2008/05/30(金) 01:42:22 ] >>546 ヒント:「過学習」とは....
550 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 03:16:41 ] >>546 その時点で知りうる誤差最小値なだけだよ 谷はいくつもある可能性がある 一番深い谷に落ちるのが正解なわけだが 浅めの谷で最小値が決定してしまうと間違いでしょ それが過学習
551 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 03:22:37 ] というか人間の脳に正解なんて存在しないわけだ 9時に人に出会ったら「おはよう」という点に収束していたとして それは正解でも間違いでもあるわけだ 学習すればするほどこの学習の重みが増していく 「キモオタには話しかけてはいけない」という別の学習が行われても 「おはよう」の重みが大きすぎると「おはよう」と言ってしまうわけだ こうなると都合が悪いだろ これが過学習
552 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 08:25:48 ] 過学習とは 訓練データに対する誤差は減るが テストデータに対する誤差は増える状態
553 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 11:14:35 ] 線形関数から作った学習データに対して ものすごい波形で学習に使ったのみ点を見事に通過する関数を思い描いてください。
554 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:24:33 ] 過学習かどうかってのはあくまでその挙動が正常かどうかという希望に関係してくる 数学的に正しい解は存在しない 計算するよう設計した時だけは別途解が存在するだけ すべては製作者がこういう結果がほしいと望むことから始まる
555 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:28:07 ] 製作者が希望する結果が基準となり それより足りなければ学習不足 それを超えれば過学習
556 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:29:49 ] ちなみに人間の脳は過学習を抑えるために 常に学習結果を消去している 再学習されない場合は自然消滅する
557 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:32:56 ] まあ人間の場合製作者はいないので基準が存在しない だから過学習という状態は存在しないのだけど ただ心理学系の馬鹿達に言わせれば 社会的に逸脱した状態が過学習なんだとさ
558 名前:デフォルトの名無しさん mailto:sage [2008/06/06(金) 00:21:05 ] なるほど ある特定の社会(コミュニティ)に過適応するわけか
559 名前:デフォルトの名無しさん [2008/06/25(水) 14:48:21 ] SOMでオススメの本ないですが。 アマゾン見るとコホーネンの本は翻訳がくそだとか非難が多いのですが。
560 名前:デフォルトの名無しさん mailto:sage [2008/06/26(木) 23:50:56 ] あれは確か文科系の先生(しかも学生に手伝わせてる)が訳してて 箸にも棒にもかからなかった記憶がある
561 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 16:39:02 ] 今日本屋で自己組織化ネットワークの本見てきたけど ほとんどの章を大学生が訳してた
562 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 16:46:05 ] むしろ教授が関わってるのは「はじめに」くらいだと思われ
563 名前:デフォルトの名無しさん mailto:sage [2008/06/28(土) 02:39:34 ] 全滅なのか ウェブのほうがマシだということか
564 名前:デフォルトの名無しさん mailto:sage [2008/07/02(水) 18:24:58 ] あほでも研究費が取れる希少な分野ですからね
565 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 00:31:41 ] 制約付きニューラルネットワーク学習に関して詳しい参考書があれば教えてください。 基本的なニューラルネットワークのプログラムは組んだ事がありますが 制約に関してはネット上で言葉を見かけた程度で資料も見つからずどう実装するのかまだよく分かってません。
566 名前:デフォルトの名無しさん mailto:sage [2008/08/02(土) 16:32:04 ] 人間の脳細胞の構造を考えて見た どうやって学習するか BPは同じ入力を与え続けて正しい結果が出るまでランダムに変化させるだろ 人間は逆だ 正しい結果を知った上で入力を変化させる つまりだねランダムな入力をしてそれが望む結果じゃ無い時には それは疲労感や絶望感や空腹や実際の栄養不足を発生させる そうなると脳全体の軸策が減少する つづく
567 名前:デフォルトの名無しさん mailto:sage [2008/08/02(土) 16:34:54 ] そして軸策が伸びる条件だがそれは単純に脳細胞に信号が到達した時に軸策が伸びる つまりだ 入力をミスって脳全体が萎縮していくが正しい結果を得られたときだけ伸びた軸策は減少しない それが学習として機能するんだ これを実装する方法も考えた つづく
568 名前:デフォルトの名無しさん [2008/08/02(土) 16:54:49 ] 実装してから言ってね
569 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 08:45:25 ] 単なるアイデアじゃなくて、きちんとモデル化されてるなら、オレが実装してやってもいいぞ。
570 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 09:31:00 ] >BPは同じ入力を与え続けて正しい結果が出るまでランダムに変化させるだろ >人間は逆だ >正しい結果を知った上で入力を変化させる なにいってんの
571 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 19:16:06 ] ニューハーフハローワークに見えた
572 名前:デフォルトの名無しさん mailto:sage [2008/09/01(月) 14:48:54 ] 自己組織化マップのデータを可視化してくれるフリーのツール、どなたか知りませんか? 以前見かけたんですけど、どこにあったのか忘れてしまって……
573 名前:デフォルトの名無しさん [2008/09/01(月) 14:54:05 ] >>559 ネットで調べた方が分かりやすい。 この本読めたもんじゃないし。 自己組織化マップ ―理論・設計・応用 海文堂出版 はちょこちょこアルゴリズムも載ってるから、まだいいかもしんない。
574 名前:デフォルトの名無しさん mailto:sage [2008/09/01(月) 18:19:15 ] >>572 どんな入力データかによるだろ
575 名前:デフォルトの名無しさん [2008/09/03(水) 10:31:36 ] C++で実装されたライブラリでいいのないですかね。 最近の事情は全然知らないんで、わかりやすいサンプルがあるのがいいです。
576 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 13:00:30 ] >>575 OpenCV
577 名前:デフォルトの名無しさん [2008/09/03(水) 14:12:15 ] >>576 対象は1次元データなので、コンパクトなもの希望です。 サンプルとしてでもフロントエンドのあるものがあるとよいのですが…
578 名前:デフォルトの名無しさん [2008/09/03(水) 19:38:39 ] ニューラルネットワークはカーブフィッティングあるから使いづらいよ。 統計学をきちんと学べば、機械学習の多くの手法が結局は親戚同士でしかないことや、 そもそもの因子選択がダメなら全部無意味だってことがわかる。 ニューラルネットワークしか知らない人は、「設計には慣れが必要」とか言って素人を煙にまくけど、 本質的な問題はね、機会学習のアルゴリズムは統計学が期待する「正規化されたデータ」という 幻想の上に立脚するものであって、単体では因子間の相関(多重共線性)を 適切に処理できないということなんだよ。 これはNN以外のあらゆる手法にもよこたわる、いわばバカの壁。
579 名前:デフォルトの名無しさん [2008/09/03(水) 19:48:51 ] これを処理する簡単な方法は、事前に多変量解析を行って、使えそうな因子があるかを見ること。 そして正規化処理を自動化すること。 因子間の相関が変化していく状況(リアルタイム)では、自分の設計を更新できないなら すぐ使いものにならなくなる。 正直、なんで未だにニューラルネットワークを人間が設計することになっているのかよくわからない。 学会とかレベル低すぎ。 誰かはやくAI作ってくれ。
580 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:04:39 ] >>579 いや、何か簡単に使えるフリーのライブラリがあればそれを教えてくれると ありがたいんですが。 LIBSVMは試してみたんだけど、NNも試したいなと。 やりたいのは単に一次元データの予測なんだけど、未知なのでNNでやって みようかなとそんくらいの統計素人ですんまsん。
581 名前:デフォルトの名無しさん [2008/09/03(水) 20:09:52 ] BP法系統のニューラルネットワークの性能の低さは、因子数が少ないほど顕著になる。 因子が0から1までの値を取るとしたとき、その値の範囲(0.3以下、など)に重大な意味があるようなケースでは、 その因子を適切に分解するプリプロセッサ無しに学習を行おうとすれば、 中間層が2〜3個余計に必要になったあげく、近似精度も劇的に低下する。 なぜかというと、処理対象となる因数空間の分割(非線形近似)にはステップ関数が必要だが、 そのために中間層のニューロンが消費されてしまう。 結果、本当に欲しかった「役に立つ近似」に使われるニューロンが減り、精度が犠牲になってしまうのだ。 思うに、ニューラルネットワークが何をやっているのかわからないというのは、 単にそれを真剣に考えたことが無いだけだと思う。 あらゆる非線形近似は、空間分割と線形近似の組み合わせでしか実現できない。 ニューラルネットワークは、それをステップ関数と足し算(引き算)で行っている。ただそれだけのことだ。
582 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:18:13 ] ライブラリはR言語に付属しているのがある。本家サイトあたりから辿れたと思う。 あとはアルゴリズム系の書籍のサンプルソースダウンロードが利用できる。 書籍を買わないとソースの解説は無いが、R言語に付属している優秀なデータを食わせれば だいたい推測できりはず。もっとも、実データの処理に使うには教科書的すぎて役に立たないと思う。 NNの改善論文が多いのは、元のアルゴリズムが驚くほどクソだから。空間の境界部分を きっちり処理したいなら、SVMやk近傍法のほうがはるかにマシ。
583 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:24:27 ] ニューラルネットワークの本質は、k次元のケーキをナイフで切り分けてるだけ。 中間層を増やせばそれだけ太刀筋は複雑な軌道を描けるようになり、 一見うまくいくように見えるが、その軌道が合理的なものである保証は無い。 偶然に人の皮膚すれすれをナイフが通っても、ケーキが切れていれば切り分けは成功したことになるし、 値は収束したことになる。NNの誤差の収束ってのは、そのくらいの意味しかないのよ。
584 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:39:23 ] SOMの可視化も、2〜5因子くらいにまで絞れているなら座標xy、色rgbとか使って 好きなように表示できるけどね。それ以上だと難しい。 「R言語 SOM」でぐぐると画像が見つかるかも。へぼいけどwww まあ出来合いの可視化ツールはあんまり見た目が良くないし、リアルタイムに見ながら因子を 入れ替えて別の角度から見てみるとか、3因子だから3D表示で見たい!とかなら、 自前で書いたほうが絶対楽だと思う。 上でも勧められてるけど、OpenCV、OpenGL(GULT)あたりがオススメ。データの読み書きはC言語のサイトを参考に。
585 名前:デフォルトの名無しさん [2008/09/03(水) 21:19:41 ] >>581 中間層が2、3個増えてもなんの問題もないです。 未知な関数をあれやこれや考える余裕もSとかRを使いこなす知識もないので 簡単に近似できるものがないかなと。 例えば何個かの関数の合成だとしたとき、NNならそのそれぞれの関数を見つけて (近似して)くれる可能性がありますよね。 >>584 少しぐぐってみたけど、これって1層NNなの?って思った。多分違うんだろうけど。 理屈はいいので、よさげなNNライブラリかコマンド群教えてくださいw
586 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 22:25:56 ] どうしてもライブラリでやりたいなら、R言語のライブラリ使うか、CPANのPerlライブラリを 「Neural」とか「BP」とかでサーチするのが楽だと思う。 ぶっちゃけ↑より簡単な方法は無い。 大抵の言語で、フリーの学術系ライブラリってのは全滅に近い。 汎用性持たせようとすると書くのも検証するのも大変で、フリーじゃ割に合わない分野だからね。 カネがあるなら別だけど。 ちなみにNNにデフォルト設定なんてものは無い。 かなり自前で設定する必要があり、結局自前でコード書くのと大差無いことになりがち。 言語は?データの型は?データの値の範囲は? 入力、出力ニューロンの数は?中間層と中間ニューロンの数は? 学習回数は?収束を判定する方法は? 学習結果を使う、保存する方法は?ある値を入れたら何が出る? それを可視化して結果や精度を確認するには? 結局R使え、C言語のサンプルいじれという話になる。
587 名前:デフォルトの名無しさん [2008/09/03(水) 22:50:40 ] ちょっとぐぐってCortex/Shark/fannてのを見つけたんだけどどんなもんでしょう。 Cortex cortex.snowcron.com/ Shark shark-project.sourceforge.net/ fann sourceforge.net/projects/ >>586 なんかいっぱい質問されてますが、C++のライブラリで、サンプルでもフロントエンドがあれば うれしいと言ってるんですが。あとの項目は普通設定できるんじゃないかと思うんですが、 心配してもらうところじゃないと思います。やりたいのは1次元なので可視化はべつに不要ですし。
588 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 23:14:06 ] >Cortex サンプルに株価データもどきを使ってるのはジョークか? フロントエンドは無い。 >SharkのReClaMライブラリ 計算ライブラリ。チュートリアルはダウンロードしないと見れない。 フロントエンドは無い。 >fann URLはこっちかな。 leenissen.dk/fann/ 対応言語が多い。チュートリアルは最もシンプルで、すぐ動かせる感じを受けた。 ただ、ファイルのフォーマットが in-out-in-out-... 順になっててちょっとキモイ。 フロントエンドは無い。 というか汎用性を追求したライブラリに、GUIをつけるメリットが分からない。 普通は付けてもCUIフロントエンドくらいじゃ?
589 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 23:22:01 ] JavaNNS-Win なんかはどうだろう。 これはGUIがある。 しかし色々な機能があるから、使い方を覚えるのに手間取ると思う。
590 名前:デフォルトの名無しさん [2008/09/03(水) 23:31:45 ] >>588 quick reviewどうもです。fannはソースがsourceforge.net/projects/fann でした。 >>589 これですね。ただJavaだけは勘弁してくださいw www.ra.cs.uni-tuebingen.de/SNNS/
591 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 00:00:46 ] フロントエンドとしてどの程度の結果が欲しいのかがよくわからんな。 Cで処理した結果を見るだけなら、それこそHSPでも何でもいいわけで。
592 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 06:01:10 ] NNくらい、3時間あれば書けるだろ それができないならパラメータを調節できないと思うし諦めたほうがいいよ。
593 名前:デフォルトの名無しさん [2008/09/04(木) 06:55:47 ] >>591 質問の意味が分からん。HSPとか勘弁してくれ。 >>592 あぁ、1時間もあれば書けるさ。
594 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 07:08:49 ] Cが書けるならGLUTでもWin32APIでも何でもいいだろ。自分で書け。 ここはソフトウェア板じゃないんだから(笑)
595 名前:デフォルトの名無しさん [2008/09/04(木) 07:38:28 ] なんだかさっぱりだ(・ω・`) ゆとりの一種でしょうか。
596 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 09:20:46 ] ライブラリとかほしい。インターフェスだけ公開されててさっくり実装! っていうのがあるんでしょうな。 ベイズフィルタなんかもライブラリとかあって簡単に使えるじゃん? 実際NNで汎用的なそういうのが可能なのかしらんけど。
597 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 23:30:46 ] 何か偉そうにいろいろ書いてるやつがいるが「因数空間」って何? 知ったかぶり??
598 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 23:36:53 ] うん
599 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 04:04:24 ] >NNで汎用的な これは実際にはあまり使われない(自前で作っても簡単)から結局廃れてる
600 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:22:58 ] 追加で学習しても以前の学習結果を保持しているような方法ってあるの? 実用的なレベルでね 例えば関節の動きを学習させるのにいちいち前回の姿勢情報と行動結果を すべて記録して再学習させるなんて時間が掛かりすぎるからね 行動したら学習するっていう単純なサイクルを繰り返したいわけですよ
601 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:27:03 ] >>600 ノードが多ければできるんじゃない? 以前の学習結果がプールできて、 かつ場合によって新旧どちらを選ぶかの余裕をもたせてやれば
602 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:58:42 ] >>600 Temporal Difference Learning
603 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:05:34 ] >>600 それニューラルネットワークじゃないから。
604 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:08:18 ] 収束を待つとか悠長なことを言っている時点で ニューラルネットワークが実時間処理に向かないことは自明。 収束早める方法がうんたらかんたら〜というゴミのように見える 論文が量産されているけど、実際にゴミだ。 実時間処理に向かない理由の根本的な改善にはなってない。
605 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:10:38 ] そんなの用途しだいだろ。 実時間処理っつってもピンキリだし、だいたい対象が分かってるなら普通の適応フィルタ で済むしな。
606 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:27:03 ] そう。大抵の問題にはニューラルネットよりも良い方法がある。 つまりニューラルネットワークを使おうと思った時点で、そいつは 何か大事な前提を勘違いしていることのほうが多い。 そもそもニューラルネットワークの学習というのは、隠れ層の層数に 比例した次元数に固定されているものだからな。 次元数自体を学習によって適切な数になるまで減らしていくSVMなどに比べて 粗悪な結果になるのは当然のこと。 >>585 は本気で中間層を増やせばいいと思ってるらしいが。やれやれ。
607 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:43:42 ] >>602 Q learningってのがそうなの? 論文見てもよくわかりません 実装例とかどっかにないですか?
608 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:49:53 ] ニューラルネットが独立した手法とか概念だと思っている時点でダメすぎ。 しょせん統計学の後追い手法だからな。 わざわざ ニューラルネット用語(笑) を発明したアホどもが 入力ユニット(笑) とか 結合の重み(笑) とか呼んでるせいでによって分かりづらくなっているが、 こんなもんは古典的な近似関数の亜種だ。雑種だ。従って、ニューラルネットワークは 統計学にあるのと同じ、古くさい問題をぜんぶ抱え込んでいる。 「学習」の一番オードソックスなやつは、線型近似だ。 それじゃ実用にならないからってんで、k次関数近似として次元数を上げていくと 数値上は100%フィットするようになる。より適切な近似/補完手法も存在する。 だが、「誤差に弱すぎて意味が無い」ところまで突っ走って満足する輩が多すぎる。 自由度(入出力因子数、中間層層数、中間層因子数)が増えるほど 結果が無意味になっていくのは、近似関数全般に通じるいち常識でしかないのだが なぜか「中間層が増えると賢くなる」と誤解する人が後を絶たない。 どんな魔法だよwwwwwニューラルネットワーク(笑)wwwww
609 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 00:01:29 ] Q-learning は、行動と状態を同一視して扱うもので、見方によっては ニューラルネットワークのようにも見えるし、あるいはもっと単純に でっかい行列として見ることもできる。 ニューラルネットワークのように全体を一斉に更新するなどという 非生物的で邪悪な操作を行わない点が、利点。 しかし一般に、実時間学習での問題点は、なによりも「時間」をどう扱うかだ。 ヴァーチャルな箱庭の中(もちろん行動にはtuneの概念がある)で アニマットに餌を食うように行動学習させるだけでも、数ターンぶんの行動を バッファに貯めて、逆伝播させていく必要があったというし。 細長い袋小路(局所最適解)に囚われないようにするには、バッファを かなり長くとらないといけなかったという。 ヒトの場合はエピソード記録とか、便利なイベント単位の記憶があるので、 学習が楽になっているようだが。このへんの手法は未だ未知の領域だったりするので こころしてかかるこった。
610 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 00:32:36 ] Q-learningでぐぐって出てくるページにも書いてあるけど、 「ロボットのセンサを統合して複雑な行動を学習させる」みたいな ちょっと複雑な問題を処理させようとすると、アホみたいに行列が でっかくなっていくんだよ。 それに加えて、>>609 で書いたように一定ターン数 or 一定時間ぶんだけ 行列の組が必要になるわけで。昆虫の足だか玩具の足だかを クロールさせるのならともかく、あんまり複雑な処理になると もはや悪夢だね。 これじゃ、a)メモリに入りきらない または b)メモリに入りきるように 削ったら汎用性が無くなった あるいは、その両方 ということになる。 パソコンに有線で繋いでおかなきゃ、学習もままならないんじゃないかね。 まさに本末転倒ってやつだ。
611 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:23:11 ] ニューラルネットを学べば学ぶほどその無意味さを実感する。 でも実感してもまだニューラルネットのろくな根拠のない可能性を信じれる人が新しいやり方を作って行けるような気がする
612 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:27:40 ] もし状況を想像し辛いなら、ロボットアームの動きをシミュレートすると 分かりやすいと思われる。 ○ / \ / \ ■ 匚 ●←ボール ■は肩。○は肘。匚は手。 ここで、手の操作は省略して、「決まった位置に置いてあるボールに手で触れる」という 比較的簡単な問題をえてみる。 さて、>>609 に照らして設計を考えると・・・ 入力因子 行動:肩の行動、肘の行動 状態:肩の角度、肘の角度 出力因子 行動:肩の行動、肘の行動 状態:肩の角度、肘の角度 となる。
613 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:30:03 ] ふう,なぜNNがあれだけもてはやされたか全然分かってないな 統計的な手法より「実際の問題に使い易かった」だけなんだよ 統計的な手法を使おうとするとその方面を相当勉強しなければならないが NNなら適当な前処理(これは領域知識だから既に持ってる)を噛まして 適当な層数とニューロン数でやってみればそこそこ使える結果が得られる 現実の問題ってのはそんなに難しい問題じゃない場合が多いからね 数学的にとか本質的にとかと全然関係ない理由で流行ったんだよ
614 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:34:35 ] 各時点での情報は最低限上記のものが必要で、その対応関係は 最も単純な形では4×4の行列になるだろう。これが学習によって 更新されてゆくことになる。 時系列を考慮すると、たとえば5ターン分の情報のセットを記録しておくなら、 配列は5個という形になる。(しかし、ただ伸ばせばいいというわけではない。 自由度が増えると精度が落ちるし、ターン制ならともかく実時間だと大変困ったことになる) [ 4 ]→[ 3 ]→[ 2 ]→[ 1 ]→[ 0 ] (図:[ ]は行列。数字はn個前をあらわす) んで、てきとーに動いて[ 0 ]でボールに接触したら、過去に向かって記録を 辿っていき、報酬を与えていく。これを繰り返してゆく。 (残念ながら、あまりエレガントなアルゴリズムは存在しない。別分野での 研究成果を応用したりするといいかもしれない) [ 4 ]←[ 3 ]←[ 2 ]←[ 1 ]←【 0 】 ボールに触った! #蛇足だが、学習時の行動選択がランダムである場合、 #これはコンピュータ囲碁におけるモンテカルロ法に非常によく似た #アルゴリズムになる。この類似はなかなか面白い。
615 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:53:59 ] 脳の並列処理能力はすさまじい。 もし将来、ニューロンがランダムに発火し、脳がモンテカルロ法で動いている (論理的な思考は大して重要ではない)という結果が出ても、 驚きより納得のほうが先に来てしまいそうだ。
616 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 02:04:44 ] モンテカルロ法のような方法がうまくいくのは 答えがたくさんある場合だと思う。遺伝的アルゴリズムと同じ。
617 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:03:52 ] Qlearningの意味が分かった 入力と出力の全組み合わせパターンのデータベースを作って それぞれの組み合わせの出現確率で重みをつけていって 学習結果は一番重みの大きいものを適用するわけだな これは自分で既に前からアイデアとしては持ってた 自然言語処理で似た様なアルゴリズムは応用したけど 画像認識のような組み合わせパターンが必然的に巨大になるようなのは 現状のHDDじゃ容量が足りないぞ
618 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:15:31 ] 今すごいアイデア思いついた 統計的アプローチで追加学習可能でニューラルネットと同等の精度が出せるもの ちょっと実装してみるわ
619 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:24:30 ] データマイニング、情報抽出などの分野はどうですかね。 学習がうまくいったとしても、最適な学習データがそもそも分からないなら意味が無い。 むしろ、同時進行のほうがいいかもしれないし。
620 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 08:22:46 ] さて、NNライブラリ何かないかと聞いた575ですが もちろん>>613 さんが言ってる通りの意味で使ってみよと思ってるわけですよ。 統計素人ですがこんなの常識じゃないんですかね。 >>606 SVMは別途試してますがNNでも試そうと思ってるんですよ。理論はともかく 実際に使える道具(ライブラリとかのことね)で実際の問題にあたってみなければ 分からないでしょ? 今時のPCは十分速いので単純に中間層を増やしてプリプロセスの代わりになるな らそれはそれで別に問題ないと思うんですがね。 本物の研究者さんの最新の実装とかの情報があればいいなとは思ったんだけど やっぱり難しいですねぇ、そういうのは叩かれそうだし。 さすがにこんな過疎で
621 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 17:50:14 ] >>620 が尊大なゆとりじゃなければもうちょっとレスもつくんだろうけどねぇ。
622 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 17:52:12 ] >統計素人ですがこんなの常識じゃないんですかね。 いちおう念のために聞いておくけど、素人が偉そうにするのってどこの国の常識?
623 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 19:40:56 ] >>613 もしかして別の板で、GAは山登り法でできることをわざわざ変なやり方している と書きまくっていた人でしょうか。 いや雰囲気がそっくりなんです。
624 名前:613 mailto:sage [2008/09/06(土) 20:29:21 ] そう思わないでもないが,俺ではない
625 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:23:42 ] >>621-622 自治厨乙。 スレ違いなんだよ。 >>623 山登り法ってどこの方言だ。
626 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:33:29 ] ↑君が無知なだけ。
627 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:41:35 ] 山登り法も知らないやつがこのスレにいることが間違い
628 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:43:07 ] >>623 全然似てないじゃん
629 名前:デフォルトの名無しさん [2008/09/06(土) 23:48:42 ] そういえば昔は掃除機屋もニューロとかファジーとか騒いでたな。 今はどうなったんだろう。
630 名前:デフォルトの名無しさん [2008/09/07(日) 00:06:01 ] その日の気分で吸ったり吸わなかったりか。 俺といっしょじゃん。
631 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:10:58 ] >>629 当時レベルのファジーやらなんたらは平凡に使われているという話である。 今はやってないから言わなくなった
632 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:25:21 ] 非ファジー _____ | _____| ファジー ____ / ____/ こうして図にしてみると、いまさらこんなのに名前をつけても売れないことが よく理解できる。やはり売るなら実体の無い宗教、マイナスイオンだね。 実体が無いものならPL法にひっかからないし、宗教なら非難されようがないもんね。
633 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:28:39 ] 板違い
634 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 14:07:25 ] エアコンは今でもニューロ回路持ってるだろ
635 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 21:24:18 ] 自分で学習するオセロ作ったぞ 今戦って教えてる所です
636 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:04:47 ] ほほう 強くなったらうpして
637 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:23:16 ] そもそも学習させている事例が良ろしくなければ(ry
638 名前:デフォルトの名無しさん [2008/09/08(月) 00:24:42 ] Yahooオセロbot作って自動で学習したらいいよ
639 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:31:57 ] そんな事は無駄
640 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:35:52 ] >>637 具体的にどんな事例がよろしくないの?
641 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:17:31 ] 構造上強くも弱くもならないよ 対戦相手の強さをそのまま学習する仕組みだからいずれ同レベルになるだけ
642 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:19:52 ] 何万回くらい対局すれば強さは収束する?
643 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:29:23 ] ていうか>>618 の思いついたのを実装して オセロに適用したんですよ どれくらい効果があるのはまったく予想不能
644 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 02:09:26 ] 結果もってこいや
645 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 02:13:02 ] まさかとは思うが、ネタを振っといて 結果が思わしくなければを出さないなんて事は無いだろうな。
646 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 03:11:45 ] ただのエキスパートシステム(笑)が出来るに1クロン
647 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 04:00:40 ] >>642 あっけなく負ける強さに収束するから意味なし。 問題は強さの定義だろう。どうやって強さを教えるんだ?
648 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 04:11:14 ] >>647 ?
649 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 10:01:29 ] >>647 強さとは、素人の俺と対戦したときの勝ち負けできまる。 すべて俺基準な。
650 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 12:40:17 ] >>649 学習が終わる前にお前死んでると思うが
651 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 14:14:14 ] >>649 >>46 のチェッカープログラムは遺伝的アルゴリズム >>135 のバックギャモンプログラムはTD学習 を使い自己対戦で学習してトップレベルの強さになってる。 多分瞬殺されると思うよ。
652 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 04:14:02 ] >651 ほー、どっちも自己対戦学習で強くなってるのか。 チェス、将棋、囲碁でもそれができるのかが興味深いところだな。
653 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 04:20:06 ] やっぱりニューラルネットワークと強化学習の枠組みって 相性が良いのかな?
654 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 05:00:26 ] >>651 閉じた環境で育った知恵というのは、厚みがなくちょっとした 認知不能な流れで最弱な流れになるものだよ。 自己対戦なんて典型的な閉じた世界だろ、何せ相手は自分と同じ論理で 行動するわけだから情報処理ネットワークが狭い閉じた世界に収束してしまう。 いわいる建前の強さというやつ。 >>652 自己対戦で強くなるなんて思っているコンピュータ将棋もチェスの作者は いないよ、みんな多様性を学習させるためにいろいろな相手に対戦させて いる。 緻密で正しい勝つ確率がもっとも高いことしか選ばないソフトに勝つことは 非常に容易である、羽生の対戦でもみて勉強してこい、てな雰囲気だよなw ソフトで学習が容易なのは戦術であって戦略ではない、困難なのは高次の 戦略を感じ取る抽象的な思考能力、頂点で闘うゲームでは強さではなく ブラフというものが最終的な勝ち負けを決める。 何故なら全手計算できないからだ、予測できない域で勝敗が決まる勝負では 予測できない域を制覇できるものが勝者となる。 >>651 君が求めているのは予測可能、全数計算可能な域での話であって、 予測不可能な試合では通じない論理だ。
655 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 10:57:54 ] 強さに何の意味があるのかね 知能の本質は強さじゃない 天然ボケってのは人間のような高等な推論をする上で必要不可欠な機能だよ ボケを持たない知能はただの機械的回路にすぎない
656 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 11:56:48 ] 身をもって知らせたわけですね。わかります。
657 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 12:18:23 ] >>656 さわるなよ
658 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 12:42:02 ] 某スレから馬鹿が流れてきたのか
659 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:30:43 ] ボケっていうのは例外事象に柔軟に対応するシステムなわけだ これがあるから人間ってのは数学的収束を持たない 一度収束した回路は二度と別の用途には利用出来ない 例えばひたすらチェスを学習させた人工知能は将棋を学習することは出来ない チェスも将棋もこなす人工知能は存在出来ない だが人間はこれが出来る これが出来る理由がボケというシステムの存在だ
660 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:34:13 ] 最高に強いAIチェスなどに興味はない 人並みの強さだがどんなゲームにも柔軟に対応できるAIこそ 真の人工知能だ
661 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:42:30 ] それが分からないやつには人工知能なんて作れないよ
662 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:46:16 ] 現状の翻訳システムとか音声認識とか自然言語処理とか見てみろ 機械的な入力条件じゃないと正しい結果が出せやしない 結局機械に毛が生えたようなただのおもちゃだよ 関西弁を翻訳出来てこそ人工知能だろ? 顔文字を認識出来てこそ自然言語処理だろ? ちがうか?
663 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:00:02 ] 違うね
664 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:02:00 ] というか、何が言いたいのかサパーリだな。 よっぽど何かトラウマとか劣等感があるのだろうね。
665 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:24:48 ] 自分定義の人工知能を語るのって新手のオナニー?
666 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:14:57 ] そんなこと言ってるから何時まで経っても進歩しねーんだよ 英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ そもそも言語とは何かってところから学習を始めないと意味がないんだろ そして英語もフランス語も同時に学習していかないと使えないんだよ チェスを学習するということはチェスとは何かを学習することだ 強さじゃねー
667 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:21:14 ] そんなに気持ちいいのですか。
668 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:22:11 ] 形態素解析エンジンを作りましたこれで自然言語処理が出来るとか馬鹿なこと言ってんじゃねー 形態素解析こそ自動学習で最初に作るべきものだろうが
669 名前:デフォルトの名無しさん [2008/09/09(火) 16:05:08 ] 別の世界からこにゃにゃちわ(・ω・)/
670 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 22:46:25 ] 犬語とか猫語? あ、それはもうあったか。
671 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 00:19:21 ] >英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ どんな妄想だこれ?w
672 名前:デフォルトの名無しさん [2008/09/10(水) 15:14:36 ] www.si.hirosaki-u.ac.jp/~ei_sys/neuro/backprop.c これのvoid backward()のところの式あってる?
673 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 16:47:45 ] その位自分で分からないのなら手を出すなw せめて自分が正しいと思うコードを書くとかしないと
674 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 21:35:27 ] >>672 それないよ BPにすらなってないソース掲示されても困るよな
675 名前:デフォルトの名無しさん mailto:sage [2008/09/12(金) 10:38:22 ] マヌケな無能君が、途中結果もだせず、考えもまとまらず、誰にも評価され ない情況が続くので必死に2chで喘いでいます、オマエだ、オマエしかいない。 すくなくともオマエの意見に賛同するのはオマエだけ。 匿名で発言しても何も変わらんし、おまえのストレスが増えてゆくだけ。 ここで答えが求まるとか議論していると勘違いしている君には 治療薬すらない。
676 名前:デフォルトの名無しさん [2008/09/12(金) 12:06:15 ] BPになってないワロタ プログラミングしたことないのか
677 名前:デフォルトの名無しさん [2008/09/12(金) 19:09:51 ] >>672 8行目と9行目のsum+=のとこと delta1[j]=のとこが微妙だな
678 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 20:59:38 ] >>608 分かりやすい説明だな。
679 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 21:14:10 ] 「ロジスティック回帰モデルと単層パーセプトロンは等価である」 と言うのは本当でしょうか? またWikipediaの説明によれば単層パーセプトロンに隠れ層(連合層)が あるように書かれていますが、これはおかしいのでは無いでしょうか?
680 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 18:38:55 ] 頼むおしえてください! 誤差逆伝播法で忘却項を導入する方法があるけど いったいどんな利点があるんでしょうか?
681 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 19:03:32 ] >>679 単層というのは学習する層がひとつで中間層はあっていいよ
682 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:19 ] >隠れ層(連合層)が あるように 隠れ層と連合層は同じじゃない どちらも中間層のではあるが連合層を隠れ層とは呼ばない
683 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:47 ] 「の」が余分だった
684 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 08:51:49 ] > 野良犬(ポチ) 野良犬とポチは同じじゃない どちらも生物ではあるがポチを野良犬とは呼ばない みたいな?
685 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:17:41 ] ニューラルネットワークの「原理」は存在し検証できる。 しかし知的「仕組み」は先天的に作るものと後天的に生まれるものがあり 先天的なものが何かを特定できない時点で構築する以前の問題ではないか、 知的なものが後天的に全て学ぶものだと仮定すれば、すべて学習となり、 人が20年程度かけて修学するほどの手間がかかり、100%の全てが 大人になりえるわけでもない。 現状で原理の上に築く先天的な仕組みがどのような物かを微小なり概念なり 説明できるのならやってくれ、できないからこを糞スレに粘着しているんだろう。 それとは違う先天的な構築方法で行うメタ的な情報を築く手法の過程では ライブラリーのように地道に確実に積み上げしてゆくことが大事だと 何故気がつかないか? 自動で全てが成りえるという幻想でもいいが、自動ほど恐いものはない、 自動で成りえる情報の秩序を暴走させずに、奇形にならずにバランスを もった特定の形へなるなら人だってキチガイは生まれないだろう。 確率の問題なのか、それであれば永遠に近い時間で偶然を待つしかない。 人すら教育が困難なのに、人が生み出す人工知能の教育が簡単で一瞬で できあがると思うのか?
686 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:29:47 ] 面白くないコピペだな
687 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 08:13:20 ] > ニューラルネットワーク 原理 > > 後天的 > 何か 問題 > 知的 > 人 100% > > 原理の上に築く先天的な仕組み 概念 > 糞 粘着 > > > 自動 > 秩序 暴走 奇形 > キチガイ > > 教育 困難 人工知能 > できあがる 重要な単語のみ抽出した つまりニューラルネットワークは,人が何か後天的に知的な問題を, 原理的で先天的な仕組みの概念で糞が粘着し 自動的な秩序の暴走を促す(?)奇形(キチガイ)を教育する人工知能を作る物. という壮大な物語だったのさ
688 名前:デフォルトの名無しさん mailto:ww [2008/09/21(日) 10:32:18 ] と、自作自演な厨が荒らしております。
689 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 14:10:52 ] 一生懸命考えた結果がこれだよ!
690 名前:デフォルトの名無しさん [2008/09/22(月) 00:14:47 ] 糞スレに常駐するDQNは何もできないからこそ常駐して妬んでいるだけ。 まさに病気そのものwっうぇええうぇうぇっうぇ
691 名前:真スレッドストッパー mailto:sage [2008/09/25(木) 01:28:39 ] つか、本とかの解説どおり習得して終わり。 さあ満足したか?それでおわり、その先はない。 結局自分では真似だけして何もできないのが、その先があると勘違いして 騒ぐが結局は自分で生み出したものではないので何もできない。 つまんねーなw。すこしは自分で結果をだしてみろよ。 物事を生み出すことができないのは君が論理に支配されているからだ。 論理を超えてみろよ、嘆きの壁は越えられない。 そう定義されているから、だから諦めろw
692 名前:デフォルトの名無しさん [2008/09/25(木) 18:14:44 ] >>672 そのソースは修正のところで、教師信号がp個あったら 現状での、全てのパターンの信号の誤差を和算して一気に修正してるけど、 データ0で誤差を計算し修正。 データ1で修正後の荷重を用いて誤差を計算し修正 データ2、データ3で・・・・データpでってやるのが
693 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 07:39:30 ] >>692 日本語でおk
694 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:44:10 ] 逐次更新より一括のほうが正しい計算だろ
695 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:47:36 ] シミュレーション板へ帰れ! ここはプログラミング板だ
696 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:49:14 ] この板はプログラムを作る人のための板です。 あらゆる質問はまずすれ立てるまでもない質問はここでスレにしてください。 その他、お勉強ページへのリンクスレ、 推薦図書・必読書スレ もあります。 プログラム・ソフトの使い方は PC 初心者板やソフトウェア板へ。 ウイルス、ハッキング・クラッキングを求めるような発言は禁止です。 Javascript は Web 制作板、CGI は Web プログラミング板へ。 業界談義、愚痴はプログラマ板へどうぞ。 ゲーム関係の話題はゲーム製作板へどうぞ。 ネタ、板とは関係の無い話題はご遠慮ください。
697 名前:デフォルトの名無しさん [2008/10/01(水) 17:35:15 ] >>231 のソースコードが見れない見たい。
698 名前:デフォルトの名無しさん [2008/10/07(火) 17:33:51 ] >>227-228 のデータを3層ニューラルネットワーク、中間層の素子数10でやると 5秒くらいで学習が完了するんですけど、 素子数を100にすると学習がなかなか進みません。 100って多すぎるんですかね?
699 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 01:19:21 ] >>698 素子数の組み合わせの数がどれぐらいになるか計算もできないの? 単純なニューラルネットワークは大規模になるほど指数的に難しくなる。
700 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 09:48:51 ] >>698 中間層増やし過ぎるとカーブフィッティングしまくりで使いものにならないよ。
701 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 19:32:13 ] 問題ごとに中間層の素子数はどのくらいが適正なんて ノウハウは公開されたものはどこにも無いのな? みんな経験と勘で決めてるのだろうか?
702 名前:デフォルトの名無しさん mailto:sage [2008/10/27(月) 00:24:08 ] >>701 だいたいは経験と勘。 もし適切な数というものを半自動的に決めたいのなら、そこは 統計学の分野に一日の長がある。 具体的には多変量解析、重回帰分析、増減法とかでぐぐれ。 それすら単なるノウハウと言ってしまえばそれまでだがな。
703 名前:デフォルトの名無しさん mailto:sage [2008/10/28(火) 23:52:50 ] >702 サンクス。 何かものの本を見るとAIC(赤池情報量基準) とか言う決め方があるみたいだな。 勉強してみよう。
704 名前:デフォルトの名無しさん mailto:sage [2008/12/14(日) 18:58:12 ] わかる人いるか 自己組織化マップ(SOM)に興味もってる。 脳は自己組織化を実現してるのは間違いないと思うけど、 一方で自己組織化を実現する本質はSOMじゃねえと思ってる。 近傍学習・競合学習を、ニューロンが持つ単純な計算機能を SOMみたいな入力層・競合層みたいな構造ではない、ほかの構造で、 実現しているんだと思う。 でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 時間軸方向に、何か発火の時間的なタイミングとかパターンが 意味を持つような形で、構造化されてるんじゃないかと思う。 たとえば視覚情報は、シリアルな値として入力層に現れるんじゃないか、という話。 SOMの学習済み競合層は、よく2次元でマップされてるのが例として出てくるけど、 これは時間軸方向までを含めて、ある時間軸の窓の中での自己組織化を 切り出した形なんじゃねーのか、という話。 これ、形式化したいんだが、どうしよう。
705 名前:デフォルトの名無しさん mailto:sage [2008/12/19(金) 00:58:48 ] SOMから離れろ 海外の論文を漁れ
706 名前:デフォルトの名無しさん [2009/01/15(木) 19:28:54 ] >>704 日本語でおk?
707 名前:デフォルトの名無しさん [2009/01/25(日) 09:46:59 ] >>704 よくわからんが、時間変化というか時間軸方向でのパタンこそが、ってことかな。 俺もそれは思う。
708 名前:デフォルトの名無しさん mailto:sage [2009/03/14(土) 01:31:09 ] 文字認識や波形からのデータマイニングに使える気がするんだけど・・・・
709 名前:デフォルトの名無しさん mailto:sage [2009/03/19(木) 00:41:14 ] 教師有り学習と教師無し学習って手法毎に明確に分類できるわけじゃないよね?
710 名前:デフォルトの名無しさん mailto:sage [2009/03/21(土) 12:53:00 ] 人間が曖昧な記憶をするのは、 曖昧な認識をするためじゃないのかなー。 データを信号に変えて、曖昧な記憶をさせたらどうだろう。
711 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:11:26 ] ちょっと質問、遺伝的アルゴリズム(GA)とニューラルネットワークって違うんでしょうか? どっかで、GAのスレがあったら教えてください。
712 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:15:15 ] 違う science6.2ch.net/test/read.cgi/sim/1017102268/
713 名前:デフォルトの名無しさん [2009/04/17(金) 21:52:34 ] >>710 非論理を記憶させ、それを構築するには、それを与える人が非論理を理解 していなければ成り立たないだろ。 おまのは、そのようになったらいいな、とか、 やってみたらどうだろとか、誰でも始めに思いつくことを言っているに過ぎない。 曖昧な記憶だ?んなのは人工知能を始めて想像した数学者チューリングすら やっていた思考実験だ、バカス。
714 名前:デフォルトの名無しさん mailto:sage [2009/04/18(土) 09:13:03 ] むしろ曖昧な記憶って何? そういう研究領域ってあるの?
715 名前:デフォルトの名無しさん mailto:sage [2009/04/19(日) 08:33:32 ] >>712 ありがとう
716 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 03:28:18 ] >>714 心理学とか? 記憶がどう変容していくかとかの実験とかやってた 凶器注目効果とかも近いかも
717 名前:デフォルトの名無しさん mailto:sage [2009/05/24(日) 18:10:08 ] なぜ誤差逆伝搬学習法による中間層-中間層のシナプス結合荷重を変化させると非線形の出力に対しての領域わけができるのでしょうか?
718 名前:デフォルトの名無しさん [2009/06/08(月) 00:08:14 ] >>717 自然淘汰、ダメなものが消滅、良いものが生き残る。
719 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:22:42 ] >>714 無意識で記録される記憶、 意味にならない記憶、 無意味な記憶 無意味を情報処理する方法を脳が潜在意識として実現している。 ニューラルネットワークなどの仮想モデルの説明では、 自己組織化で自動構築されるので外部からそれを見ることも観測する こともできない、できても意味がない。 動的に構築されるというのはそういうタイプの情報処理である。 その辺で無意味を扱えるのは科学ではない、非科学の領域だよ。 だから考える必要すらない。研究したらトンデモ研究に認定される。
720 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:36:12 ] >717 それって、 「なぜパーセプトロンは線形分離可能なパターンしか分類できないのか?」 の裏命題だよね? ミンスキー&パパートの「パーセプトロン」を読め、じゃあ無くて 単純パーセプトロンは結局、入出力関係を線形一次結合にしかできない 中間層-中間層があれば非線形な関係を表現できるとしか 説明しようが無いんじゃあ? 逆誤差伝播法が発明されたのでそれを実際に学習させる事が可能になったと。
721 名前:デフォルトの名無しさん [2009/06/08(月) 00:49:41 ] 旨くいかないのは、ほとんどが学習で集束しないという話である。
722 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 15:51:19 ] >>721 見積もりができてないだけじゃん。 そもそも規則性が無いものは学習できない。 秩序がない抽象的なものを学習させるのは無理というもの。 それ以前に学習させたか怪しいな。多層構造になると学習させるのが 単純ではないぐらい理解してないとかw
723 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 22:14:04 ] 抽象的も何もデータになってる以上はできるだろ 使ったこと有って教えてる?
724 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 00:13:42 ] なにも分らない奴ほど短いレスをする法則
725 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 01:17:46 ] でも簡潔で全てを物語ってるな
726 名前:デフォルトの名無しさん [2009/06/09(火) 22:02:30 ] だんだん短く
727 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:28:24 ] なる
728 名前:デフォルトの名無しさん [2009/06/09(火) 23:43:21 ] よ
729 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:46:55 ]
730 名前:真スレッドストッパー mailto:sage [2009/06/10(水) 12:10:30 ] 512KBを超えました、新しいスレッドを作ってください。
731 名前:デフォルトの名無しさん mailto:sage [2009/06/10(水) 12:17:40 ] >でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、 発火の失敗もある。つまり1と0だけではない。
732 名前:デフォルトの名無しさん mailto:sage [2009/06/26(金) 23:10:42 ] グーグルで 「階層型 ニューラルネットワーク java」で検索すると出てくる www.geocities.jp/retort_curry119/NN.htm からDLできるソースってちゃんとニューラルネットワークできますか?
733 名前:デフォルトの名無しさん [2009/07/12(日) 19:15:20 ] 今レポート書いてんだけど。 ニューラルネットワークって実際の脳の仕組みと同じなのかな? 詳しい人教えてほしいです
734 名前:デフォルトの名無しさん mailto:sage [2009/07/12(日) 19:35:33 ] 同じじゃない ニューロンとシナプスの構造を単純化したもの
735 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 09:00:05 ] >>733 根本原理は用語的には同じ。というよりニューロンのネットワークだから 直訳すれば神経網、脳が神経網とは違うのか?と聞いているのと同じ。 貴方が聞いているのはコンピュータモデルでの単純化したタイプだと 734が予想&補完した返事をしているだけ。 ニューラルネットワークは単純化した部分がもっとも重要であり 主幹として機能しているが実際の脳とは学習アルゴリズムは違う ので比較ができない。 >>732 階層じゃなくても貴方のいうニュールネットワークはできる。 しかしそれは生きた神経網を採取して部分的に成長さえて機能ができている かを確認しているのにすぎない。 貴方が背景で考えていると予測してその意味的な「できる?」という返事なら それはできない。理由として貴方にそれを扱うスキルがない。 貴方が思っている対象は多分、高等な情報処理であり、実験的なものではない 機能させる対象が単純モデルならNNを使う必要すらない。高等なら貴方に そのスキルがないってこと。貴方の学習でも階層を使う必要すらない。 コンピュータで比喩すれば、現在のWindowの大型アプリを使うのではなく 電子ブロックを抜き差ししている状況だと悟ろう。
736 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 10:32:44 ] 入出力連続値、閾値なしのBP対応3層NNを作りましたが、 3層から多層に変えると、記憶できるパターン数は増やせますか? 3層の中間層を増やすことと同じであまり期待できないのでしょうか?
737 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:29:37 ] >>736 既に作ったなら多層にするのは大変なことじゃないだろ? なぜ自分で試してみない?
738 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:51:20 ] 中間層を増やすとか言う曖昧な表現してるから理解できてないんだろう
739 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 16:47:05 ] いや返事もないので、すでに多層化した。
740 名前:デフォルトの名無しさん mailto:sage [2009/07/21(火) 22:26:58 ] それどこが難しいんだ 小学生でもできるレベルの改良だろ
741 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 07:51:00 ] アソシアトロンってどうでしょう
742 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 09:04:22 ] >>740 難しい?。簡単だよ。だけどその後の検証が面倒なんだ。 既にわかってることに時間かけても仕方ないからね。
743 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 18:50:18 ] では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ プライドのためだけに>>739 の様なレスを書く時間をかけたのは無駄ではないのか
744 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:04:28 ] もしかして、「3層の中間層をふやす」って文章のこと? 文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。 3層の中間層のノードを増やすが正解。
745 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:32:48 ] 表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない おめーら雑談たのしいの?
746 名前:デフォルトの名無しさん mailto:sage [2009/07/24(金) 23:04:58 ] 本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ
747 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 01:21:50 ] 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ 必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
748 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 06:37:25 ] >>741 ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。 記憶に興味がもてたらもう一回調べてみよう。 今朝思いついたけど、夢を見たことを忘れるのは、 寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。
749 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 07:10:15 ] たった一行のレスに時間をかけたといったり、 一言コメントしてからおめーらといったり。 論理が破綻してるひと多すぎ。
750 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 12:52:19 ] まだまだ燃料としては弱い 夏で外が暑いからといって燃料投下を止めていいと思うなよ
751 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 19:21:36 ] 学問でやりたいなら数学の板が適してるんだろうけど 数学理解する力がないんだろ
752 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:00:56 ] 英語と数学は壁だね。何やるにしても。
753 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:14:50 ] ムキムキしながらって表現になんか笑ったw なんだそれw
754 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:49:35 ] さぁレスするぞーー!! _ / jjjj _ / タ {!!! _ ヽ、 オーー!! ,/ ノ ~ `、 \ _ `、 `ヽ. ∧_∧ , ‐'` ノ / `j ∧_∧_ \ `ヽ( ´∀` )" .ノ/ / /`ー' オーー!! ( ´∀`)  ̄"⌒ヽ `、ヽ. ``Y" r ' 〈 `ヽ / ) ヽ' / 、 `、 i. 、 ¥ ノ `、 ヽ∧_∧ γ --‐ ' λ. ; `、.` -‐´;`ー イ 〉 ´∀) ,-、、 f 、 ヾ / ) i 彡 i ミ/ / ノ  ̄⌒ヽ 「 〉 ! ノヽ、._, '`"/ _,. '" } { ノ ' L `ヽ./ / |  ̄`ー-`ヽ 〈 < _ ヽ. / `\ / , ' ノ\ ´ / !、__,,, l ,\_,ソ ノ / /ヽ、 ヽ. ( ∠_ ヽ、_, ' 〈'_,/ / / / ノ ヽ. ) i 、 ヽ | | イ-、__ \ `ヽ { f _,, ┘ 「`ー-ァ j l.__| }_ l \ \ | i f" ノ { / _.| .〔 l l ノ _> j キ | i⌒" ̄ / /_ 〔___! '--' <.,,_/~ 〈 `、ヾ,,_」 i___,,」 `ー-‐'
755 名前:デフォルトの名無しさん mailto:sage [2009/07/26(日) 14:46:56 ] 階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は シグモイド関数のα(ゲイン)の値を小さくして、 (X−Xmin)/(Xmax−Xmin)と基準化させて出力。 出力結果を質的データとして出したい時は αの値を大きくして(ほぼ?)0,1の出力をする。 という理解で大丈夫ですか?
756 名前:デフォルトの名無しさん mailto:sage [2009/07/27(月) 06:21:43 ] 返事もないので、すでに自己解決した。
757 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 03:41:16 ] >>755 やってみてから考えろ。
758 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 07:39:54 ] SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?
759 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 15:25:50 ] >>758 やたら挑戦的なweb記事が見つかった www.mindware-jp.com/basic/faq2.html
760 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 08:41:25 ] >>759 どうもです。 長らく悪菌でした・・・ 面白いですねw もっともだと思うこともあれば根拠なき断定ではというのもありますね。 ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、 アカデミアではどう受け止められているんでしょうか?
761 名前:デフォルトの名無しさん [2010/01/16(土) 03:17:11 ] くだらんおべんちゃらはよせ
762 名前:デフォルトの名無しさん mailto:sage [2010/01/19(火) 19:14:55 ] www.natureasia.com/japan/highlights/details.php?id=570
763 名前:デフォルトの名無しさん mailto:sage [2010/01/21(木) 21:10:58 ] 話題がねーなー
764 名前:デフォルトの名無しさん [2010/02/01(月) 04:53:50 ] 多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が 必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、 前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか? 関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。
765 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 20:00:53 ] 肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし
766 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 22:43:37 ] 私自身、はじめは目視でやっていたのですが、 目視ではなく、プログラム側で自動で判別できるような条件 等があれば良いかなと思うんですがどうですか? 初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する 方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある 関数で、谷間の間の部分の教師データが採用されない等の問題がありました。 そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で 制御できないかなと思い質問しました。どうでしょうか・・・?
767 名前:デフォルトの名無しさん mailto:sage [2010/02/02(火) 21:57:28 ] 特徴量がうまくとらえられていないデータは似たような位置が似たような値をとっているはず 多すぎるデータを間引くのならそういう場所は削って良いね 同じ位置の値が似てるかどうかはエントロピーでも見れば判るかな
768 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:11:27 ] とりあえず、すべてのデータに大して隣り合う点との距離について計算して その距離があるしきい値以上ならば学習データとして採用することにしました。 これで平坦な部分(関数全体からみて)についてはデータを少なくとることができたのかな? 変化の激しい部分はデータを多くとれるはず。 (データをある程度しぼって学習して、学習が進んでからデータを追加する仕様で プログラムを作成しています) >>767 近い位置のエントロピーを見てみるということですか。 うーんと・・・エントロピーってなんでしたっけ?平均情報量? 大学でやったような気がしますが教科書あげちゃったな… この場合、具体的に何を計算すればいいのかな。
769 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:15:39 ] ああ、表現が不味いかも上の"距離"というのは入力がx、出力がf(x)のときのf(x)のことです。 作成したプログラムは3次元の関数近似が目的なのでx,yの入力に対してのf(x,y)の値を 参考にしていますが… f(x,y)の値が隣のデータと離れていればいるほど、付近では関数の値が急に変化していると考えられるので 先に学習することでのちの学習がスムーズに行くのでは?と考えたためです。
770 名前:デフォルトの名無しさん mailto:sage [2010/02/06(土) 23:15:03 ] 手書き文字のサンプルを集めたいんでけど どうすればいいかな? HTMLで作るとか?
771 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 01:10:28 ] >770 昔自分で用意したときはペイントで描いてから拡大表示してデータを作った。 5人ぐらいでやればみんなが違うパターンのを得られて楽でした。 そんなに精度要らないなら自分で作ったほうがはやいかも。
772 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 18:22:43 ] 卒論NNやれって言われちゃったよ・・・ なにやればいいんだ?
773 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 22:31:07 ] >772 時間がかなりかかるから今からじゃあ無理だと思うけど。 ああ、来年発表ですか?それなら NNっても卒論にするならいろいろあるからテーマが決まってないなら いくつか論文読んでからまたどうぞ。
774 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 19:59:05 ] ニューラルの論文集みたいなの無い?
775 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:33:42 ] うーん…多分NNやれって言われたならそれなりに準備してくれると思いますが、 先生に論文どれを読んだらいいか聞いてみたほうがよいかもしれません。 論文集をまとめてあるサイトは知りませんが検索したらいくらでもでてくると 思いますよ。
776 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:38:31 ] googleにgoogle scholarっていう学術論文検索できるやつがあるのでここから scholar.google.co.jp/schhp?hl=ja 探せばいいかな。 でも、ニューラルネットワークで検索しても多すぎるし古いので、 例えばパターン認識とかリカレントニューラルネットワークとか誤差逆伝播法とか そのへんも検索に入れるといいかもしれませんね。 あなたのところの卒論のレベルは知りませんが、学部生ならこのへんの論文を参考に書けば十分だと思いますが。
777 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 01:56:21 ] 混合ガウス分布ってもう実用に使えるの? 共分散の自動調節が変だった記憶あるんだけど
778 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 14:23:18 ] 文字認識の精度が上がらないよー
779 名前:778 mailto:sage [2010/02/11(木) 15:12:01 ] ただ、手書きの文字を入力にしてるからかな? 手書き文字からパターンを抽出したいんだけど、どうやればいいかさっぱり分からん・・・
780 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 19:46:36 ] >778 プログラムあってるのか? あと、文字数を減らせばいいんじゃないか? とりあえずAとBとCの3つぐらいからやれば… 入力するパターンもAが5つ、Bが5つ、Cが5つとかにするんだぞ それぞれのパターンで書き方を少し変えればいい。 あともう少し実験の条件を晒してくれ… 入力してる文字とか…
781 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 20:43:38 ] 特徴量のとり方はどうやってる?
782 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 01:21:30 ] >>780 ありがとう、認識文字は0〜9で、 0〜9の入力に対してそれぞれ200回更新して、それを200回ループ回してるんだけど、 3と8と2がうまく学習できない。 てか、最後に学習した8になっちゃう感じ プログラムは↓ for(i=1 ; i<200 ;i++) { for(patarn=0 ; patarn<10 ; patarn++)//パターンをそれぞれ一つずつ学習 //教師信号割り当て //入力割り当て for(j=1 ; j<200 ;j++) { //入力誤差、出力計算 } } } こんな感じ、
783 名前:デフォルトの名無しさん mailto:sage [2010/02/16(火) 17:38:16 ] >782 見た感じ間違ってない気がするな。 数字の認識は3,8,2が上手く学習できてないのはなんだろうな 中間層の素子の数が足りないのかな。 もしくはこのプログラムは何回かやってみた?更新回数を増やすとか、学習係数の値の変更とか。 たしか、自分がやったときは文字の線が細いところを太く書いたら上手く分離できるようになったと思う。 とくに数字なら斜めの部分を太めにやってくれれば違うかもしれない。 あんまり似てると上手く分けられないからあえて違うように文字を書くのも最初のうちはありかも あと、0〜9を0から順番に学習しているから8が最後になっているみたいだが、これに関して 順番を変えることで結果はどうなるのか試してみたらどうかな。 (9から1に学習したら2になるかどうか?)
784 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 23:35:08 ] たまにはレスするか・・・ ニューラルで指紋認証やりたいんだけど 指紋そのまま抽出するより、特徴を抽出したほうが良いよね? 指紋の特徴って何がある?
785 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 07:00:32 ] 特徴点
786 名前:デフォルトの名無しさん mailto:sage [2010/04/02(金) 09:58:40 ] パーセプトロンで作ってみました www4.cncm.ne.jp/~tsuri/per/aaa.wmv
787 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 15:46:09 ] hebb学習ってバックプロバみたいな正解と出力の関連付けが出来ないけど 出来るようにする方法を思いついた ちょっと実験してみよう >>784 特徴っていってもいろいろあるからな 角を検出したり直線を検出したり曲線を検出したり 画像処理スレの方が詳しい人が居るだろう
788 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 18:42:38 ] 自分が使う不出来な構造のNNの為に特徴抽出の お膳立てしてあげようとしたら その前処理段階で判別に十分な特徴出ちゃったりなんて話も
789 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:15:57 ] 音声を入れたら文字が出力されて 文字を入れたら音声が出力されるNNを作ろうと思うんだけど これって研究対処になる?
790 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:30:42 ] >>789 そりゃなるでしょう。 特に英語なら綴りと発音の関係がややこしいし。 音声認識は昔からNNの研究対象分野だし。 ただ、DecTalkとか言う先行研究がすでに有ったような。
791 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:00:00 ] 卒論のテーマ考えてるんだけど 何やればいいかわからん 誰か助けて
792 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:29:43 ] 興味があること
793 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 03:37:31 ] NNって別にすごいことしてないしな 何をやってるのか解析しようと思えば出来るだろう いや実際数式化しようと思えば出来ると思うがな 特にバックプロバケーションタイプなんて もろ教師信号からパラメータの中央値を糞無駄な計算を繰り返して 導き出して、しまいにはそのパラメーターを使いまわし しかも使う人間も馬鹿だから全部のパラメータが重要だと思って 無駄計算を繰り返してるだろ
794 名前:デフォルトの名無しさん mailto:sage [2010/04/18(日) 21:12:18 ] 連想記憶モデルって何の役に立つんだ?
795 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 16:59:00 ] SVMは単に2値に分離するだけだけど NNは無限個に分離できる可能性がある 可能性があるというのは構造や規模次第って意味で ただいろいろ不利な点がある 追加学習が出来ない 適切な構造が分からない 計算に時間が掛かる いろいろ解決法は考案されてるものの誰もそのアイデアを公表しない そして秘密にして利益を守ろうとする割にはアイデアがしょぼいw だから発展しないし利用出来るだけの材料がまったく揃ってない
796 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 17:16:59 ] 例えば XOR問題を空間であらわすと SVMは ○| ----- |○ NNは □| ----- |□ みたいな感じだな SVMは角が無いんだよ
797 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 00:03:08 ] ニューラルネットで実用的なモデルって何? 何に需要あるの?これたちの悪い罰ゲームなの?
798 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 01:44:12 ] 構造をいちいち検証せずとも自動的に決定してくれて 学習に何週間も時間を費やさずともよくて フリーのライブラリが各言語に標準に近い状態で実装されてれば かなり需要があると思うが 現状ではNNを利用するには目的にあったNNを発明する所から始めないといけないという だから作ったものは自分にしか需要がない
799 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 23:26:35 ] 多層のフィードフォーワードとリカレントの特徴の違いを教えてください
800 名前:デフォルトの名無しさん mailto:sage [2010/04/22(木) 07:53:31 ] フォーワードは BPのように入力から出力の一方向接続があって 教師信号で逆方向の重みを計算する この時に出力の計算式と修正の計算式が違う それを統合してしまおうというんおがリカレント 出力層と中間層は入力層に接続されていて それぞれの出力計算と重み修正の計算式は常に同じ しかも線形だから実に簡略化されたもの でFA?
801 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 00:01:01 ] www1.axfc.net/uploader/Sc/so/106271.zip ダウンロードパス: im NNの概念とか無視してプログラム的に結局こういうことをやってんでしょってのを考えてみた 連想記憶用メモリみたいなもんです 特徴としては 追加学習が出来るのと強化学習が出来る 強化学習はまだ実装してない 結果を取り出すのは入力桁数ステップでいいからかなり高速 そしてアルゴリズムは教えないw
802 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 04:49:56 ] windowsを消し去って初めて後悔した
803 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 06:41:49 ] ニューラルで何か新しいことを研究にしたんだけど 何も思いつかんわ 誰か知恵を貸して
804 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 07:47:15 ] 株価予測、文字識別、ニューロ制御、TSP、 グリッドコンピューティング、803より賢い無脳 は、何も見てないけど、既にたくさん研究されているだろう
805 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:35:21 ] fx.104ban.com/up/src/up16120.png XOR問題を解いてみた
806 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:36:37 ] >>801 のやつね
807 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 17:17:21 ] 誰か文字認識のプログラムちょうだい!
808 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 19:13:27 ] >>801 ので強化学習が出来るってのを実験したいんだけど どういうアプリ作ったら分かりやすいかね? テスト用なんであんまり大規模なのは勘弁
809 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 19:58:04 ] ちなみに>>801 の何が普通のNNと違うか見てもらえばわかるけど 赤が1.0青が0.0を学習させてるんだけど しばらくあるポイントの情報を学習させた後にポイントを生成しなおして切り替えても しばらくはもともと学習してたポイントの記憶を保持してる だから追加的に学習していっても古い記憶を保持したまま新たな記憶を覚えていく 時間がたつと古い記憶は薄れていって同じ学習入力が無いと消える この時間は調整可能 だからノイズの学習が行われても簡単には過去の記憶は消えない
810 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:28:35 ] 連想記憶は自己相関での結合行列に重みを付けしての誤り訂正とか、 相互相関で記憶したパターンを順番に生成するぐらいしかないんだと思っていた この分野でテンプレに出てきそうな書籍ってないの?
811 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:29:17 ] アルゴリズム教えて!
812 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:35:39 ] この分野で卒研着手するとなると、使用する言語って何がいいんだ matlabとかR?Java,c++? boostとgslかじって、c++が幸せそうな気がしているけれども
813 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 23:00:20 ] 俺はC++ 行列使うならmatlabじゃん?
814 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 03:05:28 ] >しばらくはもともと学習してたポイントの記憶を保持してる どうやってるの?
815 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:10:39 ] >>814 予備知識もなにもなかったんだが SOMってのがかなり近いみたいだ 根本的にアルゴリズムは別物だけど 発想が似てる
816 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:20:14 ] 入力を次元で考えたのがまったくSOMと同じだった 中身はかなり違うけど SOMは分類するだけだけどこれは学習するからね むしろ逆に分割するとも言える
817 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 22:17:30 ] 入力が次元なだけに増えると指数関数的に処理速度が低下するのが欠点で 今それで悩んでたんだけど こいつの記憶保持のメカニズムがBPに応用出来そうな気がするんだよな
818 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 00:26:57 ] SOMのユークリッド距離を使うアイデアはなかなかいいですね 計算を単純化出来る その方法で重み修正をやるようにしてみたけどうまくいった 記憶保持機能もそのまま SOMとは計算式がぜんぜん違うけども
819 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 12:49:15 ] www1.axfc.net/uploader/Sc/so/107963.zip パス im とりあえず最新版 学習方法をランダムポイントにしたので遅いけど変化が分かりやすい 一旦XORを学習させてランダムで上書きしようとしたらかなり抵抗するのが分かる
820 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 23:42:52 ] こんな場所で実行ファイルだけアーカイブしても誰も実行してくれないんじゃ…
821 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:10:54 ] ソースは公開しないけど まだバグとか改良の余地があるから 設定出来るパラメータも単純化したいし そのうち組み込みで使えるようにライブラリはアップするかも
822 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:15:20 ] 専門家でもないし学生でもないし たまだまNNに興味があったプログラム好きのど素人だから 公開したらアイデアぱくられて終わりとか悲しすぎるしw
823 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:54:26 ] たいしたアイディアでも無いくせにな
824 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 04:15:11 ] まあ、過疎ってるよりはいいかな
825 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:47:48 ] 今年4年の学部生です ニューラルネットワークでルービックキューブの解法を探す研究をしようと思うのですが 実現可能でしょうか?出来そうかだけ教えてください
826 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:51:41 ] うん
827 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:53:41 ] Yes.
828 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 22:41:04 ] >>826-827 単にNNでできるかできないかで言えばそうだろうけど、研究可能ですかって意味では車輪の再発明じゃね? 既知を研究するもまた研究という人もいるだろうけどさ。。。
829 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 23:31:32 ] でも、難しいと思うよ
830 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 00:58:43 ] wrongway.org/cube/solve.html
831 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 01:09:02 ] ニューラルでやってんの?それ
832 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 02:36:02 ] ニューラルでやったらそこそこの研究になるんじゃない?
833 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 03:12:30 ] >>830 のソース読んでNN使えば(多分)改善する箇所思いついた やってみよっと
834 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 08:21:13 ] 解法って最短解法って意味ならNNじゃ無理だよ 時間はともかく必ずいつかは解ける方法を学ばせるのは可能だけど
835 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:12:01 ] なんで最短は無理なん?
836 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:29:32 ] ってかNNでできるのか? 構造とかどうすればいいんだ? 俺には全然わからん
837 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 03:26:20 ] ルービックキューブのルール通りに動くようにNNを構築するのは難しくね? ばらばらの色の配置→6面完成だけならできると思うけど
838 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 09:13:29 ] NNを神格化してるのか知らないが ただの連想記憶装置だから 0.0〜1.0のアナログデータを保存するだけだから 0.1区切りなのか0.01区切りなのかはNNの規模で決まるだけで 実際に表現出来る範囲には制限がある ルービックキューブには何億通りのパターンがあって それを全部記憶するのは無理だから無理 どんな並びだろうと一定の法則があって 簡単に算出出来る規則性があるなら可能だけど
839 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 13:24:15 ] 表面的に知ってるだけだから 使い方・使い所がわかってないんだなぁ
840 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:24:31 ] NNは脳の構造を真似して作ったものだけど 研究していくうちに実は数学的にクラスタリングする機能しかないことが分かって だったら無駄な計算なんかしないで直接的に数学問題を解けばいいじゃない ってんで生まれたのがSVMとかで 最初は主に顔画像を検出したりする画像処理に利用しようとしてたけどうまくいかない なぜなら数学的に問題を解いてもなおプログラム的には速度が遅いし 適切な記憶容量が計算出来ないからだけど それで画像処理分野ではSVMなんかで統計を取る前処理として データ構造を統計上問題の無い方法で単純化しようという研究が行われて 光源によって色が変わるから色は無視しようとか、角度によって分布が変わるから 方向は無視しようってな具合でどんどん条件を絞り込んでいったら 結局数学的にクラスタリングする機能を1つづつ専門分野に適用していってるだけだったというオチ 万能なNNを作ろうとすれば結局は数億規模のデータを処理出来るコンピュータが必要だという 結論に至っただけですよ
841 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:29:31 ] そして顔画像検出の有効な利用法を発明したんだけど 誰か研究してみたら? 心霊写真を見つけられるw
842 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 20:34:35 ] ニューラルネットってなんなの? SOMもリカレントもボルツマン機械もぜんぶNN? それとも、多段のフィードフォーワードのみのこと?
843 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 20:44:19 ] >>838 マッカロックピッツがどーこーの、1,-1をつかうモデルは何なんだ
844 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 22:00:40 ] >>842 定義としたらNNの仲間なんじゃないの? 一応ニューロンという概念と抑制性を利用してるわけだから ただ発明した人はもう数学的に問題を解いただけだから 個人的にはニューロンとかいう言葉を使うのもどうかと思うけど SOMは次元データを2次元に置換する公式を解くだけのものだし リカレントはBPに時間遅延の概念を入れただけ 本来のニューロンのネットワークという意味でのNNとはどんどん離れていってるw
845 名前:デフォルトの名無しさん mailto:sage [2010/05/03(月) 02:58:10 ] 刻々と変化するネットワークをエネルギー関数を用いて最適化するのもNNって言うの?
846 名前:デフォルトの名無しさん mailto:sage [2010/05/07(金) 23:15:02 ] どうやってルービックの解法をNN探すの? 最適化だからホップフィールドでやんの?
847 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 01:53:47 ] 俺も教えて欲しい
848 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 11:15:00 ] それが分かった時点で研究が完了する
849 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 16:54:15 ] 俺の出した結論は無理
850 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 19:32:49 ] 浅いねぇ
851 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 20:50:25 ] 無理なんて言葉は使わず非常に困難とかにしとけ
852 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 06:05:30 ] で、このスレにできそうなやついんの?
853 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:23:15 ] 俺の考えが浅いのかお前らがNN理解してないのか…… 〜INPUT〜 キューブは6面、1面には9パネル 操作はまわすことにより9パネルのうち3パネルが4面に関して入れ替わる 〜探索終了条件〜 6面の9パネルがおのおの同じ色になること 初期状態は探索終了状態のn手手前の状態 INPUTの操作を逐次記録する 典型的な探索問題だろ? むしろこれができなかったらNNなんて何ができるんだよ。
854 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:30:38 ] どうやって探索するの?
855 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:32:48 ] どうやって状態が遷移するのかが思いつかない
856 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 17:24:27 ] >>853 それでできるかもしれないけど記憶量が多すぎる TSPみたいにエネルギー関数を使って勝手に最適化する方法は無いかな?
857 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 18:30:57 ] っ【連想記憶】 本なんかによっては別称かもしれん
858 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 14:29:15 ] ルービックキューブをNNでやるってのは ルービックキューブに一定の解法の公式が存在することを証明する行為と同義でしょ NNは関数近似なんだから わざわざNNでやってみて試すことじゃないと思うけど 無理だけど、どうしてもやってみたいというのなら まずは何億通りのパターンを一括で学習させるのは不可能だから 追加的に学習させるNNを作るのが先になるだろう その時点でもう研究課題として成立しそうだけどw
859 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 14:54:34 ] ずっと俺のターン!なオセロやチェスと考えるんだ。 チェスなら参考論文とかでてくるだろ。
860 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 15:49:42 ] >>858 ハズレ >>859 正解
861 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 16:17:18 ] >>859 オセロやチェスは置くところ間違えてもゲーム終了するけど ルービックキューブは終了しないから無理
862 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 20:00:16 ] じゃあ連想記憶じゃできないの?
863 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 22:58:18 ] >>862 どんな風に解くんだ? 初期配置のパターンを結合行列にでも記憶させて、極小値でも探すのか? キューブはどうやって回すんだ
864 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 01:09:05 ] 俺が考えたのは、まずエネルギー関数を作って 初期配置から、次の状態になりえる状態を列挙し、 列挙した中で、エネルギー関数が一番小さい状態に一つ決めて、 それを繰り返す方法じゃ無理かな? これだとエネルギー関数しか使わなくて、閾値も結合荷重もシグモイドも使わないからNNといえるか わからんけど
865 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:03:33 ] >>864 正解
866 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:06:39 ] NNでできそうだけどな どうすればいいか分からんけど
867 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:22:16 ] >>864 NN使ってもできるんだけどね 使うメリットとデメリットどっちが大きいかは知らないけど
868 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:27:45 ] >>867 概要だけでも教えてくれ なんかやってみたくなくなった
869 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:29:50 ] 連想記憶ですべてのパターンを記憶する以外にNNで実装する方法は?
870 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:51:07 ] >>864 NNじゃないね それじゃただ統計取ってるだけだw
871 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:55:16 ] 閾値と重みを使って、ルービックキューブのルールどおりに状態遷移しないと駄目・・・ うーん難しい これは立派な研究になるんじゃない?
872 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:00:31 ] そうか・・・無いなら作ればいいんだ・・・ルービックキューブのルールどおりに振舞うNNを・・・
873 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:33:26 ] >閾値と重みを使って、ルービックキューブのルールどおりに状態遷移 こんなのにNN使わん
874 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:37:04 ] NNでできないってこと?
875 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:45:36 ] 何が?
876 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:48:40 ] >>875 NNでルービックキューブの解法を見つけること
877 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 06:16:51 ] >>861 オセロは何をしても基本60手以内で終わるけど、チェスは相手次第だよ。 一部の人は何かムダに難しく考えてないか? 主な条件は>>853 で書いた。 終了状態をf(n)とするなら開始状態はf(0)で、解くまでにn手掛かる。 NNで行うのはf(N-1)からf(N)を導くこと。 学習としては ・ある地点では不可能な操作を導いた場合は重みを変更する ・ある地点の値aがそれ以前の値Aと一致した場合、それは前に進んでない操作なのでAからaまでの操作の各々に対して重みを変更する ・f(0)に到達した場合はそれに至った操作の各々に対して重みを変更する 辺りで。普通にBPでいいんじゃね? 強化学習辺りを調べるといいかも。 NNに関する研究って意味では車輪の再発明以上のものにはならないはずだけど、研究したいなら俺には止める権利も義務もない。まぁがんばれ。 っていうかこれどこかの研究室の学生の春休みの宿題なんてオチはないよな?
878 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 06:46:15 ] >>877 躓いているのはそういうレベルの話じゃないと思うよ。 単純に何を入力したらいいのかわからないとか、教師信号をどうやって 取得したらいいのかわからないとか、そもそもNNがなにか分からないとかw そんな気がする。
879 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:09:06 ] >>853 まわすと4面の12パネルに加えて、 回したパネル行(列)の側面も90°回すと思ったんだけどあってる? 回転させて意味あるパターンは4通りだっけ
880 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:16:13 ] >>877 それはルービックキューブの解法が分かってる時、次にどうすればいいかNNで学習させてるだけで やりたいのは、初期配置を入力したら完成までの手順を見つける一連の操作をNNで実装したいんじゃないの? NNで扱えるかは別として
881 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:20:59 ] ちなみに「ルービックキューブ AI 解く」でぐぐった結果、20手あれば解けることが証明されてるそうなので20手以上掛かる操作はアウトと教えてもいいだろうね。 読み込んでないからAIが具体的に何を使ったかまではわからん。論文検索できる人は論文を当たればでるんじゃないかな?
882 名前:デフォルトの名無しさん mailto:sage 馬鹿な質問する前にググれ [2010/05/11(火) 07:26:23 ] 3x3の学習パターンから、NxN面を解くとかダメポ?
883 名前:880 mailto:sage [2010/05/11(火) 07:29:47 ] 説明が分かりにくかったかもしれない >>877 のように説明すると f(0)は初期状態 f(N)は終了状態(6面完成) まずf(0)を入力する、すると f(0)→f(1)→f(2)→・・・f(N) のうように完成までの手順が見つかる これをNNで作るってこと
884 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 08:02:27 ] >>883 強化学習とか連想記憶とかキーワードあげたろ? 作ればいいじゃん。 ちなみに「ルービックキューブ AI 解く」でぐぐった結果、 AIとは無関係にルービックキューブの最速解じゃないけど解法自体はでてきた。
885 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 12:11:52 ] >>877 だから f(N-1)からf(N)を求めることがすべてNNに向いてるわけじゃないんだって 全パターンと次の手を完全に記憶するんだったらただの統計データベースなの リュービックキューブのパターンを全部NNに入れ込もうとしたら物理的に 完全なデーターベースを作るのと同じ容量が必要になるの NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの そうするとほとんどのパターンは正確に記憶できないの だから無理
886 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 12:22:22 ] >NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの ここダウト。それは>>885 が勝手にNNはそういうものにしなくてはいけないって思い込んでるだけ。 今回の話はあくまでルービックキューブをNNで解くって話でしかない。話そらすな。 はっきり言ってNNを利用する必然は無いし、 NNがこの問題を解くのに最適だなんてことはこのスレの人間は誰も思っちゃいないわけよ。 いわば練習問題。
887 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 15:49:14 ] >>886 全部記録したらただの統計データベースだって 「連想」記憶じゃなくなるwだからNNではないw
888 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 15:55:23 ] 連想じゃなきゃNNじゃないっておめーXOR解かせた事ないのか
889 名前:デフォルトの名無しさん [2010/05/11(火) 15:58:39 ] 俺が思うに連想記憶じゃアルゴリズムで解かせてるのと同じになる ホップフィールドネットワークでルービックキューブ解けないかな?
890 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 19:32:58 ] NN (正確には ANN) の問題意識は,単に NN で何ができるかだけではなく, NN の研究を通じて人間の(生体の)NN がどういうメカニズムで動いて いるかを解明することにある これを忘れてはイカン
891 名前:デフォルトの名無しさん [2010/05/11(火) 19:50:18 ] 巡回セールスマン問題が解けてルービックキューブが解け無いなんてことないでしょ どうするかは知らんけど
892 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 21:31:01 ] >>888 XORが連想に見えないお前があほなんだ 11=0なのは例えでよく使われるだけで 実際には0.9 0.9 = 0.1 みたいなものも包括してるんだ
893 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:11:38 ] NNの分離能力が0.9 0.9 = 0.1 みたいなものも包括してる事と XORが連想でないこととは関連性が無い
894 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:25:12 ] >>893 XORが連想じゃないって言ってるのは888だろw なんで連想記憶問題によくXORが例示されるのか分かってないのかなw 一定のパターンを記憶出来ることを証明するためじゃないぞw
895 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:37:03 ] 連想記憶ってのはようは 例えば整数値1....10000なんてのがあったらこれを00〜0.1に置き換える問題で ただし尺度は可変だからn/10000なんて単純な式じゃない 例えば0.3〜0.4は200〜1000だけど0.4〜0.5は1000〜1010なんてことが起こせる関数の総称だよ XOR問題は特殊でこれにさらに前後入れ替え作用まで引き起こせる関数の実証に使われる ただのデータベースはn/10000だからNNじゃない
896 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:50:07 ] >>891 そりゃ解いたのが誰だかしらないが解いた気になってるとしたら相当あほなんだろ 気づかずにただ道順の総パターンの記憶装置を作っただけだと思うがね
897 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 00:18:18 ] >>896 いやおまえが馬鹿だ 解法あるのにさ
898 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:43:10 ] >>897 総当たり以外に解法があるのか?まじで?教えてw
899 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:47:09 ] >>897 もしそれが本当なら最短経路探索にも解法が存在することになって これはかなり実用的なものだぞ
900 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:55:17 ] 「解法」って何の事なんだろうね
901 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:58:12 ] >>900 知らないが、総当りで得ものはNNではないといい続けてるから >>897 の言う解法はそういう意味ではなく、純粋に多項式で解く方法を意味して言ってるんだろ思ったんだが アルゴリズムを高速化しただけの近似解法はただの総当たりなんでこれも違うだろうし
902 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:59:08 ] 総当りでやるものは
903 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 02:40:49 ] ホップフィールドで、巡回セールスマン問題は解ける(もちろん、決定的な解じゃなく、総当たりで) ルービックキューブはNN使って総当たりで解け無いの?
904 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 02:53:22 ] キューブの解法 っwww.google.co.jp/hws/search?hl=ja&q=%E3%83%AB%E3%83%BC%E3%83%93%E3%83%83%E3%82%AF%E3%82%AD%E3%83%A5%E3%83%BC%E3%83%96+%E8%A7%A3%E6%B3%95&client=fenrir&adsafe=off&safe=off&lr=lang_ja NNとは本来多項式等でもしかしたら解けるかもしれないものの、どんな多項式で解けばいいのか分かっていない対象をNNによってブラックボックス化することで多項式の代わりとするもの。 それ以上のことをNNに求めてる人は夢見がちなのかただの無知なのかどっちよ? 極端な話、一部の人が言ってる「ただのデータベース」です。 NNスレでNNの定義から始めないと各々の認識が違いすぎるっぽいな…… >>890 出てる学部が違うのかな、NNの成り立ちと混ざってるのかな、どっちか分からないけどダウト。 >>896 ググッた記事読んだ感じだと、そのただのあほのようだぞ? AIと名乗っているのはルールベースっぽい。それ以上はわからんかった。 >>899 NNが解法です(キリッってことか?
905 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 04:49:40 ] もうだれかやってみろよ
906 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 04:59:23 ] >>984 >>NNによってブラックボックス化することで多項式の代わりとするもの。 ずっとそう言ってんだけど だから多項式解法が存在しないものにNNを使う意味がないと 仮に使ってもそれはNNの本来の使われ方じゃないからNNじゃなくなると 正確にはただのデータベースとしても使える 多項式を記憶出来るから当然線形問題も記憶出来る だけどそれはわざわざNNでやる話ではないというだけのこと
907 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 05:17:46 ] なんかよく分からなくなってきた ホップフィールドネットワークで解く巡回セールスマン問題は多項式解法なの?
908 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 05:27:17 ] なんかルービックキューブの解法の場合は、プログラムする側が「次の手順が分かっていなければ」次の状態を記憶することができないみたいだね 人間がこれだ!という手順を知らなくても発見的に次の手順を見つけるNNは構成できないわけだ
909 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:09:39 ] 俺も>>908 みたいな話だと思っていた TSP(巡回セールスマン問題)で例えると、最短の経路を求めるために相互結合NNを使って、最短の経路を求める(近似解ではあるが) ルービックキューブも同じように、解法経路を求めるためにNNを使い経路を求める(どんなNNか分からんがおそらく相互結合型に近いNN) どちらも共通して言えることは、人間側は解がどのようになるかは分からないってことで、勝手に解を見つけられるNNを作ることはできるか?って話題じゃないのか? 解法を随時記録していくって話じゃなくてさ
910 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:28:16 ] >>908 プログラマが分かるってのは総当たりチェックして最適解を学習させることと何が違うんだ >>909 近似解って意味なら出来る場合もあるけど たぶんその巡回セールス問題のやつは都市数が少なくて近似でもなんでもないんだろうけど 近似解はあくまで近似解でセールス問題もゴールありきだから間違えても問題ないけど ルービックキューブは間違えると永遠にループしたりどんどん離れていったりするから無理 どれくらいの割合で正解するかは単純にNNの記憶容量に依存するだけ だからやっても面白くもなんともない
911 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:35:29 ] TSPの場合は解(近似解)が最後に求めることができればそれで終わりだけど ルービックの場合は解法の経路を求めるから根本的に違うかもしれないけど、 経路をNNで求められたら面白いと思うけどな
912 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:56:46 ] 実時間で計算出来るサイズのNNじゃ正解率1%もいかないと予想
913 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 08:50:05 ] >>910 ループや離れるから無理ってんならチェスも無理だな。 ユーザが意図的にループさせる手を打ってくる可能性もあるし。 本当にそうなのかな?かな?
914 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 08:53:58 ] 多項式解法が存在しないものなんて世の中に存在するのか? 多項式解法が証明されているかいないかだけの話だろ。どちらかというとNNよりカオスな話になっちゃうけど。
915 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 09:15:29 ] ここでルービックキューブの問題は出来ないって言ってる人に質問。 逆にNNでできることって何? 具体的に。 ○○のようなこと、とかじゃなく○○ができるって言い切りの形で。 ついでに勝手に解を見つけるNNの具体例もあるとありがたい。 どういう状態のNNのことを勝手に解を見つけるNNと言ってるのか分かりやすくなるから。