- 1 名前:1 [04/09/11 01:48:08]
- について教えてよ
- 82 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 14:47:57 ]
- >>81
ストレス過多もあるけど忙し過ぎるって可能性もある 前に書いたけど記憶の定着には40分〜1時間程度掛かるから その間に注意が他の事に逝ってしまったらきちんと定着されない 次の仕事との間にある程度間をおくのが有効かも知れない(試したことはない)
- 83 名前:デフォルトの名無しさん mailto:sage [2005/09/16(金) 20:34:41 ]
- >>82
今まで働きづめだからな・・・俺に限らないだろうけど。 にしても教えてくれてありがと。ためになったよ。
- 84 名前:デフォルトの名無しさん [2005/09/23(金) 01:14:53 ]
- age
- 85 名前:デフォルトの名無しさん [2005/10/24(月) 00:53:24 ]
- 階層型のNNの伝達関数にRBFを使った場合、
関数の中心,分散を意味する変数の修正は、 通常のBPと同様に、微分で計算するの?
- 86 名前:デフォルトの名無しさん [2005/10/26(水) 21:58:15 ]
- 3層バックプロパゲーションモデルって今でも定番なのね。
17年前にSun3でC言語とSunViewで組んだ記憶が・・・。 重み値を遡及して再計算したり、大変そうw 発火、教師データ、類似度、なんていう表記も使ってたっけ。 これに企業の財務諸表データを入れ、複数の重みセットを組み合わせると 面白そうだなと思っていた時期があった。
- 87 名前:デフォルトの名無しさん mailto:age [2005/11/21(月) 00:25:07 ]
- 質問(?)します!
相互結合型ニューラルネットの代表的な例でいいですから、 アルゴリズムの名前を教えてください。
- 88 名前:デフォルトの名無しさん mailto:sage [2005/11/21(月) 01:36:51 ]
- ホップフィールドとか
その一種のボルツマンマシンとか
- 89 名前:デフォルトの名無しさん mailto:sage [2005/12/08(木) 00:35:56 ]
- 3層バックプロパゲーションモデルの典型的なプログラムを掲載しているサイト教えてよん
- 90 名前:デフォルトの名無しさん [2005/12/22(木) 17:42:15 ]
- age
- 91 名前:デフォルトの名無しさん [2005/12/23(金) 00:42:35 ]
- SOMは相互結合型でOK?
- 92 名前:デフォルトの名無しさん [2006/03/04(土) 19:51:58 ]
- 20年くらい前に、家電でニューロブームがあったが、
どんな内容だったんだろう。
- 93 名前:デフォルトの名無しさん [2006/03/05(日) 01:03:28 ]
- ファジィじゃなくて?
- 94 名前:デフォルトの名無しさん mailto:sage [2006/03/12(日) 02:15:51 ]
- 朧な記憶では,ニューロで学習したパラメタをハードコードしただけだったかと
- 95 名前:デフォルトの名無しさん mailto:sage [2006/03/17(金) 13:00:21 ]
- 単純なニューロでメンバーシップ関数を作って、ファジーチップに書き込んでいた
実際、最適値は、処理目的ごとに似たような結果になるので、ファジーで十分 家電の制御回路に、ニューロを組み込んで、「家電購入後、1ヶ月は、学習中です」 なんて、イヤ
- 96 名前:http://www.vector.co.jp/soft/win95/util/se072729.html mailto:http://msdn2.microsoft.com/ja-jp/library/h2k70f3s.aspx [2006/03/18(土) 22:20:05 ]
- TextSS のWindowsXP(Professional)64bit対応化おながいします
もしくは64bitにネイティブ対応したテキスト置換ソフトありますか? そういや64bitにネイティブ対応している2chブラウザてありましたっけ?
- 97 名前:デフォルトの名無しさん [2006/03/18(土) 22:23:39 ]
- マルチガッ!
- 98 名前:デフォルトの名無しさん mailto:sage [2006/04/23(日) 09:15:29 ]
- sage
- 99 名前:デフォルトの名無しさん mailto:sage [2006/05/30(火) 08:49:09 ]
- >95
あらかじめある程度学習させておけば良いんじゃないのか?
- 100 名前:デフォルトの名無しさん [2006/05/31(水) 16:15:58 ]
- 自己相関学習と相互相関学習ってなにさ?
- 101 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 01:23:23 ]
- C++を使った鉄棒ロボットシミュレータプログラムで
ロボットに鉄棒での倒立運動を学習させる、という研究に ニューラルネットワークを応用したいのですが・・・ BP法など、本を読んでもよくわかりません。 そもそも、教師値というのは、正解データの事ですよね? 正解データが、欲しいデータが分かっているのにネットワークに学習させる、 というのがよく分かりません・・・。 BP法とは、どのような使い方をするのでしょうか。 具体的に知りたいです。 というか、 そもそも、この研究にニューラルネットを使うことが間違っているのでしょうか? 分かる範囲でいいので、何かアドバイスがあればお願いします。
- 102 名前:デフォルトの名無しさん mailto:sage [2006/06/07(水) 02:45:14 ]
- >>101
> BP法とは、どのような使い方をするのでしょうか。 文字認識で、最初にそれぞれの文字教えといて、問題の図形がどの文字か判定させるとか。 そういう、分類する問題に強いと思った。
- 103 名前:デフォルトの名無しさん mailto:age [2006/06/13(火) 11:59:56 ]
- age
- 104 名前:デフォルトの名無しさん mailto:sage [2006/06/15(木) 23:59:22 ]
- ニューラルネットワークを利用した卒論修論でおもしろい利用法ないですかね?
- 105 名前:デフォルトの名無しさん mailto:sage [2006/06/16(金) 00:45:37 ]
- あっても2chにゃ書かねーわなw
- 106 名前:デフォルトの名無しさん mailto:sage [2006/06/16(金) 00:56:35 ]
- >>102
まさに今日その講義を聴いたところだw 他にはなにも思いつかない >>105 そりゃそうかw NNがどういうことに利用できるか検討がつかないんです。 C++でNNだけ作るとしたら、スキルの差もあるでしょうが 何行ぐらいでできるものなんでしょうか?
- 107 名前:デフォルトの名無しさん [2006/06/18(日) 20:20:03 ]
- あげ
- 108 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 20:27:54 ]
- お前らシミュレーション板がありますよ。
面白いネタが多いんだが、過疎なんだよな。あそこ。
- 109 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 21:20:03 ]
- おもしろいネタってどんなのがあるよ
- 110 名前:デフォルトの名無しさん mailto:sage [2006/06/18(日) 21:35:31 ]
- いけばいいじゃん。知的好奇心をあおられると思うけど。
- 111 名前:デフォルトの名無しさん [2006/06/27(火) 23:07:34 ]
- これね↓
science4.2ch.net/test/read.cgi/sim/1015733653/l50
- 112 名前:デフォルトの名無しさん [2006/07/12(水) 18:45:11 ]
- 一つのニューロンへの入力は2通りしかだめですよね。
例えば3通りあったとして、それぞれ 0, 0.5, 1.0 としても 0.5 と 1.0 の意味が違うのに 単に大きさの違いとしか捉えきれないと言う事です。 では、一つのニューロンに3通り以上の入力を関連付けたい場合はどうすればいいのでしょうか? ちなみに、ニューラルネットの事はあまり分かってないので、的外れのことを言っていたらすみません。
- 113 名前:デフォルトの名無しさん mailto:sage [2006/07/12(水) 21:07:11 ]
- 複数の入力に分ける
- 114 名前:デフォルトの名無しさん mailto:age [2006/09/30(土) 15:02:11 ]
- www.aso.ecei.tohoku.ac.jp/~myn/research/research.html
そいやこんなもの見つけたんだがちゃんとコンパイルできる? それとも俺がヘタレなだけなんだろうか?
- 115 名前:デフォルトの名無しさん mailto:sage [2006/09/30(土) 15:15:19 ]
- いいえ
- 116 名前:デフォルトの名無しさん mailto:sage [2006/11/07(火) 15:07:22 ]
- ニューラルネットワークの仕組みが分からないなら、まずファジー技術を
学べ。それが理解できるならニューラルネットの学習法則も理解できよう。 まあ、仕組みなど理解できなくても利用できるし、理解する必要など無いし 特徴だけしっていればという考えの奴がほとんどだとおもうがw
- 117 名前:デフォルトの名無しさん mailto:sage [2006/11/07(火) 21:25:41 ]
- 何だ藪から棒に
- 118 名前:デフォルトの名無しさん mailto:age [2006/11/10(金) 15:12:17 ]
- 抽象化層の意味を理解せず、ニューラルネットワークの学習機能だけを
耳コピーしたような奴ばっかりだなw。 愚か
- 119 名前:デフォルトの名無しさん mailto:sage [2006/11/12(日) 02:23:54 ]
- >>118
自分で考えず教科書の建前な所だけしか理解できない奴が増えているのは 事実だが、それは放置して具体的例で教えてやったらどうだ?
- 120 名前:デフォルトの名無しさん mailto:age [2006/11/14(火) 02:31:07 ]
- 結局、新しいアルゴリズムは何もでない。
- 121 名前:デフォルトの名無しさん mailto:Tage [2006/11/14(火) 22:37:25 ]
- はい?
- 122 名前:デフォルトの名無しさん [2006/11/15(水) 03:10:13 ]
- ニューラルネットワークとは信者が作った幻想にしかすぎない。
これは事実であって、どんなに力説しようが、絵に書いた餅。 研究対象として企業から支援してもらう為、あらゆる分野で 大騒ぎしている香具師が一部にいるだけなのをご存知じゃないだけ。
- 123 名前:デフォルトの名無しさん [2006/11/15(水) 03:53:22 ]
- あ、そうなんだ。
研究室変えるわ。
- 124 名前:デフォルトの名無しさん mailto:sage [2006/11/15(水) 04:17:42 ]
- >>101
教師あり学習・教師なし学習を調べろ。って6月か。 つうか、ニューラルネットって、能力の限界はとっくに明らかになってるだろ? ニューロン自体に新しいモデルを入れないとだめじゃん? ってBPとかフィードフォワード型だけだっけ? 甘利の本読まなきゃと思いつつ未だに読んでない。
- 125 名前:デフォルトの名無しさん mailto:sage [2006/11/15(水) 23:30:22 ]
- ミンスキーの論文に書いてある。
- 126 名前:デフォルトの名無しさん [2006/11/18(土) 01:43:11 ]
- ニューラルチップというのは過去に大手半導体メーカーが何度も試作したが
複雑さが増えれば指数的に組み合わせが無限に増える訳で音声認識が限界だと ファイナルアンサー済み。
- 127 名前:デフォルトの名無しさん [2006/11/27(月) 01:21:43 ]
- 1つだけ言わせてくれ。今更ニューラルやってもデータ量の分布が激しいと
絶対使えないと思う。プログラム組んでみて解った。数式だけじゃ現実は 解決しないんだよ。こんなの採用するやつは何を考えているんだろう。
- 128 名前:デフォルトの名無しさん [2006/11/27(月) 02:11:28 ]
- >>126
チップの方だって、ムーアの法則で指数関数的に性能向上してる訳だぜ?
- 129 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 05:16:57 ]
- >>127
1つのニューラルで全て解決しようとするからそうなる。
- 130 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 09:01:15 ]
- >>128
それも終わった、intelががんばったおかげだが
- 131 名前:デフォルトの名無しさん [2006/11/27(月) 12:32:52 ]
- >>130
終わってないよ。intelのロードマップでは10年までに数百のコアを積んでくる。 それ以降も、予想が付かないほど進んでいくよ。
- 132 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 14:58:26 ]
- >>128では性能と言ってるけど元々ムーアの法則は集積度の話だから、
そういう意味では終わりつつあるといってもいいと思うよ。 集積度上げるのが厳しくなってきたから、コア増やして誤魔化してるに過ぎないし。
- 133 名前:デフォルトの名無しさん [2006/11/27(月) 15:49:08 ]
- >>132
別に誤魔化している訳ではないだろ。 集積度を上げるコストやクロック数を上げるコストより、 コア増やす方がパフォーマンスがあがるということもある。 あと消費電力の問題もあるわけで。 P4系がなくなったのも、そういう理由だし。
- 134 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 15:58:27 ]
- 三次元配線の検討もされているらしいし、集積度もやっぱり上がると思うぜ。
- 135 名前:デフォルトの名無しさん mailto:sage [2006/11/27(月) 16:21:39 ]
- 人間より強い商用バックギャモンプログラムSnowieは複数のニューラルネット
ワーク、TD学習の改良版を使ってる。開発経緯や機能はここから辿れる。 www.snowiegroup.com/index.dhtml フリーソフトのgnubgは簡易化した構成だけど、こいつですら恐ろしく強い。
- 136 名前:デフォルトの名無しさん mailto:sage [2006/11/28(火) 04:59:28 ]
- >>135
学習しない状態で強いわけないだろw 愚かw
- 137 名前:デフォルトの名無しさん mailto:sage [2006/11/28(火) 05:01:53 ]
- >>128
それはチップの集積度の緩やかな増加状態。 ニューラルネットワークで膨らむのはビックバン的な指数増加。 比較にならん罠
- 138 名前:デフォルトの名無しさん [2006/11/29(水) 16:12:14 ]
- >>137
ビックバン的は誇張もすぎないか? ムーアの法則は緩やかな成長ですがニューラルネットワークだと次元が 増えるような組み合わせなので比較するのはニューラルネットワーク自体を 建前的にしか知らない奴だかなぁ。 根本的に逆誤差伝播則みたいなも定番だけを利用するアルゴリズムだけを 評価しているので単純モデルが引き起こす複雑さ回路にもろに出ている 訳で脳のニューロンはそんなに組み合わせがあるわけではなく 可能性がある組み合わせであって、実配線を伴うチップと比較できる ような仕組みではないと思う。
- 139 名前:デフォルトの名無しさん mailto:sage [2006/11/29(水) 16:14:18 ]
- >>138
もうちょっと落ち着いて書こう
- 140 名前:デフォルトの名無しさん mailto:sage [2006/11/29(水) 21:59:38 ]
- カンチガイさんが多いスレですね。
なんか人工知能がもてはやされた時代を生きた40代後半のにおいがぷんぷんします。 おじさんたちの時代の人工知能と今の人工知能とでは言葉の意味が違うよ。
- 141 名前:デフォルトの名無しさん mailto:sage [2006/11/29(水) 23:54:07 ]
- >>140
違わないよ
- 142 名前:デフォルトの名無しさん [2006/12/01(金) 23:46:11 ]
- 「人工知能」って、達成されると「こりゃただのプログラムで『人工知能』なんてモノじゃない」になるからなぁ。
嘗ては最適化コンパイラや、鉄道乗換え案内が「人工知能」だった。
- 143 名前:デフォルトの名無しさん mailto:sage [2006/12/02(土) 00:24:40 ]
- まぁ、学習と記憶は別物で、
それはわかってるが、じゃあ何が違うのかってのは厳密に定義されてないからなぁ。 そういう意味で、技術革新によって、今ある人工知能はいずれ人口無能と呼ばれる。
- 144 名前:デフォルトの名無しさん mailto:sage [2006/12/03(日) 08:17:26 ]
- うずらだって初期のころに登場すれば
「人工知能」だったろうしな。
- 145 名前:デフォルトの名無しさん mailto:sage [2006/12/05(火) 13:59:50 ]
- >>143
>技術革新によって、 それは、勘違いだよ。 技術じゃなく、価値観の革命がなされないかぎり現状のまま。
- 146 名前:デフォルトの名無しさん mailto:sage [2007/01/16(火) 11:33:54 ]
- (´^ื౪^ื)
- 147 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 00:00:56 ]
- >ニューラルネットワーク
これを理解できずに、仕組みだけを暗記して語る奴ておおいよな。 ネットワークは繋がりであって途中で基本的演算を組み合わせている わけではない、さらに細かい原理があるように思い込みたいのはいいんだが これ以上細かい原理は存在しない。 何故入力から計算せずに答えがでるのか?これが理解できない奴には ニューラルネットワークの1%も理解できているとはいえない。 単に解説本を暗記しただけで中身を全く受け止めていないDQNそのもの。
- 148 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 01:51:18 ]
- なぜ答えが出るかって、分かるやつはその前に居ないだろ
なぜだかわからないが、答えが出るのがニューラルネットワーク
- 149 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 02:21:23 ]
- 3層パーセプトロンやバックプロパゲーションだけじゃないんだけどねぇ
- 150 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 03:38:33 ]
- ホップフィールドだってある!...いや,すまん.
- 151 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 05:00:28 ]
- >>148
自然淘汰という理屈があるだろ、そのぐらい誰でも知っている。 因果関係が自然に答えを見つける仕組みだよ。
- 152 名前:デフォルトの名無しさん mailto:sage [2007/01/28(日) 05:25:39 ]
- それは解答になっていない。
そんなものが答えであるとマジメに言う気ならどうかしてる。
- 153 名前:デフォルトの名無しさん [2007/01/28(日) 19:12:42 ]
- >>148
ベイズ推論マシンと考えれば十分な理解だろ。
- 154 名前:デフォルトの名無しさん mailto:sage [2007/01/29(月) 01:14:12 ]
- >>152
151の本意はわからないが。 ニューラルネットワークの講義とかうけてみたけど似たような説明を受けたよ そもそも理解しようという態度が皆無なんじゃないかな
- 155 名前:デフォルトの名無しさん mailto:sage [2007/01/29(月) 01:25:57 ]
- >>153
それじゃ現実の脳の動作は解明できない 双方向に結合したダイナミクスこそが命
- 156 名前:デフォルトの名無しさん mailto:sage [2007/01/29(月) 02:58:54 ]
- 現実の脳の解明がNNの理解に必要とでも? 別物。
- 157 名前:デフォルトの名無しさん mailto:sage [2007/01/29(月) 09:05:40 ]
- あくまで脳の働きをまねただけだからな。
遺伝的アルゴリズムを理解するのに遺伝学は必要ないのと同じ。
- 158 名前:デフォルトの名無しさん mailto:sage [2007/01/29(月) 19:42:19 ]
- >>156 逆
実際の脳を解明するためのモデルというのもNNの役割の一つ っつーか原点
- 159 名前:デフォルトの名無しさん mailto:sage [2007/01/30(火) 12:36:12 ]
- >>152
キミは典型的な「おこちゃま」。ガキは大人の言うことを従っていればいい。
- 160 名前:デフォルトの名無しさん mailto:sage [2007/01/31(水) 08:33:27 ]
- >>157
遺伝学を知ってる方がGAの理解や開発で助けになるし、 GAによって生物の遺伝の仕組みに対する研究も行なわれてる
- 161 名前:デフォルトの名無しさん mailto:sage [2007/01/31(水) 11:57:20 ]
- 単なる重み付き選択だろ。
- 162 名前:デフォルトの名無しさん mailto:sage [2007/02/01(木) 22:57:19 ]
- >>161
単なるだが、画期的とも言うw その仕組みを毛嫌いしているのが大量にいるのも事実。
- 163 名前:デフォルトの名無しさん mailto:sage [2007/02/09(金) 04:17:56 ]
- ニューラルネットワークはネットワークによる情報処理を論理的にしか
解釈しないからこそ使えねーなんて考える香具師ばっかりになるんだろう。 単純な演算素子のような使い方ならいくらでも活用可能だろ。 この辺が何も進まないのは自動学習にこだわりすぎている点であって、 ファジィーのような使い方の応用をすればいいだけ。 単純モデルばかりで万能のように考えるのも的外れなんだよな。 半導体でFPGAとかをプログラムする前に完成しているように誤認する 奴とかは、途中に複雑な設計が必要なことを全く理解できていないよな。
- 164 名前:デフォルトの名無しさん mailto:sage [2007/02/10(土) 01:53:10 ]
- >>161
ランダム(シミュレーション)はどう選択するかが全て それで効率や結果が大きく変わってしまう それを「単なる」というのは何も分かってない証拠 >>163 同意
- 165 名前:デフォルトの名無しさん mailto:sage [2007/02/13(火) 13:56:53 ]
- 四則演算専門のチップ上にニューラルを構成するのと
ニューラルチップ上に、四則演算をする為の命令を構築するのとでは どっちが高速なの?
- 166 名前:デフォルトの名無しさん mailto:sage [2007/02/13(火) 18:11:18 ]
- 四則演算専門のチップ上に構成するニューラルネットワークによるだろ
- 167 名前:デフォルトの名無しさん mailto:sage [2007/02/13(火) 21:33:24 ]
- >>165
やりたい事が書いてないのにどちらが高速かなんて分かるわけがない それにニューラルチップと言っても色々あるし
- 168 名前:デフォルトの名無しさん mailto:sage [2007/02/13(火) 21:38:03 ]
- そんないろいろあったか?
- 169 名前:デフォルトの名無しさん mailto:sage [2007/02/14(水) 06:26:20 ]
- >>168
モデルをちょっと変形すれば、いくらでも。
- 170 名前:デフォルトの名無しさん mailto:sage [2007/02/16(金) 06:45:27 ]
- ネットワークそのものが情報処理の座なのに、量子コンピュータとか
DNAコンピュータとか訳のわからんことをいうのが時々います。 こんなキチガイを無視するのは簡単だが、無知な奴はこれを信じてさらに 増殖してしまいます。どうにもならんのか。
- 171 名前:デフォルトの名無しさん mailto:sage [2007/02/16(金) 23:16:32 ]
- 無視すればすむ話なので、増殖したとしても何の問題もありません。
- 172 名前:デフォルトの名無しさん mailto:sage [2007/02/17(土) 11:42:40 ]
- 171は典型的な無視ができないDQN君?
- 173 名前:デフォルトの名無しさん mailto:sage [2007/02/18(日) 01:54:49 ]
- 172は典型的な無視ができない(ry
173は典型的n(ry
- 174 名前:デフォルトの名無しさん mailto:sage [2007/02/19(月) 07:23:28 ]
- メタだな
- 175 名前:デフォルトの名無しさん mailto:sage [2007/02/25(日) 09:36:10 ]
- ダメだな
- 176 名前:デフォルトの名無しさん mailto:sage [2007/03/19(月) 12:49:06 ]
- >>170
たしかに量子コンピュータなど考慮するほど優れているものではないのは 間違いないが、今後も同じとは限らない。
- 177 名前:デフォルトの名無しさん mailto:sage [2007/03/21(水) 06:14:40 ]
- 良子は精子を象さんします、ぱふぱふ
- 178 名前:デフォルトの名無しさん mailto:sage [2007/03/26(月) 09:50:32 ]
- >>176
日本語おk 量子コンピュータなど糞以下。現実がそれを証明している。
- 179 名前:デフォルトの名無しさん [2007/03/26(月) 22:14:09 ]
- ここで聞いていいのか知らんけど、
だれかSVM(サポートベクターマシン)分かる人いない? ttp://www.neuro.sfc.keio.ac.jp/~masato/study/SVM/index.htm ここを見て実装しようとしてるんだが、正規化のやり方と意味が分からなくて。
- 180 名前:デフォルトの名無しさん mailto:sage [2007/03/27(火) 00:02:32 ]
- とりあえず何も言わずに www.amazon.co.jp/dp/0521780195 でも読んでみたら?
訳書もあるし www.amazon.co.jp/dp/4320121341
- 181 名前:デフォルトの名無しさん mailto:sage [2007/03/27(火) 12:16:03 ]
- >>180
その本さ、凄く簡単そうに見えるんだけど 肝心の事が書かれて無いと言うか、詳細が無いので・・・ 軽く読めるけど、全く為にならんし、実装しようと思ったら逆に凄い労力かかったよ・・・。 もっとマシな本ないんかなぁ・・・
- 182 名前:180 mailto:sage [2007/03/27(火) 12:45:38 ]
- >>181
え?そう? SMO や (dual objective などによる) 収束判定に関しても 詳説してあるし,自分は (SVM の最低限の実装なら) 特に問題なかったけど? >実装しようと思ったら逆に凄い労力かかったよ・・・。 具体的にどこに労力がかかったのかkwsk
|

|