[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 05/09 14:36 / Filesize : 232 KB / Number-of Response : 916
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

ニューラルネットワーク



1 名前:1 [04/09/11 01:48:08]
について教えてよ

296 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:13:36 ]
>間違いなく動作するのかどうかテストするのが難しいから
これは目的による.したがって,
>市販品には採用されることはほとんどない
これは誤り.学習させたNNの機能は簡単にテストできる.

297 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:17:49 ]
>>296
不可能。
NNのテストはすべての取りうる値を入力しなければならないから。

298 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:19:34 ]
>>296
テストのことを知らないnoobかもしくは
研究室から一歩も出たことないボンボンですか?

299 名前:デフォルトの名無しさん mailto:sage [2008/01/02(水) 00:20:57 ]
>NNのテストはすべての取りうる値を入力しなければならない
え?

300 名前:296 mailto:sage [2008/01/03(木) 09:49:19 ]
あのな,離散値でしか使わないNN応用も一杯あるの
それに連続値でも「分解能」ってのがあるの
コンピュータを知らない純粋数学屋さん?

301 名前:デフォルトの名無しさん mailto:sage [2008/01/03(木) 19:41:48 ]
296の言いたいことは分かるけど、
網羅テストが簡単に出来るような問題は
NNに向いてないんじゃないかな?

で、組み合わせ爆発が起きるような問題に対しては
テンプレートデータを出来るだけ多く持ってきてテストするしかないから、
「テストが難しいから〜」っていうのは結局どんな手法にも当てはまるんだよね。
結局、NNがそう言われるのは過程がブラックボックス的というか
人の直感から遠いから、気持ち悪いって事だと思う。

302 名前:デフォルトの名無しさん mailto:sage [2008/01/03(木) 19:59:58 ]
まぁ,テスト云々っていったら
「熟練工が作る鋳物は必ず成功しているか?一度ためしに使ってうまくいったから成功といえるのか?」
というもんだからな

303 名前:デフォルトの名無しさん mailto:sage [2008/01/07(月) 21:18:23 ]
>網羅テストが簡単に出来るような問題は NNに向いてないんじゃないかな?
実際にそういう応用が多いという事実が答えでしょう
これは俺の推測だが,実際の応用は組込みシステムでのデータ量や計算量の圧縮的な用途が多い様な気がする
普通のやり方でもできるけど表が大きくなるとか計算に時間が掛かるとか

304 名前:デフォルトの名無しさん mailto:sage [2008/01/07(月) 21:33:50 ]
>>303
確か前に計算したことがあるが、適切なアルゴリズムを用いればNNよりもあらゆる面で効率的に処理可能だったと思うぞ。



305 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 01:28:54 ]
そりゃハードと問題(必要な機能)に依存するはず
常に成立するとは思えないし,少なくとも証明は不可能だろう
32 or 16 bit 程度の積和演算だけはやたら速いプロセッサもあるし

306 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 11:16:49 ]
積和演算といえばDSPか

307 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 15:03:19 ]
最近?はマルチメディアプロセッサなんてのもあるな

308 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 15:05:54 ]
>>306
携帯v.sニューロというわけか

309 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:16:01 ]
>>307
CELLでNNやると速いのか?

310 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:26:52 ]
>>309
浮動小数点数演算に特化して、しかもマルチコアだから、
それように作ったプログラムなら普通の数十倍出るかもね。
ただし、計算順序を工夫したりする必要はあるだろうけど。

311 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 22:30:36 ]
CELLクラスタに俺の脳を移植してよ

312 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:28:54 ]
それはいい考えだな
まずはコンパクトな脳から試すのがいいね

313 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:32:15 ]
さて、そろそろ論文締め切りが間近だが、
切羽詰った状況でなぜか部屋の掃除がしたくなるのは俺だけではないはずだ

314 名前:デフォルトの名無しさん mailto:sage [2008/01/08(火) 23:42:55 ]
俺も現在似たような状況だがドラクエIVのDS版を始めてしまった。



315 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 01:52:24 ]
>>314
あ〜そりゃもうやめられないな
お前、今回は落としたな

316 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 01:56:36 ]
代わりに書いてやろうか

317 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 03:22:08 ]
ニューラルネットで、論文生成するプログラム組んだらいいんじゃない?

318 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 08:12:51 ]
>>317
お前マジ頭いいな。

319 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 10:59:54 ]
>>317
論文の内容を悩むところだが、
ニューラルネットで論文生成するプログラム組む方法を論文にすればいいんじゃね?

320 名前:デフォルトの名無しさん mailto:sage [2008/01/09(水) 11:08:35 ]
>>319
NNじゃないが、そういうのは前に発表されてたな
pdos.csail.mit.edu/scigen/

321 名前:デフォルトの名無しさん [2008/01/17(木) 07:21:32 ]
生データから抽出すべき特徴量を決定する指針ってある?
あれば教えて欲しい

322 名前:デフォルトの名無しさん mailto:sage [2008/01/17(木) 11:39:20 ]
主成分分析

323 名前:デフォルトの名無しさん mailto:sage [2008/01/17(木) 11:39:44 ]
あ,判別分析の方がいいかも

324 名前:デフォルトの名無しさん [2008/01/17(木) 12:54:47 ]
なるほど
ググって調べてみる
サンクス



325 名前:デフォルトの名無しさん [2008/01/22(火) 23:36:24 ]
ニューラルネットワークで密や疎というのはどんな事を意味するんですか?

326 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 03:25:24 ]
スパース表現のことか? それなら
「神経回路網モデルとコネクショニズム」甘利俊一 [補稿]黒崎政男
東京大学出版会 認知科学選書22 ISBN4-13-013072-2 1989年初版
の 5.4 スパース符号化による連想記憶
が参考になる.図書館で探して

327 名前:デフォルトの名無しさん [2008/01/23(水) 07:27:44 ]
それみたいです
本も調べてみます
ありがとうございます

328 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 20:51:28 ]
本が見つからない場合に備えて簡単に書いておくと,
データをどの位粗く表現するかってことで(マンマや),
例えば0〜15の整数を4bit(4本)の二進数で表現するのは(情報量的に)最も密な表現.
これに対し,入力の線を16本用意してそのどれかを1にするのはやや疎な表現.
100本位用意して適当な数本(一本もあり)を1にするのは疎な表現.
1000本だと凄く疎な表現(こういう区別そのものは厳密ではないし,決まっているわけでもない).
大切な事は,疎な表現を採用すると連想記憶のの記憶容量を増やすことができる点.
BP学習の場合は収束が速くなる(密な表現だと凄く収束し難いことは経験的に良く知られていた).

329 名前:デフォルトの名無しさん mailto:sage [2008/01/23(水) 21:42:00 ]
なるほど〜
すごく分かりやすい
ありがとうございます

330 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:02:04 ]
ニューラルネットワークでの株価予測について質問です
いくつかの論文で,予測株価と実際の株価の誤差を取るのではなく,方向一致率と呼ばれるもので判断しているんです
方向一致率は,上下変動が一致した回数を予測した回数で割ったものです
これって単純に誤差を取るよりもどんなメリットがあるのでしょうか?
ソースはあっても無くてもいいので,どなたか教えてください

331 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:26:55 ]
>予測株価と実際の株価の誤差
は評価でき(るほど上手くいか)ないから代わりに使ってるんだと思われ

332 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 19:40:23 ]
>>330
質問には答えられないのだが、参考までに
ニューラルネットを使った株価予測の論文を読んでみたいです。
よければ、ポインタを教えてください

333 名前:デフォルトの名無しさん mailto:sage [2008/01/24(木) 22:46:48 ]
>330
株を売り買いして利益を出すには株価そのものを予測する必要はなく
その時点から直近で上がるか下がるかだけ予測できれば良いから。

実用的に必要最小限の予測をしている(方が予測が当たりやすい)から
だと思われ。まあ、変動があまりに小幅なら売買手数料のために逆に
損する可能性もあるが。

334 名前:デフォルトの名無しさん mailto:sage [2008/01/25(金) 16:14:45 ]
GPUを使った実装というのに挑戦してみた。
オライリー本のAI入門に載ってる内容を弄っただけだし
CPU版の実装よりクソ重いしと散々だけど動いてくれて嬉しいぜ…。
チラ裏



335 名前:デフォルトの名無しさん [2008/01/28(月) 09:11:15 ]
ニューラルネットワーク
zoomtv.atspace.com/?X&2052226&0607@HiSpeedVision

336 名前:デフォルトの名無しさん mailto:sage [2008/01/28(月) 10:38:40 ]
上がるか下がるか当てるだけを評価するなら
ぶっちゃけ学習自体も regression じゃなくて classifier で良いような?

337 名前:デフォルトの名無しさん [2008/01/28(月) 17:19:14 ]
ところで、データの娘の名前が思い出せない。

338 名前:デフォルトの名無しさん mailto:sage [2008/01/29(火) 01:01:48 ]
>>334
へぇ、そんなのできるんだ。
昔ちょっとだけDirectXいじってたんだけど、どうやってしてるの?
最近のGPUだったらピクセルシェーダーとか使ってるのかな。
もしデバイスのIOを直接叩いてるんだったら、かなりのもんだね。

339 名前:デフォルトの名無しさん mailto:sage [2008/01/29(火) 08:30:21 ]
shaderだろJK

340 名前:デフォルトの名無しさん mailto:sage [2008/01/29(火) 09:54:31 ]
GPGPUだね

341 名前:デフォルトの名無しさん [2008/02/01(金) 16:49:06 ]
ニューラルネットワークのプログラムを組んでみたんですが、バグのせいかどんな入力に対しても同じ値しか返しません
原因としてどのようなことが考えられるか、教えていただけないでしょうか?


342 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 16:52:10 ]
だったらソース晒しなよ

343 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 16:58:38 ]
>>334
CPUより遅かったら意味ないじゃんw
でも、素子数が増加しても並列計算でスピード変わらん!とかあるのかな?

344 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 17:11:43 ]
void back_propagation()
{
int i,j;
double dih[Hneuron],dho[Oneuron]; //誤差
double sum;

for(i=0; i<Oneuron; i++){
dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
}

for(i=0; i<Hneuron; i++){ //出力層の重み修正
for(j=0, sum=0; j<Oneuron; j++){
dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );
who[j][i] += dwho[j][i];
sum += ( dho[j] * who[j][i] );
}
dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号
}

for(i=0; i<Oneuron; i++){ //出力のしきい値修正
dothreshold[i] = ( Eta * dho[i] ) + ( Alpha * dothreshold[i] );;
othreshold[i] += dothreshold[i];
}




345 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 17:12:35 ]

for(i=0; i<Ineuron; i++){ //中間層の重み修正
for(j=0, sum=0; j<Hneuron; j++){
dwih[j][i] = ( Eta * dih[j] * iout[i] ) + ( Alpha * dwih[j][i] );
wih[j][i] += dwih[j][i];
sum += ( dih[j] * wih[j][i] );
}
}

for(i=0; i<Hneuron; i++){ //中間層のしきい値修正
dhthreshold[i] = ( Eta * dih[i] ) + ( Alpha * dhthreshold[i] );
hthreshold[i] += dhthreshold[i];
}
}

コンパイラはBCCを使ってます。


346 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 17:36:31 ]
>>341
ソースまだ見てないけど、学習後の重みをファイル出力してみて、
全部0とかになってたら、BPの実装ミス。
そうでなかったら、全部同じ出力とかにはならないだろうから、
入出力間の伝搬のミスってことになる。

347 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 19:00:55 ]
重みがそれっぽい感じになってて、出力も学習元のデータからして異常とは言えない数値になってます。

具体的には、
学習させた結果の重みを別のプログラムに読ませて、foward propagationだけを行って予測させる。
その予測された結果を入力の一部として使って、さらに次の予測をさせる
という風にしているのですが、最初の予測結果と2番目以降の予測結果が全く同じになります。


何回学習させても重みが変わらなかったり、1回目だけ変わってその後変わらなかったりするのでback propagationに問題があると思って途中の重みやその変化量を表示させているのですが、原因の見当がつかず困っています。




348 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 20:03:54 ]
>dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
そもそもこれが許されてるのかどうか俺は知らんのだが、

>dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号
シグモイド通してないなら x*(1-x) が出てくるのはおかしくね?

349 名前:341 mailto:sage [2008/02/01(金) 20:08:23 ]
>>348
中間層の出力はシグモイド関数にかけてるのでそこはあってると思います

350 名前:デフォルトの名無しさん mailto:sage [2008/02/01(金) 20:47:11 ]
> dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );

dwho[j][i]決めんのにdwho[j][i]使ってるけどこれっていいのかな?
時系列扱わせているみたいだから、前時刻の修正量を重みAlpha反映させたりしてるの?

あと気になるのは、sumに足しこむのがwhoとかの修正前な気がする。
まあ、自分のコードと大分違うんでわからんけど。

多少面倒だが、いきなり目的のデータ使うんじゃなくて、
y = sin(x)のような既知の単純な学習データで検証するのも手かもしれない。


351 名前:デフォルトの名無しさん mailto:sage [2008/02/02(土) 03:37:33 ]
しきい値に関しては定数入力を用意して重みで実現する方が
プログラムがすっきりするし高速化し易いから定石なんだよね

この実装は普通のとかなり違うからコードだけじゃ分からないねぇ
元の式から書いた方がいいと思われ
元式の微分周りにはミスはない?

352 名前:341 mailto:sage [2008/02/02(土) 23:38:31 ]
すいません。
BPではなく、最初に重みとしきい値を乱数生成する部分の範囲がおかしかったようです。
ご迷惑おかけしました。


353 名前:デフォルトの名無しさん mailto:sage [2008/02/02(土) 23:40:38 ]
>>323の判別分析をググってみたんだが
これでNNに入力する特徴量を選択をする場合、
あるデータに対して特徴量ごとに判定結果を算出して
その結果をもとに特徴量の有効性を計算するの?
それとももっと正確な指標が数値で出るの?

354 名前:デフォルトの名無しさん mailto:sage [2008/02/03(日) 20:06:50 ]
>生データから抽出すべき特徴量を決定する指針
の話だったから(分類用なら)判別分析で固有値が大きい方から順に
と思ったのだが.
学習済みの NN の隠れ層に形成された特徴の寄与率を評価するのは
また別の話になると思う
定番というのは知らない(あるのか?)が,
例えばあるニューロンを一個切り離して成績を比べるとか



355 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 14:49:34 ]
今回の卒検でjooneとかいうjavaのニューラルネットワーク・ライブラリを使おうとしてたんだが、
正直失敗した。
がんばって英文を読んだにもかかわらず、使いにくい設計、やる気をそぐスペルミス(cycle->cicle)など、
三日がんばったんだが、結局自作のプログラムに戻した。
そしたらやろうとしてたことが十分ぐらいでできてまた泣いた。

もうこの際みんなでオープンソースのライブラリ作らない?

356 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 15:31:42 ]
面白そうだとは思う。
しかし言いだしっぺが大まかな仕様や実装例を上げないとgdgdになる法則。

357 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 22:27:12 ]
俺はニューラルネットに全然詳しくないのだが、
こういう分野の理論ってライブラリ化できるものなんでしょうか?

俺みたいな詳しくなくてもコンポーネント的に簡単に使えるようになると、
すごく面白そうな悪寒。

358 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 22:45:06 ]
haskellのfgl使ってろや
ニューラルネットとか言っても所詮はグラフ

359 名前:デフォルトの名無しさん mailto:sage [2008/02/07(木) 23:56:23 ]
日本語でOK

360 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 00:02:15 ]
まだ大学1年生でコンピュータサイエンスは素人同然なのですが、
ニューラルネットって重み付きグラフというものとは違うものなのですか?

361 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 01:01:53 ]
>360
ただの情報(データ)表現の一種であるグラフ(重み付きでも)と
情報処理装置であるニューラルネットをどうやったら混同できるんだ?

362 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 01:09:37 ]
時間という流れるものに犯されすぎ

363 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 01:21:11 ]
え、ぜんぜん関係ないんですか?
ニューラルネットは重み付きグラフで表現できない??

364 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 03:58:44 ]
接続関係だけ表現しても道路地図や路線地図と何も変わらん



365 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 04:26:00 ]
簡約によって副作用が生じる場合と生じない場合で「表現すること」と「計算すること」の同値性が崩れる場合があって,
「表現するだけでは足りないのだよ・・・副作用は表現では現れない」という結論を導きたかった.
具体的に言うと「ニューラルネットワークは重み付グラフで表せますか?」は
「ニューラルネットワークは自身の重みを時間の推移に従って書き換えていく(副作用)があるので,あらわせない」だ.

で,簡約で副作用を容易に持ち込めるlispを使って例を挙げたかったがあきらめた(^p^

重み付き非決定性グラフとかあれば表現可能かも

366 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 04:33:17 ]
>>365
別にそういうアルゴリズムは副作用なくても表現できるんじゃないの。

367 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 04:47:05 ]
だって、NNの推移って、グラフからグラフへの関数を一定時間ごとに呼び出すだけでしょ?

368 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 05:00:35 ]
どうやら「表現」に関して認識の差があるみたいだ

語彙が足らなくてうまく伝えられないから引っ込むぉ

369 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:16:18 ]
ニューラルネットにとって時間の推移(時間発展)は
本質的だと思うけどな。
そういう意味で(副作用の無い)関数とは全く異なる。

そう言えば「副作用」って大抵、時間に関係してるな。
「時間」の推移による変化も完全に記述できる「述語論理」が
まだ発明されていないと言うのが大きいのかな?

370 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:33:04 ]
>>369
たとえば、Haskellの場合はIOモナドに処理手順を閉じ込めてしまえば、main関数の終了時に順番に実行してくれる。
遅延評価だから、停止しない処理も記述可能。
1ms毎に関数を無限に適用し続けるといった処理も(言語仕様上では)副作用なしに記述可能。

371 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 10:55:17 ]
>>369
たしかに、そうだな。
仕様記述言語のZという言語を研究で使ったことがあるが、たしかに時間に関する記述はできなかった。

372 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 11:15:48 ]
>370
うん。
しかしHaskelの場合であっても時間による副作用を
全てI/O処理(言語仕様の外側)に閉じこめているだけであって、
時間発展(副作用)のある系の記述を無い系の記述に
全て変換してしまえるわけじゃないだろう?

373 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 11:27:57 ]
>>370
時間見てワロタ
お前いつ寝てんの?w

374 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 12:17:46 ]
結論として
「副作用の全く無い関数型言語のみで記述できるアルゴリズムでは
時間発展のある系の完全なコントロールはできない」のだと思う。
コントロールしようとするとどうしても
アルゴリズムの中のどこかで副作用を意識せざるを得ない。



375 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 12:58:42 ]
>367の間違いはニューラルネットの重み付け更新
(NNの推移)はその出力に依存する事を忘れている事だと思う。
即ちNNの機能は処理の時間的順序関係に強く依存している。

376 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 14:24:56 ]
昔々,Prolog で I/O もバックトラックしたら
という話を思い出した

377 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 16:48:58 ]
ちょっと訂正
>375は「NNの推移はその入力に依存する」がより正しいな。
入力がすべて既知とするなら出力は先に計算できるわけだから。
提示される未知の入力に対して(その一部を)記憶し
適応するからこそ時間依存の(時間で発展する)系なわけだ。

378 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 17:58:01 ]
もうひとつ結論
「記憶し、学習し、適応する」=「副作用」

379 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:05:32 ]
結局、NNのデータ構造はグラフってことでOK?

380 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:35:19 ]
>379
いき値固定でかつ各ニューロンの情報処理(計算)機能を
省略して表現するなら。
また静的な重み付きグラフならある時点での
(データ構造の)スナップショットと言う事になるな。

381 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 20:58:18 ]
それNNじゃないしw

382 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 21:39:53 ]
もちろん静的重み付きグラフはニューラルネットそのものではない。
ただし処理のアルゴリズムとは区分されたデータ構造では有りうる。
条件付きでだが。

383 名前:360 mailto:sage [2008/02/08(金) 21:47:24 ]
ノードのラベルに閾値を割り当てればいいですか?

384 名前:デフォルトの名無しさん mailto:sage [2008/02/08(金) 22:14:39 ]
>383
純理論的にはそう思うけど。
ただBPとか実装しようと思うと他にもいろんな変数を使う必要が出てくると思う。
各ニューロン毎に保持したり、恒常的に保持する必要は無い変数だろうけど。



385 名前:360 mailto:sage [2008/02/08(金) 22:27:23 ]
>>384
その点は問題ないと思いますよ。
ノードのラベルの型を代数的データ型にするか、ペアで表現すればよいと思います。

386 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 19:08:28 ]
学習によって全体的な誤差を小さくしていくと、最大の誤差は逆に増えていくのですが
この問題を解決する手法って何かありませんか?


387 名前:デフォルトの名無しさん mailto:sage [2008/02/09(土) 20:16:45 ]
全体的な誤差って何? 最大の誤差って何?
解決って具体的にどういうこと?

388 名前:デフォルトの名無しさん mailto:sage [2008/02/10(日) 14:44:32 ]
総誤差関数の値が小さくなるように学習を続けると
特定の入力バターン(誤差が最大のもの)に対する誤差が
逆に大きくなると言う事でしょう。

その入力だけ元々パターンから外れている
(ノイズが乗っている)て事は無いのかな?

389 名前:デフォルトの名無しさん mailto:sage [2008/02/10(日) 15:14:01 ]
解決したいってのが,
それも含めてフィットさせたい
ってことなら考え直した方がいい

390 名前:デフォルトの名無しさん mailto:sage [2008/03/06(木) 23:30:51 ]
ちょっと前にGPU(GPGPU?)使ってNN動かしたって人がいたけど、
世間的にもそういう動きがあるみたいだね。

GPGPUのキラーアプリケーションは「グラフィックス」 − @IT
www.atmarkit.co.jp/news/200803/06/cuda.html

早めにフレームワークでも一つ作っておけば広く普及するかも。

391 名前:デフォルトの名無しさん [2008/03/08(土) 20:36:24 ]
ニューラルネットを使った株価予想って具体的にどうやってるんですか?

392 名前:デフォルトの名無しさん mailto:sage [2008/03/08(土) 21:03:05 ]
現在から過去何単位時間かの株価の推移の情報を入力し、次の単位時間での株価を出力

393 名前:デフォルトの名無しさん [2008/03/08(土) 22:46:50 ]
>392
なるほど、ありがとうございましたm(_ _)m

394 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 05:18:37 ]
>>392

随分といい加減なwww




395 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 20:18:38 ]
>391
共立の「ニューラルネットの基礎と応用」と言う本に「株価予測への応用」
と言う節があって、ほんの10ページくらいだが著者の一人(馬場則夫氏)が
作ったシステムが紹介されている。

それによると入力変数は
X1:前日の終値 X2:前日の変化 X3:昨日の出来高/1週間前の出来高平均
x4:昨日の出来高/先月の出来高平均 X5:出来高変化 X6:今年の最高値- 前日の終値 
X7:(前日の終値 - 3年前までの最安値)/(3年前までの最高値-3年前までの最安値)
X8:50-PER X9:株主資本変化 X10:一株益変動 X11:株価変動 X12:円ドルレート変動
X13:1ヶ月後の増資予想 X14:ダウ平均の変動 X15:公定歩合

の15。後、2出力(上がるか下がるか)、隠れ層は2層だそうな。

内容については良く分からないので自分で本か論文に当たってくれ。

396 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 22:03:12 ]
この手のシステムは本当に使い物になったら秘密にされるので
最先端は公開されないことに注意
まぁまだ実用には程遠いと思うけど

397 名前:デフォルトの名無しさん mailto:sage [2008/03/10(月) 22:11:08 ]
と言うか誰でも簡単にそのまま真似できるほど詳しい内容は普通、公開されないよ。
だが飽くまで研究目的の参考にしたいと言うなら先行研究がいろいろあるはず。

本当に物にしたければ自分で研究するしか無いだろう。

398 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 01:13:50 ]
ニューラルネットの素人目に見てだけど・・・

>>395
どうモデルにするかで全然違ってきそうですね。
どこに注目するか?というか。

399 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 01:42:37 ]
>398
現状のような外部要因でひどくグラグラ振れるような市況だと
何年も前に作ったシステムはもはや通用しなさそうだね。

円ドルレートだけじゃなくサブプライムがどうしたとか、
モノラインも危ないとか原油1バレル何ドルになったとか
いろいろな事を加味しないととてもまともな予測にならない
ような気がする。

400 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 03:57:58 ]
俺も株価予測の真似事してたけど、結局そこなんだよな。
影響範囲が広域すぎて、正攻法で学習させようとすると重み係数が多くなり過ぎちゃう。
多分NNの多段化やGA組み合わせればちょっとはマシになるんだろうけど、
基礎研ではそこまでできんかった。

401 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 13:19:28 ]
FRBの議長の失言とかもあるしなぁ

402 名前:デフォルトの名無しさん mailto:sage [2008/03/12(水) 18:53:07 ]
考慮すべき要因が多すぎるし、影響力も定量的には計れない。
NNだけで扱いきるのはむりぽ。
NNとは別に、その辺の事象を十分に少ない特徴量で表現する研究の方が重要じゃね?

403 名前:デフォルトの名無しさん [2008/03/13(木) 18:58:19 ]
意味のある特徴量をGAとかで検出できたらいいかも

404 名前:デフォルトの名無しさん mailto:sage [2008/03/14(金) 05:53:51 ]
>GAとかで検出
GAが何か分かって言ってる?
PCAやAIC辺りなら兎も角



405 名前:デフォルトの名無しさん [2008/03/14(金) 19:35:33 ]
>>395
素人目でみてなので 突っ込み希望なのですが、
>>395みたいなのって、結局のところ、
多数のパラメーターからニューラルネットで最適値を見つけるように見えます。
そうすると(株でも先物でもいいのですが)システムトレード的には、
パラメータが多くなればなるほど、
過度の最適化というか、カーブフィッティングのようになってしまい、
未来の予測(といっていいかわかりませんが・・・)をするには不適ではないかと思えてなりません。
これは、モデル化の方法などでカバーできる問題なのでしょうか?

406 名前:デフォルトの名無しさん mailto:sage [2008/03/15(土) 11:27:13 ]
入出力が実数とは限らない
機能を入出力とすると ほ〜ら

407 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 09:05:55 ]
誰かSSE,MMX,デゥアルコアに完全対応していて
なおかつ入力出力サイズが可変出来て状態保存の可能な
NNのWindows Cライブラリを作ってくれまいかね
いやもちろん細部はアセンブラで超高速なわけですが

408 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 13:34:29 ]
>>407
仕様とアルゴリズムを決めてくれたら作ってもいいけど。

409 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 19:19:37 ]
アルゴリズムは教師信号を持ったバックプロバケーション
構造は選択式
単位データは32bit整数

必要なメモリを確保する関数
・入力信号の配列数
・出力信号の配列数
を指定すると確保したメモリのポインタを返す

教師信号配列を渡す関数
学習する関数(同期型と非同期型)
実行する関数(学習したものを利用するだけ、同期型と非同期型)
非同期用コールバック
学習情報を取得する関数

ファイルの保存はあっても無くても良い
あるなら圧縮保存出来ると良い

ハードウェアアクセラレータは自動検出し最適なコードを実行する

こんなんでどうでしょう?

410 名前:デフォルトの名無しさん mailto:sage [2008/03/17(月) 11:53:49 ]
>>409
>教師信号を持ったバックプロバケーション

このあたり、もう少し具体的に書いてくれ。
詳細な説明のあるサイトへのリンクでもいいし、サンプルコードでもいい。

当方最適化は得意だが、NNの知識が足らないので。

411 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 01:54:02 ]
いろいろ調べてたらGPGPUのほうが早いらしいので却下w

412 名前:デフォルトの名無しさん [2008/03/18(火) 22:14:51 ]
Cellも早いらしいぞ

413 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 02:14:41 ]
俺の方が早い

414 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 19:17:59 ]
Cell B.E.でニューラルネットワークを実装した研究例ってあったっけ?

Cell&Neural Networkで検索してもCellular Neural Networkとか
細胞の方のCellとニューラルネットワーク関連の話しか出てこない。



415 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 08:02:36 ]
お前らちょっと聞きますよ
バックプロパで重みをランダム修正するじゃない
すべてのパターンで正常な結果が出たら完了じゃない
これって古い学習結果をある程度保持したまま
随時新しいパターンを学習していくって方法はないのけ?
画像認識だとものすごい量の学習サンプルが一度に必要になるじゃない
随時で学習できればいいのにと思うのです
そういうアルゴリズムってあるのですかね?

416 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 12:57:44 ]
多峰性とか局所最適解とか考えた上での発言・・・とは思えない

417 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 15:06:23 ]
>415
BPで入力パターンが来る毎に少しずつ学習させていく手法は可能だし、
普通にあるよ。

参考:
ttp://matrix.cs.ce.nihon-u.ac.jp/~matsui/research/bp/bp.html
ttp://www.twcu.ac.jp/~asakawa/waseda2002/bp.pdf

ただ、いつまでも学習させてると上の人も言ってるように
局所解とか過学習(般化能力の欠如)が問題になってくる。

418 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 22:11:26 ]
>>414
去年、サクシスって学会で賞をもらってた人がやってたような気がする

419 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 00:20:30 ]
>>416
ペッ

>>417
ありがとう、そういうことです
過学習かどうかの判断は結局プログラム的には無理だから
人為的に止めることは考えてますとも

420 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 01:46:34 ]
ニューラルネットって懐かしいな
その昔、甘利さんの本に二足歩行の最適化てのがあって憧れたんだが
今思うと嘘臭いよな。現実的な時間で収束すると思えないし
二足の自律歩行モデルなんて当時はロボティクスの人でも出来てないだろ

421 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 18:46:13 ]
>420
反論したいんだが、何らかの根拠を示した反論ができない。

ちなみに二足歩行ではどうか知らないが、倒立振り子を
ニューラルネットでうまく制御したと言う研究をかなり
昔にTV番組か何かで見たな。

傾き具合をカメラで検出しながらレールの上で台車を
左右に動かして制御する方式だったと思う。
(二足歩行よりはるかに簡単だったとは思うが)

422 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 19:16:44 ]
確かに倒立振子だと出来そうだけど、どう考えても解析的に解いたほうが良さそう
他の手法よりもニューラルネットが最も適するような問題って何かあるんだろうか
それが見つからない&学術的につまんない->飽きられる->予算取れない->今に至る。で、あってる?

423 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 01:08:27 ]
>422
倒立振り子のてっぺんに腕を付けてさらにその両端に小さな振り子を
付けたりしたら(つまりカオス振り子に仕立てたら)解析的に解いて
制御する事はもはやできんだろう。

ニューラルネットでうまく制御できるかどうか、やってみないと
分からないし、そんな事に何の意味があるのかと問われると困るが。

424 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 02:51:33 ]
解析的に解かなくても制御できるのがNNの利点なのだが
例えば人間の腕なんて解析しようにも必要なパラメタの測定が大変だし
一回測定してもどんどん変化しちゃうわけで




425 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 11:33:45 ]
人間の腕なんて解析して何に使うんだよ

426 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 13:23:32 ]
>425
高度な義手あるいはロボットアームの開発

427 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 19:20:50 ]
パラメタを測定してモデル化というのはバイオメカニクス的手法なんだろうが
それならニューラルネットを利用できるかも知れない
やっぱりそれが最適とは思わんけど

運動学・動力学的な束縛を解く手法はここ10年程で物凄く進んでいる
わざわざ不安材料の多いニューラルネットを導入する必要はないはず
倒立振子も3段の制御に成功したというのをどこかで見たがソース失念

428 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 20:57:47 ]
例えば家庭用あるいは介護用ロボットで物を扱う場合
対象の質量やモーメントを事前に測定しておくことはできない
こういう物に対応させるには何らかのadaptiveな手法が必要
その一要素としてNNを使うのが現代的
NNだけでやれることは非常に限られるし

429 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 21:41:30 ]
高次元でグニャグニャ曲がった未知関数を近似したいと言う時、
バックプロパゲーション型のニューラルネットは有用だと思う。

特定の応用にどんなものがあるのかは良く知らんが。

430 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 22:43:48 ]
>>428
学習したカテゴリに属さないお婆ちゃん(ってどんなのかは知らんけど)は放り投げられたりして。
まあ冗談だけど。
>>429は何か応用例があったら知りたい。
それでも解析的に解けない問題には数値演算(反復解法)があるし
ニューラルネットとは違って計算を打ち切った時点なりの精度は得られる。

431 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:06:11 ]
>430
数値演算で解くためにはともかく方程式を立てる必要があるでしょう?
微分方程式なり何なりの形で。

対象にしているシステムの性質に未知な部分が多くて、その方程式
自体が立てられないと言うような状況にニューラルネットは有用。
関数近似器になると言うのはそういう意味。

いったん近似できたら後はその極大値(極小値)を探すと言うような応用。

432 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:49:09 ]
対象となるシステムをじっくり観察して、それを単純で理解可能な
部品にまで分解し、次にそれら部品同士の関係を方程式で記述して
システム全体を表現しようと言う(特に物理学などに)伝統的な
考え方がある。

いわゆるデカルトの還元主義。

それと正反対に内部の仕組みは良く分からないが、そのシステムの
入出力関係に着目してその動作を真似しようとか予測しようとか言う
考え方に立ってるのがニューラルネットその他の学習機械だと思う。

433 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 23:57:34 ]
あ、把握しました。ありがとう。
>>420
これって共著が出村先生じゃないか。
それだったら出来たかも知れんね・・・

434 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:22:32 ]
私は読んだ事無いけど「脳とニューラルネット」って本の事を言ってる?



435 名前:デフォルトの名無しさん mailto:sage [2008/03/27(木) 00:33:54 ]
ググったらそれが出てきたんだが、題名は覚えてないんだわ。
時期的には多分。

436 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:38:16 ]
実際近似になってるのかね?
単なるハッシュデータベースと同じようなものの気がする
それはそれで応用範囲はあるわけだけど
そこんところが発展の妨げになってるな
NNはただの情報蓄積装置だと考えると今応用されてるものが当然の結果だと分かるし
それ以上が不可能だということも了解出来るだろ

437 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:43:53 ]
人間の脳は固定長じゃないんだよ
特定の作業を繰り返して情報量が増えると自動的に別の部位を加えるようになってる
目が見えない人は音声解析能力が飛躍的に上昇するのは目に使っていた領域を
耳に置き換えたからだ
NNはそういうことを前提にしてないでしょ
コンピューターでNNの領域を増やして安定させるってのは難しいだろうので
単純化するには単純に自動膨張タイプのマルコフ連鎖データベースにするのがいいだろう

438 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 05:46:02 ]
ただマルコフだと近似算出に膨大な計算が必要になるんだよな


439 名前:デフォルトの名無しさん mailto:sage [2008/03/28(金) 21:47:10 ]
>436
どういう応用形態を前提に考えてるのか良く分からんが、
単なる(ハッシュでもなんでも)データベースなら訓練用データに
存在しない無いポイントの値を参照しようとしても不可能だろ?

ニューラルネット(あるいは他の関数近似手法)なら
データに無い途中や端にあるポイントの値も答えてくれる。
いわゆる般化能力。

440 名前:デフォルトの名無しさん [2008/03/29(土) 00:08:35 ]
>437
>217で紹介されてるが「自己増殖型ニューラルネットワーク」
なんて物も考えられているらしい。
どういう物かあまり良くは知らないが、必要な箇所のニューロンを
増やして(増殖して)学習、識別能力を上げようと言う試みのようだ。

441 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 00:10:25 ]
間違えてアゲちまった、スマソ。

442 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 03:21:37 ]
こう考えると分かりやすい
特定の文字列を与えるとSHA-1ハッシュを吐くNNを組んだら
確かにそれは実用的で実行速度はまじめに計算するより早い
記憶に無いデータも学習した計算方法からなんとなく答えを出す
それ以上でもそれ以下でもなくただのハッシュ関数なんだよ
実用的な速度で動くし答えは適当だけどそこそこの正解率はある
途中の計算を省略したハッシュ関数みたいなもんだ

443 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 04:04:50 ]
そこそこ正解率あるのかなぁ
あればあんまりいいハッシュ関数とは言えないような気も
ちょっと気になり始めた

444 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 08:40:00 ]
>442
オイオイ、そりゃニューラルネットをハッシュ値の
生成に使えばある種のハッシュ関数だろうさ。
だからと言ってニューラルネットを単なる
ハッシュ関数の一種に過ぎないと言うのは暴論だろ?

例えば普通のハッシュ関数で連想記憶やパターン認識を
実現できるかい?
それともデータの類似度を定義してそれを表現するような
特殊なハッシュ関数を想定してるのかな?



445 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 09:14:37 ]
ちなみに(言うまでもない事だが)
ニューラルネットが関数近似器としてその実用性を
発揮するのは元となる関数が「未知」の場合だよ。

つまり入力データと出力データのセットのみ
与えられていて、その関係は不明な場合だ。
(そのような現象は現実に山のように存在する)

最初から関係が既知であるのなら
その関数を使えば良いだけなのだから。

446 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 12:29:27 ]
とりあえずfirst class objectって何なのか考えるといいよ

447 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 13:44:25 ]
>446
何でプログラム言語の話が唐突に? 誤爆?

448 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:30:58 ]
>>445
まさにその通り
関数が未知の場合にだけちょっとだけ役に立つ「アルゴリズム」の一種でしかない
もっとわかりやすく考えよう
SHA-1からキーを解読するNNを組んだとしよう
むちゃくちゃ早いが正解率は低いw
一時しのぎの解決手段だな

449 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:34:40 ]
正確な解答を得るにはマルコフの統計をとるのが一番良い
ただこれは情報量がすさまじいことになる
最近のPCは大容量なんである程度はいけるだろう
問題は近似算出だな
大量にあるデータから一番近い2ペアを探しだしてその中間値を返す
この計算量がばかでかい

450 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 17:35:59 ]
簡単に言えばだ
SHA-1の解読処理をしようと思ったら
SHA-1ハッシュとキーのペアデータベースを作るのが一番早いし正確だろ?

451 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:17:38 ]
何でSHA-1ハッシュの解読処理にこだわってるんだ?
そういう厳密性を要求される処理にニューラルネットが
向いているとは始めから思えないし。

452 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:19:22 ]
誰もこだわってないよ?

453 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:23:48 ]
じゃあ、ニューラルネットの適用課題としてはそもそも不適切。
(始めから向いていない応用)

454 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:31:24 ]
ハッシュテーブルになぞらえるとは...パッチワークが正解だろ
あとill-posedな問題にも使えるという利点もある



455 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 18:46:29 ]
>454
ill-posedな問題って何かと思ったら逆問題の事か。
で、「パッチワーク」ってどんな応用の事?

456 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 19:05:24 ]
もしかすると電子透かしの話かな?

457 名前:デフォルトの名無しさん mailto:sage [2008/03/29(土) 23:09:54 ]
データマイニングや統計解析で使われているって本に書いてあったけど本当?


458 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 00:41:36 ]
>>453
それが何か?
そんな事はわかった上で話してるんだよ。

459 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 01:34:32 ]
(話が低レベルだなぁ・・・)

460 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 02:57:44 ]
(・∀・)クスクス

461 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 14:46:25 ]
ああ、有袋類の猿みたいな生き物。

462 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 18:04:51 ]
Ill-posedは不良設定問題
拘束条件が自由度より少なくて解が一意に決まらない(から解析的に解けない)
しかしill-posedって言葉を知らないってことはNNの事を全然勉強してないんだな

463 名前:デフォルトの名無しさん mailto:sage [2008/03/30(日) 20:17:43 ]
>462
Thanks.
ニューラルネットの事は確かに大して勉強してないが、
俺の持ってる(唯一読んでる)ちょっと古い本には
"ill-posed"なんて用語は載ってないんだよ、
"逆問題"なら載ってるが(洋書じゃないし)。
(大学等で真剣に勉強した人にはとても適わないぜ)

ところで誰か、"Practical Neural Network Recipes in C++"
と言う本持ってる人(or 読んだ事のある人)居る?
いろんなニューラルネットのプログラム例が載ってるらしい
のだが分かりやすいかな?

本屋で偶々「ゲーム開発者のためのAI入門」と言う本を見かけたので
読んでみたらニューラルネットのプログラミングの参考文献として
薦められてた。

日本語の本でニューラルネットプログラミングの参考書は
ほとんど無いよね。「Cでつくるニューラルネットワーク」は
かなり古いし(プログラム例がNEC98シリーズのDOS前提)

464 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 13:51:32 ]
ニューラルネットワークって巷で数十年前から噂のエージェント指向もカバーしている?



465 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:02:14 ]
>>464
エージェント指向なんて言葉は一部の人間(大したことないのに特別な名前を付けて特別な技術として売りたい人間)
しか使っていないと思うが、意味している技術なら既に一般的に使われてるよ。

466 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:10:16 ]
そういう意味ではニューラルネットワークも大したことないな

467 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:20:46 ]
ああ、それからエージェント指向とニューラルネットは全くの別物。

468 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:08 ]
>464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント
などの見出しで(日本語の)ウィキペディアに解説があるよ。

それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。
(エージェントに自律性を与える手段としてはあり得るのかも知れないが)

>466
意味が分からん。

469 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:36:23 ]
>464
アクターモデル、マルチエージェントシステム、ソフトウェアエージェント
などの見出しで(日本語の)ウィキペディアに解説があるよ。

それらを読む限りではニューラルネットとは直接的には何の関係も無いと思う。
(エージェントに自律性を与える手段としてはあり得るのかも知れないが)

>466
意味が分からん。

470 名前:469 mailto:sage [2008/04/01(火) 15:37:40 ]
いかん、二重カキコしちまった。
スマソ!

471 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 15:44:02 ]
エージェント指向って言葉は4,5年前にちょこっと見かけたっきり最近は全く見なくなったね。

472 名前:エージェント指向 mailto:sage [2008/04/01(火) 15:48:14 ]
みんなありがとう

確かにニューラルネットは意思決定とか行動決定の段階で使われる感じだったな
エージェント指向はオブジェクト指向以上にわからんが,エージェント指向プログラミングならわかる人間でした

473 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 16:12:42 ]
1980年代の論文にAIとか人工知能とかファジーとかいう言葉が書かれてあると自分まで恥ずかしくなってくる。

474 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:40:36 ]
それでも理系はまだマシだよ・・・
査読をかいくぐってポストと予算を獲得するのがプロの学者なんだろうな
頭のいい人間が衒学的なことをするんだから性質が悪い



475 名前:デフォルトの名無しさん mailto:sage [2008/04/01(火) 23:46:26 ]
俺の事か

476 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 00:17:02 ]
とゲーテ言い

477 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 01:17:10 ]
>473
誰だって自分の書いた論文を後から読み直すと恥ずかしくなってくると思うが。
そういう羞恥心をある意味捨て去って(あるいは本当に偉大な研究をしてると
舞い上がって)論文を書き続けられないと職業的研究者になんかなれないのだ
と思う。(俺は憧れだけ持ってて成れなかった口だが)

最近、一番自戒してるのは「こんな事は誰でも思いつくだろう」とか
「こんな研究は誰か既に実行していて成功/失敗してるだろう」と
勝手に決め込んで自分のアイデアを簡単に捨ててしまう事。

478 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 02:37:48 ]
確かに何気無く追求してみたら世界一や世界初だったって事はあるな。

479 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 03:52:08 ]
俺も経験あるわ。

480 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 08:19:22 ]


481 名前:デフォルトの名無しさん mailto:sage [2008/04/02(水) 14:49:26 ]


482 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:37:17 ]
研究者畑ってそういう妄想に襲われるんだ・・・・なるほど

483 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 02:43:48 ]
いや、マジで狭い世界では世界一になるのは簡単だからね。

484 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 04:21:44 ]
うん



485 名前:デフォルトの名無しさん [2008/04/03(木) 14:04:08 ]


なんだ愚痴の書き込みスレになってるな。
日記じゃないんだからw

486 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 14:10:11 ]
便所の落書きに日記を書いて何がわるい

487 名前:デフォルトの名無しさん mailto:sage [2008/04/03(木) 16:27:21 ]
何らかの意味で世界一あるいは世界初の研究を
ものにしない限り、博士号なんか取れないよね。
もちろん狭〜い範囲に限られた世界一が
ほとんどなわけだが。

488 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 00:40:37 ]
ところで複素ニューラルネットワークって何が嬉しいんだろう?
普通の(実数型)NNよりパラメータ数の割に能力が高いとしたら
それはなぜなんだろうか?

489 名前:デフォルトの名無しさん mailto:sage [2008/04/04(金) 17:25:55 ]
>>488
興味深いですね。学生でもない素人ですが、
NNの肝は複雑さだと直観的に思えるので、
複素数を用いた方が複雑さが増していい結果を
もたらすのではと思ってます。そもそも
学習したNNがなぜ知能があるように振る舞う
のかということすらわかっていないわけで、
錬金術のごとく、ひたすらこねくり回すことが
大事なんじゃないかなと。

490 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:35:16 ]
>学習したNNがなぜ知能があるように振る舞う
寡聞にして初耳だが

491 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 01:52:30 ]
そっか

492 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:18:55 ]
知能の定義によりますね。

493 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 05:45:52 ]
「ように」ってのでどこまで許容するかにもよるな

494 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 15:33:58 ]
細胞性粘菌の振る舞いに知能があるように感じるかどうかも問題だな。
全体にベターッと広がってから最短経路に集まる様子には知性を感じない。



495 名前:デフォルトの名無しさん mailto:sage [2008/04/06(日) 23:05:26 ]
>>494
俺は489の書き込みにも知能は感じない

496 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 02:50:39 ]
そもそも知能とは何なのか。

497 名前:デフォルトの名無しさん [2008/04/07(月) 13:27:32 ]
知能があるようにってのは

最初に意図してプログラムしていたのと違う結果を出す
ってことだべ。

498 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 13:46:57 ]
知能とは何かなんて、知能なんて言葉を使わなければ考えなくていいよ。
だから、最近は論文に人工知能なんてタイトルを付ける人がいなくなったんだろ。

499 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 17:58:53 ]
自分の書いたプログラムが意図と異なる結果を出力したらそれが知能です。

500 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:39:25 ]
それなんてバグ?

501 名前:デフォルトの名無しさん mailto:sage [2008/04/07(月) 20:53:22 ]
>>488
NNの節の数が増えるのと同じ効果が得られるだけじゃなかろうか?

502 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 02:10:40 ]
情報科学や工学的利用価値にしか関心のない
人からしたら知能なんてことを哲学的、科学的に
追求する必要ありませんからね。

>>501
よければそういう考察に至った経緯を教えて
ください。

503 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:06:03 ]
>501
それだと複素ニューラルネットワークに
特別な有り難みは何も無いと言う事になるね。

節を増やしたのと同じ効果しか得られないのなら。

504 名前:デフォルトの名無しさん mailto:sage [2008/04/08(火) 13:28:25 ]
複素じゃなくても入力値又は出力値をを或る関数に通せばNN段階で学習する関数の形が簡単になって
汎化能力や精度がよくなる事があるのと同じ原理ではないかと予想



505 名前:デフォルトの名無しさん mailto:sage [2008/04/10(木) 11:54:29 ]
NNの節数を2倍にすると複素ニューラルネットワークと同等のものは構築できる
複素数を使うこと=制約条件 になってるからその辺になにかいい事があるのかな?

506 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 02:45:59 ]
構築できるっていう根拠あるの?
先行研究なんかの論文があれば教えて欲しい

507 名前:デフォルトの名無しさん mailto:sage [2008/04/11(金) 06:09:00 ]
>506
二つの実数(実数のペア)に特定の演算ルール
(演算ルールに対する制約条件)を課したものが
すなわち複素数。

複素ニューラルネットワークもまた同じ。

508 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:22:08 ]
>>507
ノード数が倍になることと関係ないね

509 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 01:42:06 ]
>>508
iを虚数単位とする

複素NN
節α (x1+y1*i)
節β (x2+y2*i)
α→β (a+b*i)
であるとき
β=(x1*a-y1*b)+(x1*b+y1*a)*i
x2=x1*a-y1*b
y2=x1*b+y1*a

NN
節A x1
節B y1
節C x2
節D y2
A→C a
A→D b
B→C -b
B→D a
であるとき
C=x2=x1*a-y1*b
D=y2=x1*b+y1*a

510 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 13:26:17 ]
>508
複素ニューラルネットワークがどんなものかまず調べなよ。
ググればたくさん見つかるよ。

www.kki.yamanashi.ac.jp/~masaki/koba_lab/complex.html
など。

511 名前:デフォルトの名無しさん mailto:sage [2008/04/12(土) 14:19:21 ]
なるほど。

512 名前:デフォルトの名無しさん [2008/04/14(月) 12:04:00 ]
ニューラルネットの基本的なことを質問させてください。

ニューラルネットとは、組み合わせが多すぎて到底
総当たりでは評価しきれない複数のパラメータがあるシステムの
中の最適なものを算出する手法

ということであっていますでしょうか?

何がいいたいかといいますと、株、先物のデータ分析(というか予想)
に使っている人をみかけたのですが、
パラメータをたくさん用意して、最適解求めるのだと
過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。

513 名前:デフォルトの名無しさん [2008/04/14(月) 13:11:32 ]
あっていません

514 名前:デフォルトの名無しさん mailto:sage [2008/04/14(月) 14:56:48 ]
>過度の最適化(カーブフィッティング)にしかならないのでは?と思っています。
これは、学習方法をどうするかにかかっているんだな
カーブフィッティングさせるように学習させれば、そうなるし
そうならないように工夫すれば、またそうなる。
学習とはそもそも何かと考えるハメになるのだ。



515 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 02:15:40 ]
>514
過度の最適化に陥っているかどうかの判定は結局、新しい(未学習の)
データを持ってきて評価させてみるしか無いのかね?

516 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 06:46:55 ]
まずは「過度の最適化」を定義してみてくれ
そうすれば判定方法も自ずと明らかになるだろ

517 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 07:01:56 ]
過学習でググレよ。

518 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 13:54:47 ]
>>515
もしそうすると、再びその「未学習」のデータに対して過度の最適化を始めるだけかと
それもちょっと非効率なね、だから学習とは何かを考える必要がでてくると。

519 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:06:27 ]
そのための cross validation だろ……jk

520 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:21:59 ]
cross validation とは何をするものかという事をよく考えてみると、自滅していることに気づけるよ。

521 名前:デフォルトの名無しさん mailto:sage [2008/04/15(火) 15:31:10 ]
カーブフィッティングの問題は、ニューラルネットワークというよりはノンパラメトリック解析の難しさが表面化しているというのが実態かもしれない
そうなるとちょっとスレ違い気味だね。

522 名前:512 mailto:sage [2008/04/18(金) 01:04:24 ]
レスありがとう。

ニューラルネットワークは全然詳しくないのでついていけないのですが、
ニューラルのキーが学習ならば、過学習がカギっぽいですね。

つきつめるとニューラルとは違う方面になっちゃうのかな?

cross validation は、ぐぐってみたのですが、
株とか先物だと既存のデータを、推定と検証用に分けて検証するってことかな?
システムトレードで言うバックテストデータと、フォワードテストデータをわけるということかな。

523 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 12:24:05 ]
>>518
日本の品格を著しく下げている在日チョンや
在日チャンコロの排斥が必要なのは言うまでもないでしょう。
まずは東京から。石原閣下に期待です。
前述した残業代を要求して裁判を起こしたりしているのも、
ほとんどはその手の輩ですしね。
日本の国際競争力を低下させようと工作しているんでしょう。

524 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 16:34:03 ]
>523
凄い誤爆だな。



525 名前:デフォルトの名無しさん mailto:sage [2008/04/18(金) 17:42:54 ]
>>523
石原?冗談じゃねぇよ、あの財政破綻野郎
新銀行東京の責任とらせて全財産没収にしろ
小泉復活キボンネ

526 名前:デフォルトの名無しさん mailto:sage [2008/04/21(月) 00:48:52 ]
財政破綻野郎ってw
破綻してたのをここまで回復させたのが石原だろ
美濃部とか青島とかのダメダメ都知事を知らんのか

527 名前:デフォルトの名無しさん mailto:sage [2008/04/24(木) 08:18:13 ]
入力層から隠れ層への重みの大きな入力が重要な入力と言うことになるんでしょうか?


528 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 17:55:55 ]
ちょっと話題がそれるかもしれないけど

今日は天気が悪い
今日は非常に天気が良い

という2つの項目がDBにあったとします
「今日は天気が良い」で検索した場合後者のほうが一致率が高いわけですが
これを抽出するSQL文は書けますか?
テーブル構成は自由に設計してもらってかまいません
単語毎に項目を分割格納してもいいです

529 名前:デフォルトの名無しさん mailto:sage [2008/04/27(日) 21:08:00 ]
>>528
>後者のほうが一致率が高いわけですが
こういうことは「一致率」の定義をしていないから言えないんだよ。

530 名前:デフォルトの名無しさん mailto:sage [2008/04/28(月) 01:54:11 ]
>>527
そういう考え方もあるけど
「重要な入力」をどう定義するかが問題で,
一般には「ある出力」に対する影響が大きなものだから
影響をきちんと計算すべき(非線型だから定数にはならない)

531 名前:デフォルトの名無しさん mailto:sage [2008/04/28(月) 09:08:51 ]
>>529
この場合の一致率は一致する文字の数です
多くて余った分は無視
短い方の文の文字すべてが存在する場合は完全一致と判断します

532 名前:デフォルトの名無しさん mailto:sage [2008/04/29(火) 03:36:27 ]
これは何かのクイズですか?

SQLでは難しいけど、NNならできます、というオチですか?



533 名前:デフォルトの名無しさん mailto:sage [2008/04/30(水) 00:46:33 ]
>>531
それNNの使いどころが無いよ

534 名前:デフォルトの名無しさん mailto:sage [2008/05/01(木) 16:20:58 ]
ついにやったぞ!
この技術は今のコンピュータを本質的に変えるかも知れない。

wiredvision.jp/news/200805/2008050123.html



535 名前:デフォルトの名無しさん mailto:sage [2008/05/02(金) 18:25:29 ]
>>534
usbメモリサイズでnnの構造の書き込みと計算結果の出力が出来るものがあるといいな


536 名前:デフォルトの名無しさん mailto:sage [2008/05/02(金) 22:14:31 ]
二端子のアクティブ素子は皆淘汰されたからなぁ
メモリ以外の使い道は難しそう
MRAMとどっちが早いか/速いか

537 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 03:23:38 ]
端子数の問題じゃ無いんじゃない?
どちらかと言うと現状のLSI技術に馴染んで集積化できるかどうか?
もし可能なら本当にアナログニューロLSIチップや集積化した
アナログコンピュータも夢じゃ無いと思う。

その際の演算部分はやっぱりOPアンプかな?
あれってそんな集積化できたっけ?

538 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 14:50:06 ]
二端子アクティブ素子は回路/システム設計が難しい
トンネルダイオードやパラメトロンは当時としては非常に優れた素子だったが
信号を一方向に流す(入出力を分離する)ために三相クロックが必要で廃れた
今の回路技術なら何とかなるのかも知れないが
アナログは(A級動作なので)消費電力が大きいのが大問題
上手くパルスorD級で使えればいいのだが

539 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 15:51:22 ]
隠れ層の数が多すぎる場合、学習の精度は良くても別のデータでの予測精度が悪くなったりするんでしょうか?

540 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 17:11:18 ]
悪くなったり良くなったりする


541 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 18:11:17 ]
OpenCVのリファレンス(日本語版)をさらっと見ていたらNNに関する機能も提供しているようなことが書いてあったんですが、
使ってる人いたらNNのライブラリとしてどう思うか感想をお願いします。

542 名前:デフォルトの名無しさん mailto:sage [2008/05/03(土) 20:25:56 ]
>多すぎる場合
と書いてるんだから,多過ぎるかどうかの判定手段として訊いてるんじゃまいか
学習データにもよるが,一般的にはそう考えて構わない(overfitting)

543 名前:デフォルトの名無しさん mailto:sage [2008/05/09(金) 01:05:29 ]
NNの並列化に関する情報
ちょうあい

544 名前:デフォルトの名無しさん mailto:sage [2008/05/09(金) 02:30:42 ]
意味不明



545 名前:デフォルトの名無しさん mailto:sage [2008/05/12(月) 23:07:55 ]
>>541
OpenCVの物体検出関数で使ってるよ


546 名前:デフォルトの名無しさん mailto:sage [2008/05/29(木) 03:17:57 ]
学習が進むと、誤差は極小値に落ち着くんですよね?
だったら、どうして過学習が起きるんでしょうか?


547 名前:デフォルトの名無しさん mailto:sage [2008/05/29(木) 03:38:53 ]
だったらって、両者には何の関係も無いよ。


548 名前:デフォルトの名無しさん mailto:sage [2008/05/29(木) 12:24:00 ]
関数の近似に対する局所的な誤差の最小化がローカルミニマム
学習しすぎて関数の近似なんて関係なくなったのが過学習


549 名前:デフォルトの名無しさん mailto:sage [2008/05/30(金) 01:42:22 ]
>>546
ヒント:「過学習」とは....


550 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 03:16:41 ]
>>546
その時点で知りうる誤差最小値なだけだよ
谷はいくつもある可能性がある
一番深い谷に落ちるのが正解なわけだが
浅めの谷で最小値が決定してしまうと間違いでしょ
それが過学習

551 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 03:22:37 ]
というか人間の脳に正解なんて存在しないわけだ
9時に人に出会ったら「おはよう」という点に収束していたとして
それは正解でも間違いでもあるわけだ
学習すればするほどこの学習の重みが増していく
「キモオタには話しかけてはいけない」という別の学習が行われても
「おはよう」の重みが大きすぎると「おはよう」と言ってしまうわけだ
こうなると都合が悪いだろ
これが過学習

552 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 08:25:48 ]
過学習とは
訓練データに対する誤差は減るが
テストデータに対する誤差は増える状態

553 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 11:14:35 ]
線形関数から作った学習データに対して
ものすごい波形で学習に使ったのみ点を見事に通過する関数を思い描いてください。


554 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:24:33 ]
過学習かどうかってのはあくまでその挙動が正常かどうかという希望に関係してくる
数学的に正しい解は存在しない
計算するよう設計した時だけは別途解が存在するだけ
すべては製作者がこういう結果がほしいと望むことから始まる




555 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:28:07 ]
製作者が希望する結果が基準となり
それより足りなければ学習不足
それを超えれば過学習

556 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:29:49 ]
ちなみに人間の脳は過学習を抑えるために
常に学習結果を消去している
再学習されない場合は自然消滅する

557 名前:デフォルトの名無しさん mailto:sage [2008/06/05(木) 15:32:56 ]
まあ人間の場合製作者はいないので基準が存在しない
だから過学習という状態は存在しないのだけど
ただ心理学系の馬鹿達に言わせれば
社会的に逸脱した状態が過学習なんだとさ

558 名前:デフォルトの名無しさん mailto:sage [2008/06/06(金) 00:21:05 ]
なるほど
ある特定の社会(コミュニティ)に過適応するわけか

559 名前:デフォルトの名無しさん [2008/06/25(水) 14:48:21 ]
SOMでオススメの本ないですが。
アマゾン見るとコホーネンの本は翻訳がくそだとか非難が多いのですが。


560 名前:デフォルトの名無しさん mailto:sage [2008/06/26(木) 23:50:56 ]
あれは確か文科系の先生(しかも学生に手伝わせてる)が訳してて
箸にも棒にもかからなかった記憶がある

561 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 16:39:02 ]
今日本屋で自己組織化ネットワークの本見てきたけど
ほとんどの章を大学生が訳してた



562 名前:デフォルトの名無しさん mailto:sage [2008/06/27(金) 16:46:05 ]
むしろ教授が関わってるのは「はじめに」くらいだと思われ

563 名前:デフォルトの名無しさん mailto:sage [2008/06/28(土) 02:39:34 ]
全滅なのか
ウェブのほうがマシだということか


564 名前:デフォルトの名無しさん mailto:sage [2008/07/02(水) 18:24:58 ]
あほでも研究費が取れる希少な分野ですからね



565 名前:デフォルトの名無しさん mailto:sage [2008/07/29(火) 00:31:41 ]
制約付きニューラルネットワーク学習に関して詳しい参考書があれば教えてください。
基本的なニューラルネットワークのプログラムは組んだ事がありますが
制約に関してはネット上で言葉を見かけた程度で資料も見つからずどう実装するのかまだよく分かってません。


566 名前:デフォルトの名無しさん mailto:sage [2008/08/02(土) 16:32:04 ]
人間の脳細胞の構造を考えて見た
どうやって学習するか
BPは同じ入力を与え続けて正しい結果が出るまでランダムに変化させるだろ
人間は逆だ
正しい結果を知った上で入力を変化させる
つまりだねランダムな入力をしてそれが望む結果じゃ無い時には
それは疲労感や絶望感や空腹や実際の栄養不足を発生させる
そうなると脳全体の軸策が減少する

つづく

567 名前:デフォルトの名無しさん mailto:sage [2008/08/02(土) 16:34:54 ]
そして軸策が伸びる条件だがそれは単純に脳細胞に信号が到達した時に軸策が伸びる
つまりだ
入力をミスって脳全体が萎縮していくが正しい結果を得られたときだけ伸びた軸策は減少しない
それが学習として機能するんだ
これを実装する方法も考えた

つづく

568 名前:デフォルトの名無しさん [2008/08/02(土) 16:54:49 ]
実装してから言ってね

569 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 08:45:25 ]
単なるアイデアじゃなくて、きちんとモデル化されてるなら、オレが実装してやってもいいぞ。


570 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 09:31:00 ]
>BPは同じ入力を与え続けて正しい結果が出るまでランダムに変化させるだろ
>人間は逆だ
>正しい結果を知った上で入力を変化させる

なにいってんの


571 名前:デフォルトの名無しさん mailto:sage [2008/08/04(月) 19:16:06 ]
ニューハーフハローワークに見えた

572 名前:デフォルトの名無しさん mailto:sage [2008/09/01(月) 14:48:54 ]
自己組織化マップのデータを可視化してくれるフリーのツール、どなたか知りませんか?
以前見かけたんですけど、どこにあったのか忘れてしまって……

573 名前:デフォルトの名無しさん [2008/09/01(月) 14:54:05 ]
>>559
ネットで調べた方が分かりやすい。
この本読めたもんじゃないし。

自己組織化マップ ―理論・設計・応用 海文堂出版
はちょこちょこアルゴリズムも載ってるから、まだいいかもしんない。

574 名前:デフォルトの名無しさん mailto:sage [2008/09/01(月) 18:19:15 ]
>>572
どんな入力データかによるだろ




575 名前:デフォルトの名無しさん [2008/09/03(水) 10:31:36 ]
C++で実装されたライブラリでいいのないですかね。
最近の事情は全然知らないんで、わかりやすいサンプルがあるのがいいです。

576 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 13:00:30 ]
>>575
OpenCV

577 名前:デフォルトの名無しさん [2008/09/03(水) 14:12:15 ]
>>576
対象は1次元データなので、コンパクトなもの希望です。
サンプルとしてでもフロントエンドのあるものがあるとよいのですが…

578 名前:デフォルトの名無しさん [2008/09/03(水) 19:38:39 ]
ニューラルネットワークはカーブフィッティングあるから使いづらいよ。
統計学をきちんと学べば、機械学習の多くの手法が結局は親戚同士でしかないことや、
そもそもの因子選択がダメなら全部無意味だってことがわかる。

ニューラルネットワークしか知らない人は、「設計には慣れが必要」とか言って素人を煙にまくけど、
本質的な問題はね、機会学習のアルゴリズムは統計学が期待する「正規化されたデータ」という
幻想の上に立脚するものであって、単体では因子間の相関(多重共線性)を
適切に処理できないということなんだよ。

これはNN以外のあらゆる手法にもよこたわる、いわばバカの壁。

579 名前:デフォルトの名無しさん [2008/09/03(水) 19:48:51 ]
これを処理する簡単な方法は、事前に多変量解析を行って、使えそうな因子があるかを見ること。
そして正規化処理を自動化すること。
因子間の相関が変化していく状況(リアルタイム)では、自分の設計を更新できないなら
すぐ使いものにならなくなる。
正直、なんで未だにニューラルネットワークを人間が設計することになっているのかよくわからない。
学会とかレベル低すぎ。

誰かはやくAI作ってくれ。

580 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:04:39 ]
>>579
いや、何か簡単に使えるフリーのライブラリがあればそれを教えてくれると
ありがたいんですが。
LIBSVMは試してみたんだけど、NNも試したいなと。
やりたいのは単に一次元データの予測なんだけど、未知なのでNNでやって
みようかなとそんくらいの統計素人ですんまsん。

581 名前:デフォルトの名無しさん [2008/09/03(水) 20:09:52 ]
BP法系統のニューラルネットワークの性能の低さは、因子数が少ないほど顕著になる。
因子が0から1までの値を取るとしたとき、その値の範囲(0.3以下、など)に重大な意味があるようなケースでは、
その因子を適切に分解するプリプロセッサ無しに学習を行おうとすれば、
中間層が2〜3個余計に必要になったあげく、近似精度も劇的に低下する。

なぜかというと、処理対象となる因数空間の分割(非線形近似)にはステップ関数が必要だが、
そのために中間層のニューロンが消費されてしまう。
結果、本当に欲しかった「役に立つ近似」に使われるニューロンが減り、精度が犠牲になってしまうのだ。

思うに、ニューラルネットワークが何をやっているのかわからないというのは、
単にそれを真剣に考えたことが無いだけだと思う。
あらゆる非線形近似は、空間分割と線形近似の組み合わせでしか実現できない。
ニューラルネットワークは、それをステップ関数と足し算(引き算)で行っている。ただそれだけのことだ。

582 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:18:13 ]
ライブラリはR言語に付属しているのがある。本家サイトあたりから辿れたと思う。

あとはアルゴリズム系の書籍のサンプルソースダウンロードが利用できる。
書籍を買わないとソースの解説は無いが、R言語に付属している優秀なデータを食わせれば
だいたい推測できりはず。もっとも、実データの処理に使うには教科書的すぎて役に立たないと思う。
NNの改善論文が多いのは、元のアルゴリズムが驚くほどクソだから。空間の境界部分を
きっちり処理したいなら、SVMやk近傍法のほうがはるかにマシ。

583 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:24:27 ]
ニューラルネットワークの本質は、k次元のケーキをナイフで切り分けてるだけ。
中間層を増やせばそれだけ太刀筋は複雑な軌道を描けるようになり、
一見うまくいくように見えるが、その軌道が合理的なものである保証は無い。

偶然に人の皮膚すれすれをナイフが通っても、ケーキが切れていれば切り分けは成功したことになるし、
値は収束したことになる。NNの誤差の収束ってのは、そのくらいの意味しかないのよ。

584 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 20:39:23 ]
SOMの可視化も、2〜5因子くらいにまで絞れているなら座標xy、色rgbとか使って
好きなように表示できるけどね。それ以上だと難しい。

「R言語 SOM」でぐぐると画像が見つかるかも。へぼいけどwww

まあ出来合いの可視化ツールはあんまり見た目が良くないし、リアルタイムに見ながら因子を
入れ替えて別の角度から見てみるとか、3因子だから3D表示で見たい!とかなら、
自前で書いたほうが絶対楽だと思う。
上でも勧められてるけど、OpenCV、OpenGL(GULT)あたりがオススメ。データの読み書きはC言語のサイトを参考に。



585 名前:デフォルトの名無しさん [2008/09/03(水) 21:19:41 ]
>>581
中間層が2、3個増えてもなんの問題もないです。
未知な関数をあれやこれや考える余裕もSとかRを使いこなす知識もないので
簡単に近似できるものがないかなと。
例えば何個かの関数の合成だとしたとき、NNならそのそれぞれの関数を見つけて
(近似して)くれる可能性がありますよね。
>>584
少しぐぐってみたけど、これって1層NNなの?って思った。多分違うんだろうけど。
理屈はいいので、よさげなNNライブラリかコマンド群教えてくださいw

586 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 22:25:56 ]
どうしてもライブラリでやりたいなら、R言語のライブラリ使うか、CPANのPerlライブラリを
「Neural」とか「BP」とかでサーチするのが楽だと思う。

ぶっちゃけ↑より簡単な方法は無い。
大抵の言語で、フリーの学術系ライブラリってのは全滅に近い。
汎用性持たせようとすると書くのも検証するのも大変で、フリーじゃ割に合わない分野だからね。
カネがあるなら別だけど。

ちなみにNNにデフォルト設定なんてものは無い。
かなり自前で設定する必要があり、結局自前でコード書くのと大差無いことになりがち。

言語は?データの型は?データの値の範囲は?
入力、出力ニューロンの数は?中間層と中間ニューロンの数は?
学習回数は?収束を判定する方法は?
学習結果を使う、保存する方法は?ある値を入れたら何が出る?
それを可視化して結果や精度を確認するには?

結局R使え、C言語のサンプルいじれという話になる。

587 名前:デフォルトの名無しさん [2008/09/03(水) 22:50:40 ]
ちょっとぐぐってCortex/Shark/fannてのを見つけたんだけどどんなもんでしょう。
 Cortex cortex.snowcron.com/
 Shark shark-project.sourceforge.net/
 fann sourceforge.net/projects/

>>586
なんかいっぱい質問されてますが、C++のライブラリで、サンプルでもフロントエンドがあれば
うれしいと言ってるんですが。あとの項目は普通設定できるんじゃないかと思うんですが、
心配してもらうところじゃないと思います。やりたいのは1次元なので可視化はべつに不要ですし。

588 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 23:14:06 ]
>Cortex
サンプルに株価データもどきを使ってるのはジョークか?
フロントエンドは無い。

>SharkのReClaMライブラリ
計算ライブラリ。チュートリアルはダウンロードしないと見れない。
フロントエンドは無い。

>fann
URLはこっちかな。 leenissen.dk/fann/
対応言語が多い。チュートリアルは最もシンプルで、すぐ動かせる感じを受けた。
ただ、ファイルのフォーマットが in-out-in-out-... 順になっててちょっとキモイ。
フロントエンドは無い。

というか汎用性を追求したライブラリに、GUIをつけるメリットが分からない。
普通は付けてもCUIフロントエンドくらいじゃ?

589 名前:デフォルトの名無しさん mailto:sage [2008/09/03(水) 23:22:01 ]
JavaNNS-Win なんかはどうだろう。
これはGUIがある。
しかし色々な機能があるから、使い方を覚えるのに手間取ると思う。

590 名前:デフォルトの名無しさん [2008/09/03(水) 23:31:45 ]
>>588
quick reviewどうもです。fannはソースがsourceforge.net/projects/fannでした。
>>589
これですね。ただJavaだけは勘弁してくださいw
www.ra.cs.uni-tuebingen.de/SNNS/

591 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 00:00:46 ]
フロントエンドとしてどの程度の結果が欲しいのかがよくわからんな。

Cで処理した結果を見るだけなら、それこそHSPでも何でもいいわけで。

592 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 06:01:10 ]
NNくらい、3時間あれば書けるだろ
それができないならパラメータを調節できないと思うし諦めたほうがいいよ。


593 名前:デフォルトの名無しさん [2008/09/04(木) 06:55:47 ]
>>591
質問の意味が分からん。HSPとか勘弁してくれ。
>>592
あぁ、1時間もあれば書けるさ。

594 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 07:08:49 ]
Cが書けるならGLUTでもWin32APIでも何でもいいだろ。自分で書け。

ここはソフトウェア板じゃないんだから(笑)



595 名前:デフォルトの名無しさん [2008/09/04(木) 07:38:28 ]
なんだかさっぱりだ(・ω・`)
ゆとりの一種でしょうか。

596 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 09:20:46 ]
ライブラリとかほしい。インターフェスだけ公開されててさっくり実装!
っていうのがあるんでしょうな。
ベイズフィルタなんかもライブラリとかあって簡単に使えるじゃん?

実際NNで汎用的なそういうのが可能なのかしらんけど。

597 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 23:30:46 ]
何か偉そうにいろいろ書いてるやつがいるが「因数空間」って何?
知ったかぶり??

598 名前:デフォルトの名無しさん mailto:sage [2008/09/04(木) 23:36:53 ]
うん

599 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 04:04:24 ]
>NNで汎用的な
これは実際にはあまり使われない(自前で作っても簡単)から結局廃れてる

600 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:22:58 ]
追加で学習しても以前の学習結果を保持しているような方法ってあるの?
実用的なレベルでね
例えば関節の動きを学習させるのにいちいち前回の姿勢情報と行動結果を
すべて記録して再学習させるなんて時間が掛かりすぎるからね
行動したら学習するっていう単純なサイクルを繰り返したいわけですよ

601 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:27:03 ]
>>600
ノードが多ければできるんじゃない?
以前の学習結果がプールできて、
かつ場合によって新旧どちらを選ぶかの余裕をもたせてやれば

602 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 19:58:42 ]
>>600
Temporal Difference Learning

603 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:05:34 ]
>>600
それニューラルネットワークじゃないから。

604 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:08:18 ]
収束を待つとか悠長なことを言っている時点で
ニューラルネットワークが実時間処理に向かないことは自明。

収束早める方法がうんたらかんたら〜というゴミのように見える
論文が量産されているけど、実際にゴミだ。
実時間処理に向かない理由の根本的な改善にはなってない。



605 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:10:38 ]
そんなの用途しだいだろ。
実時間処理っつってもピンキリだし、だいたい対象が分かってるなら普通の適応フィルタ
で済むしな。

606 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:27:03 ]
そう。大抵の問題にはニューラルネットよりも良い方法がある。
つまりニューラルネットワークを使おうと思った時点で、そいつは
何か大事な前提を勘違いしていることのほうが多い。

そもそもニューラルネットワークの学習というのは、隠れ層の層数に
比例した次元数に固定されているものだからな。
次元数自体を学習によって適切な数になるまで減らしていくSVMなどに比べて
粗悪な結果になるのは当然のこと。

>>585は本気で中間層を増やせばいいと思ってるらしいが。やれやれ。

607 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:43:42 ]
>>602
Q learningってのがそうなの?
論文見てもよくわかりません
実装例とかどっかにないですか?

608 名前:デフォルトの名無しさん mailto:sage [2008/09/05(金) 23:49:53 ]
ニューラルネットが独立した手法とか概念だと思っている時点でダメすぎ。
しょせん統計学の後追い手法だからな。

わざわざ ニューラルネット用語(笑) を発明したアホどもが 入力ユニット(笑) とか
結合の重み(笑) とか呼んでるせいでによって分かりづらくなっているが、
こんなもんは古典的な近似関数の亜種だ。雑種だ。従って、ニューラルネットワークは
統計学にあるのと同じ、古くさい問題をぜんぶ抱え込んでいる。

「学習」の一番オードソックスなやつは、線型近似だ。

それじゃ実用にならないからってんで、k次関数近似として次元数を上げていくと
数値上は100%フィットするようになる。より適切な近似/補完手法も存在する。
だが、「誤差に弱すぎて意味が無い」ところまで突っ走って満足する輩が多すぎる。

自由度(入出力因子数、中間層層数、中間層因子数)が増えるほど
結果が無意味になっていくのは、近似関数全般に通じるいち常識でしかないのだが
なぜか「中間層が増えると賢くなる」と誤解する人が後を絶たない。

どんな魔法だよwwwwwニューラルネットワーク(笑)wwwww

609 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 00:01:29 ]
Q-learning は、行動と状態を同一視して扱うもので、見方によっては
ニューラルネットワークのようにも見えるし、あるいはもっと単純に
でっかい行列として見ることもできる。

ニューラルネットワークのように全体を一斉に更新するなどという
非生物的で邪悪な操作を行わない点が、利点。

しかし一般に、実時間学習での問題点は、なによりも「時間」をどう扱うかだ。
ヴァーチャルな箱庭の中(もちろん行動にはtuneの概念がある)で
アニマットに餌を食うように行動学習させるだけでも、数ターンぶんの行動を
バッファに貯めて、逆伝播させていく必要があったというし。
細長い袋小路(局所最適解)に囚われないようにするには、バッファを
かなり長くとらないといけなかったという。

ヒトの場合はエピソード記録とか、便利なイベント単位の記憶があるので、
学習が楽になっているようだが。このへんの手法は未だ未知の領域だったりするので
こころしてかかるこった。


610 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 00:32:36 ]
Q-learningでぐぐって出てくるページにも書いてあるけど、
「ロボットのセンサを統合して複雑な行動を学習させる」みたいな
ちょっと複雑な問題を処理させようとすると、アホみたいに行列が
でっかくなっていくんだよ。

それに加えて、>>609で書いたように一定ターン数 or 一定時間ぶんだけ
行列の組が必要になるわけで。昆虫の足だか玩具の足だかを
クロールさせるのならともかく、あんまり複雑な処理になると
もはや悪夢だね。

これじゃ、a)メモリに入りきらない または b)メモリに入りきるように
削ったら汎用性が無くなった あるいは、その両方 ということになる。
パソコンに有線で繋いでおかなきゃ、学習もままならないんじゃないかね。
まさに本末転倒ってやつだ。

611 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:23:11 ]
ニューラルネットを学べば学ぶほどその無意味さを実感する。
でも実感してもまだニューラルネットのろくな根拠のない可能性を信じれる人が新しいやり方を作って行けるような気がする

612 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:27:40 ]
もし状況を想像し辛いなら、ロボットアームの動きをシミュレートすると
分かりやすいと思われる。

     ○
    /  \
  /      \
■          匚

       ●←ボール

■は肩。○は肘。匚は手。
ここで、手の操作は省略して、「決まった位置に置いてあるボールに手で触れる」という
比較的簡単な問題をえてみる。

さて、>>609 に照らして設計を考えると・・・
入力因子
    行動:肩の行動、肘の行動
    状態:肩の角度、肘の角度

出力因子
    行動:肩の行動、肘の行動
    状態:肩の角度、肘の角度

となる。

613 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:30:03 ]
ふう,なぜNNがあれだけもてはやされたか全然分かってないな
統計的な手法より「実際の問題に使い易かった」だけなんだよ
統計的な手法を使おうとするとその方面を相当勉強しなければならないが
NNなら適当な前処理(これは領域知識だから既に持ってる)を噛まして
適当な層数とニューロン数でやってみればそこそこ使える結果が得られる
現実の問題ってのはそんなに難しい問題じゃない場合が多いからね
数学的にとか本質的にとかと全然関係ない理由で流行ったんだよ

614 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:34:35 ]
各時点での情報は最低限上記のものが必要で、その対応関係は
最も単純な形では4×4の行列になるだろう。これが学習によって
更新されてゆくことになる。

時系列を考慮すると、たとえば5ターン分の情報のセットを記録しておくなら、
配列は5個という形になる。(しかし、ただ伸ばせばいいというわけではない。
自由度が増えると精度が落ちるし、ターン制ならともかく実時間だと大変困ったことになる)

[ 4 ]→[ 3 ]→[ 2 ]→[ 1 ]→[ 0 ]

(図:[ ]は行列。数字はn個前をあらわす)

んで、てきとーに動いて[ 0 ]でボールに接触したら、過去に向かって記録を
辿っていき、報酬を与えていく。これを繰り返してゆく。
(残念ながら、あまりエレガントなアルゴリズムは存在しない。別分野での
 研究成果を応用したりするといいかもしれない)

[ 4 ]←[ 3 ]←[ 2 ]←[ 1 ]←【 0 】 ボールに触った!

#蛇足だが、学習時の行動選択がランダムである場合、
#これはコンピュータ囲碁におけるモンテカルロ法に非常によく似た
#アルゴリズムになる。この類似はなかなか面白い。



615 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 01:53:59 ]
脳の並列処理能力はすさまじい。
もし将来、ニューロンがランダムに発火し、脳がモンテカルロ法で動いている
(論理的な思考は大して重要ではない)という結果が出ても、
驚きより納得のほうが先に来てしまいそうだ。

616 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 02:04:44 ]
モンテカルロ法のような方法がうまくいくのは
答えがたくさんある場合だと思う。遺伝的アルゴリズムと同じ。

617 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:03:52 ]
Qlearningの意味が分かった
入力と出力の全組み合わせパターンのデータベースを作って
それぞれの組み合わせの出現確率で重みをつけていって
学習結果は一番重みの大きいものを適用するわけだな
これは自分で既に前からアイデアとしては持ってた
自然言語処理で似た様なアルゴリズムは応用したけど
画像認識のような組み合わせパターンが必然的に巨大になるようなのは
現状のHDDじゃ容量が足りないぞ

618 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:15:31 ]
今すごいアイデア思いついた
統計的アプローチで追加学習可能でニューラルネットと同等の精度が出せるもの
ちょっと実装してみるわ

619 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 03:24:30 ]
データマイニング、情報抽出などの分野はどうですかね。

学習がうまくいったとしても、最適な学習データがそもそも分からないなら意味が無い。
むしろ、同時進行のほうがいいかもしれないし。

620 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 08:22:46 ]
さて、NNライブラリ何かないかと聞いた575ですが
もちろん>>613さんが言ってる通りの意味で使ってみよと思ってるわけですよ。
統計素人ですがこんなの常識じゃないんですかね。
>>606
SVMは別途試してますがNNでも試そうと思ってるんですよ。理論はともかく
実際に使える道具(ライブラリとかのことね)で実際の問題にあたってみなければ
分からないでしょ?
今時のPCは十分速いので単純に中間層を増やしてプリプロセスの代わりになるな
らそれはそれで別に問題ないと思うんですがね。
本物の研究者さんの最新の実装とかの情報があればいいなとは思ったんだけど
やっぱり難しいですねぇ、そういうのは叩かれそうだし。
さすがにこんな過疎で

621 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 17:50:14 ]
>>620が尊大なゆとりじゃなければもうちょっとレスもつくんだろうけどねぇ。

622 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 17:52:12 ]
>統計素人ですがこんなの常識じゃないんですかね。

いちおう念のために聞いておくけど、素人が偉そうにするのってどこの国の常識?

623 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 19:40:56 ]
>>613
もしかして別の板で、GAは山登り法でできることをわざわざ変なやり方している
と書きまくっていた人でしょうか。
いや雰囲気がそっくりなんです。

624 名前:613 mailto:sage [2008/09/06(土) 20:29:21 ]
そう思わないでもないが,俺ではない



625 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:23:42 ]
>>621-622
自治厨乙。
スレ違いなんだよ。
>>623
山登り法ってどこの方言だ。

626 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:33:29 ]
↑君が無知なだけ。

627 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:41:35 ]
山登り法も知らないやつがこのスレにいることが間違い



628 名前:デフォルトの名無しさん mailto:sage [2008/09/06(土) 21:43:07 ]
>>623
全然似てないじゃん

629 名前:デフォルトの名無しさん [2008/09/06(土) 23:48:42 ]
そういえば昔は掃除機屋もニューロとかファジーとか騒いでたな。
今はどうなったんだろう。

630 名前:デフォルトの名無しさん [2008/09/07(日) 00:06:01 ]
その日の気分で吸ったり吸わなかったりか。
俺といっしょじゃん。

631 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:10:58 ]
>>629
当時レベルのファジーやらなんたらは平凡に使われているという話である。
今はやってないから言わなくなった

632 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:25:21 ]
非ファジー
        _____
         |
_____|



ファジー
          ____
         /
____/


こうして図にしてみると、いまさらこんなのに名前をつけても売れないことが
よく理解できる。やはり売るなら実体の無い宗教、マイナスイオンだね。
実体が無いものならPL法にひっかからないし、宗教なら非難されようがないもんね。

633 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 00:28:39 ]
板違い

634 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 14:07:25 ]
エアコンは今でもニューロ回路持ってるだろ




635 名前:デフォルトの名無しさん mailto:sage [2008/09/07(日) 21:24:18 ]
自分で学習するオセロ作ったぞ
今戦って教えてる所です

636 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:04:47 ]
ほほう
強くなったらうpして

637 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:23:16 ]
そもそも学習させている事例が良ろしくなければ(ry

638 名前:デフォルトの名無しさん [2008/09/08(月) 00:24:42 ]
Yahooオセロbot作って自動で学習したらいいよ

639 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:31:57 ]
そんな事は無駄

640 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 00:35:52 ]
>>637
具体的にどんな事例がよろしくないの?


641 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:17:31 ]
構造上強くも弱くもならないよ
対戦相手の強さをそのまま学習する仕組みだからいずれ同レベルになるだけ

642 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:19:52 ]
何万回くらい対局すれば強さは収束する?

643 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 01:29:23 ]
ていうか>>618の思いついたのを実装して
オセロに適用したんですよ
どれくらい効果があるのはまったく予想不能

644 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 02:09:26 ]
結果もってこいや




645 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 02:13:02 ]
まさかとは思うが、ネタを振っといて
結果が思わしくなければを出さないなんて事は無いだろうな。

646 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 03:11:45 ]
ただのエキスパートシステム(笑)が出来るに1クロン

647 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 04:00:40 ]
>>642
あっけなく負ける強さに収束するから意味なし。
問題は強さの定義だろう。どうやって強さを教えるんだ?

648 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 04:11:14 ]
>>647


649 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 10:01:29 ]
>>647
強さとは、素人の俺と対戦したときの勝ち負けできまる。
すべて俺基準な。

650 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 12:40:17 ]
>>649
学習が終わる前にお前死んでると思うが


651 名前:デフォルトの名無しさん mailto:sage [2008/09/08(月) 14:14:14 ]
>>649
>>46のチェッカープログラムは遺伝的アルゴリズム
>>135のバックギャモンプログラムはTD学習
を使い自己対戦で学習してトップレベルの強さになってる。
多分瞬殺されると思うよ。

652 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 04:14:02 ]
>651
ほー、どっちも自己対戦学習で強くなってるのか。
チェス、将棋、囲碁でもそれができるのかが興味深いところだな。

653 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 04:20:06 ]
やっぱりニューラルネットワークと強化学習の枠組みって
相性が良いのかな?

654 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 05:00:26 ]
>>651
閉じた環境で育った知恵というのは、厚みがなくちょっとした
認知不能な流れで最弱な流れになるものだよ。
自己対戦なんて典型的な閉じた世界だろ、何せ相手は自分と同じ論理で
行動するわけだから情報処理ネットワークが狭い閉じた世界に収束してしまう。
いわいる建前の強さというやつ。
>>652
自己対戦で強くなるなんて思っているコンピュータ将棋もチェスの作者は
いないよ、みんな多様性を学習させるためにいろいろな相手に対戦させて
いる。
緻密で正しい勝つ確率がもっとも高いことしか選ばないソフトに勝つことは
非常に容易である、羽生の対戦でもみて勉強してこい、てな雰囲気だよなw
ソフトで学習が容易なのは戦術であって戦略ではない、困難なのは高次の
戦略を感じ取る抽象的な思考能力、頂点で闘うゲームでは強さではなく
ブラフというものが最終的な勝ち負けを決める。
何故なら全手計算できないからだ、予測できない域で勝敗が決まる勝負では
予測できない域を制覇できるものが勝者となる。
>>651君が求めているのは予測可能、全数計算可能な域での話であって、
予測不可能な試合では通じない論理だ。



655 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 10:57:54 ]
強さに何の意味があるのかね
知能の本質は強さじゃない
天然ボケってのは人間のような高等な推論をする上で必要不可欠な機能だよ
ボケを持たない知能はただの機械的回路にすぎない

656 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 11:56:48 ]
身をもって知らせたわけですね。わかります。

657 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 12:18:23 ]
>>656
さわるなよ

658 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 12:42:02 ]
某スレから馬鹿が流れてきたのか

659 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:30:43 ]
ボケっていうのは例外事象に柔軟に対応するシステムなわけだ
これがあるから人間ってのは数学的収束を持たない
一度収束した回路は二度と別の用途には利用出来ない
例えばひたすらチェスを学習させた人工知能は将棋を学習することは出来ない
チェスも将棋もこなす人工知能は存在出来ない
だが人間はこれが出来る
これが出来る理由がボケというシステムの存在だ

660 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:34:13 ]
最高に強いAIチェスなどに興味はない
人並みの強さだがどんなゲームにも柔軟に対応できるAIこそ
真の人工知能だ

661 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:42:30 ]
それが分からないやつには人工知能なんて作れないよ

662 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 13:46:16 ]
現状の翻訳システムとか音声認識とか自然言語処理とか見てみろ
機械的な入力条件じゃないと正しい結果が出せやしない
結局機械に毛が生えたようなただのおもちゃだよ
関西弁を翻訳出来てこそ人工知能だろ?
顔文字を認識出来てこそ自然言語処理だろ?
ちがうか?

663 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:00:02 ]
違うね

664 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:02:00 ]
というか、何が言いたいのかサパーリだな。
よっぽど何かトラウマとか劣等感があるのだろうね。



665 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 14:24:48 ]
自分定義の人工知能を語るのって新手のオナニー?

666 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:14:57 ]
そんなこと言ってるから何時まで経っても進歩しねーんだよ
英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ
そもそも言語とは何かってところから学習を始めないと意味がないんだろ
そして英語もフランス語も同時に学習していかないと使えないんだよ
チェスを学習するということはチェスとは何かを学習することだ
強さじゃねー


667 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:21:14 ]
そんなに気持ちいいのですか。

668 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 15:22:11 ]
形態素解析エンジンを作りましたこれで自然言語処理が出来るとか馬鹿なこと言ってんじゃねー
形態素解析こそ自動学習で最初に作るべきものだろうが

669 名前:デフォルトの名無しさん [2008/09/09(火) 16:05:08 ]
別の世界からこにゃにゃちわ(・ω・)/

670 名前:デフォルトの名無しさん mailto:sage [2008/09/09(火) 22:46:25 ]
犬語とか猫語?
あ、それはもうあったか。

671 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 00:19:21 ]
>英語の翻訳出来ました、フランス語の翻訳出来ましたとか言って満足してるのが現状だろ
どんな妄想だこれ?w

672 名前:デフォルトの名無しさん [2008/09/10(水) 15:14:36 ]
www.si.hirosaki-u.ac.jp/~ei_sys/neuro/backprop.c
これのvoid backward()のところの式あってる?



673 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 16:47:45 ]
その位自分で分からないのなら手を出すなw
せめて自分が正しいと思うコードを書くとかしないと

674 名前:デフォルトの名無しさん mailto:sage [2008/09/10(水) 21:35:27 ]
>>672
それないよ
BPにすらなってないソース掲示されても困るよな



675 名前:デフォルトの名無しさん mailto:sage [2008/09/12(金) 10:38:22 ]
マヌケな無能君が、途中結果もだせず、考えもまとまらず、誰にも評価され
ない情況が続くので必死に2chで喘いでいます、オマエだ、オマエしかいない。

すくなくともオマエの意見に賛同するのはオマエだけ。
匿名で発言しても何も変わらんし、おまえのストレスが増えてゆくだけ。
ここで答えが求まるとか議論していると勘違いしている君には
治療薬すらない。


676 名前:デフォルトの名無しさん [2008/09/12(金) 12:06:15 ]
BPになってないワロタ
プログラミングしたことないのか

677 名前:デフォルトの名無しさん [2008/09/12(金) 19:09:51 ]
>>672
8行目と9行目のsum+=のとこと
delta1[j]=のとこが微妙だな

678 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 20:59:38 ]
>>608
分かりやすい説明だな。

679 名前:デフォルトの名無しさん mailto:sage [2008/09/15(月) 21:14:10 ]
「ロジスティック回帰モデルと単層パーセプトロンは等価である」
と言うのは本当でしょうか?

またWikipediaの説明によれば単層パーセプトロンに隠れ層(連合層)が
あるように書かれていますが、これはおかしいのでは無いでしょうか?

680 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 18:38:55 ]
頼むおしえてください!
誤差逆伝播法で忘却項を導入する方法があるけど
いったいどんな利点があるんでしょうか?

681 名前:デフォルトの名無しさん mailto:sage [2008/09/17(水) 19:03:32 ]
>>679
単層というのは学習する層がひとつで中間層はあっていいよ

682 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:19 ]
>隠れ層(連合層)が あるように
隠れ層と連合層は同じじゃない
どちらも中間層のではあるが連合層を隠れ層とは呼ばない


683 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 01:22:47 ]
「の」が余分だった

684 名前:デフォルトの名無しさん mailto:sage [2008/09/20(土) 08:51:49 ]
> 野良犬(ポチ)
野良犬とポチは同じじゃない
どちらも生物ではあるがポチを野良犬とは呼ばない


みたいな?




685 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:17:41 ]
ニューラルネットワークの「原理」は存在し検証できる。

しかし知的「仕組み」は先天的に作るものと後天的に生まれるものがあり
先天的なものが何かを特定できない時点で構築する以前の問題ではないか、
知的なものが後天的に全て学ぶものだと仮定すれば、すべて学習となり、
人が20年程度かけて修学するほどの手間がかかり、100%の全てが
大人になりえるわけでもない。
現状で原理の上に築く先天的な仕組みがどのような物かを微小なり概念なり
説明できるのならやってくれ、できないからこを糞スレに粘着しているんだろう。

それとは違う先天的な構築方法で行うメタ的な情報を築く手法の過程では
ライブラリーのように地道に確実に積み上げしてゆくことが大事だと
何故気がつかないか?

自動で全てが成りえるという幻想でもいいが、自動ほど恐いものはない、
自動で成りえる情報の秩序を暴走させずに、奇形にならずにバランスを
もった特定の形へなるなら人だってキチガイは生まれないだろう。
確率の問題なのか、それであれば永遠に近い時間で偶然を待つしかない。
人すら教育が困難なのに、人が生み出す人工知能の教育が簡単で一瞬で
できあがると思うのか?


686 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 04:29:47 ]
面白くないコピペだな

687 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 08:13:20 ]
> ニューラルネットワーク  原理

>                     後天的
>        何か                 問題
> 知的
> 人                       100%

>    原理の上に築く先天的な仕組み             概念
>                       糞   粘着


> 自動
>           秩序 暴走     奇形
>                 キチガイ

>    教育 困難          人工知能
> できあがる

重要な単語のみ抽出した
つまりニューラルネットワークは,人が何か後天的に知的な問題を,
原理的で先天的な仕組みの概念で糞が粘着し
自動的な秩序の暴走を促す(?)奇形(キチガイ)を教育する人工知能を作る物.

という壮大な物語だったのさ

688 名前:デフォルトの名無しさん mailto:ww [2008/09/21(日) 10:32:18 ]
と、自作自演な厨が荒らしております。

689 名前:デフォルトの名無しさん mailto:sage [2008/09/21(日) 14:10:52 ]
一生懸命考えた結果がこれだよ!

690 名前:デフォルトの名無しさん [2008/09/22(月) 00:14:47 ]
糞スレに常駐するDQNは何もできないからこそ常駐して妬んでいるだけ。
まさに病気そのものwっうぇええうぇうぇっうぇ

691 名前:真スレッドストッパー mailto:sage [2008/09/25(木) 01:28:39 ]
つか、本とかの解説どおり習得して終わり。
さあ満足したか?それでおわり、その先はない。

結局自分では真似だけして何もできないのが、その先があると勘違いして
騒ぐが結局は自分で生み出したものではないので何もできない。
つまんねーなw。すこしは自分で結果をだしてみろよ。
物事を生み出すことができないのは君が論理に支配されているからだ。
論理を超えてみろよ、嘆きの壁は越えられない。
そう定義されているから、だから諦めろw

692 名前:デフォルトの名無しさん [2008/09/25(木) 18:14:44 ]
>>672
そのソースは修正のところで、教師信号がp個あったら
現状での、全てのパターンの信号の誤差を和算して一気に修正してるけど、

データ0で誤差を計算し修正。
データ1で修正後の荷重を用いて誤差を計算し修正
データ2、データ3で・・・・データpでってやるのが

693 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 07:39:30 ]
>>692
日本語でおk

694 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:44:10 ]
逐次更新より一括のほうが正しい計算だろ




695 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:47:36 ]
シミュレーション板へ帰れ!
ここはプログラミング板だ

696 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 16:49:14 ]
この板はプログラムを作る人のための板です。

あらゆる質問はまずすれ立てるまでもない質問はここでスレにしてください。

その他、お勉強ページへのリンクスレ、
推薦図書・必読書スレ
もあります。

プログラム・ソフトの使い方は PC 初心者板やソフトウェア板へ。
ウイルス、ハッキング・クラッキングを求めるような発言は禁止です。
Javascript は Web 制作板、CGI は Web プログラミング板へ。
業界談義、愚痴はプログラマ板へどうぞ。
ゲーム関係の話題はゲーム製作板へどうぞ。
ネタ、板とは関係の無い話題はご遠慮ください。


697 名前:デフォルトの名無しさん [2008/10/01(水) 17:35:15 ]
>>231のソースコードが見れない見たい。

698 名前:デフォルトの名無しさん [2008/10/07(火) 17:33:51 ]
>>227-228
のデータを3層ニューラルネットワーク、中間層の素子数10でやると
5秒くらいで学習が完了するんですけど、
素子数を100にすると学習がなかなか進みません。
100って多すぎるんですかね?

699 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 01:19:21 ]
>>698
素子数の組み合わせの数がどれぐらいになるか計算もできないの?
単純なニューラルネットワークは大規模になるほど指数的に難しくなる。


700 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 09:48:51 ]
>>698
中間層増やし過ぎるとカーブフィッティングしまくりで使いものにならないよ。

701 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 19:32:13 ]
問題ごとに中間層の素子数はどのくらいが適正なんて
ノウハウは公開されたものはどこにも無いのな?

みんな経験と勘で決めてるのだろうか?

702 名前:デフォルトの名無しさん mailto:sage [2008/10/27(月) 00:24:08 ]
>>701
だいたいは経験と勘。
もし適切な数というものを半自動的に決めたいのなら、そこは
統計学の分野に一日の長がある。

具体的には多変量解析、重回帰分析、増減法とかでぐぐれ。
それすら単なるノウハウと言ってしまえばそれまでだがな。

703 名前:デフォルトの名無しさん mailto:sage [2008/10/28(火) 23:52:50 ]
>702
サンクス。

何かものの本を見るとAIC(赤池情報量基準)
とか言う決め方があるみたいだな。
勉強してみよう。

704 名前:デフォルトの名無しさん mailto:sage [2008/12/14(日) 18:58:12 ]
わかる人いるか

自己組織化マップ(SOM)に興味もってる。
脳は自己組織化を実現してるのは間違いないと思うけど、
一方で自己組織化を実現する本質はSOMじゃねえと思ってる。
近傍学習・競合学習を、ニューロンが持つ単純な計算機能を
SOMみたいな入力層・競合層みたいな構造ではない、ほかの構造で、
実現しているんだと思う。

でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、
時間軸方向に、何か発火の時間的なタイミングとかパターンが
意味を持つような形で、構造化されてるんじゃないかと思う。
たとえば視覚情報は、シリアルな値として入力層に現れるんじゃないか、という話。
SOMの学習済み競合層は、よく2次元でマップされてるのが例として出てくるけど、
これは時間軸方向までを含めて、ある時間軸の窓の中での自己組織化を
切り出した形なんじゃねーのか、という話。

これ、形式化したいんだが、どうしよう。



705 名前:デフォルトの名無しさん mailto:sage [2008/12/19(金) 00:58:48 ]
SOMから離れろ
海外の論文を漁れ

706 名前:デフォルトの名無しさん [2009/01/15(木) 19:28:54 ]
>>704
日本語でおk?

707 名前:デフォルトの名無しさん [2009/01/25(日) 09:46:59 ]
>>704
よくわからんが、時間変化というか時間軸方向でのパタンこそが、ってことかな。
俺もそれは思う。


708 名前:デフォルトの名無しさん mailto:sage [2009/03/14(土) 01:31:09 ]
文字認識や波形からのデータマイニングに使える気がするんだけど・・・・

709 名前:デフォルトの名無しさん mailto:sage [2009/03/19(木) 00:41:14 ]
教師有り学習と教師無し学習って手法毎に明確に分類できるわけじゃないよね?


710 名前:デフォルトの名無しさん mailto:sage [2009/03/21(土) 12:53:00 ]
人間が曖昧な記憶をするのは、
曖昧な認識をするためじゃないのかなー。

データを信号に変えて、曖昧な記憶をさせたらどうだろう。


711 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:11:26 ]
ちょっと質問、遺伝的アルゴリズム(GA)とニューラルネットワークって違うんでしょうか?
どっかで、GAのスレがあったら教えてください。

712 名前:デフォルトの名無しさん mailto:sage [2009/04/16(木) 15:15:15 ]
違う
science6.2ch.net/test/read.cgi/sim/1017102268/

713 名前:デフォルトの名無しさん [2009/04/17(金) 21:52:34 ]
>>710
非論理を記憶させ、それを構築するには、それを与える人が非論理を理解
していなければ成り立たないだろ。
おまのは、そのようになったらいいな、とか、
やってみたらどうだろとか、誰でも始めに思いつくことを言っているに過ぎない。
曖昧な記憶だ?んなのは人工知能を始めて想像した数学者チューリングすら
やっていた思考実験だ、バカス。

714 名前:デフォルトの名無しさん mailto:sage [2009/04/18(土) 09:13:03 ]
むしろ曖昧な記憶って何?
そういう研究領域ってあるの?



715 名前:デフォルトの名無しさん mailto:sage [2009/04/19(日) 08:33:32 ]
>>712
ありがとう

716 名前:デフォルトの名無しさん mailto:sage [2009/04/25(土) 03:28:18 ]
>>714
心理学とか?
記憶がどう変容していくかとかの実験とかやってた
凶器注目効果とかも近いかも

717 名前:デフォルトの名無しさん mailto:sage [2009/05/24(日) 18:10:08 ]
なぜ誤差逆伝搬学習法による中間層-中間層のシナプス結合荷重を変化させると非線形の出力に対しての領域わけができるのでしょうか?

718 名前:デフォルトの名無しさん [2009/06/08(月) 00:08:14 ]
>>717
自然淘汰、ダメなものが消滅、良いものが生き残る。


719 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:22:42 ]
>>714
無意識で記録される記憶、
意味にならない記憶、
無意味な記憶

無意味を情報処理する方法を脳が潜在意識として実現している。
ニューラルネットワークなどの仮想モデルの説明では、
自己組織化で自動構築されるので外部からそれを見ることも観測する
こともできない、できても意味がない。
動的に構築されるというのはそういうタイプの情報処理である。
その辺で無意味を扱えるのは科学ではない、非科学の領域だよ。
だから考える必要すらない。研究したらトンデモ研究に認定される。

720 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 00:36:12 ]
>717
それって、
「なぜパーセプトロンは線形分離可能なパターンしか分類できないのか?」
の裏命題だよね?

ミンスキー&パパートの「パーセプトロン」を読め、じゃあ無くて
単純パーセプトロンは結局、入出力関係を線形一次結合にしかできない
中間層-中間層があれば非線形な関係を表現できるとしか
説明しようが無いんじゃあ?

逆誤差伝播法が発明されたのでそれを実際に学習させる事が可能になったと。

721 名前:デフォルトの名無しさん [2009/06/08(月) 00:49:41 ]
旨くいかないのは、ほとんどが学習で集束しないという話である。

722 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 15:51:19 ]
>>721
見積もりができてないだけじゃん。
そもそも規則性が無いものは学習できない。
秩序がない抽象的なものを学習させるのは無理というもの。

それ以前に学習させたか怪しいな。多層構造になると学習させるのが
単純ではないぐらい理解してないとかw

723 名前:デフォルトの名無しさん mailto:sage [2009/06/08(月) 22:14:04 ]
抽象的も何もデータになってる以上はできるだろ
使ったこと有って教えてる?

724 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 00:13:42 ]
なにも分らない奴ほど短いレスをする法則



725 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 01:17:46 ]
でも簡潔で全てを物語ってるな

726 名前:デフォルトの名無しさん [2009/06/09(火) 22:02:30 ]
だんだん短く

727 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:28:24 ]
なる

728 名前:デフォルトの名無しさん [2009/06/09(火) 23:43:21 ]


729 名前:デフォルトの名無しさん mailto:sage [2009/06/09(火) 23:46:55 ]
 

730 名前:真スレッドストッパー mailto:sage [2009/06/10(水) 12:10:30 ]
512KBを超えました、新しいスレッドを作ってください。

731 名前:デフォルトの名無しさん mailto:sage [2009/06/10(水) 12:17:40 ]
>でだ、ニューロンを0,1のバイナリな状態しか保持できない(1=発火)と仮定して、
発火の失敗もある。つまり1と0だけではない。

732 名前:デフォルトの名無しさん mailto:sage [2009/06/26(金) 23:10:42 ]
グーグルで
「階層型 ニューラルネットワーク java」で検索すると出てくる
www.geocities.jp/retort_curry119/NN.htm
からDLできるソースってちゃんとニューラルネットワークできますか?

733 名前:デフォルトの名無しさん [2009/07/12(日) 19:15:20 ]
今レポート書いてんだけど。
ニューラルネットワークって実際の脳の仕組みと同じなのかな?
詳しい人教えてほしいです

734 名前:デフォルトの名無しさん mailto:sage [2009/07/12(日) 19:35:33 ]
同じじゃない
ニューロンとシナプスの構造を単純化したもの



735 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 09:00:05 ]
>>733
根本原理は用語的には同じ。というよりニューロンのネットワークだから
直訳すれば神経網、脳が神経網とは違うのか?と聞いているのと同じ。
貴方が聞いているのはコンピュータモデルでの単純化したタイプだと
734が予想&補完した返事をしているだけ。
ニューラルネットワークは単純化した部分がもっとも重要であり
主幹として機能しているが実際の脳とは学習アルゴリズムは違う
ので比較ができない。
>>732
階層じゃなくても貴方のいうニュールネットワークはできる。
しかしそれは生きた神経網を採取して部分的に成長さえて機能ができている
かを確認しているのにすぎない。
貴方が背景で考えていると予測してその意味的な「できる?」という返事なら
それはできない。理由として貴方にそれを扱うスキルがない。
貴方が思っている対象は多分、高等な情報処理であり、実験的なものではない
機能させる対象が単純モデルならNNを使う必要すらない。高等なら貴方に
そのスキルがないってこと。貴方の学習でも階層を使う必要すらない。
コンピュータで比喩すれば、現在のWindowの大型アプリを使うのではなく
電子ブロックを抜き差ししている状況だと悟ろう。

736 名前:デフォルトの名無しさん mailto:sage [2009/07/16(木) 10:32:44 ]
入出力連続値、閾値なしのBP対応3層NNを作りましたが、
3層から多層に変えると、記憶できるパターン数は増やせますか?
3層の中間層を増やすことと同じであまり期待できないのでしょうか?

737 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:29:37 ]
>>736
既に作ったなら多層にするのは大変なことじゃないだろ?
なぜ自分で試してみない?

738 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 15:51:20 ]
中間層を増やすとか言う曖昧な表現してるから理解できてないんだろう

739 名前:デフォルトの名無しさん mailto:sage [2009/07/19(日) 16:47:05 ]
いや返事もないので、すでに多層化した。

740 名前:デフォルトの名無しさん mailto:sage [2009/07/21(火) 22:26:58 ]
それどこが難しいんだ
小学生でもできるレベルの改良だろ

741 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 07:51:00 ]
アソシアトロンってどうでしょう


742 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 09:04:22 ]
>>740
難しい?。簡単だよ。だけどその後の検証が面倒なんだ。
既にわかってることに時間かけても仕方ないからね。

743 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 18:50:18 ]
では最初の質問時に文献プリーズって言えば済むことをわざわざ頭の悪い質問文に変えたのは何故だ
プライドのためだけに>>739の様なレスを書く時間をかけたのは無駄ではないのか

744 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:04:28 ]
もしかして、「3層の中間層をふやす」って文章のこと?
文脈読めないとダメだね。ニューロンがだいぶ減ってるようだ。

3層の中間層のノードを増やすが正解。



745 名前:デフォルトの名無しさん mailto:sage [2009/07/22(水) 20:32:48 ]
表情も身振りも読み取れないテキスト表現だけの世界で行間読みまくってたら何もはじまらない
おめーら雑談たのしいの?

746 名前:デフォルトの名無しさん mailto:sage [2009/07/24(金) 23:04:58 ]
本も読まずに質問してきたオバカちゃんのくせに必死に相手を貶し自分はさも有識者であるかのような
振る舞いをするのはイタイ
レス状況から1時間に1回はスレの更新をチェックしてムキムキしながらレスしてるのが丸わかりなんだよ

747 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 01:21:50 ]
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ
必死に相手を貶し自分はさも有識者であるかのような 振る舞いをするのはイタイ


748 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 06:37:25 ]
>>741
ちらっと調べたところ、なんか普通のNNとの違いがよくわからなかった。
記憶に興味がもてたらもう一回調べてみよう。

今朝思いついたけど、夢を見たことを忘れるのは、
寝る前の記憶を鮮明にしておくためじゃないかな。とここでつぶやく。

749 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 07:10:15 ]
たった一行のレスに時間をかけたといったり、
一言コメントしてからおめーらといったり。
論理が破綻してるひと多すぎ。

750 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 12:52:19 ]
まだまだ燃料としては弱い
夏で外が暑いからといって燃料投下を止めていいと思うなよ


751 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 19:21:36 ]
学問でやりたいなら数学の板が適してるんだろうけど
数学理解する力がないんだろ

752 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:00:56 ]
英語と数学は壁だね。何やるにしても。

753 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:14:50 ]
ムキムキしながらって表現になんか笑ったw
なんだそれw

754 名前:デフォルトの名無しさん mailto:sage [2009/07/25(土) 21:49:35 ]
                  さぁレスするぞーー!!
                   _
                  / jjjj      _
                / タ       {!!! _ ヽ、
    オーー!!     ,/  ノ        ~ `、  \        _
               `、  `ヽ.  ∧_∧ , ‐'`  ノ      /  `j
     ∧_∧_      \  `ヽ( ´∀` )" .ノ/    /  /`ー'    オーー!!
    ( ´∀`)  ̄"⌒ヽ   `、ヽ.  ``Y"   r '      〈  `ヽ
   / ) ヽ' /    、 `、   i. 、   ¥   ノ       `、  ヽ∧_∧
  γ  --‐ '      λ. ;    `、.` -‐´;`ー イ         〉    ´∀)    ,-、、
  f   、   ヾ    /   )    i 彡 i ミ/         / ノ    ̄⌒ヽ   「  〉
  !  ノヽ、._, '`"/  _,. '"     }    {         ノ  ' L     `ヽ./  /
  |   ̄`ー-`ヽ 〈  < _ ヽ.    /     `\      / , '    ノ\  ´  /
   !、__,,,  l ,\_,ソ ノ   /   /ヽ、  ヽ.     (     ∠_   ヽ、_, '
       〈'_,/ /   /   /  ノ    ヽ.   )     i  、      ヽ
           | |  イ-、__  \  `ヽ    {   f  _,, ┘  「`ー-ァ   j
        l.__|   }_  l    \ \   |  i  f"     ノ   {  /
        _.|  .〔 l  l    ノ  _>  j  キ |  i⌒" ̄    /  /_
        〔___! '--'     <.,,_/~  〈   `、ヾ,,_」       i___,,」
                          `ー-‐'



755 名前:デフォルトの名無しさん mailto:sage [2009/07/26(日) 14:46:56 ]
階層型ネットワークで、出力層の出力結果Xを量的データとして出したい時は
シグモイド関数のα(ゲイン)の値を小さくして、
(X−Xmin)/(Xmax−Xmin)と基準化させて出力。
出力結果を質的データとして出したい時は
αの値を大きくして(ほぼ?)0,1の出力をする。
という理解で大丈夫ですか?

756 名前:デフォルトの名無しさん mailto:sage [2009/07/27(月) 06:21:43 ]
返事もないので、すでに自己解決した。

757 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 03:41:16 ]
>>755
やってみてから考えろ。

758 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 07:39:54 ]
SOMは元空間のトポロジーを保存する、と言われますが、証明されてますか?


759 名前:デフォルトの名無しさん mailto:sage [2009/10/28(水) 15:25:50 ]
>>758
やたら挑戦的なweb記事が見つかった
www.mindware-jp.com/basic/faq2.html

760 名前:デフォルトの名無しさん mailto:sage [2009/11/20(金) 08:41:25 ]
>>759
どうもです。
長らく悪菌でした・・・

面白いですねw
もっともだと思うこともあれば根拠なき断定ではというのもありますね。
ところで、やっぱりSOMって便利だけれど若干うさん臭さがある感が否めないと思うんですが、
アカデミアではどう受け止められているんでしょうか?


761 名前:デフォルトの名無しさん [2010/01/16(土) 03:17:11 ]
くだらんおべんちゃらはよせ

762 名前:デフォルトの名無しさん mailto:sage [2010/01/19(火) 19:14:55 ]
www.natureasia.com/japan/highlights/details.php?id=570

763 名前:デフォルトの名無しさん mailto:sage [2010/01/21(木) 21:10:58 ]
話題がねーなー


764 名前:デフォルトの名無しさん [2010/02/01(月) 04:53:50 ]
多層NNのbp法にて関数近似をしようとしているのですが、教師データ(学習データ)が
必要以上に多いとき、近似が成功しなかったり時間がかかりすぎたりするので、
前処理にてデータの選択を行いたいのですが、良いデータの選択方法はありますか?

関数の特徴量を上手くとらえたデータの抽出ができれば良いかなと思うのですが。




765 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 20:00:53 ]
肉眼で見分けつかないような部分はバッサリいっちゃっていいんじゃねーの
どうせ基本的アルゴリズムのNNじゃそのあたりの差は出ないだろうし

766 名前:デフォルトの名無しさん mailto:sage [2010/02/01(月) 22:43:37 ]
私自身、はじめは目視でやっていたのですが、
目視ではなく、プログラム側で自動で判別できるような条件
等があれば良いかなと思うんですがどうですか?

初めに思いついたのが、学習するデータ点を半分にして、2段階で学習する
方法でした。でも、それだと、例えばシンク関数、サイン関数等の波のある
関数で、谷間の間の部分の教師データが採用されない等の問題がありました。

そこで、関数の形になんらかの関係のあるデータの選択方法をプログラム側で
制御できないかなと思い質問しました。どうでしょうか・・・?


767 名前:デフォルトの名無しさん mailto:sage [2010/02/02(火) 21:57:28 ]
特徴量がうまくとらえられていないデータは似たような位置が似たような値をとっているはず
多すぎるデータを間引くのならそういう場所は削って良いね
同じ位置の値が似てるかどうかはエントロピーでも見れば判るかな

768 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:11:27 ]
とりあえず、すべてのデータに大して隣り合う点との距離について計算して
その距離があるしきい値以上ならば学習データとして採用することにしました。
これで平坦な部分(関数全体からみて)についてはデータを少なくとることができたのかな?
変化の激しい部分はデータを多くとれるはず。
(データをある程度しぼって学習して、学習が進んでからデータを追加する仕様で
プログラムを作成しています)

>>767
近い位置のエントロピーを見てみるということですか。
うーんと・・・エントロピーってなんでしたっけ?平均情報量?
大学でやったような気がしますが教科書あげちゃったな…
この場合、具体的に何を計算すればいいのかな。

769 名前:デフォルトの名無しさん mailto:sage [2010/02/03(水) 07:15:39 ]
ああ、表現が不味いかも上の"距離"というのは入力がx、出力がf(x)のときのf(x)のことです。
作成したプログラムは3次元の関数近似が目的なのでx,yの入力に対してのf(x,y)の値を
参考にしていますが…
f(x,y)の値が隣のデータと離れていればいるほど、付近では関数の値が急に変化していると考えられるので
先に学習することでのちの学習がスムーズに行くのでは?と考えたためです。



770 名前:デフォルトの名無しさん mailto:sage [2010/02/06(土) 23:15:03 ]
手書き文字のサンプルを集めたいんでけど
どうすればいいかな?
HTMLで作るとか?

771 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 01:10:28 ]
>770
昔自分で用意したときはペイントで描いてから拡大表示してデータを作った。
5人ぐらいでやればみんなが違うパターンのを得られて楽でした。

そんなに精度要らないなら自分で作ったほうがはやいかも。


772 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 18:22:43 ]
卒論NNやれって言われちゃったよ・・・
なにやればいいんだ?

773 名前:デフォルトの名無しさん mailto:sage [2010/02/07(日) 22:31:07 ]
>772
時間がかなりかかるから今からじゃあ無理だと思うけど。
ああ、来年発表ですか?それなら

NNっても卒論にするならいろいろあるからテーマが決まってないなら
いくつか論文読んでからまたどうぞ。

774 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 19:59:05 ]
ニューラルの論文集みたいなの無い?



775 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:33:42 ]
うーん…多分NNやれって言われたならそれなりに準備してくれると思いますが、
先生に論文どれを読んだらいいか聞いてみたほうがよいかもしれません。

論文集をまとめてあるサイトは知りませんが検索したらいくらでもでてくると
思いますよ。


776 名前:デフォルトの名無しさん mailto:sage [2010/02/10(水) 20:38:31 ]
googleにgoogle scholarっていう学術論文検索できるやつがあるのでここから
scholar.google.co.jp/schhp?hl=ja
探せばいいかな。
でも、ニューラルネットワークで検索しても多すぎるし古いので、
例えばパターン認識とかリカレントニューラルネットワークとか誤差逆伝播法とか
そのへんも検索に入れるといいかもしれませんね。
あなたのところの卒論のレベルは知りませんが、学部生ならこのへんの論文を参考に書けば十分だと思いますが。


777 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 01:56:21 ]
混合ガウス分布ってもう実用に使えるの?
共分散の自動調節が変だった記憶あるんだけど

778 名前:デフォルトの名無しさん mailto:sage [2010/02/11(木) 14:23:18 ]
文字認識の精度が上がらないよー

779 名前:778 mailto:sage [2010/02/11(木) 15:12:01 ]
ただ、手書きの文字を入力にしてるからかな?
手書き文字からパターンを抽出したいんだけど、どうやればいいかさっぱり分からん・・・

780 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 19:46:36 ]
>778
プログラムあってるのか?
あと、文字数を減らせばいいんじゃないか?
とりあえずAとBとCの3つぐらいからやれば…

入力するパターンもAが5つ、Bが5つ、Cが5つとかにするんだぞ
それぞれのパターンで書き方を少し変えればいい。

あともう少し実験の条件を晒してくれ…
入力してる文字とか…

781 名前:デフォルトの名無しさん mailto:sage [2010/02/14(日) 20:43:38 ]
特徴量のとり方はどうやってる?

782 名前:デフォルトの名無しさん mailto:sage [2010/02/15(月) 01:21:30 ]
>>780
ありがとう、認識文字は0〜9で、
0〜9の入力に対してそれぞれ200回更新して、それを200回ループ回してるんだけど、
3と8と2がうまく学習できない。
てか、最後に学習した8になっちゃう感じ
プログラムは↓
for(i=1 ; i<200 ;i++)
{
for(patarn=0 ; patarn<10 ; patarn++)//パターンをそれぞれ一つずつ学習
//教師信号割り当て
  //入力割り当て
for(j=1 ; j<200 ;j++)
{
//入力誤差、出力計算
}
}
}
こんな感じ、


783 名前:デフォルトの名無しさん mailto:sage [2010/02/16(火) 17:38:16 ]
>782
見た感じ間違ってない気がするな。
数字の認識は3,8,2が上手く学習できてないのはなんだろうな
中間層の素子の数が足りないのかな。
もしくはこのプログラムは何回かやってみた?更新回数を増やすとか、学習係数の値の変更とか。

たしか、自分がやったときは文字の線が細いところを太く書いたら上手く分離できるようになったと思う。
とくに数字なら斜めの部分を太めにやってくれれば違うかもしれない。
あんまり似てると上手く分けられないからあえて違うように文字を書くのも最初のうちはありかも

あと、0〜9を0から順番に学習しているから8が最後になっているみたいだが、これに関して
順番を変えることで結果はどうなるのか試してみたらどうかな。
(9から1に学習したら2になるかどうか?)

784 名前:デフォルトの名無しさん mailto:sage [2010/02/24(水) 23:35:08 ]
たまにはレスするか・・・
ニューラルで指紋認証やりたいんだけど
指紋そのまま抽出するより、特徴を抽出したほうが良いよね?
指紋の特徴って何がある?



785 名前:デフォルトの名無しさん mailto:sage [2010/02/25(木) 07:00:32 ]
特徴点


786 名前:デフォルトの名無しさん mailto:sage [2010/04/02(金) 09:58:40 ]
パーセプトロンで作ってみました
www4.cncm.ne.jp/~tsuri/per/aaa.wmv


787 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 15:46:09 ]
hebb学習ってバックプロバみたいな正解と出力の関連付けが出来ないけど
出来るようにする方法を思いついた
ちょっと実験してみよう

>>784
特徴っていってもいろいろあるからな
角を検出したり直線を検出したり曲線を検出したり
画像処理スレの方が詳しい人が居るだろう

788 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 18:42:38 ]
自分が使う不出来な構造のNNの為に特徴抽出の
お膳立てしてあげようとしたら
その前処理段階で判別に十分な特徴出ちゃったりなんて話も

789 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:15:57 ]
音声を入れたら文字が出力されて
文字を入れたら音声が出力されるNNを作ろうと思うんだけど
これって研究対処になる?

790 名前:デフォルトの名無しさん mailto:sage [2010/04/11(日) 23:30:42 ]
>>789
そりゃなるでしょう。
特に英語なら綴りと発音の関係がややこしいし。

音声認識は昔からNNの研究対象分野だし。

ただ、DecTalkとか言う先行研究がすでに有ったような。

791 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:00:00 ]
卒論のテーマ考えてるんだけど
何やればいいかわからん
誰か助けて

792 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 00:29:43 ]
興味があること

793 名前:デフォルトの名無しさん mailto:sage [2010/04/12(月) 03:37:31 ]
NNって別にすごいことしてないしな
何をやってるのか解析しようと思えば出来るだろう
いや実際数式化しようと思えば出来ると思うがな
特にバックプロバケーションタイプなんて
もろ教師信号からパラメータの中央値を糞無駄な計算を繰り返して
導き出して、しまいにはそのパラメーターを使いまわし
しかも使う人間も馬鹿だから全部のパラメータが重要だと思って
無駄計算を繰り返してるだろ

794 名前:デフォルトの名無しさん mailto:sage [2010/04/18(日) 21:12:18 ]
連想記憶モデルって何の役に立つんだ?



795 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 16:59:00 ]
SVMは単に2値に分離するだけだけど
NNは無限個に分離できる可能性がある
可能性があるというのは構造や規模次第って意味で
ただいろいろ不利な点がある
追加学習が出来ない
適切な構造が分からない
計算に時間が掛かる
いろいろ解決法は考案されてるものの誰もそのアイデアを公表しない
そして秘密にして利益を守ろうとする割にはアイデアがしょぼいw
だから発展しないし利用出来るだけの材料がまったく揃ってない

796 名前:デフォルトの名無しさん mailto:sage [2010/04/20(火) 17:16:59 ]
例えば
XOR問題を空間であらわすと

SVMは
○|
-----
 |○

NNは
□|
-----
 |□

みたいな感じだな
SVMは角が無いんだよ


797 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 00:03:08 ]
ニューラルネットで実用的なモデルって何?
何に需要あるの?これたちの悪い罰ゲームなの?

798 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 01:44:12 ]
構造をいちいち検証せずとも自動的に決定してくれて
学習に何週間も時間を費やさずともよくて
フリーのライブラリが各言語に標準に近い状態で実装されてれば
かなり需要があると思うが
現状ではNNを利用するには目的にあったNNを発明する所から始めないといけないという
だから作ったものは自分にしか需要がない

799 名前:デフォルトの名無しさん mailto:sage [2010/04/21(水) 23:26:35 ]
多層のフィードフォーワードとリカレントの特徴の違いを教えてください

800 名前:デフォルトの名無しさん mailto:sage [2010/04/22(木) 07:53:31 ]
フォーワードは
BPのように入力から出力の一方向接続があって
教師信号で逆方向の重みを計算する
この時に出力の計算式と修正の計算式が違う

それを統合してしまおうというんおがリカレント
出力層と中間層は入力層に接続されていて
それぞれの出力計算と重み修正の計算式は常に同じ
しかも線形だから実に簡略化されたもの

でFA?

801 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 00:01:01 ]
www1.axfc.net/uploader/Sc/so/106271.zip
ダウンロードパス: im

NNの概念とか無視してプログラム的に結局こういうことをやってんでしょってのを考えてみた
連想記憶用メモリみたいなもんです

特徴としては
追加学習が出来るのと強化学習が出来る
強化学習はまだ実装してない
結果を取り出すのは入力桁数ステップでいいからかなり高速

そしてアルゴリズムは教えないw

802 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 04:49:56 ]
windowsを消し去って初めて後悔した



803 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 06:41:49 ]
ニューラルで何か新しいことを研究にしたんだけど
何も思いつかんわ
誰か知恵を貸して

804 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 07:47:15 ]
株価予測、文字識別、ニューロ制御、TSP、
グリッドコンピューティング、803より賢い無脳
は、何も見てないけど、既にたくさん研究されているだろう



805 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:35:21 ]
fx.104ban.com/up/src/up16120.png

XOR問題を解いてみた

806 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 16:36:37 ]
>>801のやつね

807 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 17:17:21 ]
誰か文字認識のプログラムちょうだい!

808 名前:デフォルトの名無しさん mailto:sage [2010/04/24(土) 19:13:27 ]
>>801ので強化学習が出来るってのを実験したいんだけど
どういうアプリ作ったら分かりやすいかね?
テスト用なんであんまり大規模なのは勘弁

809 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 19:58:04 ]
ちなみに>>801の何が普通のNNと違うか見てもらえばわかるけど
赤が1.0青が0.0を学習させてるんだけど
しばらくあるポイントの情報を学習させた後にポイントを生成しなおして切り替えても
しばらくはもともと学習してたポイントの記憶を保持してる
だから追加的に学習していっても古い記憶を保持したまま新たな記憶を覚えていく
時間がたつと古い記憶は薄れていって同じ学習入力が無いと消える
この時間は調整可能
だからノイズの学習が行われても簡単には過去の記憶は消えない

810 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:28:35 ]
連想記憶は自己相関での結合行列に重みを付けしての誤り訂正とか、
相互相関で記憶したパターンを順番に生成するぐらいしかないんだと思っていた

この分野でテンプレに出てきそうな書籍ってないの?

811 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:29:17 ]
アルゴリズム教えて!

812 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 22:35:39 ]
この分野で卒研着手するとなると、使用する言語って何がいいんだ
matlabとかR?Java,c++?
boostとgslかじって、c++が幸せそうな気がしているけれども

813 名前:デフォルトの名無しさん mailto:sage [2010/04/25(日) 23:00:20 ]
俺はC++
行列使うならmatlabじゃん?

814 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 03:05:28 ]
>しばらくはもともと学習してたポイントの記憶を保持してる
どうやってるの?



815 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:10:39 ]
>>814
予備知識もなにもなかったんだが
SOMってのがかなり近いみたいだ
根本的にアルゴリズムは別物だけど
発想が似てる

816 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 21:20:14 ]
入力を次元で考えたのがまったくSOMと同じだった
中身はかなり違うけど
SOMは分類するだけだけどこれは学習するからね
むしろ逆に分割するとも言える

817 名前:デフォルトの名無しさん mailto:sage [2010/04/26(月) 22:17:30 ]
入力が次元なだけに増えると指数関数的に処理速度が低下するのが欠点で
今それで悩んでたんだけど
こいつの記憶保持のメカニズムがBPに応用出来そうな気がするんだよな

818 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 00:26:57 ]
SOMのユークリッド距離を使うアイデアはなかなかいいですね
計算を単純化出来る
その方法で重み修正をやるようにしてみたけどうまくいった
記憶保持機能もそのまま
SOMとは計算式がぜんぜん違うけども

819 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 12:49:15 ]
www1.axfc.net/uploader/Sc/so/107963.zip
パス im

とりあえず最新版
学習方法をランダムポイントにしたので遅いけど変化が分かりやすい
一旦XORを学習させてランダムで上書きしようとしたらかなり抵抗するのが分かる

820 名前:デフォルトの名無しさん mailto:sage [2010/04/28(水) 23:42:52 ]
こんな場所で実行ファイルだけアーカイブしても誰も実行してくれないんじゃ…

821 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:10:54 ]
ソースは公開しないけど
まだバグとか改良の余地があるから
設定出来るパラメータも単純化したいし
そのうち組み込みで使えるようにライブラリはアップするかも

822 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:15:20 ]
専門家でもないし学生でもないし
たまだまNNに興味があったプログラム好きのど素人だから
公開したらアイデアぱくられて終わりとか悲しすぎるしw

823 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 03:54:26 ]
たいしたアイディアでも無いくせにな


824 名前:デフォルトの名無しさん mailto:sage [2010/04/29(木) 04:15:11 ]
まあ、過疎ってるよりはいいかな



825 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:47:48 ]
今年4年の学部生です
ニューラルネットワークでルービックキューブの解法を探す研究をしようと思うのですが
実現可能でしょうか?出来そうかだけ教えてください

826 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:51:41 ]
うん

827 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 17:53:41 ]
Yes.

828 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 22:41:04 ]
>>826-827
単にNNでできるかできないかで言えばそうだろうけど、研究可能ですかって意味では車輪の再発明じゃね?
既知を研究するもまた研究という人もいるだろうけどさ。。。


829 名前:デフォルトの名無しさん mailto:sage [2010/04/30(金) 23:31:32 ]
でも、難しいと思うよ

830 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 00:58:43 ]
wrongway.org/cube/solve.html

831 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 01:09:02 ]
ニューラルでやってんの?それ

832 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 02:36:02 ]
ニューラルでやったらそこそこの研究になるんじゃない?

833 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 03:12:30 ]
>>830のソース読んでNN使えば(多分)改善する箇所思いついた
やってみよっと

834 名前:デフォルトの名無しさん mailto:sage [2010/05/01(土) 08:21:13 ]
解法って最短解法って意味ならNNじゃ無理だよ
時間はともかく必ずいつかは解ける方法を学ばせるのは可能だけど



835 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:12:01 ]
なんで最短は無理なん?

836 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 01:29:32 ]
ってかNNでできるのか?
構造とかどうすればいいんだ?
俺には全然わからん


837 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 03:26:20 ]
ルービックキューブのルール通りに動くようにNNを構築するのは難しくね?
ばらばらの色の配置→6面完成だけならできると思うけど

838 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 09:13:29 ]
NNを神格化してるのか知らないが
ただの連想記憶装置だから
0.0〜1.0のアナログデータを保存するだけだから
0.1区切りなのか0.01区切りなのかはNNの規模で決まるだけで
実際に表現出来る範囲には制限がある
ルービックキューブには何億通りのパターンがあって
それを全部記憶するのは無理だから無理
どんな並びだろうと一定の法則があって
簡単に算出出来る規則性があるなら可能だけど

839 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 13:24:15 ]
表面的に知ってるだけだから
使い方・使い所がわかってないんだなぁ


840 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:24:31 ]
NNは脳の構造を真似して作ったものだけど
研究していくうちに実は数学的にクラスタリングする機能しかないことが分かって
だったら無駄な計算なんかしないで直接的に数学問題を解けばいいじゃない
ってんで生まれたのがSVMとかで
最初は主に顔画像を検出したりする画像処理に利用しようとしてたけどうまくいかない
なぜなら数学的に問題を解いてもなおプログラム的には速度が遅いし
適切な記憶容量が計算出来ないからだけど
それで画像処理分野ではSVMなんかで統計を取る前処理として
データ構造を統計上問題の無い方法で単純化しようという研究が行われて
光源によって色が変わるから色は無視しようとか、角度によって分布が変わるから
方向は無視しようってな具合でどんどん条件を絞り込んでいったら
結局数学的にクラスタリングする機能を1つづつ専門分野に適用していってるだけだったというオチ
万能なNNを作ろうとすれば結局は数億規模のデータを処理出来るコンピュータが必要だという
結論に至っただけですよ

841 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 16:29:31 ]
そして顔画像検出の有効な利用法を発明したんだけど
誰か研究してみたら?
心霊写真を見つけられるw

842 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 20:34:35 ]
ニューラルネットってなんなの?
SOMもリカレントもボルツマン機械もぜんぶNN?
それとも、多段のフィードフォーワードのみのこと?

843 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 20:44:19 ]
>>838
マッカロックピッツがどーこーの、1,-1をつかうモデルは何なんだ


844 名前:デフォルトの名無しさん mailto:sage [2010/05/02(日) 22:00:40 ]
>>842
定義としたらNNの仲間なんじゃないの?
一応ニューロンという概念と抑制性を利用してるわけだから
ただ発明した人はもう数学的に問題を解いただけだから
個人的にはニューロンとかいう言葉を使うのもどうかと思うけど
SOMは次元データを2次元に置換する公式を解くだけのものだし
リカレントはBPに時間遅延の概念を入れただけ
本来のニューロンのネットワークという意味でのNNとはどんどん離れていってるw



845 名前:デフォルトの名無しさん mailto:sage [2010/05/03(月) 02:58:10 ]
刻々と変化するネットワークをエネルギー関数を用いて最適化するのもNNって言うの?

846 名前:デフォルトの名無しさん mailto:sage [2010/05/07(金) 23:15:02 ]
どうやってルービックの解法をNN探すの?
最適化だからホップフィールドでやんの?

847 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 01:53:47 ]
俺も教えて欲しい

848 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 11:15:00 ]
それが分かった時点で研究が完了する

849 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 16:54:15 ]
俺の出した結論は無理

850 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 19:32:49 ]
浅いねぇ

851 名前:デフォルトの名無しさん mailto:sage [2010/05/08(土) 20:50:25 ]
無理なんて言葉は使わず非常に困難とかにしとけ

852 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 06:05:30 ]
で、このスレにできそうなやついんの?

853 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:23:15 ]
俺の考えが浅いのかお前らがNN理解してないのか……

〜INPUT〜
キューブは6面、1面には9パネル
操作はまわすことにより9パネルのうち3パネルが4面に関して入れ替わる

〜探索終了条件〜
6面の9パネルがおのおの同じ色になること


初期状態は探索終了状態のn手手前の状態
INPUTの操作を逐次記録する

典型的な探索問題だろ? むしろこれができなかったらNNなんて何ができるんだよ。


854 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:30:38 ]
どうやって探索するの?




855 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 10:32:48 ]
どうやって状態が遷移するのかが思いつかない

856 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 17:24:27 ]
>>853
それでできるかもしれないけど記憶量が多すぎる
TSPみたいにエネルギー関数を使って勝手に最適化する方法は無いかな?

857 名前:デフォルトの名無しさん mailto:sage [2010/05/09(日) 18:30:57 ]
っ【連想記憶】
本なんかによっては別称かもしれん


858 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 14:29:15 ]
ルービックキューブをNNでやるってのは
ルービックキューブに一定の解法の公式が存在することを証明する行為と同義でしょ
NNは関数近似なんだから
わざわざNNでやってみて試すことじゃないと思うけど

無理だけど、どうしてもやってみたいというのなら
まずは何億通りのパターンを一括で学習させるのは不可能だから
追加的に学習させるNNを作るのが先になるだろう
その時点でもう研究課題として成立しそうだけどw

859 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 14:54:34 ]
ずっと俺のターン!なオセロやチェスと考えるんだ。

チェスなら参考論文とかでてくるだろ。


860 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 15:49:42 ]
>>858
ハズレ
>>859
正解

861 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 16:17:18 ]
>>859
オセロやチェスは置くところ間違えてもゲーム終了するけど
ルービックキューブは終了しないから無理

862 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 20:00:16 ]
じゃあ連想記憶じゃできないの?

863 名前:デフォルトの名無しさん mailto:sage [2010/05/10(月) 22:58:18 ]
>>862
どんな風に解くんだ?
初期配置のパターンを結合行列にでも記憶させて、極小値でも探すのか?
キューブはどうやって回すんだ

864 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 01:09:05 ]
俺が考えたのは、まずエネルギー関数を作って
初期配置から、次の状態になりえる状態を列挙し、
列挙した中で、エネルギー関数が一番小さい状態に一つ決めて、
それを繰り返す方法じゃ無理かな?

これだとエネルギー関数しか使わなくて、閾値も結合荷重もシグモイドも使わないからNNといえるか
わからんけど



865 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:03:33 ]
>>864
正解

866 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:06:39 ]
NNでできそうだけどな
どうすればいいか分からんけど

867 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:22:16 ]
>>864
NN使ってもできるんだけどね
使うメリットとデメリットどっちが大きいかは知らないけど


868 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 02:27:45 ]
>>867
概要だけでも教えてくれ
なんかやってみたくなくなった

869 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:29:50 ]
連想記憶ですべてのパターンを記憶する以外にNNで実装する方法は?

870 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:51:07 ]
>>864
NNじゃないね それじゃただ統計取ってるだけだw

871 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 04:55:16 ]
閾値と重みを使って、ルービックキューブのルールどおりに状態遷移しないと駄目・・・
うーん難しい
これは立派な研究になるんじゃない?

872 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:00:31 ]
そうか・・・無いなら作ればいいんだ・・・ルービックキューブのルールどおりに振舞うNNを・・・

873 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:33:26 ]
>閾値と重みを使って、ルービックキューブのルールどおりに状態遷移
こんなのにNN使わん


874 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:37:04 ]
NNでできないってこと?



875 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:45:36 ]
何が?

876 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 05:48:40 ]
>>875
NNでルービックキューブの解法を見つけること

877 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 06:16:51 ]
>>861
オセロは何をしても基本60手以内で終わるけど、チェスは相手次第だよ。


一部の人は何かムダに難しく考えてないか?

主な条件は>>853で書いた。

終了状態をf(n)とするなら開始状態はf(0)で、解くまでにn手掛かる。
NNで行うのはf(N-1)からf(N)を導くこと。

学習としては
・ある地点では不可能な操作を導いた場合は重みを変更する
・ある地点の値aがそれ以前の値Aと一致した場合、それは前に進んでない操作なのでAからaまでの操作の各々に対して重みを変更する
・f(0)に到達した場合はそれに至った操作の各々に対して重みを変更する
辺りで。普通にBPでいいんじゃね? 強化学習辺りを調べるといいかも。

NNに関する研究って意味では車輪の再発明以上のものにはならないはずだけど、研究したいなら俺には止める権利も義務もない。まぁがんばれ。


っていうかこれどこかの研究室の学生の春休みの宿題なんてオチはないよな?


878 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 06:46:15 ]
>>877
躓いているのはそういうレベルの話じゃないと思うよ。
単純に何を入力したらいいのかわからないとか、教師信号をどうやって
取得したらいいのかわからないとか、そもそもNNがなにか分からないとかw
そんな気がする。


879 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:09:06 ]
>>853
まわすと4面の12パネルに加えて、
回したパネル行(列)の側面も90°回すと思ったんだけどあってる?
回転させて意味あるパターンは4通りだっけ


880 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:16:13 ]
>>877
それはルービックキューブの解法が分かってる時、次にどうすればいいかNNで学習させてるだけで
やりたいのは、初期配置を入力したら完成までの手順を見つける一連の操作をNNで実装したいんじゃないの?
NNで扱えるかは別として

881 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 07:20:59 ]
ちなみに「ルービックキューブ AI 解く」でぐぐった結果、20手あれば解けることが証明されてるそうなので20手以上掛かる操作はアウトと教えてもいいだろうね。

読み込んでないからAIが具体的に何を使ったかまではわからん。論文検索できる人は論文を当たればでるんじゃないかな?


882 名前:デフォルトの名無しさん mailto:sage 馬鹿な質問する前にググれ [2010/05/11(火) 07:26:23 ]
3x3の学習パターンから、NxN面を解くとかダメポ?

883 名前:880 mailto:sage [2010/05/11(火) 07:29:47 ]
説明が分かりにくかったかもしれない
>>877のように説明すると

f(0)は初期状態
f(N)は終了状態(6面完成)

まずf(0)を入力する、すると
f(0)→f(1)→f(2)→・・・f(N)
のうように完成までの手順が見つかる
これをNNで作るってこと

884 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 08:02:27 ]
>>883
強化学習とか連想記憶とかキーワードあげたろ? 作ればいいじゃん。


ちなみに「ルービックキューブ AI 解く」でぐぐった結果、
AIとは無関係にルービックキューブの最速解じゃないけど解法自体はでてきた。




885 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 12:11:52 ]
>>877
だから
f(N-1)からf(N)を求めることがすべてNNに向いてるわけじゃないんだって
全パターンと次の手を完全に記憶するんだったらただの統計データベースなの
リュービックキューブのパターンを全部NNに入れ込もうとしたら物理的に
完全なデーターベースを作るのと同じ容量が必要になるの
NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの
そうするとほとんどのパターンは正確に記憶できないの
だから無理

886 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 12:22:22 ]
>NNでやるってくらいだから当然この容量を極小に削ることを考えないといけないの
ここダウト。それは>>885が勝手にNNはそういうものにしなくてはいけないって思い込んでるだけ。

今回の話はあくまでルービックキューブをNNで解くって話でしかない。話そらすな。
はっきり言ってNNを利用する必然は無いし、
NNがこの問題を解くのに最適だなんてことはこのスレの人間は誰も思っちゃいないわけよ。


いわば練習問題。


887 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 15:49:14 ]
>>886
全部記録したらただの統計データベースだって
「連想」記憶じゃなくなるwだからNNではないw

888 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 15:55:23 ]
連想じゃなきゃNNじゃないっておめーXOR解かせた事ないのか

889 名前:デフォルトの名無しさん [2010/05/11(火) 15:58:39 ]
俺が思うに連想記憶じゃアルゴリズムで解かせてるのと同じになる
ホップフィールドネットワークでルービックキューブ解けないかな?

890 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 19:32:58 ]
NN (正確には ANN) の問題意識は,単に NN で何ができるかだけではなく,
NN の研究を通じて人間の(生体の)NN がどういうメカニズムで動いて
いるかを解明することにある
これを忘れてはイカン

891 名前:デフォルトの名無しさん [2010/05/11(火) 19:50:18 ]
巡回セールスマン問題が解けてルービックキューブが解け無いなんてことないでしょ
どうするかは知らんけど

892 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 21:31:01 ]
>>888
XORが連想に見えないお前があほなんだ
11=0なのは例えでよく使われるだけで
実際には0.9 0.9 = 0.1 みたいなものも包括してるんだ


893 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:11:38 ]
NNの分離能力が0.9 0.9 = 0.1 みたいなものも包括してる事と
XORが連想でないこととは関連性が無い

894 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:25:12 ]
>>893
XORが連想じゃないって言ってるのは888だろw
なんで連想記憶問題によくXORが例示されるのか分かってないのかなw
一定のパターンを記憶出来ることを証明するためじゃないぞw



895 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:37:03 ]
連想記憶ってのはようは
例えば整数値1....10000なんてのがあったらこれを00〜0.1に置き換える問題で
ただし尺度は可変だからn/10000なんて単純な式じゃない
例えば0.3〜0.4は200〜1000だけど0.4〜0.5は1000〜1010なんてことが起こせる関数の総称だよ
XOR問題は特殊でこれにさらに前後入れ替え作用まで引き起こせる関数の実証に使われる

ただのデータベースはn/10000だからNNじゃない

896 名前:デフォルトの名無しさん mailto:sage [2010/05/11(火) 23:50:07 ]
>>891
そりゃ解いたのが誰だかしらないが解いた気になってるとしたら相当あほなんだろ
気づかずにただ道順の総パターンの記憶装置を作っただけだと思うがね

897 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 00:18:18 ]
>>896
いやおまえが馬鹿だ
解法あるのにさ

898 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:43:10 ]
>>897
総当たり以外に解法があるのか?まじで?教えてw

899 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:47:09 ]
>>897
もしそれが本当なら最短経路探索にも解法が存在することになって
これはかなり実用的なものだぞ

900 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:55:17 ]
「解法」って何の事なんだろうね


901 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:58:12 ]
>>900
知らないが、総当りで得ものはNNではないといい続けてるから
>>897の言う解法はそういう意味ではなく、純粋に多項式で解く方法を意味して言ってるんだろ思ったんだが
アルゴリズムを高速化しただけの近似解法はただの総当たりなんでこれも違うだろうし

902 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 01:59:08 ]
総当りでやるものは

903 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 02:40:49 ]
ホップフィールドで、巡回セールスマン問題は解ける(もちろん、決定的な解じゃなく、総当たりで)
ルービックキューブはNN使って総当たりで解け無いの?

904 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 02:53:22 ]
キューブの解法
www.google.co.jp/hws/search?hl=ja&q=%E3%83%AB%E3%83%BC%E3%83%93%E3%83%83%E3%82%AF%E3%82%AD%E3%83%A5%E3%83%BC%E3%83%96+%E8%A7%A3%E6%B3%95&client=fenrir&adsafe=off&safe=off&lr=lang_ja

NNとは本来多項式等でもしかしたら解けるかもしれないものの、どんな多項式で解けばいいのか分かっていない対象をNNによってブラックボックス化することで多項式の代わりとするもの。
それ以上のことをNNに求めてる人は夢見がちなのかただの無知なのかどっちよ?
極端な話、一部の人が言ってる「ただのデータベース」です。
NNスレでNNの定義から始めないと各々の認識が違いすぎるっぽいな……

>>890
出てる学部が違うのかな、NNの成り立ちと混ざってるのかな、どっちか分からないけどダウト。

>>896
ググッた記事読んだ感じだと、そのただのあほのようだぞ? AIと名乗っているのはルールベースっぽい。それ以上はわからんかった。

>>899
NNが解法です(キリッってことか?




905 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 04:49:40 ]
もうだれかやってみろよ

906 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 04:59:23 ]
>>984
>>NNによってブラックボックス化することで多項式の代わりとするもの。
ずっとそう言ってんだけど
だから多項式解法が存在しないものにNNを使う意味がないと
仮に使ってもそれはNNの本来の使われ方じゃないからNNじゃなくなると

正確にはただのデータベースとしても使える
多項式を記憶出来るから当然線形問題も記憶出来る
だけどそれはわざわざNNでやる話ではないというだけのこと

907 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 05:17:46 ]
なんかよく分からなくなってきた
ホップフィールドネットワークで解く巡回セールスマン問題は多項式解法なの?

908 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 05:27:17 ]
なんかルービックキューブの解法の場合は、プログラムする側が「次の手順が分かっていなければ」次の状態を記憶することができないみたいだね
人間がこれだ!という手順を知らなくても発見的に次の手順を見つけるNNは構成できないわけだ

909 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:09:39 ]
俺も>>908みたいな話だと思っていた
TSP(巡回セールスマン問題)で例えると、最短の経路を求めるために相互結合NNを使って、最短の経路を求める(近似解ではあるが)
ルービックキューブも同じように、解法経路を求めるためにNNを使い経路を求める(どんなNNか分からんがおそらく相互結合型に近いNN)
どちらも共通して言えることは、人間側は解がどのようになるかは分からないってことで、勝手に解を見つけられるNNを作ることはできるか?って話題じゃないのか?
解法を随時記録していくって話じゃなくてさ


910 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:28:16 ]
>>908
プログラマが分かるってのは総当たりチェックして最適解を学習させることと何が違うんだ

>>909
近似解って意味なら出来る場合もあるけど
たぶんその巡回セールス問題のやつは都市数が少なくて近似でもなんでもないんだろうけど
近似解はあくまで近似解でセールス問題もゴールありきだから間違えても問題ないけど
ルービックキューブは間違えると永遠にループしたりどんどん離れていったりするから無理
どれくらいの割合で正解するかは単純にNNの記憶容量に依存するだけ
だからやっても面白くもなんともない

911 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:35:29 ]
TSPの場合は解(近似解)が最後に求めることができればそれで終わりだけど
ルービックの場合は解法の経路を求めるから根本的に違うかもしれないけど、
経路をNNで求められたら面白いと思うけどな

912 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 06:56:46 ]
実時間で計算出来るサイズのNNじゃ正解率1%もいかないと予想

913 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 08:50:05 ]
>>910
ループや離れるから無理ってんならチェスも無理だな。
ユーザが意図的にループさせる手を打ってくる可能性もあるし。

本当にそうなのかな?かな?

914 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 08:53:58 ]
多項式解法が存在しないものなんて世の中に存在するのか?
多項式解法が証明されているかいないかだけの話だろ。どちらかというとNNよりカオスな話になっちゃうけど。




915 名前:デフォルトの名無しさん mailto:sage [2010/05/12(水) 09:15:29 ]
ここでルービックキューブの問題は出来ないって言ってる人に質問。
逆にNNでできることって何? 具体的に。
○○のようなこと、とかじゃなく○○ができるって言い切りの形で。

ついでに勝手に解を見つけるNNの具体例もあるとありがたい。
どういう状態のNNのことを勝手に解を見つけるNNと言ってるのか分かりやすくなるから。







[ 新着レスの取得/表示 (agate) ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<232KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef