- 1 名前:デフォルトの名無しさん mailto:sage [2016/12/20(火) 18:56:35.47 ID:VUT01fx8.net]
- 何でもいいので語れ
■関連サイト 機械学習の「朱鷺の杜Wiki」 ibisforest.org/ 前スレ 【統計分析】機械学習・データマイニング9 echo.2ch.net/test/read.cgi/tech/1470037752/ 【統計分析】機械学習・データマイニング8 echo.2ch.net/test/read.cgi/tech/1464586095/ 【統計分析】機械学習・データマイニング7 echo.2ch.net/test/read.cgi/tech/1460535528/ 【統計分析】機械学習・データマイニング10 echo.2ch.net/test/read.cgi/tech/1479498503/
- 560 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 13:44:19.13 ID:fQnW9EuO.net]
- ディープラーニング以外の方法が軒並みディープラーニングにかなわない認識率だから仕方ない
裏を返せば、人工知能界隈はディープラーニングだけが図抜けただけで他の進歩はない 買い被られすぎている
- 561 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 13:49:55.87 ID:RbIvkBFq.net]
- >>548
知ったか乙 []- [ここ壊れてます]
- 563 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 13:50:36.93 ID:cjVtQucR.net]
- >>544
それホント?
- 564 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 13:51:08.31 ID:z3gVLhD7.net]
- >>548
自分でやったことがないのが丸わかり
- 565 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 14:28:13.44 ID:pwFGbl4X.net]
- >>548
どの認識問題に対してどのネットワークが優れているのか言ってごらん
- 566 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 14:39:33.06 ID:k1Mmmgl9.net]
- 547を擁護してるわけじゃないが
時間的に連投してるから自演くさいな
- 567 名前:デフォルトの名無しさん [2017/01/09(月) 15:29:56.98 ID:Jh/1IYvM.net]
- それ以上に547=552に見えて仕方がねえな
- 568 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 15:48:39.81 ID:+4sInSVu.net]
- 552=553
じゃね
- 569 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 15:58:16.66 ID:k1Mmmgl9.net]
- 552は単独のなんだけど、まあいいや。
>>549-552が一人の書き込みだったら必死すぎてうけるww
- 570 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 16:20:40.03 ID:/3dsHunZ.net]
- >>556
いや、あんたが必死過ぎる。放っておけよ
- 571 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 17:06:14.30 ID:4OeNzyzM.net]
- 一人であるという可能性を排除する合理的理由がないからな
- 572 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 17:13:39.00 ID:/bDncKYI.net]
- ○であるという可能性を排除する合理的理由がないからな
○の中に面白い言葉を入れて遊びなさい
- 573 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 17:28:53.96 ID:a07EDxnX.net]
- 答えられなくて流れ着いた文系が発狂してる
- 574 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 19:54:09.69 ID:WWwzP2Ta.net]
- 積層オートエンコーダの書籍でお薦めある?
論文しかないかなぁ
- 575 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 20:04:44.67 ID:vJmjyrTZ.net]
- >>561
あんなもん、本を読むほどのもんじゃないだろw caffe の入門書あたりなら言及ありそうだが
- 576 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 20:09:03.55 ID:Z/GXP5pv.net]
- >>561
今まで何を読んだ? それに載ってなかった?
- 577 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 20:19:01.26 ID:JP3B1fld.net]
- 積層の理解なんていらない。
主成分分析との関係がわかれば十分。 というか、主成分分析をほうを理解すればよい。あるいは主成分分析のコードを書いてみたり、その結果から次数さげてみたり。
- 578 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 20:56:05.81 ID:cjVtQucR.net]
- >>564
本当に? ディープラーニングとはどう関係するの?
- 579 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 22:18:36.36 ID:ZM3HJLmM.net]
- >>565
DBNとPCAの関係考えれば自明だろ
- 580 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 22:41:52.00 ID:RbIvkBFq.net]
- >>565
真に受けるな、次元圧縮という視点だけで同一視してる極論。そもそも線形だし
- 581 名前:デフォルトの名無しさん mailto:sage [2017/01/09(月) 23:32:06.28 ID:cjVtQucR.net]
- RBMだろ
- 582 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 00:08:27.84 ID:N74TPYKx.net]
- >>567
オートエンコーダで完全に入出力が一致すれば主成分分析と結果一致するのは数学的に証明されてるのに、何故否定?? ちゃんと理解したうえで言ってる??
- 583 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 00:18:55.31 ID:N74TPYKx.net]
- >>568
目的は一緒だが、やってることは違う
- 584 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 00:57:02.71 ID:mL71GP1A.net]
- オートエンコーダで積層にしているのは
2層だけだと収束が悪いので多層にしてるだけ。 ディープラーニングのメインコードとはもともと関係がない。 普通のオートエンコーダを理解すれば十分だけど、 >>564の言うとおり、条件を限定すれば オートエンコーダの結果は主成分分析と一致する。 主成分分析の性質を理解することがオートエンコーダの理解に繋がる。 566は論外。
- 585 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:06:43.42 ID:Lw+Ts/nh.net]
- >>571
主成分分析の何と一致する? 固有値や固有ベクトルは?
- 586 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:18:00.94 ID:N74TPYKx.net]
- 訓練データ{x1,x2,...}の共分散行列を作って、得られた固有ベクトルを並べたて格納した行列を新しい重み行列とすると、それはオートエンコーダで得られた重みと理論的には一致する。
共分散行列の固有値は次元の寄与率と考えることができて、小さい値の固有値の固有ベクトルは削除しても影響が小さい。
- 587 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:21:19.35 ID:N74TPYKx.net]
- てかそんぐ
- 588 名前:らいググればいくらでも出てくる []
- [ここ壊れてます]
- 589 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:22:37.28 ID:N74TPYKx.net]
- 失礼。
聞かれたのは俺じゃないな
- 590 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:27:47.53 ID:N/5FQeNb.net]
- おまいらマジで頭よかったんだな
てっきり知能ポエムしか書けない連中だと見下してたわ
- 591 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:31:09.96 ID:N74TPYKx.net]
- つまり、オートエンコーダは、異なる入力に対して異なる結果になるように重り行列を最適化する。
(多数の入力が同じ結果にならないように最適化) オートエンコーダで次元を下げるとかっていう話は実は二の次の話。
- 592 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:38:22.11 ID:N74TPYKx.net]
- 上の情報だけで、つまりって言っちゃ、やや飛躍があるな。
共分散行列の固有ベクトルがはる空間 に入力ベクトルを持ってくることで上手くベクトルが分散してくれる
- 593 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 01:53:41.11 ID:/W/3Nfpm.net]
- 畳み込みニューラルネットワークのフィルタってサイズの大きさどう設定すりゃいいの?
あと全結合層の層数って増やす意味ある?
- 594 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 06:52:44.79 ID:Lw+Ts/nh.net]
- >>578
固有値の大きな固有ベクトルから順に得られるかどうか判らないのでは?
- 595 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 07:36:02.51 ID:N74TPYKx.net]
- ?
質問がよく分からない どんな状況下にあるか、自分で手を動かして考えてみてください
- 596 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 08:32:52.11 ID:rVEdN69p.net]
- いまどきの国立大以上の工学部では
ディープラーニングの演習もあるのかしらん?
- 597 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 11:14:30.29 ID:/a9Ojlhv.net]
- オートエンコーダは、非線形性があるところは違うだろ
一層毎に非線形性があるんだから、スタックする意味もあるし
- 598 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 11:59:53.15 ID:N74TPYKx.net]
- >>583
それっていちいち突っ込むところ? 恒等写像の場合である程度重みの最適化の足掛かり掴んでるから十分だろ? 文句があるならカーネル関数使った主成分分析方法があるからそれ使え。
- 599 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:24:27.91 ID:VX/m3eLk.net]
- >>584
主成分分析しか知らないって言えばいいのにwww
- 600 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:26:57.52 ID:K8NZx8C0.net]
- だいたい積層オートエンコーダを質問してるのに、何で延々と主成分分析の話しをしてるんだか w
積層オートエンコーダ == 主成分分析 では断じてないことさえ分からんのかw
- 601 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:28:15.08 ID:N74TPYKx.net]
- 何かろくに理論知らないクズ野郎しかしいないって思いたくないんだが‥‥
(そもそもこっちはただのサラリーマンだし)
- 602 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:29:38.43 ID:BtJxF5z4.net]
- >>581
寄与率の大きな固有ベクトルから順に結合として得られる保証があるのかってこと 固有ベクトルの個数は隠れ層のユニット数だろうけど それが寄与率の大きなものから順に得られるのか?
- 603 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:32:59.59 ID:N74TPYKx.net]
- ハイハイ分かった分かった
オートエンコーダ経由での物理現象の説明はこっちはわかりません。 自分で調べてください。 ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ
- 604 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:39:37.42 ID:K8NZx8C0.net]
- >>589
これ、笑うところ?www | ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ
- 605 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:41:56.72 ID:VX/m3eLk.net]
- >>589
表面しか見れないんだな。 deep learning は全然知らないと言えばいいのに
- 606 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:43:02.69 ID:N74TPYKx.net]
- 単独で中間層のユニット数減らすだけ!
- 607 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:44:08.26 ID:N74TPYKx.net]
- そもそも>>571でなんで積層にしてるかいてるでしょ
- 608 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 12:48:34.70 ID:N74TPYKx.net]
- あーこんな頭の悪いやつのせいで昼休み無駄になった
- 609 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 13:30:06.45 ID:s989ZmsY.net]
- 最終的且つ不可逆的な解決に向け相互努力を誓います
- 610 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 13:44:18.27 ID:s989ZmsY.net]
- >>572
おまえは何を言っているのだ? 主成分分析なんて固有値や固有ベクトルそのものだろ
- 611 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 13:53:31.34 ID:a6nVb6Xo.net]
- 昼休みこんなところ
- 612 名前:ナ鬱憤を晴らすサラリーマンねぇ
仕事できる子なのか不安 [] - [ここ壊れてます]
- 613 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 14:52:03.64 ID:HuxjibLD.net]
- バックグラウンドの数学的な話はわかって無くてなんとなくで使っているのですが
WekaでBayesnetを使ってクラス分類をしているのですが、 理想よりだいぶ正解率が低いので、その原因を知りたいと思っています (どの変数が悪影響を及ぼしてるのかとか) そのようなことは可能でしょうか? また、「ガウス分布に当てはめれば分類モデルの誤差が見積もれる」 みたいな話を聞いたことがあるのですが、これはどういうことでしょうか?
- 614 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 15:06:26.74 ID:UBJKCQag.net]
- 無の字の使い方を学習させると
誰が自演書き込みしてるのか判るな
- 615 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 15:08:08.34 ID:BtJxF5z4.net]
- >>599
正解率はどのくらいか判ってるのか
- 616 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 15:11:49.90 ID:BtJxF5z4.net]
- >>596
理解できてないならレスしなくて良い
- 617 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 21:55:01.12 ID:5Ydwym5y.net]
- >>598
じゃあ使うなまず数学やれよ 数学やらない奴は使うなよ
- 618 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 23:19:51.15 ID:6tVxUfvD.net]
- >>588に誰か答えないんかな?
画像認識やったことないからフィルターサイズの決め方なんて知らない。 認識したい対象(文字とか?)のサイズとか、どこまでエッジを拾いたいかで決めんのかね? (あるいはサイズ違いのフィルターを繰り返す?)
- 619 名前:デフォルトの名無しさん mailto:sage [2017/01/10(火) 23:23:42.42 ID:6tVxUfvD.net]
- 失礼しました
>>588でなく>>579です
- 620 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 05:53:27.99 ID:W9WOgN09.net]
- >>603
ここでレスがあったとしても本当の事か判らない 実際に確かめてみるしかない サイズを変えてデータを取って分析しろ データ分析くらいできるのだろ
- 621 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 07:32:56.06 ID:foy5T8YQ.net]
- >>597
仕事で嫌なことでもあったんだろ 上司に怒られて当たり散らしてる感じw
- 622 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 07:37:59.91 ID:foy5T8YQ.net]
- >>603
定石があって大体あたりがつくよ パラメータを変えて精度・速度を実験するのは初学者が最初にやる
- 623 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 08:23:21.88 ID:l2JfDQy7.net]
- >>579 >>603
フィルタサイズの選択肢は実際には限定的、定番モデルを参考にすれば良い。 全結合層の層数を増やす意味は通常はない。
- 624 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 08:25:01.91 ID:p4aAjtoW.net]
- 海外の人は数日でこのレベルに到達するぐらい素養があるけど日本人は全く素養がないから諦めた方がいい
gigazine.net/news/20170111-tensorkart-mariokart-tensorflow/
- 625 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 08:29:04.22 ID:zHamHZ4N.net]
- 自分はkeras使ってるが問題ないようで安心したわ。
chainerはもういらんな。
- 626 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 12:29:16.31 ID:xxQxfc5N.net]
- >>607
最初にやるような事もやってないって事じゃね
- 627 名前:デフォルトの名無しさん [2017/01/11(水) 17:24:11.80 ID:/t0evEjj.net]
- chainer否定厨うぜえ
仲良くやれよ それかDyNet使えよ
- 628 名前:デフォルトの名無しさん mailto:sage [2017/01/11(水) 19:26:45.58 ID:lXi56hH9.net]
- TensorFlowは1.0αかよ
昨年12月1日に0.12がリリースされたばかりなのに
- 629 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 00:53:03.54 ID:0lQ7NCef.net]
- 0.12.0 のステーブル版が出たのはお正月くらいだったよ
それを受けての 1.0 alpha 発表でしょ
- 630 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 01:07:26.07 ID:yGw8XzLF.net]
- つまり 0.12.1 がほぼそのまま 1.0.0-alpha になってるのか
- 631 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 08:13:48.15 ID:EOPVv7Sc.net]
- クラウド商用とOSSで開発ブランチ分けるらしいからその前の整理だな
- 632 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 08:19:14.49 ID:F21c8apY.net]
- ああ、なるほどね。
1.0 ベースで cloud ml を正式版にするわけか
- 633 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 08:28:01.89 ID:D/kCxt4Z.net]
- たった1ヶ月で10倍賢くなったのか
こりゃシンギュリティだな
- 634 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 08:32:23.88 ID:yGw8XzLF.net]
- >>616 >>617
googleはこういうの手慣れてるな
- 635 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 10:41:13.63 ID:6zPdGjUM.net]
- 最近、GTX980Tiが安いけどさあ
これって1080の1割引ぐらいの性能は出るんかな?
- 636 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 10:48:52.97 ID:D/kCxt4Z.net]
- Googleに入社すればGAEがタダで使えるで
- 637 名前:デフォルトの名無しさん [2017/01/12(木) 10:50:48.35 ID:r/NJbiIE.net]
- なるほど
Appleに就職すればよかった
- 638 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 10:55:14.49 ID:D/kCxt4Z.net]
- AppleWebServerもいいよね
- 639 名前:デフォルトの名無しさん [2017/01/12(木) 12:42:27.89 ID:3KTZZ0jx.net]
- TensorFlow OSS版は切り捨てられる?あるいは差別化される?
- 640 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 12:43:54.99 ID:b+ED7Ag1.net]
- そうなったらApache下でフォークされてHadoopみたいになるだけよ
- 641 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 13:23:04.66 ID:6zPdGjUM.net]
- GAEを借りてもらう前提として、OSS版を使ってコードを書いてもらう必要があるんだろうからね
どちらでも同じコードが動くようにはしてくれるんじゃないかと思うけど・・・・・ ただGoogleにとってサポートしても得がないCUDAのサポートとか続くんかな?
- 642 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 14:11:33.05 ID:nKV4yPgD.net]
- >>626
分からないのに無理して書き込まなくていいからw
- 643 名前:デフォルトの名無しさん [2017/01/12(木) 14:29:58.74 ID:6zPdGjUM.net]
- >>627
残念ながら無理して書くような内容なんて書いてないんだけど
- 644 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 14:35:48.77 ID:6O75WW/Q.net]
- >>628
横からだが、そもそも GAE という時点で間違ってるよ
- 645 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 14:37:29.18 ID:yGw8XzLF.net]
- >>628
わりと突っ込みどころ多いとは思う。
- 646 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 21:19:42.27 ID:PFwuR66g.net]
- OSS版はGPU最適化用のコードいずれドロップ
して高速版が欲しければ商用買えよってスタンスで 行くつもりだから かなり急ぎ足で1.0出しているし技術者主導ではなくなると思うよ
- 647 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 21:53:35.36 ID:GcbET4TA.net]
- ポエム野郎がいなくなったのは有難い
- 648 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 22:04:12.06 ID:damdR0/o.net]
- >>631
頭悪いレスやめようよ、真に受ける人いるから
- 649 名前:デフォルトの名無しさん [2017/01/12(木) 22:08:16.15 ID:KUT30rWT.net]
- 昼間から高卒大国ニッポンしてるね
おきちがい
- 650 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 22:15:58.79 ID:yGw8XzLF.net]
- >>631
もういいって
- 651 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 22:25:19.38 ID:D/kCxt4Z.net]
- やっぱこれからはチャイナー使お
- 652 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 22:34:44.20 ID:b+ED7Ag1.net]
- TensorFlowが死んでもChainerの時代は来ないよ
まあApacheが引き取るだろ
- 653 名前:デフォルトの名無しさん mailto:sage [2017/01/12(木) 22:38:45.10 ID:D/kCxt4Z.net]
- アパーチェが引き取って誰が開発するねんねんで
アホか
- 654 名前:デフォルトの名無しさん mailto:sage [2017/01/13(金) 01:56:41.62 ID:n29hWmfn.net]
- GCPのGPUインスタンスいつなったら作るんだ?
TensorFlowをGPUで使うならPCかAWS使えってことか?
- 655 名前:デフォルトの名無しさん mailto:sage [2017/01/13(金) 05:45:15.56 ID:6kgyQzos.net]
- CNTK&Azureとか
- 656 名前:デフォルトの名無しさん mailto:sage [2017/01/13(金) 10:47:54.68 ID:UqLgiWVO.net]
- >>639
cloud ml でいずれ対応予定 >>640 cntk は名前変わった、人気ない証拠だと思うからやめといた方が…
- 657 名前:デフォルトの名無しさん [2017/01/13(金) 12:03:29.94 ID:aGn4Qyi/.net]
- Microsoft Cognitive Toolkitになったのか
ppapみたいだからcntkの方が好きなのに
- 658 名前:デフォルトの名無しさん mailto:sage [2017/01/13(金) 15:49:38.36 ID:fe/WbToJ.net]
- >>16
実はこれいいとこついてるんだよな なぜか日本の「理系」というのは自分にとって都合のいい「理系」像をつくりたがる >>16の例でいえば理系=数学科 「日本の数学科ではルベーグ積分は・・・」とかけばいいのに なぜかこういうところでも「理系」といいたがる (ちなみにMARCH以下だと数学科でもルベーグ積分は必修にならないところも多い) このくらいなら別にかわいいもんだが、問題は文系批判するときに 自分の都合のいい「理系」像をつくって、「理系では常識だが・・・」みたいなことを 言い始める
- 659 名前:デフォルトの名無しさん mailto:sage [2017/01/13(金) 15:54:10.29 ID:Pc+dvNDW.net]
- >>642
cognitive toolkit って、日本人には馴染みにくいネーミングだな
- 660 名前:デフォルトの名無しさん mailto:sage [2017/01/13(金) 15:55:01.93 ID:8aFi8ZmB.net]
- >>66
中井に限らず機械学習ってそんなもんだよ やってみてうまくいけばそれでオッケー 理屈は考えない
|

|