1 名前:デフォルトの名無しさん [2015/08/11(火) 23:14:48.92 ID:bKFrJLVz.net] 何でもいいので語れ ■関連サイト 機械学習の「朱鷺の杜Wiki」 ibisforest.org/index.php?FrontPage
596 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 10:58:10.53 ID:9Vn4CzOj.net] tensorflowのword2vecってCPUでしか動かないんだな GPUは実装されてないっぽい やっぱ自然言語処理はchainerしかないな
597 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 12:18:15.82 ID:PGuYF6Hk.net] chainer はgpu でも遅いのがつらい。 cyhon でも速くなってないし
598 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 16:54:47.48 ID:4Vn2xfZ9.net] >>583 元実装がなぜCPUだけなのか考えたほうがいい >>584 1.5で速くなったのは事実
599 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 18:25:02.28 ID:QFCoqfz2.net] 俺氏、ついに64ビットに乗り換えを決意する n_unitsを増やしていくと4GB制限じゃきつい
600 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 21:45:17.86 ID:DKm4eovL.net] おい世界最強の機械学習フレームワークどれよ?
601 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 21:47:16.17 ID:HnRsSyGh.net] FORTRAN
602 名前:デフォルトの名無しさん mailto:sage [2015/12/25(金) 22:58:57.04 ID:eGUeWji1.net] 俺様
603 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 03:30:39.37 ID:CIPcSFfj.net] >>585 cpuで1.5使ってるけど速くなってる気はしない。実際あんま変わらんって記事もあるしな
604 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 04:19:11.42 ID:1Nz16ydN.net] ミニバッチを使うとGPUの本領が発揮されると思うが、 引き換えに学習が収束しにくくなることがあるんだよな んで、ミニバッチ使わずに1つずつ入力に与えるならCPUのほうが速いわけで
605 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 05:50:44.29 ID:8QHd1n4W.net] >>591 学習が早く終わっても局所解に捕まるかも
606 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 07:06:57.31 ID:livkMYlr.net] >>590 1.5で速くなったのはcupy つまりGPU
607 名前:デフォルトの名無しさん [2015/12/26(土) 08:52:58.35 ID:xoeWphFC.net] ミニバッチ使わない場合ってCPUのほうが早いの? 行列積の塊だからさすがにGPUのほうが上かと思ったが
608 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 12:02:11.23 ID:uQXV/SIw.net] 時間を測定すれば良い 環境によって違うかも知れないし
609 名前:デフォルトの名無しさん [2015/12/26(土) 18:45:51.81 ID:xoeWphFC.net] いや他の人の経験的な話を聞きたくて
610 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 19:10:16.25 ID:K72ztYCV.net] 局所解に陥るアルゴリズムっていやーん
611 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 19:32:37.55 ID:fU5LI97B.net] >>596 同じモノサシを使わないと比較にならなくね?
612 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 19:45:40.91 ID:guGv3p9j.net] >>597 解空間が見えれば簡単w
613 名前:デフォルトの名無しさん [2015/12/26(土) 19:47:55.26 ID:xoeWphFC.net] ?
614 名前:デフォルトの名無しさん mailto:sage [2015/12/26(土) 19:53:53.02 ID:42WCJjIQ.net] みなさんはどんな環境で機械学習を動かしているのでしょうか? CPUだと計算が終わらないので、参考にさせて頂きたいです。 ・TESLAは100万〜で手が出ませんでした ・tegraとか良いんでしょうか? www.nvidia.co.jp/object/jetson-tk1-embedded-dev-kit-jp.html
615 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 00:40:41.37 ID:CYJU6fsZ.net] いや普通のGPUでいいじゃん なぜそんな仰々しいのを 750tiだったら一万ちょい これでとりあえず遊んでみて自分にTITANクラスが必要かどうか考えたほうがいい
616 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 02:12:10.63 ID:26vx2Mtt.net] とりあえず自分はzbox EN970ってのを入手したんで これで色々やってみるつもり やれubuntuだCUDAだって初めてなもんで地道に...
617 名前:125 mailto:sage [2015/12/27(日) 07:36:04.48 ID:6yyg7AI6.net] 【GPGPU】くだすれCUDAスレ part7【NVIDIA】 [転載禁止]©2ch.net の233 参照した方がいいよ。 1枚のグラボでは、2秒以上の計算無理みたい。
618 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 08:22:37.13 ID:eNaOoJS2.net] 2秒以上ってwindowsの話でしょ? Windowsなんて科学技術計算には普通は使わないでしょ
619 名前:125 mailto:sage [2015/12/27(日) 08:26:35.59 ID:6yyg7AI6.net] Linuxなら画面表示と共用の1枚グラボで2秒以上の計算できる?
620 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 08:53:44.64 ID:60o500cJ.net] WindowsでもTDRのタイムアウト伸ばして普通に使ってるよ。 まぁ時間のかかる処理を実行するなら別GPU用意したほうがいいのは確かだけど。
621 名前:デフォルトの名無しさん [2015/12/27(日) 09:02:13.77 ID:PIwyifO4.net] >>605 自分や研究のためならそれでいいだろうけど 一般公開しようと思ったら結局一般向けPCのシェアはwindowsが圧倒的だし一般人に内臓以外のGPU所持を期待するのは難しいし そうなるとwindows向けに内臓GPU使ってどうにかする設計にならざるをえないんじゃない
622 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 09:14:35.57 ID:EX8wdxKF.net] >>602 なるほど、ありがとうございます。
623 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 09:24:39.39 ID:60o500cJ.net] 有用なソフトならユーザーはそれに必要な環境を揃えるだろうさ。 ゲームやるのにそれに見合ったグラボ用意するのは当然だし。
624 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 09:44:01.12 ID:26vx2Mtt.net] >>604 そんな罠があるのか ありがとう気に留めておく
625 名前:125 mailto:sage [2015/12/27(日) 10:03:08.92 ID:6yyg7AI6.net] >>611 メインのPC+(複数台の)en970を使ったMPP+GPGPU構成ですか?
626 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 10:36:38.49 ID:26vx2Mtt.net] >>612 いんや単体です そんな金があるなら専用のPCを組んでたと思う 仕事じゃなく趣味でやるならと>>602 と同じ考えに
627 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 11:24:04.01 ID:EYY+T7n8.net] >>608 Windows使っている人達は, ほとんどTVで宣伝されてるものしか使わないので 一個人が何を作ろうが使われることはないので関係ない Linuxだとステマに弱い人達がだいぶ減るので違ってくるけど
628 名前:デフォルトの名無しさん [2015/12/27(日) 11:27:02.64 ID:7TYWsApQ.net] GLSL使えよ
629 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 12:49:04.03 ID:fSE6LOhV.net] >>614 一世代前だとそうだったろうけど今は事情が違うと思うぞ XPのサポート終了以降、型落ちのPCが勿体無いから代替windowsとしてよく聞くubuntuとやらを入れてみた みたいな人が多いだろうから
630 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 20:23:48.28 ID:Q29MCOsd.net] ディープラーニングってもうやっても意味ないよね? もう次のネタがアメリカだと凄い流行っててそっちの 開発が主流になっているし
631 名前:デフォルトの名無しさん [2015/12/27(日) 20:46:18.90 ID:7TYWsApQ.net] 次のネタって何?
632 名前:デフォルトの名無しさん [2015/12/27(日) 21:23:52.87 ID:7TYWsApQ.net] TDAってSOMの親戚?
633 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 22:37:16.21 ID:CYJU6fsZ.net] 次のネタ笑
634 名前:デフォルトの名無しさん mailto:sage [2015/12/27(日) 22:42:09.05 ID:Pskk8fkI.net] TDLってDWの親戚?
635 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 09:30:41.18 ID:7tFHoB70.net] Chainerは次のバージョンでまた互換性なくならないかが一番心配
636 名前:デフォルトの名無しさん [2015/12/28(月) 11:40:44.31 ID:ShwEi03W.net] >>2 ある入力とその出力の組み合わせを標本集合として、任意の入力に対する予想される出力の確率分布を算出する。 確かに統計学そのものだな。
637 名前:デフォルトの名無しさん [2015/12/28(月) 14:41:52.54 ID:hapOlNNk.net] 学習率って層ごとに調整するもんなの?
638 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 18:40:33.76 ID:LQhT2Npj.net] 次のネタはよ
639 名前:デフォルトの名無しさん [2015/12/28(月) 19:08:22.13 ID:Tv7p0+sL.net] Atsushi Sakai @Atsushi_twi ライブラリをPyPIに登録したので、pip install googleearthplot でインストールできるようにした: Google Earth上にグラフを簡単に描画できるPyt… myenigma.hatenablog.com/entry/2015/12/…
640 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 22:17:32.34 ID:tSsPkQt+.net] ロト6のあたりって機械学習で高確率で的中させることできないの?
641 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 22:22:06.39 ID:nt3wxAiS.net] 乱数だから無理でしょう
642 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 22:22:26.28 ID:IkyXhPUO.net] できなるなら誰かやってるw
643 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 22:22:36.85 ID:nt3wxAiS.net] 競馬なら見込みありそう
644 名前:デフォルトの名無しさん [2015/12/28(月) 22:27:41.63 ID:xJsi9dPf.net] GLSLがふらふらしてるからnvidiaが独自規格進化させてくんだよな
645 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 22:28:37.79 ID:IkyXhPUO.net] >>630 同じこと思ったw
646 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 22:39:30.56 ID:6T2MnD1Y.net] CUDAやOpenCLがあるのにいまさらGLSLでやる奴なんかいねぇw
647 名前:デフォルトの名無しさん mailto:sage [2015/12/28(月) 23:54:04.75 ID:tSsPkQt+.net] >>630 競馬でもいいけど重賞狙いで 勝率7割いけそう?
648 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 09:03:24.07 ID:U+V51oit.net] 馬鹿が必死w
649 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 15:24:18.85 ID:P6FaZS/T.net] 日本の競馬は控除率高いから無理 控除のない香港競馬か、ブックメーカー式でオッズの下がらないイギリス競馬なら儲けられるかも
650 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 16:20:53.15 ID:iXhVoJjn.net] じゃあバイナリーオプションは?
651 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 16:26:28.03 ID:vp5l4bpQ.net] >>636 日本で買えんの?税金は?
652 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 18:34:20.63 ID:0OYEY9AS.net] 入力パラメータとして何を使うの?
653 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 18:44:20.58 ID:TKQIKlFa.net] お馬さんで暮らしてる人は、その日の馬の体調や興奮度合い、毛艶が重要って言ってた もちろん過去データも重要だけど、力を100%発揮できるかどうかが重要なんだって
654 名前:デフォルトの名無しさん mailto:sage [2015/12/29(火) 18:58:35.99 ID:aJvrR+4g.net] >>637 クオンツトレードするならバイオプより、普通の市場 バイオプは、カジノみたく証券会社との勝負だから稼ぎすぎるとアカウント止められる >>639 過去の時系列データでいいと思う
655 名前:デフォルトの名無しさん mailto:sage [2015/12/30(水) 11:20:11.90 ID:FOybMCZk.net] へーみんな結構高度なことしているのね
656 名前:デフォルトの名無しさん mailto:sage [2015/12/30(水) 11:32:28.48 ID:cW7DRrYW.net] totoでDL使って上手くいってるってどっかのサイトで
657 名前:デフォルトの名無しさん mailto:sage [2015/12/30(水) 23:40:55.63 ID:RCH2rw3r.net] aial.shiroyagi.co.jp/2015/12/word2vec/ chainerがGPU使っても思ったより遅い やっぱtensorflowの方がいいのかねえ
658 名前:デフォルトの名無しさん mailto:sage [2015/12/31(木) 10:06:24.68 ID:AY7KRUed.net] テンソルって何?
659 名前:デフォルトの名無しさん mailto:sage [2015/12/31(木) 13:12:56.65 ID:6ZwKk7rF.net] >>644 word2vecの実装が違うだけ 本家以外は単なるサンプル それ見てライブラリ同士の速度差だと思っちゃう時点でこっちの世界に向いてない ちなみに単独GPUではテンソルフローはくっそ遅い あれはGPUクラウド前提だから
660 名前:デフォルトの名無しさん [2015/12/31(木) 15:01:42.69 ID:3vN1+9vc.net] クラウド前提ってつまり糞ってことだろ
661 名前:デフォルトの名無しさん mailto:sage [2015/12/31(木) 15:04:24.51 ID:6ZwKk7rF.net] じゃあTITAN4枚刺し程度でチマチマやってればいいよ あっという間にそんな程度じゃ何も学習できなくなるから
662 名前:デフォルトの名無しさん mailto:sage [2015/12/31(木) 15:31:52.83 ID:mqCdG3MZ.net] ディープラーニングは完全に札束で殴る世界だから、個人戦なら別の土俵の方がいいと思うけどね
663 名前:デフォルトの名無しさん [2015/12/31(木) 19:03:14.84 ID:3vN1+9vc.net] 別の土俵ってなに
664 名前:デフォルトの名無しさん [2015/12/31(木) 19:57:35.64 ID:CR0rWf5B.net] 門外漢で悪いんだか、ディープラーニングによる画像認識てどの程度にものなんだ?ディープラーニングを利用してCTやMRIの画像診断てどの程度で可能なんだ?
665 名前:デフォルトの名無しさん mailto:sage [2015/12/31(木) 22:17:51.16 ID:i29G/u5n.net] >>651 確かGoogleが人工知能のコンテストで位置関係を含めた画像認識(ex. hat on a dog, 等)の大会で95%以上出してた(すまん、記憶に自信ない)し、 2014年の春にはFacebookが顔認識で97.53%(人間と互角)をたたき出してる。 ただ、まだ発展途上だし誤認識もあるから、現状はあくまでも補助としてなら役立つかも。(見落としチェック等) 何万枚もの画像データで学習させる必要があるから、そのうち大規模に病院と連携する企業が現れないかと思っている。あくまで私が思ってるだけだが。 長文スマソ
666 名前:デフォルトの名無しさん [2015/12/31(木) 22:29:21.22 ID:3vN1+9vc.net] 医用画像処理は金かかってる分野だからもうやってるだろう
667 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 09:45:17.04 ID:jOxKmjAB.net] 意外と反発があるんじゃない? 職が無くなる、とか
668 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 09:59:06.28 ID:NyAncdiT.net] と言うか、ミスがあった時にプログラマの責任がどうなるかが気になるところ。 自動運転とかも、何万件も事故ったらプログラマの責任?って思うと怖い
669 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 11:49:01.86 ID:pFQdixxO.net] でも自動運転って今の段階ではまず高速道路で有効な技術だろ 責任がどうとか保障がどうとか以前に、高速道路で事故ったら死ぬんだぞ
670 名前:デフォルトの名無しさん [2016/01/01(金) 15:06:05.05 ID:/G9sGytX.net] 医用画像処理は医者に匹敵してれば使うって分野だから
671 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 20:27:22.01 ID:tlGU01R9.net] まあ人間でも同じ程度にはミスあるからいいんじゃねとは思うけど、 世間的にはどうだろうね。
672 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 21:41:12.23 ID:SR45kccS.net] 情報に限らずエンジニアって、動いて当たり前の減点方式で世間から評価されるから辛いよなあ。
673 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 21:43:03.24 ID:DpH1qtEO.net] ぶっちゃけ医用画像処理は教師データ集めるのが鬼門
674 名前:デフォルトの名無しさん [2016/01/01(金) 23:54:27.20 ID:/G9sGytX.net] 鬼門っていうかもう既存業者しかやれないように法改正されちゃったから新規参入できん
675 名前:デフォルトの名無しさん mailto:sage [2016/01/01(金) 23:56:12.74 ID:SR45kccS.net] まじで? ソース欲しい
676 名前:デフォルトの名無しさん [2016/01/01(金) 23:59:01.72 ID:/G9sGytX.net] 1960年に制定され約50年が経過していた従来の薬事法が、「医薬品、医療機器等の品質、有効性及び安全性の 確保等に関する法律(以下、医薬品医療機器等法)」と改正され、2014年11月25日に施行される。 従来はソフトウエア部分のみでは薬事法の規制対象とならず、ハードウエア部分に組み込んだ形で規制していたが、 欧米との国際整合も踏まえ、ソフトウエアを単体で流通することを可能とし、「医療機器プログラム」として 規制対象となることとなった。 この改正のインパクトは大きく、少なからず影響を受ける企業も多いことから施行までのわずかな期間の動向を 注視する必要がある。 そこで本連載『11.25薬事法改正――「ソフトウエア」はどうなる』では、単体プログラムの取扱いに関する 厚生労働科学研究班;医療機器に関する単体プログラムの薬事規制のあり方に関する研究 研究代表者の菊地眞氏 (医療機器センター 理事長)に、医薬品医療機器等法の規制対象となるプログラムはどのようなものか、 規制対象となったプログラムはどのような手続きが必要かなどについて示してもらう。 (以下省略) https://archive.today/E4WDV ■受験資格 医師、獣医師、歯科医師、または理系大卒で既に医療機器製造販売の免許を持つ企業(東芝や日立、富士フイルムなど)での実務経験3年以上があるもの。 製造販売の免許申請には上記を満たす者が3人以上必要。 名義貸しは禁止。
677 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 03:36:49.53 ID:onI2UJFj.net] 画像診断は一番有用有望だと思うな あくまで医師が全部見るのが前提だけど、 コンピューターも同時に全画像を見ることで医師の見落としを拾い上げられるかも 生成系は苦手だけど認識は得意だし ガンなんかで写るぼんやりとした影だけでもピックアップできるようにはな
678 名前:驍ヘず [] [ここ壊れてます]
679 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 05:07:32.47 ID:p9EpDgFg.net] 欧米との国際整合ってダメなとこ見習ってどうするんだ
680 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 07:16:10.83 ID:O0D/ggNy.net] 何も関係ないけど、高校の自由研究(1年間かけて論文を作る課題)で、 DNNチックなものを実装したコンピュータを更にニューロンみたいに扱ったら、 人間で言うところの「知らない」
681 名前:アとを人に聞くみたいな感覚でもっと難しい問題を解けて便利なものが作れるかな、 と考えてやってみたら、通信量が凄くて学校のネットワークの一部を落としたことを思い出した。 どうすれば良かったんだろう。根本的に無理があるのかな? [] [ここ壊れてます]
682 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 07:49:41.34 ID:h7qcKowt.net] 既存の医療機器メーカーは画像診断の分野にディープラーニングを突っ込んでいるのかな 国内だと富士フイルムとかオリンパスとかテルモとか 国外だとJ&JやGE、シーメンス 国外のほうが強いし 進んでいるだろうな
683 名前:デフォルトの名無しさん [2016/01/02(土) 07:56:41.71 ID:xYXCrfm4.net] Baiduの音声認識とかがRNNの損失関数に使ってるCTCって、 入力と出力の数の差は、スペースで置き換えて埋めてるって認識でおk? 入力より出力のほうが多い場合、解決できないってことだよね。
684 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 11:32:55.68 ID:XLcEsM1y.net] 医用画像はMRIならまだいけるだろうが、病理じゃまだまだ遠い話だな
685 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 18:29:04.83 ID:LK3/d6P7.net] 人によって違うんだろうけど、あかん、俺の場合GPUはあかん TITANなんかでもメモリが12Gしかないのは少なすぎる 中間層は数千ぐらいまで増やしたいのに2000あたりでもうメモリエラー
686 名前:デフォルトの名無しさん mailto:sage [2016/01/02(土) 18:47:31.51 ID:p9EpDgFg.net] もっと課金しよう
687 名前:デフォルトの名無しさん mailto:sage [2016/01/03(日) 10:17:16.20 ID:YZDc7m3f.net] DNNガチャ
688 名前:デフォルトの名無しさん mailto:sage [2016/01/03(日) 12:09:44.19 ID:K+ss0pfU.net] >>670 今年GPUのメモリ32GBまで増えるから後半年我慢しなよ
689 名前:デフォルトの名無しさん mailto:sage [2016/01/03(日) 14:26:26.62 ID:F9hbAH74.net] >>670 ちなみにどういうネットワークでやってるの?
690 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 10:33:16.61 ID:zpDhAVzD.net] >>674 いたって普通のchainer
691 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 13:57:49.49 ID:aF0kBQvd.net] >>675 CNNですか?層の深さと各ユニット数はどんな感じ? GPUがダメならCPUで計算してるの?
692 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 14:13:25.31 ID:7bH4D1Hq.net] >>666 伝説作ったな。 後は偉業を達成するだけか?
693 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 15:13:39.68 ID:zpDhAVzD.net] >>676 CNNも使っていなくて層はせいぜい3ぐらいまでの 今のところ2000ちょっとあたりまでかな CPUでやるしかないけど、この際JAVAやC++のライブラリを使ってみようかと
694 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 16:50:18.41 ID:UQyFG7Oy.net] nd4jでdnn書いたことある人いる?
695 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 19:50:53.71 ID:jp1KtVTt.net] >>653 画像処理は100%人間を超えている。疲労もなく延々見続けることができる上、どんな些細な変化でも見ることが出来る。 なぜ実装されないのかはまぁ、いつもの既得権益とかだろう・・・ って思ってたら別の切り口で実装されるかも。レントゲンすら取らなくていいらしい。尿検査でガンが分かるんだって 人工知能と医療 がん研究に“革命” www3.nhk.or.jp/news/web_tokushu/2016_0103.html
696 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 20:43:30.83 ID:mKJ6s0Ma.net] >どんな些細な変化でも見ることが出来る これ短所なんだよなぁ 既得権益云々より偽陽性を弾けない 腫瘍の診断レベルならまだしも他の疾病マーカーはまだ人力の診断に勝てない
697 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 20:46:03.26 ID:aF0kBQvd.net] >>678 なんか根本的に間違ってると思うよ 2012のGoogle猫認識みたいに1万レベルのCPUクラスタ使うならともかく、 普通の人が手持ちのCPUでTaitanですら収まらないネットワークを学習してまともなモデルができるわけが無いよ 1万年ぐらいかかるんじゃない
698 名前:lットワークは?に「普通のchainer」って答えるあたり… >>680 リンゴとかシマウマを認識するのとはわけが違う そういうのは発展途上国や低所得の人間を大量に使ってラベル付けした正解データがあったからDNNでブレークスルーしただけの話 ドクターの画像診断は正解データを揃えるのが大変すぎるからそんなすんなりいかない 前も書いたけど「ぼんやりとした影」みたいなのを検出するのは今でも出来るはず [] [ここ壊れてます]
699 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 21:25:59.20 ID:jp1KtVTt.net] >>681 ,682 それはそのまま患者に返さなくていいのでは? あるブログで、機械学習で数年分の気温を学習させたところ、ある日に1000度行ったって結果がありました。しかしそれ以外は大体あっている。 URLは忘れましたが、年に二回飛び抜けて気温が高い時期のグラフがありました。 そういうだいたい危険な注意報を、医者が再確認するシステムができればいいと思います。 なんだったら研修生以下の医学部生や、本人の同意があればネットに公表してもいいと思います。 と思いましたが、現実的に無理だったらすいません。 できるだけ苦しまず、例え末期がんでも精神的になんらかの救済処置があればいいな、と思いレスさせていただきました。
700 名前:デフォルトの名無しさん [2016/01/04(月) 23:26:55.55 ID:ooGMsO2x.net] GPUとアルゴリズムの進化を待った方が良い
701 名前:デフォルトの名無しさん mailto:sage [2016/01/04(月) 23:42:25.27 ID:O1teGQFD.net] >>682 >そういうだいたい危険な注意報を、医者が再確認するシステムができればいいと思います。 昔からあるAIの応用の目標の一つ、サンプルレベルならいっぱいあるはず
702 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 00:35:07.73 ID:WmL/JmIH.net] 診断と天気予報を一緒くたにするとか「大体あっている」のレベルで診断に使うとか それで実用されないのは既得権益のせいとか言ってしまう そもそもそういう部分が逆撫でしてくれる
703 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 00:39:46.72 ID:6OGV1jFC.net] 癌なら疑わしいのレベルで精密検査すればええやないの
704 名前:デフォルトの名無しさん [2016/01/05(火) 00:45:56.79 ID:eUGyXOEJ.net] 例えば、MLのモデルで70%の正答率でも医師の診断基準との合議制で90%までいけば有益なのでは?
705 名前:デフォルトの名無しさん [2016/01/05(火) 01:04:09.29 ID:kZWqPdiD.net] 検査の統計処理は医療でさんざんやられてることだから機械学習で議論することじゃない
706 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 01:45:14.48 ID:nA6EWt+2.net] 面接で使えないかね 顔写真やプロフィールから、1年以内で辞める可能性の高い新卒をはじく
707 名前:デフォルトの名無しさん [2016/01/05(火) 01:46:27.20 ID:kZWqPdiD.net] 企業の選考はなぜか検出器を直列に繋いでるので信頼度が低下してる 並列で繋ぐべきだ
708 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 02:02:51.37 ID:bKMIisOn.net] 人間の判断は適合率が高くて、DNNは再現率が(このまま順調に伸びれば)高い なので人間が見落としたのを洗いざらい見て「ガンかもしれないのでもう一度見て」って提案する こんな感じで医療の現場には根付くと思う あくまで全件人間が見るのが前提 >>689 まあそうなんだけどDNNで一番進んでるのは物体認識系だからガン診断とかには絶対有望じゃん 自動運転あたりが今は注目されてるけど人間の生死に関わるところに
709 名前:機械学習が貢献するのは夢がある [] [ここ壊れてます]
710 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 10:11:03.70 ID:yViwPYXt.net] 医療への応用で問題になるのは問題が起きた場合誰が責任をとるのかということ 自動車の自動運転ではようやく法的責任の議論が始まったところ
711 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 12:15:02.85 ID:0R/x+K8o.net] 「道路の白線を認識して、道から外れそうになっても自動でハンドルを操作して道に戻す技術」をテレビで見た時に「道に斜めに白線引いて崖から落とせそう」とか思った。
712 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 12:37:48.57 ID:nP/joZyQ.net] 癌が有るか無いかだけでなく どこにどんな大きさのどの程度の進行具合の癌が有るかが治療には必要じゃねーの? 癌の有無だけなら血液や尿検査で分かるようになるかも知れない 治療の面だとどの抗癌剤がどの程度効果があるかとか今は手探りみたいだし
713 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 12:39:10.50 ID:nP/joZyQ.net] >>694 GPSとか他の情報も使うだろう 自動運転の一つの要素技術じゃね?
714 名前:デフォルトの名無しさん mailto:sage [2016/01/05(火) 12:53:25.84 ID:obWQh19X.net] 人は知識と経験を積んで、予想外の例外にも演繹で対応できる点が優れ、 機械では当面追いつけないないと思う。 むしろ>>695 氏の言うように、過去の病歴や生活パターンから注意点を導いたり 健康管理で一人一人の健康レベルの底上げをはかり、社会に寄与できると思う。
715 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 02:32:20.19 ID:sR20wUY6.net] 悪性腫瘍の診断では、人間の診療放射線技師より上だそう。 教師データは診療放射線技師が作成。 ディープラーニングの肺がん検出率は人間より上、スタートアップの米Enlitic techon.nikkeibp.co.jp/atcl/column/15/425482/122400073/
716 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 07:48:02.26 ID:iTSdr/2d.net] tensorflow 何か凝ったことしようとするとC++のコード書かないといけないみたいだけど そんな話題になるほどすごいの? Sec2Secは良くできてるというのは見た でもそれをちょっと改造とか簡単に出来ないようにわざとしてない? そのためにC++必須になってるでしょ
717 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 09:01:15.50 ID:lsW5ZHIj.net] 必要ならC++のコード書けばいいじゃん…
718 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 11:29:03.99 ID:k/EYRH1D.net] >>699 スクリプト言語しか書けないのが異常だから
719 名前:デフォルトの名無しさん [2016/01/06(水) 19:00:17.75 ID:ytcJhMv2.net] kaggleの株の問題、全然歯がたたない\(^o^)/ 相関が高そうな系列同士で周期とか分散をFeatureで回帰した状態空間なんだろうか。
720 名前:デフォルトの名無しさん [2016/01/06(水) 21:10:28.38 ID:8fQ2QgwP.net] BackPropって計算が非線形だから苦しいんだけど・・・ 事前学習してるのに多層だと誤差が減っていかない・・・
721 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 21:14:45.25 ID:CT8NBJL6.net] そこで転移学習ですよ
722 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 22:54:42.91 ID:lsW5ZHIj.net] >>703 何を今更 w
723 名前:デフォルトの名無しさん [2016/01/06(水) 23:05:39.83 ID:Jr2tfpvm.net] このスレの人は普段どういう環境で仕事や研究してるの?マシンスペックや言語晒してください。 自分専用のはwin7 64 16gb corei7 3.6Ghzだったかな? あと、サーバーは、、、よく覚えてないが、メモリは1テラあった気がする。
724 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 23:06:11.51 ID:CSSATOB0.net] 線形か非線形かは誤差の減少という観点で見るなら本質的な部分じゃない そんな発言するのは何も
725 名前:わかってないからだろう [] [ここ壊れてます]
726 名前:デフォルトの名無しさん [2016/01/06(水) 23:09:52.39 ID:8fQ2QgwP.net] え?何の話?
727 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 23:35:37.39 ID:ZkA7CQKn.net] いや何の話ってあんたが言い出したことだろうに・・・
728 名前:デフォルトの名無しさん mailto:sage [2016/01/06(水) 23:42:19.64 ID:k/EYRH1D.net] たまに出てくるツッコミ所満載の書き込み、味わい深い
729 名前:デフォルトの名無しさん [2016/01/07(木) 00:30:50.55 ID:eforQfo6.net] >>709 >線形か非線形かは誤差の減少という観点で見るなら本質的な部分じゃない 意味がわからないんだけど。 線形回帰なら厳密解出せるし BackPropのコツ云々は全部非線形だから生じてる問題なわけで
730 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 01:02:45.43 ID:+tDbaGUk.net] 線形だと単層と同じになっちゃう
731 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 01:35:03.91 ID:3W4TUIrV.net] 大抵の問題では誤差からしてすでにほぼ非線形なんですが・・・
732 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 05:24:17.00 ID:FwQlPiGy.net] >>706 コーディングはMac、深層学習機はUbuntu14.4 980ti メモリ32G CPU8スレッド CUDA7.0 Ubuntu14.4が一番楽
733 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 06:39:42.50 ID:UuGU9Ruz.net] いつのまに Ubuntu 14.4 が出たんだw
734 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 07:48:27.88 ID:mMyFA9di.net] 14.04LTSと予想
735 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 14:36:13.95 ID:FwQlPiGy.net] はい>>716 です、すいません
736 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 18:15:49.18 ID:gwiVtHRa.net] 学習させる分野によってはいろいろと変わってくるものだな 画像以外を扱うときはよく言われていることを一度全部忘れたほうがいいと思う
737 名前:デフォルトの名無しさん [2016/01/07(木) 21:04:05.30 ID:eforQfo6.net] >>713 誤差が非線形って? 確率密度関数が非線形って意味? 当たり前じゃん
738 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 21:27:36.52 ID:wxG0+LQJ.net] 初学者で今ニューラルネットワークの実装を行っているところなのですが 論理演算のような2入力2出力などの簡単な分類は成功するのですが 入力50次元出力3次元の教師データ5000サンプルを学習させると 結合の重みが学習を重ねるごとに大きくなってしまい,どのサンプルを入力しても同じ出力を出してしまいます 本を参考に作ったのですがこれは何が原因でしょうか?
739 名前:デフォルトの名無しさん [2016/01/07(木) 21:40:14.58 ID:eforQfo6.net] BackPropはコツがいろいろあるよ。学習係数は調整した? ウィキペディアに載ってるノウハウは試した?
740 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 21:55:15.09 ID:wxG0+LQJ.net] >>721 ありがとうございます 目から鱗な情報がたくさんありました 一つ一つ試してみようと思います
741 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 22:00:30.20 ID:QdppxSxV.net] 過学習起こしてるから、なんか工夫しないと ドロップアウトとか
742 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 22:45:44.11 ID:wxG0+LQJ.net] >>721 >>723 教師データが一通り訓練し終わったらシャッフル 非線形関数をシグモイド関数からアークタンジェント関数に変更 時間とともに学習係数を小さくする(手抜きで一通りするごとに×0.95) 試しにこれだけやってみたところ期待した出力に近いものが得られるようになってきました ただ学習回数,学習係数,学習係数低下具合の手探り感が否めません
743 名前:デフォルトの名無しさん [2016/01/07(木) 22:53:07.41 ID:eforQfo6.net] 実際、提案されてよく使われてるのなんかも経験則だから手探りだよ。 非線形最適化だから量子コンピュータでもないとまともに解けない。 ついでに乱数の質がいいもの使わないと誤差の収束悪くなるよ。 C標準のrand()なんかじゃ駄目。俺はメルセンヌツイスタ使ってる。
744 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 23:20:44.71 ID:aiGbFH0T.net] あほと言っていいですかw
745 名前:デフォルトの名無しさん mailto:sage [2016/01/07(木) 23:27:06.06 ID:QdppxSxV.net] 収束は確率的最適化だから最適解に落ちていくから少し違うような どんな乱数使ってもオートエンコーダ使えばあまり関係ないような
746 名前:デフォルトの名無しさん mailto:sage [2016/01/08(金) 00:42:49.27 ID:tl8xR71t.net] 乱数の選び方は関係がある ただそれはメルセンヌツイスタがどうとかそういう話ではない 良い乱数を使うべきなのはもちろんそうだが、メルセンヌツイスタ使ってるからいいとはならない
747 名前:デフォルトの名無しさん mailto:sage [2016/01/08(金) 01:15:23.15 ID:Jxm/dn3x.net] 乱数をどういう分布からサンプリングするのかとどうやって生成するかって話を混同してるのか
748 名前:デフォルトの名無しさん [2016/01/08(金) 01:17:24.58 ID:yzqusPMF.net] いやもちろん一様分布生成器使ってるよ
749 名前:デフォルトの名無しさん mailto:sage [2016/01/08(金) 16:10:06.89 ID:N/KCc9Ka.net] CNNの層を増やすとテストデータでの精度どころかの学習時精度も下がるんだけど、なんでか分かる?
750 名前:デフォルトの名無しさん [2016/01/08(金) 16:43:16.95 ID:zcJ6neBq.net] 増やしたから
751 名前:デフォルトの名無しさん mailto:sage [2016/01/08(金) 17:07:06.05 ID:N/KCc9Ka.net] >>732 学習時の精度に限ったら多層化すればするほど上がるんじゃないの?
752 名前:デフォルトの名無しさん [2016/01/08(金) 17:54:22.92 ID:zcJ6neBq.net] ,一-、 / ̄ l | / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ■■-っ < んなこたーない ´∀`/ \__________ __/|Y/\. Ё|__ | / | | У.. |
753 名前:デフォルトの名無しさん mailto:sage [2016/01/09(土) 00:21:22.71 ID:KXJBMPU3.net] >>733 増やしたせいで妙なところにハマるようになった可能性はある 学習率と更新アルゴリズム(adadeltaとか)いろんなのためしてみ まあ一番可能性高いのはプログラムが普通に間違ってる可能性だけど
754 名前:デフォルトの名無しさん mailto:sage [2016/01/09(土) 00:34:21.06 ID:du0v5r2E.net] >>735 単純に層を減らすだけでちゃんと精度出るし、ライブラリそのまま使ってるからプログラムのミスはないと思うんだよなー まぁ色々試してみるよ
755 名前:デフォルトの名無しさん [2016/01/09(土) 00:34:55.80 ID:m4wt8FId.net] なんかBackPropagationのノウハウって不毛だよな 数年で線形に計算するアルゴリズムとか出てきてまったく無駄な時間だったとかいうオチになりそうな気がするんだが
756 名前:デフォルトの名無しさん mailto:sage [2016/01/09(土) 00:47:55.63 ID:kKwNEXY7.net] >>737 凄くありそうな話だ…
757 名前:デフォルトの名無しさん mailto:sage [2016/01/09(土) 10:03:02.24 ID:+BpbuzYQ.net] ここ数十年の歴史がある手法だし、そう簡単に代替の最適化法は出ないと思うけどな 深層学習なんてブレークスルーがあっても結局ここは変わらなかったわけだし
758 名前:デフォルトの名無しさん [2016/01/09(土) 18:17:27.57 ID:E/l3PJ8y.net] ニューラルネットまともに研究してるのって12年まで数人しかいないような感じだったろ Reluすらここ数年の発見だぞ。 今大人数でやってるから何か出てくるはず
759 名前:デフォルトの名無しさん mailto:sage [2016/01/10(日) 07:44:12.97 ID:dQt1Hchi.net] 囲碁が線形時間で解けるようになるのか 胸熱
760 名前:デフォルトの名無しさん mailto:sage [2016/01/10(日) 09:39:32.29 ID:6FYaebZe.net] えっまさかここまで線形非線形って計算量の話してたのか
761 名前:デフォルトの名無しさん [2016/01/10(日) 15:11:23.23 ID:bO2IMzi7.net] 最適化問題の話だろ
762 名前:デフォルトの名無しさん mailto:sage [2016/01/12(火) 21:20:59.99 ID:oJ6op4Zb.net] tensorflowを入れるためにcuda7.0を入れると 最新のcuda7.5を要求してくるchainerとかtheanoとかが動かない 両方同時に入れる方法ってないの?
763 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 00:21:19.49 ID:IbWogyX9.net] >>744 単に使うライブラリによってbashrcかzshrc書き換えればいいんで?
764 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 01:38:22.73 ID:zB5KRQYf.net] Ubuntuだとcudaのバージョンと ビデオカードのドライバーのバージョンが連動してるっぽくて ビデオカードドライバをアンインストールしてから 依存してるの全部入れ直しでないと cudaのバージョンを変えるのは無理だった
765 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 04:30:25.72 ID:yyIIAuOa.net] 少なくともchainerは7.0でも動くよ 自分は昨日まで7.0(chainer1.5.1)だったし cudaのバージョン上げた後にchainerとか入れ直せばいいんじゃないの? 諸々のパスが7.0に通っちゃってるとか
766 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 07:22:25.17 ID:kIHFq87L.net] シンボリックリンクの切り替えだけですんでる。Ubuntu 。
767 名前:デフォルトの名無しさん [2016/01/13(水) 17:40:04.95 ID:kHMkKQa5.net] 新しい活性化関数を提案したい。 max(x,0),max(-x,0) メリット 一層でXORを再現できる デメリット 次元が二倍に増える どうだろうか
768 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 18:13:43.95 ID:twlUNPRq.net] それ使って何がどう改善するかデータ出してよ
769 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 19:09:37.85 ID:437R9N6L.net] Pythonできればok?
770 名前:デフォルトの名無しさん [2016/01/13(水) 22:07:19.14 ID:sXZPU7qa.net] BackPropagationって次元が極端に減ると誤差が減りすぎて3層でも学習できなくなるね
771 名前:デフォルトの名無しさん mailto:sage [2016/01/13(水) 23:16:51.38 ID:8GevA0ZU.net] バックプロパゲーションとニューラルネットワークの区別がついてないのか? 次元って入力か、出力か、それとも中間層か、または別の何かか、何のことを指してるんだ? 誤差が減りすぎて学習できないってどういうことだ、過学習のことか? 突っ込みどころ満載の書き込みだな
772 名前:デフォルトの名無しさん mailto:sage [2016/01/14(木) 01:29:31.26 ID:CM03Glhu.net] LSTMってどのくらいまで過去の情報をまともに送れるんだろうか 普通のRNNだとせいぜい10個前までぐらいとかって話だよな
773 名前:デフォルトの名無しさん mailto:sage [2016/01/14(木) 07:42:55.15 ID:TgIr2H1t.net] ReLUじゃん
774 名前:デフォルトの名無しさん [2016/01/14(木) 10:28:34.79 ID:93s51rCV.net] "確率場の効率的な学習と深層学習への応⽤” https://dl.dropboxusercontent.com/u/2048288/MRFandDeepLearning.pdf
775 名前:デフォルトの名無しさん [2016/01/14(木) 13:10:13.58 ID:fElPatd7.net] BackPropのパラメータを調整するための機械学習が要る
776 名前:デフォルトの名無しさん [2016/01/14(木) 21:21:26.62 ID:etZ7bF2i.net] >>750 >>755 1層で中間層2層分と同じ意味になる。 層数が増えるほど効果的になる。 次元が倍増してもGPUの並列演算が効く部分だから計算コストは低い。
777 名前:デフォルトの名無しさん mailto:sage [2016/01/15(金) 20:16:44.40 ID:fxHJAHpE.net] 能書きはいいからデータはよ
778 名前:デフォルトの名無しさん [2016/01/16(土) 08:18:52.41 ID:V2p9xp2m.net] theano chainer tensorflowのどれが残ると思う? chainerはかきやすいけど自動微分できずCuPy必要なのがイマイチ。コスト関数いろいろ変えたくならないか?
779 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 09:47:22.19 ID:R/8YhVXO.net] クーパイとか実際どうなん? 餓鬼が作ったおもちゃとしか思えないから使いたくないんだが
780 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 10:15:27.00 ID:EHt3hjpu.net] 百度の奴が一番実装しっかりしているな
781 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 12:18:21.07 ID:sXBd/ebB.net] >>760 tensorflow が消える理由はない theano も地味に残りそう
782 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 12:36:30.42 ID:76yOwdvT.net] >>760 chainer で独自function定義できないと思ってんの?
783 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 12:43:55.78 ID:V2p9xp2m.net] >>764 微分とかcupyで書かないとダメ
784 名前:ナ無い?あれすごく分かりにくいと感じた。 [] [ここ壊れてます]
785 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 12:55:56.60 ID:22mrJkDc.net] tensorflow をやっておいて損はないわな
786 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 12:58:44.71 ID:76yOwdvT.net] >>765 cupy って numpy みたいなもんだから大体の人は書きやすいと思ってたけどそうでもないのか theano より断然デバッグはしやすくないか?
787 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 13:07:48.04 ID:Ll7CF2U2.net] >>760 どれも使い分けされて競合することないと思うけどな Chainerも圧倒的に使うの楽だしなんだかんだで便利だよ
788 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 13:12:36.25 ID:lj00Ywg+.net] chainer は日本以外での普及がなぁ
789 名前:デフォルトの名無しさん [2016/01/16(土) 15:36:20.87 ID:omMXCgMA.net] caffeだろ
790 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 15:43:08.50 ID:e9hOGD
] [ここ壊れてます]
791 名前:Z7.net mailto: caffe とかもはや老害だろ 作者もcaffe 2とか作ってるみたいだし [] [ここ壊れてます]
792 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 15:52:28.90 ID:FbxPjmex.net] moca java
793 名前:デフォルトの名無しさん mailto:sage [2016/01/16(土) 18:35:46.57 ID:2XASmdUW.net] >>767 微分とかを自分で書く場合はわかりづらいってことなんじゃない
794 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 12:43:09.38 ID:6j3fV90E.net] chainerって自動微分入れるのむずかしいのかね。対応しないのかな
795 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 14:31:09.88 ID:guCgfQYL.net] 1.5 のバタバタを見てると、計画があったとしても手がまわらんのかもな
796 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 14:33:49.93 ID:guCgfQYL.net] >>771 caffe 2 の情報どこかで見れる? 検索したけど見つからんかった
797 名前:デフォルトの名無しさん [2016/01/17(日) 14:40:51.00 ID:vfyLb+El.net] caffe2ってpythonだけ? windowsのc++版は出てないのかな
798 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 14:59:32.92 ID:oTJwcFE9.net] caffe2 なら github にあるけど experimental refactoring という位置づけだね。様子見かな
799 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 15:03:24.09 ID:kn17nWsB.net] ここにいるのって使う人ばっかり? 実装する人いないの?
800 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 15:16:39.99 ID:cIvno/PI.net] theano の上の実装程度ならやってる人、わりといるでしょ スクラッチから実装するという意味なら… 大変だろ。車輪の発明してる時間はないなぁ
801 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 16:06:05.50 ID:5uScZvps.net] DNNは誰でも一度はスクラッチから書いたことあるだろうし書いたほうがいいけどそれ以降は使う側に回る人がほとんどだろう
802 名前:デフォルトの名無しさん [2016/01/17(日) 17:53:08.96 ID:vfyLb+El.net] weightのノルムって1に規格化しちゃってよくない?
803 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 18:00:30.75 ID:raTF+e/Z.net] Keras
804 名前:デフォルトの名無しさん mailto:sage [2016/01/17(日) 18:04:19.48 ID:cIvno/PI.net] >>783 興味はある。使ったことある人、感想よろしく
805 名前:デフォルトの名無しさん [2016/01/17(日) 20:22:21.41 ID:DJ30uIYd.net] >>779 言語何がいい。
806 名前:デフォルトの名無しさん [2016/01/18(月) 01:18:59.24 ID:/V8e0KtI.net] chainer1.5でptbのexampleを動かしてみて、rnnlm.modelとrnnlm.stateができたんだけど この後、このmodelを使って文章を生成するのどうすればいいのか・・・。。
807 名前:デフォルトの名無しさん mailto:sage [2016/01/18(月) 07:06:50.71 ID:c9V3kn+N.net] それは文生成モデルじゃないから PTBが何なのか調べたほうがいい
808 名前:デフォルトの名無しさん [2016/01/18(月) 20:42:01.33 ID:ugjmk8Iq.net] テキスト分類をニューラルネットで学習させようとしています。 テキストを単語分解して、TFIDFで抽出し、 単語ベクトル、文書行列を作成しました。 ここから次元削減を行いたいのですが、 1、新しいテキストを分類するとき、すでに作っておいた単語表から単語ベクトルを作る (新しいテキストの新単語は無視する) 2、1で生成した単語ベクトルも次元削減したい ここの2は可能なのでしょうか?
809 名前:デフォルトの名無しさん mailto:sage [2016/01/19(火) 07:01:16.13 ID:XNSTJlZO.net] 可能 オーソドックスなのはPCAで置き換える方法とか
810 名前:デフォルトの名無しさん [2016/01/19(火) 11:51:38.63 ID:1sEBIR6V.net] >>789 変換行列を作りました。 ありがとうございます。
811 名前:デフォルトの名無しさん [2016/01/20(水) 00:12:53.65 ID:+yogzAz0.net] SOMはweightのノルムとbiasが求められねぇ・・・
812 名前:デフォルトの名無しさん [2016/01/20(水) 06:08:28.02 ID:YTP575Ne.net] Q学習(Q-learning)。ロボットなどの最適行動価値関数Q∗(s, a)のQ値を推定する ことで強化学習を実現することをQ学習という。TD誤差(時間差誤差)があるが Q学習の基本的なアルゴリズムではそれを少なくする。 https://twitter.com/mujinbot/status/556768507015081984/phot
813 名前:o/1 [] [ここ壊れてます]
814 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 11:00:46.11 ID:j5XnniOL.net] Chainerは微分をmaximaに丸投げしてはどうか ついでに積分も出来るようになるぞ
815 名前:デフォルトの名無しさん [2016/01/20(水) 12:25:43.90 ID:k28JCubs.net] コーヒーっぽいな
816 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 14:03:52.56 ID:sjX69Jo+.net] caffe と maxima 言いたいだけやろw
817 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 15:43:26.34 ID:1IXhyM66.net] tensorflow ってモバイル単体で動かしたり、分散コンピューティングしたりができる以外にあるメリットって何?
818 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 15:43:38.25 ID:1W/CM/tZ.net] ジェイソンぽいな
819 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 21:56:34.07 ID:6EhXycD9.net] >>796 企業で研究開発やってる立場で言うと、google がやってることが最大のメリット。 猫も杓子も手をだすからなw 必死に勉強してるよw
820 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 22:01:15.54 ID:VEqEVZ63.net] 機械学習を使えばネコの感情わかるようになると 聞いたのですがどうやって実現しているのでしょうか?
821 名前:デフォルトの名無しさん [2016/01/20(水) 22:05:55.25 ID:+yogzAz0.net] googleがやってるからって所詮BackPropだからなあ コツとかが実装されてんだろうけど
822 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 22:10:49.77 ID:xReAMz0b.net] スカイネットができるのかwkwk
823 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 22:12:53.74 ID:q9MExdhv.net] 機能は関係ないんだろw 素人に近いお客さんに tensorflow の話題を振られたりする
824 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 22:56:54.07 ID:YNTp5hgV.net] >>800 tensorflow はディープラーニング専用ではなくね?
825 名前:デフォルトの名無しさん mailto:sage [2016/01/20(水) 23:07:50.01 ID:sjX69Jo+.net] 汎用的なプログラミング・モデルだね
826 名前:デフォルトの名無しさん [2016/01/21(木) 00:36:36.29 ID:7xiub3fY.net] GTMって制限ボルツマンマシンに似てるね
827 名前:デフォルトの名無しさん mailto:sage [2016/01/21(木) 21:18:38.39 ID:tTqWH9QI.net] Kerasはchainerの半分以下のコード量で書けるっぽい
828 名前:デフォルトの名無しさん mailto:sage [2016/01/21(木) 22:03:12.74 ID:lGEVeE7/.net] chainer 最新版の example 、ユーザーがコスト関数指定しなくてもいいようになってるけどこういう方向性でいくのやめて欲しいなー
829 名前:デフォルトの名無しさん mailto:sage [2016/01/21(木) 22:05:10.18 ID:bNvxCE+j.net] >>806 ほう、確か theano を使うんだったかな pylearn 2 の置き換えになるかしらん
830 名前:デフォルトの名無しさん mailto:sage [2016/01/21(木) 22:10:40.40 ID:bNvxCE+j.net] >>807 どういう方向性かいまいち分からん ちょっと遊ぶにはいいけど… 良くも悪くも tensorflow みたいにはっきりさせて欲しい
831 名前:デフォルトの名無しさん mailto:sage [2016/01/22(金) 17:46:57.50 ID:p+HTUGh3.net] tensorflowってはっきりしてたっけ?
832 名前:デフォルトの名無しさん [2016/01/23(土) 01:36:18.72 ID:Px1yRzhT.net] BackPropって次元削減とクラス分類を兼ねちゃってるけど、もしかしてこの二つって別物?
833 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 02:32:42.89 ID:vldTtkgK.net] この前から基礎すら全くわかってないっぽい書き込みを繰り返してる方と同一人物? ちゃんとした本で一から勉強しましょうとしか言えない
834 名前:デフォルトの名無しさん [2016/01/23(土) 02:36:13.70 ID:Px1yRzhT.net] それは読解力が無いからだよ
835 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 05:33:14.55 ID:xKdLgq07.net] >>812 同一だと思う。用語や語尾の使い回しが独特で 自分勝手というか、人の仕事を尊重しないタイプだろうと
836 名前:デフォルトの名無しさん [2016/01/23(土) 07:31:23.08 ID:ihC5YuLf.net] 「深層学習」を入力した場合の世代ごとのルビ。アンチが好きらしい https://twitter.com/odashi_t/status/689053408506941440/photo/1
837 名前:デフォルトの名無しさん [2016/01/23(土) 07:41:08.83 ID:ihC5YuLf.net] Lasagneで実装したフォント生成深層学習器。これは素晴らしい! "Analyzing 50k fonts using deep neural networks" erikbern.com/2016/01/21/analyzing-50k-fonts-using-deep-neural-networks/ …
838 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 09:22:22.62 ID:qNd1b9QA.net] >>813 うわあ…
839 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 11:23:37.79 ID:pptwD8AG.net] >>816 日本語フォントで実験してみてくれないかなw
840 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 13:47:17.02 ID:ffdYlo//.net] >>816 たしかに文章生成は難しくても画像生成ならできるんだから使い道ありそう 同様に音の生成も何かいけそう
841 名前:デフォルトの名無しさん [2016/01/23(土) 17:05:49.51 ID:NBYJS2Oe.net] ディープラーニング用の画像認識に使える タグ付の画像データセットあれば教えてください 手書き文字はもう秋田(´・ω・`)
842 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 17:18:14.98 ID:EOwJcbgH.net] 手書き文字なんて実装が合ってるかどうか確認する用途でしかないのに飽きるってなんやw
843 名前:デフォルトの名無しさん mailto:sage [2016/01/23(土) 19:12:40.77 ID:yHkf2zBL.net] 文字認識の研究ってもう終わった?
844 名前:デフォルトの名無しさん mailto:sage [2016/01/24(日) 07:38:50.07 ID:fcPgv1G+.net] ディープラーニング用のデモアプリに手書き文字認識しか無いのは 調整できる職人がヒジョーに限られており開発リソースが足りないから
845 名前:デフォルトの名無しさん mailto:sage [2016/01/24(日) 07:51:16.81 ID:mATXEynE.net] そうなの? 機械学習のタスクとしては最易なのかと思った>>文字認識
846 名前:デフォルトの名無しさん [2016/01/25(月) 21:01:08.25 ID:aTZGDjn+.net] ニューラルネットは一層でも万能なのに、なぜ深層構造になると性能が向上するのか。 深層学習の数理構造を、積分表現を用いて考察する。|産総研人工知能セミナー 第2回「機械学習の理論的側面」via @AIResearchAIST https://unit.aist.go.jp/airc/docs/seminar02-sonoda.pdf …
847 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 02:17:37.37 ID:775Z/4vK.net] 時系列で変化する周期性の持たない物を学習させるならどうしたらいいだろう。 ホワイトノイズと滝, さざ波を識別したいのだけど。
848 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 13:46:14.60 ID:tcLt6n0X.net] 周波数分析するだけでよくね?
849 名前:デフォルトの名無しさん [2016/01/26(火) 16:17:43.41 ID:uiSF3xHA.net] 1/fゆらぎがあるかも
850 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 16:49:46.19 ID:Ca+pJQ5w.net] 変化検知の定石じゃあかんのか
851 名前:デフォルトの名無しさん [2016/01/26(火) 19:16:20.08 ID:cWXceYKL.net] GoogleとUDACITY、「TensorFlow」で学ぶディープラーニング講座を開設 www.itmedia.co.jp/news/articles/1601/22/news109.html
852 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 20:53:35.90 ID:1VUp8yZp.net] >>830 tensorflow の勢いは凄いのぉ
853 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 21:24:02.07 ID:1xg2f7ix.net] 日本語なら受講してみたいがw
854 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 23:33:09.64 ID:2+ZrxltX.net] googleが入ってくるといつか完全にその分野のデファクトになる気がするけど、Facebook もAI とかやってるんだしなんとか頑張ってほしいなー
855 名前:デフォルトの名無しさん [2016/01/26(火) 23:33:49.31 ID:ntC1xxUO.net] 周期性ないものって学習できない 適当な大きさで区切って走査したのを入力データにすれば
856 名前:デフォルトの名無しさん mailto:sage [2016/01/26(火) 23:37:32.60 ID:59njPnhF.net] できたらIEEEに投稿できるかな
857 名前:デフォルトの名無しさん [2016/01/27(水) 13:34:21.38 ID:zaBGIbEn.net] >>833 twitterもやってくれ。
858 名前:デフォルトの名無しさん [2016/01/27(水) 13:38:53.29 ID:zaBGIbEn.net] >>834 トポロジカル・データ・アナリシスでできないかな?
859 名前:デフォルトの名無しさん [2016/01/27(水) 14:21:24.54 ID:w+Yx2MjY.net] 未来永劫現れないデータからどう予測しろというのか
860 名前:デフォルトの名無しさん [2016/01/27(水) 15:35:06.60 ID:dRLs7OVG.net] ディープラーニングを企業で使おうと思うと教師データセットを収集するのが大きな障壁だな データはあっても正解ラベルの付与なんかやってられないだろ
861 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 16:11:23.99 ID:uhsaU6Ia.net] 手動で30000枚ラベル付けたことある
862 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 18:20:0
] [ここ壊れてます]
863 名前:5.14 ID:1MMS4NBn.net mailto: 1日あったら意外と何万枚もできる [] [ここ壊れてます]
864 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 18:31:02.52 ID:iQ3nwyf1.net] 今どきは自分でラベル付けしなくてもクラウドソーシング利用する手もあるな 数万枚でも数百円くらいでやってくれそう
865 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 18:35:05.78 ID:JGNyaenZ.net] 業務の知識を要したり、人の判断が必要な分類作業なんかは 現場の人を巻き込まないとダメだと思う。 さらに機械の出力を評価する際もそういう人の協力を要す。ギブ&テイクで、やり方次第。
866 名前:デフォルトの名無しさん [2016/01/27(水) 19:18:33.38 ID:CGPlvGNG.net] 企業データだと機密性の問題で クラウドソーシングも難しいと思う 顧客のデータならなおさら
867 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 22:07:30.40 ID:1MMS4NBn.net] 今、実現できる可能性は十分あって、かつ個人でやってもお金になりそうな使い道を思いついた ガチだからここでは言わない
868 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 22:28:47.99 ID:4sOOU/nk.net] 内容は言わなくても思いついたことは言ってしまうというw ま、頑張れ。
869 名前:デフォルトの名無しさん mailto:sage [2016/01/27(水) 22:44:26.20 ID:6xBpuoPU.net] ピカー
870 名前:デフォルトの名無しさん [2016/01/27(水) 23:51:02.15 ID:0/2pw5fO.net] >>825 もう終わってるのか 再放送してほしい
871 名前:デフォルトの名無しさん [2016/01/28(木) 06:14:22.09 ID:P3HFscaE.net] 勾配法において、勾配にあたる部分が最低限満たしていないといけない性質から導きたい | 劣微分を用いた最適化手法について(3) Preferred Research https://research.preferred.jp/2010/12/subgradient-optimization-3/ …
872 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 09:24:08.68 ID:Z/+yqFpQ.net] Googleの子会社が作ったソフトで欧州王者に囲碁で買ったみたいだな tensorflowで学習したのかな どうやって学習するのか判る? 将棋の場合は自分が勝つ見込みを数値化した出力にしてやれば良さそう これの教師信号は過去の棋譜でのその局面以降の勝率とかかな 入力は9*9に各コマの種別に応じた値を入れるのか?
873 名前:デフォルトの名無しさん [2016/01/28(木) 09:25:31.71 ID:U957Q0hG.net] >>825 周波数空間をウェーブレットにかけるとなぜニューラルネットになるんだ?
874 名前:デフォルトの名無しさん [2016/01/28(木) 09:33:35.57 ID:U957Q0hG.net] ああラドン空間か
875 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 11:48:21.17 ID:YUaIlReA.net] パターン認識と機械学習 15000円 ザケンナ
876 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 12:05:28.36 ID:zpKFG6zC.net] そういう本は経費で落としてもらうか図書館利用して読むもんだぞ
877 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 12:09:54.36 ID:DZhtYt2e.net] >>850 ttps://storage.googleapis.com/deepmind-data/assets/papers/deepmind-mastering-go.pdf
878 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 12:13:36.70 ID:zpKFG6zC.net] 今度のUEC杯でFacebookも参戦するんだっけ
879 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 12:34:30.07 ID:ueprLhUj.net] >>850 今回の囲碁のやつに関しては素人が簡単に構築できるようなnnではない気がするなー
880 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 12:40:48.31 ID:DZhtYt2e.net] >>856 ttp://jsb.cs.uec.ac.jp/~igo/participant.html Facebook側がキャンセルしなければ出るみたいだね。 ただ、AlphaGoと世界上位の李世石の対局が3月8日〜15日に対して UECは3月19日、20日、エキシビションマッチがアマ強豪相手だから 注目をさらわれそうだけど
881 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 14:37:15.05 ID:3g7r8Xgp.net] 真にランダムな過程に対してパターン認識を実施したらどうなるのだろう? 最近これが気になりすぎている それっぽい判別機はできるだろうけど対して性能良くない結果になりそう 現場レベルでも起きてる問題だと思う お前の解析対象乱歩ジャネーノ?みたいな
882 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 15:28:25.93 ID:StSA17TY.net] 真にランダムな過程、ポエムを学習してもしょうがないw
883 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 17:04:55.10 ID:qrmGk5HX.net] >>859 汎化したらランダムになる 過学習したら役に立たない
884 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 19:00:22.96 ID:+iPwmPlA.net] Kerasバグが多すぎじゃないか?
885 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 19:14:23.21 ID:PN1Mg9OW.net] ランダムなものを「判別」する「性能」ってどういうことなの
886 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 20:06:35.00 ID:+iPwmPlA.net] kerasのgraphモデルはfitで学習させても 学習した結果が初期値のままで まったく学習してないことが頻繁になる 動くgraphがかなり限定される squenceモデルなら動くのだろうか?
887 名前:デフォルトの名無しさん [2016/01/28(木) 20:54:30.99 ID:GmiUcu0o.net] 入力データがランダムなら学習データもランダムだ
888 名前:デフォルトの名無しさん mailto:sage [2016/01/28(木) 22:04:59.79 ID:BQQFgg8V.net] 推定パラメータのp-valueが大きくなって収束しない 統計解析のソフトウェアだと警告が出て終了だね
889 名前:デフォルトの名無しさん [2016/01/29(金) 06:20:52.18 ID:QC7uYWR6.net] 統数研ゼミ DeepLearningの最上層をGP(ガウシアン過程)にした論文の紹介 パターン認識とGPが融合されGPだけと比較して高い精度が出る。 DeepLearningの応用の広さを再認識した。 arxiv.org/abs/1511.02222
890 名前:デフォルトの名無しさん mailto:sage [2016/01/29(金) 06:45:56.76 ID:NSRfucc8.net] くだらねー
891 名前:デフォルトの名無しさん mailto:sage [2016/01/29(金) 13:21:05.44 ID:kgk9V9Du.net] 重箱の隅をひたすらつつくだけw
892 名前:デフォルトの名無しさん mailto:sage [2016/01/29(金) 13:49:45.08 ID:WoUmweSq.net] 昨今のDL界隈は web 業界のJavascriptフレームワーク合戦と同じ匂いがする。
893 名前:デフォルトの名無しさん mailto:sage [2016/01/29(金) 14:50:52.14 ID:5bQl4pp6.net] 第3次AIブームに乗っかれw
894 名前:デフォルトの名無しさん [2016/01/29(金) 15:28:09.24 ID:z+Toa6ZN.net] 面白い人が面白いことをする 面白いから凡人が集まってくる 住み着いた凡人が居場所を守るために主張し始める 面白い人が見切りをつけて居なくなる 残った凡人が面白くないことをする ← 今ココ 面白くないので皆居なくなる
895 名前:デフォルトの名無しさん mailto:sage [2016/01/29(金) 16:53:42.39 ID:lN6clvDS.net] >>872 笑えねぇ、そういう感じだな
896 名前:デフォルトの名無しさん [2016/01/29(金) 22:13:08.66 ID:XCJAeCmV.net] 独立変数を増やして近似制度を上げても汎化能力が上がらず 従属変数を増やすと汎化能力が上がるのはなぜなのか
897 名前:デフォルトの名無しさん mailto:sage [2016/01/30(土) 09:32:21.77 ID:xLWsGgUq.net] 近似精度が下がっているから
898 名前:デフォルトの名無しさん mailto:sage [2016/01/30(土) 18:15:01.76 ID:IXaDdTGN.net] >>872 資本主義が失敗だと言いたいのか? 共産主義者め
899 名前:デフォルトの名無しさん mailto:sage [2016/01/30(土) 18:33:31.32 ID:RcmsM/va.net] なんだこいつ
900 名前:デフォルトの名無しさん mailto:sage [2016/01/30(土) 22:56:36.84 ID:brXOm3I9.net] NNが一手間加えてDNNになったようにSVMになんか施されて大復活ってありえると思う? NNは取っつきやすくて研究が盛んだけどSVMはそうでもなくまだ可能性があると個人的には思うんだけど
901 名前:デフォルトの名無しさん mailto:sage [2016/01/30(土) 22:59:36.96 ID:qtSahhRD.net] stochastic vector machine かw
902 名前:デフォルトの名無しさん mailto:sage [2016/01/30(土) 23:14:12.74 ID:xLWsGgUq.net] カーネル系のことなんじゃね? 津田あたりが以前やってたやつ
903 名前:デフォルトの名無しさん [2016/01/31(日) 02:30:10.80 ID:9WK7tCVY.net] SVMは線形分離可能において最強
904 名前:デフォルトの名無しさん [2016/01/31(日) 13:07:56.15 ID:voWQ
] [ここ壊れてます]
905 名前:oFzP.net mailto: データサイエンティストってどうやったらなれるの? [] [ここ壊れてます]
906 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 13:30:01.55 ID:salOcuJU.net] >>882 ググれもしないお前には無理だ
907 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 14:31:54.87 ID:3FuTlZER.net] 京大のトンデモ論文はここでは話題になっていないの? 第2の小保方的な
908 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 16:32:28.65 ID:pefR5aAS.net] kerasでxor学習できないのは何故?
909 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 16:33:13.29 ID:DcuuZRJZ.net] >>882 自分で言い張ればオーケー
910 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 16:40:55.56 ID:6OcGz3ue.net] >>885 使い方がおかしいからじゃね?
911 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 16:58:57.99 ID:p55vsyx0.net] データサイエンティストがこれから10年以内に消える理由3つ negative.hateblo.jp/entry/2013/05/10/174047
912 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 18:25:36.31 ID:d3QvGQc6.net] >>884 kwsk
913 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 21:38:43.27 ID:3/SJcwSb.net] 人間がパラメータ調節しないとうまく動かないニューラルネットワークがあれば「これからは人間いらなくなる」と連呼している人達が労働者の給料下がると得する人達ばかりな謎
914 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 22:01:05.55 ID:TPgo+9VG.net] 自動生成した文章かな?
915 名前:デフォルトの名無しさん mailto:sage [2016/01/31(日) 22:11:35.46 ID:asiRlDEQ.net] ワロタ
916 名前:デフォルトの名無しさん mailto:sage [2016/02/01(月) 03:07:40.47 ID:2VMpgIMC.net] >>885 https://github.com/fchollet/keras/issues/112 xorという2次元しかない関数の学習に10万回の繰り返しが必要というのが どうも納得いかない chainerとか他でやっても同じなんだろうか
917 名前:デフォルトの名無しさん mailto:sage [2016/02/01(月) 08:13:21.01 ID:aZAJRAwR.net] >>884 「正答率100%」になってしまう機械学習モデルの例を挙げてみる ttp://tjo.hatenablog.com/entry/2016/01/27/235620
918 名前:デフォルトの名無しさん [2016/02/01(月) 15:18:34.25 ID:OrJmu/Cl.net] 入力データに線形変換をかけるごとに、徐々にデータが線形に乗りやすくなっていくような変換をかけたいのですが、どうしたらよいでしょうか?
919 名前:デフォルトの名無しさん mailto:sage [2016/02/01(月) 17:15:13.13 ID:MQ8Sek+q.net] >>889 江谷典子という人だよ
920 名前:デフォルトの名無しさん [2016/02/02(火) 06:50:14.42 ID:XTPzswVm.net] >>884 >>889 >>896 おばはんやないか? https://kyouindb.iimc.kyoto-u.ac.jp/cgi-bin/picture.cgi?sid=zL5tF
921 名前:デフォルトの名無しさん [2016/02/02(火) 12:10:46.51 ID:ujfaVkXr.net] SG-MCMCにフィッシャー行列のオンライン推定での条件付け、 モーメンタム重みのパラメータ毎の推定をつけた最適化手法Santa(12/25に登場) は興味深いが、まだ再現できない。 arxiv.org/abs/1512.07962 https://github.com/hillbig/chainer/blob/santa/chainer/optimizers/santa.py …
922 名前:デフォルトの名無しさん [2016/02/02(火) 18:33:30.54 ID:36RHHQd0.net] 情報論的学習理論と機械学習 (IBISML) › Fwd: {q-bio:719} ワークショップ「数理・インフォマティクスとバイオ工学の接点」(2016/3/19@東大生産研) https://groups.google.com/forum/?utm_source=twitterfeed&utm_medium=twitter#!topic/ibisml/RMs8h8V_CIA 👀 Rock54: Caution(BBR-MD5:1777ba470a0705a8ff6b3177e04ccfb6)
923 名前:デフォルトの名無しさん mailto:sage [2016/02/03(水) 04:22:12.02 ID:MxNa0LDV.net] うーん、あんまり精度に効いてこないのね
924 名前:デフォルトの名無しさん [2016/02/03(水) 06:14:49.59 ID:wSpDwbrq.net] “Chainerで学ぶLSTM - kivantium活動日記” htn.to/dtCoA8Wk8Y4
925 名前:デフォルトの名無しさん [2016/02/03(水) 06:50:03.63 ID:MxNa0LDV.net] >899 のワークショップは >872 でいうところの >住み着いた凡人が居場所を守るために主張し始める だな
926 名前:デフォルトの名無しさん mailto:sage [2016/02/03(水) 07:42:23.33 ID:TLMg6nn2.net] >>899 難しそう
927 名前:デフォルトの名無しさん mailto:sage [2016/02/03(水) 09:14:10.49 ID:TXUepsJB.net] Theanoがopenclで動くようになれば3万円ぐらいのradeonで10万のgtx980と同じ計算出来るようになるのに
928 名前:デフォルトの名無しさん mailto:sage [2016/02/03(水) 13:24:10.88 ID:DJpC5knw.net] >>902 同意せざるをえない
929 名前:デフォルトの名無しさん [2016/02/03(水) 21:23:03.47 ID:QsEixpu0.net] 蓋を開けてみれば単純な仕組みだが 簡単な答えにたどり着くまでが、長い
930 名前:デフォルトの名無しさん mailto:sage [2016/02/04(木) 01:40:45.90 ID:Djg+hzd1.net] >>888 「サイエンティスト」って肩書が気に食わないだけで 統計技師がすたれる理由がひとつも書いとらんな
931 名前:デフォルトの名無しさん mailto:sage [2016/02/04(木) 03:00:13.29 ID:KDEGkFg1.net] タイトル詐欺もいいとこだし内容もゴミだな
932 名前:デフォルトの名無しさん mailto:sage [2016/02/04(木) 10:09:24.66 ID:DGOTrBOL.net] >>907 失礼した
933 名前:デフォルトの名無しさん [2016/02/04(木) 20:46:43.05 ID:0No04piQ.net] Sparkって流行りそうですかね
934 名前:デフォルトの名無しさん mailto:sage [2016/02/04(木) 21:45:32.13 ID:1mOcAYKj.net] >>910 知らんけどもう流行ってんじゃね?
935 名前:デフォルトの名無しさん mailto:sage [2016/02/05(金) 00:21:30.60 ID:Tmx3N/L2.net] >>910 っつうか、普通に流行ってるし メーリングリストも活発。日本人も多い
936 名前:デフォルトの名無しさん mailto:sage [2016/02/05(金) 03:51:09.00 ID:RsoRNN+J.net] 中古ラデオン買い占める Openclのtheano公開 ヤフオクでラデオン売りまくると儲かるんじゃね
937 名前:デフォルトの名無しさん [2016/02/05(金) 23:37:19.14 ID:rbeOacaW.net] OpenCLってcudaに負けてない?
938 名前:デフォルトの名無しさん [2016/02/06(土) 19:21:29.51 ID:lAvzEQZf.net] イラストで学ぶ ディープラーニング KS情報科学専門書 www.e-hon.ne.jp/bec/SA/Detail?refBook=4-06-153825-X&Sza_id=MM
939 名前:デフォルトの名無しさん mailto:sage [2016/02/07(日) 12:23:15.80 ID:0nOHiyWS.net] ゴミ
940 名前:デフォルトの名無しさん mailto:sage [2016/02/07(日) 15:25:45.07 ID:fu54F6yL.net] >>913 5970 でも役にたつかね?
941 名前:デフォルトの名無しさん [2016/02/08(月) 20:59:29.91 ID:+XNCHFQL.net] ディープラーニングで顔写真から巨乳かどうかを判別してみる (うまくいったか微妙) qiita.com/summer4an/items/db0124eee8103c1d3b85 …
942 名前:デフォルトの名無しさん mailto:sage [2016/02/08(月) 21:12:25.71 ID:TXhCuXYg.net] 教師データだけ見せるよw
943 名前:デフォルトの名無しさん [2016/02/08(月) 21:50:19.63 ID:NGlxCRO7.net] AV女優って豊胸ばっかだから学習データ自体が間違ってる
944 名前:デフォルトの名無しさん mailto:sage [2016/02/08(月) 23:30:15.82 ID:lhSKWD63.net] こういうネタ多すぎて飽きてきた感が…
945 名前:デフォルトの名無しさん mailto:sage [2016/02/09(火) 00:57:12.65 ID:m+lJuCgV.net] アニメ顔とかな ほんとつまらん
946 名前:デフォルトの名無しさん mailto:sage [2016/02/09(火) 17:17:25.56 ID:a+cfVjJ9.net] その分類が合っている可能性が高いかどうかを分類するモデルを作ってみたが特に正解率は上がらず
947 名前:デフォルトの名無しさん mailto:sage [2016/02/09(火) 17:29:40.13 ID:umxvMERm.net] 自分の性格とマッチして結婚がうまくいくことを顔から判定できようにしてほしい
948 名前:デフォルトの名無しさん [2016/02/10(水) 18:42:54.75 ID:CzKEjsGr.net] VAEやIWAEなど変分下限最大化によるの各手法はR\'enyi Divergenceのαを 変えた場合として統一的に扱える(α=1がVAE, α=0がIWAE)。 αを変えた場合に変分誤差が変わってくるが最適値はまだ不明 arxiv.org/abs/1602.02311
949 名前:デフォルトの名無しさん mailto:sage [2016/02/10(水) 20:55:54.35 ID:LD2Pe5wK.net] 論文読む余裕がほしい
950 名前:デフォルトの名無しさん [2016/02/11(木) 01:08:41.87 ID:IZlQ0Gme.net] XORって双曲線関数をフィッティングするんじゃあかんの?
951 名前:デフォルトの名無しさん mailto:sage [2016/02/11(木) 01:49:17.57 ID:vykPEV4E.net] >>927 XORである事を知ってるから双曲線関数で上手くいくと判るけど通常はどんな関数で判別できるか判らない
952 名前:デフォルトの名無しさん [2016/02/11(木) 02:01:56.99 ID:IZlQ0Gme.net] >>928 全ての次元の相関を計算して次数が1のものだけとったとしたら双曲線関数になるから良さそうに思うんだけどなあ
953 名前:デフォルトの名無しさん mailto:sage [2016/02/11(木) 02:15:09.80 ID:vykPEV4E.net] >>929 例えば手書き文字認識でも同じ方法で判別出来る? 対象データにどう言う特徴があるかを知識として知らないのが前提 またはどう言う処理をすればあらゆるケースでも特徴を表現できるか判ればそれを利用するのは可能 画像処理で何が写っているか判別するために特徴量を計算するとか
954 名前:デフォルトの名無しさん mailto:sage [2016/02/11(木) 02:15:14.28 ID:CFX8OC6p.net] そんなに自信があるなら定量的に評価して発表すればいいのに
955 名前:デフォルトの名無しさん [2016/02/12(金) 06:53:05.67 ID:Ghw7plWJ.net] ディープラーニングで実現する「眠らない工場」 https://zuuonline.com/archives/96999
956 名前:デフォルトの名無しさん [2016/02/12(金) 09:03:41.60 ID:EEb61SEy.net] アホな見出しだな 工場は基本24時間操業
957 名前:デフォルトの名無しさん mailto:sage [2016/02/12(金) 21:36:56.28 ID:k32v2fHp.net] そりゃ違うだろ。ベテランが活躍する工場は24Hは無理だった。そういう人材を今後どうするかは今、 日本の企業を悩ます課題。古くからのナレッジマネジメントは受け皿となる人が必要で解決にならない。 すでに企業の中には人の作業を機械で代替し始めてるし、コールセンターのようなマニュアル化が 進んでる業務は機械で務まってる。 今後、どこまで機械が人を代替できるか分からないけど、生き残りをかけた企業は貪欲に 機械化を進めるよ。人でなきゃできない業務は何だろう。
958 名前:デフォルトの名無しさん [2016/02/12(金) 22:14:02.86 ID:4LtLrOyy.net] 属人的工場ってちっさい産業の軽工業みたいなやつだろ。
959 名前:デフォルトの名無しさん [2016/02/13(土) 00:24:32.95 ID:iuLQEWGA.net] 機械学習入門買ったけどむずすぎワロタ
960 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 00:29:59.65 ID:H7gLEpR+.net] ロジスティック回帰ってなんやねん
961 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 01:24:10.91 ID:hyNgtIiy.net] ぐぐれ
962 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 06:06:12.35 ID:Q1I5m5ZN.net] 基本中の基本やないか…
963 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 11:48:59.28 ID:mr21t2s3.net] 自動化出来るのは企業だけじゃないけどな 料理レシピとか 最後は貨幣なしで食物生成まで行くんじゃないか
964 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 15:07:42.61 ID:OBBu50Kv.net] >>940 人件費とかは無くなるとしてもエネルギー代とか保守費用は無くならないからゼロではできない
965 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 15:20:09.05 ID:yrXXv0Lc.net] インダストリー4.0が今きてますw
966 名前:デフォルトの名無しさん [2016/02/13(土) 15:34:25.11 ID:V/La43UN.net] 通貨が消えたら経済効率おちまくりやな
967 名前:デフォルトの名無しさん mailto:sage [2016/02/13(土) 16:05:28.05 ID:4eqYGcYI.net] 素性ベクトル ← ?? 説明変数 ← なーんだ 本を読むとよくある
968 名前:デフォルトの名無しさん [2016/02/14(日) 02:17:42.52 ID:rSDl8vUt.net] 生産量が消費量を超えてるなんて話は九十年代のことで 今の工業技術に求められてる事は効率化やないで
969 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 02:32:16.64 ID:hsAttVjM.net] 機械学習・データマイニングとは少し違うのかもしれないが、 俺のやりたいことはMCMCなどのほうが向いてる気がしてきた PyMCの情報少ないなぁ
970 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 02:45:05.89 ID:VnYL3taU.net] MCMCのコードなんて自分で簡単に作れるぞ
971 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 03:14:27.39 ID:hsAttVjM.net] そもそもMCMC自体をよく分かっていないというのがある たぶん俺が今から勉強始めたら1ヶ月コース
972 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 07:18:30.56 ID:80E0keZq.net] 人工無能とか作ってみるといいんじゃね?
973 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 08:22:54.34 ID:0YcTXDCy.net] MCMCおれもわかんね
974 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 10:21:28.45 ID:uDy1EjVd.net] MCMC1ヶ月で理解できるのかすごいな
975 名前:デフォルトの名無しさん [2016/02/14(日) 11:38:59.12 ID:z5Y+5DpA.net] ディープラーニングで森の中を迷わずに自律飛行できる遭難救助ドローン smar.ws/edlAN
976 名前:デフォルトの名無しさん [2016/02/14(日) 13:05:22.78 ID:rSDl8vUt.net] 今ってニューラルネット以外は下火になってんの?
977 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 18:25:10.98 ID:AmMVfQkr.net] まあ相対的に下火とはいえるんじゃないか。 ニューラルネットはバブルだし。
978 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 20:35:24.50 ID:fL+qkvIk.net] 「MPL 深層学習」に手書き文字のオートエンコーダで ・中間層の活性化関数:ReLu ・スパース項:KL距離 でやった学習結果の中間層のフィルタ一覧が乗ってるんだが ReLuの活性化関数って値域が1を越えるからKL距離計算できないはずですよね? 誰か何かわかる方助けてください...
979 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 21:17:39.06 ID:GpCAj9te.net] tensorflowのshapeってなんでしょうか?また、どこかで解説しているサイトはないでしょうか https://www.tensorflow.org/versions/v0.6.0/api_docs/python/array_ops.html#shapes-and-shaping
980 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 21:49:16.02 ID:Roklo+Jp.net] >>955 その本読んだことはないけど 計算に使ってるの一般化KLダイバージェンスじゃないの それなら制約が外れてるから問題ない
981 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 21:51:19.02 ID:KyLDZFaE.net] >>956 2×2×3次元って事じゃね
982 名前:デフォルトの名無しさん [2016/02/14(日) 21:52:47.28 ID:KICXfOQZ.net] RNNの教師データって何を正解とするんでしょうか? 例えば音声認識の時、 サンプリングしたその時々の時間系列の音素が正解? でもそんなのいちいち正解データ作るのめちゃくちゃ大変じゃないですか?
983 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 21:58:55.56 ID:GpCAj9te.net] >>958 なるほど、次元数だけ取っていたんですね。 何かの行列の計算をしているのかと思って狼狽してました。 助かりました、ありがとうございました。
984 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 22:06:26.38 ID:fL+qkvIk.net] >>957 ありがとうございます 調べてみたら一般化kl距離なら計算できそうなので実装して動きをみてみます
985 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 22:25:44.55 ID:GpCAj9te.net] 機械学習(主にtensorflow)を勉強しています。 最終的には、人工知能を作り、色々なものを自動生成したいと思っています。 しかしそれは敷居が高そうなので、自動生成で音楽や効果音、アイコン画像などを自動生成できるシステムを作り、フリーゲームやwebでの小物の生成ができればいいな、と思っています。 (個人的には効果音が作りたいです。非常に供給が少ないのです) 私の経験は以下の状態で、上記の何かを作れるようになりたいと思っています。 オススメのお題や、次は○○をするべきという指標や、勉強したほうがいい分野などはありますか? ・linux+GPGPUでtensorflowを動かしています(gtx750Ti)。 ・linuxとpythonは触り始めて半年ほどです。 ・mnistをじっくり読んだり、↓のような自動生成を動かし
986 名前:ワした。基本的に面白そうなものが多いです。 http://qiita.com/rezoolab/items/5cc96b6d31153e0c86bc http://orientalrobotics.blogspot.jp/2015/08/rnn-aka-deepdazai.html http://qiita.com/sergeant-wizard/items/9bb45c0850aebca2bc07 ・RNNで自分の書き込みを学習させてみましたが、微妙な結果でした(2番目のリンクのdeepdazaiに近いですが、句読点などの特徴はよく出ていました) ・php、javascript: サイトは幾つか作っています。速度を求めなければ何でも作れ(る気がし)ます。 ・C#: .NETでツールを少し書ける程度です(ファイルのリネームや整理など) ・今はtensorflowのリファレンスを最初から読み進めているところです。 https://www.tensorflow.org/api_docs/python/index.html 抽象的な質問ですいません。 良ければ今後の勉強方針などを教えて下さい。 [] [ここ壊れてます]
987 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 23:05:26.85 ID:ACc49rnX.net] web系の出身です。 センサー読みで時系列、実数の配列があります その先の(近い将来の)数値を予測したいのですが 何を勉強すればいいのかキーワードだけでも 教えて頂けませんか?
988 名前:デフォルトの名無しさん mailto:sage [2016/02/14(日) 23:28:01.44 ID:lWy40SWD.net] 線形回帰w
989 名前:デフォルトの名無しさん [2016/02/15(月) 00:18:08.54 ID:S4K6cQ/3.net] >>963 畳み込みニューラルネット
990 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 00:21:30.22 ID:sVQuR2ZS.net] ありがとうございます。 勉強してきます
991 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 01:19:34.99 ID:/Ot6Yei0.net] いや、>>965 は違うから そもそも機械学習じゃない。適当なこといってんなー
992 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 02:37:25.76 ID:sVQuR2ZS.net] 随時予測し誤差から学習していって 予測の精度を高くさせるとか出来ませんか? 数学的アプローチのアルゴリズムではなくて良いのです
993 名前:デフォルトの名無しさん [2016/02/15(月) 02:45:06.95 ID:S4K6cQ/3.net] だから畳み込みニューラルネットでいい >>967 がうそついてるだけ
994 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 03:09:58.71 ID:TcSAeExH.net] そういうのをやるのが今どきの機械学習だよw
995 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 03:14:02.53 ID:f+RbFRxC.net] 質問は何言ってるのかわからないし、回答もめちゃくちゃだし酷いな >>963 はどう考えてもRNN一択でしょ
996 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 03:18:39.24 ID:f+RbFRxC.net] >>959 音声はよく知らないが、音素は重複して入力されるけど与える正解(出力も)は一つにするらしい こういうふうに入力と出力が対じゃない場合はCTCでやるとか
997 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 03:26:38.80 ID:Csm4SzwN.net] >>971 時系列だけで言ってるな、IoT とか経験してないでしよ
998 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 03:51:41.56 ID:f+RbFRxC.net] まずRNNでしょ そこやってから精度突き詰めるなら畳み込みやってみるのも一つの手だし、 自然言語だと実際それで数ポイント上がってる論文もチラホラあるが いきなり畳み込みで時系列なんて手も足も出ないと思うんですよ
999 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 06:54:52.23 ID:t6vOGnGH.net] 一番難しくないのは前日と同じ値に予測する もう少し難しいのは前日と前々日で線形予測する もっと難しいのは前日と前々日と前々前日と・・・
1000 名前:デフォルトの名無しさん [2016/02/15(月) 10:16:05.06 ID:YtYQz5uP.net] 【第四回】今、最も熱いディープラーニングを体験してみよう enterprisezine.jp/article/detail/6471
1001 名前:デフォルトの名無しさん [2016/02/15(月) 10:22:11.18 ID:YtYQz5uP.net] binary netをchainerで実装し、 mnistだけ簡単に追試した。特に工夫もなく、 すんなり動いちゃいました。 いろいろ試してみてください。 https://github.com/hillbig/binary_net … arxiv.org/abs/1602.02830 GPU要らないかもしれない。
1002 名前:デフォルトの名無しさん [2016/02/15(月) 10:22:19.60 ID:7c0bWBnf.net]
1003 名前:重要なところが有料になっててみれん [] [ここ壊れてます]
1004 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 12:02:17.08 ID:vgiClEGt.net] >>977 日本語上手ですね^^
1005 名前:デフォルトの名無しさん [2016/02/15(月) 12:05:55.99 ID:7c0bWBnf.net] なにこの煽り
1006 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 17:23:51.81 ID:lxKAPY+O.net] ドロップアウトについて書かれた書籍が全然無いんだけど
1007 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 20:29:54.60 ID:sVQuR2ZS.net] ドロップアウトって、俺みたいな負け組の話?
1008 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 21:12:52.01 ID:IPCCeY0K.net] まあ、語源は間違ってないけど
1009 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 22:15:52.74 ID:cF+716lK.net] ドロップといえば佐久間
1010 名前:デフォルトの名無しさん [2016/02/15(月) 23:13:40.80 ID:/TiblLz7.net] ドロップアウトは深層学習の2冊の本どちらとも載ってるよ
1011 名前:デフォルトの名無しさん mailto:sage [2016/02/15(月) 23:59:10.54 ID:I97ctguZ.net] ネットで探せばいくらでも出てくるだろ 日本語サイトしか見ない病だとどうか知らんが
1012 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 04:39:59.58 ID:SlOt/Teb.net] ドロップアウトは青い深層学習本にも学会の方にも載ってるがな
1013 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 06:11:55.23 ID:OJ72SRWT.net] 表面的にしか使っていない人が多いのね
1014 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 10:06:38.53 ID:dfaDGBjB.net] 浅い知識
1015 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 11:54:35.56 ID:OHS4PN3k.net] >>984 節子 それちゃう
1016 名前:デフォルトの名無しさん [2016/02/16(火) 11:57:31.45 ID:zm3lOf20.net] 確率統計学の本でいいのおしえて
1017 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 12:58:09.73 ID:V8QUloOd.net] プログラミングのための確率統計
1018 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 14:02:10.97 ID:vj/nsupQ.net] 統計学入門
1019 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 17:34:42.13 ID:FaWa+y/O.net] 必読の論文を教えてください
1020 名前:デフォルトの名無しさん [2016/02/16(火) 19:23:09.60 ID:ZS4mvsmR.net] >>991 統計的学習理論 (機械学習プロフェッショナルシリーズ) 確率的最適化 (機械学習プロフェッショナルシリーズ)
1021 名前:デフォルトの名無しさん mailto:sage [2016/02/16(火) 23:32:20.47 ID:X2ACPnKP.net] >>991 https://www.stat.berkeley.edu/mediawiki/index.php/Recommended_Books
1022 名前:デフォルトの名無しさん mailto:sage [2016/02/17(水) 04:46:13.55 ID:lcb5E1iU.net] どうぞ 【統計分析】機械学習・データマイニング6 [無断転載禁止]©2ch.net peace.2ch.net/test/read.cgi/tech/1455651930/
1023 名前:デフォルトの名無しさん mailto:sage [2016/02/17(水) 10:10:42.56 ID:dbvc2ex7.net] 京大とか東大出の人がこれみよがしにブログでPRMLを解いていたりするのをみると 自分の頭の悪さを痛感する
1024 名前:デフォルトの名無しさん [2016/02/17(水) 11:22:49.63 ID:FSzcyrv6.net] >>998 頑張れ。 実務での利用がわからないからブログでプログラム、アルゴリズムを 書くことしかできない。というのも事実なんだけどね。
1025 名前:デフォルトの名無しさん mailto:sage [2016/02/17(水) 13:09:35.64 ID:LWIvU11Z.net] IEEEか難しいだろ
1026 名前:1001 [Over 1000 Thread.net] このスレッドは1000を超えました。 もう書けないので、新しいスレッドを立ててくださいです。。。
1027 名前:過去ログ ★ [[過去ログ]] ■ このスレッドは過去ログ倉庫に格納されています