[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2ch.scのread.cgiへ]
Update time : 04/12 02:26 / Filesize : 244 KB / Number-of Response : 1022
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

【統計分析】機械学習・データマイニング12



1 名前:デフォルトの名無しさん mailto:sageteoff [2017/01/21(土) 23:26:48.63 ID:nFM+9kDb.net]
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
ibisforest.org/
DeepLearning研究 2016年のまとめ
qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング11
echo.2ch.net/test/read.cgi/tech/1482227795/

593 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 00:07:45.81 ID:kLOTyHsU.net]
学生同意

594 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 00:18:57.19 ID:iFOwu6YR.net]
>>579
前にOxfordも入ってたろ
それはともかく、中国みたいな一党独裁はやることが極端だからなぁ

595 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 00:53:56.05 ID:f93iPeEj.net]
>>570
自分がクラスタリングする不均衡データで上手くいく方法を知りたければ
ライブラリが用意しているアルゴリズムを片端から試すのが近道だと思う。

imbalanced-learn
https://github.com/scikit-learn-contrib/imbalanced-learn
imbalanced-learnで不均衡データをアンダーサンプリングしてみる
https://hogehuga.com/post-1430/

596 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 00:57:22.44 ID:f93iPeEj.net]
>>581
確かに中国は極端だけど、アメリカのアポロ計画も極端だった。
日本でも数百億円の気象衛星に誰も反対しない。
一党独裁でなくてもその必要性が国民の共通見解になればよいのだろう。

中国の人工知能研究が日本を一気に抜き去った理由
www.yomiuri.co.jp/fukayomi/ichiran/20151016-OYT8T50057.html

597 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 03:11:12.14 ID:GVZQb7k4.net]
『過学習』って便利な言葉ですね。
よく分からない結果になった場合、そう言っておけば皆さん理解してくれます。
本質的な問題は何か、全く分かってないのにw

598 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 03:52:35.19 ID:YSd/VNtW.net]
>>584
あなたが分かってないだけだろ

599 名前:デフォルトの名無しさん [2017/02/11(土) 06:39:18.37 ID:RBVqADPL.net]
80〜90年代は日本の研究者も元気だったのにね。。。

600 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 07:37:07.67 ID:GVZQb7k4.net]
>>585
機械学習の結果って解釈可能なんですか?

601 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 08:43:59.86 ID:ZXmetq6U.net]
過学習というと「おっ、そうだな」と相づちいってくれる
お客がいるんだな



602 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 08:57:26.50 ID:T6eqmTK7.net]
お前は加齢臭

603 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 09:01:14.71 ID:GVZQb7k4.net]
違うよ
学会にいくと『これは過学習が原因です』と言っちゃう発表者がそこそこいるんだよ
聞いててなんだかな〜と思ってるだけ

604 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 09:09:42.62 ID:i65Ibvj/.net]
化学の研究発表で収量悪かったのはフラスコ振り過ぎたのが原因ですと言ってるようなもんだからな

605 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 09:20:39.74 ID:0UUL4EJW.net]
過学習って言葉を学会では禁止にしてよく詳細分析させるのはどうでしょうか?

606 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 09:45:06.74 ID:Yn1WOs8Z.net]
>>592
浅はかさに乾杯

607 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 09:51:44.04 ID:0UUL4EJW.net]
何故浅はかと考える?
ちゃんと説明してみて

608 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 09:58:06.48 ID:f93iPeEj.net]
>>590
過学習とleakageは発表前に確認した方がよいね。

ビッグデータ解析で薬剤副作用予測がほぼ100%可能に
pc.watch.impress.co.jp/docs/news/yajiuma/740480.html
「正答率100%」になってしまう機械学習モデルの例を挙げてみる
tjo.hatenablog.com/entry/2016/01/27/235620
そのモデル、過学習してるの?未学習なの?と困ったら
chezou.hatenablog.com/entry/2016/05/29/215739

609 名前:デフォルトの名無しさん [2017/02/11(土) 10:21:09.18 ID:RBVqADPL.net]
流れをぶった切って悪いが
アンサンブル学習ってどうよ

結構好きなんだが

ランダムフォレストとか

610 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 10:30:11.76 ID:i65Ibvj/.net]
アンサンブルのアルゴリズム自体が関心の対象になることってほとんどなくね?
完全にブラックボックスとして使われることがほとんどだろう
ブラックボックス故に容易に使えるメリットもあるし、
モデルが意味不明で価値がないと言われることもある
アンサンブルをはじめとした、人間がモデルを理解することを最初から投げてる手法をひっくるめて
ブラックボックス法とでも呼ぶのが実態に近いんじゃないか

611 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 10:42:04.99 ID:tBMOJXp1.net]
そもそも過学習かどうかすら主観的な問題だからな
点の分布にたいして何が正しいかなんて正解がない限り何も言えない
という態度が本来正しい

統計分析は全部オカルトなんだよ



612 名前:デフォルトの名無しさん [2017/02/11(土) 10:50:33.52 ID:RBVqADPL.net]
>>597
そうは思わない

tomoshige-n.hatenablog.com/entry/2014/12/07/011221

613 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 10:55:33.87 ID:i65Ibvj/.net]
>>599
正しく伝わってないようだけど、モデルと言ってるのは学習アルゴリズムじゃなくて
学習の結果得られた予測モデルのことね
学習結果を知識として理解できるか? ということ

614 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 11:03:07.70 ID:ArXTdjPj.net]
学習結果を人間が理解できないのであれば、結局は精度の高さだけが問題になる
そういう手法は必然的にブラックボックス化する

615 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 11:37:21.68 ID:IZj1xCL1.net]
>>600
知識として理解するのは何の為?
利用するだけなら同じ結果が得られればいいんじゃね
人間の脳について遺伝子について完全に理解されてるわけじゃ無いだろう

616 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 11:38:50.98 ID:IZj1xCL1.net]
不確定性原理とかある様に確率的にしか把握できない現象があってもいいんじゃね?

617 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 11:42:12.61 ID:IZj1xCL1.net]
あと、時代が進めば解明する手段ができるかもしれない
CNNの畳み込み層のフィルタとかは見えるんじゃね

主成分分析の固有ベクトルも解釈は人によるんだし対象だけで決まると言うよりは相対的なものだろう

相対論も量子論も相対的

618 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 11:44:37.34 ID:tBMOJXp1.net]
学習サンプルが全てのケースを網羅してるなら100%検出でも間違ってはいない
正解分布が離散的な場合、不完全な学習サンプルではどう頑張っても信頼性は上がらない

619 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 11:52:12.59 ID:LkyjPvzP.net]
1. データを色々と図示して特徴を理解する
2. 線形モデルなど人間が説明可能なシンプルなものを作ってみる
3. さらに予測精度を高くするなら非線形モデルを作る

2までの過程がないと関係者にも説明できないし、与えられたデータに含まれない特徴量を見つけることができない。
いきなり3に進んで「これが効いてました」だと単なるパラメータ調整屋さんになってしまうよ。

620 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 12:25:20.69 ID:IZj1xCL1.net]
1や2を経ても別のデータを追加したらもっと精度が上がるかもしれない

現状のデータで最も精度が高い結果を得られれて目的をよりよく達成できるなら細かい原理まで気にしないんじゃね?
突き詰めていけば判らない点が出てくるだろ

621 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 12:30:39.32 ID:IZj1xCL1.net]
>>605
正解が判ってるならそれからデータを生成すればいいんじゃね

正解が判っていないならデータから帰納的に正解を推定するしかない
データが少ないケースは発生可能性が少ないわけだから別の方法でリスクマネジメントすればいいんじゃね

従来の方法を使ってはいけないわけじゃない



622 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 12:30:42.03 ID:ArXTdjPj.net]
>>607
例えば「クラスAよりクラスBの方が好ましいのでクラスBの割合を増やしたい。どうすればいい?」
というような問題はどうする?
実際のビジネスではこの種の問題が非常に多い

623 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 12:35:02.12 ID:IZj1xCL1.net]
>>609
クラスBの出現確率に関係する説明変数を求めるんだろう
ANOVAとかでいいんじゃね
それを説明しても理解を得られるかどうかはキーパーソン次第

NNで精度が高ければそれで良いと言うキーパーソンもいるだろう

624 名前:デフォルトの名無しさん [2017/02/11(土) 13:05:49.91 ID:RBVqADPL.net]
>>602
同意

クラス分類問題の全てに人間の認識の範囲でラベル付けした正解がある
ラベル付けの規則を導出する試みは自然現象の抽象化と等しい
抽象化で説明できる現象は一部でしかないので人間に理解可能なクラス分類器は
人間の認識を産み出す脳の仕組みを模倣したNNよりも精度が悪い

625 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 13:48:47.70 ID:qtSuuft0.net]
>>609
ビジネスだと、そこ(の方が好ましい)を合理で切り捨てるもの
政治からの誘導に抗するためにAI

まあAIにおける評価、選択基準次第でどうとでもなる。
この精度は悪いから使わない。これは好ましいから使う。
結果望む答えを作れますし。

626 名前:デフォルトの名無しさん [2017/02/11(土) 16:15:36.93 ID:qrgYbJoy.net]
>>545
>人工知能学会誌 2007 年 11 月号 [神嶌 07],2008 年 1 月号 [神嶌 08a],および 2008
年 3 月号 [神嶌 08b]

古すぎだろ
ディープラーニング以前では

627 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 16:22:06.71 ID:voroLTqS.net]
一応言っとくけどディープラーニング専用スレあるからな

628 名前:デフォルトの名無しさん [2017/02/11(土) 16:45:27.49 ID:qrgYbJoy.net]
tensorflowはwindowsに対応してるからもうlinux使う必要もなくね

629 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 16:47:05.98 ID:ZXmetq6U.net]
Differentiable Neural Computers

630 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 16:49:25.94 ID:ZXmetq6U.net]
すまない、スレ間違えた

631 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 17:30:49.54 ID:gxhjd1zA.net]
winはライブラリ関係でエラー良くでるからLinuxが楽。



632 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 17:43:43.47 ID:g36Q3r/l.net]
GUI環境だと無駄に計算が遅くなってるんじゃないかと思ってしまうからwin,macはない

633 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 17:50:35.77 ID:aBQCam1q.net]
winでやろうと思ったけど面倒だからVMware linuxでやっている。
遅いけど

634 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 19:07:42.43 ID:TYq28LV7.net]
>>614
これ?今年に入ってまだ1つも書き込みが無いような死にスレみたいだけど
Deep learning
echo.2ch.net/test/read.cgi/tech/1387960741/

635 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 19:12:42.58 ID:YSd/VNtW.net]
>>615
逆に何で windows を使う必要があるんだよw

636 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 19:31:38.92 ID:f93iPeEj.net]
>>613
>Release: 2016-09-26 21:53:16 +0900
>誤りの訂正や,新しい内容の追加などの更新を行ったものである

推薦システムの主要アルゴリズムと類似度判定に使うDeepLearningは階層が異なる。
だから2012年の本だけでなく2016年のCourseraでも
内容ベースフィルタリングと協調フィルタリングを説明しDeepLearningは説明しない。

情報推薦システム入門 -理論と実践-
https://www.amazon.co.jp/dp/4320122968
Courseraの推薦システムのコースを修了した
https://takuti.me/note/coursera-recommender-systems/

637 名前:デフォルトの名無しさん [2017/02/11(土) 19:34:25.90 ID:qrgYbJoy.net]
>>622
くだらない環境構築に悩まされることがないね

638 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 20:01:29.58 ID:gxhjd1zA.net]
windowsには、どうでも良いところで悩まされた。
会社でofficeつかう以外はLinuxでいい。

639 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 20:10:26.26 ID:aBQCam1q.net]
今はLinuxとwinでGPUパフォーマンスはかなり変わるの?

640 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 20:39:36.25 ID:2PZ2/Gs1.net]
理論的には変わるが、安定性は保証できないな。
Winの場合、各PCメーカーが、GPUメーカーと協力してそれぞれのPCで問題が起きないようにドライバ書き換えるのが仕事として確立してるだろうが、Linuxはその辺自己責任。
問題出たら自分で何とかしてね。
まあ、だからこそハック、解析して腕も上がろうものだが。
一応AMDはドライバのソース公開してたと思う。
NVはドライバだけ。
ノートPCとか、型番ごとに基盤違うから鬼門やで。

641 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 20:55:21.32 ID:voroLTqS.net]
>>621
echo.2ch.net/test/read.cgi/tech/1457792560

ただ別スレにする意味はあんまり無いから統合してもいいのかも



642 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 20:56:02.44 ID:iFOwu6YR.net]
>>627
日本のゴミメーカーの話しを一般化して語るなw

643 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:02:57.36 ID:pN2UUCKM.net]
ありり

644 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:08:34.26 ID:Ia7+S52u.net]
ディープラーニングに使う際は、PCメーカーなんて関係ないよ。
GPGPUでの物理シミュレーションだってLinuxが普通。

645 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:22:14.66 ID:EiwaEGnR.net]
中国製でもオーケーなんか、俺は嫌だな

646 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:28:43.69 ID:kc8Bs/60.net]
うちは小さいところだからGTX1080ひとつでやってるけど
みんなはAWSのGPUとかでやってんの?

647 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:33:01.48 ID:EiwaEGnR.net]
>>633
会社では Tesla、個人では AWS だな

648 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:40:37.20 ID:HiZaLcVd.net]
tesla p100と今度のquadro gp100って性能ほぼ同じかな
displayportついてめ普段使いもできるからgp100だと一石二鳥だな

649 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:41:11.79 ID:/5e0Kihi.net]
元々データがクラウドにあるかオンプレにあるかというだけの話だよ
わざわざオンプレのデータをクラウドに全部転送してからやるような大掛かりな分析なんてなかなか無い
逆にわざわざクラウド上のデータを落としてくるメリットもあまり無いし、クラウド使ってると今更ローカルで色々やるのは嫌がる人が多い

650 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:45:48.92 ID:iFOwu6YR.net]
>>636
仕事だとオンプレはセキュリティを気にする客が多いよ

651 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:48:35.06 ID:EiwaEGnR.net]
>>635
ベースは p100 だから性能は同じだろうね



652 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 21:53:46.61 ID:kc8Bs/60.net]
レスありがとう
とりあえず1080二枚でがんばってみるよ

653 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 22:01:39.10 ID:g36Q3r/l.net]
社内のPC(1080x1)でしか回したことないわ
awsって1080換算でどれくらいのコスパなの?
弱小会社で社内利用のみだから節約重視とお漏らし懸念で許可降りないんだよね

654 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 22:01:42.95 ID:EiwaEGnR.net]
>>639
最初はそれでいいと思う。すぐに段々と高いスペックの GPUが欲しくなるよw

655 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 22:10:16.94 ID:i65Ibvj/.net]
>>640
クラウド使うなら基本は必要な時だけ沢山立ち上げて終わったらすぐに止める
なので単純比較はできない
クラウド使う場合は、1台で10時間かかるなら10台使って1時間で終わらせれば
値段は同じでも処理時間が1/10になる、という考え方をする

656 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 22:19:22.66 ID:jbOCbqhm.net]
>>568
ゴールドマン凄えなw
その情報どこよ?リンク教えてケロ

657 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 22:51:01.61 ID:gOvzQqG0.net]
囲碁プログラマがAWSのGPUとかで計算させているのは
聞いたことあったけど、それ以外でも個人で使っている人はわりといるんだね。

658 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 22:52:44.70 ID:lG4/33O5.net]
>>643
クビの話はこれだな
https://www.technologyreview.com/s/603431/as-goldman-embraces-automation-even-the-masters-of-the-universe-are-threatened/

株式市場をどう分析してるかはブラックボックスだけど

659 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 23:47:15.82 ID:iFOwu6YR.net]
>>644
初期コストが不要だから、ハードルが低いのよw

660 名前:デフォルトの名無しさん mailto:sage [2017/02/11(土) 23:55:34.39 ID:T6eqmTK7.net]
今時VMWareはねえだろ
Docker使え

661 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 01:25:13.38 ID:a/82lcFS.net]
株価予測とかってニュースのネガポジとかもやってんの?



662 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 01:30:55.29 ID:pgPGnH3R.net]
GSのエンジニアも凄く高給だろうがストレスも半端ないのだろうな

663 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 01:34:08.94 ID:logmflcW.net]
高いからべつにいいよ

664 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 04:49:33.56 ID:hCyBUmmz.net]
質問なのですが
少し前にDeepMindがDifferentiable Neural Computers
というのを発表したのですが、これからはメモリがついたNNが
話題の中心になるのですか?

665 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 05:03:28.28 ID:VC9WscfT.net]
なりません。

666 名前:デフォルトの名無しさん [2017/02/12(日) 07:04:58.68 ID:M6/SKgbD.net]
ブラックボックス厨うぜえ

667 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 09:10:46.96 ID:hCyBUmmz.net]
ブラックボックスなのか。。

668 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 09:32:31.33 ID:gLvFo+kh.net]
GSトレーダー600人から2人に削減って、その専門職の人たちどこいったんだろね?
業界全体の流れだから、数万人レベルか
国内のトレーダーも結構な数いそうだよね

機械に置き換えられた人の行く末が知りたいわ
自動運転、自動レジ、警備巡回ロボなんか結構な人減らすよな

669 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 10:06:24.91 ID:siqk/GyZ.net]
>>651
DNCの応用範囲はとても広いのだろうけど追試できる成果がないと人が集まらない。
DNCのソースコードが応用込みで公開されたら人気アルゴリズムになるかもしれない。

Differentiable Neural Computers 文献読み会 (Published January 6, 2017)
https://speakerdeck.com/yano_123/differentiable-neural-computers-wen-xian-du-mihui
>DNCのソースコードは半年以内に公開予定

670 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 10:18:42.82 ID:siqk/GyZ.net]
>>201
TensorFlow分散環境が他のフレームワークより数倍遅いのはgRPCが遅いからだそうだ。
gRPC高速化パッチが登場したが変更点が多すぎて安定版にすぐにマージできない。

ChainerMN による分散深層学習の性能について
https://research.preferred.jp/2017/02/chainermn-benchmark-results/
grpc RecvTensor is slow
https://github.com/tensorflow/tensorflow/issues/6116

671 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 11:23:43.90 ID:hCyBUmmz.net]
>>656
なるほど
まだこれからなのね



672 名前:デフォルトの名無しさん [2017/02/12(日) 12:21:41.45 ID:D9dWxmTY.net]
論文貼られて発狂とか草

673 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 12:33:55.86 ID:qnU0uPrW.net]
>>659
そう・・・(無関心)

674 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 12:44:39.89 ID:6DZZ9Bcz.net]
PFNさんこんなところまで来て活動しとるんかw
chainerはもうオワコンなんでいいです

675 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 13:58:44.56 ID:VC9WscfT.net]
>>657
じゃあ何でtensorflowばかりが流行るの?

676 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 13:59:30.58 ID:VC9WscfT.net]
>>661
暇なんだろ

677 名前:201 mailto:sage [2017/02/12(日) 14:12:11.90 ID:JzLwoX6y.net]
>>657
関係者?こっちの質問にも答えてくれないかな?わりとマジで。
| さくらのクラスタは 32ノード/128GPU でお幾らなの?初期化コストも含めてな。現実的なの?

678 名前:デフォルトの名無しさん [2017/02/12(日) 14:15:26.63 ID:hey2nQ+P.net]
>>660
安価つけて無関心とか面白すぎかよ

679 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 14:32:48.34 ID:3dS+hA6H.net]
>>657
そんな前の質問にわざわざ記事を作成してリンク張るとはご苦労さん
だけどもう Keras にさえ圧倒的に人気で負けてる現実をもっと認識しようぜ
あとベンチマークに theano がないのはわざと?

680 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 14:40:07.97 ]
[ここ壊れてます]

681 名前: ID:VC9WscfT.net mailto: chainerは猿まねしては後追いでドヤ顔するのがな… []
[ここ壊れてます]



682 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 15:21:06.07 ID:/ezAJDun.net]
みんなKeras使ってるやろ?
Tenso直にいじるより楽ちんじゃ

683 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 15:40:13.81 ID:3dS+hA6H.net]
>>668
そうだね、まわりにもKeras を勧めてる。
日本語ドキュメントが翻訳されたので勧めやすくなったし

684 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 15:49:57.78 ID:8TdRD0Ze.net]
俺はTensorFlowに慣れちゃったからもうそれで行くけど、KerasやTorchみたいな層を足してくようなタイプの方が直感的にわかりやすいよね

>>666
1GPUにしか対応していないポンコツをこの比較に載せろとは、どんな図々しい野郎だ

685 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 15:59:52.60 ID:EKVdGfm7.net]
>>670
keras を theanoで使ってる人が数的に多いからでしょ

686 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 16:02:18.72 ID:EKVdGfm7.net]
さくらのクラスタの価格はどのくらいなんだろ、俺も知りたい

687 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 16:03:12.14 ID:ng20ZhlV.net]
俺もバックエンドはtheanoで使ってるわ。

688 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 16:07:36.64 ID:VC9WscfT.net]
keras + theanoは安心感があるんだよなw 何となく安定してそう

689 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 16:13:02.22 ID:QGOwrBDz.net]
印象操作

690 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 19:18:57.41 ID:WpDpToYq.net]
謎のchainerアンチがいるけど、Sales Forceが高速化をうけて乗り換えたのどう思ってるんだろうか

691 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 19:33:38.60 ID:GCVuVDfd.net]
一強になると勝者はダレるからchainerは頑張って欲しい



692 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 19:34:10.25 ID:lh3f/3e6.net]
>>666
Redditにその質問の回答があったよ。
TheanoやTorchあたりはファーストパーティーによるGPU分散計算対応が現状なされて無いからであって、
公式に対応された際にはベンチマークに含めるそうだ。
フェアな比較を心がけてるように見える。

693 名前:デフォルトの名無しさん mailto:sage [2017/02/12(日) 19:38:43.76 ID:y4s4JwCi.net]
頑張って欲しいがtensorflow使うわ。






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<244KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef