- 1 名前:デフォルトの名無しさん [2016/12/27(火) 12:09:04.01 ID:MgmqZKtO.net]
- 人工知能ディープラーニング機械学習のための数学
- 786 名前:デフォルトの名無しさん mailto:sage [2018/08/23(木) 15:58:56.38 ID:0ACQCzra.net]
- そりゃ線形代数は大事
- 787 名前:セよ!!! []
- [ここ壊れてます]
- 788 名前:デフォルトの名無しさん [2018/08/23(木) 16:15:33.38 ID:+UveuQfQ.net]
- >>758
ここは高卒率高い
- 789 名前:デフォルトの名無しさん [2018/08/23(木) 20:57:35.73 ID:n9wdMl+k.net]
- 行列学ぶにはには画像処理がいいって、
それ一番言われてるから。 データサイエンスから派生してOPenCV 始めたけどかなり楽しいゾ。 数式見るだけより画像がどう変化するかを 確認するとアルゴリズムの意味や目的が はっきりわかんだね。
- 790 名前:デフォルトの名無しさん mailto:sage [2018/08/23(木) 21:42:01.92 ID:hpTFsjjR.net]
- 結局ライブラリ使ってるから数学関係ないよね
- 791 名前:デフォルトの名無しさん [2018/08/23(木) 22:27:21.08 ID:n9wdMl+k.net]
- ライブラリを使うには数学知識が必須
なんだよなぁ… 例えばnumpyを使うのに行列知識ゼロじゃ 使いこなせない。 逆にnumpyを使っているうちに行列への 理解が深まるってこともあるし。
- 792 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 01:04:01.12 ID:1PBeUR3/.net]
- まあサラスの公式とかは覚える必要ないよね
- 793 名前:デフォルトの名無しさん [2018/08/24(金) 03:41:37.45 ID:6wpy6wRV.net]
- 回答がつくか自信がないですがいくつか質問です
@ 右上の▽E(w)の定義を教えてください A なんで式の3行目のβにはtがくっついているのですか https://i.imgur.com/cqdg8pC.jpg
- 794 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 05:08:08.95 ID:c+mh3mBZ.net]
- >>570
もちろんある程度大学の数学をやった上で言ってるんだと思うんだけど ある程度やった上での発言だとしたら頭が悪いわ
- 795 名前:デフォルトの名無しさん [2018/08/24(金) 05:59:54.55 ID:/QW9Joy2.net]
- >>766
行列式の計算とかnumpyで楽チン。
- 796 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 06:29:31.37 ID:dwzt+F5U.net]
- >>767
>@ 右上の▽E(w)の定義を教えてください 損失関数Eの勾配 =δE/δw >A なんで式の3行目のβにはtがくっついているのですか 学習の経過に従って、mとvの寄与度を調整して学習を安定させる
- 797 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 06:32:34.83 ID:dwzt+F5U.net]
- ∂E/∂w だった(偏微分記号)
- 798 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 06:56:46.17 ID:dwzt+F5U.net]
- Aの補足
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。 この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
- 799 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 09:07:03.58 ID:1nJvNU0i.net]
- >>767
BPから勉強しろ
- 800 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 12:44:28.77 ID:TTydjelR.net]
- まさか今更微積や線形代数の復習する羽目になるとは
- 801 名前:デフォルトの名無しさん [2018/08/24(金) 12:58:10.52 ID:6wpy6wRV.net]
- >>767です
ありがとうございます、解決しました tが0から始まるとすればbeta^0でそっから1引いたものが分母になるから分母0にならないですか?
- 802 名前:デフォルトの名無しさん mailto:sage [2018/08/24(金) 13:09:28.12 ID:KZ7MNsvQ.net]
- 1から始めればよい
- 803 名前:デフォルトの名無しさん [2018/08/25(土) 18:31:41.77 ID:Dxvsv0A8.net]
- >>776
ありがとうございました! 下層からの誤差って具体的に何ですか? https://i.imgur.com/y0O5glz.jpg https://qiita.com/eijian/items/c947fb6b5e7a49858fb4
- 804 名前:デフォルトの名無しさん [2018/08/25(土) 22:43:44.04 ID:xNcAdL4l.net]
- >>777
その畳み込みの次にある層からの誤差
- 805 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 00:28:46.57 ID:ZbBrZXXn.net]
- 誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。
- 806 名前:デフォルトの名無しさん [2018/08/26(日) 00:35:44.23 ID:czFWrRej.net]
- >>778
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
- 807 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 00:59:20.08 ID:ZbBrZXXn.net]
- 例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質
- 808 名前:によって何が伝えられるかは変わってくる。 []
- [ここ壊れてます]
- 809 名前:デフォルトの名無しさん [2018/08/26(日) 02:15:36.01 ID:czFWrRej.net]
- >>781
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
- 810 名前:デフォルトの名無しさん [2018/08/26(日) 02:36:56.87 ID:DVI2ghbE.net]
- 東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。
- 811 名前:デフォルトの名無しさん [2018/08/26(日) 08:52:46.06 ID:Eme/jpQ6.net]
- >>782
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。 分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
- 812 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 09:59:18.87 ID:1PWWH1+1.net]
- >>784
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。
- 813 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 10:05:05.45 ID:1PWWH1+1.net]
- 上記についてはこのページが詳しいかな
ttps://qiita.com/t-tkd3a/items/031c0a4dbf25fd2866a3
- 814 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 12:56:14.32 ID:lds9ox+q.net]
- リアルプログラムでは学習した結果ってどうやって永続化してるの?
ファイルに書き出すの?
- 815 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 13:49:35.32 ID:1PWWH1+1.net]
- パラメータをファイルやDBに書き出します。
- 816 名前:デフォルトの名無しさん [2018/08/26(日) 13:55:39.86 ID:u+wmgHES.net]
- 基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから
そのθをファイルに保存する 途中からの場合θのファイルをロードする モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する
- 817 名前:デフォルトの名無しさん [2018/08/26(日) 20:58:22.32 ID:czFWrRej.net]
- >>786
ありがとうございます!
- 818 名前:デフォルトの名無しさん mailto:sage [2018/08/26(日) 23:47:20.20 ID:lds9ox+q.net]
- >>788
>>789 サンクス
- 819 名前:デフォルトの名無しさん [2018/08/27(月) 12:03:01.85 ID:Q4eMB8Ps.net]
- 起動に15時間
シャットダウンに7時間
- 820 名前:デフォルトの名無しさん [2018/09/01(土) 12:14:47.04 ID:wGe/Loro.net]
- CNNの畳み込み層でも活性化関数使うのが普通なんですか?
あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな? iup.2ch-library.com/i/i1931933-1535771487.jpeg iup.2ch-library.com/i/i1931932-1535771487.jpeg https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね? iup.2ch-library.com/i/i1931934-1535771654.jpeg 3次元フィルタを使うことに関しては特徴マップが何層もあるから?
- 821 名前:デフォルトの名無しさん mailto:sage [2018/09/01(土) 23:34:32.22 ID:gvHsCwll.net]
- 全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。
- 822 名前:デフォルトの名無しさん mailto:sage [2018/09/01(土) 23:35:20.62 ID:gvHsCwll.net]
- チューニングというより設計の問題かな。
- 823 名前:デフォルトの名無しさん [2018/09/02(日) 18:18:25.17 ID:Gf+N3VgJ.net]
- 色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど
既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて 気軽に独自モデル試せるようなもんじゃないんだな ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ ソース見てもモジュール化されすぎてて全部理解するのには相
- 824 名前:鮪條ヤかかる
独自にモデル作ってる人らには頭が下がるわ フルスクラッチでやったほうが実装そのものは相当楽だろ でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな [] - [ここ壊れてます]
- 825 名前:デフォルトの名無しさん [2018/09/03(月) 01:01:43.69 ID:esF28k94.net]
- そうでもない
がんがれ
- 826 名前:デフォルトの名無しさん mailto:sage [2018/09/07(金) 20:14:05.61 ID:bOuttf63.net]
- https://mainichi.jp/articles/20180905/k00/00e/040/319000c
- 827 名前:デフォルトの名無しさん [2018/09/08(土) 17:42:16.54 ID:RrQSE86D.net]
- 似非サイエンス0でやってた
- 828 名前:デフォルトの名無しさん [2018/10/06(土) 11:09:34.88 ID:KmIbUzui.net]
- NHK教育を見て56088倍賢く三連休
nhk2.5ch.net/test/read.cgi/liveetv/1538780245/
- 829 名前:デフォルトの名無しさん [2018/10/08(月) 11:30:39.16 ID:+5qyKWRv.net]
- めも
https://www.anaconda.com/blog/developer-blog/tensorflow-in-anaconda/
- 830 名前:デフォルトの名無しさん mailto:sage [2018/10/08(月) 13:54:24.56 ID:Pg4k0kTf.net]
- memorandum
- 831 名前:デフォルトの名無しさん [2018/10/24(水) 17:33:34.15 ID:uzzb7okB.net]
- 既存の数学的アプローチでは汎用人工知能は無理。
新しい数学を創造する必要がある。
- 832 名前:デフォルトの名無しさん mailto:sage [2018/10/24(水) 19:03:25.41 ID:+UZVhUuu.net]
- 人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな
根本的にやってることが違う
- 833 名前:デフォルトの名無しさん mailto:sage [2018/10/24(水) 19:23:11.47 ID:Tp5xd7NK.net]
- 数学は万物を定量化して表すもの
数学に出来ないのはヒルベルトのように、解く方法が解らない問題と 世界の誰も未だに気づいていない問題
- 834 名前:デフォルトの名無しさん mailto:sage [2018/10/24(水) 20:38:49.03 ID:JHmeQiWz.net]
- NS方程式w
- 835 名前:デフォルトの名無しさん mailto:sage [2018/10/25(木) 01:53:03.16 ID:DXNVkP/m.net]
- そのうち人工知能の性能や危険性を監査する方法が必要になる
監査もAIにして相互に進化させる 人間のはるか上を行くAIになりそう
- 836 名前: mailto:sage [2018/10/25(木) 08:07:04.46 ID:yGYVJ0zR.net]
- >>807
>監査もAIにして相互に進化させる こういう自己学習はすべてのAIにて有効とは限らない、と思いますが
- 837 名前:デフォルトの名無しさん [2018/10/25(木) 11:25:06.41 ID:5Cy/pQlU.net]
- 単にラグランジュとか●次スプラインとかで全点通す多項式作るようにしてるんだろうけど
こういうのって機械学習でも同じパラメータが出現するのだろうか https://pbs.twimg.com/media/Dp8U1ioVYAEsXf3.jpg https://twitter.com/yori_shirou/status/1053611678292570113 https://twitter.com/yori_shirou/status/1053611678292570113/photo/1 (そういう学習させればそうなるんだろう) (deleted an unsolicited ad)
- 838 名前:デフォルトの名無しさん [2018/11/27(火) 10:18:08.02 ID:Rh+mKowB.net]
- NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
https://arxiv.org/abs/1811.03962
- 839 名前:デフォルトの名無しさん [2018/11/30(金) 20:30:28.58 ID:1rBmpsWQ.net]
- 十分多ければwww
- 840 名前:デフォルトの名無しさん mailto:sage [2018/11/30(金) 22:07:26.54 ID:aXieu+F/.net]
- 自然な仮定だろ?
- 841 名前:デフォルトの名無しさん [2018/12/01(土) 12:32:12.07 ID:ddsFX+Ib.net]
- ε-δ論法での「十分小さければ」みたいによくある表現だよね
- 842 名前:デフォルトの名無しさん mailto:sage [2018/1
]
- [ここ壊れてます]
- 843 名前:2/01(土) 14:53:57.91 ID:ESkZNxmJ.net mailto: t分布で自由度が十分大きければ正規分布になるとか、割とあちこちで十分大きければ論法は使われる
「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと [] - [ここ壊れてます]
- 844 名前:デフォルトの名無しさん [2018/12/01(土) 18:36:48.82 ID:vZu4rQev.net]
- 誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い
経験的に知られていたが謎だった事が理論的に解明された事に価値がある あと(指数ではなく)多項式時間と分かった事も大きいと思う
- 845 名前:デフォルトの名無しさん [2018/12/05(水) 18:35:39.05 ID:kX9gokKe.net]
- こっちだったか
www.itmedia.co.jp/news/articles/1710/10/news040.html
- 846 名前:デフォルトの名無しさん [2018/12/12(水) 22:46:51.99 ID:0lKVJ1Zp.net]
- 初歩的なもので申し訳ありませんが
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。 どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか? c exp(x) = exp(x + log c)
- 847 名前:デフォルトの名無しさん mailto:sage [2018/12/12(水) 22:56:13.04 ID:+Sf0mSLh.net]
- 定義から追っていけばわかるだろ?
expてのはeを何回掛けたか logはその逆 exp(log c) = cはcが特殊な値でない限り常になりたつ。 exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる これはexp(a+b)に等しい
- 848 名前:デフォルトの名無しさん [2018/12/12(水) 23:11:36.04 ID:0lKVJ1Zp.net]
- >>818
ありがとうございます。 言われてみればなんで気づかなかったんだろってレベルでした。
- 849 名前:デフォルトの名無しさん [2018/12/12(水) 23:22:27.88 ID:1Fc61En1.net]
- ln 左辺
= ln (c * e^x) = ln c + ln e^x = ln c + x ln 右辺 = ln e^(x + ln c) = x + ln c 高校の算数で分かる
- 850 名前: mailto:sage [2018/12/13(木) 00:31:25.96 ID:mMIcaeGH.net]
- >>817
c = exp(log (c)) まずこれを理解して c・exp(x) = exp(x)・exp(log(c)) = exp(x + log(c))
- 851 名前:デフォルトの名無しさん mailto:sage [2018/12/13(木) 09:30:18.60 ID:MB2eDcb0.net]
- >>817
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y) =exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)
- 852 名前:デフォルトの名無しさん [2018/12/13(木) 12:19:59.72 ID:zFPTCGev.net]
- c exp(x) = exp(x + log(c))
log(c exp(x)) = log(exp(x + log(c))) log(c) + log(exp(x)) = log(exp(x + log(c))) log(c) + x = x + log(c)
- 853 名前:デフォルトの名無しさん [2018/12/17(月) 22:36:41.36 ID:hRfkLohO.net]
- ゼロから作るDeep Learningの中のAffineレイヤの部分で
行列の積 X・W をXで微分したものが Wの転置行列 になっており、 X・W をWで微分したものが Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。 この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。 後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが これってどう解釈すればいいのでしょうか? いまいちなぜすべてを加算するのか理解できませんでした。
- 854 名前:デフォルトの名無しさん [2018/12/18(火) 00:08:54.26 ID:Eo+uoiII.net]
- 線形代数
- 855 名前:デフォルトの名無しさん [2018/12/18(火) 11:30:12.35 ID:/M0/bFGF.net]
- 物理
- 856 名前:デフォルトの名無しさん [2018/12/18(火) 13:30:30.43 ID:Y4LQpz29.net]
- 魔法
- 857 名前:デフォルトの名無しさん mailto:sage [2018/12/18(火) 13:50:22.43 ID:DOEC5j1K.net]
- チート能力
- 858 名前:デフォルトの名無しさん mailto:sage [2018/12/18(火) 14:11:41.15 ID:lzU2ET1j.net]
- ggr能力
- 859 名前:デフォルトの名無しさん mailto:sage [2018/12/18(火) 15:55:00.86 ID:7JS3qwaJ.net]
- 行列の積が分かれば微分するだけなのだがw
- 860 名前:デフォルトの名無しさん [2018/12/18(火) 15:56:23.56 ID:fQ2wN9mx.net]
- テンソルやろ
- 861 名前:デフォルトの名無しさん mailto:sage [2018/12/18(火) 17:38:07.86 ID:Mqjic+u0.net]
- アホやろ
- 862 名前:デフォルトの名無しさん [2018/12/18(火) 17:39:32.22 ID:owoWX2Rf.net]
- アホは読めないだろ
- 863 名前:デフォルトの名無しさん mailto:sage [2018/12/18(火) 20:42:10.22 ID:w60GoDW
]
- [ここ壊れてます]
- 864 名前:R.net mailto: >>824
行列 (i,j) 成分が \sum_k( x_{i,k}*w_{k,j} ) になってる事から一つ一つ計算しな。 [] - [ここ壊れてます]
- 865 名前:デフォルトの名無しさん [2018/12/19(水) 19:39:29.81 ID:hcWIkGDA.net]
- DeepLearningを試しにやってみたいけど
Chainerあたりが手軽なの? ちなみに文系の馬鹿です。 回帰分析とSVMを Pythonで試したことあります。
- 866 名前:デフォルトの名無しさん mailto:sage [2018/12/19(水) 22:00:08.49 ID:EddF3XVK.net]
- そんだけやってればこのスレのほとんどの人より先に行ってるぞ
- 867 名前:デフォルトの名無しさん mailto:sage [2018/12/20(木) 11:07:48.66 ID:j9ekUJ01.net]
- ほんとだもう姿が見えないw
- 868 名前:デフォルトの名無しさん [2018/12/23(日) 20:43:59.69 ID:AV3blzZs.net]
- ディープラーニングやろうとしたらこのくらいの性能のPCは必須?
masagutti.hatenablog.com/entry/new_pc
- 869 名前:デフォルトの名無しさん mailto:sage [2018/12/24(月) 11:08:35.14 ID:VHPkyyz+.net]
- >>838
マジレスするとクラウドのがコスパいい 睡眠も妨げない
- 870 名前:デフォルトの名無しさん [2018/12/24(月) 11:14:29.35 ID:YXqLjtll.net]
- >>839
無料?
- 871 名前:デフォルトの名無しさん mailto:sage [2018/12/24(月) 11:18:32.15 ID:VHPkyyz+.net]
- >>840
無料がいいならGoogle Colaboratory行っとけ 速度はイマイチだがCPUだけよりはかなりマシ
- 872 名前:デフォルトの名無しさん mailto:sage [2018/12/24(月) 11:18:38.69 ID:vT24CsmW.net]
- PCだって無料じゃないんやで
- 873 名前:デフォルトの名無しさん mailto:sage [2018/12/30(日) 18:20:09.19 ID:BP599Ljk.net]
- アルファ碁ゼロってどっかで対戦できる?
- 874 名前:デフォルトの名無しさん [2018/12/30(日) 20:45:03.59 ID:PVnIIL/g.net]
- >>839
どのクラウドがいいの?
- 875 名前:デフォルトの名無しさん mailto:sage [2019/01/04(金) 00:56:54.65 ID:WfC+XEH3.net]
- >>844
用途による 一般用途はAmazon、サクラ、google、Azure等 あとはサービス連携 ワトソンとか使いたいならIBM Bluemix TPUで爆速機械学習とかならGoogle Cloud Platform 個人的な意見で申し訳ないが 使いやすいのはamazon aws 価格が安いのはGoogle、IBM サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる
- 876 名前:デフォルトの名無しさん [2019/01/04(金) 11:37:58.62 ID:7pi2aX1x.net]
- >>845
ありがとうございます。 取引先は機械学習するのにAzuzeにしたのですが 利用料金が予想以上に高いと言ってました。 いろいろ検討してみます。
- 877 名前:デフォルトの名無しさん mailto:sage [2019/01/04(金) 11:49:22.59 ID:vo1XafK4.net]
- 値段はAwsでもそう変わらんちゃう
Googleはちょい安そう
- 878 名前:デフォルトの名無しさん mailto:sage [2019/01/04(金) 17:09:49.70 ID:ByJNYGiG.net]
- 本業の問題解決にディープラーニングを利用するかディープラーニング自体を本業とするかでクラウド使うべきかは変わる
GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い
- 879 名前:デフォルトの名無しさん mailto:sage [2019/01/04(金) 20:33:58.41 ID:2CE/kmBd.net]
- >>848
何気に無視できないのはデータ量 訓練データや最終出力に大量のデータを保存する必要があるときはクラウドが高くつく GPUのランニングコストはさほどでもない
- 880 名前:デフォルトの名無しさん mailto:sage [2019/01/05(土) 20:59:49.07 ID:DJKkY02/.net]
- さくらの高火力コンピューティングとかめちゃ高いよな。
あれ誰が使うんだろ?
- 881 名前:デフォルトの名無しさん [2019/01/06(日) 08:27:02.11 ID:sqll98Te.net]
- >>849
大量のデータって数量的には何TB?
- 882 名前:デフォルトの名無しさん mailto:sage [2019/01/06(日) 19:18:45.26 ID:r6TnJvb+.net]
- >>846
利用料金、これからの課題やで 機械学習はこれからビジネスの世界になる 機械学習で精度はあが
- 883 名前:っても、その精度を出すためのコストが問題されるようになる
大半の用途ではコストがかさんで機械学習をする意味がない (コストにはデータを集めるためのコストも含含まれる) もう少ししたら、これが問題視されるようになる [] - [ここ壊れてます]
- 884 名前:デフォルトの名無しさん mailto:sage [2019/01/06(日) 19:56:09.20 ID:/LWkk3mV.net]
- >>851
1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。 GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。 そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。 V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1〜2万円くらいだろうか。 ※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。 大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。 一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1〜3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。
- 885 名前:デフォルトの名無しさん mailto:sage [2019/01/06(日) 19:56:29.21 ID:huSbSCC8.net]
- だからGANsが流行ってるんだろ??
- 886 名前:デフォルトの名無しさん mailto:sage [2019/01/06(日) 21:06:59.54 ID:r6TnJvb+.net]
- >>853
コストは掛かるのはわかるが、それによって なにが得られるかだよな コストを掛けた以上の利益が得られなければやる意味がない まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど いいよな。結果が出なくても良い段階っていうのはw
- 887 名前:デフォルトの名無しさん [2019/01/06(日) 21:07:13.61 ID:sqll98Te.net]
- >>853
ストレージは利用者に提供した分は必ず確保して使えるようにするから占有だけど GPUは隙間時間を別の人が使ったりできる点は違うんじゃね
- 888 名前:デフォルトの名無しさん [2019/01/26(土) 14:56:07.98 ID:yVAkGzul.net]
- 不正統計ω
- 889 名前:デフォルトの名無しさん mailto:sage [2019/01/26(土) 15:04:17.59 ID:b14plJpJ.net]
- 不正統計δ
- 890 名前:デフォルトの名無しさん [2019/01/27(日) 16:49:33.49 ID:jpJeg/KH.net]
- 仕事で国の統計データ使うこと多いのに
マジで勘弁して欲しいぞ
- 891 名前:デフォルトの名無しさん mailto:sage [2019/01/27(日) 17:23:27.82 ID:G3HzVCxI.net]
- 計算し直せばいいだけだろ。他責なんだから
- 892 名前:デフォルトの名無しさん [2019/01/27(日) 17:55:29.03 ID:jpJeg/KH.net]
- 計算できるようにデータを
纏めるのが大変なんじゃ!
- 893 名前:デフォルトの名無しさん mailto:sage [2019/01/27(日) 17:57:03.48 ID:DIPYZuxb.net]
- この地域にはこういう属性の人が多いからこういう戦略で行こうとビジネスの意思決定に使ってた国のデータが嘘だった場合、
これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない
- 894 名前:デフォルトの名無しさん mailto:sage [2019/01/27(日) 18:26:06.36 ID:G3HzVCxI.net]
- 以後、気をつけるように
- 895 名前:デフォルトの名無しさん mailto:sage [2019/01/27(日) 18:48:58.10 ID:G3HzVCxI.net]
- 国相手に損害賠償訴訟を起こす手もあるぞ
- 896 名前:デフォルトの名無しさん [2019/01/28(月) 01:34:18.93 ID:/GIsMIPT.net]
- ディープラーニング×暗号通貨
masagutti.hatenablog.com/entry/bitcoin_raspberrypi
- 897 名前:デフォルトの名無しさん [2019/01/28(月) 12:43:29.94 ID:ji//xT0N.net]
- ほんとにまともなAIなら
学習の結果として 不正な統計データが入力
- 898 名前:ウれたら
受け付けずに突っ返す動作にするのが理想だな [] - [ここ壊れてます]
- 899 名前:デフォルトの名無しさん mailto:sage [2019/01/28(月) 15:04:36.07 ID:P7GqkI/F.net]
- >>866
それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから
- 900 名前:デフォルトの名無しさん mailto:sage [2019/01/28(月) 15:12:52.73 ID:DqvraBYP.net]
- 危機管理だろ、データが不正の場合当社は責任をもちませんと契約書に入れておくとか
- 901 名前:デフォルトの名無しさん mailto:sage [2019/02/02(土) 19:33:24.61 ID:LdV/hXf4.net]
- V100搭載の計算マシンが2〜3ドル/hてのがクラウドの相場
- 902 名前:デフォルトの名無しさん mailto:sage [2019/02/18(月) 22:53:58.26 ID:j1D9Boia.net]
- 安そうに見えて結構高いよね実は?
24時間回したら俺は生活できないorz
- 903 名前:デフォルトの名無しさん [2019/02/20(水) 17:51:51.87 ID:/eXmn/gb.net]
- クラウド企業は大儲け!
クラウド使う意味が分からん?
- 904 名前:デフォルトの名無しさん mailto:sage [2019/02/21(木) 02:07:39.79 ID:v648uLkH.net]
- ディープラーニングは最小二乗法」で物議
慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説 https://www.itmedia.co.jp/news/articles/1902/20/news141.html さすがにこれはあかん、引退推奨レベル
- 905 名前:デフォルトの名無しさん [2019/02/22(金) 13:14:44.17 ID:PtH+29Wq.net]
- だれを相手に書いてるかが問題で
「日経の経済教室」 なら あっそう でおわり
- 906 名前:デフォルトの名無しさん [2019/02/22(金) 13:27:59.38 ID:mJNXNf/+.net]
- でも出力と教師信号の差を小さくするっていう点では
最小二乗法と同じじゃね? 多層にする事でより精度よく 複雑な問題に対応可能になっているけど もっとシンプルな構造で 同様の出力をできれば 学習の計算力も少なくて済む
- 907 名前:デフォルトの名無しさん [2019/02/22(金) 13:46:43.30 ID:1tWgvkMd.net]
- 別に、理解している人からすれば
どうでもいい話しだよね。
- 908 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 15:06:08.21 ID:9D6v3kso.net]
- 別に最小二乗法である必要性はないし教師と予測の差を測る何かしらがあればいいだけなので全く本質的ではない
- 909 名前:デフォルトの名無しさん [2019/02/22(金) 15:13:01.54 ID:mJNXNf/+.net]
- >>876
短い言葉で判りやすく伝えるにはどういう表現がいい?
- 910 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 15:15:14.63 ID:GY5Hgnhe.net]
- お前には無理
- 911 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 15:18:26.65 ID:9C0ENtC1.net]
- 深く考えてくれるAIなんです
だからディープなんです な、なるほど!
- 912 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 16:49:59.36 ID:27TGUzSj.net]
- ディープってのは単に中間層が複数あるということを言ってるだけだぞ
- 913 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 17:46:31.58 ID:el9/87PC.net]
- >>874
ディープラーニングを一言で説明しろって言われて A. 最小二乗法みたいなもの B. ニューラルネットワークを沢山繋げたもの のどっちの説明が適切かだな 実際はAの最適化の要素とBの深いネットワークの要素のどちらも重要だから、片方だけ説明すると片手落ちになって突っ込まれる
- 914 名前:デフォルトの名無しさん [2019/02/22(金) 17:54:08.28 ID:PtH+29Wq.net]
- 小学生に説明するときと猿に説明するときで説明の仕方変えるだろ
臨機応変に出来ない方が馬鹿
- 915 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 18:02:57.51 ID:9C0ENtC1.net]
- 猿に教えてるところを録音されて晒し者にされたのが今回の事案。
「猿が相手だったので猿向けに説明してたんです」とは相手もいる以上言えんわなw
- 916 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 18:18:14.42 ID:GY5Hgnhe.net]
- 「片手落ち」は使ってはいけない表現じゃなかったか?
- 917 名前:デフォルトの名無しさん [2019/02/22(金) 19:05:45.63 ID:mJNXNf/+.net]
- >>881
ニューロンを沢山繋げたもの って言われてそれで何ができるの?って思うけどな 炭素を沢山繋げたもの って言われても価値があるものなのかわからない 炭なのかダイヤモンドなのか
- 918 名前:デフォルトの名無しさん [2019/02/22(金) 19:08:13.79 ID:mJNXNf/+.net]
- >>885
結局は聞く側が何を知りたいのかによる それによってどんな観点で説明するか変わる
- 919 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 19:09:07.81 ID:DNXK9Hwq.net]
- あしたはJDLA/Eか
- 920 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 19:58:44.79 ID:KXSRl5z4.net]
- ディープラーニングが何者か一言で説明しろと言われて一言で説明したらそれじゃ分からんと言われ、厳密に説明しようとしたらそんな難しい話理解できないと言われ
- 921 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 21:05:11.06 ID:GY5Hgnhe.net]
- 聞く馬鹿に答える馬鹿
- 922 名前:デフォルトの名無しさん mailto:sage [2019/02/22(金) 21:07:54.35 ID:iIlfqM05.net]
- これは辞任しかないww
- 923 名前:デフォルトの名無しさん [2019/02/23(土) 12:37:31.13 ID:+DV3f+Dk.net]
- 単純労働はもう人間がやる時代じゃなくなった
DLが判らない人は職を失います DLが判る人は信用を失います
- 924 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 12:43:45.09 ID:aRr2CtyI.net]
- データによって関数近似するだけですと答えりゃ良いんだよ。
deepが今までの機械学習と違うのは関数を表すパラメータが多いだけ。 (まあ多いからそれなりの学習法が必要になるってことではあるのだが。)
- 925 名前:デフォルトの名無しさん [2019/02/23(土) 12:47:45.21 ID:+DV3f+Dk.net]
- 確かに「関数って何?」ってレベルの相手に「最小二乗法」とか言っても伝わらんよな
- 926 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 13:05:49.57 ID:9M6azXgX.net]
- そもそも最小二乗法知らないレベルの人がディープラーニングの意味を知ったところでその知識に使い道などない
- 927 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 14:02:48.73 ID:YsidP2kG.net]
- >>892
パラメーターの多さは本質的じゃない 他のモデルでも増やすだけならいくらでも増やせるし
- 928 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 14:27:17.84 ID:aRr2CtyI.net]
- >>895
本質か本質でないかはわからんといったところだろ。 例えば混合ガウス分布のパラメータをdeep learning並にしてSGDで学習みたいなことを 実験した結果とかみたことないし、どれくらい差が出るのかは誰にもわからん。
- 929 名前:デフォルトの名無しさん [2019/02/23(土) 16:02:59.35 ID:lNz7SHfN.net]
- 幅が効いてるのか深さが効いてるのか判らんぬ
- 930 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 16:11:49.78 ID:lefeMdOl.net]
- 入力データ入れたら、出力データを返す装置を作ってるだけ
それだけの話
- 931 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 16:13:33.97 ID:lefeMdOl.net]
- AIとか言ってるからこじれてる
- 932 名前:デフォルトの名無しさん [2019/02/23(土) 16:19:13.67 ID:44PmOqBU.net]
- >>884
そうやな ちゃんと片端って言わないとな
- 933 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 16:19:56.88 ID:lefeMdOl.net]
- AIという名称を使ったおかげで
大きな予算が降りやすくなった
- 934 名前:デフォルトの名無しさん [2019/02/23(土) 16:26:26.19 ID:smDG7LGU.net]
- >>897
深さが効いている NNの深さは表現力に対して指数的に効くが、幅は多項式的 だから「ディープ」ラーニングがここまで流行った
- 935 名前:デフォルトの名無しさん [2019/02/23(土) 16:29:50.37 ID:lNz7SHfN.net]
- >>902
なるほど まつおっさんはそこを説明し忘れたと
- 936 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 17:13:34.69 ID:qQy3QKMA.net]
- わざわざ"ディープ"ラーニングだと言ってるのに今更「深さが重要だよ」程度の説明までしてやらなきゃならないのか
無知というのは本当に面倒だな
- 937 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 17:48:49.92 ID:lefeMdOl.net]
- >>902
深さはなぜ聞いてるんですか? 何に聞いてるんでしょうか? まさか、非線形だからなんて答えないですよね?
- 938 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 18:09:54.05 ID:2Bb0KoDB.net]
- 自分で調べて理解する方が早いのをなぜわざわざ他人に聞くんだろう
自力でやるほどのことではないと言うならそんなことを知ったところで君の人生において使い道などないだろうに
- 939 名前:デフォルトの名無しさん [2019/02/23(土) 18:42:59.52 ID:hvNgcyAg.net]
- >>905
それはね、ふか〜い意味がある でいいんじゃないか?
- 940 名前:デフォルトの名無しさん [2019/02/23(土) 18:53:50.90 ID:smDG7LGU.net]
- >>905
同じ関数を同じ精度で近似したい時、幅を増やすよりも深くする方がニューロンが少なくて済む 理論的な所は論文がいくつもあるがフォロー出来てない
- 941 名前:デフォルトの名無しさん [2019/02/23(土) 19:02:21.42 ID:+IwGCrFN.net]
- >>904
理論上は古典的な三層のMLPで関数の任意精度近似が出来るのになぜ"ディープ"にする必要があるのか? とか少しNN齧れば誰でも思い至る疑問を感じず、「"ディープ"ラーニングと言う名前だから深さが重要」で思考停止している人間よりマシだな
- 942 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 19:08:30.62 ID:C1vMZKUS.net]
- ゆうてもこのスレでディープラーニングのコード書いたことあるやつってほとんどいないよね?
- 943 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 19:39:07.90 ID:47rng884.net]
- >>910
流石にいっぱいいるだろw
- 944 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 19:55:58.24 ID:lefeMdOl.net]
- >>907
理論的な箇所? わらわら‥ ほとんど結果論でしか語ってないような‥
- 945 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 19:59:15.04 ID:lefeMdOl.net]
- 間違えた
>>908>>907 ほとんど結果論でしか語ってない
- 946 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 20:03:30.10 ID:lefeMdOl.net]
- >>908
いくつもあるか?本当に? 公理系からスタートしてる理論はほぼ皆無だよ
- 947 名前:デフォルトの名無しさん [2019/02/23(土) 20:30:39.92 ID:dhwbkJVr.net]
- >>914
理由として公理系から出発するレベルで厳密な証明を求めるならこんな所で聞かないで論文を読むべき 単にマウント取りたいだけならその限りではないが
- 948 名前:デフォルトの名無しさん [2019/02/23(土) 20:57:11.51 ID:+IwGCrFN.net]
- >>914
公理系の意味理解してるか? 標準的な数学の公理系に基づいているならわざわざそこから出発する意味はないよ 1+1の証明から始めてたらいつまで経っても目的の議論にたどり着けんやん
- 949 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 21:37:01.90 ID:VH7qWM06.net]
- >>914
NNの公理って何?
- 950 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 22:03:16.80 ID:C1vMZKUS.net]
- ZFC
- 951 名前:デフォルトの名無しさん mailto:sage [2019/02/23(土) 22:04:39.07 ID:JpeZVvP/.net]
- 公理とかw
数学と工学の区別ついてない
- 952 名前:デフォルトの名無しさん [2019/02/23(土) 23:37:24.82 ID:3YtKndGk.net]
- 鬼束ちひろを理解できるAI。
人間には無理。
- 953 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 00:36:01.42 ID:xoljfRCp.net]
- 始めの仮定の部分を示せばよいと言っている
その仮定が確からしいかどうか怪しいと言っている
- 954 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 01:02:08.29 ID:VgTkVybx.net]
- 怪しいと思うなら自分で正しいのか間違いなのか示せばいいのに
- 955 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 01:03:05.00 ID:xoljfRCp.net]
- 不十分です
- 956 名前:デフォルトの名無しさん [2019/02/24(日) 03:00:13.95 ID:NqeQYE6u.net]
- >>921
正しいか正しくないかは実験して確認するしかない ヒッグス粒子にしろ相対論にしろ実験で確認できるまでは仮設 正しいかどうかに関係なく論理展開は可能 相対論で言えば光の速さが最速で一定というのは 実証されていない段階で論旨展開されて 時空間の相対性が導かれたと思う
- 957 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 03:16:20.34 ID:xoljfRCp.net]
- 結局>>912-913に落ち着いた(笑)
- 958 名前:デフォルトの名無しさん [2019/02/24(日) 05:10:43.25 ID:AXtZKrFv.net]
- 「全」が最強ですか?
- 959 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 09:54:45.28 ID:yqjhGBK+.net]
- >>909
少しNN齧れば誰でも思い至るようなありふれた疑問なら少し調べればいくらでも答えは見つかるだろうになぜ自ら調べないのか
- 960 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 10:56:47.83 ID:qLJosHl4.net]
- 調べても深さと幅の関係はそんな単純ではないという結論だがな。
深さをあげれば掛け算で表現ノードが増えるという理屈はあるがあれはあれで怪しいし。 とりあえず実験的には深さを増してった方が有効というのは正しそうだが。
- 961 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 11:46:14.25 ID:0WG/AtDH.net]
- JDLA/E受けた人いる?
- 962 名前:デフォルトの名無しさん [2019/02/24(日) 16:41:44.01 ID:2fcQjxFq.net]
- >>907
不快な解答です
- 963 名前:デフォルトの名無しさん [2019/02/24(日) 16:55:23.56 ID:2fcQjxFq.net]
- >>924
>光の速さが最速で一定というのは これどうやって実証されたの?
- 964 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 17:04:26.90 ID:IFIZ4y1B.net]
- >>931
不快な質問です
- 965 名前:デフォルトの名無しさん [2019/02/24(日) 17:09:07.22 ID:jKObQ1kj.net]
- >>931
それが実証されたとは書いていない 導かれた予言が実証された
- 966 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 18:46:29.69 ID:qLJosHl4.net]
- 相対論の前から実際に検証されてたわけだが。
https://ja.wikipedia.org/wiki/%E3%83%9E%E3%82%A4%E3%82%B1%E3%83%AB%E3%82%BD%E3%83%B3%E3%83%BB%E3%83%A2%E3%83%BC%E3%83%AA%E3%83%BC%E3%81%AE%E5%AE%9F%E9%A8%93 こういう蓋然性を元にして相対論は整備された訳で、机上の空論に基づいて論理展開している訳ではない。
- 967 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 18:59:25.12 ID:xoljfRCp.net]
- 証明はないよ
実証とも言えない
- 968 名前:デフォルトの名無しさん [2019/02/24(日) 19:38:54.50 ID:dH1jxY0q.net]
- そっか、光の速度は量れたが
測定手段としては一定という量り方はないんだな
- 969 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 21:13:32.58 ID:hecgFBKK.net]
- 不快な回答です
- 970 名前:デフォルトの名無しさん mailto:sage [2019/02/24(日) 22:03:25.88 ID:Oi5UqcHs.net]
- そいつがルパンです
- 971 名前:デフォルトの名無しさん [2019/02/25(月) 10:57:08.92 ID:Opp/wdL5.net]
- >>934
当時その実験やってる最中に偶然重力波が観測(というか観測じゃなくて到達と言うべきか)されてたら 歴史は変わっていただろうね
- 972 名前:デフォルトの名無しさん mailto:sage [2019/02/26(火) 21:17:16.82 ID:tR5x62Pi.net]
- >>939
一回観測されたくらいじゃ変わらねーよ。 このあとどんだけ実験されたと思ってんだ。
- 973 名前:デフォルトの名無しさん [2019/02/27(水) 12:36:16.84 ID:+TCpifLa.net]
- 重力波なんて小さ過ぎて検出されないだけで
常に到達し続けていると言っても過言ではない
- 974 名前:デフォルトの名無しさん mailto:sage [2019/02/27(水) 15:03:53.75 ID:bMbuSEim.net]
- 観測しない限りは存在しないのと同じだ
- 975 名前:デフォルトの名無しさん mailto:sage [2019/02/27(水) 16:34:07.32 ID:k4u8hb2s.net]
- 観測されていないパンチラとかものすごい量になるんだろうなあ
- 976 名前:デフォルトの名無しさん mailto:sage [2019/02/27(水) 20:50:52.19 ID:R045imi1.net]
- せっかくパンチラしたのに見てももらえないとか可哀そう
- 977 名前:デフォルトの名無しさん mailto:sage [2019/02/27(水) 22:13:35.66 ID:OtL3sL+V.net]
- 田代まさし 観測したとたん観測者の実在が消えた
- 978 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 08:12:43.34 ID:zCgB15LN.net]
- 観測の定義ってなんなんだろ
- 979 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 08:30:50.12 ID:KCYW63t8.net]
- 客観的に確認・追実験できる形で記録すること
要は論文を書くこと
- 980 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 10:39:45.48 ID:VGCpzUD+.net]
- このスレは観測されています
- 981 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 11:14:13.22 ID:01EONdyB.net]
- 後から誰も何も確認できないなら観測していないのと同じだからね
「宇宙人見ました!写真も映像もないけどね」だと他人からすれば何の価値もない
- 982 名前:デフォルトの名無しさん [2019/02/28(木) 11:53:17.30 ID:yVNPvTLf.net]
- まあダークマターとか言われてるものも
パルサーのスピン軸がたまたま地球の方向を 一度も向かないだけのものが ものすごい量あるんだろうなあ
- 983 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 12:56:20.11 ID:+rccLB4x.net]
- >>950
何がどれだけあるかはっきり分かっていないので、 何かないと計算が合わないから何かあることにする ここまでは分かるんだけど、 宇宙はダークマターで満ちている!←おかしくね?
- 984 名前:デフォルトの名無しさん [2019/02/28(木) 13:03:52.47 ID:yyOtWed3.net]
- そういう苦情はNHKに言おうぜ
- 985 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 14:00:57.01 ID:KYbJVX3j.net]
- おかしいね、お前の頭が
- 986 名前:デフォルトの名無しさん [2019/02/28(木) 20:02:44.99 ID:mtH3V3ZR.net]
- おまいら
単なるデータへの あてはめに 高尚なこと 求めすぎだと 思うぞ? うまくあてはまった! マンセー! で、いいじゃん?
- 987 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 20:21:08.20 ID:xdOF/Hzc.net]
- >>951
おかしいと考える人も普通にいるだろうね。 エーテルはな
- 988 名前:ゥったがヒッグス粒子はあった、
とされている。 結局一番観測結果を説明できるモデルは何かという話。 [] - [ここ壊れてます]
- 989 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 21:34:13.35 ID:DbAr3TBt.net]
- フロギストン
- 990 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 21:35:37.61 ID:yuKOQ1T9.net]
- 縦読みじゃねーの?
- 991 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 21:52:28.50 ID:+rccLB4x.net]
- >>955
理屈上これ以上物質はないはずだから残りはダークマター←わかる どれだけ物質があるかわからないけど残りはダークマター←意味不明 ということを言いたいわけだが。
- 992 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 22:03:44.50 ID:SSe6Zoqq.net]
- AIがない
- 993 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 22:40:10.15 ID:fSWIW9GU.net]
- >>958
仮説にすぎないが、理由がわからないと仮設を認めないはギャップがあるが
- 994 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 23:52:17.35 ID:+rccLB4x.net]
- >>960
× 認めない 〇 理解できない
- 995 名前:デフォルトの名無しさん mailto:sage [2019/03/01(金) 03:13:44.82 ID:o95EdK6R.net]
- >>951
お魚さんが 宇宙は水でで満ちている!←おかしくね? というのと同じ
- 996 名前:デフォルトの名無しさん mailto:sage [2019/03/01(金) 10:25:53.68 ID:IX6wNu/y.net]
- >>961
理由が理解できなのか、勉強しろよ シリーズ現代の天文学(全17巻)
- 997 名前:デフォルトの名無しさん [2019/03/01(金) 13:02:14.00 ID:ozM8zBQ9.net]
- 魚でも地上(空中)の人間の顔とか識別してるし
虫が飛んで来たら水面より上にジャンプして虫捕まえる鯉とかいるし 961 は仮説以前の問題
- 998 名前:デフォルトの名無しさん mailto:sage [2019/03/01(金) 14:02:47.97 ID:/JrsUQub.net]
- 何だか全部がファンタジー
- 999 名前:デフォルトの名無しさん [2019/03/01(金) 19:59:30.11 ID:zZVuhjrI.net]
- >>929
受けた。物体検出精度指標の計算問題とか出たねw 定義知らないと死亡。数学っていうか算数か。
- 1000 名前:デフォルトの名無しさん mailto:sage [2019/03/01(金) 21:31:08.03 ID:Y8fj+4tW.net]
- >>958
すまん、 上になぜ納得できないのか下はなぜ納得できるのかさっぱりわからん。 別にどっちもどっちにしか思えないんだけど。
- 1001 名前:デフォルトの名無しさん mailto:sage [2019/03/01(金) 23:57:07.46 ID:7Z9PQtlK.net]
- >>958
科学に対するスタンスの違いかと。 観測できないものに想いを巡らせたところでそれは想像でしかなく宗教みたいな水掛け論になって不毛。 あくまで現時点で観測できるものがすべてで、それで説明できない部分はXと置いてそれが何かを考えましょう、という発想なのかと。 公平な立場だとだと思うよ。
- 1002 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 00:00:17.81 ID:+5R2WUKR.net]
- まだまだ分かんないことがたくさんあるよね、区別とか分類すらできないし、話がしやすいようにとりあえず一くくりにしてダークマターって名前つけとこうか、ぐらいの事だと思います。
- 1003 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 01:39:53.47 ID:Qi2NIRZm.net]
- JDLA/Eって金かかるだけの取得価値あるんかな
- 1004 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 01:53:18.36 ID:WE+y6WN7.net]
- >>967
下は「残り全部」とか言ってるけど、観測できないだけの物質があるかもしれないじゃん。
- 1005 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 08:57:53.40 ID:bakyLAA5.net]
- >>971
それは上の言い方でも下の言い方でも生じる疑問では?
- 1006 名前:デフォルトの名無しさん [2019/03/02(土) 10:11:28.63 ID:fiwzYa51.net]
- ダーク股
なんか臭そう
- 1007 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 10:42:45.71 ID:WE+y6WN7.net]
- >>972
上は、「ない」って言ってるじゃん
- 1008 名前:デフォルトの名無しさん [2019/03/02(土) 11:36:13.20 ID:+L4gK20K.net]
- 統一理論ニダ
↓ 説明出来ないものがある ↓ 観測出来ないものが影響していることにしよう ↓←(この時点で既に観測出来ないのに「存在すること」が前提になっている) 補正したニダ ↓ 上手く行った これって天動説だろ
- 1009 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 12:36:18.60 ID:i53lBiQc.net]
- そろそろ気づけよ、馬鹿
- 1010 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 13:12:21.37 ID:DCeemCxf.net]
- 理論的には何かが存在するという前提を置かないと成立しないが今のところ観測していないものをダークマターと呼ぶだけ
理屈も何もないけど適当にダークマターとやらを登場させたわけではないわけで、指摘は的外れすぎる
- 1011 名前:デフォルトの名無しさん [2019/03/02(土) 15:13:05.80 ID:dBQH/Cna.net]
- >>970
たとえばAI系の知識が全くない人がAI系部署に配属されちゃったりした場合みたいな - 本人に基本的な知識がない - 関係者一同からも素人だと認識されてる みたいな状況sだったら、講座も含めて資格取得に向けた行動aをとることに対する収益Eはたかいんじゃね? みたいな行動価値関数 Q^π(s,a)だと思う。
- 1012 名前:デフォルトの名無しさん [2019/03/02(土) 15:27:58.06 ID:YyFRO3t1.net]
- >>970
とる事自体の価値は分からんが、漠然とAIの勉強するよりは資格という分かりやすい報酬に向かって進む方がメンタル的に良いと思う
- 1013 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 17:37:27.67 ID:b3gGW1Qq.net]
- 資格なんか下らんというひとの大半は資格に合格できない人
- 1014 名前:デフォルトの名無しさん [2019/03/02(土) 17:41:24.93 ID:moD+CRH3.net]
- >>970
企業が社内エンジニアの教育によく使ってる 個人で受ける人はE資格は今のところ少ないね 英語分かるならコーセラの無料コース+ディープラーニングコースなら同程度の内容だし
- 1015 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 17:57:48.91 ID:DCeemCxf.net]
- 資格取らなくてもいいけどその分野で普通に働いてる人が取れるレベルの資格が取れないのはヤバイ
取らないのか取れないのかの区別が大事
- 1016 名前:デフォルトの名無しさん [2019/03/02(土) 21:51:38.20 ID:W81kTJxo.net]
- データ分析して15年。
資格?はあ?って感じる。
- 1017 名前:デフォルトの名無しさん mailto:sage [2019/03/02(土) 23:41:21.01 ID:umeJeX9b.net]
- 資格よりカグルで何位とかの方がアピールになると思う
- 1018 名前:デフォルトの名無しさん [2019/03/03(日) 00:12:43.79 ID:oVEKznCH.net]
- 大企業とかでこの資格持ってる人は優先的に採用しますみたいなのが出てきたら機械学習の分野にだって資格は定着するよ
- 1019 名前:デフォルトの名無しさん mailto:sage [2019/03/03(日) 01:19:08.01 ID:wfftRGsB.net]
- 大企業は、そういう資格を持ってる人を「使う」だけで
採用したいと思うかどうかは別の話だな。
- 1020 名前:デフォルトの名無しさん [2019/03/03(日) 06:18:40.27 ID:ChZC+e8W.net]
- >>980
そうでもない
- 1021 名前:デフォルトの名無しさん [2019/03/03(日) 06:19:44.07 ID:ChZC+e8W.net]
- >>982
本質は実務の方だよな
- 1022 名前:デフォルトの名無しさん [2019/03/03(日) 06:21:24.19 ID:ChZC+e8W.net]
- >>985
資格は定着しても(それも怪しいが)技術は定着しない 今の日本の凋落っぷり見れば判るだろ
- 1023 名前:デフォルトの名無しさん mailto:sage [2019/03/03(日) 12:30:48.80 ID:x8Qrwy2l.net]
- とりあえず老害にならないこと。
データ分析?15年?はぁ? それが資格なんかよりもずっと重要。
- 1024 名前:デフォルトの名無しさん mailto:sage [2019/03/03(日) 12:39:13.18 ID:Oy6BIrlL.net]
- G資格なんかカンニングし放題なんだよな
- 1025 名前:デフォルトの名無しさん mailto:sage [2019/03/03(日) 15:17:45.60 ID:y0TSKvwt.net]
- 巨人検定か、川上監督は何連覇したでしょうか?
- 1026 名前:デフォルトの名無しさん [2019/03/03(日) 16:45:29.82 ID:ObzEoum5.net]
- 若い自惚れた馬鹿連中が
『私はデータサイエンティストです!』 とか言ってるんだ。 論文も書いたことないのにw 控えろよクズ!
- 1027 名前:デフォルトの名無しさん [2019/03/03(日) 16:47:35.05 ID:ObzEoum5.net]
- >>990
若害がひどい ど素人の馬鹿のくせに 『私はデータサイエンティストです!』 とかw
- 1028 名前:デフォルトの名無しさん [2019/03/03(日) 17:31:04.18 ID:ewmKZfia.net]
- 自称データサイエンティスト「ロジスティック回帰?何ですかそれ」
- 1029 名前:デフォルトの名無しさん [2019/03/03(日) 17:55:15.29 ID:E4UxtVYi.net]
- データマイニングと何が違うん?
- 1030 名前:デフォルトの名無しさん mailto:sage [2019/03/03(日) 20:13:47.57 ID:mCfJXRgA.net]
- データ山師
- 1031 名前:デフォルトの名無しさん [2019/03/04(月) 04:15:30.30 ID:DAN4+o0x.net]
- wikipediaで
機械学習 ディープラーニング データマイニング それぞれ同じ絵で説明されてたわω
- 1032 名前:デフォルトの名無しさん [2019/03/04(月) 20:09:50.95 ID:SGJ/lNia.net]
- ディープラーニングやってみてるけど、
こりゃ難しいわ。 さっぱり分からんので、 書店にいって分かりやすそうな本買ってきたw アホな俺は涙目!
- 1033 名前:デフォルトの名無しさん [2019/03/04(月) 20:18:47.22 ID:AYtclDj4.net]
- >>999
マセマ の馬場先生に「ディープラーニングのための数学」でも書いてもらわんとな。 石村夫妻でも
- 1034 名前:デフォルトの名無しさん mailto:sage [2019/03/04(月) 20:23:01.75 ID:LITO+WrP.net]
- sm34712379
- 1035 名前:1001 [Over 1000 Thread.net]
- このスレッドは1000を超えました。
新しいスレッドを立ててください。 life time: 797日 8時間 13分 57秒
- 1036 名前:過去ログ ★ [[過去ログ]]
- ■ このスレッドは過去ログ倉庫に格納されています
|

|