[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 1001- 2ch.scのread.cgiへ]
Update time : 08/18 23:45 / Filesize : 246 KB / Number-of Response : 1024
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

【統計分析】機械学習・データマイニング23



1 名前:デフォルトの名無しさん mailto:sage [2019/02/28(木) 20:07:20.50 ID:PNBr8RBB0.net]
!extend:on:vvvvvv:1000:512
機械学習とデータマイニングについて語れ若人


■関連サイト
機械学習の「朱鷺の杜Wiki」
ibisforest.org/
DeepLearning研究 2016年のまとめ
qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング22
https://mevius.5ch.net/test/read.cgi/tech/1547338417/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:----: EXT was configured

720 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 17:45:50.21 ID:Y5zkdmyW0.net]
>>705
おま環

721 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 18:37:00.59 ID:uOQPFqgEd.net]
>>706
まるで「完璧な読解力」を実現するのが容易みたいな言い回しだな

722 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 19:27:38.81 ID:Ot8/NUB60.net]
He runs the shop.

723 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 19:58:08.96 ID:eKs7JEmk0.net]
学歴高い人多いのね
学歴低いから萎縮しちゃう

724 名前: mailto:sage [2019/04/14(日) 20:04:24.66 ID:AVvjfIV70.net]
>>710
すごい人がいっぱいですね…
底辺高卒だから…いろいろとしんどいですね…

725 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 20:26:52.90 ID:ICPBpjQ10.net]
教師ありと教師なしだと教師ありの方が精度良いの?

726 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 20:34:12.62 ID:7SYJtYmD0.net]
はい

727 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 20:38:59.50 ID:YhnOXq5E0.net]
精度がいい悪いじゃなくて、基本的にタスクが違うと思うんだけど

728 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 20:46:53.17 ID:ICPBpjQ10.net]
>>714
画像分類なんだけど教師ありと教師なし上司がどっちが良いかも含めて検討しろって言ってた
俺知識が浅いから???ってなったんだけど教師なしで画像分類とかやろうとするとオートエンコーダとか使うんだよね?
多分それのことかなぁ…



729 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 21:06:17.07 ID:YhnOXq5E0.net]
>>715
教師ありならラベルの推定をするのが目的だし、教師なしならデータの分布自体を学習したりクラスタリングするのが目的になると思うけど
画像分類っていってるんだからラベルの推定をしたいってことなんだろうね

訓練データに全部ラベルがついているなら教師ありで学習するべきだろうし、
ラベルの付いたデータが少なくてたくさんのラベル無しデータがあるなら
半教師あり学習、PU learningや能動学習を検討すべきじゃないかなと思う

730 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 21:36:22.14 ID:ICPBpjQ10.net]
>>716
ありがとう
分かりやすい

今はラベル付いてる(自分で付けた)画像で分類出来るか勉強してるんだけど実際現場とかだとNG判別したい画像とかってほぼ取れなくて正常10万枚、不良1枚みたいな割合のデータしか取れないんだけどこういう場合も基本的には教師ありを使うべき?
それとも教師なしみたいな正常と不良の分布とかを学習させた方がいい?

731 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 21:55:55.23 ID:ydO5op7U0.net]
>>717
不良率1/10万とか学習いらなくね?

732 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 21:56:43.63 ID:ydO5op7U0.net]
ミス
学習じゃなくて分類、判別

733 名前:デフォルトの名無しさん mailto:sage [2019/04/14(日) 22:06:53.96 ID:YQLb8Tsj0.net]
そのレベルの検出精度を求めるなら機械学習は全然向いてないよ

734 名前:デフォルトの名無しさん [2019/04/15(月) 12:18:17.97 ID:64KUE7VLd.net]
機械学習とディープラーニングの違いは
一言で言うと

機械学習は、人間が特徴量を設計しなければいけない。
ディープラーニングは、コンピュータが自動で特徴量を学習する。

これでOKですか?

それで、従来の機械学習は廃れたの?

735 名前:デフォルトの名無しさん [2019/04/15(月) 12:24:42.63 ID:gVz3O2O7H.net]
okじゃないです

736 名前:デフォルトの名無しさん mailto:sage [2019/04/15(月) 12:34:43.64 ID:IOJRlMQl0.net]
ディープラーニングも機械学習のひとつでそ。

737 名前:デフォルトの名無しさん mailto:sage [2019/04/15(月) 12:35:21.99 ID:0GghKNuua.net]
ディープラーニングは多々存在する機械学習的手法の1つ
これでOK

738 名前:デフォルトの名無しさん [2019/04/15(月) 12:49:42.19 ID:G98SvtfiM.net]
あまたの分析手法のなかでも
非線形の当てはめチャンピオンが
ディープラーニングと思ってOK?



739 名前:デフォルトの名無しさん mailto:sage [2019/04/15(月) 16:52:49.51 ID:Q5EcFbR5p.net]
みんなtensorflowとかkerasとか普通に使えるの?
書き方難しすぎてわけわからないんだけど…

740 名前:デフォルトの名無しさん [2019/04/15(月) 17:53:51.19 ID:64KUE7VLd.net]
>>726
それなら、SONYのNeural Network Consoleを
使ってみてはどうでしょうか?

741 名前:デフォルトの名無しさん mailto:sage [2019/04/15(月) 18:21:23.77 ID:N+J2LgwV0.net]
keras使えなかったら諦めろ

742 名前:デフォルトの名無しさん [2019/04/15(月) 19:22:34.95 ID:zcdYjhdZa.net]
>>721
他の手法も廃れてはいない
ディープラーニングはデータが大量にいるのと精度出すためのチューニングが難しいから

743 名前:デフォルトの名無しさん [2019/04/15(月) 22:46:58.67 ID:uz9dw6bx0.net]
PyTorch、Chainer、Keras、TensorFlow等の
フレームワークとSONYのNNCなら
どちらの方を学んだ方が良いのでしょうか?

また、これらのフレームワークを使っている人から見て
SONYのNNCはどう思われますか?

744 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 00:07:54.62 ID:j2FFrW1Ep.net]
>>730
主観で言うから話半分くらいで聞いてもらえば幸い
SonyのNNCは値段を気にしなくて良いのであれば、かなり良いと思う

例を挙げると、ResnetにSEでバイパスして結果をさらにLSTMに流して〜、なんてのは慣れていてもコードベースだとごちゃごちゃする
また各レイヤーの入出力の次元を常に意識してコード書く必要があるけど、GUIでそのストレスが軽減されるのは大きい
拙いと言われつつも構造最適化機能がありtalos等のパラメータサーチを自分で設定しなくても済むのは便利だ
GUIで線を繋ぐだけなら初心者でも理解可能だけど、kerasだPyTorchだと言うところから始めると敷居が高くとてもそこまでたどり着けない

にも関わらず、なぜ大ブームにならないかと言うと、理由は二つあると考えている
一つは新たなネットワークを設計する業務がそこまで多くない点
もう一つはバックエンドがNNABLAというkerasでもPyTorchでもないマイナーなものである点

ただONNXという共通フォーマットに対応してからしばらく経つのにまだ流行ってないところを見ると、前者のネットワーク設計業務が業務として定着していないのだと思われる
githubで拾ってきたコードを適当に回せばそれなりに仕事として成立するのだろう

745 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 00:36:10.44 ID:K2+Uh9uXa.net]
sonyのは素人でもポチポチするだけでできるお手軽ツールだからこれを使いこなすことを目的にしてはならない
なぜなら素人でも使えるものを人よりちょっと使いこなせるのは何の強みにもならないから
何となく雰囲気を掴んで今後更に勉強する前段階とするだけならいいけど

746 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 01:08:21.21 ID:MLfELUd00.net]
一昔まえならダントツでkeras一択だったんだけど、最近MSがちゃんとやりだしてpytorchが進歩しだした
ハッキリ言ってうざい

747 名前:デフォルトの名無しさん [2019/04/16(火) 06:46:43.11 ID:9W4+pAXwa.net]
初心者ならchainerがおススメ。慣れてからpytorhもkerasもtensorflowもやれ。

748 名前:デフォルトの名無しさん [2019/04/16(火) 07:22:30.06 ID:eLm86Who0.net]
msのcntkはオワコンなの?



749 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 07:37:42.50 ID:uRUKDh7n0.net]
keras よく分かんないけど出来上がる
pytorch 自分で書けすぎて何やって良いか分からない

750 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 08:13:45.81 ID:dFuxCqAG0.net]
別にどれも結局コピペして適当なとこ変えるだけだと思うが。

751 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 08:15:19.81 ID:kUtcC1yTM.net]
>>731
日本企業はまだディープラーニングとりあえず成果出しましたレベルなんじゃないか
専門でやってきたとこは違うだろうけど

752 名前:デフォルトの名無しさん [2019/04/16(火) 12:55:35.90 ID:otCO5u4tH.net]
ディープラーニングでなければならないタスクを抱えている企業は少ないのでは?

753 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 15:43:56.08 ID:j+hUKrcC0.net]
まぁ手段の一つにすぎないよ。俺のとこは年に二つくらい機械学習案件はない

754 名前:デフォルトの名無しさん [2019/04/16(火) 20:36:38.33 ID:HdXRcaLp0.net]
日本がAIで勝つために「知の爆縮」を起こす
── 技術は成熟し、コモディティ化する
https://ledge.ai/connectome-design/

なにを言っているのか、さっぱりわからん。

「一気に事業をグロースさせる」とか
「技術はコモディティ化している」とか
「知の爆縮を起こす」とか
なんかそれっぽい言葉をちりばめると
お金が集まる分野なんだろうってことだけはわかる。

755 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 20:57:35.22 ID:eLm86Who0.net]
佐藤 聡(さとう あきら)だって(笑)
無能そう
なにも作ったことなさそう
論文もなさそう

756 名前:デフォルトの名無しさん mailto:sage [2019/04/16(火) 21:03:30.96 ID:dFuxCqAG0.net]
こういうカスみたいな記事が増えてるってのはブーム

757 名前:終焉かもな。 []
[ここ壊れてます]

758 名前:デフォルトの名無しさん mailto:sage [2019/04/17(水) 00:41:19.16 ID:pIoOruhfa.net]
>>741
ざっと読んだけど、何言ってるか分からないのは単に読解力がないだけだろう
ただし大したことは書いてないので別に理解できなくても問題はない



759 名前:デフォルトの名無しさん [2019/04/17(水) 00:51:28.93 ID:nGDWoLvP0.net]
>>731
ネットワーク設計とはどういうことを指摘しているのですか?

760 名前:デフォルトの名無しさん mailto:sage [2019/04/17(水) 01:56:35.53 ID:UDUN5nb9p.net]
>>745
文字通りニューラルネットワークの設計
新しい課題に適用する場合やチューニングをする際に必要となる

新しい課題では、似たような課題から似たようなニューラルネットワークを組むことから始める
勾配消失してると感じたらバイパスさせたり、過学習に陥りやすいときに適当にdropout挟んだりと、慣れてくるとどこに何をどこに配置すると性能が向上するのかが見えてくる

また上手く行っていたモデルが、入力データが異なると学習がうまくできないことがある
そこでチューニングという作業が発生する
チューニングは前処理を変えたりモデルを変えたりする
モデルを変えたい場合、例えばCNNの畳み込み層とプーリング層を一段深くしてみたり、全結合のニューロン増やしたり、活性化関数をReLUからtanhにしたり、あるいはオプティマイザをadamからadagradに変更したりする
恐ろしいことに、これだけで性能が恐ろしく向上する事が多々あり、理由が分かることのが少ない

このチューニングも含めたビジネスロジックに組み込むための(ニューラル)ネットワークの最終形態を作ることを設計と言っている

761 名前:デフォルトの名無しさん mailto:sage [2019/04/17(水) 07:20:08.59 ID:zRs6mVlW0.net]
nnablaのベンチマークが出てこない
pytorchやtensorflowに比べて速いんかどうかなんだけど

762 名前:デフォルトの名無しさん [2019/04/17(水) 12:50:36.97 ID:WckshTj9M.net]
>>734
chainerをやろうとしましたけど、
多変量LSTMのサンプルをいろいろ探しても
いいのが見つかっていません。
どこかアホにも分かるようなサイト教えて下さい!

763 名前:デフォルトの名無しさん [2019/04/17(水) 19:09:42.27 ID:hVcgMCQ3H.net]
データフレームにはベクトルを入れられるの?

764 名前:デフォルトの名無しさん [2019/04/17(水) 19:38:50.63 ID:XEpE4IOT0.net]
以下のブログを読めば
フレーム問題は解決済みと言えますか?

フレーム問題は解決済み −フレーム問題に見る、AI史の闇ー
https://robomind.co.jp/frameproblem/

765 名前:デフォルトの名無しさん mailto:sage [2019/04/17(水) 20:26:08.51 ID:WIrsZtM70.net]
フレーム問題は思考実験みたいなもん
全然気にしなくて良い

766 名前:デフォルトの名無しさん mailto:sage [2019/04/17(水) 20:31:32.36 ID:DaACwh1w0.net]
まあそもそも人間もフレーム問題間違ってるやつばっかだし。

767 名前:デフォルトの名無しさん mailto:sage [2019/04/17(水) 20:35:55.93 ID:zRs6mVlW0.net]
pandasのデータフレームにはベクトルを入れられるの?

768 名前:デフォルトの名無しさん mailto:sage [2019/04/18(木) 05:36:03.29 ID:JIRwwjUkp.net]
>>753
入れられるけど使いにくいよ?



769 名前:デフォルトの名無しさん [2019/04/18(木) 05:42:33.05 ID:AMebxmaN0.net]
そうなんだ
埋め込みベクトルは各々の要素を次元別のカラムに展開するのが定石なの?

770 名前:デフォルトの名無しさん mailto:sage [2019/04/18(木) 08:40:45.74 ID:TKY2dD+op.net]
時間という概念が理解できてれば、社会の枠組みに囚われた者たちがどれだけ不自由を強いられてるか理解できるだろう。

771 名前:デフォルトの名無しさん mailto:sage [2019/04/18(木) 11:45:22.79 ID:JIRwwjUkp.net]
>>755
何がやりたいかにもよるけど、別々に入れておくと
統計量出したりリサンプリングしたりplotしたりそのままscikit-learnの入力にできたりとメリット多い

772 名前:デフォルトの名無しさん [2019/04/18(木) 20:35:14.64 ID:AMebxmaN0.net]
>>757
そうなんだ、ありがとう

773 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 15:44:39.99 ID:0fUB+1+Q0.net]
よくユーチューブとかでdqnを使った強化学習のシュミレーションとかやってるけど
それらの

774 名前:dqnってディープラーニングは使ってるの?
lstm使ってるだけだとディープラーニングとは言わないよね?
[]
[ここ壊れてます]

775 名前:デフォルトの名無しさん [2019/04/20(土) 16:03:21.89 ID:uP7F94RHM.net]
lstmは十分ディープラーニング枠でしょ

776 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 16:20:23.60 ID:kDZxvYX7d.net]
Q学習にDNN使ったのがDQNでしょ

777 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 17:09:54.82 ID:HJdwOYu4a.net]
中間層が複数なら何でもディープラーニングだよ

778 名前:デフォルトの名無しさん [2019/04/20(土) 18:37:47.85 ID:tuvQzCfP0.net]
無料ブログは稼げない。稼ぐならオススメはWordPress一択の理由
https://www.youtube.com/watch?v=o8oUe3JS-lg
【初心者向け】稼げるブログの作り方?アクセスを稼げる記事の書き方とSEOの基礎【発信力強化合宿#2】
https://www.youtube.com/watch?v=CMMmuuGCqtQ&t=1664s
SNSの基礎的な使い方とツイッターフォロワーを増やす方法
https://www.youtube.com/watch?v=M0TtX_gVR6E
ブログで不労所得1億円!?ブログでお金を稼ぐ仕組みを解説〜イケダハヤトさんはブログで年間1.5億円の収入!
https://www.youtube.com/watch?v=eWw-RfbNP1g&t=517s
【クラウドソーシング】Webライティングで月商100万円まで稼ぐ方法をプロに解説してもらった!
https://www.youtube.com/watch?v=oYoaBwQt0Cg&t=345s
1年半でライターの地位を確立した営業術!駆け出しフリーランスは要チェック【ニシキドアヤト】
https://www.youtube.com/watch?v=DFtmkhw-lHM
ブログで1000万円稼ぐ人気ブロガーに実態を聞いてみた!
https://www.youtube.com/watch?v=YaZVpckvtZ4
エンジニアブロガーが教える「ブログで稼ぐ」ために絶対理解すべきこと
https://www.youtube.com/watch?v=Zks-uVfY02I&t=16s
稼げるブログの始め方をブロガーが解説!副業や不労所得を作る
https://www.youtube.com/watch?v=CHn6tNCYAZM&t=161s
【学生向け】ブログで月1万円を稼いでいる実例をわかりやすく紹介〜ブログやアフィリエイト入門
https://www.youtube.com/watch?v=mjHp2Fqj9OE&t=205s
ほりえもんのブログでバカでも1000万以上稼ぐ
https://www.youtube.com/watch?v=hiNby1mxgn4
【初心者向け】ブログ、SNS、YouTubeで「最初の1円」を稼ぐ方法を解説。
https://www.youtube.com/watch?v=DHhQPxIU1qA
大学生がやるべきことは「お金稼ぎ」です【時給労働から抜け出そう】
https://www.youtube.com/watch?v=xlNQzqa7jXA



779 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 19:53:45.49 ID:0fUB+1+Q0.net]
>>762
2層のニューラルネットワークでもディープラーニングと言えるの?

780 名前:デフォルトの名無しさん [2019/04/20(土) 20:18:01.99 ID:8/H9xiiDa.net]
>>764
自分はそう思う
定義なんてないが

781 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 20:22:06.65 ID:iHOsOjyF0.net]
>>764
二層だけでdlなんて言うアホおらん
そんな厳密に定義求めても仕方ない

782 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 20:31:37.67 ID:l6b5x/bP0.net]
2層でニューラルネットワークと言ってた頃はあったですよ

783 名前:デフォルトの名無しさん [2019/04/20(土) 20:32:11.55 ID:QgvhEh8P0.net]
は?

784 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 20:47:10.15 ID:jgHC80sC0.net]
>>768
「は?」とか言うくらいならちゃんと間違い指摘してあげて

785 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 21:56:08.62 ID:QsKi4jtu0.net]
バックプロパゲーションで詰んだ
順伝播はほほーんってなったけど数学分からん俺にはハードルゲロ高い

786 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 22:13:05.77 ID:0fUB+1+Q0.net]
ニューラルネットワークとディープラーニングは根本的に学習のさせ方が違うと思うだけど

787 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 22:25:45.89 ID:D0CGTZnkp.net]
>>771
根本的に理解してないか大きな勘違いをしてるぞ
ディープラーニングはニューラルネットワークの一種

788 名前:デフォルトの名無しさん mailto:sage [2019/04/20(土) 22:30:25.12 ID:D0CGTZnkp.net]
>>767
ニューラルネットワークは何層でも構わない

以下は一層のニューラルネットワークの例
Input ―> (neuron|activation) ―> Output

ディープラーニングは三層以上のニューラルネットワークと言われている



789 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 01:20:55.48 ID:aRPhJ5ei0.net]
ディープラーニングって単にニューラルネットワークの中間層を増やすだけなんか?

790 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 01:31:18.52 ID:M/a5iigF0.net]
ディープニューラルネットワークとも言うでしょ

791 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 03:34:26.64 ID:aRPhJ5ei0.net]
層を増やすだけなら
なんでジェフリーヒントンがディープラーニング発見するまでに時間かかったんや?

792 名前:デフォルトの名無しさん [2019/04/21(日) 04:55:11.58 ID:gW8lsVjX0.net]
計算できないからだよ

793 名前:デフォルトの名無しさん [2019/04/21(日) 08:06:31.60 ID:Z7Ny5UGC0.net]
>>774
中間層を増やすだけでも
それを上手く学習される技術がわからなかった
それを解決できた

794 名前:デフォルトの名無しさん [2019/04/21(日) 08:08:01.74 ID:Z7Ny5UGC0.net]
>>776
自分で少ない層のニューラルネットワークを作って
単純に中間層を増やして動かしてみたら良いよ

795 名前:デフォルトの名無しさん [2019/04/21(日) 11:40:50.99 ID:X66J/yPd0.net]
ディープラーニングの中間層を大脳のようにランダムに配置したり
伝播をカオス化させたりするのはうまくいかないんでしょうか
新しいものが生まれそうな気がするんですが
そういう研究はあると思うのにネットで検索してもでてこない

796 名前:デフォルトの名無しさん [2019/04/21(日) 12:01:24.17 ID:QxBwEbiO0.net]
fasttextを使ってみて驚いた
標準ライブラリだけでこの速度と精度を実現してるの??

797 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 14:34:18.10 ID:iN8e06dBp.net]
>>780
今のところ一番近いキーワードはベイジアンネットワークかな
一般的には神経科学を計算機で実現する計算神経科学と呼ばれる分野

バックプロパゲーションは脳内では起きていないと言われていて、今のニューラルネットワークはヒトの脳とはどこか違うらしい

798 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 14:54:11.11 ID:S/sx7hKld.net]
>>780
今月の頭にFacebookが公開したrandomly wired neural networksはどう?



799 名前:デフォルトの名無しさん [2019/04/21(日) 14:54:15.94 ID:YKRN8m01M.net]
>>782
昨年発見されて話題になったのは違うの?

人間の脳の解明には
少なくともあと100年
かかると言われてる。

それまで俺は生きていないので
困ってるところ。

800 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 15:03:51.42 ID:7jtZEDKn0.net]
脳の解析は必ずしも必要ではない
例えば空を飛ぶのに鳥の羽根を模倣する必要はない。参考にはしてもいいけどね

そういう意味では脳の解析は100年後になるぐらい、どうでもいいことだとは思う

801 名前:デフォルトの名無しさん [2019/04/21(日) 15:17:24.07 ID:X+dVpzWxF.net]
人間はミスが多い
錯覚も多い
勘違いも多い
思い込みで暴走しまくる

人間と同じもの人間の延長で造っても仕方ない
人間を模倣するべきではない

802 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 15:19:06.82 ID:7jtZEDKn0.net]
>>786
機械学習も錯覚を感じるんだぜ

803 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 15:25:28.71 ID:N1bfuPBQ0.net]
>>780
ないなら自分で研究したら

804 名前:デフォルトの名無しさん mailto:sage [2019/04/21(日) 16:44:48.50 ID:16IUzPjsa.net]
ニューラルネットワーク界隈も元々は人間の脳を再現することを目的としていて
どれだけ実用性があるモデルでも学会では脳の機構とはかけ離れているというだけで拒絶されていたが
今やニューラルネットワークは脳を再現することを目的とするものではなくなっている

805 名前:デフォルトの名無しさん [2019/04/21(日) 17:09:55.18 ID:QxBwEbiO0.net]
https://arxiv.org/abs/1904.05391
バックプロパゲーション的なことは実際には起きてるらしいよ

806 名前:デフォルトの名無しさん [2019/04/21(日) 19:35:02.65 ID:Advw4iJHM.net]
>>773
「N層ネットワーク」とは通常入力層を除いたものなのでそれだと2層じゃないかな

cs231n.github.io/neural-networks-1/#layers

807 名前:デフォルトの名無しさん [2019/04/21(日) 20:24:16.17 ID:bh4LIHDZa.net]
>>782
よくそんなに適当な事書けるな

808 名前:デフォルトの名無しさん mailto:sage [2019/04/ ]
[ここ壊れてます]



809 名前:21(日) 20:30:38.20 ID:Rpc86o3sr.net mailto: ディープラーニングは層が何層にもなってて深いニューラルネットってことでしょ?
全く知らんけどたぶん歴史的に一層か二層の浅いニューラルネットやってた時期があってそれに比べて深いからディープラーニングって言われるようになったんじゃない?
[]
[ここ壊れてます]

810 名前:デフォルトの名無しさん [2019/04/21(日) 21:34:43.32 ID:X66J/yPd0.net]
二層先に繋げたり二層戻すことを
追加すると変更前のデータを参照できると思うのですが
そういうのはありますか?

811 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 00:32:51.22 ID:Xu5D3g840.net]
>>793
全く知らないなら書き込まなくてもいいですよカスが

812 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 07:01:10.70 ID:vzs0SdtLp.net]
>>791
重みの数が一層だから一層ですよ

>>782
どの辺りが適当?

813 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 08:23:31.13 ID:IPMmdhQ/M.net]
>>796
>重みの数が一層だから一層ですよ

なんだやったことすらもない人かもう絡んでこないでね

814 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 08:29:53.74 ID:/TINcjlya.net]
ニューラルネットの層数のカウントで入出力層をどう数えるかなんてカウントする人の定義次第であって決まった方法などないからどうでもいい

815 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 08:35:49.77 ID:IPMmdhQ/M.net]
>>798
こっちの方が割と現実よね

816 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 09:51:07.02 ID:vzs0SdtLp.net]
>>798
定義はあるよ、間違えている記事が多いだけ
入力層を数えない=層と層の間の重みの段数だよ
そうでないとResNet等の層数が変わってくる

ちなみに(neuron|activation)は一つの○ね
書き方まずかったかも知れんね

activationを別の層と考える人もいるようだけど、それはkerasのせいかな

817 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 09:53:23.58 ID:vzs0SdtLp.net]
>>794
skip connection

818 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 10:32:33.53 ID:vzs0SdtLp.net]
すれ違いの理由が分かった
書き方に問題があった

Input layer ―- Hidden layer ―- Output layer
なら二層

書きたかったのは
x ―-(wx|activation) ―- y
ということなんだ

上の書き方なら
Input layer ―- Output layer
に相当する



819 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 11:06:49.82 ID:IPMmdhQ/M.net]
>>802
割と煽った書き方しちゃったけど結構紳士かつ真摯なレスする人なんだね…

新たに書いてくれたような内容なら同意。きつく言っちゃってゴメンね

820 名前:デフォルトの名無しさん mailto:sage [2019/04/22(月) 12:16:34.14 ID:lqB8SLfdp.net]
数学的な知識が乏しい自分がやる事自体間違いなのかもしれないけどみんな数学的な部分も理解してる?
導関数とか勾配とかこんなの分かるとかみんな凄すぎだわ






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<246KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef