- 20 名前:デフォルトの名無しさん mailto:sage [2017/02/19(日) 18:39:03.01 ID:ISEOKjyH.net]
- >>前スレ982
>層数が増えると補完曲線として高性能化する理由がいまだにわからんのだけど 層によって異なる傾向の特徴を学習するからだろう。 畳み込みニューラルネットワークの可視化 aidiary.hatenablog.com/entry/20170216/1487252452 > 各フィルタが何を学習したかを可視化する別のアプローチとして > 各フィルタの出力を最大化するような入力画像を生成する手法が提案された。 >隠れ層のフィルタの可視化 > 浅い層ほど単純な特徴が深い層ほど複雑な特徴が学習されていることがわかる。
|

|