- 63 名前:デフォルトの名無しさん [2019/07/03(水) 19:28:40.72 ID:I+RRGz+cx.net]
- >>54
Rの方はよく知らないけど整合取るには双方のヘルプ・ソースコードとニラメッコじゃないだろうか nnetのオプティマイザはBFGSだけどscikitのsolverはデフォルトでadam nnetの損失関数はLeast Squareだけどscikitの方はLog-loss ヘルプを見る限りnnetのdecayとscikitのmlpのalphaは同じように見える 両方ともL2正則化のペナルティを表すもので、Rのデフォルトが0でscikitのデフォルトが0.0001 いろいろ違いそうだね
|

|