【統計分析】機械学習・データマイニング20 at TECH
[2ch|▼Menu]
[前50を表示]
200:デフォルトの名無しさん
18/08/28 21:37:45.20 nyQJ+koHa.net
>>187
仕事で深層学習を付け焼き刃で使ってるけど、特に困ってないよ

201:デフォルトの名無しさん
18/08/28 22:52:10.12 nisRN7fPM.net
ドット絵みたいな意味のある形を含む点群があったとして、その点群の中から学習させた意味のある形を検出したいです
なにか良さげなアルゴリズムとかありませんか?

202:デフォルトの名無しさん
18/08/28 23:48:29.13 /fs3ieZp0.net
>>195
CNN

203:デフォルトの名無しさん
18/08/29 00:12:46.00 PwHTZQO10.net
機械学習ブームに乗って、生まれ変わったら異世界のデータサイエンティストだったで電撃に応募する

204:デフォルトの名無しさん
18/08/29 00:18:06.21 Aqt94EbEM.net
Kerasって便利なのにあんまし人気ないよね
なんで

205:デフォルトの名無しさん
18/08/29 00:20:12.74 4x1+Uez8a.net
>>198
URLリンク(trends.google.co.jp)

206:デフォルトの名無しさん
18/08/29 00:25:13.71 iKxOrgLNd.net
>>198
どこでの話だ、さすがにそれはない。
pytorch が猛追してるけど、tf + keras が圧倒的でしょ

207:デフォルトの名無しさん
18/08/29 00:43:28.75 J5ZLnez10.net
ディープラーニングならKeras、他のアルゴはscikit-learn

208:デフォルトの名無しさん
18/08/29 01:03:14.99 4x1+Uez8a.net
>>201
情報量も多いし取っ付きやすいし、一番現実的な選択だと思う

209:デフォルトの名無しさん
18/08/29 04:08:11.80 4LmLfDb3a.net
>>96
多数決システムにすれば良い

210:デフォルトの名無しさん
18/08/29 06:26:09.02 UP9EO1Hha.net
>>201
やはりgoogleのtensorflowだろ。

211:デフォルトの名無しさん
18/08/29 07:42:15.00 J5ZLnez10.net
KerasのバックエンドはTensorFlow

212:デフォルトの名無しさん
18/08/29 12:46:20.23 WJGhptOe0.net
kerasの作者の本読んだら、
「ディープラーニングで相場の予想は出来ない。やるだけ無駄なので時間を捨てるのは止めとけ」って全否定されてたわ
わざわざ苦言を呈するくらい相場の予想させたいって奴ばっかりなんだろうね

213:デフォルトの名無しさん
18/08/29 14:12:36.60 slaughny0.net
相場予測系は詐欺商品多すぎでしょう

214:デフォルトの名無しさん
18/08/29 21:49:35.15 797j62Wx0.net
ドーパミンだって
Google、TensorFlowベースの強化学習フレームワーク「Dopamine」を公開
URLリンク(mag.osdn.jp)

215:デフォルトの名無しさん
18/08/30 00:40:05.35 D8zsotkh0.net
まだTensorFlowでゴリゴリ書いてる奴おる?

216:デフォルトの名無しさん
18/08/30 00:57:56.81 /0YXnEsV0.net
むしろTensorFlowはモデルが理解できてないヤツには使えない
それ以外のは機械学習がよく分からなくても使えた気になれる

217:デフォルトの名無しさん
18/08/30 02:35:27.51 DH3FHNZNd.net
>>209
というか、kerasがtensorflowに統合されたから両方のAPIを使ってる
>>210
まぁそうかもしれない

218:デフォルトの名無しさん
18/08/30 06:17:31.53 3sbg3Riaa.net
>>210
chainerなんかわかりやすいのに人気ない。

219:デフォルトの名無しさん
18/08/30 07:27:24.38 sbjDtq1ra.net
もうchainer はいいよ。日本限定のフレームワークが流行るはずもない。
一時期、業者か何か知らんがくどいほどchainer の書き込みが続いてうんざりしたわ

220:デフォルトの名無しさん
18/08/30 07:45:55.05 TbxP/gqFd.net
>>212
今となってはpytorch使えばすむからな
>>213
ある時からレスが完全にピタッと止まって驚いた記憶がある。
業者かはともかく、一人で頑張ってた人がいたんだろうな

221:デフォルトの名無しさん
18/08/30 08:20:43.41 GsTONwDd0.net
chainerは日本限定じゃないよ
ドキュメントも英語だし
海外の論文でも実装に使われていたりするし

222:デフォルトの名無しさん
18/08/30 08:25:09.80 sbjDtq1ra.net
>>215
全く同じレスを繰り返し見た記憶がある。まだスレ見てたんだな。
前にも書いたけど、例外があることは全く反論にならないからな。現状はトレンド見ろ つ
URLリンク(trends.google.co.jp)

223:デフォルトの名無しさん
18/08/30 08:28:14.13 sbjDtq1ra.net
TensorFlow も含めると つ
URLリンク(trends.google.co.jp)

224:デフォルトの名無しさん
18/08/30 11:29:20.12 Aa6QMEJ0p.net
参考書とか見ながら機械学習の勉強始めて、初めて仕事でデータ分析的なことをやってみたんだけど絶望的に何も結果を出せない
データセットの理解も出来ないしどういうアプローチをしていけば良いのかも思いつかない
そもそも分析と呼べる領域にすら達してない
理解する頭やセンスも必要だと思うし自分も能力が低い人間なのは十分理解してる


225:ッど、分析能力はどうやって身につければ良いんだろう やっぱり数こなすしかないかな?



226:デフォルトの名無しさん
18/08/30 11:38:50.75 S/vwwZyFF.net
ここに書けば親切なみなさんが教えてくれるはず

227:デフォルトの名無しさん
18/08/30 12:49:37.88 EJNleK6cM.net
考えるな、感じろ、ちブルースリーグもジェダイマスターも言ってた

228:デフォルトの名無しさん
18/08/30 12:55:22.85 dpvLtCB6M.net
>>218
差し支えない範囲で具体的に書いてみ

229:デフォルトの名無しさん
18/08/30 13:25:06.37 S/vwwZyFF.net
Don't use ThinkPad, FUJITSUUUUUUU!!!

230:デフォルトの名無しさん
18/08/30 13:41:21.70 NY8GEmPq0.net
>>218
オライリーの「仕事ではじめる機械学習」
って本はどう?

231:デフォルトの名無しさん
18/08/30 14:23:58.40 7HgxnLgF0.net
機械学習で重要なのは結果よりも、凄いことやってる感

232:デフォルトの名無しさん
18/08/30 14:31:20.51 Aa6QMEJ0p.net
>>221
ほんとはめっちゃ詳しく書きたいけど誰が見てるから分からないから凄く端折ってるけど今はある装置のトラブル要因を調べてる
データは特徴量が200個あって1万レコードくらいある
ただこの装置自体は見たことがなくて装置自体の知見も浅い分野だからデータセットは理解できてない
明らかに要らなそうなデータは消して特徴量を選択して決定木にかけて、重要な特徴量に対してペアプロットを出すところまでは来た
プロットの結果は分類自体がほぼ出来ていなくて、唯一差が見れそうなところに見てみようと思ったんだけど、
結局そこはどこどこの数値が高くなると異常が出やすい、くらいの説明しか出来なくてその値がなぜ高くなるかを見つけ出すべきなんだろうけどデータや機構が分からなくて何から手をつけて良いか分からないってところで止まってる
こんなのは多分現場の人は感覚的に分かってる話だから何の意味もないよね

233:デフォルトの名無しさん
18/08/30 14:34:28.66 Aa6QMEJ0p.net
>>223
ありがとう
帰り本屋寄ってみる
ちなみに昨日pythonによるデータ分析入門って買ったんだよな
俺はまだ分析の領域にも行けてないのになw

234:デフォルトの名無しさん
18/08/30 15:21:00.65 RB/VojpjF.net
民間ロケットかω

235:デフォルトの名無しさん
18/08/30 15:56:28.71 7HgxnLgF0.net
機械学習の腕は特徴量を選択するセンス次第

236:デフォルトの名無しさん
18/08/30 16:44:08.77 NY8GEmPq0.net
>>225
ああそういう話だとさっきの本は関係ないや
ビジネスの何に使えばいいかわからない
的な意味だと思ったんで

237:デフォルトの名無しさん
18/08/30 17:17:26.23 lMDVbSRW0.net
>>225
>データは特徴量が200個あって1万レコードくらいある
直感的に、少なくない?
>ただこの装置自体は見たことがなくて装置自体の知見も浅い分野だからデータセットは理解できてない
それが問題じゃん。装置自体調べろよ。
ていうか物理現象を調べてるのか?
なら機械学習を使う意味があるのかがそもそもわからんな
しいていうなら相関の強いものを上から順に並べるとか
ヒステリシスを持っている可能性を考慮するために、プロット上げる方向と下げる方向を別変数にしたほうがいいかも

238:デフォルトの名無しさん
18/08/30 18:48:13.32 zHnsz/ji0.net
>>230
特徴量200って少ないのか…
装置見れれば良いんだけど、身近にある物じゃないから見れなくてさ…
相関関係を見るなら重回帰かなと思って一応やってみたんだけど、言ってくれてる通り物理現象で動きには前回の動きとかも考慮して特徴量増やしたりしなくちゃいけないはずなんだけど結局データセットが分からないから行き詰まってしまった
>>ヒステリシスを持っている可能性を考慮するために、プロット上げる方向と下げる方向を別変数にしたほうがいいかも
これってどういう意味かな…
理解出来なくてごめん

239:デフォルトの名無しさん
18/08/30 19:08:50.69 lMDVbSRW0.net
>>231
>特徴量200って少ないのか…
いや、変数200に対してデータ数10000は、
データのほうが少ないのではないか、と
>>ヒステリシスを持っている可能性を考慮するために、プロット上げる方向と下げる方向を別変数にしたほうがいいかも
>これってどういう意味かな…
ヒステリシスを持


240:ツ可能性があるため、パラメータは上げる方向と下げる方向、両方測定する っていう実験物理の基本は知ってるよな? パラメータ上がる方向と下がる方向は別の変数にしないと区別できないんじゃないか、と



241:デフォルトの名無しさん
18/08/30 19:15:05.96 QzSJYFXmM.net
データをアップしてくれないと
よくわからん

242:デフォルトの名無しさん
18/08/30 21:14:55.66 JFBhQmXO0.net
ID:Aa6QMEJ0p
特定した。
お前には期待してたのだが、5chでアドバイスを貰おうとは見損なったぞ。
今後の査定を真摯に受け止めるが良い。

243:デフォルトの名無しさん
18/08/30 21:35:27.97 NQz3sjtC0.net
>234
マジモンのチームメイトなら少しはサポートしてやれよ。
仮に上司だとして結果が出せない部下を放置って、今の時代ならパワハラ案件だろ。
まぁブラフだろうが。

244:デフォルトの名無しさん
18/08/30 22:03:46.63 zHnsz/ji0.net
>>232
ぐ…よく分からん…ごめん
調べてみる…何かつかめるように頑張るよ
>>235
出来が悪い俺がダメだと思うよ
質問するにも何が分からないかすら分からない自分があまりにも無力…!
明日は何か少しでも前進出来るように頑張るよ

245:デフォルトの名無しさん
18/08/31 00:11:23.98 p6vKiofNd.net
これで5%返せるとか脳死こいてるバカがまだまだ多いんだな

246:デフォルトの名無しさん
18/08/31 01:40:33.97 /VjCJv9E0.net
>>236
説明変数(特徴量?)200と目的変数(トラブル)の
散布図行列を作るところからやってみては?
URLリンク(bellcurve.jp)

247:デフォルトの名無しさん
18/08/31 01:58:16.50 NfYNCgTp0.net
>>238
変数多すぎて情報拾えないと思う。

248:デフォルトの名無しさん
18/08/31 11:58:13.87 8oqZjBEKa.net
効いてる特徴量見たいだけだったら、ランダムフォレスト かxgboostでモデル作ってFeature Importance見ればいいんでない?
なぜ効いてるかについては別途考察が必要になるけど

249:デフォルトの名無しさん
18/08/31 17:27:51.18 xOkTAq7n0.net
一万レコードは流石に少なすぎる…
うちだと特徴量30前後レコード数50万ちょっとでランダムフォレストしてやっと実用に足るレベル

250:デフォルトの名無しさん
18/08/31 17:32:55.30 xOkTAq7n0.net
特徴量200だと相関関係にある特徴量同士や結果にまったく影響しない特徴量が多そうだな
そういうのを絞らないとメモリを食うだけで確実な結果が出ないと思う

251:デフォルトの名無しさん
18/08/31 20:20:22.26 1Ee7C22hF.net
>>225
装置の故障に関係のある特徴量を調べたいだけなら
ランダムフォレストではなく、もっと別の識別器を使った方がいいんじゃないか

252:デフォルトの名無しさん
18/08/31 20:35:34.13 1Ee7C22hF.net
ランダムフォレストは不純度の減少に関係ある特徴量を重要度でピックアップしてくれるだけだから
故障の原因を調べるなら、むしろ関係のない特徴量を削ったり、選択したりする方に
機械学習を使うべきだと思うんだ
ロジスティック回帰とか、KNNにSBSを適用するとか
いきなりランダムフォレストでがばっとやってるなら雑過ぎると思う
あと装置について何も知らないなら
分析結果を提出して仕事完了以外に何も出来ない気がするんだけど

253:デフォルトの名無しさん
18/09/02 16:06:18.87 qpc9/9Oc0.net
>>225 です
レスくれた人ほんとにありがとう
一応自分では>>240で出した結果から重要度が高いものに対して>>238を出すところまではやってみた
ただ特徴量の選択だったり、自分で特徴量を増やしたりする必要がある可能性があったけどその辺が不十分だから正常時と不良時の変化は捉えきれなかった
急ぎの案件では


254:ないから装置に詳しい人にもっと詳細に聞いてから見直してみる



255:デフォルトの名無しさん
18/09/02 16:10:25.31 qpc9/9Oc0.net
>>242
自分なりに考えて削ったところ残ったのは半分くらいだった…選定が不十分だとは思うけど…
>>241
そんな多いんだ…
まだ素人だからその規模扱った事ないけど、データ数が少ないと使い物にならないのかな
>>244
特徴量の選択に機械学習を使うのか…
やったことないし考えたこともなかった
ロジスティック回帰は確率的に予測するモデルだっけ
KNNにSBSとか全然知らないからもっと勉強しないと…
今更だけどレス遅くなってすいません
やっぱ知識的な勉強もしなきゃだし、もっとkaggleみたいなので色々経験踏んだ方が良いのかな…

256:デフォルトの名無しさん
18/09/02 16:13:35.40 fTJM2v21F.net
>>238
この図って下三角は無駄やね

257:デフォルトの名無しさん
18/09/02 18:09:35.27 Gf+N3VgJ0.net
特徴200の例1万で正解ラベル付き、それでなんらかの故障の原因を
少数の特徴から説明をする必要性があるなら
PCAかけてからSVMでいいんじゃね?
ラベルないなら、明らかに異常時の正解ラベルを少数でも集めてから
アノマリーディテクション
それ以外になにかやりようがあるような案件に思えない

258:デフォルトの名無しさん
18/09/02 22:15:22.45 aecTCx63F.net
ランダムフォレストって入門書で機械学習の勉強をしたら一番最後に習うジャンルじゃないか
理論的にはかなり難しい分類に入るはずなんだけど、最初にやったんかい
入門的な範囲に関していえば、NNなんかよりよほど複雑だよな

259:デフォルトの名無しさん
18/09/02 23:37:09.90 N8NA3iwF0.net
そうか?

260:デフォルトの名無しさん
18/09/03 06:46:02.23 U0kvs2wf0.net
決定木好き
boostingも好き

261:デフォルトの名無しさん
18/09/03 08:17:31.91 EloH5MrPM.net
自分も>>230の通り装置自体の理解が先だと思う
つーかkaggleしかやったことのない新卒を現場に出すと
大抵 >>225 みたいになるので笑える
225は素直だしやる気もありそうだから大成すんじゃない?

262:デフォルトの名無しさん
18/09/03 08:23:54.20 6BBBjiRUa.net
新人なんだったら上司としては笑ってる前にとっとと装置持ってくるか設置場所に連れて行って触らせろよ

263:デフォルトの名無しさん
18/09/03 15:29:21.33 wK4QWbzI0.net
割り振られた仕事が酷いだけな気がするんだけど
不良品検知なら機械学習は有用だけど、トラブルの原因の特定とか厳し過ぎるだろ
俺が同じ仕事を課されても出来ない自信がある
まだ今後の仕事に繋がるスキルなら学ぶ気にもなるけど
一回限りの仕事でこれだったら職場を変えたくなるなw

264:デフォルトの名無しさん
18/09/03 16:17:20.76 rtNqvOTp0.net
>>254
確かにw
トラブルの原因とか、装置メーカーの仕事だろw

265:デフォルトの名無しさん
18/09/03 16:19:13.14 9EJYXAO+0.net
作った人間呼ばないと分からないからね

266:デフォルトの名無しさん
18/09/03 17:45:38.06 wkT01G1zp.net
>>254
トラブルの原因特定が目的として
機械学習を手段として用いるのは何故?
そう言う指示なのかな

267:デフォルトの名無しさん
18/09/03 21:12:36.40 dnewFDCcr.net
機械学習でなんかやってくれ
Iotでなんかやってくれ
AIでなんかやってくれ

268:デフォルトの名無しさん
18/09/04 10:56:36.92 5dUU1YfQa.net
機械学習エンジニアとして数学を理解しておきたい!ベクトルや行列を扱う線形代数学を学び直すために
URLリンク(codezine.jp)

269:デフォルトの名無しさん
18/09/05 12:59:13.40 b1qw9eMxM.net
機械学習の勉強やめるわ
物体検出が目標だったけど難しそうだからやめる

270:デフォルトの名無しさん
18/09/05 14:05:00.69 QYJ58+nmM.net
素人がこの分野に来るな!
二度と戻ってくるな

271:デフォルトの名無しさん
18/09/05 14:29:43.54 b1qw9eMxM.net
>>261
お前は


272:物体検出できんの?



273:デフォルトの名無しさん
18/09/05 14:30:57.14 cIoMrnpd0.net
やめた人はバイバイ
さようなら

274:デフォルトの名無しさん
18/09/05 17:36:23.04 gDzPhGyvM.net
何気ない挨拶に隠れてるありがとう

275:デフォルトの名無しさん
18/09/05 19:44:56.33 5UFd+wbIa.net
courseraやってたらいきなり「カクテルパーティーは行ったことありますよね?」とかいわれた

276:デフォルトの名無しさん
18/09/05 20:10:38.61 zx26krSSM.net
コーセラの機械学習コースムズいね。副読本が欲しい

277:デフォルトの名無しさん
18/09/05 21:19:39.48 LgMQqqcwa.net
つ 2ch

278:デフォルトの名無しさん
18/09/05 22:15:23.53 wwN3L3jw0.net
>>264
馬渡

279:デフォルトの名無しさん
18/09/06 08:25:46.34 GEddJh7F0.net
ケーセラ、ケーセラ、なるようになるさ、ケーセラ、セラ♭

280:デフォルトの名無しさん
18/09/06 09:37:35.55 x1lI3fWk0.net
>>266
なんとか3週目まで終わったわ!
英語だとなんとなく理解がぼやけて苦労してる

281:デフォルトの名無しさん
18/09/06 11:38:29.38 7zkKFy0ua.net
courseraは動画は日本語字幕付いてるが問題やテキストは当然英語なので英語のリーディング能力によって速度が全然違ってくる

282:デフォルトの名無しさん
18/09/06 11:53:54.00 EvGxKfYgM.net
octaveがムツカシイぞ

283:デフォルトの名無しさん
18/09/06 12:48:10.39 ntAiYVJqM.net
ここの奴ってministの延長しかできないんでしょ
物体検出できる奴いないの?

284:デフォルトの名無しさん
18/09/06 12:48:43.28 ntAiYVJqM.net
スペルミスったわwwwwwwwwwwwww

285:デフォルトの名無しさん
18/09/06 12:55:47.21 EvGxKfYgM.net
数カ月待てばワイがなるやで

286:デフォルトの名無しさん
18/09/06 12:56:40.60 ntAiYVJqM.net
>>275
一ヶ月俺がやってmnist理解したから数ヶ月じゃ無理じゃね?

287:デフォルトの名無しさん
18/09/06 12:57:02.77 ntAiYVJqM.net
やっぱいけるかもな
効率よくやれば

288:デフォルトの名無しさん
18/09/06 13:23:00.99 hdmlXJ0Ba.net
高精度のモデル作るだけでお金もらえる仕事ないかな〜

289:デフォルトの名無しさん
18/09/06 13:47:17.51 aZ3qvCMza.net
>>278
kaggle

290:デフォルトの名無しさん
18/09/06 16:12:49.44 eIqRmgxb0.net
kaggleの一番の問題点は、計算資源は自前調達なこと

291:デフォルトの名無しさん
18/09/06 16:49:43.44 hpVTS5J7M.net
普通のPCでカグりたい。svmもこれから勉強(汗

292:デフォルトの名無しさん
18/09/06 17:46:24.65 n8sIsSj/a.net
個人で10万円台のPCでkaggleコンペの賞金圏内って狙えるものなの?

293:デフォルトの名無しさん
18/09/06 18:22:05.64 hpVTS5J7M.net
仮想通貨の採掘みたいになってくるんか。

294:デフォルトの名無しさん
18/09/06 18:33:14.28 oTJZiE1f6.net
初めまして失礼します
最近tensorflowにて機械学習を始めました。参考にしている下記サイトのソースコードを読んでいるのですが
URLリンク(docs.fabo.io)
このサンプルコード中のどの変数に最終的なテストデータの実行結果が格納されているのでしょうか?
親切に [0,1,2,0,・・・,0,1]のように格納されているのか、はたまた評価関数がsoftmaxなのでargmaxを使って取得するのか・・・分かる方ご教授いただけるとありがたいです。

295:デフォルトの名無しさん
18/09/06 19:06:23.57 ft00C17ua.net
>>284
loss_test_ と acc_test_

296:デフォルトの名無しさん
18/09/06 19:34:02.13 WZQ2BMHpM.net
>>281
コホーネンこそ至高(嘘)

297:デフォルトの名無しさん
18/09/06 19:52:27.22 oTJZiE1f6.net
>>284 追記です
ソースコード中のtf.argmax(pred,1)に実行結果が格納されているのは分かったのですが、
これをどう取得すればいいのかがわかりません
print(pred)やprint(tf.argmax(pred,1))等をsess.close()(ソースコード内の最後の行)の前後に入れてみたりしましたが
Tensor("ArgMax_2:0", shape=(?,), dtype=int64)このような出力がされるだけでした

298:デフォルトの名無しさん
18/09/06 19:53:40.60 oTJZiE1f6.net
>>285
書き込んでいるうちに返答が・・・argmaxの方じゃないのか・・・試してみます

299:デフォルトの名無しさん
18/09/06 19:59:15.30 oTJZiE1f6.net
acc_test_は精度の%表示の方がでてきました。
取得したいのはモデル学習後にテストデータを通した際の出力結果で
文章が足りなかったみたいです、すみません
お分かりになればご教授ください

300:デフォルトの名無しさん
18/09/06 20:04:09.83 N8vSkMund.net
>>289
多分 tf の理解不足、テストデータを与えた出力は >>285 さんので合ってる

301:デフォルトの名無しさん
18/09/06 21:06:50.37 gGQNDXVXd.net
>>290
外出中につきID変わりまして失礼します
acc_test_をそのままprintするのではなく何かを追記すると出力層の結果もでるのでしょうか?

302:デフォルトの名無しさん
18/09/06 21:30:30.68 dF1C4l95d.net
eval()使わないとテンソルの内部は見られないねえ
print(pred.eval())
みたいに書くといいよ

303:デフォルトの名無しさん
18/09/06 21:30:42.99 8Gs/SO310.net
>>280
Google Colaboratoryだかって使えないの?

304:デフォルトの名無しさん
18/09/06 21:56:39.64 gGQNDXVXd.net
>>292
ありがとうございます
帰宅したら試してみます

305:デフォルトの名無しさん
18/09/06 23:13:24.87 42ButyNI0.net
教師なし学習の部分勉強し始めたけどこれまた難しい
主成分分析とかめっちゃややこしい…
詰まりすぎて参考書進まない

306:デフォルトの名無しさん
18/09/07 02:43:59.86 i5TKiFX30.net
mfccを特徴量にして深層学習をしようと思ったけどあまり学習しない・・・
たぶんmfccをそのまま使うと値の差が大きすぎるからだろうけどこういう場合の正規化って何が一般的なんだろう?

307:デフォルトの名無しさん
18/09/07 03:39:19.22 4D0gsWdJ0.net
音声処理は専門外だけど、
信号処理の一般論として多重に関数通すほど精度低下するからよくないぞ

308:デフォルトの名無しさん
18/09/07 22:28:06.25 xcgQ57X/a.net
Courseraのカーネル法の説明、あれで分かる奴おるんか?

309:デフォルトの名無しさん
18/09/07 23:54:38.38 AkwTHGBK0.net
コーセラ化粧品歌謡ベストテン

310:デフォルトの名無しさん
18/09/08 12:29:52.26 zjq/iq32d.net
カーネル法はカーネル法の項目で分けるべきだと思うんだけどな
応用先はサポートベクトルマシンだけでない。
主成分分析、巡回セールスマン問題など多種多様

311:デフォルトの名無しさん
18/09/08 13:55:28.59 dJjhtWR30.net
カーネル三打数

312:デフォルトの名無しさん
18/09/08 15:15:07.20 phMov0/0M.net
何週間かしたら追いつくからちょっと待っててね♡

313:デフォルトの名無しさん
18/09/08 22:11:42.69 Mc6Ny40VM.net
そんなあなたにRANSAC

314:デフォルトの名無しさん
18/09/09 08:25:27.74 Uy32x6ZT0.net
最初Octave覚えるのうぜえ、とか思ってたけど、
Octaveに慣れると、numpyの行列表現が面倒くさくてたまらなくなるね

315:デフォルトの名無しさん
18/09/09 09:02:42.81 eiptmUtyM.net
ex2のcost関数はiでforループ回してsumしてくしかないのかなあ。octaveなら全データまとめてベクトル演算出来ないかと期待してたんだけど

316:デフォルトの名無しさん
18/09/09 10:04:24.64 13i/0Tbj0.net
numrubyとかまだですか?

317:デフォルトの名無しさん
18/09/09 11:24:58.51 Uy32x6ZT0.net
>>305
forループなしで行けるよ

318:デフォルトの名無しさん
18/09/09 11:37:36.75 vA+7RJ4hd.net
AIってなんで言語の意味が理解出来ないの?

319:デフォルトの名無しさん
18/09/09 11:40:09.66 kzlGF2pOF.net
言語に意味が無いからかも知れないね

320:デフォルトの名無しさん
18/09/09 11:40:19.63 l6rR/pccM.net
>>308
プログラミング言語理解してるじゃん

321:デフォルトの名無しさん
18/09/09 13:02:46.43 qrt/xXSoM.net
>>307
どうしてもJの値が期待値の3倍になっちゃうので完全ベクトル化は諦めたよ

322:デフォルトの名無しさん
18/09/09 15:07:04.37 mmYNGw0Ja.net
courseraの2週目まで来てやっとプログラミング課題始めたけどこれ英語ダメダメな人には結構無駄に時間かかりそうだな
自分はある程度読めるからいいけど英語アレルギーの人には15ページの英文テキストとかハードル高すぎだろう

323:デフォルトの名無しさん
18/09/09 15:30:17.72 l6rR/pccM.net
突然の英語自慢

324:デフォルトの名無しさん
18/09/09 17:05:22.17 GZ1hf7rYa.net
あの程度の英文が読めるというだけのことが自慢と感じてしまう人って・・・

325:デフォルトの名無しさん
18/09/09 17:10:44.73 5zyWb3dg0.net
チラシは日記の裏に

326:デフォルトの名無しさん
18/09/09 17:11:54.64 l6rR/pccM.net
いや、大学で論文書いてるし講座受けたことないから知らん

327:デフォルトの名無しさん
18/09/09 17:20:40.89 UfwTkuaF0.net
会話が成立していない・・・

328:デフォルトの名無しさん
18/09/09 17:44:28.00 V1LakR3i0.net
まず自身が学習する知能すらないヤツラが
機械学習とかいってるのがな

329:デフォルトの名無しさん
18/09/09 17:53:25.90 0fxeknbWa.net
機械を使って能力を補完するのは
誰にでもありそうな要求じゃないのか

330:デフォルトの名無しさん
18/09/09 17:55:20.90 V1LakR3i0.net
機械学習という強化学習は体罰と同じだからな
つまり体罰は科学的に正しい

331:デフォルトの名無しさん
18/09/09 17:58:41.37 V1LakR3i0.net
マウスはサッカリンが大好き
エサ箱にサッカリンおくと
マウスはひたすらサッカリンをなめる
そんなマウスに
サッカリンなめると高圧電流を与える
それを繰り返す
するとな
マウスはサッカリンなめなくなる
しばっきんぐを伴う学習は
ものすごく適切な科学的教育メソッドといえる

332:デフォルトの名無しさん
18/09/09 18:04:27.61 xD81Fsxha.net
それは単純作業をひたすら行うだけのための教育には最適だろうが自分で考える高度な仕事をできるようになるための教育としては全く機能しない
餌食べると電流来るから餌食べない、ではなく電流を止めるかそんな実験してる者を殴りに行くことが本当は求められる

333:デフォルトの名無しさん
18/09/09 18:05:59.59 XkNFsZ520.net
>>320
本当に教育目的ならね
でも実際は自分の言うことを聞かないなどの感情任せで叩いたり
現実の教師には幼稚な人間が多いから体罰を許可するのは難しい
AIによる教育が普及したら体罰の導入もあるかもねw

334:デフォルトの名無しさん
18/09/09 18:19:48.08 V1LakR3i0.net
人間も刺激を受けて
微弱な電流の電気信号を脳に伝えて(コレが入力)
NNにちかいものを脳みそで構成しながら(コレが処理)
反応してるだけなのは(コレが出力)
ほぼ間違いないからな
キミラはその中でもかなりできそこないの肉塊なワケ
キミラはまずその自覚がないといけない

335:デフォルトの名無しさん
18/09/10 09:12:54.23 Wzurv1WZ0.net
何かに例える奴って本質の部分をずらして解釈させようとするから好きじゃない。

336:デフォルトの名無しさん
18/09/10 09:33:18.80 m4rWRRun0.net
DLは沈みかけた船である

337:デフォルトの名無しさん
18/09/10 09:40:32.89 50R16uEf0.net
>>326


338: 今勉強中なのに〜



339:デフォルトの名無しさん
18/09/10 10:12:27.17 eJoeF+lzd.net
>>325
同意ですね。
特にこの分野はそうゆう説明をする人が多すぎる気がします。

340:デフォルトの名無しさん
18/09/10 11:29:39.10 E/R/CTAA0.net
ていうかわかってないんだよ
ワイアードの機械学習関係の記事もめちゃくちゃだし。記者も理解してない。

341:デフォルトの名無しさん
18/09/10 11:45:38.06 iZZh4uSH0.net
ただの多項式近似じゃだめなんですか

342:デフォルトの名無しさん
18/09/10 12:57:17.68 9PCR6mO1H.net
いい場合もある

343:デフォルトの名無しさん
18/09/10 14:59:32.62 /bmRPvCfp.net
>>324
化学物質とか細胞とかも関係している
どの程度の影響かは知らないけど

344:デフォルトの名無しさん
18/09/10 16:07:18.13 vhv/YhfM0.net
海外IT大手勤めかPFNか東大松尾研関連の人のTwitterやスライドは参考になる
あとarxivで論文読んでレビューしてる人達(一次)も参考になる
それに海外にさきがけて論文内容を実装してる人とそのgithub
QiitaでCNN,RNN,LSTM,GANなどのモデルの基礎を詳細に解説してる記事は初心者〜中級者には参考になる
でも日本の情報は大体ここまでだね
日本で画期的なモデル作り出してsota達成してる人なんていないし
業務応用の事例は基本的に社外秘だから表に出てこない

345:デフォルトの名無しさん
18/09/10 19:24:21.95 ujR9/fQ2d.net
>>333
そもそも日本人が書いたもんとか読むだけ時間の無駄。元ネタ読むほうがわかりやすい

346:デフォルトの名無しさん
18/09/10 19:28:41.58 C7NXl1Sfd.net
海外論文のほとんどは、既存の方法のマイナーチェンジですね。
論文の数で劣っても焦るべきはそこではない

347:デフォルトの名無しさん
18/09/10 19:42:40.10 7yBcyw9Aa.net
マイナーチェンジでない新手法の開発数で比較した上でそれを言うならいいけどどうせそんなの調べてないんだろ

348:デフォルトの名無しさん
18/09/10 19:52:04.55 6ZeiSgzaa.net
日本なんか遅れまくってるんだから
先進国のペーパー読んだほうがそりゃマシだろw

349:デフォルトの名無しさん
18/09/10 20:20:02.48 EC/DTJGVM.net
まつおけんてそんなにいい?
御用達なだけじゃん

350:デフォルトの名無しさん
18/09/10 20:46:12.02 XzQQxj6r0.net
低学歴知恵遅れは
NNモデルは半世紀以上前からあるモデルの焼き直しなのすらわかってないからな
低学歴知恵遅れに限って基礎も分からずにムダにいきってるワケ

351:デフォルトの名無しさん
18/09/10 20:48:45.69 XzQQxj6r0.net
NNモデルなんかウンコみたいなエキスパートシステムがはやってた頃からすでに存在する
コレもきっとな同じ道を歩むことになる
予言するわ

352:デフォルトの名無しさん
18/09/10 20:57:12.65 MuwSsVH00.net
予言(笑)

353:デフォルトの名無しさん
18/09/10 21:02:22.48 XzQQxj6r0.net
エキスパートシステムみたいな山盛りのウンコができると
予言してるワケ

354:デフォルトの名無しさん
18/09/10 21:08:06.77 PkSNOikBM.net
20年前エキスパートシステムやってた大学の先生がAIメチャメチャdisってたな。講義で学生相手に悲観的なことばっか言ってな。今どうしてんだろ。ヒャッハー?

355:デフォルトの名無しさん
18/09/10 21:18:31.46 MuwSsVH00.net
物体認識も人工知能(NNでない奴)だったね

356:デフォルトの名無しさん
18/09/10 21:54:13.12 KNaZjqz80.net
>>336
比較した上で一点だそ

357:デフォルトの名無しさん
18/09/10 21:59:29.51 KNaZjqz80.net
まあ、一人でよいから飛び抜けた天才がいればよい話

358:デフォルトの名無しさん
18/09/11 00:27:02.76 NOGFJ9cK0.net
なんだ俺のことか…

359:デフォルトの名無しさん
18/09/11 01:13:57.47 CF7cPe


360:mC0.net



361:デフォルトの名無しさん
18/09/11 08:52:46.82 iNoPJA0t0.net
もう少しきれいな言葉で語りませんか?

362:デフォルトの名無しさん
18/09/11 10:11:02.09 fg41yUTF0.net
確かにお前ら中華スマホスレ以下

363:デフォルトの名無しさん
18/09/11 12:14:16.02 4gQtUupo0.net
割れ鍋に綴じ蓋

364:デフォルトの名無しさん
18/09/11 12:30:05.64 6r2pdA4Ca.net
技術記事自体で利益出そうと考えること自体が技術者としての本来の在り方から乖離してるけどね

365:デフォルトの名無しさん
18/09/11 12:34:15.31 7J4Wi8hoM.net
技術がカネにならない日本はおかしい。シリコンバレーの後追いしかしてないフリーライダー。

366:デフォルトの名無しさん
18/09/11 13:25:38.94 QkogAA+k0.net
技術がないだけの話

367:デフォルトの名無しさん
18/09/11 14:33:28.09 pwo3DQbpF.net
この本おすすめですか?
URLリンク(www.amazon.co.jp)

368:デフォルトの名無しさん
18/09/11 15:52:06.10 RLpo6MncM.net
いいえ

369:デフォルトの名無しさん
18/09/11 18:00:10.08 yZhXOY2F0.net
クラス分類できへんねやったら回帰分析しかないんですか?

370:デフォルトの名無しさん
18/09/11 23:32:24.35 i7axZbyN0.net
1層のNNは回帰分析と同じだからな

371:デフォルトの名無しさん
18/09/12 07:04:31.28 YcGHenXr0.net
人間の脳のように学習するって誇大広告じゃね?
中身はロジスティック回帰を何層もやってるだけじゃん

372:デフォルトの名無しさん
18/09/12 08:09:25.15 ViqDYntmp.net
>>359
そう思うなら一つのロジスティック回帰を再帰的に使って同じ結果を出せるか実験してみたらいいのでは?

373:デフォルトの名無しさん
18/09/12 08:13:40.79 whXEmiXCM.net
一つのロジスティック回帰では無理だろ
>>359 はそんな事言ってないし

374:デフォルトの名無しさん
18/09/12 12:09:21.11 O9T0GfKp0.net
人間の脳も所詮ロジスチック回帰ってこと。。。

375:デフォルトの名無しさん
18/09/12 16:05:15.80 qQh33xQPM.net
クラス外のデータの排除に効率的な方法は何ですか?
例えば、0〜9の数字10クラスのネットワークに「b」の文字を入力する場合を考えた時に
理想的には全クラス10%くらいの確率ラベルを持ってくれたらいいのですが
恐らく結果は6が高確率で帰ってくる気がします。
適当に数字以外の文字を詰め込んで11個目のunknownクラスを作ることは効果があるのですか?

376:デフォルトの名無しさん
18/09/12 19:36:37.61 YQnfCYrX0.net
>>363
こっちが専門じゃないだけかもしれないけど、おそろしく何を言ってるのか分からない
deep learningのような分類器で、画像データを10のクラスに仕分けたいけど、
特定のクラスに偏りが生まれるからどうすれば良いかということか
一般論として、deep learningならば、ノイズを混ぜるのは場合によりけりだけど有効だろ
新しいクラスを作るのは、ちょっとわからんなあ

377:デフォルトの名無しさん
18/09/12 19:40:44.82 YQnfCYrX0.net
データを多く仕分けられるクラスに、データが仕分けられにくくなるように
損失関数に、データ量に比例して増えるペナルティーを追加すればいいんじゃないか

378:デフォルトの名無しさん
18/09/12 19:47:03.20 YQnfCYrX0.net
一回限りの分析なら、手入力で特定のクラスの損失関数に
手入力でペナルティーを追加して、そのクラスに分類されにくくするのも手だと思うんですよ?
そんなやり方でも、いちおう分析結果は平らにはなるよね。たぶん。わからんけど

379:デフォルトの名無しさん
18/09/12 19:54:51.80 qQh33xQPM.net
>>364
(自分なりに)もう少し分かりやすく書き下しますと、
この世のありとあらゆる果物が成ってる木があるとして、
この木の画像の中から、リンゴとミカンとブドウを見つけて自動収穫


380:したいタスクがあるとします。 リンゴとミカンとブドウの画像を学習させて分類器を作ったのですが、青リンゴやデコポンやマスカットが学習させた果物と誤認識されて収穫されてしまいます。 学習せた3つの果物以外は収穫したくないので、認識して欲しくないのですがどうすれば良いですか?ということです。 (分かりにくかったらすみません。)



381:デフォルトの名無しさん
18/09/12 20:00:27.22 VFbeL2mC0.net
わかりにくくなったよ

382:デフォルトの名無しさん
18/09/12 20:02:57.63 hCIGPJ5ma.net
>>363が言いたいのは数字画像を読み込んで数値を出力したい、ただし入力が数字でない画像だったら数字でないと出力させたいってことだろう

383:デフォルトの名無しさん
18/09/12 20:36:27.66 WakPudgX0.net
数字以外の画像を適当に[0.1..0.1]のベクトルになる教師データとして流し込めば
そういう分類器ができるんじゃないの

384:デフォルトの名無しさん
18/09/12 20:50:09.10 kc7HFSnfa.net
数字以外の想定し得るあらゆる文字のデータを学習させる必要があるから非現実的だろうね
数字にだけ共通する特徴があるなら最初に数字か数字でないかだけの分類をすればいいけどそんな特徴ないだろうし難しい

385:デフォルトの名無しさん
18/09/12 21:07:10.31 yfKtIfo20.net
認知機能が低いこのスレいるような低学歴知恵遅れが写真をみると
コレは心霊写真だという
コレは俗に言うシミュラクラ現象になる
ウンコAIに顔認識をさせると
コレと同じような現象が発生してもなにもおかしくない
コレは出力結果としてものすごいおかしいとはいえない
特徴どおりだからな

386:デフォルトの名無しさん
18/09/12 21:13:35.69 yfKtIfo20.net
文字だけの識別なら数量化I類で十分
数量化I類でもかなりの精度になる

387:デフォルトの名無しさん
18/09/12 23:04:27.74 agseH4x1F.net
ひとつの分類器でふたつのことを同時にやらなければいいんじゃね?
@一個の数字画像を、10個のクラスに仕分ける
Aその画像が本当に仕分けられた数字と同じか否かを判定する
このふたつの段階に分けれて、別々の分類器を用意すれば、そんなに難しいことしなくても簡単に組めそう。
@のためのニュートラルネットワークの分類値と、Aのためのクラスごとの分類器を10個用意する必要があるけど、
Aの分類器はたぶん同じようなアルゴリズムで動くから書くの簡単だろ
ただの思いつきだけど、どうだ?

388:デフォルトの名無しさん
18/09/12 23:12:15.60 yfKtIfo20.net
ぜんぜんわかってないわ
特徴抽出をするのが先だからな
特徴抽出されたデータを学習させない限り
いつまでたっても学習効果なんかない

389:デフォルトの名無しさん
18/09/12 23:42:58.48 MXOsLPIga.net
>>363
まず数字かそれ以外かを分類してみるとか
で数字のものについて0-9のどのクラスに属するか判別する

390:デフォルトの名無しさん
18/09/13 00:17:45.77 pqzPAQ7ua.net
数字かそれ以外かで分類しようとしたら結局bは6と判定されるだろうけどね

391:デフォルトの名無しさん
18/09/13 00:18:27.43 pqzPAQ7ua.net
正確には、6と扱われることでbは数字に分類されるだろうけどね

392:363
18/09/13 02:39:06.40 r4+4vjzBM.net
>>369
これがほぼ正解に近いですが、>>371にある通りやはり難しいのですかね。
>>376
数字は例えだったので・・
より実際に近い例えですと、一般物体を「犬、桜、車」の3クラスで認識し、
猫や梅や船のような他の物体なら、3クラスのどれでもないと返して欲しい、というような感じです。
未知の入力の中から、学習させた特定の対象だけを認識することは難しいのでしょうか・・
未知の入力パターンをリジェクトしてくれるような仕組みがないものかなぁと思い質問しました。

393:デフォルトの名無しさん
18/09/13 07:39:33.36 qr0N7AS90.net
確率で判断してみるとか

394:デフォルトの名無しさん
18/09/13 08:04:53.73 iq9KCUrTp.net
>>379
それも対象となる幾つかとそれ以外に分類してみたらいいのでは?
それか6とbを判


395:別するような判別を後からかけるとか 人間の感覚だと6とbの判別は上側のコーナーの位置と左側の上の交点の位置関係を見ているように思う それを入力に追加するか学習で獲得させるか



396:デフォルトの名無しさん
18/09/13 08:07:38.47 iq9KCUrTp.net
>>377
それは教師信号とか学習方法とかでも違う結果になるんじゃないの?
厳しすぎて6を検出しなくなるかもしれないけど
それはそれで後から判別する用途に使えるかも知れない

397:デフォルトの名無しさん
18/09/13 08:10:20.78 iq9KCUrTp.net
>>361
一つとカウントするものの認識が違うようだ
ロジスティック回帰を特徴づけるパラメータを引数とする関数を一つと表現している
その関数を再起的に使うことを想定している

398:デフォルトの名無しさん
18/09/13 08:52:40.16 7kEehjxd0.net
>>379
犬とそれ以外の2値分類器、桜とそれ以外の2値分類器、車とそれ以外の2値分類器を作って、1番スコアが高いものを答えとする。もし3つのスコア全てが一定の閾値以下であれば該当なしとする。うまくやれば1つのNNでできるかな?


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

1960日前に更新/243 KB
担当:undef