【統計分析】機械学習・データマイニング30 at TECH
[2ch|▼Menu]
[前50を表示]
200:デフォルトの名無しさん
21/02/10 23:23:45.39 hFzIksmD0.net
ボケのフリに思えてしまう

201:デフォルトの名無しさん
21/02/11 00:18:41.60 ktQYk4Clr.net
>>197
deconvolutionでぐぐれ

202:デフォルトの名無しさん
21/02/11 01:51:00.91 MZXX+vIJ0.net
例えばUNETのデコーダパートの処理であってる?

203:デフォルトの名無しさん
21/02/11 10:20:00.19 uGNpwdY50.net
逆畳み込みを数式表現でしっかり書いてるサイトってほとんどないぞ

204:デフォルトの名無しさん
21/02/11 18:56:14.43 k5l1P+DH0.net
Yolo v5 のお勧めサイトを教えてくだちい

205:デフォルトの名無しさん
21/02/11 21:09:37.91 baTPtlAv.net
おもしろいデータセット集めてるサイトって有名なあそことあそこの他にどこがある?

206:デフォルトの名無しさん
21/02/11 22:10:36.42 i89U/Fn+0.net
ドコだよ(笑)

207:デフォルトの名無しさん
21/02/12 10:50:36.67 5NHLLu5L0.net
そこだよそこ( ´∀` )

208:デフォルトの名無しさん
21/02/12 12:21:50.17 h3kC0OBDr.net
>>195
重なりまくってて従来の方法で輪郭を取り出せない状況がある

209:デフォルトの名無しさん
21/02/12 18:32:50.05 /U3mWFUwM.net
val accとval lossか同時に上昇してる場合ってどうしてる?
pytorch使ってるんだけど簡単にval loss下げる設定とかないのかな

210:デフォルトの名無しさん
21/02/12 18:47:57.07 qQtTF60B0.net
>>207
そもそもモデル間違ってるとかタスク設定がおかしいとか無視するなら、パラメータ数を


211:増やす



212:デフォルトの名無しさん
21/02/12 18:58:36.38 QRv6QAac0.net
>>207
同時に上昇することなんてあるの?

213:デフォルトの名無しさん
21/02/13 02:10:03.27 iSxpXydW0.net
>>207
正則化項が合算されてないか?
純粋なlossはどうなん?

214:デフォルトの名無しさん
21/02/13 20:51:31.78 yLW2BWmQM.net
ありがとう
多分タスク設定がおかしいんだろうなlossは下がってるし
もう少しデータ洗ってみるわ

215:デフォルトの名無しさん
21/02/15 07:55:36.79 S6/x5QiO0.net
最近学習し始めたものです
以下を参考にしているのですが、
URLリンク(www.tensorflow.org)
以下のような画像が出力されると思いましたが、
うまく表示されませんでした
URLリンク(www.tensorflow.org)
こちらは、どこかのフォルダに表示されるのでしょうか?

216:デフォルトの名無しさん
21/02/15 08:11:55.22 D0ANu2Du0.net
/tmpの中は?

217:デフォルトの名無しさん
21/02/15 08:29:41.84 5Tzd0OZ/0.net
そのフォルダに無いから悩んでるのか
/tmpに保存されることも解らずに悩んでいるのか
どちらだろう

218:デフォルトの名無しさん
21/02/15 08:31:56.76 D0ANu2Du0.net
リアル10年早いかもな

219:デフォルトの名無しさん
21/02/15 08:43:10.77 5Tzd0OZ/0.net
基礎から積み上げて理解していかないで
トップダウンで理解しようとする人が増えたね
良いのか悪いのか判らないけど

220:デフォルトの名無しさん
21/02/15 08:46:38.41 TYpaPOuQ0.net
>>216
理論の話ではなく、ツールの使い方の話ですか?

221:デフォルトの名無しさん
21/02/15 08:46:57.55 x4VL8oQa0.net
よくはないな

222:デフォルトの名無しさん
21/02/15 08:47:32.02 x4VL8oQa0.net
どっちにせよ、よくはないな
わるいかどうかはしらん

223:デフォルトの名無しさん
21/02/15 10:13:31.86 nTx5v/JZ0.net
理論ばっかり学んで実践しない人が周りに多いので、両面のアプローチが必要だわな。とはいえ理論が少し先行していないと意味不明になると思うけど

224:デフォルトの名無しさん
21/02/15 10:26:22.13 TYpaPOuQ0.net
仕事でやっているなら、当然実践するわけですけど、趣味でやっていると手間とお金をかけて実践するほどの意味があるか?

225:デフォルトの名無しさん
21/02/15 10:28:30.35 41NZb7spM.net
機械学習をツールとして使うだけでも理論って理解してないと駄目なのかな?
畳み込みが何してるかとかぼんやりとは分かってるけど自分でネットワーク組んだりとかはできない
困ったら大体フォーラムに泣きついてるわ

226:デフォルトの名無しさん
21/02/15 10:29:06.90 D0ANu2Du0.net
趣味でやってるからこそ採算度外視して
予算を突っ込めるのでは?

227:デフォルトの名無しさん
21/02/15 10:36:49.95 nTx5v/JZ0.net
実践しないのなら何のタメにやっているのか・・・

228:デフォルトの名無しさん
21/02/15 11:22:39.50 p64ROQdOM.net
機械学習出来る俺格好良い!かな?

229:デフォルトの名無しさん
21/02/15 13:57:51.78 nTx5v/JZ0.net
実践できないけど理論がわかる? 哲学かな・・・

230:デフォルトの名無しさん
21/02/15 15:03:53.41 HZQflKEb0.net
哲学、いいえ自己満足です

231:デフォルトの名無しさん
21/02/15 19:37:36.08 5Tzd0OZ/0.net
トラブルシュートを他人任せしているので
実践できているとは言えない
理論も実践も両方できていない

232:デフォルトの名無しさん
21/02/15 21:12:29.70 S6/x5QiO0.net
>>213-214
tempの中は、DLした画像の一時保存先のようです
>>216
とりあえず色々サンプル動かして、試して見たかったのです
色々調べた結果、
plt.imshow(image)
の後に
plt.show()
が必要ということが分かりました、ありがとうございました!

233:デフォルトの名無しさん
21/02/15 21:16:30.09 sg42Y7q/r.net
高須の勉強よりPythonの勉強しような

234:デフォルトの名無しさん
21/02/15 21:23:11.63 S6/x5QiO0.net
>>230
すいません、確かに機械学習関係ない部分でした
失礼致しました

235:デフォルトの名無しさん
21/02/15 21:38:25.01 D0ANu2Du0.net
URLリンク(i.imgur.com)

236:デフォルトの名無しさん
2021/02/1


237:6(火) 18:06:09.79 ID:K/E9ezue0.net



238:デフォルトの名無しさん
21/02/16 19:22:58.41 aV3r2PbC0.net
理論と実践って具体的にはどんな?

239:デフォルトの名無しさん
21/02/16 19:26:16.26 uhoN8wgc0.net
>>234
何だろうね

240:デフォルトの名無しさん
21/02/17 14:09:42.47 bvsbI4XGr.net
>>229
あーPythonで画像やグラフ表示する時のありがちパターン

241:デフォルトの名無しさん
21/02/17 17:16:54.73 r+zmID6J0.net
pandas最強説
前処理に必要な機能はなんでもついてて今までの苦労は何だったのか?と思える

242:デフォルトの名無しさん
21/02/17 21:02:29.56 D9ZFiUm80.net
numpy は画像も扱えるけど
pandasも出来るのけ?

243:デフォルトの名無しさん
21/02/18 17:09:32.23 5C04pll+0.net
pandasとnumpyはドメインが違う
普通にどっちも使う
numpyの画像データをpandasに入れて相関プロットするときはあるな

244:デフォルトの名無しさん
21/02/18 17:17:05.95 t+Ro3gz7M.net
reservoirネットワークて知らなかった
有名?

245:デフォルトの名無しさん
21/02/18 21:55:55.99 zdoONU6x0.net
Darknetを超える成果があれば紹介してくれ
のレベル。
2017年から引用論文数低いでそ

246:デフォルトの名無しさん
21/02/18 22:29:56.69 1dZfY7QU0.net
>>241
darknetにreservoirネットワークが実装されてんの?

247:デフォルトの名無しさん
21/02/19 06:33:12.28 DXgE0kf50.net
その手の質問はお母さんにねw

248:デフォルトの名無しさん
21/02/19 06:58:08.79 8xulia+A0.net
>>243
居ないから聞けない
教えてよ

249:デフォルトの名無しさん
21/02/19 10:24:28.90 XtfTxY2q0.net
>>244
担当のケースワーカーさんにきいてね

250:デフォルトの名無しさん
21/02/19 11:29:56.26 8xulia+A0.net
>>245

どういう意味?

251:デフォルトの名無しさん
21/02/19 11:52:53.18 Kx6yVjTor.net
yolact
物凄いな
でもgpuメモリ食いまくり
マルチGPU推奨

252:デフォルトの名無しさん
21/02/19 12:08:49.50 HA2qNnMqM.net
yolact++じゃなくてyalact?
環境作ってみようかな

253:デフォルトの名無しさん
21/02/20 10:22:15.82 UP4AX1RG0.net
すみません, 初歩的な質問なのですがベイズ的にコインの表=1, 裏=0の予測を考えた時にそれまでの観測データ集合がDとして与えられていたら加法定理, 乗法定理より
p(x=1|D)=\int_0^1{p(x=1|μ)p(μ|D)dμ}
となるというのがわかりません.
加法定理よりμの周辺化がだせて, 乗法定理より
p(x=1, μ|D)=p(x=1|μ, D)p(μ|D)
まではわかるのですが,
p(x=1|μ, D)=p(x=1|μ)
となるのがわかりません。
どなたかご教授願えますと幸いです

254:デフォルトの名無しさん
21/02/20 10:42:49.47 wirHviZp0.net
分かる人いません

255:デフォルトの名無しさん
21/02/20 11:18:01.74 +2PtxTzjM.net
ナイーヴベイズぐらいしか判らん。
勉強して教示して下さいませ

256:デフォルトの名無しさん
21/02/20 11:35:30.13 kELZtQLP0.net
>>249
乗法定理

257:デフォルトの名無しさん
21/02/20 11:46:59.95 UP4AX1RG0.net
>>252
p(x=1|μ, D)に対して乗法定理を使っても
p(x=1|μ, D)=p(x=1|μ)
にならない気がします、
というよりは乗法定理を使ってこの式を出したのでもう一度使うと元の式に戻ってしまうような

258:デフォルトの名無しさん
21/02/20 11:59:23.71 wirHviZp0.net
>>251
いくら払える?

259:デフォルトの名無しさん
21/02/20 12:57:40.22 UP4AX1RG0.net
>>249
自己解決しました


260:、条件付独立により消せたようです、勉強不足でお騒がせいたしましたm(_ _"m)



261:デフォルトの名無しさん
21/02/20 13:18:45.11 +2PtxTzjM.net
>>254
Iwon

262:デフォルトの名無しさん
21/02/20 14:32:59.23 wirHviZp0.net
>>256
哀合

263:デフォルトの名無しさん
21/02/20 16:40:01.62 +W//x0Gh0.net
数学の質問なんて。。。
プログラム板も進歩したな

264:デフォルトの名無しさん
21/02/22 20:24:09.55 v/wSf64xM.net
機械学習の予測と大きく乖離したデータが出た場合、なおかつ乖離したデータが重きを置く特徴量が同じである事が多い場合、いっそ省いた方がよかったりする?
過学習されすぎてるだけなのかな

265:デフォルトの名無しさん
21/02/22 20:41:07.35 VHZlMFds0.net
わかんない
>>259

266:デフォルトの名無しさん
21/02/22 20:56:06.01 cP93aI+80.net
俺もわかんねーや

267:デフォルトの名無しさん
21/02/22 21:09:49.10 B18d8Bwp0.net
>>259
具体的にはどんなデータなの?

268:デフォルトの名無しさん
21/02/22 21:25:34.02 6SeUKgvV0.net
棄却検定の話と混同?

269:デフォルトの名無しさん
21/02/22 21:31:40.72 VHZlMFds0.net
自動運転レベル4がドイツで実用化だってさ
URLリンク(blog.livedoor.jp)

270:デフォルトの名無しさん
21/02/22 21:49:14.79 cP93aI+80.net
ドイツは規格に命かけてるからね

271:デフォルトの名無しさん
21/02/22 22:13:41.97 Pda7ycdEa.net
>>259
直感的に今の機械学習法ではうまくいかない予感

272:デフォルトの名無しさん
21/02/22 23:35:19.80 WGVqAKhMM.net
>>262
競馬です
年齢高い馬が実力や実際のオッズより過小評価されとる。。

273:デフォルトの名無しさん
21/02/23 03:17:45.85 NFY8I/xt0.net
年齢を連続値で入れるだけじゃなくていろいろ試してもダメ?
ビニング、若いor not、老馬or not、適齢期or notなど

274:デフォルトの名無しさん
21/02/23 06:39:19.44 7MS8v9aq0.net
>>268
実験の詳細が分からんから助言のしようがない

275:デフォルトの名無しさん
21/02/23 08:51:38.71 NUvCbrOsM.net
>>264
アイスバーンと地吹雪ホワイトアウトに対応できるの?

276:デフォルトの名無しさん
21/02/23 10:01:22.84 WBK5Nsiy0.net
>>267
回帰か分類かわからんけど、不均衡データとかそういう話であるならweight付けてみたら? 基本的にはダウンサンプリングの方が効果あると思うけど、何事もやってみないとわからん

277:デフォルトの名無しさん
21/02/24 07:45:41.23 ZM5I/FKL0.net
>>270
無理
そんな例外は放置

278:デフォルトの名無しさん
21/02/24 07:59:21.26 MGSDIXGva.net
少ないながら今後も確実に発生する事象を勝手に例外扱いして無視するなどという都合のいいことをするから
高精度を謳うのに実用時にまともな結果を出さないモデルで溢れることとなるんだよ

279:デフォルトの名無しさん
21/02/24 08:53:20.56 BstpO7i2M.net
>>272
だったら使えんな
今でも運転下手くそなレベルでも走れてるんだ
相当下手くそなやつだけが時々事故る
そんなレベルでは普通の道でも危なっかしい

280:デフォルトの名無しさん
21/02/24 14:04:36.50 Bvgf08710.net
バッチ正規化とバッチ正則化って用語が違うだけで同じ意味?

281:デフォルトの名無しさん
21/02/24 14:47:33.75 rDb27bYS0.net
>>275
Batch Normalizationのことだと思うので、訳し方が違うだけじゃないかなぁ

282:デフォルトの名無しさん
21/02/24 15:19:24.42 KkK7PqtG0.net
NormalizationとRegularizationは別もんでは?

283:デフォルトの名無しさん
21/02/24 15:29:11.54 rDb27bYS0.net
>>277
それだと標準化と正則化と訳すのが多いかなと思う。あとBatch Regularization


284:チてのは聞いたことがないような



285:デフォルトの名無しさん
21/02/24 17:07:10.41 aiTBro5g0.net
>>278
標準化はStandardizationじゃね?
正規化は Normalization

286:デフォルトの名無しさん
21/02/24 17:26:18.69 rDb27bYS0.net
>>279
あー、たしかに

287:デフォルトの名無しさん
21/02/24 21:15:40.48 /ijFpzJL0.net
あわしろ氏は文脈に応じて訳し分けてると言ってたな。

288:デフォルトの名無しさん
21/02/25 01:45:57.34 nGiGWcBPr.net
正則は人名と紛らわしいからな。瀧正則

289:デフォルトの名無しさん
21/02/25 17:36:46.39 1tdXZ2Q60.net
正規表現 regular expression
正則空間 regular space
正規空間

290:デフォルトの名無しさん
21/02/25 17:37:54.78 1tdXZ2Q60.net
ごめん、途中で書き込んだ
まあ、言いたいのは分野横断的だと面倒だなってこと

291:デフォルトの名無しさん
21/02/25 19:59:25.98 o69Cz55j0.net
transversal

292:デフォルトの名無しさん
21/02/27 00:05:45.90 fOML2+m/0.net
機械学習で正則化といえばロスに重みつけるやつで、正規化は入力か中間層をガウス分布に近づける操作やね

293:デフォルトの名無しさん
21/03/01 16:32:02.02 7ZNdmOBRM.net
lambdanetworkとかいうのが出てきた

294:デフォルトの名無しさん
21/03/02 01:41:31.08 aSgn2ezQ0.net
たかがラベリング合戦ですからほどほどに‥

295:デフォルトの名無しさん
21/03/02 14:55:14.65 KprYW+pBM.net
causal learnigって日本語でなんて言うの?
原因学習? 因果関係学習?

296:デフォルトの名無しさん
21/03/02 15:13:46.90 y/Cpe5k40.net
普段着学習

297:デフォルトの名無しさん
21/03/02 15:14:34.48 HYwCXxZc0.net
カジュアル学習だな

298:デフォルトの名無しさん
21/03/02 23:58:41.93 FHl+lquqr.net
お茶の間留学

299:デフォルトの名無しさん
21/03/03 15:37:53.54 a466TPPq0.net
日本語訳マジでやめて欲しいわ
意味が分かりにくすぎる

300:デフォルトの名無しさん
21/03/07 08:34:26.08 ovVd1ujW0.net
小猿ラーニング

301:デフォルトの名無しさん
21/03/16 14:48:06.49 qP7784Z/0.net
第4回 自動翻訳シンポジウム 〜自動翻訳と翻訳バンク〜URLリンク(www.smbc-card.com)
本日開催

302:デフォルトの名無しさん
21/03/16 15:42:31.98 VVLbd7hx0.net
Visaのタッチ決済とは?使い方やおすすめカードを紹介

303:デフォルトの名無しさん
21/03/16 15:57:26.05 qP7784Z/0.net
>>295
せっかくだから自動字幕も付ければいいのに

304:デフォルトの名無しさん
21/03/16 16:42:39.23 qP7784Z/0.net
>>297
右下の手話の同時通訳も頑張れば3 D モデルで自動生成できるよね

305:デフォルトの名無しさん
21/03/18 11:45:35.73 1ybz7R6W0.net
人工知能でジミー大西を再現 NTTドコモ
URLリンク(panora.tokyo)
チー牛の発想(笑)

306:デフォルトの名無しさん
21/03/20 17:10:12.22 SutlyK1K0.net
「レベル4」と呼ばれる高度な自動運転の技術を2025年ごろまでに大都市などの市街地で実用化
URLリンク(www3.nhk.or.jp)
やっとレベル4だってさ

307:デフォルトの名無しさん
21/03/20 17:33:53.12 dTqTAxKea.net
横断しようとしている歩行者がいたら停止する
法定速度を守る
道路が汚れていたらどうするか
ものが落ちていた場合、どういう場合に無視するか
人間でも難しい問題が山積み

308:デフォルトの名無しさん
21/03/20 18:17:09.51 ah+QJUGT0.net
高齢者の運転より安心できそう

309:デフォルトの名無しさん
21/03/20 20:00:01.63 SutlyK1K0.net
日本中の道路を 自動運転用に整備すればいい
たぶん20兆円ぐらいかかるだろうけど
ちょうどいい公共事業になるだろう

310:デフォルトの名無しさん
21/03/20 20:54:34.45 GwTQ68N30.net
道路工事にどれだけ時間かかると思ってるんだw

311:デフォルトの名無しさん
21/03/20 21:06:32.21 SutlyK1K0.net
>>304
んー 50年くらい?(笑)

312:デフォルトの名無しさん
21/03/20 21:13:53.89 vUNrx7r30.net
50年後
「次世代形式に対応してないのでもう一回お願いします」

313:デフォルトの名無しさん
21/03/20 21:53:04.75 0/BZQQ4C0.net
LINEの個人情報が中国へだだ洩れだった問題で
LINE「説明が十分ではなかった」ってことでいろいろ説明してたが
結局、元々そんな仕様になっていて問題はないっていう
どこが問題では無いのかっていう

314:デフォルトの名無しさん
21/03/20 22:40:57.48 SutlyK1K0.net
>>306
また公共事業できていいじゃん

315:デフォルトの名無しさん
21/03/20 22:45:45.27 vUNrx7r30.net
そうせずになんとかなりそうな目途が立ってるのに
さすがにだるい

316:デフォルトの名無しさん
21/03/21 11:23:04.89 TAhxQpfva.net
>>307
規約に書いているのにきちんと読みもせず「そんなこと了承していない!」と怒っているだけ

317:デフォルトの名無しさん
21/03/21 11:27:52.31 t4P2IHf80.net
書いてあってもダメ
書いてあると主張すること自体がダメ
現に情報の保護がばっちりだと大体的に宣伝しているから
規約にあったら悪意をもって虚偽広告したのは明白
業務停止が妥当レベル

318:デフォルトの名無しさん
21/03/21 12:47:02.88 7MVn+hE/0.net
>>310
チョン乙

319:デフォルトの名無しさん
21/03/21 13:01:32.24 ut0JDDIv0.net
ネトウヨさんは意外と騒いでないのは菅が広報でガッツリ使ってるからなんよねw
だからこそ今までLINEのばなしにしてたんだろうけれど。
あいつらはほんまダブスタ丸出しなんだわw

320:デフォルトの名無しさん
21/03/21 13:28:57.11 H+OGyDQG0.net
言った言わないとかどうでもいいからさっさと禁止しろよ

321:デフォルトの名無しさん
21/03/21 13:33:55.80 t4P2IHf80.net
同意したわけでは決してない
不誠実さや卑劣さを知らないわけではない
社会に屈服したんだ

322:デフォルトの名無しさん
21/03/21 15:23:32.18 7MVn+hE/0.net
ネトウヨさんが意外と騒いでないのはLINEが韓国国家情報院が開発したもので情報が国家情報院が流れているのを知ってるからだよ
LINEを使っているのは情弱の馬鹿

323:デフォルトの名無しさん
21/03/21 17:32:24.00 ut0JDDIv0.net
話の噛み合ってないバカ登場

324:デフォルトの名無しさん
21/03/21 18:38:31.10 sx7aMuTzp.net
E資格ってのをとってみたけど
役立つかな?

325:デフォルトの名無しさん
21/03/21 19:44:25.11 7MVn+hE/0.net
馬鹿というのが馬鹿

326:デフォルトの名無しさん
21/03/21 21:29:57.83 3jvKXp5s0.net
>>318
あわしろ氏は、取るべきと言ってたぞ。

327:デフォルトの名無しさん
21/03/22 00:40:38.65 TakJ5P2Ia.net
>>318
重要なのは論文か国際会議への投稿だと思うけど

328:デフォルトの名無しさん
21/03/22 21:23:39.28 jnDhv8jq0.net
E気持ち

329:デフォルトの名無しさん
21/03/22 21:52:03.66 go+deXIv0.net
7-11

330:デフォルトの名無しさん
21/04/02 14:21:15.67 KNqNW5Vy0.net
URLリンク(diamond.jp)
ここで出てくる「2020年、前述した ebmt の手法が復活して nmt の上に追加された」というのはknnmt のこと?

331:デフォルトの名無しさん
21/04/04 12:30:25.33 rdKx+7Rr0.net
ebmtの概念は、深層学習モデル以前のSMT的ものなので、knnmtとは別物だと思う。
Google scholarで論文を探してみたが、


332:Sumita+ebmtだと2004年くらいに 1件ヒットするだけで、恐らく、ebmt+nmtのテーマではまだ論文発表はしてない。 記事は、一般論的な書き方をしてるが、ebmtを取り込んだのはNICTの翻訳エンジン であり、この流れが広がっていくかは別問題。 NICTのアプローチはどちらかというと、モデルパラダイムよりもデータ重視の傾向が 強い。ただし、NICのデータパラダイムは、最近Andrew Ngが提唱してるデータ 重視論とは異なり、MTの精度向上を専門辞書の整備や、分野別コーパスなど 人手をかけることで解決するというかなり泥臭いやり方となる。ebmtを持ち出したの も多分、それと同じ。



333:デフォルトの名無しさん
21/04/05 07:33:24.02 +AQc/QviM.net
うむ、見事なまでに何も判らん。
修行が足りんのか、分野が違うんだろうなぁ(遠い目)

334:デフォルトの名無しさん
21/04/05 11:22:07.65 H4wZ9f0a0.net
論語、念仏と同じと思えば

335:デフォルトの名無しさん
21/04/06 16:15:11.38 ZL8nOQTg0.net
ニューラルネットワークの訓練における正則化は汎化性能の向上を目的としている、であってる?

336:デフォルトの名無しさん
21/04/07 13:25:15.72 9UsmgW2CM.net
URLリンク(www.rd.ntt)
nttも成果を公表するようになってきた
ありがたい

337:デフォルトの名無しさん
21/04/07 14:11:05.37 aEOad5Sn0.net
グーグルのベンジオ(便所?)とかいう人が同僚二人の解雇に抗議して退職したとのことです。

338:デフォルトの名無しさん
21/04/07 14:42:06.86 h/XTHitC0.net
>>330
マジ?

339:デフォルトの名無しさん
21/04/07 16:15:21.42 4/RbgeKpM.net
googleさん闇落ち?
ちょっと前にも解雇騒動あったでしょ

340:デフォルトの名無しさん
21/04/07 17:59:45.81 wk8IjE//M.net
reddit見る限り、ググルのことを陰謀を企む悪の組織と誤認してる電波が少しいて、
ググルを叩く風潮に嫌気が差してる人がほとんど
ゲブルの評判が悪い悪い(笑)
lecunと議論せずにひたすら上から目線で自分の論文を嫁としかツイらなかったせいで嫌われた

341:デフォルトの名無しさん
21/04/07 19:17:15.46 fhO6V2UYF.net
アメリカのテック系大企業は経営者に歯向かったら割と簡単にクビになるし特に珍しいことでもない
クビにしたところで世界中で優秀な人をいくらでも集められるから
日本企業は報酬もグローバルでの地位も魅力がないのでむしろ労働組合と関係良好なことをアピールする

342:デフォルトの名無しさん
21/04/07 19:21:43.78 kaudX4Ty0.net
優秀=白人(プロテスタントまたはJewish)金髪碧眼将来は毛男性 ってか・・・?w

343:デフォルトの名無しさん
21/04/10 18:13:18.66 92qP4Pw30.net
MS&GoogleのCEOインド出身だったりするけどな

344:デフォルトの名無しさん
21/04/10 21:39:10.15 fnNsjOwD0.net
ちょっとこれは、かなり難しく、力をお貸しいただきたいのですが、
自分でニューラルネットワークを作ろう
URLリンク(qiita.com)
の記事で質問があるのですが、
なんやかんやで大体ざっとは理解できたのですが、
重みの更新式
# 重みの更新



345:self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T) self.w_ih += self.lr * np.dot((e_h * self.daf(o_h)), o_i.T) この式の意味が本当に分かりません。 ※*は、成分同士を掛けて行列積を求めるもので、np.dotは普通の行列積になります。 一応 隠れ層から出力層への重みによる偏微分 入力層から隠れ層への重みによる偏微分 の部分は読んで、まぁそうなるんだろうなとざっと理解でき、 【深層学習】誤差逆伝播法|バックプロパゲーション ttps://youtu.be/X8hK4ovQoLg この動画を見たりしたのですが、 まず1つ目の self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T) からよく分かりません。 可能であれば、複数の式になって良いので、スカラーによる計算式で示して頂きたいのですが・・・なぜこのようになるのか、を。 たぶん、 隠れ層から出力層への重みによる偏微分 入力層から隠れ層への重みによる偏微分 にある「重みの式」に代入していくような感じだとは思うのですが・・・。



346:デフォルトの名無しさん
21/04/11 11:31:48.34 cX1p0N8YM.net
>>337
そのQiitaの記事のコードの上の方に数式は具体的に書かれている訳だけども、
まずそっちは理解しているのかな?
理解できてないのであればまずは線形代数をしっかり学ぶ必要があると思う

347:デフォルトの名無しさん
21/04/11 21:23:07.14 J8YGJLtEa.net
>>337
dWの微分を行列で表すとそうなる
ほとんどの本ではそこは省略されてることが多い

348:デフォルトの名無しさん
21/04/11 21:25:59.74 JF/oxO5S0.net
>>338-339
ありがとうございます

349:デフォルトの名無しさん
21/04/11 21:29:25.29 J8YGJLtEa.net
スカラーから行列に手計算で直すのが良い
あとミニバッチ対応だと行列以外では表現できないから
行列は必須

350:デフォルトの名無しさん
21/04/13 19:20:02.35 JY3IIMBR0.net
経営者に歯向かうって
日本の95%ぐらいが同族企業で新しい芽はすぐ摘まれるのに
そんな歯向かう程意気込んでいる奴が居るのか?
何か反論してお前がやってみろ的流れで上げ足を取られないよう我慢較べに耐え
マイナスポイントを作らないように頑張るぐらいが
日本のサラリーマンのやる気だろ

351:デフォルトの名無しさん
21/04/13 19:40:11.07 h3BzXWVB0.net
>>342
突然どしたおい

352:デフォルトの名無しさん
21/04/13 20:34:14.37 TGVCGH2G0.net
春だから

353:デフォルトの名無しさん
21/04/13 21:02:28.07 Qr7OJO8/0.net
はるだなぁ ┌┤´д`├┘

354:デフォルトの名無しさん
21/04/13 21:14:34.02 JY3IIMBR0.net
おっと意気込んで勉強してる奴が居たっぽいな

355:デフォルトの名無しさん
21/04/13 21:24:43.15 JY3IIMBR0.net
そんな使い捨て分野の勉強もいいが
サラリーマンなら腰巾着として生きていく道も悪い選択肢ではないぞ
方向性を間違ってしまいそうな準社畜勢が多く集まっていそうだけども

356:デフォルトの名無しさん
21/04/14 00:22:17.60 SzuxgdzH0.net
年収 >= 20万円 x 年齢
を満たしつつ、楽しく平穏に働きたい

357:デフォルトの名無しさん
21/04/14 10:53:40.16 GkDETHMT0.net
夢見る若者w

358:デフォルトの名無しさん
21/04/15 09:06:10.49 /Y74/7RV0.net
URLリンク(ocw.tsukuba.ac.jp)
筑波大学では、平成31年度10月より、情報教育に関する共通科目として「データ


359:Tイエンス」を開講しました。 「データサイエンス」の授業では、データサイエンスの基礎的概念を理解し、 コンピュータを利用した基礎的なデータ分析技術を学ぶことを目的としています。 筑波大ではデータサイエンスが必須になった 更にその内容もデータサイエンスに留まらず 流体力学もIoTも何でもあり もちろん地道な検定とかもやるんだな



360:デフォルトの名無しさん
21/04/15 10:11:09.71 3ci3nRnzM.net
>>350
良く分かんないページだ
オープンコースの説明?
ラボの説明?

361:デフォルトの名無しさん
21/04/15 11:31:20.39 /Y74/7RV0.net
>>350は筑波大の学生全員共通科目だな
筑波大といえば学生が授業を見るためのデータベースを
学生が独自に作ってしまったとかで最近話題になった
もっと前には、構内でしたい放題しまくったスーパーハッカーがいて
いい所に就職できたんだっけ

362:デフォルトの名無しさん
21/04/15 13:54:53.25 YwaVn3VBa.net
>>350
流体力学なんて大手メーカーの開発職ぐらいしか使わないぞ
やるだけ無駄

363:デフォルトの名無しさん
21/04/15 14:11:56.12 3ci3nRnzM.net
>>350
これって導入のところの一項目が授業一回分になるのかな?
ラボの説明聞いて終わり?

364:デフォルトの名無しさん
21/04/15 14:28:15.51 ASAfbP0Sr.net
>>353
研究機関でも使う
そして研究機関でパラメータをひねりまわしてるのは派遣PGだったりする

365:デフォルトの名無しさん
21/04/15 14:30:23.81 WWq7Tu7t0.net
流行りだから、学生が呼べて就職がよければOKさ

366:デフォルトの名無しさん
21/04/15 16:27:52.28 Ek3DvuxM0.net
>>352
受賞はタイーホのライセンス!的なアレですな

367:デフォルトの名無しさん
21/04/15 16:37:07.53 Nt0NlrQG0.net
URLリンク(www.youtube.com)
強化学習とDNN画像認識を組み合わせて、
マンデルブロ集合の図形を自動検知、自動拡大

368:デフォルトの名無しさん
21/04/15 17:19:45.29 3ci3nRnzM.net
>>358
アーモンド的な模様を探して拡大?
マンデルブロを計算せずにってこと?

369:デフォルトの名無しさん
21/04/15 17:22:02.46 Ek3DvuxM0.net
なんちゃらのなんちゃら休むににたりってやつだな・・・

370:デフォルトの名無しさん
21/04/15 21:36:04.06 /Y74/7RV0.net
>>358
自己相似の構造を見出すことに成功か
このスレは何でもかんでも深層学習にしなくても
統計学っぽいのも一応はいいのかな
k-means法とかクラスター分析とか位相的データ解析とか

371:デフォルトの名無しさん
21/04/15 21:57:49.86 FAu+tRVaa.net
深層学習は機械学習を実現する一手法に過ぎないからね

372:デフォルトの名無しさん
21/04/16 10:59:52.75 3ahlvanY0.net
>>362
他の方法とは?

373:デフォルトの名無しさん
21/04/16 11:01:25.02 +ZqSb2qyM.net
コホーネンに手を出すかw

374:デフォルトの名無しさん
21/04/16 11:53:04.91 gNE3LwpI0.net
>>363
昔ながらのサポートベクトルマシンとか
マハラノビス距離に基づく分類とか
ランダムフォレストとか

375:デフォルトの名無しさん
21/04/16 12:12:24.30 +ZqSb2qyM.net
マハラノビスも最近は機械学習に
分類されるのか。orz

376:デフォルトの名無しさん
21/04/16 12:38:05.85 eQE8+yTmM.net
>>1
データ少ないときは深層学習じゃない方がいいの?

377:デフォルトの名無しさん
21/04/16 13:24:48.08 RDksD56A0.net
データが少ない時は決定木系でいいよ
特にテーブルデータ

378:デフォルトの名無しさん
21/04/16 14:17:37.95 qA3a8jioa.net
機械学習は機械的に学習できる手法の総称でしかないので何でもあり

379:
21/04/16 20:19:06.10 5MUeIHD20.net
>>361
k-means はあらかじめクラスタの個数は指定しないといけないから、クラスタの個数がわからない状況では無力ですよ‥‥

380:デフォルトの名無しさん
21/04/16 21:52:50.72 uMQoO2nS0.net
何を当たり前のことを…

381:デフォルトの名無しさん
21/04/16 22:11:22.27 +WADC0tD0.net
しっ、よしなよ
めちゃ早口で言ってるじゃん
rubyガイジ引き込む前兆だよ

382:デフォルトの名無しさん
21/04/17 00:53:32.90 r+Flv24K0.net
まあしかしk-meansとかのクラスター分析ってなんか意味あんのか?って思うことはよくある。
教師なしでもPCAなんかはまだ使い道わかるけど。

383:デフォルトの名無しさん
21/04/17 03:24:44.86 KQhVv37W0.net
SOM & GAN  gaaan

384:デフォルトの名無しさん
21/04/17 04:06:51.97 9pKeriUl0.net
クラスター分析は深層学習以前の統計解析が主流だった頃のNLPでよく使った。
よく使ったのが、大量の学術論文をベイズ分類器でテーマ別に分類して、分類後の
集合をさらにクラスター分析で類似文書ごとにまとめるというもの。
クラスター分析は、BOW的なデータ構造であればなんでも自動分類してくれるので
例えば画像ファイルからカラーヒストグラムを生成して、色分類ごとの色強度のデータ
ファイルを作れば、画像分類とかもできたので面白かった。
あと、クラスター分析とは違うが、最近、 誰かがNLPにおける教師なし学習の
新潮流について触れて、例えば、よくあるワードベクターの2次元マップ(Word embedding)
を作り、英語とドイツ語のマップを重ねると英語とドイツ語の対訳辞書を自動生成
することも可能になるはずとか話していた。教師なし学習で対訳辞書みたいなものが
自動生成できるかもしれないという考え方は斬新だなと思った。

385:デフォルトの名無しさん
21/04/17 04:15:57.29 dljYNFer0.net
>>373
応用例を知りたいの?

386:デフォルトの名無しさん
21/04/17 11:10:35.27 7oBh743X0.net
>>373
類縁グループを定量的に調べられるのなら
分類とかだと非常に有効だね

387:デフォルトの名無しさん
21/04/17 12:00:18.35 8ejS6mqaa.net
k-meansとかのクラスタリングで
正常クラスタ群と異常クラスタ群に分けられる?
過去に異常検出した時のデータと正常データを区別できるようにしておいて
クラスタリングを繰り返して上手く正常と異常に分かれるクラスタ数を見つける
新たになデータが各クラスタのどれに属するか判定して
異常クラスタに属したら異常の可能性があるから
調べるとか運用停止するとかの対処をする

388:デフォルトの名無しさん
21/04/17 13:21:11.85 ohP60UMxd.net
いや、分類ってそれなりの分類の尺度をユーザーが決めるから意味あるんじゃねーの?
機械学習的に分類しても、で?っていう気にしかならんのだが。

389:デフォルトの名無しさん
21/04/17 13:27:16.40 7oBh743X0.net
>>379
よく問題になるのは生物の分類だね
分類から主観を取り除くことが出来る
主観こそが大事と考える文系の為政者、経営者にとっては
邪魔な時がある

390:デフォルトの名無しさん
21/04/17 13:31:51.20 ohP60UMxd.net
ある種の外れ値を認識する方法としては意味ある時もあるか。
主観がどうとか言ってるのは全く的外れにしか思わん。
逆に主観とのある種の一致性を無駄に主張する道具には使われてる印象だが。

391:デフォルトの名無しさん
21/04/17 13:45:29.23 QU2IYZKl0.net
外れ値は外れ値だけ正常値は正常値だけ近くなるような距離関数選んで
dbscanにかけろよ

392:デフォルトの名無しさん
21/04/17 13:51:53.23 7oBh743X0.net
コンドルはワシタカ目(もく)なのかコウノトリ目なのか
とか
フラミンゴはコウノトリ目なのかガンカモ目なのか
とかを骨格とか卵白のアミノ酸配列などに注目


393:オたりとか 色々指標を変えて学者が二百年も言い争い続けて、 結局はDNAの塩基配列をクラスター分析したら、 https://ja.wikipedia.org/wiki/%E9%B3%A5%E9%A1%9E#%E7%8F%BE%E7%94%9F%E9%B3%A5%E9%A1%9E%E3%81%AE%E7%9B%AE%E5%88%86%E9%A1%9E コンドルはコウノトリに近いんだよ〜って20年前の自称鳥類物知りが語ってたのに 結局ワシとかに近い方に入れられてしまった



394:デフォルトの名無しさん
21/04/17 14:41:09.11 ohP60UMxd.net
>>383
で、その分類を誰がどう使うんだ?
そこで「正しい」とか主張することになんの意味があんの?
ってところを全く考えてなさそうな頭の悪さが見受けられる。

395:デフォルトの名無しさん
21/04/17 14:43:54.03 dljYNFer0.net
そう。。。

396:デフォルトの名無しさん
21/04/17 15:08:57.10 7oBh743X0.net
>>384
ある論争があった学問分野に
1つの解を与えた(これで解決したとは言っていない)
というだけでも恩恵はあるんじゃないかな

397:デフォルトの名無しさん
21/04/17 15:11:19.78 Qe2ZIyvF0.net
>>384
頭大丈夫か?

398:デフォルトの名無しさん
21/04/17 15:20:42.83 7oBh743X0.net
どのレベルで「客観的な分類なんて要るのか?」
と言いたいんだろうと思ってたが
古典的な哲学寄りの煽りだったのか

399:デフォルトの名無しさん
21/04/17 15:22:02.38 nv8Do3m/M.net
自分の頭が大丈夫かどうか
それは誰にも分からない
腹が減ったのは分かる

400:デフォルトの名無しさん
21/04/17 20:52:47.18 v2WFWWWe0.net
人間の恣意的な分類より
体型的で規則的な分類の方が個人による分類の違いがでないから分類結果の共有に間違いが少ない

401:デフォルトの名無しさん
21/04/17 22:10:48.61 4y7R77pu0.net
サイボウズ青野社長が目指す「100人100通り」の働き方実現
URLリンク(www.nikkan-gendai.com)
初公開! サイボウズの自由すぎる働き方はこんなやり方で管理されていた
URLリンク(cybozushiki.cybozu.co.jp)
どうしてサイボウズは、働き方を変えられた?
「時間」と「場所」の制約がない多様な働き方
URLリンク(toyokeizai.net)
サイボウズの働き方改革事例(前編)
「働き方の多様化」へ、その歩みはトップの覚悟からはじまった
URLリンク(ws.zxy.work)
サイボウズの働き方改革 〜働き方の多様性がチームワークあふれる会社を創る〜
URLリンク(jinjibu.jp)
サイボウズはなぜ自由な働き方ができる? ーインターンが見た裏側には、ツールと情報共有があったー
URLリンク(www.wantedly.com)
働き方先進企業が警告「パワハラ的な日本企業は在宅勤務で沈む」
URLリンク(business.nikkei.com)
「働き方を自分で選ぶ」時代へ。その多様性が責任になり、パフォーマンス向上につながる。
URLリンク(www.nice2meet.us)

402:デフォルトの名無しさん
21/04/17 23:03:07.99 7oBh743X0.net
>>370
URLリンク(qiita.com)
エルボー法でも使ってみてくれ

403:デフォルトの名無しさん
21/04/18 01:15:06.95 oEMklD2xa.net
機械学習で分類するには分類基準をまず人間が与える必要がある訳でそれを客観的と言えるのか

404:デフォルトの名無しさん
21/04/18 03:01:48.20 /yrt+WGh0.net
客観的である必要はない。
人間にとって分類しやすいかどうかのがよっぽど意味があるというのに。。
分類をなんのために行うのかさえわかってないでk-meansで出ましたとか言ってるバカは
機械学習とかやめてほしいわ。印象を悪くする。

405:
21/04/18 03:53:49.04 8N2uJcok0.net
>>392
全く手段がないというわけではないんですね‥ありがとうございます
>>392
URL内結論コメント
>>現実のデータを使ってエルボー図を書いてみると、上記のような「綺麗なヒジ」はなかなか現れない
>>言いたいことはエルボー図の時と同じだ!!!

406:デフォルトの名無しさん
21/04/18 09:08:11.82 lVaCsfaE0.net
URLリンク(qiita.com)
x-means法が既にあるね

407:デフォルトの名無しさん
21/04/18 09:46:42.30 m+SV1W/C0.net
>>394
自然科学は自然を理解するモノだから
人間の考えより自然の方が正解
対象によって何が正解かは違ってくる
人間の都合で良いものは人間に合わせたらいいけど
自然科学は自然が正解
実験結果とか実際と差があるなら人間の仮説の方が間違いだから修正する

408:デフォルトの名無しさん
21/04/18 09:55:52.80 m+SV1W/C0.net
元のデータ空間のままでk-meansが上手くクラスタリングできない場合は
別の空間に移してからクラスタリングすると良いかもしれない
DNNも入力に近い層で空間を移していると解釈する人もいるし
どんな写像にするかをデータから学習していると考えられる
中間層の出力を使ってクラスタリングすると上手く分けられるようになっているかもしれない

409:デフォルトの名無しさん
21/04/18 11:49:56.96 yp3ki8fH0.net
測定誤差や間違いを多く含むデータを利用し、人間の主観が入った機械学習を利用している時点で…

410:デフォルトの名無しさん
21/04/18 13:36:27.79 QeEYhUGL0.net
その測定誤差を低減する上で必要な基礎知識って大学のデータサイエンス課では教えてなさそう
URLリンク(www.ds.shiga-u.ac.jp)
ジャンル的に工学部の履修内容だからか?

411:デフォルトの名無しさん
21/04/18 17:14:46.61 IRPicDM6a.net
どんな手法でどんなデータを計測するかということを設計する時点で設計者の主観が大いに入り込むことを理解できずに
データだけから判定を下すのだから客観的だろと言っている自称DSが多過ぎる


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

381日前に更新/225 KB
担当:undef