1 名前:デフォルトの名無しさん mailto:sageteoff [2017/01/21(土) 23:26:48.63 ID:nFM+9kDb.net] 機械学習とデータマイニングについて何でもいいので語れ 人工知能考察は未来技術板の技術的特異点スレで語れ ■関連サイト 機械学習の「朱鷺の杜Wiki」 ibisforest.org/ DeepLearning研究 2016年のまとめ qiita.com/eve_yk/items/f4b274da7042cba1ba76 ■前スレ 【統計分析】機械学習・データマイニング11 echo.2ch.net/test/read.cgi/tech/1482227795/
47 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 05:01:16.79 ID:HmW376R/.net] intで小数の割り算できない
48 名前:デフォルトの名無しさん [2017/01/23(月) 15:14:23.38 ID:IC/rKxoI.net] >>39 ありがとう! 時間かけて読んでくるよ
49 名前:デフォルトの名無しさん [2017/01/23(月) 17:51:55.43 ID:86G+eoCI.net] 以下のコードを実行しましたが、 Irisのデータが取得できません。 なぜでしょうか? Raschkaの本に載っているコードです。 import pandas as pd df = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data', header=None) df.tail()
50 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:12:01.06 ID:iz5/M2l3.net] 掛け算ができたら0.5掛ければ2で割るのと同じ結果を得られるんじゃね Fig2に書いてある重みにしたらuvの積になるとかそんな感じだと思うが
51 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:15:36.97 ID:iz5/M2l3.net] >>48 そのURLにブラウザでアクセスしたらダウンロード出来るの?
52 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:20:18.40 ID:iz5/M2l3.net] >>48 ダウンロード出来た てことはpandasをインストールしてないとかじゃね?
53 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:20:53.58 ID:86G+eoCI.net] >>50 ありがとうございます。 ブラウザでアクセスすると csv ファイルのページが表示されます。 そして、それをダウンロードして、 df = pd.read_csv('iris.data', header=None) とやるとちゃんと読み込めています。
54 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:22:48.96 ID:86G+eoCI.net] 書き忘れましたが、データを取得できないだけでなく、 Python自体が動作を停止します。
55 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:25:44.01 ID:iz5/M2l3.net] >>53 エラーがでたりしてないの? 取り敢えず読み込めてるならいいんじゃね?
56 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 18:35:53.31 ID:86G+eoCI.net] >>54 PythonによってデータをダウンロードしようとするとPythonの動作が停止してしまいます。 ブラウザを使ってデータをパソコンに保存して、それをPythonで >>52 のように読み込むと ちゃんと読み込めます。 確かに、一応読み込めるのでとりあえずこのまま進むことにします。 ありがとうございました。
57 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 20:05:09.47 ID:wXTkzaHc.net] Python自体が動作を停止します。 キリッ wwwww
58 名前:デフォルトの名無しさん [2017/01/23(月) 22:04:45.67 ID:86G+eoCI.net] Raschkaの本を持っている人に質問です。 第2章の plot_decision_regions 関数で、 Z = classifier.predict(np.array([xx1.ravel(), xx2.ravel()]).T) の辺りの処理は何をやっているのでしょうか? 意味が分かりません。
59 名前:デフォルトの名無しさん [2017/01/23(月) 22:07:39.69 ID:86G+eoCI.net] なんとなくは分かります。 おそらく直線で分けられた二つの領域を分けるためのような気はします。
60 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 22:21:49.25 ID:Z+1qxvba.net] >>48-55 よく知らないけど、https は読み込めないとか?
61 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 22:39:53.25 ID:86G+eoCI.net] >>59 なるほど。 でもRaschkaの本に書かれている通りなんです。 Raschkaが確かめもせずに書いたとも思えないですし。
62 名前:デフォルトの名無しさん [2017/01/23(月) 22:41:16.47 ID:86G+eoCI.net] Raschkaの本を持っている人に質問です。 第2章のパーセプトロンの学習アルゴリズムについてですが、 データに値が
63 名前:奄フデータが含まれている場合に重みの更新 方法がまずいように思いますが、どうでしょうか? [] [ここ壊れてます]
64 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 23:00:46.31 ID:z8oniFRp.net] >>59 その本結構実装自体が間違っているから読んでも無駄 エッセンスだけ理解して自分で実装できないならやめた方がいい
65 名前:デフォルトの名無しさん [2017/01/23(月) 23:17:28.77 ID:/TRygv0x.net] ここでCMです >>47 掛け算を数値計算と比較をした記事があったのを思い出した Notes for "Why does deep and cheap learning work so well?" - GitHub https://gist.github.com/fperez/c7b1cb4810f9d0935e893f34c41f0c62 コードの方がわかりやすければこっちを先に読んだ方が良いかも
66 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 23:21:32.26 ID:bmNiILIc.net] pandas 0.19.2のAPIReferenceではhttpsは含まれてないですね。 pandas.read_csv The string could be a URL. Valid URL schemes include http, ftp, s3, and file. For file URLs, a host is expected. For instance, a local file could be file ://localhost/path/to/table.csv pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html
67 名前:デフォルトの名無しさん mailto:sage [2017/01/23(月) 23:50:24.06 ID:K6jGUSR0.net] 紹介したいのだろうが、こんなん読む気がしない
68 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 01:18:54.35 ID:hGsJD1f0.net] こういう情報提供の方がありがたいんだよなぁ…
69 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 02:32:21.44 ID:sXvuiz35.net] そんなわけない自演おつ
70 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 07:58:42.29 ID:FtPVVoGA.net] >>39 その論文と割り算に関係ないよね?
71 名前:デフォルトの名無しさん [2017/01/24(火) 08:13:42.45 ID:HkcW5uJV.net] >>39 >>63 いろんな論文を読んで勉強することはいいことだけど ややこしい論文を読むと言う話では無くて、割り算をテイラーなど 何かの級数展開して積の数列にすればいいと助言するだけの話では?
72 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 09:00:15.43 ID:bq02PTg/.net] アホの考え休むに似たり、相手すると損w
73 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 10:40:02.23 ID:eMM39ka1.net] びっくりするよな、割り算てw 機械学習が解こうとする課題と、人工的で低レベル演算をあたかも同じカテゴリにあるかの如く認識してるとか
74 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 10:43:26.23 ID:SBcKkTsW.net] だって同じじゃん
75 名前:デフォルトの名無しさん [2017/01/24(火) 10:54:16.64 ID:eNQkhgOl.net] (x1, y1, 1), (x2, y2, 1), …, (xi, yi, 1), …, (xn, yn, 1) (u1, v1, -1), (u2, v2, -1), …, (ui, vi, -1), …, (um, vm, 1) というデータが与えられているとする。 未来に与えられるデータ (a1, b1, l1), (a2, b2, l2), …, (ai, bi, li), … の li が 1 なのか -1 なのか予測したい。 この問題を機械学習で解決するのに、なぜ、α, β, γを適当に決めて、 α*ai + β*bi + γ > 0 ならば li = 1 α*ai + β*bi + γ < 0 ならば li = -1 と予測するというような方法をとることがあるのでしょうか? xi, yi, ui, vi の分布が正規分布だと仮定して、 (x = ai のときの確率密度関数の値) * (y = bi のときの確率密度関数の値) と (u = ai のときの確率密度関数の値) * (v = bi のときの確率密度関数の値) の大小を比較して、大きいほうのグループに属すると判定するというような 方法を誰でも最初に思いつくのではないかと思うのですが。
76 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 11:49:24.19 ID:tlnOjDnm.net] >>73 分類が出来るから。 というか、変数全部正規分布する仮定置くのよキツいし、その方法でやる意味が分からん
77 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 11:50:12.83 ID:ghuVG84o.net] どうしてそんなにつまらない例題ばかりを持ち出すんだろう
78 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 12:07:38.48 ID:Z0M3CIeb.net] 宿題か何かだろw
79 名前:デフォルトの名無しさん [2017/01/24(火) 12:08:30.53 ID:eNQkhgOl.net] なぜ直線で平面を分割するのですか? 不自然だと思います。
80 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 12:16:11.99 ID:tlnOjDnm.net] >>77 カーネル関数使えば非線形分離出来るから
81 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 12:16:30.16 ID:v/e9hwv7.net] 二つの正規分布の分散が同じなら境界は直線になる。たしかに不自然な仮定だな
82 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 12:26:28.32 ID:sXvuiz35.net] >>78 なんでいきなりカーネル使うことが前提になるww 以前からある手法で>>73 みたいなことすんのは何故と聞いてるのに
83 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 12:46:42.71 ID:2vJhPAHl.net] >>73 その比較する値が等しいときの点をつないだ線は直線になるんじゃね?
84 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 12:50:04.79 ID:2vJhPAHl.net] x y u vの平均とか分散も判らないからサンプルから推定するしかないが本当の母平均や母分散とは誤差があるだろう
85 名前:デフォルトの名無しさん [2017/01/24(火) 12:55:23.85 ID:HkcW5uJV.net] 関連性がよくわからん(紹介主も関連性をわかってない?) ややこしい論文見るより ttp://nnadl-ja.github.io/nnadl_site_ja/chap1.html ここみたらパーセプトロンが計算論的万能性があるのは分るでしょ。 あとは既存の論理計算と見比べてパーセプトロンを再構成したらいい
86 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 13:07:38.77 ID:WftsLTyk.net] >>73 それ重回帰分析でしょ 機械学習じゃないよ
87 名前:デフォルトの名無しさん [2017/01/24(火) 13:14:21.47 ID:ZplzBBh2.net] パーセプトロンの学習層をどんどん多重にしていったら、どうなるかな?
88 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 13:28:21.55 ID:uQjLcZ8g.net] 線形カーネルだと何層重ねても単層と変わらないよ と言いつつ線形関数の折り曲げ版であるReluがなぜ問題ないのかわからない
89 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 13:33:22.44 ID:ghuVG84o.net] >>86 wwwwww
90 名前:デフォルトの名無しさん [2017/01/24(火) 13:37:30.44 ID:ZplzBBh2.net] カオス理論がやはり有効かな?
91 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 13:51:36.32 ID:Z0M3CIeb.net] >>86 どんまい ( ^∀^)
92 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 15:30:20.60 ID:sXvuiz35.net] >>73 予測可能かどうかは保証ないが評価関数を最小にする係数は存在するからそれはあり。 後半の確率密度関数なんちゃら〜は絶対にしない。各事象が独立とは言えないからね。
93 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 15:59:12.55 ID:euarAUCe.net] >>86 ReLUは出力0になる入力範囲があるから出力合成でどんな領域も近似できる。 活性化関数ReLUについてとReLU一族【追記あり】 qiita.com/mommonta3/items/bf7be0ae3bf4aa3905ef
94 名前:デフォルトの名無しさん [2017/01/24(火) 18:13:08.22 ID:E+wgNc2t.net] 【数学・統計モメン集まれ】 将棋・竜王戦。三浦九段出場見送りの判断は妥当との論説。 これがベイズの定理だ! [193727557] hitomi.2ch.net/test/read.cgi/poverty/1485248767/
95 名前:デフォルトの名無しさん [2017/01/24(火) 18:34:09.28 ID:eNQkhgOl.net] ADALINEでヘッセ行列を計算して最小値となる重みを求めないのはなぜですか?
96 名前:デフォルトの名無しさん [2017/01/24(火) 18:51:10.93 ID:eNQkhgOl.net] 勾配降下法などという手法を使っています。
97 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:11:06.25 ID:2vJhPAHl.net] >>93 自分でやればいいんじゃね? なんでやらないの
98 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:43:44.98 ID:FO2eZwrN.net] >>92 疑惑自体がなく完全な冤罪と結論が出て、三浦九段の名誉回復が懸念されている問題たぞ。 何がベイズの定理だ、良識はないのかな?
99 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:53:27.88 ID:nzhz+kYn.net] このスレは数学できないやつらのたまり場だからベイズの定理とか言っても無駄
100 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:54:56.96 ID:Z0M3CIeb.net] 社会に出たこともない人が常駐してそうだからな、常識はずれなのもいるだろ
101 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:55:08.50 ID:3CEKPf6Y.net] ベイズの定理が数学(剥笑)
102 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:55:47.21 ID:FtPVVoGA.net] またいつかのアホガールか
103 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:57:03.42 ID:Z0M3CIeb.net] >>97 そういうギャグはいいから。名誉毀損事案をスレに持ち込むべきじゃない
104 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 19:57:13.43 ID:nzhz+kYn.net] >>99 このスレの連中にとってベイズの定理は高等数学だよw
105 名前:デフォルトの名無しさん [2017/01/24(火) 20:09:22.15 ID:eNQkhgOl.net] ベイズの定理ってなんで定理の名前がつくのか不思議なくらい自明な つまらない命題ですよね。
106 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 20:19:02.70 ID:FtPVVoGA.net] 豚に真珠、という言葉を捧げよう
107 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 20:36:44.08 ID:oXSH9k1/.net] ゼロから作るDeepLearning あたらしい人工知能の教科書 この2冊がこのスレの必読書だな
108 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 20:49:19.13 ID:FtPVVoGA.net] ディープラーニングならそれでいいけど スレタイに従えばPRMLも、MurphyのMachine Learningも、DudaとHeartのパターン識別も入れたい
109 名前:デフォルトの名無しさん [2017/01/24(火) 20:52:00.60 ID:VuvAsGVQ.net] おもしろそうなサイトを見つけた。どうよ? 素人でもディープラーニングができる「NVIDIA DIGITS」で文字認識をやってみた www.itmedia.co.jp/pcuser/articles/1701/24/news033.html
110 名前:デフォルトの名無しさん [2017/01/24(火) 20:52:05.26 ID:eNQkhgOl.net] Murphyっていう人、実名でアマゾンにレビュー書いていますよね。 セジウィックのAlgorithmsがいままででベストのアルゴリズムの教科書だとか書いていました。
111 名前:デフォルトの名無しさん [2017/01/24(火) 21:24:36.52 ID:VuvAsGVQ.net] 肝心の登録方法が書いてないからわからん。
112 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 21:38:34.92 ID:gFS3er1f.net] >>102 おまえはアホ
113 名前:デフォルトの名無しさん [2017/01/24(火) 21:51:03.15 ID:3uHc3Gak.net] PRML未だに積んでるなあ…
114 名前:デフォルトの名無しさん [2017/01/24(火) 22:09:03.75 ID:eNQkhgOl.net] >>111 時代遅れになって近いうちに捨てられますよ。
115 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 22:18:08.75 ID:jKsC+Om3.net] めぐるめぐる地球はめぐる俺様の周りで
116 名前:デフォルトの名無しさん [2017/01/24(火) 22:48:46.54 ID:eNQkhgOl.net] Raschkaっていう人なんか怪しい人ですね。 本当に「達人データサイエンティスト」なんですか? 特徴量のスケーリングを以下の式で行うとき、 x_i' := (x_i - μ) / σ 「データに標準正規分布の特性を与える」などと書いています。
117 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 23:03:16.77 ID:jKsC+Om3.net] 松坂君とは教科書をdisることが生きがいの厨房
118 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 23:08:31.27 ID:jKsC+Om3.net] 粗探しに生きがいを見つけるとういう性格障害w
119 名前:デフォルトの名無しさん mailto:sage [2017/01/24(火) 23:14:47.47 ID:ZrQ22rvh.net] 機械学習の前に統計学勉強した方が良い連中ばかりだな
120 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 02:05:18.37 ID:WZmJgpHk.net] さてそろそろ為替市場で実験してみるかな
121 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 02:08:16.48 ID:CHhH83TC.net] 単純に価格に辟易してるだけだろ 「これが最後の来日!」とか散々煽っといて隔年ごとに来ればそりゃ飽きられるし、いつも大して変わらないセトリじゃ客も馬鹿じゃないんだからうんざりする。
122 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 02:08:52.01 ID:CHhH83TC.net] すまん誤爆ったw
123 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 02:48:48.14 ID:DU5NE4Ls.net] >>103 本当にそう思っているのならお前には才能のかけらもない
124 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 03:48:53.58 ID:tHr5vHqh.net] ベイズの定理は自明でつまらない(キリッ
125 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 05:27:01.57 ID:xcuQ/RNW.net] コミュ力を学習させた方がいい奴ばかり
126 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 07:08:39.92 ID:i1ntNm6T.net] 117=123
127 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 10:54:09.57 ID:SLV8VPLP.net] >>107 人生ダッシュボードに見えた
128 名前:デフォルトの名無しさん [2017/01/25(水) 12:30:20.88 ID:Gmiw7uUp.net] Raschkaっていう人なんなんですか? ↓の下線を引いた辺りが意味不明なんですが。 imgur.com/5HLKpNc.jpg 何が言いたいんですか? 突然、確率がどうのこうの言い出して。
129 名前:デフォルトの名無しさん [2017/01/25(水) 12:31:34.70 ID:Gmiw7uUp.net] 別に学者でもなんでもないそこらへんの大学院生が たまたま本を書く機会が与えられたっていうだけなん でしょうね。
130 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 12:52:43.93 ID:ncsczmSY.net] >>127 なんで自演してるの? ロジスティック回帰だから確率を考えてるんじゃね?
131 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 13:10:13.99 ID:+ZDCoX8u.net] 松坂君はスルーよろ
132 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 14:54:21.83 ID:BgFJKaLD.net] >>112 ニューラルネットのせいでベイズがなかったことになりそう。大量データあるしベイズ使うメリットあるのかね?
133 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 16:35:34.65 ID:pJ4wONqS.net] 統計的機械学習はオワコン
134 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 16:51:07.07 ID:BBvLOI2L.net] んなあこたない
135 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 17:30:54.68 ID:N8rjFDkA.net] 機械学習で解きたいタスクに生成モデルで立ち向かっていたのは自然現象の複雑なモデル化が困難だったからでしょ ニューラルネットみたいな識別モデルで解けるんなら持ち込まない選択肢もあるかと
136 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 20:50:22.97 ID:o52BqWk7.net] >>126 左辺を右辺で近似しようって言ってる
137 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 21:18:40.96 ID:ovqDkz36.net] >>126 logit関数は0-1の値を実数に変換する これを使って特徴量の線形結合と、その特徴量の時にクラス1になる確率を結びつけることができる
138 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 23:11:04.67 ID:TtqfhPHr.net] 荒らしでも相手したーいw
139 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 23:46:59.78 ID:bbvOdbzr.net] 最近の機械学習って全部ニューラルネットワークで出来てる? RNNもDeepQNetworkもCNNも全部そうじゃない? この分野どれもやってること同じじゃん
140 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 23:47:38.00 ID:lP73vfRB.net] できてねえよ
141 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 23:48:57.26 ID:nJO+CT7A.net] コホーネン。出来てる出来てる。
142 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 23:52:31.62 ID:TtqfhPHr.net] 連想記憶を思い出してあげてください
143 名前:デフォルトの名無しさん mailto:sage [2017/01/25(水) 23:55:16.54 ID:cwiVnd3U.net] 最近といっているが
144 名前:デフォルトの名無しさん mailto:sage [2017/01/26(木) 00:36:39.54 ID:6c1mJ3TJ.net] お前が何をもって機械学習と呼んでるのかは知らんが 画像や音のような特定分野を除けば今も昔も大半は重回帰分析やコサイン類似度やkNNのような原始的な方法が一般的だろ
145 名前:デフォルトの名無しさん mailto:sage [2017/01/26(木) 01:39:50.98 ID:ork6Sebg.net] DQNの損失関数の一部に出てくるmaxQ(S',A')みたいな部分の計算ってどうやんの? そもそもmaxQ(S,A)が求まるんならそもそもなんの苦労もしないような気もするし、きっとインチキするんだろうけどどうやんだ!?
146 名前:デフォルトの名無しさん mailto:sage [2017/01/26(木) 01:54:01.83 ID:QpF8cABc.net] wikipediaのQ学習のページ読めばわかる。適当な初期値からスタートして更新しまくれば正しい値に収束する
147 名前:デフォルトの名無しさん mailto:sage [2017/01/26(木) 07:21:12.81 ID:PobJ+xli.net] Google翻訳のアプリはすご