[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 2ch.scのread.cgiへ]
Update time : 04/11 19:58 / Filesize : 518 KB / Number-of Response : 726
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました



241 名前:現代数学の系譜 雑談 古典ガロア理論も読む [2018/11/06(火) 10:08:43.52 ID:jaxOpV/R.net]
https://www.nikkei.com/article/DGXMZO37379270V01C18A1MM8000/
EU、AIに倫理指針 人種・性別の差別防ぐ
2018/11/6 2:00日本経済新聞 電子版
(抜粋)
欧州連合(EU)は、人工知能(AI)の倫理指針を策定する。有識者会議の原案が判明。企業にAIの判断過程をわかりやすく説明させるなどの内容で、2018年末までに欧州委員会が最終案を作る。AIは融資や人事採用での活用が広がるが、人種や性別などの偏ったデータをAIが読み込み、差別的な分析が増える懸念も出ていた。指針は他国の規制や企業の動きにも影響しそうだ。

指針の原案は、欧州議会が委託した有識者会議「AIフォー・ピープル」が近く公表する。原案は、(1)AIの判断過程をわかりやすく説明する責任を企業に課す(2)判断にどんなデータを使ったかなどの情報開示制度を整える(3)AIの仕組みや運用が倫理的かどうか監査する機関を設ける(4)倫理的なAIの認証制度を設ける――などの内容だ。

欧米では「AIが人種や性別などに偏った分析や判断を拡大させる危険がある」との指摘も出ている。AIは、まず人間が読み込ませた過去のデータから独自の判断基準などを学習。次第に自分でデータ収集を始め、分析結果を出す。もとのデータに差別的な偏りがあれば、それを助長しかねない弱点がある。

AIは内部のデータ分析の過程が複雑。どんな指標をもとに、なぜそう判断したのか外部にほとんど示されない「ブラックボックス化」の問題もある。判断過程が外からみえないと、差別的な分析が続くことが発覚しにくく、修正も難しい。EUの倫理指針は、透明化を進めることでこれらの問題に対応する。

AI利用の倫理に関するルール作りは、これまで米グーグルなど各企業が進めてきた。国レベルでの取り組みはEUが初とみられる。AIの判断の流れを示すソフトも開発されており、こうした技術革新も利用する。
(引用終わり)






[ 続きを読む ] / [ 携帯版 ]

全部読む 前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧](;´Д`)<518KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef