【人工知能】「AI裁判官」は全然公平ではなかった 人種差別やミス連発で人間以下 人工知能裁判のお粗末な実態 at SCIENCEPLUS
[2ch|▼Menu]
1:ニライカナイφ ★
18/01/29 22:11:57.72 CAP_USER.net
◆「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態
アメリカの一部の州では、裁判でコンピュータアルゴリズムが使われている。
刑務所へ行くか執行猶予がつくか、懲役は何年か、保釈をするかしないか、コンピュータが計算したリスクスコアが使われているのだ。
だが今月17日の「Science News」によると、その判定アルゴリズムが本当に公平なのかどうか、当のアメリカで大きな議論になっているという。
■COMPASとは
有罪の被告を刑務所に入れるか否か、保釈申請を認めるか否かなどを裁判で決めるとき、裁判官や陪審員たちは被告の家族や友人、財産の状況から過去の犯罪歴といった大量の資料に目を通して判決を出すことが求められる。
だが、アメリカのいくつかの州ではこの過程をコンピュータアルゴリズムに任せている。
アルゴリズムは入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などに加え、家族の犯罪歴などから再犯や犯罪発生のリスクスコアを判定し、保釈・判決・仮釈放などを決定するのだという。
アルゴリズムを開発したのは国家機関ではなく、民間企業だ。
例えばウィスコンシン州で使われる「COMPAS」はNorthpointe社(現在はequivant社)が開発したもので、どのように判定が行われているのかの詳細は不明だ。
このブラックボックスが本当に公平なのかは疑問が多く、白人より黒人のほうがリスクを高く判定されているという指摘もあった。
過去には裁判での使用は不適切であるとの訴訟も起きている。
そこで、米国ダートマス大学のコンピュータサイエンス研究者であるJulia Dressel氏とHany Farid氏は、COMPASと人間の予測のどちらが正しいか検証を行った。
COMPASで評価されたフロリダ州の被告人1000人を無作為に抽出し、年齢や性別、家族構成、逮捕後から2年間の逮捕情報などの情報をデータベース化した。
そして、クラウドソーシングサイトで集めたボランティア400人にそれぞれ被告50人分のデータを渡し、2年後までに再犯するかを予測させた。
■驚きの結果
結果、ボランティアの予測精度はCOMPAS(約65%)とほぼ同じ(63〜67%)であった。
また、人間もCOMPASと同様の人種差別的な誤った推測もしていることが明らかとなった。
予測の誤りを検討したところ、白人の被告では再犯しないと予測されたものの再犯したという間違いが多く、黒人の被告では再犯すると予測されたが実際には再犯していないという間違いが多かったのだ。
また、COMPASに対抗する単純なアルゴリズムを独自に作成し、COMPASと同じ程度の精度で再犯を予測することに成功した。
この結果をまとめた論文は今月17日付で学術誌「Science Advances」に掲載された。
COMPASは人間とほぼ同程度の予測精度を発揮したものの、機械判定に期待される公平さにはいささか欠けている。
判定における透明性にも疑問は多く、一部では基礎的なデータの更新がされていなかったなどの問題も発覚しており、COMPAS利用の難しさが示されている。
リスク判定のアルゴリズムは裁判のみならず、ローンの承認、教師の評価、そして児童虐待発生のリスク判定など幅広く使われつつある。
裁判や人事評価にアルゴリズムを使うことは、評価者の偏見や思い込みを排除して判定を行う大いなる助けになるだろう。
だが、使用しているアルゴリズムが最新のデータに基づくか、適切な判断を下しているかどうかは常に監視していなければならない。
AIを活用する社会はもうすぐ側まで来ているのかもしれないが、それを適切に使っていくにはやはり人間の介入が不可欠ということだろう。
TOCANA 2018/01/29
URLリンク(tocana.jp)


レスを読む
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

2275日前に更新/36 KB
担当:undef