2019年1月21日月曜日

偏見のない司法のためにAIはどう使えるのか


偏見を持ちそうな裁判官を予測することで、彼らにより慎重に考える機会を与えることができるかもしれない


The Verge
Angela Chen
Jan 17, 2019

人工知能(AI)が法廷に持ち込まれることについて、AIのアルゴリズムには偏見が潜んでいる可能性が多く言及されている。トゥールーズ経済学院とトゥールーズ大学法学部の両方で研究を続けるダニエル・L・チェンは違う考えを持っている。人間の裁判官による偏見のある判断を正すためにAIを役立てるというのだ。

法学の学位と経済学の博士号を持つチェンはアメリカ司法と裁判官のデータを収集している。「私を特に悩ませているのは、私たちが発見した行動の偏りの全てを理解する方法についてです」と彼は言う。例えば、判断を下す時に決定的な影響を及ぼすような偏見についてだ。新しい論文で、チェンは大きなデータセットとAIを組み合わせたもので、裁判官の決断を予測してより公平な判決を出せるように役立てることができると提案している。

The Verge はチェンに裁判上の偏見に影響を与える要素について、そして、法律におけるAIの未来のあり方について話を聞いた。このインタビューはわかりやすくするために多少編集している。


裁判官の判断が当面の訴訟とは関係のない要因によって偏ることがあることは現在ではよく知られています。この分野についての研究の具体的な例をいくつか教えて頂けますか?

わかりました。発表されている発見の1つは「ギャンブラーの誤謬」と呼ばれるものです。仮に私が亡命希望者を審査する審査官で何人もの亡命を続けて認めている場合、私は寛容になり過ぎているのではないかと心配になります。そうなると私は自動的に調整を試みるわけです。次の亡命申請は却下することになります。これは、以前の事件で自分がどう判断したかという本質的でないことが現在の事件に誤った影響を与えています。また別なものとして控訴裁判所に於いて大統領選挙のサイクルで行動の変化を見ることができます。大統領選挙の時期には、裁判官たちはより反対することが多くなり、党派の方針に従った投票をするようになります。

私たちは機械学習を用いて亡命事件で裁判官の決定を予測するという早期予測可能性についての論文を発表しています。私たちは、裁判官の身元と亡命希望者の国籍に関する情報のみを利用して、裁判官がどのような判断をするのか開廷される前に非常に高い確率で予測することができることを明らかにしました。こうなると、なぜ裁判官の行動は審理に入る前からこうも予測が可能なのかという疑問が湧いてきます。1つの解釈としては、裁判官は判断を事件の事実よりも迅速な判断を重視して経験則(ヒューリスティクス)に頼っていると考えることができます。


わかりました。では、あなたの考えは、私たちがどの裁判官がおそらく迅速さを重視して「予測可能」になる傾向があるのか見分けることができれば、本人にその事実を知らせてより慎重に検討するように促すことができる、ということでしょうか?

その通りです。裁判官が法的な事実に依らずに迅速な決定をしようとしていることに気づいてもらうことができます。「この件についてもう数時間か数日か使うことはできませんか?過去の実績に基づくと、あなたはこの方面の判断ではやや偏る傾向があるようです」このような形で提案することができるのです。


初期の予測可能性の研究で、あなたは裁判官の身元と国籍という限られた情報だけを用いています。本質的でない事実に依った司法判断が予測される事例を検出するために、より幅広く他のデータセットを人工知能と組み合わせて使うことができることをあなたは述べています。これはどのように機能するのでしょうか?

私は裁判官の判断の経歴と判断に影響を与えた可能性がある文脈上本質的でない要因全てを網羅した大規模なデータセットを用意したいと考えています。そしてデータを分析すれば、関連性の有無にかかわらずどの要因が裁判官の判断に影響を与えた可能性があるかを確認できます。データセットが大きくなれば、特定の状況で裁判官が影響を受ける可能性が高いということを主張するのに役立ちます。


本質的でない要因としてどのようなものを考慮に入れるべきなのでしょうか?

経済心理学や政治学から学んだことがたくさんあります、雰囲気や天候など全てが関わります。例えば、ルイジアナのフットボールチームが負けることは裁判官の判決に影響すると主張する論文が存在します。また、気温が承認手続きの判断にどう影響するかを示したものや、裁判官は被告の誕生日には寛大になる傾向があることを示す論文もあります。こうしたデータを全て集めて組み合わせたいと考えているのです。それが出発点になります。


偏見がありそうに見えた場合はどうしたら良いのでしょう?1つはより慎重に検討するように提案することだと言われました。論文では実行可能な訓練プログラムについても言及していますか?

偏見に影響を受けているとを知らされることは、それを防ぐのに役立つはずです。裁判官が訓練を受ければ更に役立つでしょう。私は彼らに偏見があると嫌になるほど指摘するようなことを言っているのではありません、偏見は追跡が難しいこともあるでしょう。そうではなく、様々な現象を理解するための理論的枠組と私たちが影響を受ける全ての方法と理由を提示することを考えています。


現在、法律と判決にAIを利用することについてはいくつかの論争があります。それがどう変化するとお考えですか?

裁判所では自然言語処理とAIとビッグデータに関するツールをますます利用するようになっています。これは将来有望な研究分野で、私はこれがどう政策的に組み込まれていくのかに興味を持っています。

アルゴリズムによる意思決定を改善する方法には多くの関心が集まっています。また私は、司法判断を機械が予測してそれを役立てるという考えに人々が抵抗する理由と方法についても考えています。それは人々が自分を唯一無二だと考えたがるという事実に関係していると考えています。なので、人々はこのように他の誰かと比較されても自分の個性と価値を完全には認識できないと考えているのです。一方では裁判官が判決を下すのにビッグデータを利用するということに人々が慣れてくるかもしれません。他方では、私は個人なのだからデータのように扱わないで欲しいということもあるかもしれません。

もちろん、今回のこと全ては予測の確率がどの程度高いかといういつもの懸念による影響を受けます。出された予測は偏ったデータに基づいたものかもしれませんし、それが結果に与える影響を慎重に検討することが重要になります。それでも、これはバランスの取れた行為です。AIによる予測が偏ったデータに基づいていたとしても、偏見を持っている人間がしている決断よりは多少偏りのある予測の方が公平である可能性があります。

0 件のコメント:

コメントを投稿