2019年6月7日金曜日

人工知能を恐れるべき本当の理由




2017年11月に行われた、ロボット研究者でブラウン大学のHumanity Centered Robotics Initiativeでアソシエイト・ディレクターを務めるピーター・ハース氏による講演。


TEDx Talks
Dec 15, 2017
Peter Haas

機械は進歩しています!この中に殺人ロボットを恐れている人はいますか?私がそうです!

私はUAV、つまり無人航空機の開発に関わっていたことがあります。それを見ていて、いつの日か誰かがこれにマシンガンを搭載する可能性ばかり考えていました。そしてそれが集団で私に襲いかかってくるわけです。

私はブラウン大学のロボット工学分野で働いていますが、ロボットを恐れています。実際、怯えていると言ってもいいくらいなのですが、私が悪いのでしょうか?子供の頃から私が見てきた映画はみんな異常に発達した人工知能があって、それと人類との衝突が避けられないというものです。「2001年宇宙の旅」「ターミネーター」「マトリックス」、こうした映画のストーリーは恐ろしいものです。孤立した人類の一群が超知能を持つ機械から逃れようとしている。恐ろしいです。

先程手を挙げた方もいらっしゃるので、私と同様に恐れている人もいるようです。イーロン・マスクも恐れています。ですが、ロボットが台頭してくるまでにはまだもう少し時間があるでしょう。

私の職場にあるPR2のようなロボットはまだドアを開けることもできません。ですから、私の気持ちの上ではこうした超知能を持ったロボットに関する話は、遥かに厄介な問題からのちょっとした気晴らしに過ぎません。それは国中のAIシステムで起こっている問題です。

現在では医者、裁判官、会計士などを含め、多くの人たちがAIシステムから情報を得ていて、それを信頼できる同僚から得たものであるかのように扱っています。この信頼感が私の悩みのタネになっているのですが、それはAIが頻繁に間違い犯すからというわけではありません。AIの研究者たちは結果の正確性には自信を持っています。

間違いが置きた場合にどれほど酷いことになるかを私は心配しています。こうしたシステムは単純な失敗はしないのです。

さてそれでは、こちらを見て下さい。これは犬の写真ですが、AIアルゴリズムはこれをオオカミだと誤解しました。研究者たちは知りたいと考えます、何故特定のハスキー犬の写真だけオオカミと間違えたのか?そこで彼らはアルゴリズムを書き直して、AIのアルゴリズムがその決定を下した時に注目していた部分を明らかにさせます。

AIはハスキー犬の写真の何に注目していたと思いますか?あなたなら何に注目するでしょう?おそらくは、目、耳、突き出た鼻ではないでしょうか。そしてこれがAIが注目していたものです。それは主に写真の背景にある雪でした。

おわかりのように、アルゴリズムに入力されたデータセットに偏りがあったのです。入力に使われたオオカミの写真の殆どは雪の中にいるものでした。なので、AIアルゴリズムは雪のあるなしをオオカミであるかどうかと混同してしまったのです。

恐ろしいのは、研究者の誰もがアルゴリズムを書き直して説明を見るまで何が起こっているか全くわからなかったことです。そしてこれがAIアルゴリズムでありディープラーニング、マシンラーニングなのです。そこに関わる開発者にも何が行われているのか全くわからないのです。

このことは研究の上ではわかりやすい例でしたが、実際の世界ではどういう意味を持つでしょう?COMPAS(Correctional Offender Management Profitting for Alternative Sanctions)という刑事司法判断のアルゴリズムが13の州で使われています。これは犯罪の常習性や釈放後に再び罪を犯してしまう危険性を判断するものです。

独立系報道機関プロパブリカが、COMPASはアフリカ系アメリカ人をコーカソイドよりも77%高い確率で潜在的な暴力犯罪者とみなすことを発見しました。これは実際の世界で実際の裁判官が実際の市民の生活を判断をするために使われている実際のシステムの話です。こうした偏りが存在するように見えるものをなぜ裁判官は信頼しているのでしょう?

COMPASが使われる理由は、効率の上で理想的だからです。COMPASはなかなか進まない刑事司法システムの事件処理を迅速に行うことを可能にします。彼らは自分たちのソフトウェアに疑問を持つことがあるでしょうか?これは州政府によって導入が要求され、州のIT局に承認されたものです。

それに疑問を持つ理由があるでしょうか?とりあえず、その判決を受けた側の人はCOMPASに疑問を持っています。そして彼らの裁判は私たち全員を震撼させるものです。

ウィスコンシン州最高裁判所はCOMPASは「適正に」利用されている限り、被告に対する正当な扱いを侵害することはないという判決を下しました。同じ判決で、被告はCOMPASのソースコードを閲覧できないとされました。適切に使われなければいけないが、ソースコードは閲覧できないというのです。

これは刑事裁判に直面する人にとっては厄介な組み合わせの判決です。刑事裁判に関係していない人は気にならないかもしれませんが、このようにブラックボックス化したAIアルゴリズムが様々な判断に使用されていると言ったらどうでしょうか。あなたが家を買うためにローンを組むことでできるかどうか、あなたが就職の面接を受けられるかどうか、あなたが医療費補償を受けられるかどうか、そして高速道路で車やトラックを動かしていることさえあります。

自動運転トラックのAIは犬とオオカミを判別するのと同じように、ショッピングカートとベビーカーを判別しています。そのアルゴリズムを一般の人が調べられるようにしたいとは思いませんか?

何らかのAIによって、自分がオオカミと間違えられた犬の立場になる可能性はあるでしょうか?人間の複雑さを考慮すればそれはあり得ることです。ではそれについて今何かできることがあるでしょうか?おそらく何もありません、ただ注意を向けておく必要があるものです。

私たちはAIシステムについての説明責任、透明性、信頼性に基準の設定を求める必要があります。国際標準化機構ISOは、AIの規格についてどうするか決めるために委員会を設置したところです。規格が議題に挙がってから約5年も経ってのことです。

こうしたシステムが利用されているのはローンに関するものだけではありません、先程言ったように車にも使われています。協調型車間制御装置(Cooperative Adaptive Cruise Contorol)に使われています。これが「クルーズコントロール」と呼ばれているのは面白いことです。このクルーズコントロールに使われているPIDコントローラーは車に導入される前は30年に渡って化学工場で使われていたものなのです。

自動運転車や機械学習に使われているタイプのコントローラーは2007年から研究においてのみ使われています。これらは新しいテクノロジーなのです。規格化を求める必要があり、規則を求める必要があります。市場に誤ったものが入り込まないようにするためです。

そして私たちは多少懐疑的でいなければなりません。第二次世界大戦後に行われたスタンレー・ミルグラムによる「権威への服従実験」では、平均的な市民は権威者の命令に従うことが示されています。それが仲間の市民に害を及ぼす場合であってもです。

このミルグラムの実験では、被験者となった一般のアメリカ人は用意された俳優に電気ショックを与え続けました。彼が耐え難い痛みに不平を言っても、更に強い痛みに叫び声をあげても、更に強い痛みで死んだふりをして黙り込んだとしてもです。それは、実際には資格持っているわけではない白衣を着た人物が「実験は続けられなければならない」と言う内容の言葉のバリエーションを言い続けていたからです。

AIについて考えると、私たちはミルグラムが実験で示した究極の権威者を持っていることになります。全く感情に左右されず、影響を受けることもなく、別な結論を出すことはあり得ず、何にも頼らない、そして、システムは常に「このプロセスは続けられなければならない」と言い続けるのです。

ちょっとした私の経験を話させて下さい。車での旅行の話です。私は大陸を横切って運転していました。ソルトレイクシティに入ったところで雨が降ってきました。山に登るに連れて、雨は雪に変わっていき、そして間もなく真っ白で何も見えなくなりました。

前の車のテールランプも見えません。車は横滑りし始めました。こっちの道で一回転、あっちの道で一回転という具合になり、私は高速道路から離れました。窓は泥だらけで何も見えません。私は他の車がぶつかってくるのを恐れていました。

今私がこの話をしたのは、少しの雨のように小さな平凡なものでも、非常に危険なものに簡単に成長する可能性があるということを考えてもらうためです。私たちは今AIの雨の中で車を運転しているのです、そしてその雨は雪に変わり、吹雪になる可能性もあります。

私たちは一旦停止して、状況を確認して、安全基準を整理して、自分自身がどれだけ遠くまで行きたいのか問い直す必要があります。なぜなら、人間の労働者がAIとオートメーションに置き換えられることの経済的なインセンティブは、産業革命以来私たちが見てきたすべてのものを超越したものになるはずだからです。

人間が求める給料は電気の基本コストと勝負にはなりません。AIとロボットはファーストフード店で揚げ物を担当するようになり、病院では放射線科医になるでしょう。AIがガンを診断し、ロボットがその手術を担当するようになります。こうしたシステムに対する健全な懐疑論だけが人間を社会の輪の中に留めることに役立つのです。

私は自信を持っています。私たちが人々を社会の輪の中にとどめておくことができれば、そして、犬とオオカミの例であげたように、AIが何を行っているのかを人間に対して説明して、それを後から人間が確認することができるような透明性が確保されたAIシステムを作り上げることができれば、私たちはAIをパートナーとして新しい仕事を生み出すことができるのです。AIと私たちが協力すれば、きっと、大きな課題をいくつも解決することができるでしょう。

ですがそのためには、私たちは付いて行くのではなく先導していかなければなりません。私たちはできるだけロボットとは違う選択をする必要があります。そして、出来る限り人間に近いロボットを構築する必要があります。結局のところ、私たちが恐れなければいけない唯一のものは殺人ロボットではありません、私たち自身の知性が怠惰になることを恐れる必要があるのです。

私たちが恐れる必要があるのは私たち自身だけなのです。

ありがとうございました。

0 件のコメント:

コメントを投稿