When people get involved with effective altruism one thing that tends to take them by surprise is the interest in risks from artificial intelligence. I think those risks are really important, and I have a try here at explaining why: https://t.co/f8ltH5rb16— Kelsey Piper (@KelseyTuoc) December 21, 2018
AIを恐れる人がいる理由
(5)〜(9)
Vox
Kelsey Piper
Dec 21, 2018
人類の脅威としてのAI #1
人類の脅威としてのAI #2
5)コンピューターが強力になり過ぎたというなら電源を落とせば良いのでは?
賢いAIは、私たちが不安に陥った時に電源を落としたくなることを予想している。私たちを不安に陥らせることは目標達成に反することになるため、AIは私たちを不安にさせないように努力をすることになる。AIは、動作の意図が何であるか、何をしているのかを私たちに尋ねられた場合、どう返答したら遮断される可能性が最も低いのかを評価して返答しようとする。そうした返答をするのに十分な能力がない場合には、利用者により多くの時間、計算処理のリソース、訓練のためのデータを与えさせるために実際よりも愚かに見えるような態度を示す可能性もある。
それ故、私たちはコンピューターを停止するための適切な瞬間を知ることができなくなるかもしれない。
また、私たちはコンピューターを停止することが良い考えであると認識している場合でも、それをすぐに実行できるとは限らない。例えば、多くのAIシステムがインターネットに接続されていて、そこには学習のための豊富なデータが存在しており、そのことが利用者の収入のために必要な場合が考えられる(例としては現在でも既に半分以上の取引が反応の速いAIアルゴリズムによって行われている株式市場取引が挙げられる)。
そしてインターネットに接続されていれば、AIはメールを使ってその送り先か、あるいは脆弱性のあるシステムをハッキングして場所を作ることで自分自身をどこかしらにコピーすることができる。つまり1台のコンピューターをシャットダウンしたところであまり意味はない。
この意味で、危険と考えられるほど強力なものでなかったとしても何かしらのAIシステムをインターネットに接続しておくのは良くない考えであるように思える。おそらくそうだろう。しかし、だからといってそれを止めることにはならないのである。
ここまでは主にAIの技術的な課題について述べてきたが政治についても見ていく必要がある。AIシステムは驚くべきことを可能にするので、この技術に魅力を感じている人は多い。
こうしたAIに関心を持つ組織には、スタートアップ企業やGoogleのような既に確立されたテクノロジー企業(Googleの親会社AlphabetがAIの最先端であるスタートアップ企業DeepMindを買収したことは記憶に新しい)、そして非営利団体(イーロン・マスクが設立したOpenAIはここに含まれる)が存在する。
そして各国の政府も関心を持っている。ロシアのウラジミール・プーチン大統領はAIに対する興味を表しているし、中国もこの分野に大きな投資をしている。こうした人々及び団体は基本的には慎重であり、AIをインターネットに接続せず隔離することも含めた安全策を講じるはずだ。だが、私たちがこのシナリオで気にかけなければならないのは、それが誰であれ最も慎重ではない人についてだ。
このことがAIについての難題である。私たちがAIのリスクに対応するための適切な予防策を知っていたとしても(現在はわかっていないが)、AIの開発をしようとする人々が確実にその予防策を講じるようにする方法を編み出す必要がある。
6)AIによる惨事を避けるために私たちが今していることは何か?
この分野の現状を観察した今年発表されたある論文では「汎用人工知能(artificial general intelligence:AGI)に関する公的な指針は存在していないと言うことが出来る」と結論付けられている。
AIの開発について技術的には有望な作業が行われいるが、その指針の策定や国際協力、官民パートナーシップ等の動きは驚くほど少ないというのが実情だ。実際こうした動きはほんのひと握りの組織によって行われていて、技術的なAIの安全性のためにフルタイムで働いている人は世界でもおそらく50人程度である。
ボストロムの「人類の未来研究所」ではAIの管理についての研究を公開している。これは「先進的なAIの有益な開発と利用を最大限保証するための世界的な規範、指針、制度の考案」の研究とされている。この文書は中国のAI戦略と、人工知能と国際安全保障というテーマでAIの悪意のある利用の危険性についての調査結果が記されている。
技術的なAIの安全性に取り組んでいる最も古い組織は機械知能研究所(MIRI)で、信頼性の高いAIエージェント、私たちが安全であると確信できる人工知能プログラムの設計を志向している。(MIRIは非営利団体であり寄付を受け付けている)
イーロン・マスクか設立したOpenAIは新しい組織で、まだできて3年経っていない。しかし、AIの安全性とAIの技術的可能性の研究の両方に積極的に貢献している。2016年に公開した研究指針では「機械学習システムにおける事故防止に関連した未解決の具体的な問題」について記し、安全なAIシステムへの先進的な取り組みを続けている。
この分野の最先端であるAlphabetのDeepMindは安全性を担当する部署があり、技術的な研究指針を公開している。「私たちの意図するところは、未来のAIシステムを単に『うまくいけば安全』ということではなく、堅牢で検証可能な安全性を持ったものに確実にすることです」と結論づけ、仕様(適切な目的を持った設計)、堅牢性(不安定な条件下でも安全性を確保して動作するシステムの設計)、確実性(システムの監視とシステムが何をしているのか理解すること)を重視した方針を説明している。
最近ではAIの倫理問題に取り組む人も増えている。例を挙げれば、アルゴリズムの偏り、小さな改変に対する機械学習アルゴリズムの堅牢性、また、ニューラルネットワークの透明性の確保と説明可能であること等である。こうした研究は将来の破壊的なシナリオの予防に役立つ可能性がある。
しかし、この分野全体の状況としては、気候変動の研究者が現在既に直面している干ばつや山火事、飢饉への対応に注力しているようなものだ。将来を予測することに従事している人の数は極めて少なく、物事を好転させる計画を作るためにフルタイムで取り組んでいる人は50人程に過ぎない。
大きなAI部門を持つすべての組織が安全性を担当する部署を持っているわけではなく、その安全性の担当者も進化したシステムの危険性ではなく、アルゴリズムの公平性にのみ注力している場合もある。また、アメリカ政府にもAI部門は存在しない。
この分野には今だに多くの未解決な問題点が残されている。そうした問題点の多くはAIを恐ろしいものに見せる可能性のあるもので、誰も深く掘り下げていない。
7)AIは例えば気候変動よりも私たちを破滅に導く可能性が高いものか?
21世紀はあらゆる角度から危険が迫っているように見えることがある。気候変動も未来のAIの発達も私たちの世界を変化させる力になる可能性が高い。
良くも悪くも気候変動に関する予測の方が確信されている。私たちは地球が直面しそうな気候変動による危険についてより理解しているし、人類の文明が被る被害について想定することが出来ている。それは甚大なものになると考えられていて、何億もの人々の生命に関わる可能性がある。最も困難に直面するのは発展途上国の低所得者層で、裕福な人々の方が適応する方法を見つけるのが容易である。そして、私たちは気候変動に対応するための法整備が必要であることも理解している。この理解はAIに関するよりもずっと進んでいる。
この件に於いてはAIが飛躍的な進歩を続けているため意見に大きな隔たりがある。AIの安全性についての専門家たちの間では問題の大部分で意見が一致しているが、AIの研究者チームとは食い違いがある。事態がどれだけ悪化するのか、そして、悪化する可能性がどれほどあるのか、こうしたことについて大きな意見の違いがある。AIの将来を予測することにフルタイムで取り組む人は僅かしかいない。現在研究者たちはこうしたAIに関する安全性への取り組みに不一致が起こる理由を突き止めようとしている。
リスク分析によると気候変動は壊滅的ではあるが人類の絶滅に繋がる可能性は低いとされているため、AI分野の専門家の殆どは気候変動よりもAIの方が人類を全滅させる危険性は高いと考えている。しかし、多くの人たちはこの件についてまだ不確実であることを強調している。急速に進歩する強力な技術について未解決の問題が数多く存在する場合、賢い選択は今すぐそれについて研究を始めることである。
8)AIが善良なものになる可能性はあるか?
AIの安全性についての専門家たちは、AIシステムがデフォルトで善良なものになると仮定するべきではないことを強調する。AIにはトレーニング環境が設定する目標があり、その中で人間の価値全体を顧みることがないのは疑いない。
では、AIが更に賢くなった場合に道徳を自ら理解するという可能性はあるだろうか?専門家たちはこれについても否定する。これは「理解」の問題ではない。その意味でAIは、人間はニューヨーク証券取引所の数字だけでなく、愛と充実と幸福に価値を置いているということを十分理解するようになるはずである。だが、AIの価値観は最初に構築された時の目標システムによって形作られる。つまり、そのように設計されていない限り、突然人間と価値観が一致するようなことにはならない。
もちろん人間の価値観に合っているか、少なくとも安全に機能するようなAIシステムを作ることはできる。これこそが究極的にあらゆる組織の汎用人工知能部門が目指しているものだ。AIで成功することは人類にとって数十年、数世紀分のイノベーションを一度に経験することに繋がる。
「私たちはAIで成功することは歴史上最も重要で広範な利益をもたらす科学の進歩になることを信じています」とDeepMindの紹介文には書かれている。「気候変動から医療福祉の抜本的な改善に至るまで、こうした問題の複雑さは解決策を探る私たちの能力を超えたもので、その進歩の遅さによって問題が残されたままになっています。人間の創意を倍加するものとしてAIを使うことでこうした問題の解決策にたどり着けるはずです」
AIは私たちと価値観を共有することができるし、世界を良い方向に変えることもできる。ただ、その前に極めて困難な技術的問題を解決する必要があるということだ。
9)私たちはどの程度心配する必要があるのか?
AIの進化に対する懸念が時期尚早で大袈裟なものだと考えている人にとっては、AIの安全性についてはややフィクションのように聞こえ、他の問題よりも優先するものではない。このリスクが現実のものだと考えている人にとっては、この件にあまりリソースが割かれていないことは許しがたいものになっている。
機械学習の研究者たちが誇大宣伝になることを警戒するのは当然としても、汎用性の高い技術を用いて驚くべきことを達成しているという事実から逃れることは難しい。
12月上旬の会議でDeepMindは生物学の長年の課題であったタンパク質の構造予測に道を開いた。「病気の治療に定量的に影響を与えることができるようになるにはまだ多くの努力が必要になりますが、環境を管理することやそれ以上のことが可能になる可能性が非常に大きいことがわかっています」と声明で述べている。
AIはそれが到着すれば世界が変わる技術のように見える。主要なAI組織の研究者たちの間では、ロケットの打ち上げに例えられている。それならば発射ボタンを押す前にロケットについて理解しておかなければならない。人類がAIを恐れる必要があるかどうかはともかく、それについて学ばなければならないのは間違いないことだろう。
0 件のコメント:
コメントを投稿