“AI will bring many wonders. It may also destabilize everything from nuclear détente to human friendships,” argue Henry Kissinger, Eric Schmidt, and Daniel Huttenlcoher. “We need to think much harder about how to adapt.”https://t.co/weyEboDb9p— The Atlantic (@TheAtlantic) July 11, 2019
AI(人工知能)は多くの驚きを齎すことになる。もしかすると、核兵器の緊張関係から人間の友情まであらゆるものを不安定にするかもしれない。私たちはそれに対応する方法をもっとよく考える必要がある。
The Atlantic
HENRY A. KISSINGER, ERIC SCHMIDT, DANIEL HUTTENLOCHER
AUGUST 2019 ISSUE
人類は人工知能による革命の岐路に立たされている。この革命は歴史上最も重大で最も広範囲に影響を与えるものになる可能性があるが、これは包括的な計画性に基づいて起こることではなく、個別の具体的な問題を解決するための多様な努力から発展するものだ。皮肉なことに、こうした個別の問題解決への努力が、最終的には人類の論理思考と意思決定に影響を与えることになるかもしれない。
この革命を止めることはできない。この革命を止めようとすることは、自身の創造物の結果に直面する勇気という人間性の重要な要素を未来から捨て去ることになる。そうではなく、私たちはAIが更に洗練されて何処にでもあるものになることを受け入れた上で自問自答する必要がある。この進化は人間の認識、認知、交流にどのような影響を及ぼすだろう? 私たちの文化に、そして最終的に私たちの歴史にどんな影響を与えるのだろう?
この疑問の下に、この記事の筆者である、歴史家かつ政策立案者、大手テクノロジー企業の元最高経営責任者、技術系学術機関の主導者、この3人が集っている。私たちは3年に渡って会合して、この疑問とそれに関連する謎を理解しようとしている。私たちはそれぞれの専門分野の範囲内で、機械が問題をより良く解決するために自身を改良して自分で進化を導くような未来は、完全に分析することができないことを確信している。なので、出発点として、そして、より広範な議論のための土台として、人間の文明に対するAIの発展の重大性について詳細な問いを組み立てることに取り組んでいる。
AlphaZeroパラドックス
昨年の12月、チェス、将棋、囲碁に利用できるプログラムであるAlphaZeroの開発者たちが、AlphaZeroがチェスを習得するプロセスついて説明を行った。このプロセスはそれまで何世紀にも渡って人間が積み上げてきた定跡を無視したものであることが明らかになった。AlphaZeroはゲームのルールを教えられた後、完全に自分自身の内部で訓練を行い、24時間以内に世界で最も優れたチェスプレイヤーになった。つまり人間のチャンピオンよりも、それまで最も洗練されていたチェス用プログラムをも凌駕するようになった。それは人間とも既存のプログラムとも異なる戦法によって成し遂げられた。人間も人間が訓練した既存のプログラムも「単純に間違ってはいないが直感に反する」と感じて避けるような手法をAlphaZeroは構想し実行したのだった。AlphaZeroの開発者はこの離れ業を「異次元のチェス」と呼び、洗練されたAIは「人間の知識によって制限されない」ことが証明されたとしている。
現在ではチェスの専門家たちがAlphaZeroの動きを学び、その知識を自身のプレイに取り込もうとしている。こうした研究は現実的なものだが、同時に答えられない深遠な哲学的疑問を生じさせる。極めて短い学習時間に基づいてチェスへの新しいアプローチを発明したAlphaZeroの能力をどう説明したら良いのだろう? それが実際に探求したものは何だったのだろう? AIは身近な現実を想像を絶するほど拡大してしまうものなのだろうか?
他の分野でもAIによる同等の発見が期待できるはずだ。伝統的な知恵や標準的な慣習がひっくり返されてしまう場合もあるだろうし、単に微調整するだけの場合もあるだろうが、殆ど全ての人がその理解には苦しむことになる。無人の自動運転車が信号機で停止した場合の行動を考えて欲しい。人間が車を運転している場合、後方で車線変更の渋滞が起こるのを避けるためになるべく前に詰めようとするだろう。無人の自動運転車は、教えられた規則ではそうするべきだと示唆されていないにも関わらずそれに加わることがある。このことは、どのようにして何のために学んだのだろう? これは人間が信号機で待つことについて教えられ学ぶこととどう違うのだろう? AIが学んだことで私たちに「伝えて」いないことは何があるのだろう(AIは説明しない、できない)? 私たちは、生物ではないものの自己学習のプロセスを可能にさせることによって何が始まろうとしているのかまだわかっていない、だが、私たちはそれを見つける必要がある。
この革命の性質
これまで、デジタル技術の進歩というのは、人間がソフトウエアを開発して、生活に影響するデータを分析することに依存したものだった。最近の進歩はこのプロセス内の役割が再編成されている。AIは桁外れのタスクを自動化することができる。それは、機械自身がデータから結論を導いて行動を起こすという決定的な役割を果たすことが可能になることによってそれを実行してきた。AIは人間の論理思考をサポートすることしかできなかったこれまでのソフトウェアとは異なり、独自の経験から学習することができる。判断の主体が人間から機械へ移譲されることはAIの革命的な側面を表している。このことは昨年の記事にも書かれている(「How the Enlightenment Ends」2018年6月)。
とは言っても「知能(intelligence)」という言葉は起こっていることを十分に説明するものではなく、AIに人間的性質があると考えるのは順序を間違えている。AIは悪意のあるものでも親切なものではなく、独立して「意図」や「目標」を育むことはなく、自己反省することもない。AIができることは、データとアクションの間の関連性を発見する明確なタスクを実行して、人間には難しい解決不能の問題に解決策を提供することだ。このプロセスは新しい形の自動化を作り出していて、いずれ全く新しい考え方生み出すかもしれない。
だが、今日のAIシステムはおそらく本質的に、最終的な解決策まで到達する方法やその解決策が優れていると判断した理由を提示したり説明したりすることが難しい。AIシステムがしていることの意味を理解し、その解釈を発展させるのは人間の仕事になっている。ある意味でAIは、古代ギリシャで神の信託を受けるデルフォイの神殿に例えることができる。与えられた人類の運命についての謎めいたメッセージを人間が解釈するという意味で共通している。
AIが順調に改良されていけば(そうならない理由は何もない)、その変化は人間の生活を大きく変革する可能性がある。ここでは2つの例について考えてみたい。マクロ分野の例として世界と国家の安全保障について、ミクロ分野の例としてAIが人間の交流関係に果たす役割の可能性についてである。
AI、大戦略、安全保障
核兵器時代の戦略は抑止力の概念を中心に発展した。抑止力は当事者の合理性に基づいたもので、核兵器やその他の軍備により、お互いの報復が自己破壊を招く可能性によって慎重になり攻撃行動を抑止することで均衡が成り立って安定を確保できるというものである。監視システムを伴う軍備管理協定は、一部の問題ある国が引き起こす問題やシステムの誤作動などが壊滅的な反応を引き起こす可能性を回避するために発達したのだった。
AIが国家安全保障に於いて重要な役割を果たすようになる世界ではこうした戦略的な原則を適用することは殆ど不可能である。AIがシミュレーションや他の未知の方法で新しい武器、戦略、戦術を開発するようになれば、それを統制するのは不可能ではないにしても取り留めのないものになる。軍備情報の開示に基づいた軍備管理の前提は改まることになる。敵対する側がAIで開発された軍事的構成を知らないことは戦略的な優位点になり得るため、軍事的な能力についての透明性が必要条件になる外交交渉に影響を与える。サイバーワールドの不透明性(とスピード)が現在の政策立案モデルを圧倒する可能性がある。
軍備管理体制の発展で、私たちは大戦略を立てるには敵対する可能性がある国の能力と軍事的配備について理解する必要があることを学んでいる。しかし、更に多くの情報が不透明になった場合、政策立案者たちは敵対国の実力や意図をどのようにして理解すればよいだろう? そしてそれは同盟国についても言えるかもしれない。多様なインターネットが現れることになるのか、結局は1つのままなのか? 国家間の協力関係にはどう影響するのか? 対立関係にはどう影響するのか? AIが何処にでも使われるようになれば、安全保障に於いて新しい概念がいくつか登場する必然性がある。そのうちの1つは動作しているネットワークから切り離す機能であろう。
更に心配な問題が迫っている。能力が未知の兵器の存在は将来的に紛争の可能性を高めるのだろうか、低くするのだろうか? 未知のものに直面した場合、その恐れは先手を打つ傾向を増加させることにならないだろうか? 行動の動機となる対象が不透明なものであれば、それは絶対的な不安定を齎す可能性がある。こうした環境下で、抑止力を導く戦略のための規範を作り上げる方法はあるだろうか? 必ず来る新しい技術の時代に対応する戦略的概念を発展させる必要性は極めて大きくなっている。
人間との関係
Google HomeやAmazonのAlexaといったデジタルアシスタントは既に数百万の家々に普及している。これらのものは日常会話に対応するように設計されている。これらは子供たちの質問にも答えて、知的な、時には賢明と言ってもいいくらいのアドバイスを提供する。そして同時に、高齢者を孤独から守るための解決策となり、こうした機器と友人とのようにやり取りすることができる。
AIが更にデータを収集して分析が進めばAIは更に精度を増し、こうした機器は利用者の嗜好を学んで会話の返答もそれを考慮したものになる。これらが「スマート」になればなるほど、より親密な仲間としての存在になる。結果として、AIは双方向性ではないが感情を人間に感じさせるものになる可能性がある。
既に人々の最も重要な所有物にランクされるのはスマートフォンである。自分の全自動掃除機に名前をつけて、何も存在しないところからそれらの意図を読み取ろうとする人もいる。こうした機器がさらに洗練されたら何が起こるのだろうか? 人間はデジタルペットに対して、犬に対するのと同じか、もしかしたらそれ以上の愛情を抱くようになるのだろうか?
社会はそれぞれの文化に適合した形でこうした装置を取り入れていくことになるため、文化の違いが大きく影響する。例えば、日本では高齢化と神道(生物でないものも人間と違わない精神が宿ると考える)によって、「AIによる友達」は欧米よりも広く受け入れられる可能性がある。
この発達を考えると世界の多くの地域で、幼児期以降に話し相手になったり知識の源となったりするものは、両親、家族、友達、教師ではなく、デジタル機器の友達ということになり、常時利用可能な話し相手は学習効果への利益と、プライバシーへの課題との両方を齎すことになりそうだ。AIアルゴリズムは新しい知識の開拓に役立つのと同時に、情報の選択肢を狭めて新規のものや実現が困難なアイディアを抑制する力が働く。AIは多くの文化的慣習と言語の壁を取り除くことができる。同じ技術によって情報の抑制と拡散が起こるというこれまでにない経験になる。何億もの人々の行動や活動を政府が監視するという技術的可能性も同様に前例のないものだ。西側諸国でも調和の名のもとに坂道を転げ落ちることになる可能性がある。個人の自由の制限と異常な行動のリスクとのバランスが(もしくは「異常な行動」の定義自体すらも)、AI時代の重要な課題になるはずである。
そして未来
公に語られるAIの展望についてはSF映画の影響を受けたものも多々見られるが、現実の世界には多くの希望が持てる動向が存在する。AIは健康、安全性、長寿などに根本的に良い意味で貢献することになりそうだ。
それでも厄介な影響を与える余地が残っている。知識の探求作業を更にAIに委ねることになり、人間の探究心が低下する。精巧に不正確なニュースやビデオによる一般的な信頼性の低下。テロリズムに新しい可能性を開くことになる。AI操作による民主主義の弱体化。そして、自動化による人間の仕事の機会の減少。
AIが普遍的なものになった時、どう監視して統制すればよいのだろう? 人間がAIに教えを請う世界に突入した時、「認可された」学校の教科書に相当するAIというのは存在するだろうか?
この新しい技術を既存の文化に於ける価値と実践の中に吸収するというチャレンジはこれまでに例のないものだ。その中でも最も近いのは中世から現代への移行かもしれない。中世の人々は、宇宙は神の創造物であり、全ての現象を神の意志の現れだと解釈していた。キリスト教会の結束が崩れた時、どの統一概念がその代替になり得るかという問題が生じて最終的にその答えとして、今の私たちが「啓蒙時代」と呼ぶものが現れた。偉大な哲学者たちが、神の意志を理性や実験という現実的なアプローチに置き換えたのだった。他の解釈もそれに続き、歴史の哲学的解釈、現実の社会学的解釈といったものが生まれた。しかし、機械が人間を精神的な面でアシストするか、あるいは凌駕して、結果を予測してその結果を導くことができるという現象は人類の歴史に於いて特別なものである。啓蒙時代の哲学者イマニュエル・カントは、真実は観察された現実に対する人間の心の構造への影響に帰すると考えた。AIはデータを取得して分析する時に自分自身を改変するのだから、AIの真実はもっと偶然で曖昧なものである。
真実と現実の理解に課される避けられない進化に私たちはどう対応すべきなのだろう? 私たち3人は多くのアイディアを話し合った。デジタルアシスタントは哲学的な質問、特に現実の限界のような質問には答えないようにプログラムすること。X線の読み取りのような影響の大きい判断には必ず人間が関わるようにすること。「倫理とは何か?」「合理的か?」「それに害はないか?」というような、曖昧な人間の価値観を定義することをAIが学ぶことができる環境を開発すること。AIを「監査」し、それが人間の価値観を不正確に模倣している場合には修正すること。「生命倫理学」が確立されたことによって生物学と医学の責任あるあり方を考えることが容易になった方法論に従って、AIの合理的な管理運営について考えることを容易にするために新分野「AI倫理」を確立すること。重要なのはこうした努力全てについて、3つの時間軸で考える必要があるということだ。私たちが既に知っていること、近いうちに発見することが確実なこと、AIが広まった時に発見される可能性が高いこと、である。
私たち3人はAIについて楽観的である程度は異なっているが、AIが人間の知識、認識、そして現実に変化を与え、それによって人類の歴史の流れを変えることになるという認識では一致している。私たちは更に理解を深め、そして学問の分野の枠を超えて多くの人にも考えてもらうように喚起したいと考えている。
0 件のコメント:
コメントを投稿