2018年7月23日月曜日

イーロン・マスクやDeepMindの創業者らが致命的なAI兵器は開発しないと誓う


「この誓約はAIの先駆者たちが『話し合いから行動に移した』もの」


James Vincent
Jul 18, 2018

イーロン・マスクとGoogleのAI子会社であるディープマインドの3人の共同創業者を含む技術業界のリーダーたちが「致命的な自律兵器」は開発しないと約束する誓約書に署名した。

この動きはAI技術の蔓延に反対する世界中の研究者と業界幹部たちが作る非公式団体による最新のものだ。この制約文では、AIを利用して「人間が関わることなしに標的を【選択】して【攻撃】する」兵器システムは道徳的かつ現実的な脅威をもたらすと警告し、道徳的に人間の生死を巡る決断は「機械に委ねられるべきではない」と主張している。実践的な側面からは、そうした兵器が広まることは「あらゆる国家と個人を不安定で危険な状態に陥れる」としている。

この誓約はストックホルムで開催されている2018年の国際人工知能会議(IJCAI)の中で公開され、人類に対する「実在するリスクを軽減する」ための活動をする生命未来研究所(Future of Life Institute)によって纏められた。同研究所は、今回の誓約に参加したうちの何人かが国連に対して自律兵器として知られるもの、またはレーザー兵器システム(LAWS)について新たな規制を設けるように促す文書を提出する支援もしている。しかし、個人がこうした技術を開発しないことを約束するケースは今回が初めてである。

署名した人の中には、スペースXとテスラのCEOであるイーロン・マスク、Googleの子会社となっているDeepMindの創業者であるシェーン・レッグ、ムスタファ・スレイマン、デミス・ハッサビスの3人、スカイプの創業者ヤーン・タリンの他、ステュアート・ラッセル、ヨシュア・ベンジオ、ユルゲン・シュミットフバーのように世界でも最も尊敬されるAI研究者たちの何人かが名を連ねている。

この誓約の参加者でMITの物理学教授であるマックス・テグマークは声明の中でこの誓約はAIの先駆者たちが「話し合いから行動に移した」ものだと述べている。テグマークはこの誓約は、AIの軍事利用開発に厳しい制限を設けるという、政治家がしてこなかったことをしたものだとしている。「兵器が自律的に人の殺害を決定することは許し難く不安定化を招くことになります。生物兵器と同様に扱われるべきです」とテグマークは述べている。

これまでのところ、自律兵器に国際的な規制を設けようとする試みは成功していない。規制を求める人々はLAWSに対して化学兵器や地雷と同様の制限を課すことを提案している。しかし、自律システムを構成しているか、構成していないのか、の間に線を引くことは非常に難しいことに注意しなければならない。例えば、ガン・ターレット(砲塔)は個人を標的に定めることはできるが、発砲はせず、人間が「一連の作業」の中で追認することを要している。

また、AI兵器を開発する技術は既に普及しているため、規制する法律を施行することが大きな課題になることも指摘されている。更に、技術的に進んでいる各国(アメリカや中国のような)にとっては規制を受け入れることになんの実質的な利益も存在しない。

軍事アナリストで未来の戦争とAIについての著作が有るポール・シャーレは The Verge に対して、この誓約が国際政治に影響を与える可能性は低いだろうと話し、こうした文書はこの議論の複雑さを解きほぐすための十分な役割を果たせていないとする。「AIの研究者たちが政府関係者に対して自律兵器に懸念を持っている理由を説明するために、継続してこの問題に関わることができていないように見えます」とシューレは話す。

彼はまた、ほとんどの国の政府がこの誓約の主旨(AIシステムが人間を標的にするものを開発するべきではない)には同意していたとし、防衛のためのAIの軍事利用は「既に袋から逃れた猫」であると言う。「少なくとも30カ国がロケットやミサイル攻撃に対する防衛のために自律兵器を保持しています」とシューレは言う。

しかし、直ぐに国際的な規制ができることはないにしても、最近の出来事からは今回の誓約のように協調した行動によって違う展開が見えてきている。例えばGoogleは、同社が非致命的AIドローンの開発をペンタゴンのために支援していたことが明らかになった時に従業員たちが抗議したことに動かされた。その数週間後、GoogleはAI兵器システムの開発しないと約束した新たな研究指針を発表した。韓国の大学KAISTでのボイコット運動も同様の結果を得ている。KAISTの学長は「人間による意味のある支配権が欠如した自律兵器を含む、人間の尊厳に反する軍事AIは開発しないこと」を約束した。

両方のケースで、関係組織が非致命的な軍事AI機器の開発まで停止していないと指摘することは理に適っている。しかし、単独で殺害を担当するコンピューターを作らないと約束したことは、何も約束しないことよりもずっと良いことだと言える。

今回の誓約文は以下。署名した参加者の一覧はこちらのリンクから見ることが出来る。

人工知能(AI)は軍事システムに於いてますます重要な役割を果たすようになっています。市民、政策立案者、政治家が、AIの利用が受け入れられるものと受け入れられないものとを選別する緊急の必要性があります。

この点を踏まえ、ここに署名した私たちは人間の生命は機械に委ねられてはならないという決定で合意します。この立場には道義的な部分があります。私たちは誰に対しても生死に関わる決断を機械に許すべきではありません。

極めて実践的な問題もあります。人間が関わることなしに標的を選択して攻撃する自律兵器はあらゆる国と個人を不安定で危険な状態に陥れるものです。何千人ものAI研究者が、人間の生命を奪うことから、危険性、属人性、困難さ、が取り除かれることで自律兵器は強力な暴力と弾圧の道具になる可能性があることに同意しています。特に自律兵器が監視システムやデータシステムと連携している場合は尚更です。

更に、致命的な自律兵器は、核兵器、化学兵器、生物兵器とは全く違う特徴をもっていて、単一のグループによる一方的な行動によって、国際社会による技術的な対策や世界的な管理機構を欠いた軍拡競争が簡単に引き起こされる可能性があります。このような軍拡競争を批判し防ぐことは国家と世界の安全のための再優先事項とされるべきことです。

ここに署名した私たちは、政府と政府の指導者たちに対し、致命的な自律兵器に関する強力で国際的な規範、規制、法律を整備して未来を創り出すことを求めます。こうしたものは現在は存在していませんが、私たちは高い基準を保つことを選択します。私たちは致命的な自律兵器の開発、生産、取引、使用に参加したり支援したりすることはありません。私たちはテクノロジー企業や団体、政治家、政策立案者、そして個人の人たちが私たちとこの誓約に加わってくれることを求めます。

0 件のコメント:

コメントを投稿