2018年5月23日水曜日

「ディープフェイク」には明確な定義が必要


「ディープフェイク」を次世代の「フェイクニュース」にしてしまわないように


The Verge
James Vincent
May 22, 2018

「ディープフェイク」と呼ばれるものについて、この数ヶ月ではあまり興味を惹くような話題にはなっていないが、おそらく2018年のうちにこの言葉が一般的なものになるのは避けられないだろう。人々はAIを用いて超リアルな偽の動画や写真を作れるようになる。しかし最近のBuzzFeedの記事によって思わぬ形でこの言葉が現れ、結局のところディープフェイクとは何なのか?という疑問に行き着くことになった。

この疑問を呼んだ記事は「ベルギーの政治政党がトランプ大統領のディープフェイクビデオを拡散」と題されたものだ。このヘッドラインは高度な技術を使った政治プロパガンダキャンペーンを想像させる。誰かがAIを用いて映像のトランプに話をさせて有権者をミスリードするようなものだ。実際、専門家がディープフェイクについて心配していたのはそのような種類のものだ。しかし、実際動画を見てもらえばわかるが、今回の件はそのようなものではない。この動画は明らかなパロディであり、話し方は誇張されているし、非現実的な音声効果がかけられている。(実際この動画はAIに無関係である可能性が高いが、製作者のコメントを待っているところである。)しかもこの「トランプ」は動画の中で「私たちは気候変動がフェイクであることを知っている、この動画と同じようにだ」と話している。

私たちはこれをディープフェイクと呼ぶべきなのだろうか?我々が取材した専門家たちはこれについては自信を持って「違う」と言う。しかしそこで幾つもの興味深い疑問が浮上してくる。ディープフェイクを定義することの難しさだけでなく、将来的にこの言葉が曖昧に適用された場合に発生する問題も存在することになる。「ディープフェイク」は次世代の「フェイクニュース」になるかもしれない。かつてははっきりとした現象(人々が小遣い稼ぎのために自作したニュースをソーシャルメディアに流すこと)を表した言葉だったが、今では合法的な報告に対しても信用を低下させるために自由に使われるようになってしまっている。

とりあえず「ディープフェイク」とは何かを簡単に定義することから始めてみよう。この言葉は元々は2017年の12月に、「deepfakes」という名前のRedditユーザーが、出来合いのAIツールを使ってポルノ動画に有名人の顔を嵌め込んだ動画を公開したところから来ている。このユーザー名は単純に「ディープラーニング」(AIが関わっている処理という雰囲気)と「フェイク」をくっつけただけの言葉である。しかし、これ以上にわかりやすくこの分野を命名するというのは困難なことだろう。

元々はフェイクポルノに使われたものだったこの言葉は、すぐさま機械学習を利用して編集された動画や写真の略語として幅広く使われるようになった。ポルノ動画のディープフェイクはAI利用の規範から外れたものに大衆の注目を集めさせることになったが、この種の視聴覚素材の操作は研究者たちが長年取り組んできた分野でもあった。現在ディープフェイクの方法として言われているのは次のようなものが含まれている。顔のすり替え(上記のような)、偽音声(誰かの声を複製する)、操り人形又は顔の模造(ターゲットの顔を俳優の顔に貼り付けて操作する)、吹き替え(音声と顔の映像から誰かが話している映像を作り出す)

しかしそもそも何がディープフェイクなのだろうか?技術が発達し広く認知されるにつれて、この用語が曖昧で今だに流動的であることが専門家から強く指摘されている。ディープフェイクの基本的な特徴の1つは、編集過程の一部がAI技術、通常はディープラーニングを用いて自動化されていることだ。ディープフェイクは新しいものであるのと同時に簡単なものである、ということが重要なことになる。この技術の危険性の大部分は、これまでの写真や動画の編集技術とは異なり、人々が高度な技術を必要とせずにより広く利用できるようになることだ。

政策の専門家で、最近発表されたAIの悪意ある利用に関する記事の共著者であるマイルズ・ブランデージは「ディープフェイク」という言葉には明確な境界線が存在しないが、一般的には「フェイクビデオの一種であり、偽造化することを容易にするためにディープラーニング(深層学習)を活用したもの」を指していると述べている。アムステルダム大学のAI研究者でデジタル偽造を主題とした著作があるジョルジョ・パトリーニも同様の定義を提唱していて、ディープフェイクは「自動化された学習要素の一部」が含まれるべきだと述べている。ミシガン大学情報学部のソーシャルメディア研究所の主任技術者アヴィヴ・オヴァディアは、「AIの進歩無しには極めて困難で高価だった音声や動画の制作や操作」を表現するための言葉が私たちには必要であるとし、ディープフェイクという言葉はその仕事をかなり上手くやっている、としている。

仮に私たちがこうした定義に賛同するならば、それはアドビ・フォトショップやアフターイフェクト等の現在存在するソフトウェアで編集した動画や写真はディープフェイクではないということになる。しかし、パトリーニの指摘によれば、これは信頼できる分類ではない。こうした今あるソフトウェアも既に編集の過程で少なくとも一部を自動で行うようになっているし、これらも近い将来AIが搭載されることになるからだ。(アドビはAIによる編集ツールを数多く開発中であることを明らかにしている)

専門家たちは定義そのものに固執しているわけではないと付け加える。誰かが人を騙そうとする場合に、それがディープフェイクかそうでないかということは問題ではない。しかし、これが全てでもなく、おそらく騙す行為はこの方程式の一部でしかない。例えば、スナップチャットはAI技術を用いて人々の顔にフィルターをかけているが、私たちはこれをディープフェイクとは呼ばない。同様に相当頭が鈍くない限り、Appleのアニ文字をディープフェイクと呼ぶようなことはないだろう。

逆の例を見てみよう。私たちが「ディープフェイク」について語る場合、私たちは誰かを騙す可能性のあるもので、おそらく生活に重大な影響のあるものについて話している。こうしたものは政治的見解に影響を与えたり、法廷で偽の証拠として用いられる可能性がある。あるいは、ディープフェイク・ポルノの場合、標的にされた人に影響を与える一方で、作成する人たちは自己満足のために、これを本物であると信じたがっている。

こうしたことから、ディープフェイクとは、「AI」、「自動化」、「騙す可能性」というベン図の中の3つの円の重なり合った部分であるという定義を与えてくれるかもしれない。しかしそれでも、これに当てはまらない際どいケースを考えることもできるかもしれない。

だとしたらなぜこれについて考えているのだろうか?もし私たちが、何がディープフェイクで何がそうではないのか、ということについて合意できない場合、この件について話題にするのが難しくなる。この分野の専門家は皆、将来的にこの技術によってもたらされる害と戦うために、市民が知識を持つことが不可欠であると口を揃えている。また、「ディープフェイク」という言葉をあまりにも気軽に、ゆるく用いるようになると、あらゆる場所に偏在するようになってしまう危険性がある。この技術の実際の影響力よりも、文化的に大きな力を持つものになってしまうのだ。つまり、私たちを騙したいと思っている人たちが、この漠然とした言葉を使って、自分たちが気に入らないものについての証拠に疑問を投げかけるようになる。これはまさに「フェイクニュース」で起こったことだ。

これが最も近い将来の危険であると、ダートマス大学のデジタル犯罪科学者、ハニー・ファリドは指摘する。「これが実際本物であるコンテンツに対して向けられることを私は心配しています」とファリドは言う。「ドナルド・トランプについて考えてみて下さい。彼が女性に対して卑猥な発言をした音声録音が公開されていますが、例えばこれについて彼はもっともらしい言い逃れをすることができるわけです、『誰かが合成して作ることができた』と。そしてそれ以上に、彼はもっともなことを言っている、ということになりかねません」

もちろん、ディープフェイクとは何であるかについて幅広く合意が得られたとしても、この種の事態を防ぐことにはならないだろう。しかし、視聴覚コンテンツが偽造される世界に向かうにあたって最も悪い事態を想定するならば、報道機関や裁判所等の公的機関への不振を招く可能性があるため、明確な定義があれば、少なくともこうした問題について市民が議論をする助けにはなる。同じ定義で話すことすらできなければ、お互いの信頼は直ぐに失われてしまうことになるだろう。

0 件のコメント:

コメントを投稿