2018年10月18日木曜日

「ディープラーニング」について先駆者に聞く


テリー・セジュスキーに聞いた、人工知能(AI)が人類の知能と出会う時


The Verge
Angela Chen
Oct 16, 2018

「ディープラーニング(深層学習)」や「ニューラルネットワーク(神経回路網)」といった言葉をいたるところで聞くようになったが、多くの理解には誤解も有るようだとテレンス・セジュスキー(テリー・セジュスキー)は語る。セジュスキーは生物医学を研究するソーク研究所の計算論的神経科学者である。

セジュスキーは学習アルゴリズム研究の先駆者であり、The Deep Learning Revolution(来週発売)の著者である。彼は殺人 AI やロボットが人間の仕事を奪うといった弊害の誇大宣伝によって、私たちがコンピューター科学と神経科学の分野における興味深い可能性を見失ってしまう可能性があること、そして人工知能が人類の知能と出会った時に何が可能になるのかについて議論を展開している。

The Verge はセジュスキーに「ディープラーニング」が突然いたるところで聞かれるようになった理由と、ディープラーニングでは何が出来て何が出来ないのか、そして誇張されることの問題について話を聞いた。このインタビューはわかりやすくするために多少編集されている。


最初に定義を伺いたいと思います。多くの人は「アーティフィシャル・インテリジェンス(AI:人工知能)」、「ニューラルネットワーク(神経回路網)」、「ディープラーニング(深層学習)」、「マシンラーニング(機械学習)」といった言葉を混同して使っているようです。しかしこれらは異なるものですよね、説明していただけますか。

人工知能の起源は1956年のアメリカに遡ります。技術者たちが人間の知能を真似したプログラムを書こうと試みたのです。その人工知能を使って機械学習と呼ばれる新しい分野が育ちました。何かをするためには一歩一歩プログラムを書いていくのがそれまでの伝統的な人工知能へのアプローチでしたが、それに代わって理解しようとしているものについてのデータを大量に収集するというものになったのです。例えば何か物体を認識しようとする場合はそのイメージをたくさん集めますよね。機械学習の場合も様々な特徴を自動的に分析する処理で、片方は自動車でもう片方はホッチキスだとわかるわけです。

機械学習は非常に幅の広い分野で長い歴史があります。元々は「パターン認識」と呼ばれるものでしたが、このアルゴリズムはより広大になり数学的に更に洗練されたものになっています。その機械学習の中に脳から着想を得た神経回路網があり、深層学習があるのです。深層学習のアルゴリズムはネットワークを通して流れる多数の階層を備えた特殊なアーキテクチャをを持ったものです。基本的には深層学習は機械学習の一部であり、機械学習は人工知能の一部なのです。


深層学習にできて他のプログラムにはできないことは何でしょうか?

プログラムを書くという作業は極度に労働集約型で人の手を多く要するものです。昔はコンピューターは遅くてメモリは高価だったため、コンピューターを効率的に動かすためにはロジックに頼っていました。それは情報の小片を操作するための基本的な機械語だったわけですが、とにかくコンピューターが遅すぎて情報処理はあまりにも高価なものだったのです。

しかし今ではコンピューターによる情報処理は時間と共に高価なものではなくなり続けていて、労働者を雇うことの方がより高価になっています。コンピューターが安価になったことで、人間がプログラムを書くよりもコンピューターが学習する方が効率的になったのです。この時点で深層学習はコンピュータービジョンや翻訳といった分野でプログラミング経験者がいない場合の実務的な解決策になり始めています。

学習機能というのは信じられないほどコンピューター集約型なもので、1つのプログラムを書くだけでよく、様々なデータセットを与えることで様々な問題を解決することができます。この分野の専門家である必要はありません。ですから、多くのデータが存在する場所にはあらゆることに利用できる方法がいくつもあるのです。


今では「深層学習」はいたるところにあるようになりました。なぜこうも支配的な存在になったのでしょうか?

それに関して私は歴史の中の特別な瞬間を指摘することが出来ます。人工知能についての最も大きな協議会である NIPS の2012年の12月に行われた会議のことです。(コンピューター科学者の)ジェフリー・ヒントンが2人の大学院生と共に1万のカテゴリーと1千万の画像を持つ ImageNet と呼ばれる極めて大きなデータセットを使って、深層学習を利用して分類エラーを20%削減できることを示しました。

伝統的にこのデータセットでは、1年に1%のエラーが削減されていました。1年で20年分の研究を飛び越えてしまったのです。これはまさに水門が開かれた瞬間だったと思います。


深層学習は脳の働きに着想を得たものです。コンピューター科学と神経科学はどのように連携しているのでしょうか?

深層学習の発想は確かに神経科学から来ています。最も成功した深層学習のネットワークを見て下さい。フランスのコンピューター科学者ヤン・ルカンが開発した「畳み込みニューラルネットワーク」(convolutional neral networks)、あるいは CNN と呼ばれるものです。

CNN のアーキテクチャを見てみると、多くのユニットがただあるだけではなく、脳を参考にした基礎的な方法で繋がっています。視覚系と脳の後頭葉にある視覚野(しかくや)に関する基本的な役割についての研究によれば、単純な細胞と複雑な細胞が存在することが示されています。CNN のアーキテクチャを見ると、単純な細胞に相当するものと複雑な細胞に相当するものがあり、視覚系の理解から直結しているものであることがわかります。

ヤン・ルカンは単純に視覚野をそのまま複製しようとしたわけではありませんでした。彼は多くの異なるバリエーションを試しましたが、その中で彼が収束したものが自然が収束したものと同じだったのです。これは重要な観測です。自然と人工知能が同じところに収束することは、私たちに多くの示唆を与え、はるか先を見据えられるものです。


コンピューター科学についての理解の度合いは、脳についての理解に依存しているものなのでしょうか?

現在の人工知能の多くの部分は1960年代の脳についての知識に基づいています。現在では更に多くのことを知っていますし、その多くの知識がアーキテクチャに組み込まれています。

囲碁のチャンピオンに勝利したプログラムである AlphaGo は単に大脳皮質のモデルが組み込まれているだけでなく、大脳皮質を他と結びつける大脳基底核と呼ばれる組織の一部のモデルが含まれています。これは目標を達成するための一連の決定を行う上で重要な役割りを果たします。また、1980年代に情報工学者リチャード・サットンによって作られたアルゴリズムで時間差分(temporal differences)と呼ばれるものがあります。これは、深層学習と組み合わされてそれまでにはあり得なかった極めて洗練された動作を可能にするものです。

私たちが脳の構造について学び、それを人工的なシステムに統合する方法を理解することで、私たちが今いる場所を飛び越えて更に多くの可能性を提供できるようになるでしょう。


人工知能が神経科学に与える影響についてはどうでしょう?

この2つは並行した取り組みです。革新的な神経科学の技術は驚異的に進歩していて、1つの神経細胞を記録するところから、数千の神経細胞や脳の多くの部分を同時に記録するところまで来ています。完全に新しい世界を開こうとしています。

私は人工知能と人類の知能との間に収束が起こっているという話をよくしています。脳がどのように働くのかを学ぶに連れて、それが人工知能に反映されていくのです。しかし同時に、これらは実際に学習の理論全体を作り出しています。この理論は脳の理解に応用することができ、何千もの神経細胞やその活動の方法を分析することを可能にするのです。ですから、神経科学と人工知能の間にはフィードバックの循環ができているのです。私はこのことは非常に興味深く重要なことだと考えています。


あなたの著書には自動運転車から株取引まで非常に多くの種類の深層学習の利用方法が挙げられています。あなたが最も面白いと思う分野はどれでしょうか?

私が至極感心した利用法の1つに敵対的生成ネットワーク(generative adversarial networks)、通称 GANs と呼ばれるものがあります。伝統的な神経回路網では、入力を与えると出力を返します。GANs の場合は入力無しに開発行動、つまり出力をする能力を持っています。


はい、私はそのネットワークについて、偽の動画を作るという話の中で聞いたことがあります。現実のように見える新しいものを本当に作り出すのですよね?

こうしたものはある意味で内部構造を作り出しているのです。このことで脳が働く方法が明らかにされます。あなたは何か物を見ることができます、そして目を閉じてそこには無いものを想像し始めることができます。あなたは視覚的なイメージを持っていて、特に何かを見ることがなくてもアイディアを生み出すことができます。それはあなたの脳に生成力があるからです。そして現在、新しい種類のネットワークが、これまで決して存在していなかった新しいパターンを生成することができるのです。例えば、数百の車の画像を与えれば、新しい車のイメージを生成するための内部構造を作り出すのです。その内部構造によって生成された車のイメージはこれまでに存在したものではなく、しかも完全に車に見えるものになるのです。


逆に、どの利用方法のアイディアが誇張されていると思いますか?

この新しい技術の導入によって将来的に物事がどのように整理されるのか予言したり想像したりすることは誰にもできません。もちろん誇張されているものもあります。私たちは本当に難しい問題をまだ解決できていません。私たちはまだ人間レベルの汎用人工知能は実現できていないのですが、ロボットが人類に取って代わるときがすぐそこまで来ていると言う人がいます。脳組織を複製するよりも、体の組織を複製することのほうがより複雑であることが明らかになっているため、ロボット技術は人工知能よりもずっと遅れているのです。

1つの技術の進歩について、例えばレーザーについて考えてみましょう。レーザーは約50年前に発明されて行き詰まっていました。そこから私が講義の時に使うレーザーポインターとしてこの技術が商業化されるまで50年の時間を要しました。小型化して5ドルで買うことができるところまで進歩する必要があったのです。自動運転車のような技術も誇張されている面があります。自動運転車が何処ででも見られるようになるのは来年のことではないでしょうし、おそらく10年後でも難しいでしょう。もしかすると50年を要するのかもしれませんが、大事なことは順を追って段階的な進歩があるということです。より柔軟で、より安全で、これまでに整備された交通網に対してより互換性のあるものに段階的に進歩するのです。技術について誇張されることの間違いは、時間軸がおかしいのです。時間が経てばいずれ実現するものですが、あまりにも早く実現すると誇張されているのです。

0 件のコメント:

コメントを投稿