翻訳蒟蒻

海外のネットの記事などを翻訳します

60年の時を経て、Facebookで人工知能の新たな夜明け

12月10日にWIREDに掲載された記事を訳しました。

60年の時を経て、Facebook人工知能の新たな夜明け

BY CADE METZ12.10.136:30 AM / WIRED

Facebookの新たな人工知能研究所の所長に、ニューヨーク大学教授のヤン・ルカンが就任した。彼のAIへの興味は、9歳の時に「2001年宇宙の旅」を見た時にさかのぼるという。

機械が人間と同じように情報を処理する人工知能というのは、さほど古いアイディアではない。1950年代後半、ダートマス大学で行われた会議において東海岸のとある学術団体がそのアイディアを発表し、そしてその10年後には独立系の映画を手がけるスタンリー・キューブリック監督が「2001年宇宙の旅」を発表した。恐ろしげながらも実に魅力的に表現された思考する機械というアイディアは、学術関係にとどまらず非常に多くの人々の想像力をとりこにした。

‘80年代前半、地元フランスで工学科の学生だったルカンは、現実のAI技術を研究していた。研究の一部は、「ニューラルネットワーク」と呼ばれる、人間の脳を模倣した機械学習に関するものだった。困ったことはただひとつ、あまりにも現実的な進歩がなかったために、アカデミズムがAIの分野に対してそっぽを向いてしまったことだった。「「機械学習」とか「ニューラルネット」は汚れ物扱いでしたよ」と、今年のはじめにルカンは語った。

しかしルカンはやめなかった。’80年台半ばまでに新たなアルゴリズムを開発し、比較的複雑なニューラルネットワークを扱えるまでになっていた。やがて研究は大西洋を飛び越え、ジェフリー・ヒントンという名の学者との共同研究に発展した。ルカンはフランスで博士号を取得すると、トロント大学で、ヒントンの強情なまでに挑戦的な人工知能研究グループに加わった。それから何年もの間、彼らとその他一握りの研究者たちは、その成功を信じるもののほとんどなかったプロジェクトに精魂を傾けた。「守り続けるのが非常に難しいアイディアでした」とルカンは言った。だが今や、状況は変わった。

ルカンがFacebookで研究を始める一方、ヒントンはすでに同じようなプロジェクトを数カ月前にGoogleで始めていた。彼らのニューラルネットワーク研究の中核をなすアイディアは、通常「Deep Learning(ディープ・ラーニング)」と呼ばれ、マイクロソフトIBMでも同様の研究がなされている。ヒントンとルカン、そのほか例えばモントリオール大学のヨシュア・ベンジオらの努力により、人工知能はまさにいま一大復興期を迎え、我々が日々利用しているオンラインサービスが用いているデータ分析手法が大きく変わろうとしてる。

Googleは、アンドロイドOSの音声認識サービスで既にディープ・ラーニングを利用しており、同様の技術は、画像やビデオに始まって、Facebookのような巨大ソーシャルネットワーク上のコミュニケーションのしかたに至るまで、全てに活用可能だ。

Facebookがディープ・ラーニングを使ってあなたの写真に写っている人の顔を認識できるなら、それらの写真を興味がある人たちと自動的に共有することも可能になる。AIがあなたの行動を一定の信頼性をもって予測できるようになれば、あなたがクリックしそうな広告をあなた向けに表示することも可能だ。「Facebookが写真に写っている製品のブランドを認識して、そのブランドに関連する広告を写真をアップロードしたユーザーに表示することだって可能だと思います」と、トロント大学でジェフリー・ヒントンとともにディープ・ラーニング・グループで研究している博士課程学生のジョージ・ダールは語った。

同じくヒントンとともに研究していたアブデルラーマン・モハメドにとって、可能性はほぼ無限だという。「驚くようなことが可能ですよー驚くべきことが」とモハメドは語る。彼はまもなくIBM研究所で音声認識チームに加わる予定だ。「Facebookにできることはほとんど無限ですよ。」ディープ・ラーニングとはつまり、コンピューターシステムの機能のしかたを改善することにほかならないというのが彼の主張だ。

Facebookは、ディープ・ラーニングを具体的に何に応用しようとしているかについては公表していない。しかしながら、それが会社の未来に対して大きな役割を担っていることは明らかだ。今週月曜、Facebookの創始者であるCEOのマーク・ザッカーバーグとCTOのマイケル・シュレーファーは、レイク・タホで開催されたAIコミュニティの年次会合である神経情報処理システム会議にて、ルカンの採用を発表した。また、この新規事業はカリフォルニア、ロンドン、そしてルカンが住むニューヨークを拠点とすることを明らかにした。

‘80年代なかば、ルカンとヒントンは「バックプロパゲーション(誤差逆伝播法)」と呼ばれるアルゴリズムを開発した。これは基本的に、人間の脳のような多層神経ネットワークを用いて、複数のレベルで情報を分析する手法だ。モハメドによると、この神経ネットというのは、我々の肉体の働きと多くの点で似通っているという。

「私があなたに話しかけているとき、あなたはそれを複数の層で処理しているんです」とモハメドは説明する。「声を聞くのは耳ですが、それを解釈するのは別の層です。言葉を把握する層、概念を理解する層、そして全体として何が起きているのかを理解する層が存在するのです。」

基本概念は30年前から存在するが、コンピューターハードウェアの進歩のおかげで、やっと現実的研究といえるようなところに到達しようとしている。その背景には、大量のインターネット由来の現実世界のデータをディープ・ラーニングに取り込めるようになったことがあるのはいうまでもない。「かつて存在しなかった多くのものが、今まさに交わろうとしてるのです」と、モハメドは言う。

明らかになったのは、これらのアルゴリズムは、現代のウェブサービスを支える巨大コンピューター・ファーム、無数のタスクを同時に処理するファームで実行するのに適しているということだ。特に、数千ものグラフィック処理ユニット(GPU)で構成されるシステムが適している。GPUはもともと画像表示のために設計されたチップだが、今やそれ以外にも大きなパワーが必要な処理にも数えきれないほど多く活用されている。Googleによると、この種のディープ・ラーニング・アルゴリズムにはGPUが使用されているとのことだ

Googleのようなサービスならば’90年代後半ぐらいからAIを活用していたはずと考えるもしれない。しかしそこでいうAIとは、実際の脳の働きを再現しようとせずに手っ取り早く知性を模した別物だ。ディープ・ラーニングにはそのような近道などない。「脳とは必ずしも同じではありませんが、これは脳に最も近いモデルであり、膨大な量のデータを処理することができるのです」とモハメドは語る。

ハメドが指摘するとおり、我々はまだ脳の働きを完全には理解できていない。ディープ・ラーニングとは、我々の思考方法を実際に複製するという長い道のりなのだ。しかしながら肝心なのは、このやり方が、例えば音声や画像認識など、ある種の今時のアプリケーションに関しては上手くいくということだ。Googleがディープ・ラーニングを利用しているのもそのことが理由だし、マイクロソフトIBMも他にあらず。そして、Facebookがヤン・ルカンを採用した理由もそこにある。

とはいえ、この動きはまだ始まったばかりだ。「FacebookマイクロソフトGoogle、それにIBMも、ディープ・ラーニング法の可能性を最大限利用するには、あとどれだけの研究が必要なのかわかっている。だからこそ、今どこでも機械学習技術に対してこれほどまでに多くの投資を行っているんです」とダールは語る。「近頃はだいぶうまくいくようになりましたが、今あるエキサイティングなアプリケーションだって、何十年ものあいだ様々な人達が研究を重ねてきた成果なんだってことを忘れてはいけないと思います。我々が解決しようとしている課題は、実に、実に難しいものなのです。」

--

ソース: http://www.wired.com/wiredenterprise/2013/12/facebook-deep-learning/ 60 Years Later, Facebook Heralds New Dawn for Artificial Intelligence BY CADE METZ12.10.13]