Digital Experience! TOP>現代ビジネス>ITトレンド・セレクト
ITトレンド・セレクト
2012年12月20日(木) 小林 雅一

グーグルが雇用した危ない天才発明家とAIの行方

 統計・確率的なアプローチは今のところ、昇り竜の勢いで画期的な成果を上げているのだが、何しろ基本にあるのが統計と確率なので、「あんなものは知能や知性とは呼べない」とする批判も聞かれる。

 統計・確率的AIというのは、たとえばコンピュータが大量に読み込んだ文書を分析し、それに基づいて「I」の後には「love」が、「love」の後には「you」が来る確率が何パーセントといったやり方で、「I love you」という文章を出力する。

 要するにコンピュータ(AI)は確率に基づいて単語と単語をつないでいるに過ぎず、肝心の文章の意味は全く理解していないのである。確かに今は結果を出しているかもしれないが、これが今後幾ら進歩したところで本当の知能に成長することはない、いずれは限界にぶち当たる、という見方が根強くある。

絶望視されたニューラル・ネットも息を吹き返す

 そこで今、大きな期待を浴びているのが第3のやり方、これは人間の大脳活動のメカニズムをコンピュータ上で再現する方法である。言わば「AIの王道」とも呼べるやり方で、AI研究が始まった1950年代から「パーセプトロン」や「ニューラル・ネット」などと呼称を変えながら研究されてきた長い歴史を持つ。

 しかし王道であるだけに実用化は難しく、何度もその未来が絶望視されたことがある。ところが、こちらも2006年に、「ディープ・ラーニング(Deep Learning)」と呼ばれる画期的な手法が考案されたことで息を吹き返した。

 ディープ・ラーニングはニューラル・ネットの一種で、より低レベルの情報から高レベルの情報を段階的に導き出す機械学習の新方式だ。もちろんグーグルもこの分野の研究開発を進めている。大分前になるが、「グーグルのAIシステムに、ユーチューブ上にある猫の動画を大量に見せたところ、ついにAI(つまりコンピュータ)が猫を認識するに至った」というニュースが報じられたことがある。

previous page
3
nextpage
  • PR
  • PR
新着記事
MORE
BackNumber
MORE
ArticleRanking