Digital Experience! TOP>現代ビジネス>ITトレンド・セレクト
ITトレンド・セレクト
2013年04月18日(木) 小林 雅一

グーグルや百度が注力する「ディープ・ラーニング」とは何か?

 ところが、このパーセプトロンは致命的な欠陥を抱えていることが別の研究者らによって指摘された。それは、たとえば「排他的論理和」という初歩的な論理演算を理解できないことだった。排他的論理和などと書くと、なんだか難しそうに思われるかもしれないが、読者の皆さんも恐らく小学校で学んでいる簡単な概念だ。

 ベン図というのをご記憶だろうか。それを使って説明すると、集合Aと集合Bを考えた場合、AまたはBだが、その両方が重なる部分(AかつB)は除かれる(下図を参照)。これが排他的論理和である(簡単でしょ)。

「褒められては、けなされて」の繰り返し

 このように子どもでも理解できる簡単な概念がパーセプトロンには理解できない。それも原理的に理解できない、ということが証明されたので、パーセプトロンつまりニューラルネットに関する世間の関心や学者の研究熱は潮が引くように消えていった。

 しかし一部のニューラルネット研究者たちは、そうした冬の時代にも辛抱強く研究を続け、やがて1980~90年代にかけてパーセプトロンの構造をより多層化した新たなニューラルネットを引っさげて復活してきた。

 パーセプトロン、つまり初期のニューラルネットでは、情報の入力層と答えを出す出力層、その間にある中間層の3層構造だったが、80年代に復活した新型ニューラルネットでは、それらの間に「隠れ層」と呼ばれる新たなレイヤーが追加された。このように構造を重層化してパワーアップすることで、排他的論理和など初期の問題はクリアされた。

 ところが、この復活ニューラルネットも「動詞の過去形」など、やはり簡単な概念が理解できないことが指摘され、逆にそうした問題を解決しようとすると隠れ層の数をどんどん増やさねばならないため、計算時間が非現実的なまでに長くなってしまう。

 ということで、結局これも最後は「ダメ」印が押されて、ニューラルネット研究は90年代から2000年代にかけて、またも下火になってしまった。

previous page
2
nextpage
  • PR
  • PR
新着記事
MORE
BackNumber
MORE
ArticleRanking