理解できる人工知能
ディープラーニングの先に

hartono-p.jpg
ハルトノ ピトヨ 教授

 昨今、毎日のように人工知能(AI)の話題がテレビや冊子に取り上げられる。AIの研究は半世紀以上前から全世界で行われているが、爆発的に注目されるきっかけは2010年ころに提案されたディープラーニング(DL)である。DLとはAIの一分野である機械学習の新しい手法である。

 まず、機械学習に関して簡単に説明する。従来、計算機にある問題を解決させたい場合、その解決法(アルゴリズム)を人間がプログラミングという作業を通して、計算機に指示する必要がある。ところが、人間が日常的に容易にできることでもアルゴリズムとして表現しづらいことが多い。わかりやすい例が物体認識である。例えば、人間は犬や猫を簡単に認識することができるが、どのように犬や猫を認識できるかに関して説明することができない。説明できないので、アルゴリズムも計算機に提示することできなくなり、犬や猫を計算機に認識させることも難しくなる。

 人間が犬や猫を認識できたのは、幼いころから多くの犬や猫を見ることで、いつのまにかそれらを認識できる能力を獲得したからである。つまり、学習が行われたからである。DLに例をたくさん提示することで限定的であるが、人間のよう学習できる計算機を実現することが可能となる。例えば、DLに膨大な犬と猫の画像を見せることで、自動的に人間が普段意識しない犬や猫の特徴量を抽出し、それらを基に認識を行う。この技術により、人間がなにかを計算機に作業させたい場合、アルゴリズムを提示することなく、例題だけを用意すれば、学習によってその作業を行うためのアルゴリズムが形成される。

 機械学習も古くから研究された分野であり、DLは過去の研究成果の上で構築されたものである。ここ数年の計算機の処理速度と効率性の向上、さらに機械学習の新しい理論(数学)的な知見の出現によって、例題の数が膨大または問題自体の複雑さで過去の機械学習で難しかったことが、DLによって解決できるようにうなった。これにより、様々な分野でのAIの応用が飛躍的に広がった。

 しかし、DLにも問題はある。自らの意思決定の理由を説明できないという問題である。なんとなくうまく動いているが、なぜそうなのかがわからない自動運転車が危険であるのは明らかであるように、説明能力に欠けるAIの応用が限定されることは確かである。そこで、本研究室は、効率よく学習できるだけでなく、学習の結果、どうような知見(構造)を獲得できたかに関して説明を提示できる新しい機械学習手法とその応用に関して研究を進めている。

 DLと異なる重要な点は学習過程にあり、獲得された知見のより数学的な構造化にある。それにより、学習後、その構造を可視化することで、獲得された能力をある程度説明することができる。現在は、数学的な理論の構築が主な研究内容であるが、徐々に実世界問題の応用も試みている。将来は、説明責任を必要とする自動運転、医療や教育分野への応用を考え、AIの更なる実用化と同時にAIの理論の発展に貢献をしたい。

ハルトノ ピトヨ(はるとの・ぴとよ) 中京大学 工学部電気電子工学科教授

計算知能
早稲田大学理工学研究科物理及び応用物理学専攻 博士課程修了
博士(工学)
1969年生まれ

2017/05/16

  • 記事を共有