AIの発展と脳科学


今月のサイエンス誌のニュース記事はAIだらけだった。そのなかの一つ「The AI detectives(AIの探偵)」はAIの発展とその問題点について触れている(Paul Voosen, Science  07 Jul 2017)。

最近のAIの発展の背景には、深層学習(Deep Learning)という機械学習の手法がある。
機械学習というのは、AIの根底にある技術のことで、人間が学習によって培う判断をコンピュータにさせるための手法一般のことだ。
そして深層学習では、多層構造のニューラルネットワークというものを用いた機械学習手法の一つだ。
人間の大脳の情報処理構造を参考に、情報の受け渡しをおこなう多数のニューロンによって構成されたネットワークをコンピュータ上に設計することで、高度な機械学習が実現されている。

ここで機械学習について概説したい。例えば、画像からイヌとネコを判別するようなシステムについて考えてみよう。
イヌが映っている写真、ネコが移っている写真、このような画像データの一つ一つにラベル(「イヌ」、「ネコ」というふうに)をつけたリストを機械学習のシステムに与える。するとシステムは、画像の特徴を分析し、「イヌ」の概念、「ネコ」の概念のようなものが形成される(判別器という)。すると、新しく画像を与えたときには、形成された判別器にしたがって、それが「イヌ」なのか、「ネコ」なのか判別できるというわけだ。判別の質は、与えたデータ量に依存することとなる。

もちろん、イヌとネコを見分けるだけでなく、このサイエンス誌の記事内で触れられているように、シマウマ、消防車、シートベルトなどありとあらゆる画像データを与えることで、様々な物体を認識できるように訓練できる。
ここで、個々のニューロンにクローズアップして、そのニューロンが何に反応するのか、確認してみよう。すると、あるニューロンはどうやら「顔の輪郭」に反応するようになったことが分かる。どんなサイズでどんな色であっても(おそらく人間の顔じゃなくても?)、顔らしき輪郭をとらえれば、そのニューロンは反応するのだ。
しかし、不思議なことに、誰も「顔」を認識するようにこのシステムを訓練していないのだ。「人間」というラベルづけさえ行っていないという。
にもかかわらず、この判別機は「顔」の概念を形成することができたのだ。いったいどのようにして「顔」を認識できるようになったのだろうか。この謎を解くには、ニューラルネットワークの情報処理を解析しなくてはならないが、その処理はあまりに膨大で正確にとらえることが現在のところはできていないらしい。

このように、AIの判別能力は非常に優れているが、どのような処理が背景でおこなわれているのか把握することは不可能に近い。たとえ、AIが間違った判断を下すように学習してしまったとしても、その原因を突き止めるのは至難の業なのだ。そこで、技術者はAIの情報処理を分析するツールづくりにも力を注いでいる。

今後ますます、AIは実社会に用いられていくようになり、人間に代わって高度な判断を担うようになるだろう。このとき、問題となるのは責任の所在だ。よくある例え話だが、AI技術を搭載した車が自動運転中に交通事故を起こした場合には、いったい誰の責任となるのだろうか。ドライバーなのか、自動車メーカーなのか。
現状においては、自動車の不具合が原因でない限り、責任はドライバーに帰属することになるが、AIが運転していた場合は果たして、、、
こういった課題を乗り越えるためには、上記のような分析ツールによる原因究明が必要不可欠だろう。


話は戻るが、訓練されたニューラルネットワークのあるニューロンは「顔」に反応するようになるのだった。
これは、実際の人間の脳で起きていることと全く一緒なのだ。神経科学の分野では、「おばあちゃん細胞(ニューロン)」(例えば、あるニューロンは「おばあちゃん」に反応するのだ)などとよく言われるが、これはつまりある特定の概念に対応するようなニューロンがあるということだ。
そもそも、人間の脳をまねて作っているのだから、ある意味当然と言えるのだが、問題は別にある。

AIであれば、個々のニューロンにズームインしたり、ニューロン間の情報のやり取りを監視することが可能だ。しかし、先ほど紹介したように情報処理はあまりに膨大なため、「顔」をいったいどのようにして認識しているのか、これを把握することは現状ではできていない。
これは、生体に例えてみれば、人間の脳内のニューロンの活動やニューロン同士の信号のやり取りをすべて計測することが出来たにも関わらず、そのデータから人間の認識という機能をとらえることはできない、ということになる。究極的に計測技術が発達し、いつか「脳内のすべてのニューロンの活動を計測」出来るようになったとしても、結局はわからないことだらけということなのか。。。

現在においても、MRIなどの計測装置から得られたデータの解析にも、深層学習は広く用いられていて、MRIデータから被験者の見た視覚映像を再合成するといったことが既にある程度は可能となっている。
膨大なデータ解析をおこなう脳科学研究にとっても、AI技術は今後ますます必要不可欠なツールとなっていくだろう。しかし、AIの処理能力は、すでに人間の認識力では追い付かない領域に達している。
研究においても実社会においてもAIを上手に利用するために、今後の技術の発展、さらには法整備やAI利用のリテラシーの普及が求められる。

コメント

このブログの人気の投稿

入力インピーダンスってなに?

脳の3DグラフィックをOpenFrameworksで作成

デトロイト美術館展 上野の森美術館