脳活動解読とは、MRIや脳波により計測した脳活動データからその人が何をやっていたのかを推定する技術で、将来的なBMI(Brain Machine Interface;計測した脳活動をもとに義手や義足を動かす技術)への応用を見据えた研究が進んでいる。

 最近では、この脳活動解読に人工知能の基盤技術である「深層学習」を用いることで精度向上がはかられている。一方で、深層神経回路の動作は非常に複雑なため、「与えられたデータに対して解読器が何故その答えを出したか」の説明が困難だ。

 岡山大学、立教大学、生理学研究所、株式会社アラヤ、慶應義塾大学の研究者らは、このようにブラックボックスとなっている深層神経回路による脳活動解読を、直感的に説明する新しい手法を開発した。これには、反実仮想説明という手法と、深層生成モデルという深層学習のもう一つの技術を組み合わせることで実現した。

 具体的には、解読器が答えを間違えた脳活動データを元に、敵対的学習による深層生成モデルで本物そっくりな仮想的脳活動データを生成する。仮想的脳活動データで解読器が正しく判断できたら、元の脳活動データと仮想的脳活動データを比較することにより、誤答の原因になった脳部位を割り出せる。両者の差の部分を視覚的に示して、誤作動の「説明」を与えることができるとする。

 また、脳活動生成器によってある特徴を誇張した脳活動データを生成し、解読器に読み取らせるという応用により、深層神経回路が解読に使う脳活動の特徴を抽出することにも成功した。これらの成果は、“説明のつく”深層学習を利用した脳画像診断を叶える基礎技術として役立つことが期待される。

論文情報:【Frontiers in Neuroinformatics】Counterfactual Explanation of Brain Activity ClassifiersUsing Image-To-Image Transfer by Generative Adversarial Network

大学ジャーナルオンライン編集部

大学ジャーナルオンライン編集部です。
大学や教育に対する知見・関心の高い編集スタッフにより記事執筆しています。