脳の活動パターンを人工知能モデルの信号に変換することによって、人が見たり、想像したりしている物体を推定することに、京都大情報学研究科の神谷之康教授や国際電気通信基礎技術研究所(ATR)の堀川友慈主任研究員のグループが成功した。心を解読する技術の大きな前進で、英科学誌ネイチャー・コミュニケーションズで22日発表した。

 神谷教授のグループは、機能的磁気共鳴画像装置(fMRI)を使って人の脳の活動パターンを計測し、あらかじめ記録しておいたパターンと参照するやり方で、何を見たかを推定することに成功している。ただし、記録されたパターンに対応する物体しか推定できないという限界があった。

 今回の手法では、fMRIで計測した脳の活動パターンを、人工知能で応用されている深層学習モデル(DNN)の信号に変換した上で利用した。5人が「カモ」や「シルクハット」などを見たり想像したりした際の脳由来のDNN信号を、インターネット上にある大規模画像データベースをあらかじめDNNで処理し得た信号と参照することにより、物体を高確率で推定することができた。

 神谷教授は「脳とDNNの情報処理が似ていることも示された。脳と機械を融合した新たな知能システムの開発にもつながる」と話している。

5/22(月) 21:00配信 京都新聞
https://headlines.yahoo.co.jp/hl?a=20170522-00000015-kyt-sctch

画像
https://amd.c.yimg.jp/amd/20170522-00000015-kyt-000-2-view.jpg