脳のデコード fMRIのデータから被験者が今見ている画像を再構成

京都のATRの研究室で次のような実験が行われた。被験者が今どんな画像を見ているか、それを脳の活動状態のデータだけから予測する、というテストだ。下にある画像がその例で、上の段が実際に被験者が見ていた画像。そして下の段がMRIを使って取得した脳データを元に、計算で予測した画像。

うーん、よく出来てる。
前にこちらのエントリで同じタイプの別の実験について書いたけど(こちらは見ている画像に出てくる「ものの名前」を当てるという試み)、今回の実験の方が視覚的な分、断然センセーショナルだ。ちなみに論文はNeuronに投稿され、12月10日号の表紙を飾った。

取得されるデータの分解能はfMRIの性能に規定される。今回の実験に使用した装置の場合、空間分解能で3mm立方、時間分解能で2秒(つまり0.5fps)程度とのこと。

感想

感想は前のエントリーと一緒。脳は複雑だ複雑だ、と言われるけど、こういう単純な(というか実際に起きているナノメートル・オーダーの微視的過程、例えばイオンチャネルの振る舞いとか、そういうのを完全に無視した)アプローチで実際うまくいく、というのがスゴいと思う。これは電子とか結晶構造とか知らないでも、オームの法則だけで電気回路の振る舞いを予測できてしまう事なんかと少し似てるかな思う。あるスケールで物事が単純になる、という。こうしたスケールの問題は神経科学では Neuron doctrine という概念が関わりを持つ。

ネット上の反応

2チャンネル(日本)


Diggアメリカ)

脳内画像の保存形式は jpg か png か、なんて話も。もちろんこれはネタで書かれているが、でもこういう話はちょっと面白い。というのも工学的に理想化された圧縮方式で出てくる何らかの構造と、脳内で行われている情報の物理的表現との間に、何らかの意味での同型性が認められる、みたいな妄想が普通に考えられるから。つまり例えば、mp3の圧縮過程で捨てられるある種の情報は、脳内での音声の処理過程でもやはり捨てられる、みたいなそういう妄想が。

付録

脳の画像計測の時間空間分解能いろいろ。手元の本に載ってた文献情報から Google Book Search 経由で画像を取得。fMRIはどうも空間分解能に関してかなり優秀な部類に入るらしい。

Biological Psychiatry Vol.1 John Wiley & Sons (2002/9/20) p.156

関連エントリ

以前のエントリ。こちらは名詞をデコードするというものだった。