「念じる」だけでロボットをあやつる
50年以上前に始まったBMI (Brain Machine Interface)の研究は、まずマウスやラットから始まり、徐々にサルへと進んでいきました。その後、安全性に十分に配慮しながら着実に研究は進んでおり、2012年の時点では人間の患者さんにおいて、念じるだけでロボットアームを動かし、ペットボトルの水を飲むことに成功しています。
最近では車椅子やロボットをあやつるだけでなく、考えていることを直接文章にしたり、他の人が見ている夢の内容を見たりすることもできるようになってきています。(p.p.43-45)
患者に短文を音読させ、その間の脳活動を記録するという一連の流れを繰り返すことで、人工知能は「こういうことを話しているときには、脳はこういった活動をする」という関係性を学習していきます。人工知能がこの対応づけをきちんと学習することができれば、その人工知能を逆方向に用いることで、その人の脳活動から文章を予測することができるようになります。
…そしてこの研究がさらにすごいのは、「文章を音読せずに頭の中で思い浮かべるだけで、その文章を予測できるようになった」という点です。これが可能になったのは「文章を音読しているとき」と「文章を声には出さずに思い浮かべているとき」の脳の活動が似ているからです。
最終的にこの研究では、「頭の中で考えていることを文章に翻訳する精度」が最大で97%に到達したと主張しています!(p.p.69-70)
先ほどの「考えていることを文章に翻訳する人工知能」のときと同じように、「こういう夢を見ているときにはこういう脳活動をしている」という関係をひたすら蓄積することで、人工知能は脳活動と夢との関係性を学習していきます。
人工知能が一度この対応づけを学習してしまえば、今度は逆に「脳がこういう活動をしているということは、この人はこういう夢を見ているはずだということが予測できるというわけです。
…この研究を行なった神谷先生らのチームは、最近は「頭の中にあるイメージをそのまま画像にする人工知能」を開発中です。(p.p.75-77)