Metaは2026年3月26日、fMRI(機能的磁気共鳴画像法)による脳活動を高精度に予測する基盤モデル「TRIBE v2」を公開した。700人以上の健常者データで訓練された同モデルは、従来手法の70倍の解像度を実現し、未知の被験者や言語に対するゼロショット予測を可能にする「脳のデジタルツイン」として注目を集めている。
TRIBE v2のイメージ(出典:Neuroscience News)
TRIBE v2の技術的特徴
TRIBE v2(Trimodal Brain Encoder v2)は、視覚・聴覚・言語の3つのモダリティに対応する予測型基盤モデルだ。画像、ポッドキャスト、動画、テキストなど多様なメディアに対する脳の反応パターンを予測できる。
2025年のAlgonauts脳モデリングコンペティションで優勝した初代TRIBEモデルをベースに、700人以上の健常ボランティアから収集したfMRIデータで訓練。従来のモデリング手法と比較して70倍の解像度向上を達成し、標準的なアプローチを一貫して上回る精度を実現した。
ゼロショット予測の実現
TRIBE v2の最大の特徴は、モデルの再訓練なしに新しい被験者・言語・タスクに対して脳活動を予測できるゼロショット能力だ。従来の手法では被験者ごとに個別のキャリブレーションが必要だったが、TRIBE v2は未知の個人に対しても従来手法の2〜3倍の精度で予測を行える。
研究・医療への応用可能性
このモデルは神経科学研究の加速に貢献する可能性がある。人間の被験者を繰り返しfMRIスキャンに参加させる必要性を減らし、計算による仮説検証を迅速に行えるようにする。また、神経疾患の臨床治療開発や、神経科学の知見をAI開発にフィードバックする研究にも応用が期待される。
オープンな公開方針
Metaは研究論文、モデルの重み、コードベースをCC BY-NC(非商用)ライセンスで公開。インタラクティブなデモサイトやGitHubリポジトリも提供し、研究コミュニティによる活用を促進している。
留意点
TRIBE v2は研究用途に限定されており、直接的な臨床応用にはさらなる検証が必要だ。また、脳活動予測技術にはプライバシーや倫理面での議論も伴う。非商用ライセンスでの公開は、技術の責任ある普及を意図したものと考えられる。

