東京を拠点とするAIスタートアップSakana AIが開発した自律研究システム「AI Scientist」の成果をまとめた論文が、2026年3月25日にNature誌に掲載された。AIが研究テーマの立案から論文の執筆、査読の通過までを一貫して行ったことが確認された初の事例として、学術界で大きな注目を集めている。
AI Scientistのツリー探索プロセス(出典:Ledge.ai)
研究プロセス全体を自動化するシステム
AI Scientistは、研究アイデアの生成、関連文献の検索、実験コードの作成と実行、結果の分析・可視化、LaTeX形式での論文執筆、そして査読評価までを人間の介入なしに行う自律型パイプラインである。システムにはOpenAI o3(アイデア生成)、Anthropic Claude Sonnet 4(コード生成)、GPT-4o(画像認識)、o4 mini(査読)など複数のAIモデルが組み合わされている。
ICLR 2025ワークショップで査読を通過
研究チームはAI Scientistを用いて161のアイデアを生成し、そこから人間の研究者が3つを選定。30回の実験と37本の完全な原稿を経て、最終的に3本の論文をICLR 2025のワークショップに投稿した。査読の結果、平均スコア6.33(個別スコア:6、7、6)を獲得し、43本の投稿中上位45%に入る評価を受けた。なお、プロトコルに従い論文はその後撤回されている。
1本あたり約15時間・約140ドルのコスト
査読を通過するレベルの論文1本を生成するために必要なリソースは、約15時間と約140ドルと報告されている。基盤モデルの性能向上に伴い生成論文の品質も比例して向上する「スケーリング則」が確認されたことも重要な知見だ。
品質面の課題も指摘
一方で、独立した評価では42%の実験がコーディングエラーで失敗していたこと、引用数が平均5件と少なくその多くが2020年以前の文献であること、架空の著者名や図表の欠落といった「ハルシネーション」も確認されている。ある評価者はその品質を「締め切り直前に急いで書いた学部生レベル」と表現している。
学術界への影響と今後の課題
AI Scientistの成果はAI駆動の研究自動化の可能性を実証したが、同時に科学文献の質をどう維持するかという課題も浮き彫りにしている。arXivには毎月数百本のAI生成論文がコンピュータサイエンス分野に投稿されており、学術的誠実性の確保は喫緊の課題となっている。
本研究にはブリティッシュコロンビア大学、Vector Institute、オックスフォード大学が共同研究機関として参加。主要研究者のJeff Clune教授(UBC)らは、この技術が研究の探索と変革を加速する可能性があるとしつつ、倫理的・社会的な議論の必要性も強調している。

