Metaは2026年3月27日、画像・動画セグメンテーションモデル「Segment Anything Model(SAM)」の最新バージョン「SAM 3.1」を公開した。マルチプレキシング技術とグローバル推論を新たに導入し、リアルタイム映像における物体検出・追跡の高速化とアクセシビリティの大幅な向上を実現している。
マルチプレキシングで推論速度を飛躍的に改善
SAM 3.1の最大の技術的進歩は、マルチプレキシング(多重化)アーキテクチャの導入にある。従来のSAMでは各フレームを個別に処理していたが、SAM 3.1では複数のセグメンテーションタスクを同時並行で処理する仕組みを採用した。これにより、リアルタイム映像処理における推論速度が大幅に向上し、遅延を最小化したストリーミング解析が可能になった。
グローバル推論──映像全体を俯瞰した追跡
もう一つの注目機能が「グローバル推論」だ。個別フレーム単位ではなく、映像シーケンス全体のコンテキストを考慮した物体追跡を行う。これにより、遮蔽(オクルージョン)や急激なカメラ移動といった従来のトラッカーが苦手とするシナリオでも、安定した追跡精度を維持できるようになった。
動画セグメンテーションの新たなベンチマーク
SAM 3.1は、動画セグメンテーション分野の新たなベンチマークとなることが見込まれている。同モデルはオープンソースで提供され、研究者やデベロッパーが自由に活用・改変できる。自動運転、監視カメラ映像解析、スポーツ中継のリアルタイム分析、医療画像の時系列追跡など、幅広い応用が期待されている。
SAMシリーズの進化
バージョン | 主な特徴 | リリース年 |
|---|---|---|
SAM(初代) | 画像セグメンテーションの汎用基盤モデル | 2023 |
SAM 2 | 動画対応、プロンプタブルセグメンテーション | 2024 |
SAM 3 | 大規模動画処理の最適化 | 2025 |
SAM 3.1 | マルチプレキシング+グローバル推論 | 2026 |
MetaはSAMシリーズをコンピュータビジョンの基盤技術として位置づけており、今回のアップデートにより産業応用のハードルがさらに下がることが期待される。
参考ソース:

