Segment Anything Model
Segment Anything Model (ou SAM) est un modèle d'intelligence artificielle développé par Meta dédié à la détection, la segmentation et le suivi d'objets dans les images et les vidéos, à partir de texte, d'exemples et d'indications visuelles. SAM est par exemple capable, à partir d'un texte donné, de créer des masques autour d'objets ou personnages, ce qui peut avoir de nombreuses applications en réalité augmentée, en compositing, ou plus largement pour les modèles d'intelligences artificielles. Lancé en v1 en avril 2023[1], SAM est présenté comme en modèle de fondation pour la segmentation d'image[2]. Il passe en V2 en juillet 2024 puis en v3 en novembre 2025[3]. Il est publié sous licence Apache 2.0.
SAM 3 dispose de deux sous-modèles : SAM 3D Objects, qui permet la reconstruction d'objets et de scènes, et SAM 3D Body qui produit des estimations du corps humain et de sa forme. Ces deux modèles permettent de transformer des images 2D statiques en reconstructions 3D détaillées[4].
Liens externes
[modifier | modifier le code]- Site officiel
- Segment Anything sur Github
Références
[modifier | modifier le code]- ↑ (en) Alexander Kirillov et Eric Mintun, « Segment Anything », sur arXiv.org, (consulté le )
- ↑ (en-US) Maximilian Schreiner, « Metas "Segment Anything" is the GPT-3 moment for computer vision », sur THE DECODER, (consulté le )
- ↑ (en-US) Matthias Bastian, « Meta's new open-source model SAM 2 could be the "GPT-4 moment" for computer vision », sur THE DECODER, (consulté le )
- ↑ (en) « Introducing SAM 3D: Powerful 3D Reconstruction for Physical World Images »
, sur Meta AI, (consulté le )
