OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  论文  ›  abs/2304.02643v1

Segment Anything:通用可提示分割模型,推动视觉基础模型落地

 
  available ·  2026-03-22 11:01:27 · 7 次点击  · 0 条评论  

Segment Anything

作者: Alexander Kirillov, Eric Mintun, Nikhila Ravi, Hanzi Mao, Chloe Rolland, Laura Gustafson, Tete Xiao, Spencer Whitehead, Alexander C. Berg, Wan-Yen Lo, Piotr Dollár, Ross Girshick

提交日期: 2023年4月5日

主题分类: 计算机视觉与模式识别 (cs.CV); 人工智能 (cs.AI); 机器学习 (cs.LG)


摘要:

我们介绍了 Segment Anything (SA) 项目:这是一个用于图像分割的新任务、新模型和新数据集。我们利用高效的模型在数据收集循环中,构建了迄今为止(远超以往)最大的分割数据集,包含超过 10 亿个掩码,覆盖 1100 万张获得许可且尊重隐私的图像。该模型被设计和训练为可提示的,因此它可以零样本迁移到新的图像分布和任务中。我们在众多任务上评估了其能力,发现其零样本性能令人印象深刻——通常与先前完全监督的结果相当甚至更优。我们正在发布 Segment Anything 模型 (SAM) 以及包含 10 亿个掩码和 1100 万张图像的对应数据集 (SA-1B),网址为 https://segment-anything.com,以促进计算机视觉基础模型的研究。

项目网页: https://segment-anything.com

7 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 18 ms
Developed with Cursor