近日,Meta官方博客宣布,推 出 新 AI模 型 SegmentAnythingModel(SAM)分割一切模型,提出能够对任何图像或视频中的任何物体进行识别、图像分割和一键抠图。此外,华为云AI领域首席科学家田奇在中国人工智能大模型技术高峰论坛上提出,未来随着盘古系列大模型落地,AI视觉在下游应用中会加速渗透。
业内人士表示,目前SAM模型及数据集均为开源,可以灵活集成于更大的AI系统,随着SAM的演进与发展,该技术可能会成为工业质检、AR/VR、自动驾驶、卫星遥感等多领域的强大的辅助工具,看好SAM等图像分割模型在机器视觉中的应用。
(相关资料图)
事件驱动 Meta推出SAM模型
4月6日,Meta宣布推出Segmen-tAnything工具,SAM可准确识别图像中的对象,可以识别图像和视频中的单个物体,甚至是训练中没有遇到的物体。除此之外,Meta还发布了SegmentAnything1-Bilionmask数据集(SA-1B),这更是有史以来发布的最大分割数据集。开发者可以在SAM模型技术上,开发出功能更强大、影响范围更广的人工智能,应用于各种领域。
目前为特定用例创建准确的分割模型是大多数AI无法完成的任务,因为它需要技术专家进行高度专业化的工作,并需要获得极其强大的AI训练基础设施和大量有注释和特定领域的数据集,而Meta表示,上述难题都是SAM和SA-1B能够克服的问题,通过减少对特定任务的建模专业知识、训练计算和定制数据注释的需求来帮助研究人员。
英伟达人工智能科学家JimFan表示,此次SAM最大的一点突破是它已经基本能够理解“物品”的一般概念,即使对于未知对象、不熟悉的场景都能比较准确的理解,因此他表示,相信SAM的出现会是在计算机视觉领域里的GPT-3时刻。
MetaSAM模型的推出引发市场对计算机视觉的关注,而机器视觉和计算机视觉关系紧密。机器视觉技术,是一门涉及人工智能、神经生物学、心理物理学、计算机科学、图像处理、模式识别等诸多领域的交叉学科。机器视觉主要用计算机来模拟人的视觉功能,从客观事物的图像中提取信息,进行处理并加以理解,最终用于实际检测、测量和控制。
继Meta发布SAM后,智源研究院视觉团队推出通用分割模型SegGPT(Seg-mentEverythingInContext)。与SAM的精细标注能力相比,SegGPT模型更偏重于批量化标注分割能力,无论是在图像还是视频环境,用户在画面上标注识别一类物体,即可批量化识别分割出其他所有同类物体。从测试结果看,研究人员在广泛的任务上对SegGPT进行了评估,包括少样本语义分割、视频对象分割、语义分割和全景分割,结果显示SegGPT模型同样展现出强大的零样本场景迁移能力,并在COCO和PASCAL等经典CV数据集上取得最优性能。
行业前景 国产机器视觉成长提速
计算机视觉是指用摄像机和计算机代替人眼对目标进行识别、跟踪和测量等,通过计算机实现人的视觉功能,对客观世界的三维场景的感知、识别和理解,通常有仿生学和工程两类方法。计算机视觉自20世纪40年代萌芽,历经三次浪潮,自2006年Hinton在神经网络的深度学习领域取得突破后,实现飞速发展。计算机视觉下游应用广泛,可通过人脸识别、视频监控处理、网络图像分析、测温通行、人机交互等功能垂直赋能各行各业,使用场景包括智慧城市、智慧零售、智慧医疗、智能驾驶、智能家居、工业制造等。
机器视觉可以被认为是工业化的计算机视觉,在工业领域,计算机视觉为机器视觉提供软件算法,而机器视觉提供传感器模型,系统构造等,可广泛应用于3C电子制造、锂电池、光伏、半导体等行业。
根据咨询机构弗若斯特沙利文数据,我国计算机视觉市场规模一直保持逐年增长,从2018年的79亿元增长至2020年的167亿元,年均复合增长率达45.39%,预计2022年我国机器视觉市场规模将进一步增长至351亿元。根据高工机器人产业研究所(GGII)统计数据,我国机器视觉市场国模有望从2021年的107.8亿元增长至2025年的311.57亿元,CAGR高达30.4%。
值得一提的事,政策支持叠加应用端拓展,国产机器视觉成长提速。一方面,我国《“十四五”智能制造发展规划》中提到,要大力发展智能制造装备,推动先进工艺、信息技术与制造装备深度融合,产业链自主可控需求推动本土机器视觉厂商持续自主创新、缩小与海外龙头的实力差距;另一方面,全球人工智能经济持续发酵,AI应用端市场多点开花并加速落地,在“AI+”、“工业4.0”和“中国制造2025”背景下,智能工厂、智能制造成为工业发展大趋势,在机器视觉方面率先实现自主技术创新突破的国产厂商有望充分受益。
标签: