Bendi新闻
>
NeurIPS 2023 | 港科大&华为提出CoDA:开放词汇3D目标检测新网络

NeurIPS 2023 | 港科大&华为提出CoDA:开放词汇3D目标检测新网络

10月前

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【CV技术和求职】交流群

扫码加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,以及最前沿项目和应用!发论文搞科研,强烈推荐!

CoDA: Collaborative Novel Box Discovery and Cross-modal Alignment for Open-vocabulary 3D Object Detection

论文地址:https://arxiv.org/pdf/2310.02960

Github:    https://github.com/yangcaoai/CoDA_NeurIPS2023

研究背景:

计算机视觉中的3D目标检测 (3D Object Detection)是一项重要而具有挑战性的任务,在自动驾驶、工业制造和机器人等领域有着广泛的应用。然而,传统的3D目标检测方法通常依赖于预定义的已知类别(Base Categories)集合,无法有效处理新类别物体的检测,但在实际应用场景中通常会出现新物体类别(Novel Categories),导致传统3D目标检测出错。为了解决这一关键问题,开放词汇3D目标检测(Open-Vocabulary 3D Object Detection)开始得到关注。开放词汇3D目标检测模型可以在应用(测试)场景中,灵活地调整要检测的类别列表和检测新类别,更加贴近实际场景。如Fig. 1所示,开放词汇3D目标检测模型CoDA只由绿色框label训练,但可以检测到蓝色框标注的物体。目前开放词汇3D目标检测这个研究方向刚刚发展,研究空间大。   

该NuerIPS2023论文专注于开放词汇3D目标检测,提出了一种名为CoDA的协同式新物体发掘与跨模态对齐方法(Collaborative Novel Box Discovery and Cross-modal Alignment),以在训练中同时学习对新类别物体的定位和分类。首次在不引入2D物体检测模型的前提下实现了开放词汇3D目标检测,检测效果在SUN-RGBD上超过其他方法80%以上。该研究工作的代码和模型已全部开源在https://github.com/yangcaoai/CoDA_NeurIPS2023

主要贡献:

本论文的主要贡献如下:

提出了端到端的开放词汇3D检测框架CoDA,该框架通过设计协同式3D新物体发掘(3D Novel Object Discovery)与发掘驱动的跨模态对齐方法(Discovery-driven Cross-modal Alignment)解决了开放词汇3D目标检测中对新类别物体进行定位和分类问题。

设计了3D Novel Object Discovery (3D-NOD)模块,通过利用3D几何先验和2D开放语义先验,实现了对新类别对象的定位。    

设计了Discovery-Driven Cross-Modal Alignment (DCMA)模块:基于3D-NOD发现的新物体,对3D点云、2D图像、文本之间进行跨模态对齐,实现了对新类别对象的分类。

在两个具有挑战性的数据集SUN-RGBD和ScanNet上进行了广泛的实验评估,验证了CoDA框架的效果优势。

框架:

CoDA框架由以下关键组件组成:3D Novel Object Discovery (3D-NOD)模块、Discovery-Driven Cross-Modal Alignment (DCMA)模块。一方面,3D-NOD模块利用3D几何先验和2D开放语义先验生成新对象的伪标签,以实现对新类别物体的定位。另一方面,DCMA基于3D-NOD发现的新物体,对3D点云、2D图像和文本进行跨模态对齐,实现了对新类别物体的分类。    

技术细节:

3D Novel Object Discovery (3D-NOD):

在3D-NOD模块中,利用3D几何先验和2D开放词汇语义先验生成新类别的伪标签。具体而言,3D检测器的定位头(Localization head)预测3D box,然后基于相机参数将3D box映射到2D图像上的2D box,取出对应的2D物体区域,再通过CLIP的image encoder得到2D image features,继而和CLIP的text encoder输出Open Categories的text features计算相似矩阵,以得到2D开放词汇语义先验。同时,3D检测器的分类头(Classification head)会输出3D几何先验(分类头预测的objectness得分)。当2D开放词汇语义先验和3D几何先验

都超过阈值,并且和已知物体标签的IoU小于0.25,则认定该物体为新类别物体,并更新到novel label pool里。随着训练,novel label pool和模型都得到了迭代式的更新。

Discovery-Driven Cross-Modal Alignment (DCMA):    

DCMA模块基于novel label pool,通过类别匿名的特征蒸馏(Class-Agnostic Distillation)和类别特定的特征对齐(Class-Specific Contrastive Alignment),在更广的语义上进行跨模态对齐。详细而言,每个object query会预测得到(3D box,3D objectness, 3D object features)。在Class-Agnostic Distillation Module,每个3D box会映射到2D图像上的2D box,再取出对应的2D物体区域,继而输入到CLIP Image Encoder中得到2D object features,然后对该2D object features和与之对应的3D object features计算蒸馏loss(L1 loss),到此实现了3D和2D features的对齐。在Class-Specific Contrastive Alignment Module中,会把预测的3D box与novel label pool里的伪label和人工标注的已知类别label进行二分图匹配(Bipartite Matching),以此为该3D box匹配到类别text标签,再对3D features和text features进行contrastive loss,到此实现了3D和text features对齐。综上所述,DCMA实现了3D、2D和text features之间的对齐。    

消融实验:

围绕着CoDA的两个核心创新点3D-NOD和DCMA,该论文做了一系列消融实验,如Tab. 1所示,相对于3DETR+CLIP的朴素的开放词汇检测方法,CoDA取得了显著的提升。当去掉3D-NOD时,效果显著下降,证明了3D-NOD本身带来了显著提升。当把DCMA替换成朴素的跨模态对齐时,3D-NOD+DCMA的效果有显著优势,证明了DCMA相对于其他对齐的优越性。   

在训练过程中,该论文持续监控评测了中间模型的检测效果。可以看到在进入3D-NOD阶段后,Novel类别的AP和AR都得到了显著提升,显示了3D-NOD的有效性。

实验结果:

本研究在两个具有挑战性的3D数据集SUN-RGBD和ScanNet进行了广泛的实验评估。在Tab. 4和Tab. 5可以看到,CoDA框架对Novel类别和已知类别(Base Category)的检测取得了显著的性能优势。从Fig. 4和Fig. F中,CoDA能够准确检测到蓝色框框住的Novel category物体,同时对绿色框框住的Base category物体的检测也更加准确。

结论:

本论文提出的CoDA包含了协同式新物体发掘与跨模态对齐方法(Collaborative Novel Box Discovery and Cross-modal Alignment),解决了开放词汇3D目标检测中的Novel类别物体定位和分类问题。实验证明,CoDA在Novel类别检测上具有显著的性能优势。未来,可以进一步改进CoDA框架,比如采用更强的检测框架、更强的2D开放词汇模型等思路,提高其在更复杂场景和真实应用中的鲁棒性和泛化能力。

在CVer微信公众号后台回复:论文,即可下载论文pdf和代码链接!快学起来!

点击进入—>【CV技术和求职】交流群

3D目标检测交流群成立

扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-3D目标检测微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如3D目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

来源:CVer

相关新闻

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响雷军谈理想 MEGA:很多公司目标定得过大/iPhone 16 新机模图曝光五种配色/网络主播正式成为国家新职业性能大涨20%!中科大「状态序列频域预测」方法:表征学习样本效率max|NeurIPS 2023 Spotlight华为:2024充电网络产业十大趋势白皮书ECCV 2024 Oral 满分论文!SpikeYOLO:高性能低能耗目标检测网络港大鲁教授1v1科研:基于深度神经网络的控制器设计提升房价预测准确性!论文一作详解:神经网络为房价的空间异质性提供新解释ECCV 2024 | 满分Oral论文!整数训练脉冲推理的高性能低能耗目标检测网络智赋家企,网络为先:锐捷一小步能否成为行业一大步智算中心改造:网络成大模型训练瓶颈,节点内外多架构并存FreeBuf:2023中国网络安全行业全景册第六版1670 亿、网络安全大收购:黄了。。。AIGC大模型:对网络的5大关键需求ECCV 2024 | SparseOcc:纯稀疏3D占用网络和RayIoU评估指标CVPR 2024|Adobe提出人像抠图新网络MaGGIe东北大学:2023年工业控制网络安全态势白皮书NeurIPS 2023 & MICCAI 2023:可兼容软标签的语义分割损失函数上交提出TrustGAIN,提出6G网络中可信AIGC新模式!CVPR 2024 大核卷积杀回来了!101x101大核!PeLK:高效大核卷积网络纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023网络主播被认定成新职业:1500万从业者不是“不务正业”2024WAIC世界人工智能大会|锐捷网络:助力AI新时代,探索智算网络新机遇CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet4000 万大单:服务器、业务系统、网络安全设备、数字孪生等
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。