目前的开集场景理解算法可以有效地对名词指称的对象进行目标检测或实例分割,但如何理解动词指称仍是一片蓝海。因此,本文研究了面向特定任务的目标检测及实例分割问题,旨在从一幅图片中找出最适用于某一以动词描述的动作任务的物体。比如,您告诉机器人去寻找一个可以“用来挖洞”的东西,此算法就能帮您挑选一个最合适的。
为了解决这个问题,本文提出了TOIST,利用注意力机制自然地对多个可选物体之间的偏好关系进行建模,并提出了一种全新的名词-代词蒸馏框架。现在有很多成功的大规模视觉-语言预训练模型,但是他们只关注名词。本方法将名词指称模型中的知识蒸馏到代词媒介上,从而取得更好的动词理解效果。
论文链接:
https://arxiv.org/abs/2210.10775
代码链接:
https://github.com/AIR-DISCOVER/TOIST
一、研究背景
基于大规模视觉-语言预训练模型[1-3],名词指称理解模型取得了巨大的进步。如图1左上角所示,这些算法以名词作为输入,生成目标框或实例掩码。然而,在智能服务机器人等现实应用程序中,系统输入通常以动词短语的形式出现,现代视觉-语言模型能否有效理解动词指称仍未被探索。
为此,我们关注面向任务的检测问题。如图1右上角所示,算法框出桌上的餐叉,因为它们适合用来涂抹黄油的任务。为了提供更精细的定位,我们进一步将问题拓展到实例分割(图1底部),以服务于下游机器人交互应用。
名词指称理解数据集旨在减少歧义[4],而面向任务的检测或分割的一个有趣而具有挑战性的特点是我们必须面对甚至利用这种歧义。如图1底部所示,当我们想要站在某个物体上时,椅子是更好的选择,因为沙发比较软,桌子比较重因而难以移动。而当需要舒适地坐着时,沙发显然是最好的选择。总之,能够满足动词要求的物体是不确定的,算法需要建模物体间的偏好关系。
现有方法[5]采用两阶段流程:首先检测出所有物体,而后对物体进行排序。而我们基于Transformer架构提出了TOIST模型,利用注意力机制,在检测物体的同时自然地建模了候选对象之间的相对偏好关系。
由于Transformer需要大量数据训练[6-7],而获取大规模具有偏好关系的动词指称数据比较困难,我们进一步探索了利用名词指称模型中的知识的可能。具体而言,我们提出了从名词到代词的蒸馏框架,利用代词作为媒介,从通过聚类得到的名词特征原型中蒸馏知识,从而提升模型对动词的理解能力。
二、解决方法
TOIST模型架构
训练过程中,我们使用L1、GIoU[8],Dice/F-1[9]、Focal[10],soft-token、contrastive alignment[11]等损失函数来分别监督目标检测、分割、分类(建立物体和词语间的对应关系):
名词-代词蒸馏框架
我们同时训练两个TOIST模型,教师模型和学生模型的文本输入分别为动词-名词形式、动词-代词形式。名词-代词蒸馏包括两部分:聚类蒸馏和偏好蒸馏。
在推理阶段,学生模型直接利用最终的文本特征库生成聚类中心以替换代词特征。
从而实现对偏好程度的蒸馏。
三、实验结果
我们在COCO-Tasks数据集[5]上进行了实验。
结果表明,与现有方法相比,名词-代词蒸馏框架下的TOIST模型取得了SOTA结果,证明了该方法在面向任务的实例分割问题上的有效性。
从可视化结果(图4)中可以看到,TOIST甚至给出了一些比真实标签更准确的预测。如(b)中,没用物体被标注,但TOIST敏锐地检测到两个水瓶可以完成这项任务;(c)中,TOIST预测出比真实标签更准确的分割结果。
我们进一步从三个方面分析我们的架构设计。
注意力机制。为了证明TOIST中的注意力机制可以自然地建模偏好关系,我们训练了两个TOIST模型,唯一的区别在于其中一个模型在解码器中不包含自注意力层。如图5所示,从解码器各层的预测结果来看,随着解码器层数的增加,目标候选对象之间的偏好关系逐渐通过自注意力提取出来。
聚类蒸馏。关于蒸馏方法的消融实现表明聚类蒸馏可以提升学生TOIST模型的性能(CCR、CL相关两列)。从图6中,我们还可以看到,它能够使学生模型减少动词-代词指称的歧义(第一行),并能更好地对目标框中的像素进行分割(第二行)。
偏好蒸馏。图7展示了偏好蒸馏发挥作用的三种场景。(1)它使假阳性候选对象(棒球)的偏好程度低于筛选阈值(0.9)。(2)将假阴性对象(中间的餐勺)的偏好程度提升到筛选阈值以上。(3)将假阳性对象(餐叉)的偏好程度更新为低于真阳性对象(餐刀)的偏好程度(0.9822 > 0.9808 → 0.9495 < 0.9680)。
四、总结
本文研究了面向任务的实例分割问题,以探索对动词指称的理解。我们提出了一种基于Transformer架构的TOIST模型,该模型能够利用注意力机制自然地对多个可选物体之间的偏好关系进行建模。我们进一步提出了名词-代词蒸馏框架,通过名词教代词以促使模型理解动词。我们的算法在COCO-Tasks数据集上获得了SOTA结果。分析实验表明,我们的模型能够有效建模物体间的偏好关系,且名词-代词蒸馏框架行之有效。我们期望本文提出的思想和框架能够推进视觉-语言融合的指称理解领域的研究进展。如何有效实现对名词、代词、动词、形容词的一体化指称理解,将是一个值得继续探索的研究方向。
参考文献
[1] Weijie Su, Xizhou Zhu, Yue Cao, Bin Li, Lewei Lu, Furu Wei, and Jifeng Dai. Vl-bert: Pre-training of generic visual-linguistic representations. In International Conference on Learning Representations, 2019.
[2] Xiujun Li, Xi Yin, Chunyuan Li, Pengchuan Zhang, Xiaowei Hu, Lei Zhang, Lijuan Wang, Houdong Hu, Li Dong, Furu Wei, et al. Oscar: Object-semantics aligned pre-training for vision-language tasks. In European Conference on Computer Vision, pages 121–137. Springer, 2020.
[3] Aishwarya Kamath, Mannat Singh, Yann LeCun, Gabriel Synnaeve, Ishan Misra, and Nicolas Carion. Mdetr-modulated detection for end-to-end multi-modal understanding. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 1780–1790, 2021.
[4] Junhua Mao, Jonathan Huang, Alexander Toshev, Oana Camburu, Alan L Yuille, and Kevin Murphy. Generation and comprehension of unambiguous object descriptions. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 11–20, 2016.
[5] Johann Sawatzky, Yaser Souri, Christian Grund, and Jurgen Gall. What object should i use?-task driven object detection. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 7605–7614, 2019.
[6] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, 33:1877–1901, 2020.
[7] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth 16x16 words: Transformers for image recognition at scale. In International Conference on Learning Representations, 2020.
[8] Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, and Silvio Savarese. Generalized intersection over union: A metric and a loss for bounding box regression. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pages 658–666, 2019.
[9] Fausto Milletari, Nassir Navab, and Seyed-Ahmad Ahmadi. V-net: Fully convolutional neural networks for volumetric medical image segmentation. In 2016 fourth international conference on 3D vision (3DV), pages 565–571. IEEE, 2016.
[10] Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. Focal loss for dense object detection. In Proceedings of the IEEE international conference on computer vision, pages 2980–2988, 2017.
[11] Aishwarya Kamath, Mannat Singh, Yann LeCun, Gabriel Synnaeve, Ishan Misra, and Nicolas Carion. Mdetr-modulated detection for end-to-end multi-modal understanding. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 1780–1790, 2021.
作者:李鹏飞
Illustration by Iconscout Store from IconScout