AAAI 2023 | 小鹏汽车纽约石溪:在末层激活上作对抗训练的域自适应

2023-03-01 20:43 399 阅读 ID:833
将门
将门

增强未标记目标域数据的模型预测置信度是无监督域自适应(UDA) 的一个重要目标。在本文中,作者探讨了末层激活(即最后一层线性分类层输入特征)的对抗训练。文章表明,与先前工作中使用的对输入图像或中间特征作对抗训练相比,该策略更有效,并且与提高预测置信度的目标相关性更强。此外,当模型存在激活归一化时,作者提出了两个方法变种,并系统地分析了归一化对方法中对抗训练的影响。这在理论上和实际域自适应任务的实验中都得到了印证。作者考虑了标准设置和无源域数据设置,在常用的UDA数据集上进行了广泛的实验,验证了文中方法的有效性。

论文题目:Domain Adaptation with Adversarial Training on Penultimate Activations

论文链接:https://arxiv.org/pdf/2208.12853.pdf
代码链接:https://github.com/tsun/APA  

在域自适应中,虚拟对抗训练(VAT)常被引入以提高模型的局部平滑性,其主要思想是迫使模型在原始的和受扰动的图像上得到相近的预测结果。尽管如此,VAT通常只用作一个辅助损失函数,单独使用VAT无法获得理想的性能。同时,VAT为了获取梯度方向需要对整个网络进行一次额外的反向传播,这增加了计算成本。

这些观察启发了作者寻求更有效的对抗训练方式用于解决UDA问题。在UDA中,训练过程常被划分为源域训练和目标域适应两个阶段。作者发现,由于两个域相关,在第二阶段线性分类层变化缓慢。因为主要目标是增强未标记目标域数据的模型预测置信度,作者提出在末层激活上作对抗训练,这相比于在其他层作对抗训练与上述目标关联更强。针对UDA中经常对激活做L2归一化以减少域间隔,作者提出了两个方法变种,并系统分析了归一化对方法中对抗训练的影响,探讨了对抗损失函数相应梯度的“收缩效应”。文中还分析了对抗扰动、激活相应梯度和实际激活变化量三者在域适应任务中的相关性。

本文的贡献包括:

1. 提出了一个基于末层激活作对抗训练的UDA框架;

2. 系统地分析了它与先前在输入图像或中间特征上作对抗性训练的关联和优势;

3. 通过广泛实验验证了文中方法在标准设置和无源数据设置下的优越性能。

一、 本文方法

1.1 背景工作

虚拟对抗学习(VAT)在未标记数据上作对抗训练,常用于增强半监督学习中模型局部光滑性,其目标是:

1.2 在末层激活上进行对抗训练

两阶段训练流程:与之前的工作一致,文中将训练过程分为源域训练阶段和目标域适应阶段。在第一阶段,模型仅在源域数据上利用标准交叉熵进行训练;在第二阶段,使用目标域数据(以及可用的源域数据)将获得的源域模型适配到目标域。本文工作旨在第二阶段利用对抗训练增强未标记目标域样本的预测置信度。

二、方法分析

2.1 相对于在输入图像或中间特征作对抗训练的优势

比较上述两式,损失函数值是一致的。然而计算图不同导致反向传播是不同的。图3显示,使用映射之后的损失函数训练可以显著提高模型精度。

    图3:(上)将不同强度的输入图像扰动映射到末层激活;(下)将不同的中间层扰动映射到末层激活。

2.2 APA方法的解释

图4:(左)对抗扰动、激活梯度和实际激活变化量图示;(右)在两个UDA任务训练过程中,三个量的平均余弦相似度。

2.3 激活归一化条件下的“收缩效应”

                                                    图5:Office Home上的APA变体的比较。
                            图6:扰动大小ε 对 Office-Home 的影响。(*) 经过损失函数放大补偿。

三、实验

作者使用Office-Home, VisDA-2017,DomainNet等常用UDA数据集,对比标准UDA方法、针对标记分布不一致场景的域适应方法以及无源域数据的域适应方法。文中还对比了熵最小化、互信息最大化(MI)、VAT和FixMatch(FM)等常用的自训练损失函数。

四、分析

激活归一化的效果:如图7所示,使用激活归一化可以一致地提升所有任务上的性能。当域间隔较大时(例如精度较低的任务),性能增益最显著。这验证了激活归一化可以使源域和目标域数据分布更接近,从而减少自训练中累积误差的影响。

                         图7:使用激活归一化(实心标记)和不使用归一化(空心标记)的比较。

与其他自训练损失函数的比较:为了公平对比,作者在和APA相同的框架和超参数下进行实验,结果列于表6。其中,FixMatch和SENTRY需要额外的随机目标域样本数据增强。文中的方法在所有数据集上都获得了最佳分数。

                                                         表6:与其他自训练损失函数的比较。

冻结分类器的效果:在之前的实验中,作者允许分类器的参数在自适应阶段进行更新。尽管如此,特征空间中的分类器和相应的决策边界变化通常可忽略。之前的一些工作在自适应阶段选择冻结分类器,表7显示这两种策略在文中的方法中表现相当。

                                                                     表7: 冻结分类器的效果。

超参数的灵敏性:APA主要涉及两个超参数,扰动大小 ε 和对抗损失函数权重 
β。注意到归一化前末层激活的平均范数约为30。图6中特意给出了相对大扰动下的结果以显示方法鲁棒性。图8表明本文方法对β不敏感。  

五、结论

本文探讨了UDA中对末层激活作对抗训练以提高模型在无标记目标域数据上的置信度,通过与在输入图像和中间特征上作对抗训练进行比较,显示了本文方法优势。在激活归一化情形下,作者提出两个方法变种,并在标准设置和无源域数据设置下进行了广泛的实验,展现了优异的性能。本文工作表明,对抗训练是UDA任务中的一个强有力策略。

作者:吕骋

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn