关于对抗训练的记录

最近看了一些关于对抗训练的论文,作一些笔记以备以后可以查看回顾。

现实中的时间序列或图像,往往都是连续的。而我们输入到模型中的数据,往往是不连续的。连续的输入往往能产生较好的模型泛化能力。因此,有人提出在输入中加入微小扰动试图使模型更好的对抗噪声扰动。[1]提出fast gradient sign method来生成对抗样本,将对抗样本的损失加入到原有的损失函数,进行训练,可以使模型更好的对抗扰动。

fgsm:

关于对抗训练的记录

关于对抗训练的记录

[2]提出了LDS,local distributional smoothness, vat即虚拟对抗训练以此为基础。与传统的对抗训练不同的是,该算法是半监督训练算法,可以只使用小部分标签就可以完成模型的训练。传统的对抗训练,主要将添加噪声后模型的输出与标签计算分布差异。

关于对抗训练的记录

而LDS中将数据标签替换为原始数据输入到模型中的输出概率,与加入噪声的原始数据输入到模型中的输出概率进行分布差异计算。最终损失函数如下所示。

关于对抗训练的记录

通常分布差异采用kl散度进行计算。由于当噪声为0时,两者分布差异为0,因此可以将在0点进行二阶泰勒展开

关于对抗训练的记录

将海森矩阵转为主特征向量,因此对抗噪声求解为

关于对抗训练的记录

为了求解海森矩阵的特征向量,采用近似求解[4]

关于对抗训练的记录

关于对抗训练的记录

关于对抗训练的记录

最终求解的噪声即为

关于对抗训练的记录

Vat需要三次正向与反向传播,最后算法如下[3],其中最后一步计算导数时,忽略了对噪声的求导,实验证明可以产生更有效的正则。

关于对抗训练的记录

对抗训练与虚拟对抗训练目前常见于图像训练中,[5]提出将其应用于半监督文本分类中,采用lstm模型,在输入中加入对抗噪声会虚拟对抗噪声,最终可以降低分类器错误率。

  1. EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES
  2. Distributional Smoothing with Virtual Adversarial Training
  3. Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning
  4. Eigenvalue computation in the 20th century.
  5. virtual adversarial training for semi-supervised text classification