对抗样本综述学习笔记:Adversarial Examples: Attacks and Defenses for Deep Learning

(持续更新)

一、相关优质博客

1.全面入门
2.直观理解原理
3.
4.

二、论文细节知识点

  • 1.hessian矩阵(表一):hessian矩阵实际上就是函数的二阶导矩阵
    Hessian矩阵在机器学习中的应用(拓展):即hessian矩阵能来找极值点
  • 2.RNN简单介绍
  • 3.自编码器简单介绍:个人理解为类似无监督的学习算法,让机器训练出能保留原始数据较好特征的权值矩阵,然后每次训练当前层都先采用上一层的得到的权值矩阵。自编码器通常被用于降维或特征学习。本文里提到这是一种加解密的模型,目的是使输入和输出的差异减小,可用于压缩/解压任务。
  • 4.基本的GAN介绍里包括WGAN:改进损失函数,提供训练指标;
    GAN进一步的原理解释就是:以下摘自博主「JensLee」
    首先这个网络模型(定义在上面),先传入生成器中,然后生成器生成图片之后,把图片传入判别器中,标签此刻传入的是1,真实的图片,但实际上是假图,此刻判别器就会判断为假图,然后模型就会不断调整生成器参数,此刻的判别器的参数被设置为为不可调整,d.trainable=False,所以为了不断降低loss值,模型就会一直调整生成器的参数,直到判别器认为这是真图。此刻判别器与生成器达到了一个平衡。也就是说生成器产生的假图,判别器已经分辨不出来了。所以继续迭代,提高判别器精度,如此往复循环,直到生成连人都辨别不了的图片。

三、论文内容节选

1.表一:(私:LaTeX练习输入)

符号 定义
xx 没有修改、处理过的原始数据输入
ll 分类问题中的标签,l=1,2,,ml=1,2,···,m。其中mm是类别数
xx' 对抗样本,即修改后的数据输入
ll' 在针对性对抗样本中敌手的分类标签
f()f(·) 深度学习模型(对于图像分类任务来说,fF:Rnlf\in F:\mathbb{R}^n\rightarrow l)
θθ 深度学习模型ff的参数
J()J(·) 损失函数
ηη 原始的输入数据和修改后输入数据的差异: η=xxη=x'-x (输入的数据是相同的尺寸)
p\left\|·\right\|_p lpl_p范数
\nabla 梯度
H()H(·) 海森矩阵,二范数的一个拓展
KL()KL(·) Kullback-Leibler (KL) 散度函数
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章