潜在空间:就是瓶颈层,该空间包含了所有隐变量。潜在空间就是得到的最小特征存在的空间。潜在值就是得到的最小特征,为了可视化,会将潜在向量(隐变量)减小到二维
特点
无监督的神经网络
学会如何用特征还原数据
通过学习,忽略数据中的噪声,来减小数据尺寸
我感觉就是:输入一张图片->先提取特别多的特征->从特征中继续提取,但是比之前的少->重复个多次->得到最小能表示特征的矩阵->通过这个特征不断还原回去,从小到大->得到重建的图像。
自编码器包括4个部分
1- 编码器:模型学习如何减小输入尺寸并将输入数据压缩为编码表示形式。
2- 瓶颈(Bottleneck):这是包含输入数据压缩表示的层。这是输入数据的最小尺寸。神经元的数目是最少的
3- 解码器:模型学习如何用编码重建数据,使其尽可能接近原始输入。
4- 重建损失:这是一种测量解码器性能的方法以及输出与原始输入的接近程度的方法。
损失函数
用均方误差或交叉熵
总结
自编码器类型 | 简介 |
---|---|
普通自编码器 (Vanilla) |
降维得到最小特征,然后直接根据特征还原 |
稀疏自编码器 (Sparse [spɑːrs]) |
作用:跟自编码器效果一样,效果更好 特点:在自编码器的基础上加上L1正则限制,就是稀疏自编码器 |
去噪自编码器 Denoising |
作用:去噪 特点:输入数据后,给数据加噪,然后喂给模型 |
变分自编码器 Variational |
作用:生成数据、图像 特点:潜在空间是连续的,可以轻松地进行随机采样和插值; 损失函数中引入KL散度; 可以处理顺序或非顺序数据、连续或离散数据; |