一个准则:按照单变量求导来做,然后调整下维数就可以了。 比如 对矩阵的求导,结果一定是和矩阵维数一致才对
今天早上遇到@tornadomeet在deep learning高质量群里问:一个列向量对一个列向量求导的结果,也就是下面的第一个公式:Y = A * X --> DY/DX = A’。我这才意识到矩阵里的很多知道又忘了,这些东西一旦不用,忘了就很快。矩阵和概率论的东西真心很重要,下面分享别人的成果,希望你可以证明出来。
在网上看到有人贴了如下求导公式:
Y = A * X --> DY/DX = A’
Y = X * A --> DY/DX = A
Y = A’ * X * B --> DY/DX = A * B’
Y = A’ * X’ * B --> DY/DX = B * A’
于是把以前学过的矩阵求导部分整理一下:
-
矩阵Y对标量x求导:
相当于每个元素求导数后转置一下,注意M×N矩阵求导后变成N×M了
Y = [y(ij)] --> dY/dx = [dy(ji)/dx]
-
标量y对列向量X求导:
注意与上面不同,这次括号内是求偏导,不转置,对N×1向量求导后还是N×1向量
y = f(x1,x2,…,xn) --> dy/dX = (Dy/Dx1,Dy/Dx2,…,Dy/Dxn)’
-
行向量Y’对列向量X求导:
注意1×M向量对N×1向量求导后是N×M矩阵。
将Y的每一列对X求偏导,将各列构成一个矩阵。
重要结论:
dX’/dX = I
d(AX)’/dX = A’
-
列向量Y对行向量X’求导:
转化为行向量Y’对列向量X的导数,然后转置。
注意M×1向量对1×N向量求导结果为M×N矩阵。
dY/dX’ = (dY’/dX)’
-
向量积对列向量X求导运算法则:
注意与标量求导有点不同。
d(UV’)/dX = (dU/dX)V’ + U(dV’/dX)
d(U’V)/dX = (dU’/dX)V + (dV’/dX)U’
重要结论:
d(X’A)/dX = (dX’/dX)A + (dA/dX)X’ = IA + 0X’ = A
d(AX)/dX’ = (d(X’A’)/dX)’ = (A’)’ = A
d(X’AX)/dX = (dX’/dX)AX + (d(AX)’/dX)X = AX + A’X
-
矩阵Y对列向量X求导:
将Y对X的每一个分量求偏导,构成一个超向量。
注意该向量的每一个元素都是一个矩阵。
-
矩阵积对列向量求导法则:
d(uV)/dX = (du/dX)V + u(dV/dX)
d(UV)/dX = (dU/dX)V + U(dV/dX)
重要结论:
d(X’A)/dX = (dX’/dX)A + X’(dA/dX) = IA + X’0 = A
-
标量y对矩阵X的导数:
类似标量y对列向量X的导数,
把y对每个X的元素求偏导,不用转置。
dy/dX = [ Dy/Dx(ij) ]
重要结论:
y = U’XV = ΣΣu(i)x(ij)v(j) 于是 dy/dX = = UV’
y = U’X’XU 则 dy/dX = 2XUU’
y = (XU-V)’(XU-V) 则 dy/dX = d(U’X’XU - 2V’XU + V’V)/dX = 2XUU’ - 2VU’ + 0 = 2(XU-V)U’
-
矩阵Y对矩阵X的导数:
将Y的每个元素对X求导,然后排在一起形成超级矩阵。
以上并非小虫原创,实际上小虫也正在理解这个问题,因此如有不对的地方,并非小虫之责
————————————————
版权声明:本文为CSDN博主「wbglearn」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/wbgxx333/article/details/22992977