线性代数的点积通俗解释

https://www.bilibili.com/video/av6731067/?p=10

这个线性代数的本质讲的非常好,就是不太懂,特别是点积这一块,看了不下7、8遍还是不能理解。查了一些资料,也就这个写的不错。

https://baijiahao.baidu.com/s?id=1628438855012550360&wfr=spider&for=pc

有一天早上突然有了感觉,现在记录一下,如果有错误请指正。

   我们已经知道矩阵其实就是一个函数,表示一种线性变换,如果向量和矩阵相乘表示,对这个向量做一些线性变换,就可以得到变换后的向量。如果矩阵乘以矩阵,就表示两个线性变换连续变换,就是相当于我们平常表示的f(g(x)),这种函数嵌套,举个例子,\begin{bmatrix} a & b\\c & d \end{bmatrix}\begin{bmatrix} e &f \\ g & h \end{bmatrix}\binom{x}{y}=\begin{bmatrix} a*e &b*g \\ c*f & d*h \end{bmatrix}\binom{x}{y}

那么可爱的向量点乘向量又是什么意思呢,向量点乘的前提是向量的维度一样。

\binom{a}{b}\cdot \binom{c}{d}=ac+bd

\begin{bmatrix} a & b \end{bmatrix}\cdot \binom{c}{d}=ac+db

我们可以看到向量的点积和向量乘以矩阵的计算方式是一样的,那么向量乘以矩阵是什么意思呢。

矩阵代表的是一种线性变换,所以这个变换就是把二维向量变成一维向量的线性变换。也就是把一个向量用二维向量表示变成用一个一维的数轴的数表示。a就是i变换后的结果,b就是j变换后的结果。

那么\binom{a}{b}和\begin{bmatrix} a & b \end{bmatrix}\begin{bmatrix} a & b \end{bmatrix}又是什么关系呢

我们使用向量作为线性变换后的数轴,那么线性变换用什么矩阵表示呢?

i是x的单位矩阵\binom{1}{0}

j是y的单位矩阵\binom{0}{1}

k是一个二维向量\binom{k_x}{k_y},但是如果看成一维数轴的话,k=1,数轴上的单位向量。

那么i对数轴的投影的长度=kx,j对数轴的投影长度=ky,所以k既可以当成二维向量来看也可以当成一个线性变换来看。

所以任何向量w点乘k,就是得到w在数轴上的投影的长度,就是w做线性变换(多维变一维)。

如果k换成任意向量p,那么p=\lambdak,所以

w\cdot p=\lambda (w\cdot k),\lambda=|p|的长度 ,w\cdot k=|w|*|k|*cos\Theta

w\cdot p=|p|*|w|*cos\Theta

 

所以向量点积就是向量多维变成一维的线性变换。。。

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章