1、神經網絡的本質是做線性變換(有激活函數就是非線性變換)。線性變換的本質就是:矩陣乘法。
2、因此,訓練和預測時,需要保證輸入的數據是矩陣形式。訓練時,batch*input_dim是二維。預測時,需要對輸入的tensor或者numpy增加一個維度。
3、list的加法+,本質是list合併,所以每個元素都應該是一個list。裏面的元素如果不是二維的numpy應該轉成二維numpy,這樣才能做矩陣乘法。
1、神經網絡的本質是做線性變換(有激活函數就是非線性變換)。線性變換的本質就是:矩陣乘法。
2、因此,訓練和預測時,需要保證輸入的數據是矩陣形式。訓練時,batch*input_dim是二維。預測時,需要對輸入的tensor或者numpy增加一個維度。
3、list的加法+,本質是list合併,所以每個元素都應該是一個list。裏面的元素如果不是二維的numpy應該轉成二維numpy,這樣才能做矩陣乘法。