原创 python @函數裝飾器及 @classmethod, @staticmethod,@property 類中函數裝飾器

####################################################### #@函數裝飾器 # @a@b@c f() # 將f作爲函數引用 傳給c作爲其第一個參數, #

原创 數學,科學,哲學,玄學

假設A爲實體,B爲變量,C爲未知: 數學:假設一個變量B,推出一個結果C, 科學:找到一個變量B,確定一個結果C, 哲學:發現一個向量D,推出一個結果C,再推出一個結果E... 玄學:找到一個範圍Z,使其滿足未知C,

原创 PspCaptureAndValidateUnicodeString / PspCopyUnicodeString

// _UNICODE_STRING結構copy, 並檢測其值是否有效 // 注意: // 1: 是結構copy,所以源指針與目標指針指向同一位置 // 2: 目標MaximumLength直接修改爲Length +2, 不管

原创 串與softmax

使用神經網絡softmax進行分類,當分成N類時,softmax層的前一層,最少要多少個神經元? 以二進制表示一個數N,最少需要ⅹ=log2(N)位,如16需要4位;以ⅹ個二進制進行輸入,以softmax進行輸出,最小的神經網絡是

原创 暴力降維與相對距離

以平面三角形爲例,若相對距離AB﹥BC>CA,而在投影到直線上後,相對距離仍然AB﹥BC>CA,那麼此三角形實現了降維。新的距離與原距離的差值,叫降維誤差。如誤差爲0,則說明原三角形本身在一條直線上,爲完美降維。 如果有多個點,那

原创 梯度下降法即在誤差方向上下降一個梯度值

如函數 y = 3x, 當x爲1時,Y= 3,而目標是100, 所以差距爲+97; 此時梯度爲3, 所以 增加一個梯度值,即變爲Y=6X; 此時梯度爲6,再帶入X,值變爲6, 差距變爲+94, 再增加一個梯度值,即變爲Y=12X; 此時梯

原创 感知機的 與、或、非、異或處理的數學原理

感知機即:計算多個輸入,如果其值大於閥值,即輸出1, 反之輸出0 假如x.y爲輸入,各可以爲0,或1: 那麼: 與: x + y > =2, 或:x+y >=1 非:x+y <=0 異或:即分解爲’與‘同’非‘後,再進行’或‘     u