原创 概率與統計筆記

這部分數學的基本思想是: 在有上帝視角的時候,知道事件發生的分佈,計算某些事件發生的概率,及一些分佈的特徵。 在沒有上帝視角的時候,靠已知事件發生的頻率推斷事件的分佈類型,或者分佈的一些特徵   1.貝葉斯定理可以根據客觀條件看成是對先驗

原创 矩陣求導術的故事

轉自知乎,感謝大神長軀鬼俠 1. 標量對矩陣的求導 2.矩陣對矩陣的求導 作爲一個數學渣渣,那些能把複雜難懂的數學公式和過程講的簡單易懂的人是我的本命。在機器學習中存在許多求導過程,在論文中推導也是很重要的一環。我花了3天時間閱讀並學習了

原创 單變量微積分筆記

根本思想是在趨向極限的過程中,以直代曲   無窮小的來源和無窮小與極限的關係 1. 在極限裏的意思是不斷縮小的觀察範圍。不斷縮小觀察範圍,如果提高放大倍數,時間還在觀察範圍內,這就是收斂的極限。 2. 無窮小/大的不是數,而是函數如數列和

原创 怎麼理解傅里葉變換

參考:傅里葉專題   1. 函數空間    1.1  函數空間是什麼 有限維幾何向量空間中的向量形式爲:長度有限。 無限維向量空間(希爾伯特空間)的向量形式爲:長度無限, 希爾伯特空間滿足: ,模收斂 令希爾伯特空間向量下標爲定義域的,向

原创 VC維

VC維表示1個模型可以打散的空間中的點的最大數量。可以理解爲模型的彎曲程度,即複雜度和靈活程度。 點贊 收藏 分享 文章舉報 shiyueyue0822 發佈了41 篇原創文章

原创 爲什麼樣本均值服從正態分佈?

1. 如何理解分佈的特徵函數? 如何確認兩個隨機變量的分佈相同,在不知道這兩個隨機變量的分佈的情況下。 根據類比兩個背影是否是同一個人,那麼對比這兩個背影的特徵:身高,髮色,腰圍,。。。 那麼對比這兩個隨機變量的分佈,我們也要對比他們的特

原创 花書筆記1-數學基礎1

  1. 極大似然估計 因爲之前學過李航的那本,所以這裏瞭解的比較好。極大似然估計是當變量服從某一分佈時,令情況(數據)出現的概率最大時的參數。 設一個變量服從高斯分佈。則對n個數據進行似然估計,可以得到如果讓這n個數據發生,則這個變量應

原创 矩陣乘法和相似矩陣

矩陣乘法: 中 A可以做特徵值分解,特徵向量是該矩陣運動中運動的方向,特徵值是運動的速度大小。矩陣乘法就是把後者投影到特徵向量構成的基空間中,並進行拉伸,之後再還原到原座標系中。 矩陣乘法也可以理解爲: 將一個向量映射到新的基構成的空間

原创 SMO算法

https://blog.csdn.net/luoshixian099/article/details/51227754 能看明白是怎麼求解的,但是原理不懂。

原创 SVM中令函數間隔等於1的yuanyin

的原因:對於一個的超平面,W和b可以任意縮放,那麼一定可以找到一個使。這裏是支持向量。(還沒有看到這)這時的描述的超平面不變。因此我們可以令。 參考資料:https://blog.csdn.net/waho001/article/deta

原创 對偶問題和KKT條件的理解

粗略查了下對偶問題的資料。可以這樣理解,對於一個線性規劃的標準型(max CX s.t. Ax < b),它的對偶問題求解的是該標準型解的上限。 在運籌學裏標準型可以理解爲在若干機器的使用時長限制下,利潤的產品怎麼生產才能使利潤最大化。那

原创 最大熵模型中的對數似然函數的解釋

轉自:https://blog.csdn.net/wkebj/article/details/77965714

原创 樸素貝葉斯,最大後驗概率,極大似然估計與貝葉斯估計

樸素貝葉斯是基於最大後驗概率來進行預測的。它的參數主要是 學習這兩個參數主要有極大似然估計和貝葉斯估計兩種。 極大似然估計是基於頻率派。即從一組概率模型中,找到使當前樣本發生概率最大的那個模型(模型參數)。  最大後驗概率/貝葉斯估計假設

原创 pandas 中apply中函數的參數

,這裏的n和column都是top函數的參數

原创 GBDT原理及和Adaboost的區別

GBDT和Adaboost的區別 Adaboost和GBDT都是基於加法模型和前向分步算法。Adaboost用於分類時可以看成基分類器是分類決策樹樁,令損失函數爲指數函數,通過每一次迭代調整樣本權重分佈使損失函數達到最小。這裏指數函數和分