前言:EM和K-means算法都是機器學習最基本的算法,與混合高斯模型求解有相似之處。EM是基於概率的期望最大,K-means是到質心距離最小化。兩者都要初始化參數,然後重新調整參數。
個人覺得這句話很不錯:
“沒有雞和蛋的先後之爭,因爲他們都知道“沒有你就沒有我”。從此他們一起過上了幸福美好的生活。”
需要靠參數的相互迭代產生最好的結果,當然由於初始值的不一樣,其得到最後優化結果也會不同。
正文:(不好意思,又要上圖了)
參考資料:1.lerrylead的混合高斯模型講解
前言:EM和K-means算法都是機器學習最基本的算法,與混合高斯模型求解有相似之處。EM是基於概率的期望最大,K-means是到質心距離最小化。兩者都要初始化參數,然後重新調整參數。
個人覺得這句話很不錯:
“沒有雞和蛋的先後之爭,因爲他們都知道“沒有你就沒有我”。從此他們一起過上了幸福美好的生活。”
需要靠參數的相互迭代產生最好的結果,當然由於初始值的不一樣,其得到最後優化結果也會不同。
正文:(不好意思,又要上圖了)
參考資料:1.lerrylead的混合高斯模型講解