用法:用於含有隱變量的概率模型參數的極大似然估計,或極大後驗概率估計
本質:通過不斷求解下界的極大化逼近求解對數似然函數極大化的算法。
上圖中7.36式解釋:①下界的公式;②若參數θ已知,則根據訓練數據推斷出最優應變量Z的值(E步);反之,若Z的值已知,則可方便地對參數θ做極大似然估計(M值)
好文推薦:https://blog.csdn.net/zhihua_oba/article/details/73776553
用法:用於含有隱變量的概率模型參數的極大似然估計,或極大後驗概率估計
本質:通過不斷求解下界的極大化逼近求解對數似然函數極大化的算法。
上圖中7.36式解釋:①下界的公式;②若參數θ已知,則根據訓練數據推斷出最優應變量Z的值(E步);反之,若Z的值已知,則可方便地對參數θ做極大似然估計(M值)
好文推薦:https://blog.csdn.net/zhihua_oba/article/details/73776553
邏輯迴歸之所以叫邏輯是因爲他用到了邏輯分佈: 圖形如下: 還是按照老樣子,根據李航老師的統計學習方法三部分進行學習。 1 模型 假設輸入爲任意範圍內的屬性值,輸出爲0-1之間的概率。給定一個閾
轉載請註明出處:http://blog.csdn.NET/luoshixian099/article/details/47377611 相關: KD樹+BBF算法解析 SURF原理與源碼解析