【机器学习】:判别式模型与生成式模型

目录

问题引出

基本概念

举个例子

优缺点

模型实例

参考文献


 

问题引出

来源:牛客网

以下几种模型方法属于判别式模型(Discriminative Model)的有()

1)混合高斯模型

2)条件随机场模型

3)区分度训练

4)隐马尔科夫模型

 

基本概念

监督学习的任务是学习一个模型,应用这个模型对给定的输入预测相应的输出。

监督学习又分为生成方法(generative approach)和判别方法(discriminative approach),所学到的模型成为生成模型(generative model)和判别模型(discriminative model)。

 

生成模型估计的是联合概率分布,然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。

生成方法关心的是给定输入x产生输出y的生成关系。

判别模型估计的是条件概率分布,有数据直接学得决策函数P(X)或者条件概率分布P(Y|X)作为预测的模型。

判别式方法关心的是给定输入X,应该预测什么样的输出Y

 

举个例子

(来自参考文献3)

比如说要确定一只羊是山羊还是绵羊,

生成模型的方法是我们可以根据山羊的特征首先学习出一个山羊模型,然后根据绵羊的特征学习出一个绵羊模型。然后从这只羊中提取特征,放到山羊模型P(w1|X)中看概率是多少,再放到绵羊模型P(w2|X)中看概率是多少,若P(w1|X)>P(w2|X),那么我们就认为X是属于w1类,即该羊属于山羊。

判别模型的方法是先从历史数据中学习到模型,然后通过提取这只羊的特征x来预测出这只羊f(X)是山羊的概率,是绵羊的概率。

优缺点

生成方法

优点:

1、可以还原联合分布率(判别式模型不可以)

2、学习的收敛速度,即:当样本容量增加的时候,学到的模型可以更快地收敛于真实模型

3、可以应付存在隐变量的情况,比如混合高斯模型就是含有隐变量的生成方法。

 

缺点:

1、浪费计算资源。联合分布是能提供更多的信息,但也需要更多的样本和更多计算,尤其是为了更准确估计类别条件分布,需要增加样本的数目,而且类别条件概率的许多信息是我们做分类用不到,因而如果我们只需要做分类任务,就浪费了计算资源。

2、实践中多数情况下判别模型效果更好

 

判别方法

优点:

1、节约了计算资源,相比较于生成模型而言

2、直接学习条件概率或者决策函数,直接面对预测往往学习效率更高

3、直接学习可以对数据进行各种程度上的的抽象、定义特征并使用特征,因此可以简化学习问题

缺点:

对应生成模型的优点

 

两者的联系和区别

1、由生成模型可以得到判别模型,但由判别模型得不到生成模型。

2、当存在隐变量(当我们找不到引起某一现象的原因的时候,我们就把这个在起作用,但是,无法确定的因素,叫“隐变量”) 时,仍可以利用生成方法学习,此时判别方法不能用。
 

 

模型实例

生成式模型有:
1. 判别式分析
2. 朴素贝叶斯Native Bayes
3. 混合高斯型Gaussians
4. 隐马尔科夫模型HMM
5. 贝叶斯网络
6. sigmoid belief networks
7. 马尔科夫随机场Markov random fields
8. 深度信念网络DBN
9. 隐含狄利克雷分布简称LDA(Latent Dirichlet allocation)
10. 多专家模型(the mixture of experts model)


判别式模型有:
1. 感知机
2. 决策树
3. 逻辑回归logic regression
4. K近邻 KNN
5. 最大熵模型
6. 支持向量机SVM
7. 提升方法Boosting
8. 神经网络NN
9. 高斯过程Gaussian process
10. 条件随机场CRF
11. CART(Classification and regression tree)

 

参考文献

1.统计学习方法(李航)

2.牛客‘chen尾巴’的答案

3.机器学习---生成模型与判别模型

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章