本文摘自 《概率论与数理统计》 陈希孺著 中国科学技术大学出版社
相关链接:
极大似然估计法
矩估计法
参数的点估计问题
设有一个总体统计,以f(x;θ1,⋯,θn) 记其概率密度函数(若总体分布为连续型的)或其概率函数(如总体分布为离散型的)。我们约定称f(x;θ1,⋯,θn) 为“总体分布”,其具体含义视其为连续型或离散型而定。这个分布包含k 个未知数θ1,⋯,θk 。例如,对正态总体N(μ,σ2) ,有θ1=μ,θ2=σ2 ,而
f(x;θ1,θ2)=(2πθ2‾‾‾‾‾√)−1exp−12θ2(x−θ1)2(−∞<x<∞)
若总体有二项分布B(n,p) ,则θ1=p ,而
f(x;θ1)=(nx)θx1(1−θ1)n−x(x=0,1,⋯,n)
当k=1 时,也就是只有一个参数时,我们用θ 取代θ1 。
参数估计问题的一般提法是:设有了从总体中抽出的样本X1,⋯,\Xn (这样样本是独立随机样本,即X1,⋯,Xn 独立同分布,其公共分布就是总体分布),要依据这些样本去对参数θ1,⋯,θk 中的一部分,或者估计它们某个已知函数g(θ1,⋯,θk) 。例如,为了要估计θ1 ,我们要构造出适当的统计量θ1^=θ1^(X1,⋯,Xk) 。每当有了样本X1,⋯,Xn ,就带入函数θ1^(X1,⋯,Xk) 中算出一个值,用来作为θ1 的估计值。为着这样的特定目的而够着统计量θ̂ 叫做θ1 的估计量。由于未知参数θ1 是数轴上的一点,用θ1 去估计θ ,等于用一个点去估计另一个点,所以这样的估计叫做点估计。
点估计包含三种方法,包括矩估计法、极大似然估计法和贝叶斯估计法。我们将会在下面的博客一一介绍。