![机器学习:从公理到算法](https://wfqqreader-1252317822.image.myqcloud.com/cover/786/920786/b_920786.jpg)
3.1 密度估计的参数方法
如果已经知道p(x)所在的分布族p(x|θ),此时的密度估计问题变成估计θ。简单说来,此时即为密度估计的参数方法。在此情形下,,SimX(x,θ)=p(x|θ)。假设对θ得到估计
,则可设
。
3.1.1 最大似然估计
在此情形下,如果对于θ的信息一无所知,则可以假设对θ得到估计。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。显然,
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00012.jpg?sign=1739597462-UKojklmoJqraTK0xYzOoAoOtSZIqhSYM-0-dd7c37f41e73a2c3633c309478850557)
为了简化计算,对公式(3.1)两边取负自然对数,求最大变为求最小,得到如下目标函数:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00013.jpg?sign=1739597462-pIwpLKdJmMFvYprNyasxbiOW43d3Cmzi-0-df578b488f29136ba737008b374a7b76)
显然,最大化目标函数(3.1)是最大似然估计。因此,类紧致准则可以导出常见的最大似然估计。
• 高斯密度估计
假设,其中
。根据公式(3.2),我们可以得到如下目标函数(3.3):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00009.jpg?sign=1739597462-RtOcpVlMznbxDeSh9OaydFILbD0g3pQ6-0-23b66da03835921ac84360b524ef746f)
因此,计算目标函数(3.3)的一阶导数,令其等于零可以得到最优估计。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00010.jpg?sign=1739597462-FVz2A9NYsuCvSQDd2c3Oxg7qAZS00B4R-0-93688d9441a708dbe563f90f76fedb19)
解方程(3.4),可以得到
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00011.jpg?sign=1739597462-DZoyBp4OsvkhqivBBRFl14tRV8zSJbKk-0-07624443931673db918fb795b4b20f71)
令,其中
按照以上的办法,同样可以得出
的估计。
• n元多项分布估计
假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1,l2,…,lc],
,∀i,li∈{0,1},
1,∀i,
并且
。易知,∀k,xk,x可以表示成一个c维的0,1的向量,这里,如果xk=i,则记作(xk)i=1,否则(xk)i=0。显然,
,因此,可以知道
。
根据公式(3.2),我们可以得到如下目标函数(3.6):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00014.jpg?sign=1739597462-aCoJIikVh3pjKfCudMIL27oHYVoce85Z-0-e24953c3a4d144bc05d6de9a3ab93193)
根据拉格朗日乘子法,要得到目标函数(3.6)在条件下的最小值,只需令如下函数(3.7)的一阶导数为零:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00015.jpg?sign=1739597462-pP8qBue6Sy2NLO6qJOg09tWtWRih6vD0-0-83ba2c03f7309f21fd3402466f4fcc13)
由此得到方程(3.8):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00016.jpg?sign=1739597462-PMWFd2qNvovTOx7NGOFCuO5NcUos7UO8-0-cffb83b3c5501692c239c3d4ffde269a)
注意到,由方程(3.8)可以得到λ=N。
据此,解方程(3.8)可以得到如下估计:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00017.jpg?sign=1739597462-W33QVrhV4zUv7M2U0bl7Q70WyFZIVvb2-0-072712ae08ac5b70fedf8db88e6c3126)
3.1.2 贝叶斯估计
需要特别指出的是,在参数估计情形下,类可以用θ来表示。有时候,基于历史经验,人们不仅知道分布的形式,甚至会对θ的信息有所了解。比如,当谈到许海峰的手枪射击成绩时,人们会有先验估计;当谈起烟台苹果莱阳梨,人们一般也会有先验印象。甚至朋友交往,第一印象也对人们后续交往影响巨大。实际上,日常所说的声誉,就是一种对于事物的先验印象。如果θ的信息完全确定,就不需要通过观察抽样样本来估计了,或者说观察已经影响不了人们对于θ的信息。这近似于信仰或者崇拜。
一般情形下,人们对于θ的信息有所了解,但是该信息会随着观察的积累增多而改变,具有不确定性。因此,对θ的信息先验了解程度,可以用假设θ服从p(θ|θ0)分布来表示,p(θ|θ0)反映了人们对于θ的了解程度,θ0是事先确定的值。换一种说法,p(θ|θ0)反映了θ与固定值θ0的相似度,即Sim(θ,θ0)=p(θ|θ0)。理论上,应该选择与固定值θ0最相似的θ值。如果无限相似,即变成信仰,此时观察改变不了θ的估计。如果不是无限相似,则观察可以改变对于θ的估计。
假设对θ得到估计,根据以上的分析,设
,
。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。同时,如果假设输入类表示为θ0,类一致性准则要求考虑最大化如下约束(3.10):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00018.jpg?sign=1739597462-UGQXOc43InPF1atka1Gp9hMMCQBYBl1I-0-2d2f33fe94b39b9ced23eecfe43cc96d)
这是一个典型的多目标函数优化问题。一个自然的想法是合成为单目标函数优化问题。
由此,综合考虑类一致性准则和类紧致性准则,应该最大化目标函数(3.11):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00019.jpg?sign=1739597462-KXfthXSWjlSN3Djpjgci17yGJfA2nkjy-0-34ceaed063ea1cf5b6683659fc614880)
显然,如果只最大化目标函数(3.10),则与观察数据无关。如果先验随着观察数据的增加而不同,最大化目标函数(3.11)即是常见的贝叶斯估计。因此,类紧致准则与贝叶斯估计也联系密切。
• 高斯密度的贝叶斯估计
假设∀k,xk∈Rp,x∈Rp,,其中
其中
。
根据公式(3.11),应该最小化目标函数(3.12):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00020.jpg?sign=1739597462-lvZaZifwp4MGYvzCgFwIzbUSGCSjmnli-0-dbafca5f237051c019dde252ee6fd24a)
因此,计算目标函数(3.12)的一阶导数,令其等于零可以得到最优估计。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00021.jpg?sign=1739597462-QKbMevRw5qkFUXlhaJiOVBEN0jEdw1n3-0-fe2b15c6adc340428fc62c7defc7afd0)
解方程(3.13),可以得到
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00022.jpg?sign=1739597462-JbiJkmkG5ARCXUuwgZRoCrAhUdLlesRh-0-565cfd420dc691a15715801ebc6e54a3)
如果,其中
,按照以上的办法,同样可以得出
的估计。
• n元多项分布的贝叶斯估计
假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1,l2,…,lc],
,∀i,li∈{0,1},
,
并且
。易知,∀k,xk,x可以表示成一个c维的0,1向量,这里,如果xk=i,则记作(xk)i=1,否则(xk)i=0。显然,∀k,
,因此,可以知道
,其中
。
根据公式(3.11),应该最小化如下目标函数(3.15):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00026.jpg?sign=1739597462-h3aA9gwKS44A25LAFiP0QTceyreTMPHq-0-aaa73a12f3cd1d07a250039498802e30)
根据拉格朗日乘子法,要得到目标函数(3.15)在条件下的最小值,只需令如下函数(3.16)的一阶导数为零。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00023.jpg?sign=1739597462-5QRsksjSamesXK0y4Bhc0xb2z7aNiO6Y-0-3604fea1f458ce7fb3be626f03df9b48)
由此得到方程(3.17)。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00024.jpg?sign=1739597462-aaSjVl55vsrn07J6c7pe3fqwHYOesMJZ-0-96a7cd93571184958a2f1bdd093a1e1c)
解方程(3.17)可以得到如下估计:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00025.jpg?sign=1739597462-wsCPmS6xt5QJPGhqfYqgmpHfLNGa2HNe-0-0f6aaf4e44082004e6d8d1a6448a2172)
称为Dirichlet分布,其中
,∀pi>0,∀αi>0。