基本思想:确保正样本计算得到的分数比负样本的高
假设由正、负样本计算得到的分数分别为s+和s−,那么我们的目标为最大化(s+−s−),换一个角度,也就是最小化(s−−s+)。
事实上,当s+>s−时,已经满足我们正例分数大于反例的目标,因此我们只考虑当s−>s+的情况,此时会产生误差:
J=max(s−−s+,0)
但是为了使分类结果更具有说服性,我们要求s+不仅仅比s−要大,而且要大于一定的阈值Δ才行。即当s+−s−<Δ时就要开始计算误差,于是误差的计算可以被修改为:
J=max(Δ+s−−s+,0)
为了简化,我们可以将Δ缩放为1(实际上,也就是将W和b都按照同比例缩放,即ΔW,Δb),于是得到我们最终需要优化的最大间隔目标函数:
Loss=minimizeJ=max(1+s−−s+,0)
注:可以在《统计学习方法》的SVM一章中了解关于最大间隔目标函数更为详细的推导