机器学习04:支持向量机

追求适度,才能走向成功;人在顶峰,迈步就是下坡;身在低谷,抬足既是登高;弦,绷得太紧会断;人,思虑过度会疯;水至清无鱼,人至真无友,山至高无树;适度,不是中庸,而是一种明智的生活态度。

导读:本篇文章讲解 机器学习04:支持向量机,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com,来源:原文

作者:非妃是公主
专栏:《机器学习》
个性签:顺境不惰,逆境不馁,以心制境,万事可成。——曾国藩
在这里插入图片描述

专栏地址

《机器学习》专栏地址

专栏系列文章

机器学习01:绪论

机器学习02:模型评估

机器学习03:线性回归与多分类学习

机器学习04:支持向量机

机器学习05:神经网络学习

机器学习06:决策树学习

机器学习07:贝叶斯学习

机器学习08:最近邻学习

机器学习09:无监督学习

机器学习10:集成学习

机器学习11:代价敏感学习

机器学习12:演化学习

线性支持向量机

支持向量机(Support Vector Machine, SVM)不仅具有坚实的统计学理论基础,还可以很好地应用于高维数据、避免维度灾难问题,已经成为一种倍受关注的机器学习分类技术。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

直观上看应该去找位于两类训练样本”正中间”的划分超平面,即B1,因为该划分超平面对训练样本局部扰动的”容忍押性最好,由于训练集的局限性或噪声的因素,训练集外的样本可能比图中的训练样本更接近两个类的分隔界,这将使许多划分超平面出现错误,而红色的超平面受影响最小.换言之,这个划分超平面所产生的分类结果是最鲁棒的,对未见示例的泛化能力最强.

在这里插入图片描述
假设决策边界能将训练样本正确分类,即对于任意样本点

(

x

i

,

y

i

)

(x_i,y_i)

(xi,yi) :若有

y

i

=

+

1

y_i=+1

yi=+1 ,则有

ω

T

x

i

+

b

>

0

\omega^\mathrm{T}x_i+b>0

ωTxi+b>0 ;若

y

i

=

1

y_i=-1

yi=1,则有

ω

T

x

i

+

b

<

0

\omega^\mathrm{T}x_i+b<0

ωTxi+b<0。那么通过调整决策边界的参数

ω

\omega

ω

b

b

b
总可以得到:

{

ω

T

x

i

+

b

>

0

y

i

=

+

1

ω

T

x

i

+

b

<

0

y

i

=

1

\begin{cases} \omega^\mathrm{T}x_i+b>0& y_i=+1\\ \omega^\mathrm{T}x_i+b<0& y_i=-1 \end{cases}

{ωTxi+b>0ωTxi+b<0yi=+1yi=1

推导如下:主要就是以下两张图所含内容(参考链接:【数之道】支持向量机SVM是什么,八分钟直觉理解其本质

在这里插入图片描述
在这里插入图片描述
求解最大间隔对应的

w

b

w和b

wb
在这里插入图片描述
在这里插入图片描述
转化为优化问题:
在这里插入图片描述
由于目标函数是二次的,并且约束条件在参数

ω

\omega

ω

b

b

b上是线性的,因此线性支持向量机的学习问题是一个凸二次优化问题,可以直接用现成的优化计算包求解,或者用更高效的拉格朗日乘子法求解。
线性SVM假定训练样本是线性可分的,即存在一个线性的决策边界能将所有的训练样本正确分类。

非线性支持向量机

然而在实际应用中,在原始的样本空间内也许并不存在这样的决策边界。
对于这样的问题,可将样本从原始空间映射到一个更高维的特征空间,使得样本在映射后的特征空间内线性可分。
例如在下图中,如果将原始的二维空间映射到一个合适的三维空间,就能找到一个合适的划分超平面。幸运的是,如果原始空间是有限维, 即属性数目有限,那么一定存在一个更高维的特征空间使得样本线性可分。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

以上就是支持向量机的基本原理,对偶优化问题数学理论性较强,比较复杂,尚未理解清楚,此处省略,后续补充。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之家整理,本文链接:https://www.bmabk.com/index.php/post/130537.html

(0)
飞熊的头像飞熊bm

相关推荐

发表回复

登录后才能评论
极客之家——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!