前言
SVM - support vector machine, 俗称支持向量机,为一种监督学习算法,是一种二分类模型,学习策略是间隔最大化,可以形式为一个求解凸二次规划问题(此篇博客主要讲述),也等价于正则化的合页损失函数的最小化问题(Coursera 吴恩达 机器学习课程里面讲的SVM)。
支持向量机的优点:
- 可用于高维空间中的数据分类
- 在数据维度高于样本个数时,仍然可以有效学习
- 真正对支持向量机产生影响的是支持向量,通常支持向量只占一小部分,所以,其内存消耗低
- 多功能性。可选的核有很多,既有常用的核函数,也可自行定制特殊的核函数。
此篇博客大概会记录SVM的简单推导和大概理解,关于前置SVM的前置知识可以在之前的博文或者以下链接找到,在此就不加大篇幅阐述啦。
- 拉格朗日对偶性
- 希尔伯特空间
- 正定/非正定矩阵
关于这个图片的来源:2009年在Pittsburgh举行的G20峰会现场外面这位同学鱼目混珠的高举Support Vector Machine的牌子。你说你支持加强控制二氧化碳排放我懂,你支持的的这个Vector Machine是个什么东西啊? (有点冷)—Pluskid’s blog

-

1. 线性可分支持向量机
我们首先先看SVM最简单的模型:线性可分支持向量机。学习目标是在特征空间找打一个分离超平面,将不同标记的样本分离且样本离分离超平面间隔最大。
上图就很好的阐述了SVM的学习目标,找到了距离苹果与香蕉最大Margin的Boundary。其中涂上颜色的苹果和香蕉就称作支持向量(Support Vector),具体定义是训练数据集的样本点与分隔超平面最近的样本点。我们设该超平面函数为 f(x) f ( x )
f(x)=sign(w∗x+b∗) f ( x ) = s i g n ( w ∗ x + b ∗ )

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/36493.html