3.2 KiB
title | createTime | permalink |
---|---|---|
支持向量机 | 2025/02/14 13:37:55 | /open/ml/svm.md |
支持向量机是什么
支持向量机(Support Vector Machine,SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。
支持向量机的原理
间隔与支持向量
给定线性可分训练数据集,通过间隔最大化,求得的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
学习的对偶算法
学习的对偶算法
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
学习的对偶算法
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
核函数
核技巧
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
核函数
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
支持向量机的推广
类别不平衡问题
类别不平衡问题
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
类别不平衡问题
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数
f(x) = sign(w^* \cdot x + b^*)
这里,w^*
和 b^*
是通过训练数据集学习得到的参数,w
是权值向量,b
是偏置,x
是输入特征向量。
软间隔与正则化
软间隔与正则化
给定线性可分训练数据集,通过求解凸二次规划问题学习得到的分离超平面为
w^* \cdot x + b^* = 0
以及相应的分类决策函数