线性可分支持向量机(SVM)原理与实现 - 基于GenTang/intro_ds项目分析
2025-06-29 19:24:38作者:农烁颖Land
引言
支持向量机(Support Vector Machine, SVM)是一种强大的监督学习算法,特别适用于分类任务。本文将通过GenTang/intro_ds项目中的线性可分SVM实现代码,深入讲解SVM的核心原理和实际应用。
线性可分SVM基础概念
线性可分SVM的核心思想是找到一个最优超平面,将不同类别的数据点分开,并使两类数据点到这个超平面的最小距离最大化。这个最优超平面被称为最大间隔超平面。
关键术语解释
- 支持向量:距离超平面最近的样本点,决定了超平面的位置
- 间隔(margin):两个平行于超平面且分别经过正负类支持向量的平面之间的距离
- 决策边界:用于分类的超平面
代码实现解析
1. 数据生成
项目提供了两种数据生成函数:
def generateSeparatableData(n):
# 生成线性可分数据
np.random.seed(2046)
X = np.r_[np.random.randn(n, 2) - [1, 1], np.random.randn(n, 2) + [3, 3]]
Y = [[0]] * n + [[1]] * n
data = np.concatenate((Y, X), axis=1)
data = pd.DataFrame(data, columns=["y", "x1", "x2"])
return data
def generateInseparatableData(n):
# 生成线性不可分数据
data = generateSeparatableData(n)
inseparatable = [[1, -1, 1.5], [0, 3, 1]]
inseparatable = pd.DataFrame(inseparatable, columns=["y", "x1", "x2"])
data = data.append(inseparatable)
return data
generateSeparatableData生成两组正态分布数据,分别以(-1,-1)和(3,3)为中心generateInseparatableData在可分数据基础上添加两个异常点,使数据变得线性不可分
2. 模型训练
def trainModel(data):
# 训练SVM模型
model = SVC(C=1e4, kernel="linear")
model.fit(data[["x1", "x2"]], data["y"])
return model
这里使用了sklearn的SVC类,关键参数:
C=1e4:设置很大的惩罚系数,使模型更倾向于找到完美分类的超平面kernel="linear":使用线性核函数
3. 结果可视化
def visualize(data, model=None):
# 可视化结果
fig = plt.figure(figsize=(6, 6), dpi=80)
ax = fig.add_subplot(1, 1, 1)
# 绘制数据点
label1 = data[data["y"]>0]
ax.scatter(label1[["x1"]], label1[["x2"]], marker="o")
label0 = data[data["y"]==0]
ax.scatter(label0[["x1"]], label0[["x2"]], marker="^", color="k")
if model is not None:
# 绘制决策边界和间隔
w = model.coef_
a = -w[0][0] / w[0][1]
xx = np.linspace(-3, 5)
yy = a * xx - (model.intercept_) / w[0][1]
yy_down = yy - 1 / w[0][1]
yy_up = yy + 1 / w[0][1]
ax.plot(xx, yy, "r")
ax.plot(xx, yy_down, "r--")
ax.plot(xx, yy_up, "r--")
plt.show()
可视化部分展示了:
- 不同类别数据点的分布(圆形和三角形)
- 决策边界(红色实线)
- 间隔边界(红色虚线)
数学原理深入
超平面方程
决策超平面可以表示为: w·x + b = 0
其中:
- w是法向量,决定超平面的方向
- b是位移项,决定超平面与原点的距离
间隔计算
两个间隔边界的方程分别为: w·x + b = 1 w·x + b = -1
间隔距离为:2/||w||
优化目标
SVM的优化目标是最大化间隔,等价于最小化||w||²/2: min 1/2 ||w||² s.t. y_i(w·x_i + b) ≥ 1, ∀i
实际应用中的注意事项
- 线性可分性:真实数据往往不是严格线性可分的,这时需要引入松弛变量
- 参数C的选择:C值越大对误分类的惩罚越大,可能导致过拟合
- 特征缩放:SVM对特征的尺度敏感,建议先进行标准化处理
- 核函数选择:线性不可分时可考虑使用非线性核函数
总结
通过GenTang/intro_ds项目中的线性可分SVM实现,我们学习了:
- SVM的基本原理和最大间隔思想
- 如何使用scikit-learn实现线性SVM
- 如何可视化和解释SVM模型结果
- SVM的数学基础和优化目标
线性可分SVM是理解更复杂SVM模型的基础,掌握这些概念对于后续学习非线性SVM和核方法至关重要。
登录后查看全文
热门项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
FreeSql功能强大的对象关系映射(O/RM)组件,支持 .NET Core 2.1+、.NET Framework 4.0+、Xamarin 以及 AOT。C#00
项目优选
收起
deepin linux kernel
C
27
14
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
659
4.26 K
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
894
Ascend Extension for PyTorch
Python
503
609
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
391
285
暂无简介
Dart
905
218
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
昇腾LLM分布式训练框架
Python
142
168
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
939
862
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.33 K
108