基于Scikit-learn的短信垃圾邮件分类案例研究
2025-07-10 01:05:08作者:乔或婵
引言
在当今数字时代,垃圾短信(Spam)已成为困扰用户的一大问题。本文将介绍如何使用Python的Scikit-learn库构建一个短信垃圾邮件分类器。我们将从数据准备开始,逐步讲解特征提取、模型训练和评估的完整流程。
数据准备
首先我们需要加载并预处理短信数据集。该数据集包含两类短信:
- 正常短信(Ham)
- 垃圾短信(Spam)
import os
with open(os.path.join("datasets", "smsspam", "SMSSpamCollection")) as f:
lines = [line.strip().split("\t") for line in f.readlines()]
text = [x[1] for x in lines] # 短信内容
y = [int(x[0] == "spam") for x in lines] # 标签(0=ham, 1=spam)
查看数据分布:
import numpy as np
print('正常和垃圾短信数量:', np.bincount(y))
数据分割
将数据集划分为训练集和测试集:
from sklearn.model_selection import train_test_split
text_train, text_test, y_train, y_test = train_test_split(
text, y, random_state=42, test_size=0.25, stratify=y)
特征提取
文本数据不能直接用于机器学习算法,需要先转换为数值特征。我们使用词袋模型(Bag-of-Words):
from sklearn.feature_extraction.text import CountVectorizer
vectorizer = CountVectorizer()
vectorizer.fit(text_train)
X_train = vectorizer.transform(text_train)
X_test = vectorizer.transform(text_test)
CountVectorizer默认会:
- 将文本转换为小写
- 提取至少包含2个字母的单词
- 移除标点符号
- 构建词汇表
模型训练
使用逻辑回归作为分类器:
from sklearn.linear_model import LogisticRegression
clf = LogisticRegression()
clf.fit(X_train, y_train)
模型评估
评估模型在测试集上的表现:
print("测试集准确率:", clf.score(X_test, y_test))
print("训练集准确率:", clf.score(X_train, y_train))
特征重要性分析
可视化对分类影响最大的词汇:
def visualize_coefficients(classifier, feature_names, n_top_features=25):
coef = classifier.coef_.ravel()
positive_coefficients = np.argsort(coef)[-n_top_features:]
negative_coefficients = np.argsort(coef)[:n_top_features]
interesting_coefficients = np.hstack([negative_coefficients, positive_coefficients])
plt.figure(figsize=(15, 5))
colors = ["red" if c < 0 else "blue" for c in coef[interesting_coefficients]]
plt.bar(np.arange(2 * n_top_features), coef[interesting_coefficients], color=colors)
feature_names = np.array(feature_names)
plt.xticks(np.arange(1, 2 * n_top_features + 1),
feature_names[interesting_coefficients], rotation=60, ha="right")
visualize_coefficients(clf, vectorizer.get_feature_names())
蓝色柱表示与垃圾短信正相关的词汇,红色柱表示与正常短信相关的词汇。
优化特征提取
通过调整min_df参数(忽略出现次数过少的词)来优化特征:
vectorizer = CountVectorizer(min_df=2) # 忽略出现次数少于2次的词
vectorizer.fit(text_train)
X_train = vectorizer.transform(text_train)
X_test = vectorizer.transform(text_test)
clf = LogisticRegression()
clf.fit(X_train, y_train)
print("优化后训练集准确率:", clf.score(X_train, y_train))
print("优化后测试集准确率:", clf.score(X_test, y_test))
进阶练习
- 尝试使用
TfidfVectorizer代替CountVectorizer,比较结果差异 - 调整
min_df和ngram_range参数,观察特征重要性的变化
总结
本文展示了使用Scikit-learn构建文本分类器的完整流程。通过词袋模型和逻辑回归,我们能够有效地识别垃圾短信。实际应用中,还可以尝试:
- 更复杂的文本预处理
- 其他分类算法如随机森林、SVM等
- 深度学习模型如LSTM、Transformer等
希望本案例能帮助读者理解文本分类的基本原理和实现方法。
登录后查看全文
热门项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0204- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
awesome-zig一个关于 Zig 优秀库及资源的协作列表。Makefile00
项目优选
收起
deepin linux kernel
C
27
12
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
609
4.05 K
Ascend Extension for PyTorch
Python
447
534
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
924
774
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.47 K
829
暂无简介
Dart
851
205
React Native鸿蒙化仓库
JavaScript
322
377
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
372
251
昇腾LLM分布式训练框架
Python
131
157