机器学习入门项目:使用分类器预测菜系类型
2026-02-03 05:50:54作者:庞队千Virginia
引言
在机器学习领域,分类问题是监督学习中最常见的任务之一。本文将通过一个实际案例——基于食材预测菜系类型,来介绍分类算法的应用。我们将使用经过清洗和平衡处理的数据集,探索不同分类器的表现,并重点讲解逻辑回归在多元分类问题中的应用。
数据准备
在开始建模之前,我们已经完成了数据清洗工作,现在拥有一个名为cleaned_cuisines.csv的干净数据集。这个数据集包含多个国家的菜系及其对应的食材特征。
import pandas as pd
cuisines_df = pd.read_csv("../data/cleaned_cuisines.csv")
数据集结构如下:
- 每行代表一个菜品
cuisine列表示菜系类型(如indian、chinese等)- 其他列是各种食材的二元特征(0表示不使用,1表示使用)
特征与标签分离
在机器学习中,我们需要明确区分特征(输入)和标签(输出):
cuisines_label_df = cuisines_df['cuisine'] # 标签
cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1) # 特征
分类算法选择
面对多种分类算法,初学者常会感到困惑。以下是选择分类器时需要考虑的因素:
- 问题类型:我们处理的是多元分类问题(多个菜系类别)
- 数据规模:数据集相对较小,不适合复杂模型
- 计算资源:在本地运行,需要考虑算法效率
根据微软的机器学习算法选择指南,对于多元分类问题,可选的算法包括:
- 逻辑回归
- 决策树
- 随机森林
- 支持向量机等
逻辑回归实现
虽然逻辑回归最初是为二分类设计的,但通过特定策略可以扩展到多元分类:
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(
cuisines_feature_df,
cuisines_label_df,
test_size=0.3
)
# 创建并训练模型
lr = LogisticRegression(multi_class='ovr', solver='liblinear')
model = lr.fit(X_train, y_train.values.ravel())
关键参数说明:
multi_class='ovr':使用"一对多"策略处理多元分类solver='liblinear':选择适合小数据集的优化算法
模型评估
训练完成后,我们需要评估模型性能:
accuracy = model.score(X_test, y_test)
print(f"模型准确率: {accuracy:.2%}")
典型输出结果可能在80%左右,对于初步模型来说表现不错。
详细评估
我们可以查看分类报告获取更详细的评估指标:
from sklearn.metrics import classification_report
y_pred = model.predict(X_test)
print(classification_report(y_test, y_pred))
报告将显示每个类别的精确度、召回率和F1分数,帮助我们了解模型在不同菜系上的表现差异。
模型应用示例
让我们看看模型如何预测一个新样本:
sample = X_test.iloc[50] # 取测试集中的第50个样本
print(f"使用食材: {sample[sample!=0].index.tolist()}")
print(f"实际菜系: {y_test.iloc[50]}")
# 预测概率
proba = model.predict_proba([sample])
result_df = pd.DataFrame(proba, columns=model.classes_)
print(result_df.T.sort_values(by=0, ascending=False).head())
输出可能显示模型以71.5%的概率预测为印度菜,这与实际标签一致。
算法选择深入探讨
Scikit-learn提供了多种分类算法,每种都有其特点和适用场景:
-
线性模型(如逻辑回归):
- 简单高效
- 适合线性可分问题
- 可解释性强
-
支持向量机(SVM):
- 适合高维空间
- 可通过核函数处理非线性问题
- 但对大规模数据效率较低
-
决策树:
- 直观易懂
- 自动特征选择
- 可能过拟合
-
集成方法(如随机森林):
- 通常表现优异
- 减少过拟合风险
- 计算成本较高
总结与建议
通过本案例,我们学习了:
- 如何使用逻辑回归解决多元分类问题
- 模型评估的基本方法
- 不同分类算法的选择考量
对于初学者,建议:
- 从简单模型(如逻辑回归)开始
- 理解模型参数的意义
- 逐步尝试更复杂的算法
- 始终关注模型的可解释性
扩展思考
- 为什么逻辑回归在"一对多"策略下能处理多元分类?
- 不同优化算法(solver)对模型性能有何影响?
- 如何通过特征工程进一步提高模型准确率?
- 当类别不平衡时,应该采取什么策略?
通过这些问题,可以更深入地理解分类算法的原理和应用。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
570
3.85 K
Ascend Extension for PyTorch
Python
387
458
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
894
680
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
354
212
昇腾LLM分布式训练框架
Python
120
146
暂无简介
Dart
805
198
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781