数据预处理完全教程:机器学习100天Day1代码实现详解
2026-02-06 04:59:53作者:温玫谨Lighthearted
数据预处理是机器学习项目中至关重要的一环,它直接影响模型的性能和准确性。📊 在机器学习100天挑战的第一天,你将学习如何通过6个核心步骤完成数据预处理,为后续的建模工作打下坚实基础。
为什么数据预处理如此重要?
数据预处理是机器学习流程中的关键步骤,它能够:
- 处理缺失值和异常数据
- 将分类数据转换为数值形式
- 标准化特征值范围
- 提高模型训练效率和准确性
数据预处理流程图
数据预处理6大步骤详解
1️⃣ 导入必要的库
首先需要导入NumPy和Pandas这两个核心库:
import numpy as np
import pandas as pd
NumPy提供高效的数值计算功能,Pandas则擅长数据处理和分析。
2️⃣ 导入数据集
使用Pandas读取CSV文件并分离特征和标签:
dataset = pd.read_csv('../datasets/Data.csv')
X = dataset.iloc[:, :-1].values # 所有特征列
Y = dataset.iloc[:, 3].values # 标签列
数据集示例(Data.csv):
- 包含国家、年龄、薪资和购买决策等字段
- 存在缺失值需要处理
3️⃣ 处理缺失数据
使用Scikit-learn的SimpleImputer处理缺失值:
from sklearn.impute import SimpleImputer
imputer = SimpleImputer(missing_values=np.nan, strategy="mean")
imputer = imputer.fit(X[:, 1:3])
X[:, 1:3] = imputer.transform(X[:, 1:3])
这种方法用列的平均值填充缺失的数值数据。
4️⃣ 编码分类数据
将文本分类数据转换为数值形式:
from sklearn.preprocessing import LabelEncoder, OneHotEncoder
from sklearn.compose import ColumnTransformer
ct = ColumnTransformer([("", OneHotEncoder(), [0])], remainder='passthrough')
X = ct.fit_transform(X)
labelencoder_Y = LabelEncoder()
Y = labelencoder_Y.fit_transform(Y)
One-Hot编码避免给分类数据赋予错误的数值顺序。
5️⃣ 拆分训练集和测试集
将数据分为训练集和测试集:
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=0)
通常使用80%的数据训练,20%的数据测试。
6️⃣ 特征量化
标准化特征值到相同尺度:
from sklearn.preprocessing import StandardScaler
sc_X = StandardScaler()
X_train = sc_X.fit_transform(X_train)
X_test = sc_X.transform(X_test)
特征量化确保所有特征对模型的影响权重相同。
实践建议和最佳实践
💡 实用技巧:
- 总是检查数据的基本统计信息
- 处理缺失值前分析缺失模式
- 对于分类变量,优先使用One-Hot编码
- 特征量化对基于距离的算法特别重要
🎯 项目文件路径:
- 主代码文件:Code/Day 1_Data_Preprocessing.py
- 详细说明文档:Code/Day 1_Data_Preprocessing.md
- 示例数据集:datasets/Data.csv
通过这6个步骤的数据预处理,你的数据将变得干净、规整,为机器学习模型的训练做好充分准备。记住,好的数据预处理是成功机器学习项目的一半!🚀
开始你的机器学习100天之旅,从数据预处理开始,一步步掌握机器学习的核心技能。
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
532
3.75 K
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
67
20
暂无简介
Dart
772
191
Ascend Extension for PyTorch
Python
340
405
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
886
596
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
23
0
React Native鸿蒙化仓库
JavaScript
303
355
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
336
178