垃圾分类数据集全面解析:40类垃圾分布与应用指南
2026-02-05 05:39:24作者:邬祺芯Juliet
数据集概述
垃圾分类数据集(Garbage Classification Dataset v1.0)是面向目标检测任务的专业级图像数据集,包含40个细分类别的垃圾标注数据。该数据集由lzw于2024年6月1日创建,采用YOLO格式标注,遵循CC BY 4.0开源协议,适用于垃圾智能分类系统的模型训练与算法研究。
核心特征
| 项目 | 详情 |
|---|---|
| 类别数量 | 40类 |
| 标注格式 | YOLO(边界框坐标归一化表示) |
| 数据结构 | 训练集/验证集分离(train/val) |
| 数据类型 | 图像文件+文本标注文件 |
| 应用场景 | 垃圾智能分类系统、目标检测模型训练 |
类别体系
数据集采用多级分类体系,覆盖日常生活中常见垃圾类型,具体类别如下:
mindmap
root((垃圾类别))
可回收物
纸类
纸浆(FruitPeel)
纸袋(PaperBags)
纸板箱(Cardboard)
塑料
塑料碗(PlasticBowl)
饮料瓶(DrinkBottle)
化妆品瓶(CosmeticBottles)
金属
易拉罐(Can)
金属食品罐(MetalFoodCans)
厨余垃圾
食品残渣
剩饭剩菜(Meal)
蔬菜(Vegetable)
水果皮(FruitPeel)
骨骼
骨头(Bone)
鱼骨(FishBone)
有害垃圾
电池
干电池(DryBattery)
药品
过期药品(ExpiredDrugs)
药膏(Ointment)
其他垃圾
烟头(Cigarette)
牙签(Toothpick)
污损塑料(SoiledPlastic)
数据分布分析
标注文件格式解析
数据集采用YOLO标注格式,每个图像对应一个文本标注文件,每行代表一个目标实例,格式如下:
<类别ID> <中心x坐标> <中心y坐标> <宽度> <高度>
例如fimg_1.txt文件内容:
0 0.5024752475247525 0.5074257425742574 0.9257425742574258 0.7079207920792079
表示类别ID为0(快餐盒)的目标,中心点坐标(0.502, 0.507),宽度0.926,高度0.708(均为归一化坐标)。
样本类别分布
通过对验证集部分标注文件的抽样分析,发现不同类别的样本分布存在显著差异:
| 类别ID | 类别名称(中文) | 抽样文件数 | 目标数量 | 平均每文件目标数 |
|---|---|---|---|---|
| 0 | 快餐盒 | 1 | 1 | 1.0 |
| 9 | 纸浆 | 1 | 13 | 13.0 |
| 10 | 茶叶 | 3 | 5 | 1.7 |
注:以上数据基于验证集4个标注文件抽样统计,实际完整数据集分布需通过全量分析获得
数据质量评估
从标注文件分析结果来看,数据集具有以下特点:
- 标注一致性:同类目标标注格式统一,坐标值均为归一化表示
- 目标密度:不同类别目标密度差异较大,纸浆类目标平均每文件达13个
- 边界框精度:坐标值保留8-10位小数,标注精度较高
pie
title 样本类别分布(抽样)
"纸浆(9)" : 13
"茶叶(10)" : 5
"快餐盒(0)" : 1
数据集应用指南
环境准备
# 克隆数据集仓库
git clone https://gitcode.com/ai53_19/garbage_datasets
cd garbage_datasets
数据加载示例
以下是使用Python加载数据集的示例代码:
import os
import cv2
import numpy as np
def load_dataset(root_dir):
"""加载垃圾分类数据集"""
images_dir = os.path.join(root_dir, 'datasets/images')
labels_dir = os.path.join(root_dir, 'datasets/labels')
dataset = []
# 遍历训练集和验证集
for split in ['train', 'val']:
img_dir = os.path.join(images_dir, split)
lab_dir = os.path.join(labels_dir, split)
for img_file in os.listdir(img_dir):
if img_file.endswith(('.jpg', '.png')):
# 读取图像
img_path = os.path.join(img_dir, img_file)
image = cv2.imread(img_path)
h, w = image.shape[:2]
# 读取标注
label_file = os.path.splitext(img_file)[0] + '.txt'
lab_path = os.path.join(lab_dir, label_file)
boxes = []
if os.path.exists(lab_path):
with open(lab_path, 'r') as f:
for line in f.readlines():
parts = line.strip().split()
if len(parts) == 5:
class_id = int(parts[0])
cx, cy, bw, bh = map(float, parts[1:])
# 转换为像素坐标
x = int((cx - bw/2) * w)
y = int((cy - bh/2) * h)
box_w = int(bw * w)
box_h = int(bh * h)
boxes.append([class_id, x, y, box_w, box_h])
dataset.append({
'image': image,
'shape': (w, h),
'boxes': boxes,
'path': img_path
})
return dataset
# 使用示例
dataset = load_dataset('.')
print(f"加载数据集样本数: {len(dataset)}")
模型训练建议
基于数据集特点,建议采用以下训练策略:
-
类别平衡处理:
- 对样本量较少的类别(如铁砧、花盆)采用过采样
- 对样本量较多的类别(如纸浆、茶叶)采用数据增强
-
数据增强方案:
flowchart TD A[原始图像] --> B[随机水平翻转] A --> C[随机缩放裁剪] A --> D[色彩抖动] B --> E[组合增强] C --> E D --> E E --> F[训练样本] -
评估指标选择:
- 主要指标:mAP@0.5(目标检测常用指标)
- 次要指标:精确率(Precision)、召回率(Recall)
数据集结构与文件说明
目录结构
garbage_datasets/
├── README.md # 项目说明文档
├── data.yaml # 数据集配置文件
├── dataset_infos.json # 数据集元信息
├── garbage_datasets.json # 类别定义
├── garbage_datasets.py # 数据集加载工具
└── datasets/
├── images/ # 图像文件
│ ├── train/ # 训练集图像
│ └── val/ # 验证集图像
├── labels/ # 标注文件
│ ├── train/ # 训练集标注
│ └── val/ # 验证集标注
└── videos/ # 视频数据
关键文件说明
-
dataset_infos.json:
- 包含数据集元信息、类别定义、标注格式说明
- 类别ID与名称映射关系
-
garbage_datasets.py:
- 提供数据集加载、预处理功能
- 支持数据增强、格式转换
-
data.yaml:
- 模型训练配置文件
- 包含训练集/验证集路径、类别数等信息
使用限制与注意事项
-
许可条款:
- 本数据集采用CC BY 4.0协议
- 商业使用需注明原作者及出处
-
数据局限性:
- 部分类别样本量较少,可能影响检测精度
- 标注仅包含边界框,不含实例分割信息
-
使用建议:
- 建议与其他垃圾数据集联合使用,丰富样本多样性
- 实际部署前需在真实场景中进行额外测试与调优
总结与展望
垃圾分类数据集为垃圾智能分类系统开发提供了高质量的标注数据,其特点可总结为:
-
优势:
- 类别覆盖全面,包含40种常见垃圾类型
- 标注精度高,边界框坐标精确到小数点后8位
- 数据格式标准化,兼容主流目标检测框架
-
改进方向:
- 增加样本数量,尤其是稀有类别
- 补充实例分割标注,支持更精细的垃圾识别
- 添加更多场景变化,如不同光照、背景条件
-
应用前景:
- 智能垃圾桶嵌入式系统
- 环卫自动化分类设备
- 垃圾分类教育APP开发
通过本数据集训练的模型,可实现垃圾的快速自动分类,为环境保护与资源回收提供技术支持。未来可进一步扩展至厨余垃圾成分分析、可回收物价值评估等高级应用场景。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
热门内容推荐
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
892
667
Ascend Extension for PyTorch
Python
376
445
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
昇腾LLM分布式训练框架
Python
116
145
暂无简介
Dart
797
197
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
777
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
1.13 K
271
React Native鸿蒙化仓库
JavaScript
308
359