垃圾分类数据集全面解析:40类垃圾分布与应用指南
2026-02-05 05:39:24作者:邬祺芯Juliet
数据集概述
垃圾分类数据集(Garbage Classification Dataset v1.0)是面向目标检测任务的专业级图像数据集,包含40个细分类别的垃圾标注数据。该数据集由lzw于2024年6月1日创建,采用YOLO格式标注,遵循CC BY 4.0开源协议,适用于垃圾智能分类系统的模型训练与算法研究。
核心特征
| 项目 | 详情 |
|---|---|
| 类别数量 | 40类 |
| 标注格式 | YOLO(边界框坐标归一化表示) |
| 数据结构 | 训练集/验证集分离(train/val) |
| 数据类型 | 图像文件+文本标注文件 |
| 应用场景 | 垃圾智能分类系统、目标检测模型训练 |
类别体系
数据集采用多级分类体系,覆盖日常生活中常见垃圾类型,具体类别如下:
mindmap
root((垃圾类别))
可回收物
纸类
纸浆(FruitPeel)
纸袋(PaperBags)
纸板箱(Cardboard)
塑料
塑料碗(PlasticBowl)
饮料瓶(DrinkBottle)
化妆品瓶(CosmeticBottles)
金属
易拉罐(Can)
金属食品罐(MetalFoodCans)
厨余垃圾
食品残渣
剩饭剩菜(Meal)
蔬菜(Vegetable)
水果皮(FruitPeel)
骨骼
骨头(Bone)
鱼骨(FishBone)
有害垃圾
电池
干电池(DryBattery)
药品
过期药品(ExpiredDrugs)
药膏(Ointment)
其他垃圾
烟头(Cigarette)
牙签(Toothpick)
污损塑料(SoiledPlastic)
数据分布分析
标注文件格式解析
数据集采用YOLO标注格式,每个图像对应一个文本标注文件,每行代表一个目标实例,格式如下:
<类别ID> <中心x坐标> <中心y坐标> <宽度> <高度>
例如fimg_1.txt文件内容:
0 0.5024752475247525 0.5074257425742574 0.9257425742574258 0.7079207920792079
表示类别ID为0(快餐盒)的目标,中心点坐标(0.502, 0.507),宽度0.926,高度0.708(均为归一化坐标)。
样本类别分布
通过对验证集部分标注文件的抽样分析,发现不同类别的样本分布存在显著差异:
| 类别ID | 类别名称(中文) | 抽样文件数 | 目标数量 | 平均每文件目标数 |
|---|---|---|---|---|
| 0 | 快餐盒 | 1 | 1 | 1.0 |
| 9 | 纸浆 | 1 | 13 | 13.0 |
| 10 | 茶叶 | 3 | 5 | 1.7 |
注:以上数据基于验证集4个标注文件抽样统计,实际完整数据集分布需通过全量分析获得
数据质量评估
从标注文件分析结果来看,数据集具有以下特点:
- 标注一致性:同类目标标注格式统一,坐标值均为归一化表示
- 目标密度:不同类别目标密度差异较大,纸浆类目标平均每文件达13个
- 边界框精度:坐标值保留8-10位小数,标注精度较高
pie
title 样本类别分布(抽样)
"纸浆(9)" : 13
"茶叶(10)" : 5
"快餐盒(0)" : 1
数据集应用指南
环境准备
# 克隆数据集仓库
git clone https://gitcode.com/ai53_19/garbage_datasets
cd garbage_datasets
数据加载示例
以下是使用Python加载数据集的示例代码:
import os
import cv2
import numpy as np
def load_dataset(root_dir):
"""加载垃圾分类数据集"""
images_dir = os.path.join(root_dir, 'datasets/images')
labels_dir = os.path.join(root_dir, 'datasets/labels')
dataset = []
# 遍历训练集和验证集
for split in ['train', 'val']:
img_dir = os.path.join(images_dir, split)
lab_dir = os.path.join(labels_dir, split)
for img_file in os.listdir(img_dir):
if img_file.endswith(('.jpg', '.png')):
# 读取图像
img_path = os.path.join(img_dir, img_file)
image = cv2.imread(img_path)
h, w = image.shape[:2]
# 读取标注
label_file = os.path.splitext(img_file)[0] + '.txt'
lab_path = os.path.join(lab_dir, label_file)
boxes = []
if os.path.exists(lab_path):
with open(lab_path, 'r') as f:
for line in f.readlines():
parts = line.strip().split()
if len(parts) == 5:
class_id = int(parts[0])
cx, cy, bw, bh = map(float, parts[1:])
# 转换为像素坐标
x = int((cx - bw/2) * w)
y = int((cy - bh/2) * h)
box_w = int(bw * w)
box_h = int(bh * h)
boxes.append([class_id, x, y, box_w, box_h])
dataset.append({
'image': image,
'shape': (w, h),
'boxes': boxes,
'path': img_path
})
return dataset
# 使用示例
dataset = load_dataset('.')
print(f"加载数据集样本数: {len(dataset)}")
模型训练建议
基于数据集特点,建议采用以下训练策略:
-
类别平衡处理:
- 对样本量较少的类别(如铁砧、花盆)采用过采样
- 对样本量较多的类别(如纸浆、茶叶)采用数据增强
-
数据增强方案:
flowchart TD A[原始图像] --> B[随机水平翻转] A --> C[随机缩放裁剪] A --> D[色彩抖动] B --> E[组合增强] C --> E D --> E E --> F[训练样本] -
评估指标选择:
- 主要指标:mAP@0.5(目标检测常用指标)
- 次要指标:精确率(Precision)、召回率(Recall)
数据集结构与文件说明
目录结构
garbage_datasets/
├── README.md # 项目说明文档
├── data.yaml # 数据集配置文件
├── dataset_infos.json # 数据集元信息
├── garbage_datasets.json # 类别定义
├── garbage_datasets.py # 数据集加载工具
└── datasets/
├── images/ # 图像文件
│ ├── train/ # 训练集图像
│ └── val/ # 验证集图像
├── labels/ # 标注文件
│ ├── train/ # 训练集标注
│ └── val/ # 验证集标注
└── videos/ # 视频数据
关键文件说明
-
dataset_infos.json:
- 包含数据集元信息、类别定义、标注格式说明
- 类别ID与名称映射关系
-
garbage_datasets.py:
- 提供数据集加载、预处理功能
- 支持数据增强、格式转换
-
data.yaml:
- 模型训练配置文件
- 包含训练集/验证集路径、类别数等信息
使用限制与注意事项
-
许可条款:
- 本数据集采用CC BY 4.0协议
- 商业使用需注明原作者及出处
-
数据局限性:
- 部分类别样本量较少,可能影响检测精度
- 标注仅包含边界框,不含实例分割信息
-
使用建议:
- 建议与其他垃圾数据集联合使用,丰富样本多样性
- 实际部署前需在真实场景中进行额外测试与调优
总结与展望
垃圾分类数据集为垃圾智能分类系统开发提供了高质量的标注数据,其特点可总结为:
-
优势:
- 类别覆盖全面,包含40种常见垃圾类型
- 标注精度高,边界框坐标精确到小数点后8位
- 数据格式标准化,兼容主流目标检测框架
-
改进方向:
- 增加样本数量,尤其是稀有类别
- 补充实例分割标注,支持更精细的垃圾识别
- 添加更多场景变化,如不同光照、背景条件
-
应用前景:
- 智能垃圾桶嵌入式系统
- 环卫自动化分类设备
- 垃圾分类教育APP开发
通过本数据集训练的模型,可实现垃圾的快速自动分类,为环境保护与资源回收提供技术支持。未来可进一步扩展至厨余垃圾成分分析、可回收物价值评估等高级应用场景。
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
热门内容推荐
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
532
3.75 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
336
178
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
886
596
Ascend Extension for PyTorch
Python
340
405
暂无简介
Dart
772
191
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
986
247
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
416
4.21 K
React Native鸿蒙化仓库
JavaScript
303
355