首页
/ 垃圾分类数据集全面解析:40类垃圾分布与应用指南

垃圾分类数据集全面解析:40类垃圾分布与应用指南

2026-02-05 05:39:24作者:邬祺芯Juliet

数据集概述

垃圾分类数据集(Garbage Classification Dataset v1.0)是面向目标检测任务的专业级图像数据集,包含40个细分类别的垃圾标注数据。该数据集由lzw于2024年6月1日创建,采用YOLO格式标注,遵循CC BY 4.0开源协议,适用于垃圾智能分类系统的模型训练与算法研究。

核心特征

项目 详情
类别数量 40类
标注格式 YOLO(边界框坐标归一化表示)
数据结构 训练集/验证集分离(train/val)
数据类型 图像文件+文本标注文件
应用场景 垃圾智能分类系统、目标检测模型训练

类别体系

数据集采用多级分类体系,覆盖日常生活中常见垃圾类型,具体类别如下:

mindmap
  root((垃圾类别))
    可回收物
      纸类
        纸浆(FruitPeel)
        纸袋(PaperBags)
        纸板箱(Cardboard)
      塑料
        塑料碗(PlasticBowl)
        饮料瓶(DrinkBottle)
        化妆品瓶(CosmeticBottles)
      金属
        易拉罐(Can)
        金属食品罐(MetalFoodCans)
    厨余垃圾
      食品残渣
        剩饭剩菜(Meal)
        蔬菜(Vegetable)
        水果皮(FruitPeel)
      骨骼
        骨头(Bone)
        鱼骨(FishBone)
    有害垃圾
      电池
        干电池(DryBattery)
      药品
        过期药品(ExpiredDrugs)
        药膏(Ointment)
    其他垃圾
      烟头(Cigarette)
      牙签(Toothpick)
      污损塑料(SoiledPlastic)

数据分布分析

标注文件格式解析

数据集采用YOLO标注格式,每个图像对应一个文本标注文件,每行代表一个目标实例,格式如下:

<类别ID> <中心x坐标> <中心y坐标> <宽度> <高度>

例如fimg_1.txt文件内容:

0 0.5024752475247525 0.5074257425742574 0.9257425742574258 0.7079207920792079

表示类别ID为0(快餐盒)的目标,中心点坐标(0.502, 0.507),宽度0.926,高度0.708(均为归一化坐标)。

样本类别分布

通过对验证集部分标注文件的抽样分析,发现不同类别的样本分布存在显著差异:

类别ID 类别名称(中文) 抽样文件数 目标数量 平均每文件目标数
0 快餐盒 1 1 1.0
9 纸浆 1 13 13.0
10 茶叶 3 5 1.7

注:以上数据基于验证集4个标注文件抽样统计,实际完整数据集分布需通过全量分析获得

数据质量评估

从标注文件分析结果来看,数据集具有以下特点:

  1. 标注一致性:同类目标标注格式统一,坐标值均为归一化表示
  2. 目标密度:不同类别目标密度差异较大,纸浆类目标平均每文件达13个
  3. 边界框精度:坐标值保留8-10位小数,标注精度较高
pie
  title 样本类别分布(抽样)
  "纸浆(9)" : 13
  "茶叶(10)" : 5
  "快餐盒(0)" : 1

数据集应用指南

环境准备

# 克隆数据集仓库
git clone https://gitcode.com/ai53_19/garbage_datasets
cd garbage_datasets

数据加载示例

以下是使用Python加载数据集的示例代码:

import os
import cv2
import numpy as np

def load_dataset(root_dir):
    """加载垃圾分类数据集"""
    images_dir = os.path.join(root_dir, 'datasets/images')
    labels_dir = os.path.join(root_dir, 'datasets/labels')
    
    dataset = []
    
    # 遍历训练集和验证集
    for split in ['train', 'val']:
        img_dir = os.path.join(images_dir, split)
        lab_dir = os.path.join(labels_dir, split)
        
        for img_file in os.listdir(img_dir):
            if img_file.endswith(('.jpg', '.png')):
                # 读取图像
                img_path = os.path.join(img_dir, img_file)
                image = cv2.imread(img_path)
                h, w = image.shape[:2]
                
                # 读取标注
                label_file = os.path.splitext(img_file)[0] + '.txt'
                lab_path = os.path.join(lab_dir, label_file)
                
                boxes = []
                if os.path.exists(lab_path):
                    with open(lab_path, 'r') as f:
                        for line in f.readlines():
                            parts = line.strip().split()
                            if len(parts) == 5:
                                class_id = int(parts[0])
                                cx, cy, bw, bh = map(float, parts[1:])
                                
                                # 转换为像素坐标
                                x = int((cx - bw/2) * w)
                                y = int((cy - bh/2) * h)
                                box_w = int(bw * w)
                                box_h = int(bh * h)
                                
                                boxes.append([class_id, x, y, box_w, box_h])
                
                dataset.append({
                    'image': image,
                    'shape': (w, h),
                    'boxes': boxes,
                    'path': img_path
                })
    
    return dataset

# 使用示例
dataset = load_dataset('.')
print(f"加载数据集样本数: {len(dataset)}")

模型训练建议

基于数据集特点,建议采用以下训练策略:

  1. 类别平衡处理

    • 对样本量较少的类别(如铁砧、花盆)采用过采样
    • 对样本量较多的类别(如纸浆、茶叶)采用数据增强
  2. 数据增强方案

    flowchart TD
      A[原始图像] --> B[随机水平翻转]
      A --> C[随机缩放裁剪]
      A --> D[色彩抖动]
      B --> E[组合增强]
      C --> E
      D --> E
      E --> F[训练样本]
    
  3. 评估指标选择

    • 主要指标:mAP@0.5(目标检测常用指标)
    • 次要指标:精确率(Precision)、召回率(Recall)

数据集结构与文件说明

目录结构

garbage_datasets/
├── README.md               # 项目说明文档
├── data.yaml               # 数据集配置文件
├── dataset_infos.json      # 数据集元信息
├── garbage_datasets.json   # 类别定义
├── garbage_datasets.py     # 数据集加载工具
└── datasets/
    ├── images/             # 图像文件
    │   ├── train/          # 训练集图像
    │   └── val/            # 验证集图像
    ├── labels/             # 标注文件
    │   ├── train/          # 训练集标注
    │   └── val/            # 验证集标注
    └── videos/             # 视频数据

关键文件说明

  1. dataset_infos.json

    • 包含数据集元信息、类别定义、标注格式说明
    • 类别ID与名称映射关系
  2. garbage_datasets.py

    • 提供数据集加载、预处理功能
    • 支持数据增强、格式转换
  3. data.yaml

    • 模型训练配置文件
    • 包含训练集/验证集路径、类别数等信息

使用限制与注意事项

  1. 许可条款

    • 本数据集采用CC BY 4.0协议
    • 商业使用需注明原作者及出处
  2. 数据局限性

    • 部分类别样本量较少,可能影响检测精度
    • 标注仅包含边界框,不含实例分割信息
  3. 使用建议

    • 建议与其他垃圾数据集联合使用,丰富样本多样性
    • 实际部署前需在真实场景中进行额外测试与调优

总结与展望

垃圾分类数据集为垃圾智能分类系统开发提供了高质量的标注数据,其特点可总结为:

  1. 优势

    • 类别覆盖全面,包含40种常见垃圾类型
    • 标注精度高,边界框坐标精确到小数点后8位
    • 数据格式标准化,兼容主流目标检测框架
  2. 改进方向

    • 增加样本数量,尤其是稀有类别
    • 补充实例分割标注,支持更精细的垃圾识别
    • 添加更多场景变化,如不同光照、背景条件
  3. 应用前景

    • 智能垃圾桶嵌入式系统
    • 环卫自动化分类设备
    • 垃圾分类教育APP开发

通过本数据集训练的模型,可实现垃圾的快速自动分类,为环境保护与资源回收提供技术支持。未来可进一步扩展至厨余垃圾成分分析、可回收物价值评估等高级应用场景。

登录后查看全文
热门项目推荐
相关项目推荐