首页
/ knowledge-distillation-pytorch 项目使用指南

knowledge-distillation-pytorch 项目使用指南

2024-09-24 16:47:36作者:尤辰城Agatha

1. 项目目录结构及介绍

knowledge-distillation-pytorch/
├── experiments/
│   ├── cnn_distill/
│   ├── resnet18_distill/
│   └── ...
├── model/
│   ├── teacher_model.py
│   ├── student_model.py
│   └── ...
├── train.py
├── evaluate.py
├── search_hyperparams.py
├── synthesize_results.py
├── utils.py
├── requirements.txt
├── README.md
└── LICENSE

目录结构说明

  • experiments/: 存放实验配置文件和结果的目录。每个子目录对应一个实验,包含 params.json 配置文件。
  • model/: 存放教师模型和学生模型的定义文件。
  • train.py: 项目的主入口文件,用于训练和评估模型。
  • evaluate.py: 用于评估模型的脚本。
  • search_hyperparams.py: 用于超参数搜索的脚本。
  • synthesize_results.py: 用于合成实验结果的脚本。
  • utils.py: 包含一些工具函数,如进度条、TensorBoard 支持、检查点保存/加载等。
  • requirements.txt: 项目依赖的 Python 包列表。
  • README.md: 项目的介绍和使用说明。
  • LICENSE: 项目的开源许可证。

2. 项目的启动文件介绍

train.py

train.py 是项目的主入口文件,用于训练和评估模型。可以通过命令行参数指定不同的配置和模型。

主要功能

  • 训练和评估 CIFAR-10 数据集上的模型。
  • 支持知识蒸馏(KD)和普通训练。
  • 支持从预训练的教师模型中提取知识。

使用示例

# 训练一个5层CNN模型,使用预训练的ResNet-18模型进行知识蒸馏
python train.py --model_dir experiments/cnn_distill

# 训练一个ResNet-18模型,使用预训练的ResNext-29模型进行知识蒸馏
python train.py --model_dir experiments/resnet18_distill/resnext_teacher

3. 项目的配置文件介绍

params.json

params.json 是项目的配置文件,用于定义实验的超参数。每个实验目录下都有一个 params.json 文件,包含了训练和评估所需的所有参数。

配置文件示例

{
    "model_name": "cnn",
    "teacher_model_name": "resnet18",
    "learning_rate": 0.001,
    "batch_size": 64,
    "epochs": 50,
    "temperature": 20,
    "alpha": 0.5
}

参数说明

  • model_name: 学生模型的名称。
  • teacher_model_name: 教师模型的名称。
  • learning_rate: 学习率。
  • batch_size: 批量大小。
  • epochs: 训练轮数。
  • temperature: 知识蒸馏中的温度参数。
  • alpha: 知识蒸馏损失和交叉熵损失的权重。

通过修改 params.json 文件中的参数,可以灵活地调整实验配置。

登录后查看全文
热门项目推荐
相关项目推荐