首页
/ DeepKE项目InstructKGC模块中ChatGLM微调脚本的技术解析

DeepKE项目InstructKGC模块中ChatGLM微调脚本的技术解析

2025-06-17 22:51:30作者:平淮齐Percy

在开源项目DeepKE的知识图谱构建工具链中,InstructKGC模块近期出现了关于ChatGLM模型微调脚本路径的疑问。本文将从技术实现角度解析该模块的设计思路,并说明相关脚本的定位与功能。

背景说明

InstructKGC作为DeepKE中基于指令的知识图谱构建组件,其核心功能是通过预训练语言模型实现结构化信息抽取。ChatGLM作为支持中文的对话大模型,在该模块中被用于few-shot场景下的知识抽取任务。

脚本定位问题

原查询中提到的fintuing_pt.py实际应为ChatGLM的PyTorch微调脚本。经项目维护者确认,该脚本在代码重构过程中被误删除,现已重新上传至规范路径:

example/llm/InstructKGC/src/finetuning_chatglm_pt.py

技术细节说明

  1. 版本兼容性:当前脚本仅支持ChatGLM第一代模型架构,因其采用传统的PyTorch训练范式,与后续版本的训练框架存在差异
  2. 功能特性
    • 实现基于PTuning的轻量化微调
    • 支持中文知识图谱构建的prompt工程
    • 包含LoRA等参数高效微调策略
  3. 后续计划:项目组将补充ChatGLM的Bash训练脚本,提升分布式训练支持

最佳实践建议

对于希望使用该脚本的研究者,建议:

  1. 确认环境依赖包含PyTorch 1.12+版本
  2. 准备符合ChatGLM1格式要求的训练数据
  3. 注意模型显存占用,建议使用A100 40G及以上显卡

该项目持续优化知识图谱构建流程,后续会增强对更多大模型架构的支持,建议关注项目更新日志获取最新进展。

登录后查看全文
热门项目推荐
相关项目推荐