首页
/ Chitu项目v0.3.1版本发布:全面增强对沐曦(MetaX) GPU的支持

Chitu项目v0.3.1版本发布:全面增强对沐曦(MetaX) GPU的支持

2025-07-05 15:33:13作者:尤峻淳Whitney

项目背景

Chitu是由清华PACMAN团队开发的高性能深度学习推理框架,专注于为大模型推理提供高效、灵活的解决方案。该项目在国产硬件适配方面持续发力,最新发布的v0.3.1版本重点增强了对国产GPU厂商沐曦(MetaX)产品的支持能力。

核心更新内容

1. 模型支持范围扩展

本次更新显著提升了Chitu框架在沐曦GPU上的模型兼容性:

  • Llama架构模型:完整支持Llama系列及其衍生模型的推理
  • DeepSeek系列模型:特别优化了对DeepSeek-R1系列大模型的支持,包括:
    • DeepSeek-R1-Distill-Llama-70B
    • DeepSeek-R1-671B等超大规模模型

2. 精度支持全面升级

在计算精度方面,新版本实现了对多种数据格式的支持:

  • 传统浮点格式:bf16、fp16等标准浮点格式
  • 创新浮点格式:soft fp8这种新兴的高效计算格式,能在保持模型精度的同时显著提升计算效率

3. 推理引擎优化

引入全新的infer.op_impl=muxi_custom_kernel模式:

  • 小批量优化:特别针对小批量(batch size较小)的推理场景进行了深度优化
  • 性能提升:通过定制化内核实现,显著提升了在沐曦GPU上的计算效率
  • 灵活切换:用户可根据实际需求选择不同的算子实现方式

技术价值

  1. 国产化适配:此次更新标志着Chitu框架在国产GPU生态建设上迈出重要一步,为国内大模型开发者提供了更多硬件选择。

  2. 性能优化:特别是对小批量推理场景的优化,能够更好地满足实际生产环境中对实时性要求较高的应用场景。

  3. 精度灵活性:支持从fp8到bf16的多种精度选择,让开发者可以根据模型特性和硬件条件灵活权衡精度与性能。

应用前景

这一版本的发布为以下场景提供了更好的支持:

  • 国产GPU环境下的Llama类模型部署
  • DeepSeek系列大模型的产业落地
  • 对推理延迟敏感的小批量实时应用
  • 需要平衡计算效率和模型精度的生产环境

总结

Chitu v0.3.1通过深度优化沐曦GPU支持,不仅丰富了国产AI基础设施的软件生态,也为大模型开发者提供了更高效的推理解决方案。特别是对小批量场景和多种精度的支持,使得框架能够适应更广泛的实际应用需求,展现了清华团队在AI系统优化领域的技术实力。

登录后查看全文
热门项目推荐