首页
/ ktransformers项目在多CPU环境下的性能优化实践

ktransformers项目在多CPU环境下的性能优化实践

2025-05-16 18:24:25作者:仰钰奇

引言

在大型语言模型推理场景中,CPU计算资源的高效利用对于提升模型推理速度至关重要。本文将深入分析在ktranformers项目中遇到的NUMA架构下多CPU性能问题,并提供完整的解决方案。

问题现象

在配备双路Intel Xeon Gold 6462C处理器的服务器上运行DeepSeek-R1模型时,观察到以下异常现象:

  1. 单CPU模式下(65线程):

    • 推理速度:5.24 tokens/s
    • 内存占用:390GB
    • CPU利用率:6554%
  2. 双CPU模式下(126线程):

    • 推理速度骤降至0.51 tokens/s
    • 内存占用飙升至904GB
    • CPU利用率:10554%

技术背景

NUMA(Non-Uniform Memory Access)架构是现代多处理器系统的常见设计,其特点是:

  • 每个CPU插槽有本地内存,访问延迟低
  • 跨插槽访问远端内存延迟较高
  • 需要特殊的内存分配策略才能发挥最佳性能

问题根源分析

  1. NUMA感知缺失:默认编译的ktranformers未启用NUMA支持,导致内存分配策略不当
  2. 跨插槽通信开销:线程在多个NUMA节点间频繁通信导致性能下降
  3. 内存带宽瓶颈:非NUMA优化的内存访问模式导致带宽利用率低下

解决方案

1. 重新编译启用NUMA支持

export USE_NUMA=1
make clean && make

2. 合理设置线程数

  • 使用单CPU的核心数(如65线程)而非总线程数
  • 避免跨NUMA节点的线程调度

3. 运行参数优化

python local_chat.py \
  --model_path deepseek-ai/DeepSeek-R1 \
  --gguf_path /path/to/gguf \
  --cpu_infer 65 \  # 设置为单CPU核心数
  --max_new_tokens 1000

优化效果

实施上述优化后,性能得到显著提升:

  • 推理速度:从0.51 tokens/s提升至13.75 tokens/s(27倍提升)
  • 内存占用:984GB(符合NUMA架构预期)
  • CPU利用率:6554%(单NUMA节点满载)
  • GPU利用率:42%(显示负载更均衡)

最佳实践建议

  1. 硬件资源监控:通过numastat等工具监控NUMA内存分配
  2. 线程绑定:考虑使用numactl进行线程绑定
  3. 性能分析:使用perf工具分析热点函数
  4. 模型量化:Q4_K_M量化级别在精度和性能间取得良好平衡

结论

在NUMA架构服务器上部署ktranformers时,必须特别注意编译时的NUMA支持选项和运行时的线程分配策略。通过正确的配置,可以充分发挥多CPU系统的性能潜力,避免因架构特性导致的性能下降问题。本案例中的优化方法同样适用于其他基于GGUF格式的大型语言模型推理场景。

登录后查看全文
热门项目推荐
相关项目推荐