首页
/ Fooocus项目在纯CPU环境下的性能优化实践

Fooocus项目在纯CPU环境下的性能优化实践

2025-05-02 03:10:52作者:农烁颖Land

前言

随着Stable Diffusion生态的快速发展,各类基于该技术的开源项目层出不穷。本文将重点探讨Fooocus这一优秀项目在纯CPU环境下的性能优化方案,为没有独立显卡但拥有高性能CPU的用户提供实践指导。

性能对比分析

在近两个月的测试中,我们对市场上主流的Stable Diffusion实现进行了全面评估:

  1. Stable Diffusion Webui:渲染1024x1024图像需要约8分钟(20步),虚拟内存占用极高
  2. Automatic1111:基于Webui的分支版本,存在相同问题
  3. Invoke AI:渲染时间缩短至2分钟,内存管理较好但用户体验欠佳
  4. Fooocus:经过优化后性能显著提升,成为纯CPU环境下的最佳选择

Fooocus优化方案

线程配置优化

在model-management.py文件中进行以下修改,强制使用16线程(可根据实际CPU核心数调整):

if args.always_cpu:
    # 强制使用16线程
    torch.set_num_threads(16)
    cpu_state = CPUState.CPU

系统级内存管理配置

通过以下环境变量配置优化内存管理:

export MALLOCC_CONF="oversize_threshold:1,background_thread:true,metadata_thp:auto,dirty_decay_ms:9000000000,muzzy_decay_ms:9000000000"
export OMP_PROC_BIND=CLOSE
export OMP_SCHEDULE=STATIC
export KMP_AFFINITY=granularity=fine,compact,1,0
export OMP_NUM_THREAD=16
export GOMP_CPU_AFFINITY="0-15"
export ONEDNN_PRIMITIVE_CACHE_CAPACITY=200

启动参数优化

推荐使用以下命令启动Fooocus:

numactl --all accelerate launch --num_cpu_threads_per_process=16 launch.py --always-cpu --all-in-fp32 --disable-xformers --attention-pytorch --disable-server-log

性能表现

经过上述优化后,Fooocus在不同模型下的表现:

  1. Juggernaut模型:1024x1024图像20步约2分钟
  2. LCM模型:1024x1024图像8步不到1分钟
  3. TurboVision模型:1024x1024图像8步约1分20秒

模型管理建议

  1. 精简模型数量:默认安装的Juggernaut+1个Lora+基础模型约占用14GB内存
  2. 避免模型堆积:即使不使用的模型也会被加载到内存
  3. 使用符号链接:可灵活共享模型而不增加内存负担
# 创建符号链接
ln -s ~/Fooocus/models/saved/Turbo*.* ~/Fooocus/models/checkpoints

# 移除符号链接
rm -rf ~/Fooocus/models/checkpoints/Turbo*.*

总结

Fooocus项目经过适当优化后,在纯CPU环境下展现出卓越的性能表现。通过合理的线程配置、内存管理和模型维护,即使是仅有高性能CPU的用户也能获得令人满意的AI图像生成体验。建议用户根据自身硬件条件调整参数,并保持模型库的精简高效。

登录后查看全文
热门项目推荐
相关项目推荐