Hugging Face Optimum for Intel Gaudi:加速AI训练与推理
项目介绍
Hugging Face Optimum for Intel Gaudi 是一个旨在简化Hugging Face Transformers与Difffusers库在Intel Gaudi AI加速器(HPU)上使用的接口。它提供了一系列工具,便于单卡或多卡设置下各种下游任务的模型加载、训练和推理。通过利用Intel Gaudi的高性能计算能力,此项目提供了高效且价格性能比优异的解决方案。用户可以轻松地将数千个Hugging Face模型适配到Intel Gaudi加速器上,并且只需进行少量修改即可适用于不同任务。
快速启动
要立即开始在Habana Gaudi处理器上使用Transformers,您需遵循以下步骤:
安装Optimum Habana稳定版本
pip install --upgrade-strategy eager optimum[habana]
获取示例脚本
克隆仓库并切换到对应稳定版本分支:
git clone https://github.com/huggingface/optimum-habana
cd optimum-habana
git checkout v1.13.1 # 假定这是最新的稳定版
示例用法
以修改过的Trainer为例,使用GaudiTrainer替换原Trainer类,添加Habana特定配置:
from optimum.habana import GaudiConfig, GaudiTrainer
from transformers import TrainingArguments
training_args = TrainingArguments(
use_habana=True,
use_lazy_mode=True,
gaudi_config_name="path_to_gaudi_config",
)
# 初始化Trainer时使用GaudiTrainer
trainer = GaudiTrainer(
model=model,
args=training_args,
train_dataset=train_dataset if training_args.do_train else None,
eval_dataset=eval_dataset if training_args.do_eval else None,
compute_metrics=compute_metrics,
tokenizer=tokenizer,
data_collator=data_collator,
)
应用案例与最佳实践
对于使用案例,比如文本生成或者图像合成,您可以使用GaudiStableDiffusionPipeline来优化Stable Diffusion模型在HPU上的表现。这包括了如下的使用方式:
from optimum.habana.diffusers import GaudiStableDiffusionPipeline
model_name = "CompVis/stable-diffusion-v1-4"
pipeline = GaudiStableDiffusionPipeline.from_pretrained(
model_name,
use_habana=True,
use_hpu_graphs=True,
gaudi_config="Habana/stable-diffusion",
)
output = pipeline(["一幅毕加索风格的松鼠图画"], num_images_per_prompt=16)
最佳实践中,重要的是调整GaudiConfig以适应您的模型和任务需求,充分利用混合精度训练以及优化算子。
典型生态项目
Optimum for Intel Gaudi项目不仅支持主流的自然语言处理模型,如BERT、RoBERTa等,还兼容深度学习领域内的多种架构,如用于图像分类的ViT、Swin,以及语音识别的Wav2Vec2等。此外,它也支持扩散模型Stable Diffusion等,在文本到图像生成领域展现实力。这个生态让开发者能够在其广泛支持的设备上灵活运用Hugging Face模型。
开发者可以通过访问Hugging Face官方文档和社区论坛,找到更多关于如何在实际项目中集成和优化这些模型的指导和案例分享。无论是深度学习研究者还是工业界的应用开发者,Optimum for Intel Gaudi都为在Intel Gaudi平台上部署高质量AI解决方案提供了强大工具集。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00