首页
/ Infinity项目中使用ONNX模型进行文本嵌入的性能优化实践

Infinity项目中使用ONNX模型进行文本嵌入的性能优化实践

2025-07-04 17:42:02作者:胡易黎Nicole

引言

在自然语言处理领域,文本嵌入(Text Embedding)是一项基础而重要的技术,它将文本转换为向量表示,为下游任务如语义搜索、文本分类等提供支持。Infinity项目作为一个高效的文本嵌入引擎,支持使用ONNX格式的模型进行推理,本文将通过一个实际案例探讨其使用方法和性能优化要点。

ONNX模型准备

Infinity项目要求使用ONNX格式的模型文件。对于常见的Sentence Transformers模型,用户需要预先将其转换为ONNX格式。例如,对于"all-MiniLM-L6-v2"模型,可以使用HuggingFace上已经转换好的ONNX版本。

模型转换完成后,需要确保模型目录中包含以下关键文件:

  • model.onnx:原始ONNX模型文件
  • model_optimized.onnx:优化后的ONNX模型文件
  • 其他相关配置文件

初始化嵌入引擎

使用Infinity项目进行文本嵌入时,首先需要初始化AsyncEmbeddingEngine。关键参数包括:

from infinity_emb import AsyncEmbeddingEngine, EngineArgs

engine = AsyncEmbeddingEngine.from_args(
    EngineArgs(
        model_name_or_path="path/to/onnx_model",
        device="cpu",  # 或"cuda"使用GPU
        batch_size=1,
        lengths_via_tokenize=False,
        model_warmup=True,
        engine="optimum",  # CPU使用optimum引擎
    )
)

性能优化实践

在实际使用中,我们发现几个影响性能的关键因素:

  1. 引擎生命周期管理:引擎的启动和停止会消耗较多时间,应避免在每次推理时重复这一过程。
# 推荐方式:使用上下文管理器管理引擎生命周期
async with engine:
    embeddings = await engine.embed(sentences)

# 或显式管理
await engine.astart()
# 执行多次推理
await engine.astop()
  1. 批量处理优势:Infinity项目在大批量文本处理时能展现更好的性能优势。对于单条短文本,传统Sentence Transformers可能表现更优。

  2. 预热模型:设置model_warmup=True可以让引擎预先执行推理,建立性能基准。

性能对比分析

我们对比了Infinity(ONNX)和原生Sentence Transformers在CPU上的表现:

  • 短文本单条处理

    • Sentence Transformers: ~0.1秒
    • Infinity: ~1秒(包含引擎启动时间)
  • 批量处理长文本

    • Infinity展现出更好的扩展性,随着批量增大,吞吐量显著提升

最佳实践建议

  1. 对于生产环境,保持引擎长期运行,避免频繁启停
  2. 根据实际场景调整batch_size参数
  3. 对于短文本少量请求,评估是否真的需要Infinity
  4. 使用warmup功能建立性能基准
  5. 考虑使用量化后的ONNX模型进一步提升性能

结论

Infinity项目为文本嵌入提供了高效的解决方案,特别是在批量处理和大文本场景下。通过合理的配置和使用方式,可以充分发挥其性能优势。开发者应根据实际应用场景,在模型选择、引擎管理和批处理策略等方面进行调优,以获得最佳的性能表现。

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
22
6
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
197
2.17 K
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
208
285
pytorchpytorch
Ascend Extension for PyTorch
Python
59
94
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
973
574
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
ops-mathops-math
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
549
81
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.02 K
399
communitycommunity
本项目是CANN开源社区的核心管理仓库,包含社区的治理章程、治理组织、通用操作指引及流程规范等基础信息
393
27
MateChatMateChat
前端智能化场景解决方案UI库,轻松构建你的AI应用,我们将持续完善更新,欢迎你的使用与建议。 官网地址:https://matechat.gitcode.com
1.2 K
133