首页
/ Xorbits Inference 1.5.0版本发布:多模态与量化技术全面升级

Xorbits Inference 1.5.0版本发布:多模态与量化技术全面升级

2025-06-08 16:43:37作者:丁柯新Fawn

Xorbits Inference是一个开源的大模型推理框架,它提供了高效、灵活的方式来部署和运行各类AI模型。作为一个专注于生产环境的推理解决方案,Xorbits Inference支持从文本生成到视觉理解等多种AI任务,并针对性能进行了深度优化。

多模态模型支持显著增强

1.5.0版本在多模态模型支持方面取得了重要进展。新增了对Megatts3和InternVL3这两个重要视觉语言模型的支持,使得框架在图像理解和多模态推理方面的能力得到显著提升。特别是InternVL3模型,作为视觉语言领域的最新研究成果,其强大的跨模态理解能力为开发者提供了更多可能性。

框架还新增了对Paraformer-zh中文语音识别模型的支持,填补了在语音处理领域的空白。SeaLLMs-v3和GLM4-0414等最新语言模型的加入,则进一步丰富了文本生成和对话系统的选择。

量化技术与性能优化

在模型量化方面,1.5.0版本为InternVL3模型增加了AWQ量化支持。AWQ(Activation-aware Weight Quantization)是一种先进的量化技术,能够在保持模型精度的同时显著减少内存占用和计算需求,这对于资源受限的部署环境尤为重要。

性能优化方面,框架现在默认使用xllamacpp作为后端,这是一个经过高度优化的LLM推理引擎。同时,开发者可以设置min/max_pixels参数来控制视觉模型的输入分辨率,这在处理不同尺寸图像时能够更好地平衡精度和性能。

用户体验改进

1.5.0版本在用户体验方面做了多项改进。新增的下载进度显示和取消下载功能让模型管理更加直观可控。Gradio聊天界面现在可以显示模型的"思考过程",增强了交互体验。框架还支持通过virtualenv为不同模型创建独立的Python环境,解决了依赖冲突问题。

对于开发者来说,模型注册流程通过装饰器得到了简化,降低了使用门槛。Gradio的默认并发数现在会根据CPU核心数自动设置,提高了资源利用率。

技术架构演进

在底层架构方面,1.5.0版本修复了vllm引擎停止时可能出现的挂起问题,提升了稳定性。对于包含多个部分的GGUF模型,现在能够正确加载,扩展了模型兼容性。MLX-LM 0.22.3及以上版本的兼容性问题也得到了解决。

Xorbits Inference 1.5.0版本的发布,标志着该项目在多模态支持、量化技术和用户体验方面都迈上了一个新台阶。这些改进不仅增强了框架的功能性,也为开发者提供了更高效、更灵活的AI模型部署方案。随着AI技术的快速发展,Xorbits Inference正逐步成为一个全面支持各类前沿模型的推理平台。

登录后查看全文
热门项目推荐
相关项目推荐