PaddleX v3.0-rc1发布:全面适配飞桨3.0框架,性能与功能全面升级
PaddleX是百度飞桨(PaddlePaddle)生态中的全流程开发工具,旨在为开发者提供从数据准备、模型训练到模型部署的一站式AI开发体验。随着飞桨框架3.0的正式发布,PaddleX也迎来了重要的3.0-rc1版本更新,在性能优化、模型支持、硬件适配等方面带来了显著提升。
全面适配飞桨3.0框架新特性
PaddleX v3.0-rc1最核心的升级是全面适配了飞桨框架3.0的新特性。其中最值得关注的是对编译器训练的支持。开发者只需在训练命令中追加-o Global.dy2st=True参数即可开启编译器训练模式。根据官方测试数据,在GPU上,大多数模型的训练速度可提升10%以上,部分模型甚至能达到30%以上的速度提升。
在推理方面,新版本适配了飞桨3.0的中间表示技术(PIR),这使得模型拥有更加灵活的扩展能力和兼容性。值得注意的是,静态图模型的存储格式也发生了变化,文件名由原来的xxx.pdmodel改为xxx.json格式,这一变化为后续的模型管理和部署带来了更多可能性。
新增PP-DocBee文档图像理解大模型
PaddleX v3.0-rc1引入了一个重要的新模型——PP-DocBee,这是飞桨自研的文档图像理解多模态大模型。该模型在学术界及内部业务场景的文档理解评测中表现优异,达到了同参数量级别模型的SOTA水平。
PP-DocBee特别适用于各种文档QA场景,包括但不限于财报分析、研报解读、合同审查、说明书理解以及法律法规解析等。它的加入大大扩展了PaddleX在文档智能处理领域的能力边界,为企业级文档自动化处理提供了强有力的技术支持。
全面支持ONNX模型格式
新版本的另一大亮点是全面支持ONNX(Open Neural Network Exchange)格式模型。ONNX是一种开放的神经网络交换格式,支持多种深度学习框架之间的模型互操作。PaddleX现在不仅可以直接使用ONNX格式的模型,还提供了Paddle2ONNX插件,方便用户将模型转换为ONNX格式。
这一特性极大地增强了PaddleX的模型兼容性和部署灵活性,使得开发者可以更轻松地将模型部署到各种支持ONNX的推理引擎和硬件平台上。
高性能推理能力升级
PaddleX v3.0-rc1在推理性能方面做了多项重要改进:
-
多格式模型支持:新增对ONNX、OM(昇腾模型)格式的支持,系统能够根据运行环境智能选择最优的模型格式进行推理。
-
功能扩展:所有静态图推理的单功能模块与产线现在都可以使用高性能推理插件来提升性能,覆盖范围更广。
-
灵活配置:提供了CLI命令行、API接口和配置文件三种方式来配置高性能推理,支持在子产线、子模块粒度上精细控制高性能推理插件的启用状态。
多硬件支持扩展
在硬件适配方面,PaddleX v3.0-rc1也取得了显著进展:
-
昇腾NPU支持:经过全面验证的模型数量已提升至200个。通用OCR、图像分类、目标检测等常用产线现在支持OM模型格式推理,在Atlas 200、Atlas 300系列产品上的推理速度提升显著,实测数据显示性能提升幅度达到113.8%-226.4%。
-
燧原GCU支持:燧原芯片正式纳入飞桨的例行发版体系,完成了PaddleX生态适配。目前支持90个模型的训练和推理,为使用燧原硬件的开发者提供了完整的工具链支持。
总结
PaddleX v3.0-rc1作为飞桨3.0生态的重要组成,在性能、功能和硬件适配等方面都实现了显著提升。从编译器训练带来的速度飞跃,到PP-DocBee大模型的加入,再到ONNX格式的全面支持和多硬件平台的扩展,这一版本为AI开发者提供了更强大、更灵活的工具集。
特别是对国产硬件的深度适配,展现了PaddleX在推动AI技术国产化方面的坚定步伐。随着rc1版本的发布,PaddleX距离正式版的3.0发布又近了一步,值得所有关注飞桨生态的开发者期待和试用。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust089- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00