AIMET 2.7.0发布:PyTorch OmniQuant实验性支持与多项优化
AIMET(AI Model Efficiency Toolkit)是由高通创新中心开发的开源工具库,专注于为深度学习模型提供量化、压缩和优化功能。该项目支持TensorFlow、PyTorch和ONNX等多种深度学习框架,帮助开发者在保持模型精度的同时提升推理效率。最新发布的2.7.0版本带来了一些值得关注的新特性和改进。
PyTorch OmniQuant实验性支持
2.7.0版本中最引人注目的新特性是对OmniQuant PTQ(Post-Training Quantization)技术的实验性支持。OmniQuant是一种基于论文《OmniQuant: Omnidirectionally Calibrated Quantization for Large Language Models》提出的后训练量化方法,特别针对大型语言模型设计。
该技术目前支持Llama和Qwen2模型家族,通过全方位的校准策略,能够在保持模型性能的同时实现更高效的量化。OmniQuant的核心思想是通过多方向的校准方法,包括权重、激活值等多个维度的联合优化,来减少量化带来的精度损失。
对于研究人员和工程师来说,这一特性为大型语言模型的部署提供了新的量化选择,特别是在资源受限的边缘设备上运行这些模型时,OmniQuant可能带来显著的性能提升。
ONNX相关改进
在ONNX支持方面,2.7.0版本进行了几项重要的优化:
-
依赖项精简:移除了DlCompression、DlEqualization、OpenCV和zlib等依赖项,使得库更加轻量化,减少了潜在的环境冲突问题。
-
编码加载增强:现在支持为缺失的量化器加载编码信息,提高了模型的兼容性和灵活性。同时,在加载编码时会正确设置张量量化器的位宽,确保量化参数的正确应用。
这些改进使得ONNX模型的量化过程更加稳定可靠,特别是在处理复杂模型或迁移已有量化模型时,开发者将获得更好的体验。
PyTorch相关优化
PyTorch方面除了新增的OmniQuant支持外,还包含以下改进:
-
依赖项精简:与ONNX类似,PyTorch部分也移除了不必要的依赖项,保持代码库的简洁性。
-
ONNX QDQ导出增强:现在能够正确导出数据移动操作的编码信息,使得量化感知训练(QAT)后的模型能够更完整地转换为ONNX的QDQ(Quantize-Dequantize)格式。
-
AdaScale实验性功能改进:
- 增加了对Conv2D层在块内更新的支持,扩展了该技术的应用范围
- API更新为接受迭代次数(num_iterations)而非训练轮次(num_epochs),提供了更灵活的训练控制
AdaScale是一种自适应缩放技术,用于改善量化模型的精度,这些改进使得该功能更加实用和易用。
总结
AIMET 2.7.0版本虽然是一个小版本更新,但带来了实用的新特性和多项优化。特别是对OmniQuant的实验性支持,为大型语言模型的量化提供了新的可能性。同时,依赖项的精简和各项功能改进,使得工具库更加稳定和易用。
对于关注模型效率的开发者来说,这个版本值得尝试,特别是那些需要在资源受限环境中部署Llama或Qwen2等大型语言模型的项目。随着AIMET的持续发展,它为深度学习模型的优化和部署提供了越来越强大的工具支持。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
unified-cache-managementUnified Cache Manager(推理记忆数据管理器),是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理并持久化推理过程中产生的KV Cache记忆数据,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。Python03
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
Spark-Prover-7BSpark-Prover-7B is a 7B-parameter large language model developed by iFLYTEK for automated theorem proving in Lean4. It generates complete formal proofs for mathematical theorems using a three-stage training framework combining pre-training, supervised fine-tuning, and reinforcement learning. The model achieves strong formal reasoning performance and state-of-the-art results across multiple theorem-proving benchmarksPython00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-7BSpark-Formalizer-7B is a 7B-parameter large language model by iFLYTEK for mathematical auto-formalization. It translates natural-language math problems into precise Lean4 formal statements, achieving high accuracy and logical consistency. The model is trained with a two-stage strategy combining large-scale pre-training and supervised fine-tuning for robust formal reasoning.Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00- HHowToCook程序员在家做饭方法指南。Programmer's guide about how to cook at home (Chinese only).Dockerfile014
Spark-Scilit-X1-13B科大讯飞Spark Scilit-X1-13B基于最新一代科大讯飞基础模型,并针对源自科学文献的多项核心任务进行了训练。作为一款专为学术研究场景打造的大型语言模型,它在论文辅助阅读、学术翻译、英语润色和评论生成等方面均表现出色,旨在为研究人员、教师和学生提供高效、精准的智能辅助。Python00- PpathwayPathway is an open framework for high-throughput and low-latency real-time data processing.Python00