ARM-software/abi-aa项目2025Q1版本更新解析
项目概述
ARM-software/abi-aa项目是ARM架构的应用二进制接口(ABI)规范集合,为基于ARM架构的软件开发提供了标准化的接口定义和调用约定。该项目涵盖了32位(ARM)和64位(AArch64)架构的多个ABI规范,包括过程调用标准、ELF文件格式、DWARF调试信息格式等核心内容,以及针对特定扩展功能(如Morello、PAuth、MemTag等)的补充规范。
2025Q1版本核心更新内容
1. FPMR寄存器与FP8类型支持
在AArch64过程调用标准(AAPCS64)中,本次更新正式描述了FPMR(Floating-point Mode Register)寄存器以及FP8(8位浮点)数据类型。FPMR寄存器用于控制浮点运算的行为模式,而FP8数据类型则针对机器学习等场景提供了更高效的浮点计算支持。值得注意的是,FP8类型的ABI状态已从Alpha升级至Beta,表明其成熟度有所提升。
2. BTI工具链要求明确化
系统V ABI规范中新增了对BTI(Branch Target Identification)的工具链要求说明。BTI是ARMv8.5引入的控制流完整性保护机制,本次更新明确了工具链在生成和处理BTI相关代码时的具体要求,有助于开发者更好地实现控制流保护。
3. SME扩展增强
Scalable Matrix Extension(SME)是ARMv9引入的重要扩展,本次更新增加了agnostic-ZA接口以及保存/恢复SME状态的例程。ZA(ZE+ZA)是SME中的矩阵寄存器组,这些新增内容为开发者提供了更完善的SME编程接口支持。
4. PAuth扩展改进
指针认证(PAuth)扩展在本次更新中获得了多项增强:
- 新增了支持认证的TLSDESC GOT重定位类型
- 将PAuth相关的GOT重定位从私有空间移出 这些改进使得PAuth能更好地与线程本地存储(TLS)机制协同工作,并提高了重定位信息的标准化程度。
5. Morello扩展完善
针对Morello能力架构的扩展规范,本次更新补充了R_MORELLO_JUMP_SLOT重定位类型的详细文档,解决了之前文档不完整的问题。Morello是ARM推出的支持硬件能力的安全架构,这些更新有助于开发者更好地利用其安全特性。
6. 系统V ABI硬浮点要求
系统V ABI规范现在明确要求必须支持硬浮点(hard-float),这反映了现代ARM系统对浮点性能的普遍需求,也简化了ABI兼容性要求。
7. 纯代码段标志引入
ELF规范新增了SHF_AARCH64_PURECODE段标志,用于标识仅包含代码的段。这有助于工具链和运行时系统更好地识别和处理纯代码段,为代码完整性保护等安全特性提供支持。
8. 函数指针与代码指针区分
通过引入额外的重定位类型,本次更新明确区分了函数指针和代码指针。这种区分对于支持能力架构(如Morello)的系统尤为重要,因为它允许更精确地描述不同类型的代码引用。
9. 原子操作扩展
LSFE(Linux Standard Function Environment)规范更新了fetch_add操作,增加了对原子浮点操作的支持。这使得开发者能够在多线程环境中安全地进行浮点数的原子操作。
技术影响与开发者建议
本次ABI更新反映了ARM架构在安全、性能和功能扩展方面的持续演进。对于开发者而言,建议关注以下几点:
-
浮点支持方面:FP8类型的成熟意味着开发者可以考虑在机器学习等场景中使用这种高效的浮点格式,但需要注意其Beta状态可能带来的兼容性考虑。
-
安全特性:BTI和PAuth相关的更新强调了ARM在控制流完整性和指针安全方面的持续投入,开发者应评估这些特性在自身项目中的应用价值。
-
SME支持:随着SME规范的完善,涉及矩阵运算的应用可以开始考虑利用这一扩展带来的性能优势。
-
工具链适配:新增的ELF段标志和重定位类型可能需要工具链更新,开发者应确保使用支持这些新特性的工具链版本。
-
兼容性考虑:系统V ABI对硬浮点的强制要求意味着针对不支持浮点的旧系统可能需要特殊的兼容性处理。
ARM架构的ABI规范持续演进,既反映了硬件特性的发展,也为软件开发提供了更强大的基础。开发者应当定期关注ABI更新,以确保充分利用新特性并保持兼容性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00