Ring项目中P-384和P-521曲线算法的Rust化改造
在密码学库Ring的开发过程中,团队正在推进一个重要技术改进:将P-384和P-521椭圆曲线算法的高层C代码逐步迁移到Rust实现。这项工作不仅涉及语言层面的转换,更包含算法优化和代码架构的重新设计。
背景与目标
P-384和P-521是美国国家标准与技术研究院(NIST)定义的两种椭圆曲线,广泛应用于TLS等安全协议中。Ring库原先使用C语言实现这些曲线的核心运算,现在计划将其逐步迁移到Rust,以获得更好的内存安全性、更现代的代码维护性以及Rust生态系统带来的优势。
分阶段迁移策略
项目采用渐进式迁移方案,确保每个阶段都能独立验证正确性和性能:
第一阶段:点乘运算Rust化
首先将p384_point_mul和nistz384_point_mul函数转换为Rust实现,但仍保留对底层C函数的调用。这包括:
- 保留C实现的点加(point_add)和点倍(point_double)运算
- 保留C实现的位操作函数如wvalue计算、booth_recode等
- 保持p384_point_select_w5等选择函数的C实现
这种保守策略确保核心算法逻辑先迁移到Rust,同时依赖经过验证的底层C实现,降低初期风险。
第二阶段:点倍运算迁移
在确认第一阶段稳定后,将nistz384_point_double函数完全转换为Rust实现。点倍运算是椭圆曲线运算的基础操作之一,其Rust化将为后续工作奠定基础。
第三阶段:点加运算优化迁移
nistz384_point_add函数的迁移将采用更激进的方案:
- 不直接翻译现有C代码
- 采用BoringSSL使用的无分支(branch-free)点加算法
- 保留C实现的常数时间原语(如is_zero、copy_conditional等)
- 保留C实现的域算术运算
BoringSSL的算法具有更少的域算术操作,不仅简化Rust实现,也为后续性能优化创造条件。
第四阶段:域算术运算封装
将elem_mul_mont、elem_sub等域算术运算先实现为Rust对C函数的封装层。随着这些封装完成,可以移除prefixed_export!宏,因为C代码将不再需要调用Rust实现的bn_mul_mont。
P-521曲线的并行改造
相同的迁移策略将同步应用于P-521曲线。技术团队需要考虑如何在P-384和P-521实现之间共享代码,可能的方案包括:
- 使用泛型编程抽象公共算法
- 为不同曲线参数化设计统一接口
- 提取公共数学运算为独立模块
未来展望
完成上述迁移后,项目计划进一步将limbs.*的底层实现完全Rust化。这需要:
- 开发更完善的时间侧信道防护基础设施
- 建立CI中的时间侧信道检测机制
- 设计安全的Rust原生大数运算实现
这种分层渐进的技术改造策略,既保证了迁移过程的安全性,又为未来性能优化和代码简化创造了条件。通过将密码学核心算法逐步迁移到Rust,Ring项目将获得更好的安全性、可维护性和性能优化空间。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C094
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00