AWS s2n-tls v1.5.19 发布:新增后量子ML-DSA证书支持
项目简介
s2n-tls 是 AWS 开发的一个轻量级 TLS/SSL 实现,专注于安全性、性能和简洁性。作为 AWS 基础设施的重要组成部分,s2n-tls 被广泛应用于各种云服务和产品中。该项目采用 Apache 2.0 和 MIT 双重许可,是一个开源项目。
核心更新:后量子密码学支持
本次发布的 v1.5.19 版本最重要的特性是增加了对后量子密码学 ML-DSA(Module Lattice-based Digital Signature Algorithm)证书的支持。这是 s2n-tls 在应对量子计算威胁方面迈出的重要一步。
ML-DSA 技术解析
ML-DSA 是一种基于格密码学的数字签名算法,被 NIST 选为后量子密码标准化项目的一部分。与传统 RSA 或 ECC 签名算法不同,ML-DSA 基于数学上的格问题,即使在量子计算机面前也能保持安全性。
s2n-tls 在此版本中实现了:
- ML-DSA 签名算法的加密原语支持
- 握手过程中 ML-DSA 签名的处理能力
- 相关证书链的验证逻辑
其他重要改进
测试与稳定性增强
开发团队对测试套件进行了多项改进:
- 减少了集成测试中的不稳定性因素
- 改进了测试日志的可调试性
- 默认关闭了集成测试中的详细模式,提高测试效率
- 增加了对 s2n_stream_cipher_null 的测试覆盖率
Rust 绑定更新
Rust 语言绑定部分也有多项改进:
- 将最低支持的 Rust 版本(MSRV)提升至 1.82.0
- 增加了 Config 类型的 as_ptr() API
- 更新了多个依赖项的版本
安全相关改进
- 将测试用的 Apache 证书从 RSA1024 升级到更安全的 RSA2048
- 修复了基准测试中的会话恢复机制问题
技术细节
对于希望深入了解 ML-DSA 集成的开发者,值得关注以下几个技术点:
-
证书处理:s2n-tls 现在能够正确处理包含 ML-DSA 公钥的 X.509 证书,包括证书链验证。
-
握手签名:在 TLS 握手过程中,服务器可以使用 ML-DSA 算法对握手消息进行签名,客户端能够验证这些签名。
-
加密原语集成:底层加密库中新增了 ML-DSA 相关的实现,包括密钥生成、签名和验证等操作。
向后兼容性
虽然新增了后量子密码学支持,但 s2n-tls 保持了良好的向后兼容性。现有的 RSA 和 ECC 算法仍然完全支持,ML-DSA 是作为一个额外的可选特性加入的。
开发者建议
对于考虑采用新版本的项目,建议:
- 评估是否需要后量子密码学支持
- 测试现有应用与新版本的兼容性
- 关注性能影响,特别是在资源受限环境中
总结
s2n-tls v1.5.19 通过引入 ML-DSA 支持,为应对未来的量子计算威胁做好了准备。同时,该版本在测试覆盖率、稳定性和 Rust 绑定等方面都有显著改进,是一个值得升级的版本。对于关注长期安全性的项目,特别是那些需要前瞻性安全保护的场景,升级到这个版本将获得重要的安全增强。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00