Gnark v0.13.0 版本发布:零知识证明框架的重大升级
Gnark 是一个用 Go 语言编写的高性能零知识证明(ZKP)框架,由 ConsenSys 团队开发。它允许开发者构建和验证零知识证明系统,特别适用于区块链和隐私保护应用场景。本次发布的 v0.13.0 版本带来了多项重要改进和新功能,包括性能优化、新算法支持以及多项功能增强。
核心功能增强
1. 哈希函数支持扩展
新版本增加了对 Merkle-Damgård 和 Poseidon2 哈希函数的支持。Merkle-Damgård 结构是许多经典哈希函数(如 SHA 系列)的基础结构,而 Poseidon2 则是一种专为零知识证明优化的哈希算法,具有证明友好的特性。
特别值得注意的是,团队对 Poseidon2 的实现进行了 GKR(Goldwasser-Kalai-Rothblum)电路优化,这是一种交互式证明系统,可以显著提高证明效率。同时,SHA3 哈希函数现在支持 FixedLengthSum 功能,允许对固定长度的输入进行更高效的哈希计算。
2. 多精度计算优化
在零知识证明系统中,处理大数运算是一个常见需求。v0.13.0 对多精度计算进行了多项优化:
- 改进了非本地零值的 IsZero 边缘情况处理
- 实现了更高效的 selector.Mux 递归 BinaryMux 实现,优化了各种大小的选择器性能
- 增加了对哈希函数的 FixedLengthSum 优化,通过最小长度参数提高了计算效率
3. Groth16 证明系统改进
Groth16 是目前最广泛使用的 zk-SNARK 证明系统之一。新版本中:
- 重构了 Groth16 的多方计算(MPC)实现
- 修复了 Groth16 MPC 第一阶段的比例验证问题
- 增加了密钥切换功能,提高了系统的灵活性
性能提升
1. GPU 加速支持
v0.13.0 集成了 OSS ICICLE(版本 v3.2.2)用于 GPU 加速。ICICLE 是一个开源库,专门为密码学计算提供 GPU 加速支持,这将显著提高证明生成和验证的速度,特别是对于大规模计算场景。
2. 电路优化
- 实现了更高效的约束系统布线管理,新增了 GetWiresConstraintExact 方法
- 优化了约束元素的通用接口设计,提高了代码的复用性和可维护性
- 改进了查找表(lookup table)的实现,确保在所有 limbs(大数的分段表示)上进行规范化形式的范围检查
新算法与数学工具
1. 椭圆曲线支持
- 增加了 Pectra BLS12-381 椭圆曲线的预编译支持
- 实现了 BLS12-381 曲线上的映射到 G2 群功能
- 修复了 GLV(Gallant-Lambert-Vanstone)方法中负标量的处理问题
2. 场运算扩展
- 实现了对小域的场仿真支持
- 增加了场扩展支持,允许在本地场上构建扩展场运算
- 引入了 WideCommitter,用于获取场扩展中的承诺
3. GKR 系统迁移与优化
将 GKR 系统从 gnark-crypto 迁移到 gnark 主库,并进行了多项优化:
- 实现了门注册表(Gate Registry)机制
- 重构了单门(unigate)实现
- 提供了详细的 GKR 示例文档
开发者体验改进
1. 断言功能增强
- 增加了 emulated.AssertIsDifferent 方法,用于仿真环境中的不等断言
- 改进了自动元素初始化,使其能够感知当前场特性
2. 常量处理
实现了常量值的二进制分解功能,这在零知识证明系统中特别有用,因为许多密码学操作(如标量乘法)可以通过预计算和查找表来优化。
3. 代码质量与文档
- 统一了代码风格,使用 goimports 工具进行格式化
- 增加了多项文档说明,特别是关于未定义结果的通知
- 修复了 MiMC 哈希函数的注册问题
总结
Gnark v0.13.0 是一个功能丰富且注重性能的版本,它为开发者提供了更多构建高效零知识证明系统的工具和选项。从基础数学运算到高级证明系统,从 CPU 到 GPU 加速,这个版本在多方面都有显著提升。特别是对 GKR 系统的支持和优化,为需要高效交互式证明的应用场景打开了新的可能性。
对于正在使用或考虑使用零知识证明技术的开发者来说,升级到 v0.13.0 将能够利用这些新功能和改进,构建更高效、更灵活的隐私保护解决方案。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00