zksync-era项目prover-v21.0.0版本技术解析
zksync-era是一个基于ZK Rollup技术的区块链二层扩容解决方案,它通过零知识证明技术实现了高吞吐量的链下交易处理能力,同时保证了与主网同等级别的安全性。prover作为该项目的核心组件之一,主要负责生成零知识证明,验证交易的有效性。
主要更新内容
协议版本v28支持
本次更新最重要的特性是新增了对Protocol Version v28的支持。在区块链开发中,协议版本的升级往往意味着底层算法或核心逻辑的重大变更。对于零知识证明系统而言,协议升级可能涉及证明电路的优化、新的密码学原语引入或性能改进。
开发团队通过更新依赖库的方式实现了对新协议版本的支持,这需要确保所有相关组件(包括GPU加速模块)都能兼容新的协议规范。这种升级通常会带来证明效率的提升或新功能的引入。
Rust编译器版本升级
项目将Rust编译器版本升级至nightly-2025-03-19。Rust作为系统级编程语言,其nightly版本包含了最新的语言特性和改进。这次升级可能带来了以下优势:
- 性能优化:新版本的编译器可能生成更高效的机器码
- 新语言特性:可以利用最新的Rust特性简化代码或提高安全性
- 工具链改进:配套工具如cargo等可能有更好的构建体验
值得注意的是,使用nightly版本虽然能获得最新特性,但也需要承担更高的不稳定性风险,这表明开发团队对保持技术前沿的积极态度。
重要问题修复
链ID查询优化
修复了在WG(可能指工作组或特定组件)查询中链ID连接的问题。在区块链系统中,链ID是区分不同网络的重要标识符。这个修复确保了在多链环境下的查询准确性,避免了可能出现的跨链数据混淆问题。
证明任务分块处理优化
调整了插入prover jobs时的分块(chunks)数量。在零知识证明生成过程中,合理的数据分块策略对性能有显著影响。过大或过小的分块都可能导致效率低下:
- 分块过大:可能导致内存压力增加,并行度降低
- 分块过小:可能增加管理开销,降低整体吞吐量
这个优化通过调整分块数量,有望提升证明任务的处理效率。
Pod健康检查机制改进
增强了Kubernetes pod的健康检查机制,现在会定期(根据pod_check_interval配置)检查pod列表中的陈旧实例。在分布式证明系统中:
- 及时识别并处理失效pod可以避免资源浪费
- 防止系统为已经不可用的pod分配任务
- 提高整体系统的可靠性和资源利用率
这个改进使得prover在云原生环境中的运行更加健壮。
技术影响分析
这次版本升级从多个维度提升了prover组件的性能和可靠性:
- 功能性:通过支持新协议版本,为系统引入了新的能力或优化
- 稳定性:改进的健康检查机制增强了分布式环境下的容错能力
- 效率:优化的分块策略和链ID查询提升了处理速度
- 开发体验:编译器升级为开发者提供了更现代化的工具链
对于使用zksync-era的开发者而言,升级到这个版本可以获得更稳定高效的证明生成能力,同时为未来可能的协议升级做好准备。需要注意的是,由于包含breaking changes,升级时可能需要相应的适配工作。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00