Prysm项目v6.0.4版本技术解析:PeerDAS与轻客户端支持的重大进展
Prysm是区块链2.0信标链的一个主流客户端实现,由Prysmatic Labs团队开发维护。作为区块链从工作量证明(PoW)转向权益证明(PoS)的关键基础设施,Prysm客户端承担着验证者节点运行、区块提议和验证等重要功能。本次发布的v6.0.4版本虽然是一个小版本更新,但在PeerDAS(Peer-to-Peer Data Availability Sampling)和轻客户端支持方面取得了显著进展,同时修复了若干关键问题。
核心功能增强
PeerDAS技术实现
PeerDAS是区块链扩容路线图中的重要技术,旨在通过点对点数据可用性采样来提高网络的数据处理能力。在v6.0.4版本中,开发团队实现了多项PeerDAS相关功能:
-
数据列侧车验证:新增了对数据列侧车(data column sidecars)的验证方法,这是PeerDAS架构中的关键组件,负责确保数据的可用性和正确性。
-
文件系统支持:实现了数据列侧车的文件系统存储方案,为后续的大规模数据存储和处理奠定了基础。
-
P2P网络层:完成了PeerDAS的P2P网络实现,使得节点间能够高效地交换数据可用性信息。
-
区块链集成:将PeerDAS功能深度集成到区块链核心包中,确保其与现有共识机制的兼容性。
-
重构重建管道:优化了数据重建管道,当没有可用数据列时能够快速退出,提高了系统效率。
轻客户端支持
轻客户端是区块链生态中的重要组成部分,它们不需要同步完整的区块链数据,而是依赖全节点提供必要的信息。v6.0.4版本在轻客户端支持方面取得了以下进展:
-
主网规范测试:新增了对轻客户端的主网规范测试,确保实现符合区块链主网要求。
-
请求/响应域支持:实现了轻客户端特有的请求和响应域处理逻辑。
-
最小规范测试:增加了对轻客户端"update_ranking"测试的支持,这是轻客户端功能验证的重要环节。
关键问题修复
-
Blob缓存大小设置:修复了启动时Blob缓存大小设置不正确的问题,现在能够根据当前槽时间准确初始化缓存大小。
-
验证器数据库导出:解决了当验证器数据库位于嵌套文件夹(如data/direct/)时,历史导出功能失效的问题。
-
API端点行为修正:调整了
/eth/v1/beacon/states/{state_id}/committees端点的行为,当请求的槽不属于指定epoch时,现在会正确返回400错误,符合Beacon API规范。 -
Docker镜像优化:在Prysm的Docker镜像中添加了
/bin/sh到/bin/bash的符号链接,提高了容器兼容性。 -
验证器构建注册:移除了验证器上下文的过早取消操作,解决了偶尔导致验证器构建注册失败的问题。
测试网络与规范更新
-
Hoodi测试网络:将默认gas限制提高到60M gas,为更复杂的智能合约交互提供了空间。
-
规范测试更新:将规范测试升级到v1.6.0-alpha.0版本,保持与最新区块链规范的同步。
-
Electra支持:更新了Beacon API评估器,新增了对Electra升级引入的端点的支持。
技术架构改进
-
追踪增强:在OpenTelemetry追踪span中添加了Prysm构建数据,便于监控和调试。
-
测试依赖优化:解决了测试工具包中的循环依赖问题,提高了代码的可维护性。
-
夜间测试向量:新增了下载夜间测试向量的能力,便于开发者获取最新的测试用例。
总结
Prysm v6.0.4版本虽然在版本号上是一个小更新,但在技术实现上却包含了多项重要进展。特别是PeerDAS相关功能的持续推进,为区块链未来的扩容奠定了基础。轻客户端支持的不断完善也将有助于提升整个区块链生态的轻量级访问能力。同时,多个关键问题的修复进一步提升了客户端的稳定性和可靠性。这些改进共同推动着Prysm客户端向着更高效、更稳定的方向发展,为区块链网络的持续演进提供了坚实的技术支撑。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00