viem 2.22.19版本发布:新增链支持与批量执行功能增强
viem是一个功能强大的区块链开发工具库,它为开发者提供了与区块链网络交互的便捷接口。作为Web3开发的基础设施,viem持续优化其功能,支持更多区块链网络,并不断完善智能合约交互能力。
本次发布的2.22.19版本主要带来了三个重要更新,这些更新将进一步提升开发者在多链环境下的开发体验和功能实现能力。
新增Sidra Chain支持
viem在此版本中正式加入了对Sidra Chain的支持。Sidra Chain是一个新兴的区块链网络,其加入使得viem支持的区块链生态系统更加丰富。开发者现在可以直接使用viem提供的标准化接口与Sidra Chain进行交互,无需额外配置底层连接细节。
这一更新意味着开发者可以:
- 无缝连接Sidra Chain节点
- 使用统一的API进行交易发送和查询
- 利用viem的工具集进行合约开发和测试
Songbird Canary-Network新增Multicall地址
对于Songbird Canary-Network(Flare网络的测试网络),本次更新添加了Multicall合约地址支持。Multicall是一种优化技术,允许开发者通过单次RPC调用执行多个合约查询,大幅减少网络请求次数和提高应用性能。
这一改进带来的具体优势包括:
- 显著提升dApp在Songbird网络上的响应速度
- 降低因多次RPC调用导致的网络延迟
- 简化批量查询操作的实现代码
ERC-7821批量执行功能增强
本次更新最重要的技术增强是增加了对ERC-7821标准中executeBatches函数的支持。这是一个针对"批量的批量"执行模式的实现,为复杂智能合约交互提供了更高阶的批量处理能力。
技术细节解析
传统的批量执行通常指一次交易中执行多个操作,而ERC-7821引入的"batch of batches"概念将这一思想进一步扩展:
- 层级化执行:允许将多个批量操作组合成一个更大的批量
- 原子性保证:整个批量的批量要么全部成功,要么全部回滚
- Gas优化:相比单独执行多个批量,可以节省总体Gas消耗
这一功能特别适合以下场景:
- 需要同时更新多个智能合约状态的复杂DeFi操作
- 跨多个协议的原子交易组合
- 需要高效处理大量操作的后台任务
升级建议
对于正在使用viem的开发者,建议尽快升级到2.22.19版本以获取这些新功能。特别是那些:
- 计划集成Sidra Chain的项目
- 在Songbird网络上开发并需要性能优化的应用
- 需要实现复杂批量操作逻辑的智能合约开发者
升级过程通常只需更新package.json中的版本号并重新安装依赖即可,不会破坏现有功能的兼容性。
viem持续致力于为Web3开发者提供最全面、最高效的工具集,本次更新再次体现了其在多链支持和智能合约交互能力上的领先地位。随着区块链生态的不断发展,viem也将持续进化,为开发者提供更强大的基础设施支持。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00