NEAR Core 2.6.0-rc.1版本发布:全球合约支持与乐观区块优化
NEAR Core是NEAR区块链协议的核心实现,作为一个分片式、开发者友好的区块链平台,NEAR以其独特的夜影分片技术和易用性在区块链领域占据重要地位。本次发布的2.6.0-rc.1版本带来了两项重要的协议升级,将显著提升NEAR网络的功能性和性能表现。
全球合约支持(NEP-591)
本次升级最重要的特性之一是实现了NEP-591方案中描述的全球合约功能。全球合约是一种特殊的智能合约,它可以在所有分片上同时运行,而不需要像普通合约那样被分配到特定分片。
传统上,NEAR的分片架构意味着智能合约只能在其部署的分片上执行。这种设计虽然提高了系统的可扩展性,但也带来了一些限制,特别是对于那些需要跨分片访问的应用场景。全球合约的引入解决了这一问题,使得开发者可以构建更灵活、功能更强大的去中心化应用。
全球合约的实现涉及到底层协议的多项修改,包括合约部署机制、执行上下文管理和跨分片通信等方面。这一特性为NEAR生态系统打开了新的可能性,特别是在以下场景中特别有价值:
- 跨分片资产管理和转移
- 全局状态管理和共享服务
- 网络级基础设施组件
乐观区块优化
另一个重要的协议变更是引入了乐观区块(Optimistic Block)机制,旨在减少区块和分片生产流程中的延迟问题。在之前的实现中,区块和分片的生产流程存在双重执行延迟的问题,这在一定程度上限制了网络的吞吐量和响应速度。
乐观区块的工作原理是允许区块生产者在验证完当前区块后立即开始生产下一个区块,而不需要等待所有分片的完整验证结果。这种优化可以显著减少区块生产的整体延迟,提高网络的整体性能。
具体来说,这项改进:
- 减少了区块确认时间
- 提高了网络的吞吐量
- 优化了资源利用率
数据库迁移与升级注意事项
2.6.0-rc.1版本包含了从数据库版本43到44的迁移。这一迁移过程在测试网验证节点和RPC节点上大约需要5秒,在归档节点上则需要约60秒。值得注意的是,迁移过程中不需要额外的磁盘空间。
对于需要从2.6版本回滚到2.5版本的用户,项目团队提供了专门的恢复工具和流程。恢复操作需要使用neard database rollback-to25命令,并且必须在协议升级完成前执行。恢复过程可能需要较长时间处理大型归档数据库,用户需要保持耐心等待过程完成。
协议升级时间表
根据发布说明,协议版本77的投票将于2025年4月14日19:00 UTC开始,预计升级将在12-24小时后,即2025年4月15日7:00至19:00 UTC之间进行。升级完成后,节点运营者需要按照团队提供的指导更新某些配置值,以优化区块生产速率。
总结
NEAR Core 2.6.0-rc.1版本的发布标志着NEAR协议在功能和性能上的又一次重要进步。全球合约的支持为开发者提供了更强大的工具,而乐观区块优化则进一步提升了网络的效率。这些改进共同推动NEAR向更高效、更灵活的区块链平台发展,为构建下一代去中心化应用奠定了更坚实的基础。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00