NEARCore 2.6.1版本发布:全球合约支持与乐观区块优化
NEAR协议与NEARCore项目简介
NEAR是一个面向开发者和用户友好的区块链平台,旨在提供高性能、可扩展的基础设施。NEARCore则是NEAR协议的官方实现,作为区块链节点的核心软件,负责网络共识、交易处理、智能合约执行等关键功能。该项目采用Rust语言编写,以安全性和性能为核心设计目标。
2.6.1版本核心升级内容
全球合约支持(NEP-591)
本次升级最重要的特性之一是实现了NEP-591方案中描述的全球合约功能。全球合约是一种特殊的智能合约,其状态和代码在所有分片中保持一致,为跨分片通信和全局状态管理提供了基础能力。
传统NEAR合约通常部署在特定分片上,而全球合约则打破了这一限制。这种设计使得开发者能够创建具有全局可见性和可访问性的合约,特别适合构建需要跨分片协调的复杂应用,如去中心化交易平台、跨链连接等基础设施。
从技术实现角度看,全球合约通过特殊的存储机制确保其状态在所有分片间同步,同时保持与现有合约模型的兼容性。这一特性为NEAR生态系统的可组合性开辟了新可能。
乐观区块优化机制
2.6.1版本引入了一项重要的性能优化——乐观区块(Optimistic Block)机制。该技术通过重构区块和分片块(chunk)的生产流程,有效减少了双重执行带来的延迟问题。
在传统设计中,区块生产需要等待分片块执行完成才能继续,这导致了明显的处理延迟。乐观区块机制则允许节点基于预期结果继续工作,显著提升了整体吞吐量。具体实现上,该机制修改了收据ID的计算方式,使用区块高度(block_height)替代额外哈希(extra_hash)作为计算基础,使得分块执行可以基于乐观预测进行。
这一优化对于提升NEAR网络的交易处理能力具有重要意义,特别是在高负载情况下能够保持网络的响应速度。
数据库迁移与版本管理
数据库版本升级
NEARCore 2.6.1包含从版本43到44的数据库迁移。这一迁移过程在节点首次启动2.6版本时自动执行,不同节点类型的迁移时间有所差异:
- 主网验证节点和RPC节点:约30秒
- 主网归档节点:约5分钟
迁移过程中不需要额外存储空间,但需注意不要中断迁移过程,否则可能导致数据库损坏,需要从迁移前快照恢复。
版本回滚机制
考虑到升级可能带来的兼容性问题,2.6.1版本特别设计了回滚机制。在协议升级前,用户可以通过特定命令将数据库回滚到2.5版本兼容的状态:
- 停止节点运行
- 执行
neard database rollback-to25命令 - 等待回滚过程完成(归档节点可能需要5分钟)
- 重新启动2.5版本节点
需要注意的是,一旦网络完成协议升级(版本77),回滚将不再可行,因为新协议与旧版本软件不兼容。
后续升级计划与配置调整
协议版本77的投票将于指定时间开始,预计升级将在投票后约20小时完成。升级后,节点运营商需要按照官方指导调整部分配置参数,以进一步优化区块生成速度。这些调整将基于网络实际运行状况进行优化,与测试网配置可能有所不同。
技术影响与开发者建议
对于智能合约开发者而言,全球合约功能的引入提供了新的设计可能性。建议开发者评估现有合约架构,考虑如何利用全球合约简化跨分片交互。同时,乐观区块机制虽然主要影响底层性能,但也可能间接影响合约执行的可预测性,在开发时间敏感型应用时需加以注意。
节点运营商应特别关注升级时间窗口,确保在协议升级前完成软件更新。对于运行关键服务的节点,建议在测试环境验证迁移过程,并准备好回滚预案。升级后的配置调整也将是优化节点性能的重要环节,需密切关注官方发布的具体参数建议。
NEARCore 2.6.1版本的这些改进标志着NEAR协议在性能和功能丰富性上的持续进步,为构建更复杂的去中心化应用奠定了坚实基础。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00