NEARCore 2.5.0-rc.1版本技术解析:分片重构与性能优化
NEAR是一个采用分片技术的区块链平台,旨在实现高吞吐量和可扩展性。近期发布的NEARCore 2.5.0-rc.1版本引入了多项重要改进,包括分片重构V3和跨分片带宽调度器等核心协议变更,以及多项非协议层面的性能优化。本文将深入解析这些技术改进的实现原理及其对网络的影响。
协议层重大变更
分片重构V3
NEARCore 2.5.0-rc.1版本最核心的改进之一是实现了分片重构V3机制。这一改进通过协议版本75和76分两个阶段实施,将网络分片数量从6个增加到8个,显著提升了网络的处理能力。
分片重构过程中,节点需要将被重构的分片数据加载到内存中。对于验证节点而言,由于它们通常配置了单分片跟踪和内存Trie(memtrie)功能,这一过程影响较小。但对于RPC节点、归档节点等需要跟踪全部分片的节点类型,在重构完成前将面临较高的内存需求。
特别值得注意的是,从这个版本开始,分片ID(ShardIds)将不再是有序的数字标识符,而是任意的唯一标识符。这一改变为未来更灵活的分片管理奠定了基础。
跨分片带宽调度器
协议版本74中引入了跨分片带宽调度器(NEP-584),这一创新机制负责管理分片间的收据(receipt)传输。通过优化跨分片通信的资源分配,该调度器显著提高了跨分片交易的吞吐量,增强了网络的水平扩展能力。
非协议层改进
状态同步优化
本版本改进了状态同步机制,将状态同步点调整到当前epoch内。节点现在需要在epoch开始后等待几个区块才能启动状态同步过程。这一改变虽然不涉及协议变更,但需要与协议版本74配合启用。
状态同步服务提供商也进行了变更,新的"fast-state-parts"存储桶取代了原有的"state-parts"。用户需要相应调整配置中的state_sync.sync.ExternalStorage.location.GCS.bucket参数。
交易验证并行化
通过并行化交易验证过程(包括签名检查),在verify_and_charge_transaction之前完成这些操作,显著提高了节点的交易处理吞吐量。这一优化对于提升网络整体性能具有重要意义。
升级计划与注意事项
NEAR网络将通过三次协议升级逐步部署这些改进:
- 协议版本74投票将于2025年2月16日18:00 UTC开始
- 协议版本75投票将于次日同一时间启动
- 协议版本76投票随后在2月18日开始
在分片重构期间,跟踪状态的节点(包括RPC、归档、索引器等)需要至少64GB内存来成功完成重构过程。即使是排名21-25的潜在验证节点,也建议配置64GB内存以确保稳定运行。重构完成后,不加载内存Trie的节点可以适当降低内存配置。
若节点在重构过程中崩溃,可能会遇到存储错误。此时可通过neard flat-storage resume-resharding命令恢复重构过程,然后重新启动节点。
总结
NEARCore 2.5.0-rc.1版本通过分片重构V3和跨分片带宽调度器等创新,显著提升了网络的扩展性和性能。这些改进使NEAR能够更好地支持大规模去中心化应用,同时为未来的进一步扩展奠定了基础。节点运营者需要特别注意升级过程中的硬件要求和操作步骤,以确保平稳过渡。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00