Scaffold-ETH 2 项目网络配置升级指南:从Mumbai到Amoy的迁移
在区块链开发中,测试网络的选择和配置是项目基础设施的重要组成部分。本文将详细介绍Scaffold-ETH 2项目中网络配置的重要更新,帮助开发者理解这些变更的技术背景和实际意义。
网络配置变更概述
Scaffold-ETH 2项目近期对其Hardhat网络配置进行了重要更新,主要涉及三个方面:
- 将Polygon Mumbai测试网替换为Polygon Amoy测试网
- 移除了已停用的Public Goods Network(PGN)及其测试网
- 将Polygon zkEVM测试网升级至Cardona版本
这些变更反映了区块链测试网络生态系统的持续演进,开发者需要及时跟进这些变化以确保项目的持续可测试性。
变更技术细节
Polygon测试网升级
Polygon Mumbai作为长期使用的测试网已被官方标记为弃用状态,其替代者Polygon Amoy采用了更新的技术架构。在Hardhat配置中,这一变更体现在RPC端点的更新:
// 旧配置(Mumbai)
url: `https://polygon-mumbai.g.alchemy.com/v2/${providerApiKey}`
// 新配置(Amoy)
url: `https://polygon-amoy.g.alchemy.com/v2/${providerApiKey}`
PGN网络移除
Public Goods Network(PGN)及其测试网已正式停止服务,因此相关配置已从项目中完全移除。这包括删除hardhat.config.ts文件中对应的网络定义。
zkEVM测试网升级
Polygon的zkEVM测试网已升级至Cardona版本,新的配置如下:
polygonZkEvmCardona: {
url: `https://polygonzkevm-cardona.g.alchemy.com/v2/${providerApiKey}`,
accounts: [deployerKey],
}
变更背后的技术考量
这些网络配置变更反映了区块链基础设施的几个重要趋势:
-
测试网的定期轮换:主流区块链平台逐渐采用定期更换测试网的策略,这有助于保持网络性能并鼓励开发者定期更新其基础设施。
-
ZK技术普及:Polygon zkEVM测试网的持续演进表明零知识证明技术在Layer 2解决方案中的应用日益成熟。
-
基础设施整合:PGN等专用网络的停用反映了行业向更标准化、更通用的基础设施方向发展的趋势。
开发者迁移建议
对于使用Scaffold-ETH 2的开发者,建议采取以下步骤完成网络配置迁移:
- 更新项目依赖至最新版本
- 修改环境变量中的测试网RPC URL
- 获取新的测试网代币(Amoy MATIC等)
- 重新部署测试合约并验证功能
- 更新CI/CD流程中的网络配置
常见问题处理
在迁移过程中,开发者可能会遇到以下问题:
- 连接超时错误:通常表明尝试访问已停用的测试网端点
- 链ID不匹配:新测试网可能使用不同的链ID,需要更新前端配置
- 交易失败:可能由于新测试网采用不同的gas定价机制
这些问题通常可以通过检查网络配置和更新相关参数来解决。
总结
Scaffold-ETH 2项目的网络配置更新反映了区块链测试基础设施的最新发展。及时跟进这些变更不仅能确保开发环境的稳定性,还能让开发者尽早体验新技术特性。建议开发者定期检查项目网络配置,保持与主流测试网络的同步。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00