Solidity项目中字节码依赖重复问题的分析与优化
引言
在Solidity智能合约开发中,当一个合约通过new操作符部署另一个合约,或者通过.runtimeObject和.creationCode访问其字节码时,编译器会将目标合约的字节码嵌入到调用合约中。这种机制在特定情况下会导致字节码的重复存储,进而影响合约的部署成本和执行效率。
问题本质
当合约在创建时和运行时都需要访问另一个合约的字节码时,编译器会将该字节码同时嵌入到调用合约的创建代码和运行时代码中。这种重复存储现象在Solidity的旧版编译器和IR(中间表示)编译器中都存在。
技术细节分析
在底层实现上,Solidity编译器会将依赖合约的字节码作为子程序集(subassembly)嵌入。如果依赖合约在调用合约的构造函数和普通函数中都被使用,那么它的字节码会被分别包含在调用合约的创建程序集和运行时程序集中,导致重复存储。
通过一个简单的测试合约可以清晰地观察到这种现象:
contract C {
function get() public pure returns (string memory) {
return "DDDD...DDD"; // 很长的字符串
}
}
contract D {
constructor() { new C(); }
function deploy() public { new C(); }
}
编译后可以看到,合约C的字节码(表现为长字符串"DDD...")在合约D的字节码中出现了两次。
现有优化机制
Solidity代码库中其实已经包含了一定程度的字节码去重机制。在汇编层面,当检测到相同的子程序集时,会尝试复用而不是重复存储。然而,当前的实现存在以下限制:
- 去重机制可能只作用于单层嵌套的子程序集
- 对于多层嵌套的子程序集,外层程序集可以复用内层程序集,但内层程序集不能引用外层程序集
- 这种限制既出于访问权限考虑,也为了保证编译结果的确定性
可能的解决方案
针对这一问题,开发者可以考虑两种优化路径:
- 单次嵌入方案:将依赖合约的字节码只嵌入一次,让创建代码和运行时代码都引用同一个子程序集
- EVM汇编优化:在EVM汇编优化阶段识别并合并重复的子程序集
最新进展与未来展望
随着Solidity 0.8.27版本的发布,通过引入优化的IR缓存机制,这个问题在性能方面已经得到了显著改善。现在,当多次使用同一个合约时,其IR表示会被缓存和复用,减少了重复优化的工作量。
然而,关于字节码重复存储的问题,在即将到来的EOF(EVM对象格式)中可能仍然存在。根据EOF规范中的EOFCREATE指令设计,它不支持访问嵌套的子容器,这意味着在EOF环境下我们仍然需要重复存储某些字节码。
结论
虽然字节码重复问题在传统EVM环境下仍有优化空间,但考虑到EOF将成为未来的标准目标,且其设计限制使得彻底解决这一问题变得困难,开发者决定暂时搁置进一步的优化工作。当前通过IR缓存实现的性能提升已经为大多数用例提供了足够的优化。
对于开发者而言,了解这一底层机制有助于编写更高效的合约代码,特别是在涉及多个合约交互的场景中。在EOF成为主流后,社区可能会重新审视这一问题并寻找新的解决方案。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00