Solidity项目中字节码依赖重复问题的分析与优化
引言
在Solidity智能合约开发中,当一个合约通过new操作符部署另一个合约,或者通过.runtimeObject和.creationCode访问其字节码时,编译器会将目标合约的字节码嵌入到调用合约中。这种机制在特定情况下会导致字节码的重复存储,进而影响合约的部署成本和执行效率。
问题本质
当合约在创建时和运行时都需要访问另一个合约的字节码时,编译器会将该字节码同时嵌入到调用合约的创建代码和运行时代码中。这种重复存储现象在Solidity的旧版编译器和IR(中间表示)编译器中都存在。
技术细节分析
在底层实现上,Solidity编译器会将依赖合约的字节码作为子程序集(subassembly)嵌入。如果依赖合约在调用合约的构造函数和普通函数中都被使用,那么它的字节码会被分别包含在调用合约的创建程序集和运行时程序集中,导致重复存储。
通过一个简单的测试合约可以清晰地观察到这种现象:
contract C {
function get() public pure returns (string memory) {
return "DDDD...DDD"; // 很长的字符串
}
}
contract D {
constructor() { new C(); }
function deploy() public { new C(); }
}
编译后可以看到,合约C的字节码(表现为长字符串"DDD...")在合约D的字节码中出现了两次。
现有优化机制
Solidity代码库中其实已经包含了一定程度的字节码去重机制。在汇编层面,当检测到相同的子程序集时,会尝试复用而不是重复存储。然而,当前的实现存在以下限制:
- 去重机制可能只作用于单层嵌套的子程序集
- 对于多层嵌套的子程序集,外层程序集可以复用内层程序集,但内层程序集不能引用外层程序集
- 这种限制既出于访问权限考虑,也为了保证编译结果的确定性
可能的解决方案
针对这一问题,开发者可以考虑两种优化路径:
- 单次嵌入方案:将依赖合约的字节码只嵌入一次,让创建代码和运行时代码都引用同一个子程序集
- EVM汇编优化:在EVM汇编优化阶段识别并合并重复的子程序集
最新进展与未来展望
随着Solidity 0.8.27版本的发布,通过引入优化的IR缓存机制,这个问题在性能方面已经得到了显著改善。现在,当多次使用同一个合约时,其IR表示会被缓存和复用,减少了重复优化的工作量。
然而,关于字节码重复存储的问题,在即将到来的EOF(EVM对象格式)中可能仍然存在。根据EOF规范中的EOFCREATE指令设计,它不支持访问嵌套的子容器,这意味着在EOF环境下我们仍然需要重复存储某些字节码。
结论
虽然字节码重复问题在传统EVM环境下仍有优化空间,但考虑到EOF将成为未来的标准目标,且其设计限制使得彻底解决这一问题变得困难,开发者决定暂时搁置进一步的优化工作。当前通过IR缓存实现的性能提升已经为大多数用例提供了足够的优化。
对于开发者而言,了解这一底层机制有助于编写更高效的合约代码,特别是在涉及多个合约交互的场景中。在EOF成为主流后,社区可能会重新审视这一问题并寻找新的解决方案。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5暂无简介00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00