CIRCT项目firtool-1.104.0版本发布:硬件编译工具链的重要更新
CIRCT(Circuit IR Compilers and Tools)是一个开源的硬件设计工具链项目,它基于MLIR框架构建,旨在为硬件设计提供现代化的编译器基础设施。该项目由LLVM社区支持,专注于将高级硬件描述语言转换为可综合的RTL代码,并优化中间表示(IR)。
本次发布的firtool-1.104.0版本带来了多项重要改进和新功能,主要集中在FIRRTL(Flexible Intermediate Representation for RTL)编译流程、ESI(Embedded System Integration)基础设施、RTG(Register Transfer Generator)测试框架以及验证相关功能的增强。下面我们将详细解析这次更新的技术亮点。
FIRRTL编译流程的改进
在FIRRTL编译方面,本次更新有几个值得关注的优化:
-
内存银行配置的灵活性增强:现在支持通过属性为操作指定细粒度的内存银行配置,这使得内存分区策略可以更加精确地控制。开发者可以为特定内存操作附加属性来定义其银行维度,而不必全局统一设置。
-
XMR(跨模块引用)处理的完善:LowerXMR过程现在会处理所有模块,确保跨模块引用的解析更加全面和可靠。这一改进减少了因XMR处理不完整而导致的潜在问题。
-
初始化逻辑优化:在SCFToCalyx转换过程中,移除了冗余的
init_xxx_instance调用,简化了生成的代码结构,提高了编译效率。 -
IMCP(Inter-Module Constant Propagation)增强:对于包含未知符号使用的模块端口,现在会进行过定义处理,提高了常量传播的鲁棒性。
ESI基础设施的显著增强
嵌入式系统集成(ESI)部分迎来了多项重要更新:
-
主机内存写入路径的齿轮箱支持:为hostmem写入路径添加了齿轮箱(gearbox)功能,使得不同时钟域之间的数据传输更加可靠。
-
多客户端写入复用:hostmem现在支持多个写入客户端的复用,提高了系统资源的利用率。
-
字节使能支持:在cosim hostmem中增加了字节使能功能,使得内存访问控制更加精细。
-
XRT BSP支持:新增了对Xilinx运行时(XRT)板级支持包(BSP)的主机内存写入功能,扩展了硬件加速平台的兼容性。
验证功能的扩展
验证相关功能得到了显著增强:
-
合约(Contract)支持:新增了LowerContractsPass和StripContractsPass,前者将verif.contract操作转换为对应的断言逻辑,后者则提供移除合约的选项。ExportVerilog现在将verif.contract视为无操作(no-op),保持向后兼容。
-
形式验证文档完善:增加了关于circt-bmc使用的详细说明,帮助开发者更好地利用有界模型检查工具进行硬件验证。
RTG测试框架的多项改进
寄存器传输生成器(RTG)测试框架迎来了大量更新:
-
指令集增强:新增了多种指令支持,包括分支指令、算术指令和存储指令,丰富了测试用例的表达能力。
-
寄存器分配:引入了简单的线性扫描寄存器分配算法,提高了生成代码的质量。
-
标签支持:在ISA汇编发射和精化过程中增加了对标签的支持,使得控制流更加清晰。
-
立即数表示:改进了立即数的表示方法,增强了指令的灵活性。
-
寄存器类型扩展:精化过程现在支持固定寄存器和虚拟寄存器,提供了更灵活的寄存器分配策略。
其他重要改进
-
随机化内存初始化:为生成的内存添加了随机初始化逻辑,提高了测试的覆盖率和可靠性。
-
方言清理:新增了移除OM和Emit方言操作的pass,帮助简化最终的输出代码。
-
LLHD优化:在初始化'dontCare'表之前添加了maxPrimitives检查,避免了潜在的错误。
技术影响与展望
firtool-1.104.0版本的发布标志着CIRCT项目在硬件编译工具链领域的持续进步。特别是ESI基础设施的增强,为异构计算和硬件加速提供了更加完善的解决方案。验证功能的扩展也显示出项目对硬件正确性的高度重视。
RTG测试框架的改进使得硬件设计验证更加便捷,而FIRRTL编译流程的优化则进一步提高了生成代码的质量和编译效率。这些更新共同推动着CIRCT向成为工业级硬件编译工具链的目标迈进。
对于硬件开发者而言,这个版本提供了更多工具来应对复杂的设计挑战,特别是在涉及多时钟域、验证和测试等方面。随着这些功能的成熟,CIRCT有望在FPGA和ASIC设计流程中扮演更加重要的角色。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00