Chisel v6.7.0版本发布:为Chisel 7做准备的重要更新
项目简介
Chisel(Constructing Hardware in a Scala Embedded Language)是一种基于Scala的硬件构建语言,它允许开发者使用高级编程语言来设计和生成硬件电路。作为数字电路设计领域的重要工具,Chisel通过将Scala的强大功能与硬件设计相结合,大大提高了硬件开发的效率和可维护性。
版本概述
Chisel v6.7.0是一个过渡性版本,主要目的是为用户即将到来的Chisel 7发布做准备。这个版本包含了多项API的弃用通知,这些API将在Chisel 7.0中被移除。同时,该版本也带来了一些性能优化和错误修复。
主要更新内容
API弃用与迁移
-
ElaboratedCircuit引入:新版本引入了ElaboratedCircuit类,同时弃用了内部使用的ir Circuit。这一变化使得ChiselCircuitAnnotation和CircuitSerializationAnnotation不再作为case类使用,为向ElaboratedCircuit的过渡提供了便利。
-
更安全的注解API:现在创建Chisel注解时需要报告哪些InstanceIds将被注解,这样Chisel可以进行安全检查。这一改进提高了代码的安全性,防止潜在的错误使用。
-
测试包弃用:testers包中的所有内容都被标记为弃用,这意味着用户需要开始考虑迁移到新的测试框架。
-
字面量转换警告:当使用
.asUInt或.asSInt(_: Int)时,系统会发出警告,提醒用户可能忘记了.W操作。这与之前.U和.S的处理方式一致,有助于避免常见错误。
性能优化
Aggregate类型检查加速:通过为Aggregate类型添加私有的containsProbe变量,显著提高了containsProbe检查的速度,这对于处理大型硬件设计时尤其重要。
错误修复
-
svsim波形转储行为修复:修正了svsim中额外波形转储的行为问题。
-
符号数处理修正:修复了svsim中sendBits()方法处理有符号数的问题。
-
确定性LFSR生成:确保了FibonacciLFSR的确定性归约,提高了设计的可预测性。
-
属性字符串转义:现在会正确转义属性字符串中的特殊字符,增强了字符串处理的可靠性。
-
模块选择修复:修正了特定情况下模块选择的问题。
-
boring功能增强:现在支持在.toInstance调用后对原始Module使用boring功能。
文档与构建改进
-
文档修正:修复了SourceInfoTransform.scala中的文档拼写错误。
-
Scala 2.13.16支持:插件现在支持跨编译到Scala 2.13.16版本。
-
发布流程改进:更新了持续交付权限,并升级了相关依赖版本。
-
兼容性检查:为v6.6.0启用了MiMa(迁移管理器)工具,帮助确保二进制兼容性。
技术影响与建议
对于Chisel用户来说,v6.7.0版本最重要的意义在于为即将到来的Chisel 7做准备。开发团队通过这个版本提前标记了将被移除的API,给了用户充分的迁移时间。建议用户:
-
检查项目中是否使用了被标记为弃用的API,并开始规划迁移策略。
-
特别注意测试框架的变化,因为testers包将被完全移除。
-
利用新的安全注解API改进代码质量。
-
关注性能优化带来的潜在收益,特别是在处理大型设计时。
-
及时更新依赖,确保与新版本的兼容性。
这个版本体现了Chisel项目对向后兼容性和平稳迁移的重视,通过渐进式的变化帮助用户适应未来的重大更新。对于硬件设计团队来说,现在开始准备向Chisel 7过渡将有助于减少未来的迁移成本。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00