SBOM工具v4.0.2版本发布:全面支持SPDX 3.0规范
微软开源的SBOM工具(SBOM Tool)是一款用于生成、验证和管理软件物料清单(Software Bill of Materials)的专业工具。软件物料清单是现代软件开发中不可或缺的一部分,它详细记录了软件产品中使用的所有组件及其依赖关系,对于软件供应链安全管理和合规性至关重要。
重大API变更
本次v4.0.2版本带来了重要的API变更,主要体现在接口命名和功能调整上。开发团队对"Compliance"(合规性)相关命名进行了统一修改,全部调整为"Conformance"(一致性),这一变更反映了行业术语的标准化趋势。同时,NTIA(美国国家电信和信息机构)相关命名也被更新为NTIAMin,以更准确地表示其作为最小一致性标准的内涵。
值得注意的是,为了保持代码的清晰性和维护性,开发团队移除了向后兼容的接口适配层。这意味着直接使用SBOM工具API的开发者需要检查并更新他们的集成代码,以适应这些命名和结构上的变化。
SPDX 3.0规范支持
本次更新的核心亮点是新增了对SPDX 3.0规范的支持。SPDX(Software Package Data Exchange)是Linux基金会主导的软件物料清单标准,3.0版本带来了更丰富的元数据表达能力和更灵活的关系描述方式。
开发者现在可以通过指定-mi:SPDX3.0命令行参数来启用SPDX 3.0格式的生成和验证功能。工具内部实现了完整的SPDX 3.0组件模型转换逻辑,包括对扩展属性的支持。不过需要注意的是,当前版本尚未实现对SPDX 3.0文档的编辑(redaction)功能,如果用户尝试对SPDX 3.0格式的SBOM进行编辑操作,工具会主动抛出验证错误。
功能改进与问题修复
在功能改进方面,SBOM工具现在能够更智能地处理生成请求,只生成实际支持的清单格式,而不是尝试所有可能的格式。同时,工具现在将SourcesProviders作为事实来源,提高了数据一致性。
针对SPDX 3.0规范,开发团队修复了多个关键问题:
- 修复了关系生成中的逻辑错误
- 解决了根包(root package)的supplier和suppliedBy属性问题
- 修正了外部标识符处理中的空引用问题
- 修复了SBOM文件和包生成中的NoAssertion标记问题
- 解决了包依赖ID映射错误
在验证功能方面,工具现在能够识别并处理扩展属性,同时新增了记录签名验证结果的遥测方法,为后续分析提供了更丰富的数据支持。
开发者体验优化
为了提升开发者体验,本次更新包含多项改进:
- 新增了DotNet组件适配器,更好地支持.NET生态系统
- 改进了E2E测试的执行逻辑,确保测试环境的一致性
- 修复了本地运行E2E测试时可能遇到的问题
- 优化了Docker镜像构建过程,通过清理apt缓存减小了镜像体积
- 更新了多个依赖项版本,包括System.Text.Json从9.0.0升级到9.0.2
总结
SBOM工具v4.0.2版本标志着项目向更现代的软件物料清单标准迈出了重要一步。通过支持SPDX 3.0规范,工具能够满足更复杂的供应链安全需求,同时保持了与现有SPDX 2.2标准的兼容性。虽然引入了一些API变更,但这些调整有助于建立更清晰、更一致的代码结构,为未来的功能扩展奠定基础。
对于需要管理复杂软件供应链的组织来说,升级到这个版本将获得更强大的SBOM处理能力,特别是在处理现代软件组件关系和元数据方面。开发团队建议用户评估这些变更对现有工作流程的影响,并计划相应的升级策略。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00