Shader-Slang 2025.6.2版本发布:编译器优化与功能增强
Shader-Slang作为一个开源的着色器语言编译器框架,在2025年6月发布了其6.2版本。该框架旨在为开发者提供跨平台的着色器编译解决方案,支持多种目标平台和图形API。本次更新带来了多项编译器优化、错误修复以及新功能支持,进一步提升了开发者的使用体验。
核心改进与优化
本次版本在编译器内部进行了多项优化,显著提升了编译效率和稳定性。其中最重要的改进包括:
-
IR变量提升优化:修复了IR变量提升过程中的块处理问题,当变量已经在正确块中时不再进行不必要的提升操作,减少了编译时间。
-
自动微分支持增强:新增了对GetOffsetPtr操作的自动微分支持,扩展了自动微分功能的应用范围。
-
类型系统改进:修复了非可微分类型swizzle操作导致的崩溃问题,并增加了对向量和矩阵中不允许的元素类型的错误诊断。
-
泛型接口处理:修正了泛型接口中关联类型的降低问题,提高了泛型编程的可靠性。
平台与API支持
本次更新加强了对多种图形API和平台的支持:
-
WGSL支持:实现了结构化缓冲区的GetDimensions功能,完善了WGSL后端的功能集。
-
SPIR-V改进:更新了SPIRV-Tools并修复了新的验证错误,同时添加了SPIR-V反汇编功能以便于调试。
-
Metal/WGSL支持:为Metal和WGSL后端添加了WaveGetLane系列操作支持。
-
HLSL兼容性:将HLSL支持的编译器版本设置为2018,确保更好的兼容性。
开发者体验提升
-
命令行工具增强:为slang-test添加了帮助屏幕,改善了命令行工具的使用体验。
-
版本字符串处理:修复了版本字符串中"v"前缀的修剪问题。
-
输出目录设置:现在会正确尊重用户定义的库输出目录设置。
-
错误诊断:改进了能力诊断消息,使其更加友好易懂。
-
模块组织:新增了模块组织建议文档,帮助开发者更好地组织代码。
内部架构改进
-
链接时布局缓存:增加了对链接类型布局缓存的测试,确保其正确性。
-
外部类型处理:改进了外部类型在类型布局生成期间的解析逻辑。
-
矩阵布局选项:修复了创建会话时重复添加矩阵布局选项的问题。
-
依赖管理:使用显式依赖替代源文件依赖来管理生成的头文件。
本次Shader-Slang 2025.6.2版本的发布,通过多项编译器优化和功能增强,为图形开发者提供了更强大、更稳定的着色器编译工具链。无论是核心编译器的改进,还是对新兴图形API的支持,都体现了项目团队对开发者体验的持续关注。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00