Shader-Slang 2025.6.2版本发布:编译器优化与功能增强
Shader-Slang作为一个开源的着色器语言编译器框架,在2025年6月发布了其6.2版本。该框架旨在为开发者提供跨平台的着色器编译解决方案,支持多种目标平台和图形API。本次更新带来了多项编译器优化、错误修复以及新功能支持,进一步提升了开发者的使用体验。
核心改进与优化
本次版本在编译器内部进行了多项优化,显著提升了编译效率和稳定性。其中最重要的改进包括:
-
IR变量提升优化:修复了IR变量提升过程中的块处理问题,当变量已经在正确块中时不再进行不必要的提升操作,减少了编译时间。
-
自动微分支持增强:新增了对GetOffsetPtr操作的自动微分支持,扩展了自动微分功能的应用范围。
-
类型系统改进:修复了非可微分类型swizzle操作导致的崩溃问题,并增加了对向量和矩阵中不允许的元素类型的错误诊断。
-
泛型接口处理:修正了泛型接口中关联类型的降低问题,提高了泛型编程的可靠性。
平台与API支持
本次更新加强了对多种图形API和平台的支持:
-
WGSL支持:实现了结构化缓冲区的GetDimensions功能,完善了WGSL后端的功能集。
-
SPIR-V改进:更新了SPIRV-Tools并修复了新的验证错误,同时添加了SPIR-V反汇编功能以便于调试。
-
Metal/WGSL支持:为Metal和WGSL后端添加了WaveGetLane系列操作支持。
-
HLSL兼容性:将HLSL支持的编译器版本设置为2018,确保更好的兼容性。
开发者体验提升
-
命令行工具增强:为slang-test添加了帮助屏幕,改善了命令行工具的使用体验。
-
版本字符串处理:修复了版本字符串中"v"前缀的修剪问题。
-
输出目录设置:现在会正确尊重用户定义的库输出目录设置。
-
错误诊断:改进了能力诊断消息,使其更加友好易懂。
-
模块组织:新增了模块组织建议文档,帮助开发者更好地组织代码。
内部架构改进
-
链接时布局缓存:增加了对链接类型布局缓存的测试,确保其正确性。
-
外部类型处理:改进了外部类型在类型布局生成期间的解析逻辑。
-
矩阵布局选项:修复了创建会话时重复添加矩阵布局选项的问题。
-
依赖管理:使用显式依赖替代源文件依赖来管理生成的头文件。
本次Shader-Slang 2025.6.2版本的发布,通过多项编译器优化和功能增强,为图形开发者提供了更强大、更稳定的着色器编译工具链。无论是核心编译器的改进,还是对新兴图形API的支持,都体现了项目团队对开发者体验的持续关注。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C097
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00