TT-Metal v0.59.0-rc19 版本深度解析:性能优化与功能增强
TT-Metal 是由 Tenstorrent 开发的一款高性能计算框架,专注于为 AI 和机器学习工作负载提供高效的硬件加速支持。该项目通过深度优化计算核心和内存访问模式,显著提升了神经网络模型的推理和训练性能。最新发布的 v0.59.0-rc19 版本带来了一系列重要的改进和新特性。
核心架构优化
本次更新在底层架构方面进行了多项重要改进。首先是对设备初始化的重构,将固件构建和内存清除操作从设备初始化阶段移至 MetalContext 初始化阶段,这一改变优化了设备启动流程,减少了不必要的重复操作。同时,框架移除了对 GraySkull 架构的依赖,专注于支持更现代的硬件平台。
在内存管理方面,v0.59.0-rc19 版本引入了 ND 分片支持,为多维数据分片提供了更好的支持。此外,框架还改进了主机端缓冲区操作,通过 transform 接口隐藏了底层实现细节,使内存操作更加安全和高效。
计算性能提升
本次更新在计算性能方面做了多项优化。针对 Topk 操作,扩展了对子核心网格的支持,并充分利用列中的可用核心,显著提高了并行处理能力。Argmax 操作也进行了调整,现在会根据 NOC 宽度动态调整每个核心的处理单元数量,实现更好的负载均衡。
在数学运算方面,新增了对 uint16 数据类型的支持,包括乘法、按位或和异或操作,扩展了框架的数据处理能力。同时,修复了 Untilize 操作在处理每核心输出通道数大于 256 时的错误,确保了大规模数据处理的正确性。
网络通信增强
网络通信层是本版本的重点改进领域之一。框架增加了对 2D Fabric 的支持,可以随机选择源设备和目标设备,提高了通信的灵活性。同时引入了 FabricContext,改进了设备初始化流程,并增加了对 TG 网关上启动 Fabric 的支持。
在路由算法方面,优化了 intermesh 路由到下一个 mesh 的性能,并修复了 West 路由器边缘端口的问题,提高了大规模分布式计算的通信效率。新增的 Socket API 和测试为底层网络通信提供了更强大的支持。
模型支持与演示
v0.59.0-rc19 版本加强了对多种神经网络模型的支持。Mobilenetv2 和 Yolov10x 模型的演示已经完成初步搭建,为开发者提供了参考实现。SDXL 和 VAE Decoder 的集成工作也取得了进展,稳定扩散模型的性能得到提升。
在大型语言模型方面,框架增加了对 Llama 3 模型权重的导入支持,并优化了 MistralForCausalLM 类的实现,为 vLLM 提供了更好的兼容性。同时,修复了 Llama TG 解码在处理超过 4k 序列长度时的挂起问题。
开发者工具与测试
本次更新完善了开发者工具链。新增了测试基础设施,支持 tt-mlir 的 C++ 代码生成 emitc,为编译器开发提供了更好的支持。同时,框架改进了性能测量工具,可以在不同条件下评估系统性能。
在测试覆盖方面,增加了多设备 Eltwise 和 TM 压力测试,以及连接打开/关闭的压力测试,确保系统在高负载下的稳定性。针对 Blackhole 架构的特殊情况,调整了部分测试用例,确保兼容性。
总结
TT-Metal v0.59.0-rc19 版本在性能、功能和稳定性方面都取得了显著进步。从底层架构优化到高层模型支持,从计算核心改进到网络通信增强,这一版本为开发者提供了更强大、更灵活的平台。特别是对大型语言模型和计算机视觉模型的支持改进,使得 TT-Metal 在 AI 加速领域保持了竞争优势。随着框架的持续演进,我们可以期待它在更多应用场景中发挥重要作用。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00