【亲测免费】 探索未来智能硬件:Gemmini——一款强大的DNN硬件平台
2026-01-15 17:26:13作者:幸俭卉
项目简介
Gemmini 是一个全面的深度神经网络(DNN)硬件探索和评估平台,其目标是为架构师提供深入洞察系统各个组成部分以及软件栈如何相互作用以影响整体DNN性能的机会。这个项目作为Chipyard生态系统的一部分,采用了先进的Chisel硬件描述语言进行开发。
项目技术分析
Gemmini 是一个基于RoCC加速器的解决方案,拥有非标准的RISC-V自定义指令,与Rocket或BOOM处理器核心的RoCC端口相连,并通过系统总线直接访问L2缓存。它的心脏是一个可配置的 systolic 数组,支持两种数据流模式:输出站定和权重站定。这种灵活性允许在运行时选择最适合的计算策略。
系统的输入和输出存储在一个显式管理的SRAM划片缓存中,由DMA引擎处理主内存与缓存之间的数据传输。为了实现重量站定数据流,还包含了一个附加的SRAM银行和加法单元作为累加器。激活函数、量化操作和矩阵转置等功能也得以集成,以增强其功能。
主要参数
- Systolic Array维度:可以根据需求调整大小,包括两层层次结构,即完全组合的“tile”和带有流水线寄存器的“mesh”。
- Dataflow参数:确定数据流模式是单一类型还是支持多种选择。
- Memory参数:可定制的缓存容量和银行数量。
- Type参数:定义输入、输出和积累的数据类型,包括固定点和浮点数。
- Access-execute队列参数:实现了加载、存储和执行的解耦,确保高效的操作流程。
应用场景
Gemmini 在多个领域有广泛的应用潜力:
- 研究与开发:用于理解不同硬件设计对DNN性能的影响。
- 数据中心优化:提升大规模机器学习模型的处理速度。
- 嵌入式应用:在资源有限的环境中提供高效的DNN计算。
- 实时智能系统:如自动驾驶汽车和物联网设备,需要快速响应和低延迟的DNN计算。
项目特点
- 灵活性:Gemmini 支持输出站定和权重站定数据流,可根据实际工作负载动态选择。
- 可配置性:可以调整 systolic 数组尺寸、内存属性和其他关键参数,以适应不同的硬件和性能要求。
- 高效能:利用 systolic 数组的并行计算能力和优化的内存管理,提高计算效率。
- 广泛适用:既能在功能性模拟器(如Spike)上运行,也能在循环精确的模拟器(如Verilator)上进行性能验证。
- 开源生态:Gemmini 是 Chipyard 生态系统的一部分,提供了丰富的工具链和支持,方便开发者参与和贡献。
快速启动
按照项目文档中的指示安装依赖,构建Gemmini硬件和软件,然后在各种模拟器上运行。无论你是初学者还是经验丰富的开发者,Gemmini 都为你准备了详细的步骤。
Gemmini 提供了一个独特的窗口,让我们能够深入洞察未来的智能硬件设计。利用这个强大的工具,你可以自由地探索、实验和创新,推动DNN硬件的新边界。立即加入Gemmini社区,开启你的硬件探索之旅!
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
478
3.57 K
React Native鸿蒙化仓库
JavaScript
288
340
暂无简介
Dart
729
175
Ascend Extension for PyTorch
Python
288
321
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
850
449
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
245
105
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
TorchAir 支持用户基于PyTorch框架和torch_npu插件在昇腾NPU上使用图模式进行推理。
Python
453
181
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.28 K
706