AWS Deep Learning Containers发布v1.5版本:支持CUDA 12.8和Python 3.12的GPU基础镜像
AWS Deep Learning Containers(DLC)项目是亚马逊云科技提供的一套深度学习容器镜像集合,它预装了主流深度学习框架和工具链,帮助开发者快速部署AI工作负载。这些容器镜像经过优化,可直接在EC2实例、EKS集群等AWS计算服务上运行,大幅简化了深度学习环境的搭建过程。
本次发布的v1.5版本带来了一个重要的基础镜像更新,主要面向需要使用GPU加速的深度学习场景。该镜像基于Ubuntu 24.04操作系统构建,预装了CUDA 12.8和Python 3.12运行环境,为开发者提供了最新的工具链支持。
从技术规格来看,这个GPU基础镜像包含了深度学习开发所需的核心组件。在Python包方面,预装了PyYAML 6.0.2用于配置文件处理,AWS CLI 1.40.40及其相关组件(boto3 1.38.41、botocore 1.38.41)用于云服务交互,以及requests 2.32.4等常用网络库。系统层面则包含了关键的GPU计算支持库,如NCCL(NVIDIA Collective Communications Library)的OFI插件,以及GCC 13和标准C++库的开发版本。
值得注意的是,这个镜像是专门针对EC2实例优化的版本,这意味着它已经过AWS云环境的性能调优,能够充分发挥EC2实例的计算能力,特别是搭配NVIDIA GPU实例使用时。镜像采用了CUDA 12.8这一较新的版本,为开发者提供了对最新GPU架构的更好支持,同时也保持了与主流深度学习框架的兼容性。
对于使用Python 3.12的开发团队来说,这个镜像提供了原生支持,避免了自行搭建环境的麻烦。Python 3.12带来了多项性能改进和新特性,如更快的f-string解析、改进的错误消息等,这些都能帮助提升深度学习开发效率。
AWS Deep Learning Containers的这种版本化发布方式,使得企业可以灵活选择适合自己技术栈的容器镜像,同时又能获得AWS官方的质量保证和长期支持。开发者可以直接基于这个镜像构建自己的训练或推理应用,而无需从零开始配置复杂的GPU环境,大大降低了入门门槛和维护成本。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00