AWS Deep Learning Containers发布PyTorch 2.5.1训练镜像
AWS Deep Learning Containers(DLC)是亚马逊云科技提供的预构建深度学习环境容器镜像,它集成了主流深度学习框架及其依赖项,为机器学习开发者提供了开箱即用的训练和推理环境。这些容器镜像经过AWS优化和测试,可以直接部署在Amazon EC2、Amazon ECS、Amazon EKS和SageMaker等服务上,大大简化了深度学习环境的配置过程。
本次发布的v1.9版本主要针对PyTorch 2.5.1训练环境进行了更新,提供了CPU和GPU两种版本的容器镜像,均基于Python 3.11和Ubuntu 22.04操作系统构建。这些镜像不仅包含了PyTorch框架本身,还预装了常用的数据科学和机器学习工具包,如NumPy、Pandas、Scikit-learn等,以及AWS特有的工具如SageMaker SDK和SMDEBUG等。
核心镜像特性
CPU版本镜像
CPU版本的PyTorch训练镜像基于Ubuntu 22.04系统,主要特点包括:
- 预装PyTorch 2.5.1 CPU版本及其相关组件(torchaudio 2.5.1和torchvision 0.20.1)
- 包含完整的Python 3.11数据科学栈(NumPy 1.26.4、Pandas 2.2.3、Scikit-learn 1.6.1等)
- 集成AWS工具链(boto3 1.37.11、awscli 1.38.11、sagemaker 2.241.0等)
- 支持计算机视觉任务(OpenCV 4.11.0)
- 包含自然语言处理工具(spaCy 3.8.4)
GPU版本镜像
GPU版本在CPU版本基础上增加了CUDA 12.4支持,主要特点包括:
- 预装PyTorch 2.5.1 CUDA 12.4版本
- 包含完整的CUDA工具链(cuBLAS 12.4、cuDNN 9等)
- 支持分布式数据并行训练(smdistributed-dataparallel 2.6.0)
- 其余Python包版本与CPU版本保持一致
技术栈深度解析
本次发布的DLC镜像在技术栈选择上体现了几个重要考量:
-
PyTorch版本策略:采用最新的稳定版2.5.1,该版本在性能优化和API稳定性方面都有显著改进。同时提供2.5.x系列标签,方便用户在不改变主版本号的情况下获取安全更新。
-
Python版本选择:基于Python 3.11构建,这是目前性能最优的Python版本之一,特别适合计算密集型任务。
-
系统基础:使用Ubuntu 22.04 LTS作为基础操作系统,确保长期支持和安全更新。
-
CUDA兼容性:GPU版本采用CUDA 12.4,这是NVIDIA最新的稳定版本之一,提供了对新硬件架构的更好支持。
-
科学计算生态:预装的科学计算包如NumPy、SciPy等都选择了最新的稳定版本,确保性能和安全。
典型应用场景
这些预构建的DLC镜像特别适合以下场景:
-
快速原型开发:研究人员和工程师可以直接使用这些镜像开始模型开发,无需花费时间配置环境。
-
生产训练任务:在SageMaker或EC2上运行大规模训练任务时,使用这些优化过的镜像可以获得更好的性能和稳定性。
-
教学和实验:教育机构可以利用这些标准化的环境进行机器学习课程教学,确保所有学生使用相同的软件版本。
-
CI/CD流水线:在持续集成系统中使用这些确定性的环境进行模型测试和验证。
使用建议
对于不同需求的用户,AWS提供了灵活的标签策略:
-
需要固定版本的用户可以使用完整版本标签,如
2.5.1-cpu-py311-ubuntu22.04-sagemaker-v1.9。 -
只需要主版本号的用户可以使用简化的标签,如
2.5-cpu-py311。 -
需要最新更新的用户可以使用不带版本号的标签,如
2.5-cpu-py311-ubuntu22.04-sagemaker-v1。
值得注意的是,这些镜像已经过AWS的严格测试和性能优化,特别是在AWS基础设施上运行时能够发挥最佳性能。用户可以直接在SageMaker训练任务中指定这些镜像,或者下载到本地Docker环境中使用。
随着深度学习技术的快速发展,AWS Deep Learning Containers将持续更新,为用户提供最新、最稳定的深度学习环境。开发者可以专注于模型开发本身,而无需担心环境配置和依赖管理的复杂性。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00