AWS Deep Learning Containers 发布 PyTorch 2.3.0 推理容器镜像
AWS Deep Learning Containers (DLC) 是亚马逊云科技提供的预构建深度学习容器镜像,这些镜像经过优化,可在 AWS 云环境中高效运行。它们包含了流行的深度学习框架及其依赖项,使开发者和数据科学家能够快速部署深度学习工作负载,而无需花费时间配置环境。
近日,AWS 发布了 PyTorch 2.3.0 推理容器镜像的两个新版本,分别针对 CPU 和 GPU 计算环境进行了优化。这两个镜像基于 Ubuntu 20.04 操作系统,并预装了 Python 3.11 环境,为 PyTorch 推理任务提供了开箱即用的解决方案。
CPU 优化版本镜像
CPU 优化版本的镜像适用于不需要 GPU 加速的推理场景,包含了 PyTorch 2.3.0 及其相关生态组件。该镜像预装了以下关键软件包:
- PyTorch 核心框架 2.3.0(CPU 版本)
- TorchVision 0.18.0(计算机视觉库)
- TorchAudio 2.3.0(音频处理库)
- TorchServe 0.11.0(模型服务框架)
- Torch Model Archiver 0.11.0(模型打包工具)
此外,镜像中还包含了常用的数据处理和科学计算库,如 NumPy 1.26.4、SciPy 1.13.1、Pandas 2.2.2 和 OpenCV 4.10.0,这些库为数据预处理和后处理提供了强大支持。对于开发者工具,镜像预装了 Cython 3.0.10 和 Ninja 1.11.1.1 等构建工具。
GPU 加速版本镜像
针对需要 GPU 加速的推理任务,AWS 提供了 CUDA 12.1 优化的 PyTorch 2.3.0 镜像。这个版本除了包含 CPU 版本的所有功能外,还针对 NVIDIA GPU 进行了特别优化:
- PyTorch 2.3.0(CUDA 12.1 版本)
- 配套的 TorchVision 和 TorchAudio(CUDA 12.1 版本)
- CUDA 12.1 命令行工具
- cuBLAS 12.1 数学库
- cuDNN 8 深度神经网络加速库
GPU 版本镜像同样预装了完整的 Python 数据科学生态系统,确保开发者可以无缝地从 CPU 环境迁移到 GPU 环境。
镜像特点与优势
这两个镜像都基于 Ubuntu 20.04 LTS 操作系统,提供了长期稳定的基础环境。它们都预装了 AWS 命令行工具(AWS CLI 1.33.4、Boto3 1.34.122),方便与 AWS 云服务集成。
镜像中的软件包版本经过精心选择和测试,确保相互兼容性。例如,PyTorch 2.3.0 与 TorchVision 0.18.0 和 TorchAudio 2.3.0 的组合经过了 AWS 的验证测试,避免了版本不匹配导致的兼容性问题。
对于生产环境部署,镜像中包含了 TorchServe 模型服务框架,支持高性能模型推理和动态批处理等功能。Torch Model Archiver 工具则简化了模型打包和部署流程。
适用场景
这些预构建的容器镜像特别适合以下场景:
- 快速原型开发:开发者可以立即开始模型推理代码开发,无需花费时间配置环境
- 生产部署:经过 AWS 优化的镜像提供了稳定可靠的运行环境
- 大规模推理服务:TorchServe 支持自动扩展和高性能推理
- 模型转换和优化:内置工具支持模型格式转换和性能优化
AWS Deep Learning Containers 的这些新版本镜像为 PyTorch 用户提供了即用型的解决方案,显著降低了深度学习应用部署的复杂性和时间成本。无论是研究实验还是生产部署,这些镜像都能提供一致、可靠的运行环境。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00