AWS Amplify CLI 中 Lambda 运行时版本升级问题解析
2025-06-28 09:31:25作者:田桥桑Industrious
amplify-cli
The AWS Amplify CLI is a toolchain for simplifying serverless web and mobile development.
问题背景
在使用 AWS Amplify CLI 进行项目部署时,开发者可能会遇到 Lambda 函数运行时版本不兼容的问题。具体表现为在执行 amplify push 命令时,系统提示 nodejs12.x 运行时不再支持创建或更新 AWS Lambda 函数。
问题本质
AWS Lambda 服务已逐步淘汰对 Node.js 12.x 运行时的支持,要求使用更新的运行时版本(如 Node.js 18.x)。而 Amplify CLI 自动生成的部分 Lambda 函数(如 UserPoolClientLambda 和 PinpointFunction)仍默认使用旧版运行时,导致部署失败。
受影响资源
- 认证相关 Lambda:
UserPoolClientLambda(由 auth 资源创建) - 分析服务 Lambda:
PinpointFunction(由 analytics 资源创建)
解决方案
认证资源更新
对于 auth 资源生成的 Lambda 函数:
- 执行
amplify update auth命令 - 在更新流程中重新选择现有配置选项
- 系统将自动生成使用新版运行时的模板
分析服务更新
对于 analytics 资源生成的 PinpointFunction:
- 手动编辑 CloudFormation 模板文件:
amplify/backend/analytics/<资源名称>/pinpoint-cloudformation-template.json - 定位到
PinpointFunction配置块 - 将
Runtime属性从nodejs12.x更新为nodejs18.x
完整更新步骤
- 确保使用最新版 Amplify CLI(执行
amplify upgrade) - 更新 auth 资源配置
- 手动修改 analytics 资源模板
- 执行
amplify build验证更改 - 执行
amplify push完成部署
技术建议
- 定期检查运行时版本:AWS 会定期淘汰旧版运行时,建议定期检查项目配置
- 版本兼容性测试:升级运行时版本后,应充分测试功能兼容性
- 基础设施即代码:考虑将 Amplify 配置纳入版本控制,便于追踪变更
经验总结
此问题反映了云服务持续演进带来的兼容性挑战。作为开发者,应当:
- 关注 AWS 官方公告,特别是服务废弃计划
- 建立定期升级检查机制
- 理解 Amplify 生成的底层资源配置
- 掌握手动修改 CloudFormation 模板的能力
通过正确处理这类问题,可以确保项目持续获得 AWS 服务的完整支持,同时避免因服务废弃导致的部署中断。
amplify-cli
The AWS Amplify CLI is a toolchain for simplifying serverless web and mobile development.
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
892
667
Ascend Extension for PyTorch
Python
376
445
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
昇腾LLM分布式训练框架
Python
116
145
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
778
暂无简介
Dart
798
197
React Native鸿蒙化仓库
JavaScript
308
359
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
1.13 K
271