Terraform AWS GitHub Runner v0.28.0版本发布:支持临时运行器与Graviton实例
Terraform AWS GitHub Runner是一个开源项目,它通过Terraform在AWS上部署和管理GitHub Actions的自托管运行器。该项目简化了在AWS基础设施上运行GitHub Actions工作流的过程,提供了自动扩展、多平台支持等企业级功能。
最新发布的v0.28.0版本带来了几项重要改进,包括对临时运行器的支持、创建Fleet API替代Run Instance API、Graviton实例支持等。这些更新显著提升了运行器的灵活性、资源利用率和成本效益。
临时运行器支持
v0.28.0版本引入了临时运行器(ephemeral runners)功能。临时运行器是指那些在执行完任务后会自动销毁的运行器实例,而不是保持运行状态等待下一个任务。这种模式特别适合以下场景:
- 安全性要求高的环境:每次任务都在全新的环境中执行,避免了潜在的环境污染
- 成本敏感型工作负载:只在需要时创建资源,任务完成后立即释放
- 一致性要求高的构建:每次构建都在干净的环境中开始,确保构建结果的一致性
实现这一功能需要对运行器的生命周期管理进行重构,确保任务完成后能够正确清理资源。项目团队还解决了与此功能相关的多个问题,确保了功能的稳定性和可靠性。
默认运行器位置变更
新版本将运行器的默认安装位置从原来的路径修改为/opt目录。这一变更主要基于以下考虑:
/opt是Linux系统中专门用于安装附加应用程序的标准目录- 遵循了Linux文件系统层次结构标准(FHS)
- 减少了与系统其他组件的潜在冲突
同时,项目团队还修复了Ubuntu示例中的相关问题,使新用户能够更顺利地部署和运行。
创建Fleet API替代Run Instance API
v0.28.0版本用更现代的Create Fleet API替代了原有的Run Instance API。这一技术升级带来了多方面优势:
- 批量操作能力:可以一次性请求多个实例,提高了大规模部署的效率
- 更灵活的实例配置:支持混合实例策略,可以指定多种实例类型和购买选项
- 更好的错误处理:提供了更详细的错误信息和重试机制
这一变更需要更新IAM权限策略,确保运行器服务具有调用新API所需的权限。项目文档已经相应更新,指导用户完成这一过渡。
Graviton实例支持
新版本增加了对t4g Graviton实例类型的支持。Graviton是AWS基于ARM架构的自研处理器,具有以下特点:
- 性价比优势:相比同级别的x86实例,通常能提供更好的性价比
- 能效比高:ARM架构在功耗方面有先天优势
- 生态逐渐成熟:越来越多的软件开始原生支持ARM架构
这一支持使得用户可以在GitHub Actions运行器上利用Graviton实例,进一步优化运行成本。项目团队确保了运行器软件栈在ARM架构上的兼容性,包括必要的二进制文件和依赖项。
Windows AMI配置改进
v0.28.0版本还包含了对Windows AMI配置的修复。这一改进确保了:
- Windows运行器能够正确识别和使用系统资源
- 必要的系统服务和组件能够正常启动
- 与GitHub Actions系统的集成更加稳定
这些修复主要涉及Windows系统特定的配置项和初始化脚本,使Windows运行器的部署更加可靠。
总结
Terraform AWS GitHub Runner v0.28.0版本通过引入临时运行器、升级实例创建API、支持Graviton架构等多项改进,进一步提升了项目的成熟度和实用性。这些更新不仅扩展了功能集,还优化了资源利用率和成本效益,使项目更适合各种规模的企业部署。
对于现有用户,升级到v0.28.0版本需要注意IAM权限策略的更新,特别是从Run Instance API到Create Fleet API的转变。新用户可以受益于更完善的文档和示例,特别是Ubuntu和Windows运行器的配置部分。
随着GitHub Actions在企业中的普及,Terraform AWS GitHub Runner项目将继续演进,提供更强大、更灵活的自托管运行器解决方案。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00