Terraform AWS GitHub Runner 5.7.0版本发布:支持按Runner配置VPC和子网
Terraform AWS GitHub Runner是一个开源项目,它允许用户在AWS上部署和管理GitHub Actions的自托管运行器。该项目通过Terraform模块化部署,简化了运行器的生命周期管理、自动缩放以及与GitHub的集成。最新发布的5.7.0版本带来了一些重要的功能增强和错误修复。
主要新特性:按Runner配置VPC和子网
5.7.0版本最显著的改进是增加了为每个Runner单独配置VPC和子网的能力。这一功能对于需要将不同Runner部署到不同网络环境中的用户特别有用。例如:
- 可以将测试环境的Runner和生产环境的Runner隔离在不同的VPC中
- 可以根据安全要求将敏感任务的Runner部署到私有子网
- 可以为不同区域的团队配置就近的网络资源
这一改进使得网络架构更加灵活,能够满足企业级的安全和合规要求。实现方式是通过扩展Runner配置参数,允许为每个Runner组指定独立的VPC ID和子网ID列表。
错误修复与改进
本次发布还包含多个错误修复和依赖项更新:
-
Ubuntu Jammy镜像选择问题修复:解决了在某些情况下可能选择错误AMI镜像的问题,确保始终使用正确的Ubuntu 22.04(Jammy)镜像。
-
Windows用户数据支持改进:修复了Windows实例不支持gzip压缩用户数据的问题,确保Windows Runner能够正确解析启动配置。
-
依赖项安全更新:
- 升级了AWS Lambda Powertools Logger到1.18.0版本
- 更新了axios库到1.6.7版本,修复已知安全问题
- 更新了多个AWS SDK相关依赖
-
文档修正:修复了README文件中的拼写错误,提高了文档质量。
技术实现细节
在架构层面,5.7.0版本通过重构网络资源配置逻辑实现了按Runner配置VPC的功能。主要变更包括:
- 在Runner模块中新增了
vpc_id和subnet_ids参数 - 修改了启动模板生成逻辑,支持从Runner配置中获取网络参数
- 更新了安全组关联逻辑,确保网络配置变更后安全规则仍然有效
对于Windows用户数据的改进,项目团队识别到Windows实例与Linux实例在用户数据处理上的差异,移除了对gzip压缩的支持,改用原始格式传递用户数据,提高了兼容性。
升级建议
对于现有用户,升级到5.7.0版本时需要注意:
- 如果使用自定义AMI,请检查是否与新版本兼容
- Windows用户需要验证用户数据脚本是否正常工作
- 计划使用按Runner配置VPC功能的用户,建议先在测试环境验证配置
这个版本继续遵循语义化版本控制,5.7.0的版本号表明它是一个向后兼容的功能性更新,适合大多数用户升级。
Terraform AWS GitHub Runner项目持续改进其功能和稳定性,5.7.0版本的发布进一步巩固了它作为在AWS上管理GitHub Actions运行器的首选解决方案的地位。特别是新增的网络配置灵活性,使得它能够适应更复杂的企业部署场景。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C090
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00