Terraform Provider Google v6.18.0 版本发布:新增多项云资源支持与功能优化
Terraform Provider Google 是 HashiCorp 官方维护的 Terraform 插件,用于通过基础设施即代码的方式管理 Google Cloud Platform (GCP) 上的各类资源。最新发布的 v6.18.0 版本带来了多项重要更新,包括新增数据源和资源类型,以及对现有功能的改进和错误修复。
新增数据源与资源支持
本次更新中,最引人注目的是新增了多个数据源和资源类型,进一步扩展了 Terraform 对 GCP 服务的覆盖范围。
在数据源方面,新增了 google_compute_instance_template_iam_policy 用于查询实例模板的 IAM 策略,google_kms_key_handles 用于获取 KMS 密钥句柄信息,以及 google_organizations 用于查询组织信息。这些数据源为基础设施管理提供了更多便利。
资源类型方面新增了多个重要功能:
google_apihub_api_hub_instance资源支持管理 API Hub 实例google_chronicle_retrohunt为 Chronicle 安全产品提供了回溯搜索功能google_colab_runtime及相关 IAM 资源支持管理 Colab 运行时环境google_gemini_code_repository_index和google_gemini_repository_group系列资源正式进入 GA 阶段,为代码仓库管理提供完整支持
现有功能增强
v6.18.0 版本对多个现有资源进行了功能增强:
在数据库服务方面,AlloyDB 集群现在支持通过 skip_await_major_version_upgrade 参数跳过主版本升级等待,简化了版本升级流程。
计算服务方面,google_compute_router_peer 现在支持将 custom_learned_route_priority 设置为 0,解决了之前无法设置为 0 的限制。同时修复了更新时该参数意外被重置为 0 的问题。
网络服务方面,google_compute_public_advertised_prefix 新增了 pdp_scope 字段,google_compute_interconnect_attachment 增加了标签支持,为网络资源管理提供了更多灵活性。
存储服务方面,Filestore 实例现在支持标签功能,便于资源分类和管理。
安全服务方面,Network Security 的安全配置文件和配置组新增了自定义镜像和分析配置选项,增强了安全策略的定制能力。
消息服务方面,Pub/Sub 主题新增了传输中加密和 Azure Event Hubs 数据源支持,扩展了消息服务的集成能力。
重要错误修复
本次版本修复了多个影响用户体验的问题:
在 Apigee 环境管理中,修复了属性字段更新的问题,确保配置变更能够正确应用。
Artifact Registry 仓库解决了永久性差异问题,避免了不必要的配置变更。
计算服务的全局转发规则修复了在使用 PSC 端点时标签设置失败的问题。
容器服务方面,修复了 Autopilot 集群中 DNS 域配置被忽略的问题,以及节点配置中不安全端口设置传播不正确的问题。
IAM 服务改进了服务账号查询的分页支持,确保能够返回完整结果。
元数据存储服务延长了操作超时时间,使服务器返回的错误信息能够正确显示,而不是被 Terraform 超时掩盖。
资源管理方面优化了项目创建时的计费关联检查逻辑,提高了默认网络删除的成功率。
总结
Terraform Provider Google v6.18.0 版本通过新增多项资源支持和数据查询能力,进一步丰富了 GCP 基础设施即代码管理的工具箱。同时,对现有功能的优化和错误修复提升了工具的稳定性和用户体验。这些更新使开发者能够更高效、更可靠地管理 GCP 上的各类云资源,是 GCP 基础设施自动化管理的重要进步。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00