Terraform Provider for Google v6.27.0 版本发布:新增多项云资源支持与功能增强
Terraform Provider for Google 是 HashiCorp 官方维护的 Terraform 插件,用于通过基础设施即代码的方式管理 Google Cloud Platform (GCP) 上的各类资源。最新发布的 v6.27.0 版本带来了多项重要更新,包括新增数据源和资源类型,以及对现有功能的改进和错误修复。
新增功能亮点
本次更新引入了多个全新的数据源和资源类型,进一步扩展了 Terraform 对 GCP 服务的覆盖范围:
-
计算引擎增强:新增了
google_compute_images数据源,方便用户查询 GCP 中的可用镜像资源。同时新增了google_compute_router_route_policy资源,为网络路由提供更精细的控制策略。 -
存储服务扩展:新增的
google_storage_control_project_intelligence_config资源允许用户配置存储项目的智能分析功能,帮助优化存储使用。 -
安全与合规:
google_chronicle_data_access_label资源的加入为安全日志分析提供了更好的数据访问控制能力。 -
高性能计算:新增的
google_lustre_instance资源支持在 GCP 上部署 Lustre 并行文件系统,满足高性能计算场景的需求。 -
操作系统管理:
google_os_config_v2_policy_orchestrator资源提供了操作系统配置策略的集中管理能力。
现有功能改进
除了新增功能外,v6.27.0 版本还对多个现有资源进行了功能增强:
-
BigQuery 增强:在
google_bigquery_reservation资源中新增了secondary_location和replication_status字段,支持托管式灾难恢复功能,提高了数据服务的可靠性。 -
容器服务优化:
google_container_cluster新增了ip_endpoints_config和pod_autoscaling配置选项google_container_node_pool增加了对 Windows 节点配置的支持
-
内存存储服务:
google_memorystore_instance资源现在支持维护策略配置,并允许更新节点类型,提高了服务的灵活性。 -
网络安全性增强:多个网络安全资源新增了位置关联和部署组配置选项,使安全策略的实施更加精确。
-
计算资源扩展:
google_compute_image增加了屏蔽实例初始状态配置google_compute_instance新增了架构和客户机操作系统特性支持- 互联连接类型新增了 400G LR4 以太网支持
重要错误修复
本次更新还解决了多个影响用户体验的问题:
-
Cloud Run 服务修复:解决了
google_cloud_run_service和google_cloud_run_v2_service资源中环境变量配置的持久差异问题。 -
计算实例模板修复:修正了区域磁盘在
google_compute_instance_template中的使用问题。 -
存储服务调整:放宽了
google_storage_bucket中自定义放置配置的位置数量限制,从最少2个调整为1个,并移除了最大数量限制。 -
数据分析作业修复:解决了
google_dataflow_job资源中模板路径的持久差异问题。 -
分析中心订阅修复:修正了
google_bigquery_analytics_hub_listing_subscription在不同项目间使用时的问题。
总结
Terraform Provider for Google v6.27.0 版本通过新增多项资源和数据源,以及对现有功能的增强和错误修复,进一步提升了在 GCP 上实施基础设施即代码的能力和体验。这些更新特别关注了高性能计算、网络安全、存储优化和容器服务等关键领域,为用户提供了更全面、更灵活的云资源管理工具集。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00