Terraform Provider for Google v6.27.0 版本发布:新增多项云资源支持与功能增强
Terraform Provider for Google 是 HashiCorp 官方维护的 Terraform 插件,用于通过基础设施即代码的方式管理 Google Cloud Platform (GCP) 上的各类资源。最新发布的 v6.27.0 版本带来了多项重要更新,包括新增数据源和资源类型,以及对现有功能的改进和错误修复。
新增功能亮点
本次更新引入了多个全新的数据源和资源类型,进一步扩展了 Terraform 对 GCP 服务的覆盖范围:
-
计算引擎增强:新增了
google_compute_images数据源,方便用户查询 GCP 中的可用镜像资源。同时新增了google_compute_router_route_policy资源,为网络路由提供更精细的控制策略。 -
存储服务扩展:新增的
google_storage_control_project_intelligence_config资源允许用户配置存储项目的智能分析功能,帮助优化存储使用。 -
安全与合规:
google_chronicle_data_access_label资源的加入为安全日志分析提供了更好的数据访问控制能力。 -
高性能计算:新增的
google_lustre_instance资源支持在 GCP 上部署 Lustre 并行文件系统,满足高性能计算场景的需求。 -
操作系统管理:
google_os_config_v2_policy_orchestrator资源提供了操作系统配置策略的集中管理能力。
现有功能改进
除了新增功能外,v6.27.0 版本还对多个现有资源进行了功能增强:
-
BigQuery 增强:在
google_bigquery_reservation资源中新增了secondary_location和replication_status字段,支持托管式灾难恢复功能,提高了数据服务的可靠性。 -
容器服务优化:
google_container_cluster新增了ip_endpoints_config和pod_autoscaling配置选项google_container_node_pool增加了对 Windows 节点配置的支持
-
内存存储服务:
google_memorystore_instance资源现在支持维护策略配置,并允许更新节点类型,提高了服务的灵活性。 -
网络安全性增强:多个网络安全资源新增了位置关联和部署组配置选项,使安全策略的实施更加精确。
-
计算资源扩展:
google_compute_image增加了屏蔽实例初始状态配置google_compute_instance新增了架构和客户机操作系统特性支持- 互联连接类型新增了 400G LR4 以太网支持
重要错误修复
本次更新还解决了多个影响用户体验的问题:
-
Cloud Run 服务修复:解决了
google_cloud_run_service和google_cloud_run_v2_service资源中环境变量配置的持久差异问题。 -
计算实例模板修复:修正了区域磁盘在
google_compute_instance_template中的使用问题。 -
存储服务调整:放宽了
google_storage_bucket中自定义放置配置的位置数量限制,从最少2个调整为1个,并移除了最大数量限制。 -
数据分析作业修复:解决了
google_dataflow_job资源中模板路径的持久差异问题。 -
分析中心订阅修复:修正了
google_bigquery_analytics_hub_listing_subscription在不同项目间使用时的问题。
总结
Terraform Provider for Google v6.27.0 版本通过新增多项资源和数据源,以及对现有功能的增强和错误修复,进一步提升了在 GCP 上实施基础设施即代码的能力和体验。这些更新特别关注了高性能计算、网络安全、存储优化和容器服务等关键领域,为用户提供了更全面、更灵活的云资源管理工具集。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00