Google.Cloud.AIPlatform.V1Beta1 1.0.0-beta23 版本发布:AI平台功能增强与评估优化
Google.Cloud.AIPlatform.V1Beta1 是Google Cloud AI平台服务的.NET客户端库,为开发者提供了访问Google AI平台各种功能的接口。本次发布的1.0.0-beta23版本带来了多项重要更新,主要集中在多模态评估、模型导出、数据集服务增强等方面,进一步提升了AI开发体验。
多模态评估与评分体系改进
新版本对在线评估API进行了重要更新,特别针对多模态评估场景进行了优化。现在开发者可以更灵活地处理内容映射实例(content_map_instance),这对于处理包含多种媒体类型(如图像、文本、视频等)的AI模型评估尤为重要。
评分体系方面,新增了基于评分标准的实例(rubric_based_instance)支持,允许开发者定义更结构化的评估标准。同时,输出处理也更加灵活,新增了原始输出(raw_output)、自定义输出(custom_output)等字段,便于开发者获取和处理评估过程中的中间结果。
模型导出与发布功能
1.0.0-beta23版本引入了ExportPublisherModel API,这是一个重要的新增功能。该API允许开发者将训练好的模型导出为发布者模型,便于模型的分发和共享。这一功能特别适合需要将模型部署到不同环境或与其他团队共享模型成果的场景。
数据集服务增强
数据集服务新增了两个重要的RPC调用:
- AssessData:用于评估数据集的质量和适用性
- AssembleData:提供数据集组装功能
这两个新接口大大增强了开发者对数据集的管理能力,使得数据准备阶段更加高效和可控。
数据导入优化
数据导入功能得到了显著增强,新增了两种导入结果输出方式:
- GCS Sink:将导入结果直接输出到Google Cloud Storage
- BigQuery Sink:将导入结果输出到BigQuery数据仓库
这两种输出方式为开发者提供了更多灵活性,可以根据后续处理需求选择最适合的结果存储方式。
推理引擎规范扩展
ReasoningEngineSpec是定义推理引擎规格的重要接口,本次更新增加了环境变量和代理框架支持。具体包括:
- 新增env_variables字段,支持通过环境变量配置推理引擎
- 新增agent_framework字段,支持指定代理框架
- 新增deployment_spec字段,用于定义部署规格
同时,package_spec字段的注释从"必需"更新为"可选",提供了更大的配置灵活性。这些改进使得推理引擎的配置和管理更加精细和灵活。
文档完善与说明优化
随着功能的增加和变更,相关文档也进行了同步更新:
- 更新了EvaluateDatasetRequest中autorater_config字段的注释说明
- 澄清了EvaluationDataset中gcs_source字段的使用说明
- 完善了ReasoningEngineSpec中各字段的文档说明
这些文档改进有助于开发者更准确地理解和使用API功能。
总结
Google.Cloud.AIPlatform.V1Beta1 1.0.0-beta23版本通过多项功能增强,为AI开发者提供了更强大的工具集。从多模态评估到模型导出,从数据集管理到推理引擎配置,这些改进覆盖了AI开发生命周期的多个关键环节。特别是新增的ExportPublisherModel API和数据导入结果输出选项,将显著提升模型部署和数据处理的效率。对于正在使用Google Cloud AI平台的.NET开发者来说,这个版本值得关注和升级。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C090
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00