GAM项目v7.05.12版本发布:Chrome设备策略修复与教育版授权更新
GAM(Google Apps Manager)是一款功能强大的命令行工具,专门用于管理Google Workspace(原G Suite)环境。作为管理员自动化操作的利器,GAM能够高效处理用户管理、权限配置、策略设置等日常运维工作。
版本核心更新内容
Chrome设备策略修复
在本次7.05.12版本中,开发团队重点修复了gam update chromepolicy命令中的一个关键问题。该问题涉及Chrome设备kiosk模式(信息亭模式)策略的更新操作。
具体表现为:当管理员尝试更新chrome.devices.kiosk相关策略时,系统会错误地将appid参数识别为策略字段,进而产生"Chrome Policy Schema: customers/C123abc456/policySchemas/, Does not exist"的错误提示。此修复确保了kiosk应用ID能够被正确解析,保障了自助终端设备策略配置的可靠性。
教育版授权扩展
在7.05.11版本中,GAM新增了对以下Google Workspace教育版授权SKU的支持:
- 教育基础版标准授权(SKU ID: 1010070001)
- 教育版仅Gmail授权(SKU ID: 1010070004)
- 教育基础版归档用户授权(SKU ID: 1010340007)
这些新增授权类型特别针对教育机构场景,为学校管理员提供了更精细的授权管理能力。其中归档用户授权尤其重要,它允许教育机构在符合数据保留政策的前提下,对离校用户的邮箱数据进行经济高效的归档处理。
技术实现解析
Chrome设备策略的修复涉及GAM底层策略处理逻辑的优化。原先的策略更新流程中,字段验证机制存在过度严格的问题,导致某些特殊场景下的合法参数被错误拒绝。新版本通过改进策略架构解析算法,实现了更智能的参数类型识别。
在教育授权支持方面,GAM的授权管理模块进行了扩展,新增了教育版特有的产品ID和SKU映射关系。这使得工具能够准确识别和处理教育机构专属的授权类型,包括那些具有特殊权限限制的变体授权。
管理员操作建议
对于使用kiosk模式管理共享设备的管理员,建议尽快升级到7.05.12版本以确保策略配置的稳定性。在更新后,原先因appid识别问题而失败的策略配置命令应该能够正常执行。
教育机构管理员在部署新版本后,可以利用新增的授权管理功能更精确地控制成本。特别是对于毕业生或离职教职工的邮箱,现在可以选择专门的归档用户授权而非保留完整授权,在满足合规要求的同时显著降低授权费用。
版本升级路径
跨版本升级时,建议管理员先测试新版本在非生产环境中的表现。虽然本次更新不包含破坏性变更,但任何授权管理工具的更新都应谨慎对待。对于大规模环境,可以采用分阶段滚动升级策略,先在小范围用户群体中验证新功能,确认无误后再全面推广。
GAM项目团队持续关注企业级管理场景中的实际需求,通过定期更新为管理员提供更强大、更可靠的管理工具。建议用户关注项目的更新日志,及时获取最新功能和安全增强。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C090
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00