ZITADEL v2.71.0版本发布:增强身份管理与安全功能
ZITADEL是一个开源的云原生身份和访问管理(IAM)平台,它提供了强大的身份验证、授权和用户管理功能。最新发布的v2.71.0版本带来了一系列重要的功能增强和错误修复,进一步提升了系统的安全性、稳定性和用户体验。
核心功能改进
权限管理优化
本次版本在权限管理方面进行了多项改进。系统现在能够更高效地同步角色权限事件,采用了分块(chunked)同步机制,显著提升了大规模部署下的性能表现。同时,针对用户列表查询API进行了优化,确保即使在没有特定权限的情况下,用户也能获取到自己的信息,这为前端界面提供了更好的兼容性。
OAuth2/OIDC增强
对于使用OAuth2和OIDC协议的集成场景,v2.71.0新增了PKCE(Proof Key for Code Exchange)支持选项。PKCE是一种安全增强机制,特别适用于公共客户端(如移动应用和单页应用),能有效防止授权码拦截攻击。这一改进使得ZITADEL与更多第三方身份提供商的集成更加安全可靠。
设备授权流程改进
在设备授权流程方面,新版本允许使用自定义登录UI进行设备授权授权(Device Authorization Grant)。这种授权模式特别适用于智能电视、娱乐设备等输入受限设备,用户可以在其他设备上完成授权流程,大大提升了用户体验。
安全增强
LDAP安全配置
对于企业级LDAP集成,v2.71.0增加了根CA(root CA)配置选项。这使得管理员可以指定信任的证书颁发机构,增强了LDAP连接的安全性,特别是在使用自签名证书或私有PKI基础设施的环境中。
会话管理
在会话管理方面,修复了内部调用中通过ID检索会话时可能出现的panic问题,提高了系统的稳定性。同时,为IAM所有者添加了会话角色,进一步完善了权限控制系统。
用户体验改进
控制台优化
v2.71.0版本对用户控制台进行了多项优化,修复了v2用户控制台中的多个错误,提升了整体使用体验。系统现在能够更准确地显示用户元数据,确保信息展示的一致性。
国际化支持
在本地化方面,补充了日语翻译中的缺失元素,使得日本用户能够获得更完整的本地化体验。这体现了ZITADEL对全球用户群体的重视。
技术架构改进
事件存储优化
新版本更新了事件存储的SQL函数,优化了组织权限检查机制。这一底层改进为系统提供了更好的性能和可扩展性,特别是在处理大规模数据时表现更为出色。
API一致性
v2.71.0继续推进API的演进,在控制台中全面采用V2版本的API,为开发者提供更一致、更现代的接口体验。同时,修复了用户字段中创建日期缺失的问题,确保API返回数据的完整性。
总结
ZITADEL v2.71.0版本通过多项功能增强和安全改进,进一步巩固了其作为现代身份管理解决方案的地位。从底层的权限同步优化到用户界面的体验提升,从安全机制的强化到国际化支持的完善,这个版本体现了ZITADEL团队对产品质量和用户体验的持续关注。对于正在使用或考虑采用ZITADEL的组织来说,升级到这个版本将获得更安全、更稳定且功能更丰富的身份管理平台。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00