Better Auth 1.1.19-beta.3版本发布:增强安全与扩展功能
Better Auth是一个现代化的身份验证解决方案,旨在为开发者提供灵活、安全的用户认证和授权功能。该项目支持多种认证方式,包括传统的用户名密码、社交账号登录、无密码认证等,同时提供了丰富的插件系统以满足不同场景的需求。
核心功能增强
验证数据清理机制优化
新版本引入了验证数据的自动清理功能,系统会在获取验证数据时自动清理过期的记录。这一改进不仅提升了数据库性能,也增强了系统的安全性,避免了过期验证数据的潜在风险。
作用域管理改进
移除了默认作用域设置,改为允许在请求中动态传递作用域参数。这一变更赋予了开发者更大的灵活性,可以根据实际需求精细控制API访问权限,实现更细粒度的权限管理。
验证码插件支持
新增了验证码插件功能,支持多种验证码服务提供商。该功能可以有效防止自动化攻击,为敏感操作如注册、登录等提供额外保护层。开发者可以根据项目需求选择合适的验证码服务商。
社交登录扩展
本次更新增加了VK ID和Roblox两个社交登录提供商的支持。VK ID是俄罗斯流行的社交平台,而Roblox则是全球知名的游戏平台。这些新增选项使应用能够覆盖更广泛的用户群体。
安全增强
JWT令牌加密支持
实现了JWT令牌的生成和检索功能,并增加了加密支持。这一改进显著提升了令牌传输的安全性,防止令牌在传输过程中被窃取或篡改。
组织名称验证
新增了组织名称(slug)的验证功能,确保组织标识符符合规范要求。这有助于维护系统的数据一致性和安全性。
用户名存储优化
支持存储显示用户名和规范化用户名两种形式。这一改进解决了用户名大小写敏感性问题,同时保留了用户输入的原始格式,提升了用户体验。
管理功能增强
管理员访问控制
新增了adminUserIds配置选项,允许开发者自定义管理员用户ID列表。这提供了更灵活的管理员访问控制机制,可以根据项目需求精确配置管理员权限。
用户统计功能
管理插件现在可以返回用户表/集合的总数统计信息。这一功能为系统监控和数据分析提供了便利,管理员可以更直观地了解用户规模增长情况。
数据库适配器改进
MongoDB适配器现在支持自定义ID生成策略。这一增强使开发者能够根据业务需求灵活选择ID生成方式,更好地与现有系统集成。
用户体验优化
Google一键登录改进
优化了Google One Tap集成,增加了JWT验证功能并改进了提示处理机制。这些改进使一键登录流程更加安全顺畅,提升了用户登录体验。
账号关联功能
实现了一键登录账号与现有账号的关联功能。用户现在可以方便地将社交账号与已有账号绑定,简化了账号管理流程。
组织管理功能
支持为组织成员分配多个角色。这一改进使组织权限管理更加灵活,可以满足复杂的组织架构需求。
密码重置功能扩展
新增了通过手机号重置密码的功能。这为用户提供了更多找回账号的途径,特别是在邮箱不可用的情况下,手机验证成为可靠的替代方案。
用户名验证增强
增加了默认的用户名验证规则和配置选项。开发者可以轻松自定义用户名格式要求,确保用户名符合应用规范。
性能与稳定性改进
更新了内部依赖库版本,清理了客户端选项配置。这些底层优化提升了系统整体性能和稳定性,为开发者提供了更可靠的运行环境。
总结
Better Auth 1.1.19-beta.3版本带来了全面的功能增强和安全改进,特别是在验证机制、社交登录和管理功能方面有显著提升。这些更新使开发者能够构建更安全、更灵活的身份验证系统,同时为用户提供更流畅的认证体验。对于正在寻找现代化认证解决方案的项目来说,这个版本值得考虑。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00