Sveltia CMS v0.79.0 版本发布:OAuth令牌自动续期与只读字段支持
Sveltia CMS 是一个基于 Git 的内容管理系统,它允许开发者通过 Git 仓库来管理网站内容。该系统提供了直观的用户界面,使得非技术人员也能轻松编辑网站内容,同时保留了 Git 版本控制的强大功能。
OAuth 访问令牌自动续期功能
在最新发布的 v0.79.0 版本中,Sveltia CMS 引入了一项重要改进:当使用 GitLab 或 Gitea 作为后端存储,并采用 PKCE 授权方式时,系统现在能够自动续期 OAuth 访问令牌。
这一改进解决了长期存在的令牌过期问题。在之前的版本中,当 OAuth 访问令牌过期后,用户需要手动重新授权,这给用户带来了不便。新版本通过自动续期机制,确保了用户会话的连续性,提升了用户体验。
PKCE(Proof Key for Code Exchange)是一种增强的 OAuth 授权流程,特别适合客户端无法安全存储密钥的场景。Sveltia CMS 现在能够智能地检测令牌即将过期的情况,并在后台自动完成续期过程,而无需用户干预。
值得注意的是,目前这一功能仅支持 GitLab 和 Gitea 后端,未来版本将会扩展支持更多后端配置。
只读字段支持
v0.79.0 版本还引入了新的 readonly 字段选项,允许开发者将特定字段设置为只读状态。这一功能在以下场景特别有用:
- 当字段有默认值且不希望用户修改时
- 需要显示系统生成的信息(如创建时间、唯一ID等)
- 展示计算字段或派生值
开发者可以通过在字段配置中添加 readonly: true 来启用这一特性。例如:
fields:
- name: "generated_id"
label: "Unique ID"
widget: "string"
readonly: true
default: "{{uuid}}"
这一改进使得内容模型的设计更加灵活,开发者可以更好地控制用户对内容的编辑权限,同时保持界面的信息完整性。
技术实现细节
在 OAuth 令牌自动续期方面,Sveltia CMS 实现了以下关键机制:
- 令牌过期检测:系统会定期检查当前令牌的有效期
- 静默续期:在用户无感知的情况下完成令牌更新
- 错误处理:完善的错误恢复机制,确保续期失败时不会丢失用户数据
对于只读字段的实现,系统采用了以下策略:
- 前端渲染时自动禁用输入控件
- 表单提交时忽略只读字段的修改
- 提供清晰的视觉反馈,帮助用户理解字段状态
升级建议
对于现有项目,升级到 v0.79.0 版本是推荐的,特别是:
- 使用 GitLab 或 Gitea 后端的项目将立即受益于自动令牌续期
- 需要更精细字段控制的项目可以利用新的只读字段功能
升级过程通常只需更新 package.json 中的版本号并重新安装依赖即可。建议在升级前备份项目配置,并查看完整的变更日志了解可能的破坏性变更。
未来展望
根据开发团队的说明,未来版本将会:
- 扩展 OAuth 自动续期功能到更多后端服务
- 进一步增强字段控制能力
- 持续优化用户体验和系统稳定性
Sveltia CMS 通过这些持续改进,正逐步成为一个更加强大、易用的内容管理解决方案,特别适合需要结合 Git 工作流的开发团队。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00