Nextcloud Server v31.0.1rc1版本发布:稳定性与安全性的重要更新
Nextcloud是一款开源的私有云存储解决方案,它允许用户在自己的服务器上搭建类似Dropbox或Google Drive的云存储服务,同时提供了丰富的协作功能。作为企业级自托管文件同步和共享平台,Nextcloud Server是其核心组件。
版本概述
Nextcloud Server v31.0.1rc1是v31.0.0版本的首个候选发布版,主要针对稳定性和安全性进行了多项改进。这个版本包含了超过40项修复和增强,涉及文件管理、用户认证、系统安全等多个核心功能模块。
核心改进内容
文件系统与共享功能优化
-
文件版本控制修复:修正了文件版本过期机制,确保不会错误地删除比最小保留时间更新的版本,保障了数据完整性。
-
共享功能增强:
- 修复了共享视图中的用户信息映射问题
- 改进了共享文件下载时的文件名处理
- 禁用回收站的批量下载功能,提升安全性
-
外部存储认证:在输入凭证时强制要求严格密码认证,提高了外部存储连接的安全性。
用户认证与安全增强
-
登录流程改进:
- 添加了对登录名验证的大小写不敏感检查
- 优化了公共登录页面的属性定位
- 完善了登录流程v2的会话关闭机制
-
安全审计:修复了管理员审计日志中文件路径截断不正确的问题,确保审计信息的完整性。
-
证书更新:更新了CA证书包,增强了SSL/TLS连接的安全性。
系统管理与维护
-
数据库查询优化:
- 简化了用户配置升级前的数据库请求
- 为DBAL异常添加了查询日志记录
- 修复了ANSI SQL兼容性问题
-
LDAP集成改进:
- 修复了LDAP端点中的字符串连接问题
- 在测试用户设置输出中添加了bases和gidNumber属性
-
临时文件管理:重构了TempManager实现,简化代码并移除遗留行为。
前端与用户体验
-
富文本编辑器:将评论组件中的richEditor mixin替换为NcRichText,提供更现代的编辑体验。
-
文件类型变更:新增了忽略文件类型变更警告的选项,提高了用户操作的灵活性。
-
翻译与本地化:改进了英语源字符串并修复了翻译字符串中的前导空格问题。
技术细节与开发者关注点
-
WebDAV协议增强:
- 支持通过WebDAV删除元数据
- 改进了文件上传时的流结束处理
- 直接使用IUser::getDisplayName接口
-
会话管理:
- 登出时清除本地存储
- 修复了视图类中与会话相关的工作不应在构造函数中执行的问题
-
系统标签:统一了restrict_creation_to_admin的处理逻辑,确保系统标签创建权限管理的一致性。
升级建议
对于运行Nextcloud Server v31.0.0的用户,建议在测试环境中验证此候选版本后尽快升级,特别是关注以下场景:
- 使用LDAP集成的环境
- 依赖文件版本控制的工作流程
- 需要严格审计合规性的部署
此版本虽然标记为预发布状态,但已经过充分测试,修复了v31.0.0中的多个关键问题,为生产环境提供了更高的稳定性和安全性保障。
Nextcloud团队持续关注企业级部署的实际需求,这个版本体现了对数据安全和系统可靠性的重视,建议所有v31用户规划升级路径,以获得最佳的使用体验和安全防护。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00