Decidim v0.29.3版本发布:社区参与平台的重要更新
项目简介
Decidim是一个开源的数字参与和社区协作平台,它为组织、城市和社区提供了一个强大的工具来促进成员参与决策过程。作为一个基于Ruby on Rails构建的平台,Decidim支持建议、投票、讨论、会议等多种参与形式,帮助建立更加透明和包容的协作流程。
版本概述
Decidim v0.29.3是一个维护版本,主要修复了多个功能模块中的问题和进行了用户体验改进。这个版本特别关注了以下几个关键方面:
- 用户界面和可访问性改进
- 评论系统的增强
- 资源管理和显示优化
- 性能提升和错误修复
主要技术改进
1. 用户界面与可访问性增强
本次更新对平台的用户界面进行了多处优化,特别是在可访问性方面:
- 修复了预算项目页面上的进度条显示问题
- 改进了搜索过滤器的导航体验
- 为博客、辩论和会议页面添加了适当的标题标签
- 优化了移动端预算页面的显示效果
- 修复了建议状态标签在管理后台的显示问题
这些改进使得平台对各类用户更加友好,特别是对使用辅助技术的用户。
2. 评论系统改进
评论功能是Decidim平台的重要组成部分,本次更新对评论系统进行了多项修复:
- 当父资源被隐藏时,自动隐藏相关评论
- 修复了编辑带有最大长度设置的评论时的问题
- 为评论列表项添加了唯一的aria-label,提高可访问性
- 修复了评论单元格显示旧缓存值的问题
- 当评论达到最大深度时,不再显示回复按钮
这些改进提升了评论系统的稳定性和用户体验。
3. 资源管理与显示优化
在资源管理方面,v0.29.3版本带来了以下改进:
- 修复了建议导入功能中的状态问题
- 改进了建议差异比较功能,避免对非翻译字段生成差异时出错
- 修复了资源被隐藏后的重定向问题
- 优化了空间管理员的图片编辑器权限
- 修复了面包屑菜单在空间页面上的宽度问题
4. 性能与稳定性提升
本次更新包含多项性能优化和错误修复:
- 改进了用户昵称的大小写处理,添加了账户编辑表单的验证
- 修复了日期选择器的日期格式回退机制
- 优化了存储URL的生成逻辑
- 修复了公告字段中包含附件链接时的错误
- 改进了时间属性的解析处理
升级注意事项
对于系统管理员,升级到v0.29.3版本需要注意以下几点:
- 在执行升级前,确保已备份数据库、应用程序代码和静态文件
- 更新Gemfile中的版本号
- 运行必要的迁移和升级任务
- 特别注意需要手动执行的升级任务,如修复用户昵称大小写问题
技术细节
静态地图配置变更
对于使用HERE.com作为静态地图瓦片提供者的应用,需要更新配置以使用新的API版本。具体来说,需要将静态URL从旧版本更新为新版本。
用户昵称处理
为提高大型数据库的性能,本次更新将所有用户昵称迁移为小写格式。系统管理员需要运行特定任务来应用这一变更。
评论可见性逻辑
当资源被审核时,现在可以自动从搜索中移除相关评论,确保内容审核的一致性。这一功能可以通过运行特定任务来启用。
总结
Decidim v0.29.3版本虽然是一个维护更新,但它带来了多项重要的改进和修复,特别是在用户界面、评论系统和资源管理方面。这些改进不仅提升了平台的稳定性和性能,也增强了用户体验和可访问性。对于使用Decidim平台的组织和社区来说,升级到这个版本将获得更流畅、更可靠的成员参与体验。
系统管理员应按照官方升级指南进行操作,特别注意需要手动执行的升级任务,以确保平稳过渡到新版本。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C098
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00