Manyfold项目v0.106.0版本发布:增强公共服务器功能与用户体验优化
Manyfold是一个开源的3D模型共享与管理平台,它基于ActivityPub协议实现了联邦网络功能,允许用户在不同实例间共享和发现3D模型。作为一个现代化的3D内容管理解决方案,Manyfold提供了模型上传、组织、搜索和社交互动等核心功能。
主要变更与功能增强
公共服务器管理功能强化
本次更新为公共服务器管理员提供了一系列强大的管理工具。其中最显著的变化是将原本需要通过环境变量配置的站点名称、图标和标语等设置迁移到了管理界面中,使配置更加直观便捷。管理员现在可以直接在设置页面中开启或关闭用户注册功能,而无需修改环境变量。
新增的"关于"页面和服务器规则功能为实例运营者提供了展示平台信息和制定社区规范的能力。服务器规则支持Markdown格式,并在用户注册时自动显示,有助于建立健康的社区环境。此外,还新增了财务支持链接设置,方便运营者接受捐赠。
用户界面与体验优化
本次更新对用户界面进行了重大调整,默认隐藏了"库"(Libraries)功能。经过调研发现大多数用户并不使用库进行内容组织,在公共实例上反而会造成混淆。现在库主要作为配置存储位置的方式存在,管理员可以设置默认上传库,并保留在库间移动模型的权限。习惯原有界面的用户可以在站点外观设置中恢复显示。
联邦用户名(handle)现在变为可编辑状态,用户和创作者可以自由修改自己的联邦用户名。同时改进了用户名唯一性验证机制,确保不会与现有用户冲突。
通知系统增强
为提升管理效率,新增了两类邮件通知:当有新用户注册需要审核时,系统会向所有管理员发送通知;当收到新的内容举报时,相关管理员也会收到提醒。这些改进有助于管理员及时处理社区事务。
国际化支持
本次更新新增了捷克语翻译,由贡献者@ichlubna完成,使Manyfold支持的语言总数达到6种。同时对德语、西班牙语和波兰语翻译进行了更新和完善。
技术实现细节
在底层实现上,开发团队重构了时间线功能,不再依赖Federails的Activities组件,提高了性能。还优化了唯一性验证机制,新增了跨表唯一性检查的自定义验证器。对于联邦活动处理,系统现在不再存储接收到的活动数据,减少了数据库负担。
统计信息展示也进行了调整,从页脚移到了管理员区域,并改为仅对管理员可见。这种设计既保持了数据的可访问性,又避免了给普通用户造成信息过载。
用户体验改进
除了上述功能变化外,本次更新还包含多项用户体验优化:
- 当"未分配"的创作者或合集为空时自动隐藏相关显示
- 移除了可能破坏邮件链接的标点符号
- 不再将"仅JSON文件"作为下载选项显示
- 改进了创作者slug/用户名编辑框的文案说明
- 重新组织了页脚链接,突出本地实例相关内容
- 为模型、创作者和合集添加了关注者数量显示
这些改进共同提升了平台的易用性和直观性,使Manyfold更加适合各类用户群体使用。
总结
Manyfold v0.106.0版本标志着该项目在公共实例管理能力上的重大进步,为运营者提供了更全面的工具集,同时通过精心设计的用户体验优化,确保平台对普通用户保持友好易用。从技术架构到界面交互的多方面改进,展现了开发团队对打造高质量开源3D内容共享平台的持续承诺。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust084- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00