Manyfold项目v0.112.0版本发布:ActivityPub联邦功能全面升级
Manyfold是一个开源的3D模型管理与分享平台,专注于为3D创作者提供便捷的模型存储、管理和分享解决方案。该项目采用现代化的Web技术栈构建,支持3D模型预览、分类管理等功能,并正在逐步完善对ActivityPub协议的支持,以实现与其他联邦宇宙(Fediverse)平台的互联互通。
联邦功能全面升级
本次v0.112.0版本的核心改进集中在ActivityPub联邦功能的完善上,使得Manyfold与其他联邦宇宙平台如Mastodon的交互更加顺畅。
远程内容预览增强
新版本中,Manyfold现在能够为远程服务器上的模型和收藏集提供完整的预览功能。这意味着当用户浏览来自其他Manyfold实例或其他兼容ActivityPub平台的内容时,可以直接看到模型的预览图和相关元数据,而无需下载完整的模型文件。
系统还改进了预览卡片的信息展示,现在会显示创作者和所属收藏集的详细信息,帮助用户更好地了解内容的来源和上下文关系。
ActivityPub Notes发布机制
Manyfold现在能够自动发布ActivityPub Notes(类似于社交网络中的帖子)来通知联邦网络中的其他实例。这些Notes会在以下场景自动生成:
- 发布新模型时
- 更新现有模型时
- 将模型添加到收藏集时
- 发布新收藏集时
这些Notes包含了模型或收藏集的基本信息,并支持内容警告(CW)功能,确保敏感内容可以被适当标记。同时,系统还优化了标签(hashtag)的处理方式,确保它们能在Mastodon等平台上正确显示。
用户体验改进
批量隐藏问题功能
针对大型收藏集的管理需求,新版本增加了批量隐藏问题的功能。用户现在可以一次性选择多个问题并统一隐藏,大大简化了模型库维护的工作流程。同时,系统还会自动折叠已忽略的问题,保持界面整洁。
表单权限控制
在创建或编辑模型时,系统现在会严格限制创作者和收藏集的选择范围,确保用户只能选择自己有编辑权限的项目。这一改进防止了意外选择无权编辑的项目导致的错误。
渲染器优化
3D渲染器部分进行了重构,修正了Y轴向上的显示问题,确保模型在所有场景下都能正确渲染。同时,预览图片和视频的MIME类型处理也得到了改进,确保它们能被正确识别和显示。
国际化支持
本次更新新增了日语翻译,进一步扩大了Manyfold的国际用户群体。同时,所有现有语言的翻译文件都进行了更新和优化,提升了多语言用户的使用体验。
技术细节优化
在底层实现上,开发团队进行了多项技术改进:
- 文件元数据刷新机制优化,确保文件大小等信息准确
- 增加了更多常见子文件夹的自动合并支持
- 修复了文件名大小写导致的预览问题
- 确保ActivityPub相关后台任务的唯一性,避免重复处理
- 改进了oEmbed iframe的语法结构,提升兼容性
这些改进虽然不直接影响用户界面,但显著提升了系统的稳定性和可靠性。
总结
Manyfold v0.112.0版本标志着该项目在联邦功能上的重大进步,使其真正成为联邦宇宙中3D内容分享的重要节点。通过完善的ActivityPub支持和多项用户体验改进,这个版本为3D创作者提供了更开放、更便捷的内容分享环境。随着国际化支持的不断扩展,Manyfold正在成长为全球3D创作者社区的基础设施之一。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust084- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00