Mastodon v4.3.4版本发布:安全修复与功能优化
Mastodon是一个开源的分布式社交网络平台,采用ActivityPub协议实现不同实例间的互联互通。作为Twitter的替代方案之一,Mastodon以其去中心化的架构和用户自治的特点获得了广泛关注。2025年2月27日,Mastodon团队发布了v4.3.4版本,这是一个包含重要安全修复的维护性更新。
安全更新
本次版本最值得关注的是多个安全问题的修复:
-
HTML净化机制改进:移除了不可用且未使用的
embed标签,防止潜在的跨站脚本攻击。这一修复对应CVE编号GHSA-mq2m-hr29-8gqf。 -
注册验证邮件限速机制:修复了注册验证邮件发送的速率限制问题,防止潜在的滥用行为,对应CVE编号GHSA-v39f-c9jj-8w7h。
-
域屏蔽信息泄露修复:解决了未验证用户可能查看域屏蔽信息的问题,对应CVE编号GHSA-94h4-fj37-c825。
这些安全修复建议所有运行Mastodon实例的管理员尽快升级,特别是公开实例的管理者。
功能改进
除了安全修复外,v4.3.4版本还包含了一些功能优化:
-
内容警告展开显示:现在当用户展开包含内容警告的帖子时,预览卡片也会一同显示,改善了用户体验。
-
加密密钥警告增强:对修改加密密钥的警告信息进行了视觉强化,使管理员更容易注意到这一关键操作。
-
设置脚本优化:
mastodon:setup脚本现在会防止意外覆盖已配置的服务器设置。 -
通知过滤规则调整:来自版主的通知现在不会被过滤系统拦截,确保重要管理通知能够送达。
问题修复
版本修复了多个影响稳定性和功能的问题:
-
通知API修复:解决了未分组通知在特定API端点无法正确处理的问题。
-
媒体处理优化:修复了某些系统上libvips版本兼容性问题,改进了图像处理稳定性。
-
时间线生成效率:优化了时间线生成的算法,提高了系统响应速度。
-
投票验证:现在编辑帖子时会正确验证投票选项的有效性。
-
远程账户标签同步:修复了远程账户的特色标签不能及时更新的问题。
升级指南
对于运行v4.3.3版本的用户,升级步骤相对简单:
非Docker环境
- 安装依赖:
bundle install - 预编译资源:
RAILS_ENV=production bundle exec rails assets:precompile - 重启所有Mastodon进程
Docker环境
直接重启所有容器即可完成升级。
重要提示:升级前务必备份数据库。对于docker-compose用户,可以使用类似命令:docker exec mastodon_db_1 pg_dump -Fc -U postgres postgres > backup.dump
兼容性说明
v4.3.4版本保持了与之前版本相同的依赖要求:
- Ruby 3.1+
- PostgreSQL 12+(注意:PostgreSQL 14.0-14.3因数据损坏问题不受支持)
- Elasticsearch 7.x(或兼容的OpenSearch)
- Redis 4+
- Node.js 18+
- 图像处理:ImageMagick 6.9.7-7+或libvips 8.13+
对于使用夜间构建(nightly build)的用户,不应直接使用此版本,而应更新至nightly.2025-02-28-security或更高版本。
这个版本的发布体现了Mastodon团队对安全性和稳定性的持续关注,建议所有实例管理员尽快安排升级,以确保用户数据安全和系统稳定运行。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00