探索Twitter规模的社交网络:twitter-scale-mastodon

如果你一直在寻找一个能够处理大规模用户的社交网络平台,那么这个开源项目将会引起你的兴趣——twitter-scale-mastodon,一个基于Mastodon构建的可扩展到Twitter级别的实例。这个项目只有1万行代码,却能轻松应对5亿用户,平均700个关注者,并且在不平衡的社会图结构下,每秒处理7000条帖子的挑战。
该项目的创新之处在于它利用了Rama这一新兴编程平台,该平台可将后端应用的开发代码量减少100倍。Rama不仅限于社交媒体应用,而是用于构建任何后台应用的强大工具。现在,你可以通过预览版体验Rama的魅力,并即将开启私有测试。
在2023年8月15日至24日期间,我们运行了一个公共实例,让1亿个机器人以3500次/秒的速度发布,平均每个用户有403个关注者。在此期间,该实例处理了26.6亿条帖子,完成了1.07万亿次时间线传递,充分展示了其出色的可扩展性。

想知道是如何实现这一切的吗?详细的技术解析可以在这篇博客文章中找到,其中还包括其他性能指标图表。
实现概述
项目的架构如下:

Mastodon的后台是通过Rama模块实现的,它们负责所有数据处理、数据索引和大部分产品逻辑。API则使用Spring/Reactor实现了Mastodon API,主要处理HTTP请求并返回JSON响应。静态内容如图片和视频存储在S3上,模拟CDN架构。其余所有存储都在Rama模块中处理。
源码位于backend/目录,包括六个核心模块:
- ** Relationships**:处理社会关系,提供关注建议等。
- ** Core**:实施时间线、个人资料、传播、点赞、回复、对话等核心功能。
- ** Notifications**:实现通知时间线,包括点赞、传播、提及、投票完成、新粉丝等通知。
- ** TrendsAndHashtags**:支持热门话题和标签,实现相关的时间线和其他功能。
- ** GlobalTimelines**:实现本地和联邦的所有状态时间线。
- ** Search**:搜索功能,包括用户、状态和标签搜索,以及用户目录。
API服务器的实现位于api/目录。同时,它还包含了联邦实现的部分,既在API服务器也在Core模块内。
本地运行
要在本地运行,非常简单。从api/文件夹执行以下命令即可启动API服务器和模块集群:
mvn spring-boot:run
前端部分,你需要从我们的Soapbox分支进行构建和运行,以修复官方实现的一些小问题。
部署到真实集群
由于Rama尚未公开,目前唯一获取完整Rama版本的方式是申请参加我们的私有测试。
项目特点
- 高效可扩展:即使是单一节点,也能轻松应对Twitter级别的流量。
- 精简代码:只用1万行代码就实现了复杂的社交网络功能。
- Rama平台:使用全新的编程平台,显著减少开发工作量。
- 演示潜力:不仅可以作为Mastodon的扩展实例,还能作为构建类似Twitter社交网络的基础。
借助twitter-scale-mastodon,开发者可以快速搭建并维护高负载的社交网络服务,而无需担心性能瓶颈或过度复杂的设计。如果你想在自己的项目中尝试这种极致的可扩展性和简洁的编码方式,那么不妨深入了解和使用这个项目吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00