实时多用户看板应用示例
这是一个用Java编写,并基于Spring Boot的开源项目,展示了如何利用Eventuate平台构建实时、多用户的协作应用程序——实时看板。这个看板应用允许用户协同创建和编辑看板以及任务。任何用户对看板或任务的修改,都会立即在其他查看相同内容的用户界面上显示。
项目介绍
这个实时看板应用采用Eventuate的事件源编程模型来构建,这种模式非常适合这类应用。它将业务对象,如“看板”和“任务”,保存为一系列状态改变的事件。当用户创建或更新一个看板或任务时,系统会在事件存储中保存一个事件,然后事件存储将每个事件分发给感兴趣的订阅者。看板应用有一个事件订阅者,可以将每个事件转化为WebSocket消息,触发每个用户浏览器中的界面更新。
项目技术分析
应用架构如下图所示:
此处插入图片描述
该应用包括以下部分:
- AngularJS 浏览器应用
- 看板服务器 —— 基于Java和Spring Boot的服务器端应用。
- MongoDB 数据库 —— 存储看板和任务的物化视图。
看板服务器有一个基于Spring MVC的REST API用于创建、更新和查询看板和任务。它还有一个STOMP-over-WebSocket API,负责将更新推送到AngularJS应用程序。它可以作为一个单体服务器部署,也可以作为一组微服务部署。继续阅读以了解更多详情。
技术应用场景
Eventuate是一个为微服务编写应用程序的应用平台,提供了一种基于事件源和命令查询责任分离(CQRS)的简单但强大的事件驱动编程模型。它解决了微服务架构中的分布式数据管理问题。包括一个可扩展的分布式事件存储服务器和多种语言及框架(包括Java、Scala和Spring框架)的客户端库。更多细节,请访问Eventuate官网。
看板服务器设计
看板服务器使用了Eventuate的Java客户端框架,为Java/Spring-Boot应用程序提供了事件源编程模型。服务器将看板和任务保存为事件存储中的事件。此外,还维护了一个存储在MongoDB中的看板和任务的物化视图。
以下是服务器的设计图:
此处插入图片描述
应用遵循命令查询责任分离(CQRS)模式,由以下几个模块组成:
- 命令侧模块 —— 处理创建和更新请求(例如HTTP POST、PUT和DELETE请求),并处理看板和任务的业务逻辑。
- 查询侧模块 —— 通过查询MongoDB的物化视图处理查询请求(即HTTP GET请求)。它包含一个事件处理器,订阅看板和任务事件,并更新MongoDB。
- WebSocket网关 —— 订阅事件存储发布的看板和任务事件,再将其转化为WebSocket事件。
部署选项
服务器既可以作为单体应用部署(如上图所示),也可以作为微服务部署。以下是微服务架构的示意图:
此处插入图片描述
包括以下几个服务:
- API网关 —— 路由REST请求到相应的后端服务器,将事件存储事件翻译成WebSocket消息。
- 看板命令侧服务 —— 创建和更新看板
- 看板查询侧服务 —— 维护一个去规范化视图的看板
- 任务命令侧服务 —— 创建和更新任务
- 任务查询侧服务 —— 维护一个去规范化视图的任务
构建与运行
本项目是一个Gradle项目,无需安装Gradle,因为它会自动下载。只需要安装Java 8即可。
构建和运行的具体步骤取决于你是使用Eventuate SaaS还是Eventuate Local。详细说明参见项目文档。
使用实时看板
打开URL http://${DOCKER_HOST_IP}:8080,登录并创建看板和任务。
使用Swagger UI
各个服务都支持Swagger,可以通过以下链接打开Swagger UI:
http://${DOCKER_HOST_IP}:<SERVICE-PORT>/swagger-ui.html
请替换 <SERVICE-PORT> 为你相应服务的实际端口。
获取帮助
如有任何问题,欢迎创建问题或直接联系我们。更多联系方式,请访问Eventuate官网。
这个开源项目为开发实时协作应用提供了生动的例子,无论你是想学习事件源编程模型,还是寻求实现此类功能的解决方案,这都是一个值得尝试的项目。其清晰的架构和灵活的部署选项使得它成为开发者探索微服务和事件驱动编程的理想实践平台。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00