OpenIMServer 优化定时任务处理性能的技术实践
背景
在 OpenIMServer 3.8.2 版本中,我们发现当 conversation 集合中文档数量较多时,定时任务处理消息销毁的效率会显著下降。这主要是因为当前实现采用了传统的分页查询方式,随着数据量的增长,MongoDB 的 skip 操作会导致性能急剧恶化。
问题分析
通过 MongoDB 慢查询日志分析,我们发现当前实现存在两个主要性能瓶颈:
-
skip 操作的低效性:当前代码每次只处理 100 条数据,当需要处理靠后的数据时,skip 值会变得很大,导致 MongoDB 需要扫描大量文档才能定位到目标数据。
-
小批量处理的开销:每次仅处理少量数据,导致需要多次查询才能完成全部数据的处理,增加了网络和查询解析的开销。
优化方案
我们提出了以下优化措施:
1. 使用游标式分页替代 skip
传统的分页方式:
pagination := &sdkws.RequestPagination{
PageNumber: pageNumber,
ShowNumber: batchNum,
}
优化后的游标式分页:
pagination := &sdkws.RequestPagination{
PageNumber: 0,
ShowNumber: batchNum,
}
filter := bson.M{"conversation_id": bson.M{"$gt": lastID}}
这种基于字段值的分页方式利用了索引的有序性,避免了 skip 操作带来的性能问题。
2. 增大批量处理大小
将每次处理的批量大小从 100 增加到 200,减少了总的查询次数。经过测试,这个值在大多数场景下能提供较好的平衡:
const batchNum = 200
3. 实现细节优化
优化后的核心逻辑流程:
- 首先获取总对话数,计算需要处理的批次
- 使用游标式分页按批次获取对话ID
- 批量查询对话详情
- 筛选出需要销毁消息的对话
- 记录最后处理的对话ID作为下一批次的起点
实现代码
关键实现代码如下:
func (c *conversationServer) GetConversationsNeedDestructMsgs(ctx context.Context, _ *pbconversation.GetConversationsNeedDestructMsgsReq) (*pbconversation.GetConversationsNeedDestructMsgsResp, error) {
// 获取总数并计算批次
num, _ := c.conversationDatabase.GetAllConversationIDsNumber(ctx)
const batchNum = 200
maxPage := (num + batchNum - 1) / batchNum
var temp []*model.Conversation
var curConversationID string
for pageNumber := 0; pageNumber < int(maxPage); pageNumber++ {
// 使用游标式分页
conversationIDs, _ := c.conversationDatabase.GetConversationIDsGtID(ctx, curConversationID, &sdkws.RequestPagination{
PageNumber: 0,
ShowNumber: batchNum,
})
if len(conversationIDs) == 0 {
break
}
// 批量查询对话详情
conversations, _ := c.conversationDatabase.GetConversationsByConversationID(ctx, conversationIDs)
for _, conv := range conversations {
if conv.IsMsgDestruct && /* 其他条件 */ {
temp = append(temp, conv)
}
curConversationID = conv.ConversationID
}
}
return &pbconversation.GetConversationsNeedDestructMsgsResp{
Conversations: convert.ConversationsDB2Pb(temp),
}, nil
}
性能对比
优化前后的性能对比:
| 指标 | 优化前 | 优化后 |
|---|---|---|
| 查询时间 | 随skip值线性增长 | 稳定在较低水平 |
| 内存使用 | 较低 | 略高(因批量增大) |
| 网络开销 | 较高(多次查询) | 较低 |
| MongoDB负载 | 高(全表扫描) | 低(索引扫描) |
注意事项
-
批量大小的选择:200是一个经验值,实际应用中应根据数据特点和服务器配置进行调整。过大的批量可能导致内存压力,过小则无法充分发挥优化效果。
-
排序字段的选择:必须选择有索引且唯一的字段作为游标字段,本例中使用的是 conversation_id。
-
边界条件处理:需要妥善处理最后一页数据以及空结果集的情况。
-
错误处理:虽然示例中简化了错误处理,实际应用中应保持适当的错误处理逻辑。
总结
通过这次优化,我们解决了 OpenIMServer 中定时任务处理大量对话数据时的性能瓶颈。关键点在于:
- 避免使用 skip 进行分页,转而使用基于字段值的游标式分页
- 适当增大批量处理大小,减少查询次数
- 保持代码的清晰性和可维护性
这种优化思路不仅适用于消息销毁场景,也可以推广到其他需要处理大量数据的定时任务中。在实际应用中,建议结合具体业务场景和数据特点进行参数调优,以达到最佳性能。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00