Apache RocketMQ 5.3.3版本发布:性能优化与功能增强
项目简介
Apache RocketMQ是一个分布式消息和流处理平台,具有低延迟、高性能、高可靠性、万亿级容量和灵活的可扩展性等特点。它广泛应用于金融、电商、物流、IoT等领域的异步通信、应用解耦、流量削峰等场景。
版本亮点
RocketMQ 5.3.3版本是一个重要的维护版本,主要包含性能优化、稳定性提升和功能增强。该版本不再支持"ACL 1.0"相关功能,全面转向"ACL 2.0"版本,同时修复了多个关键问题。
核心改进
存储层优化
-
分层存储增强:优化了分层存储中的消息查询逻辑,确保首次查询时能正确选择索引文件。改进了基于时间的消息偏移量查询性能,修复了时间边界计算问题。
-
消费队列改进:RocksDBConsumeQueueStore不再需要更新StoreCheckpoint,减少了不必要的I/O操作。同时优化了消费模式下的数据写入,避免脏数据问题。
-
存储检查点优化:移除了StoreCheckpoint中的重复刷新操作,提升了存储效率。
消费端增强
-
POP消费模式:支持初始化偏移量模式配置,修复了消费偏移量更新问题。当消息被过滤时,能正确处理消费偏移量更新。
-
消费统计优化:定期清理StatsItemSet中的非活跃项,减少内存占用。SQL92过滤的消息现在会被正确统计。
生产端改进
-
消息重试机制:确保在Broker无响应时仍有重试机会,提高了消息发送的可靠性。
-
批量消息兼容:代理层(Proxy)现在能更好地处理批量消息,提升了兼容性。
系统稳定性
-
异常处理增强:PullMessageService线程现在会捕获所有Throwable异常,避免线程意外终止。客户端跟踪线程现在可以正确关闭。
-
资源清理:Broker下线时确保所有服务正确关闭。新增定时清理任务,自动维护系统资源。
-
内存保护:优化queryMessage方法,防止因大消息查询导致OOM问题。
功能变更
ACL安全升级
- 完全移除了ACL 1.0相关功能,全面转向ACL 2.0版本,提供了更强大和灵活的安全控制能力。
系统管理增强
-
主题管理:在queryTopicConsumeByWho命令中增加了topic-group映射信息,便于管理。
-
生产者管理:支持禁用生产者注册和快速通道关闭功能,提供了更灵活的资源控制。
-
系统主题创建:确保在'systemTopicClusterName'集群中的所有Broker上创建系统主题。
监控与日志
-
水位线打印优化:改进了BrokerController#printWaterMark方法的日志输出,提供更清晰的信息。
-
TLS日志优化:优化了TLS相关的日志输出,便于问题排查。
-
跟踪数据增强:SendMessageContext现在包含消息类型信息,便于跟踪分析。
性能指标
-
主题状态监控:TopicStatusSubCommand现在支持输出主题的TPS(每秒事务数)指标。
-
消费延迟监控:当pullMessage溢出时,会刷新recordDiskFallBehind数据,提供更准确的延迟指标。
兼容性说明
-
该版本与之前版本保持二进制兼容,但完全移除了ACL 1.0功能,使用旧版本ACL配置的用户需要迁移到ACL 2.0。
-
配置文档已更新,确保与RocketMQ 5.x版本的兼容性。
总结
Apache RocketMQ 5.3.3版本在稳定性、性能和功能方面都有显著提升,特别是在存储层优化、消费模式增强和安全管理方面做出了重要改进。这些变化使得RocketMQ在大规模消息处理场景下更加可靠和高效。建议所有用户升级到此版本以获得更好的使用体验和更强的功能支持。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0131
let_datasetLET数据集 基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
AgentCPM-ReportAgentCPM-Report是由THUNLP、中国人民大学RUCBM和ModelBest联合开发的开源大语言模型智能体。它基于MiniCPM4.1 80亿参数基座模型构建,接收用户指令作为输入,可自主生成长篇报告。Python00