Redis 7.4.3版本发布:安全修复与性能优化
Redis是一个开源的内存数据结构存储系统,被广泛用作数据库、缓存和消息代理。它支持多种数据结构,如字符串、哈希、列表、集合等,并提供了丰富的功能特性。Redis以其高性能、低延迟和可靠性著称,是当今最流行的NoSQL数据库之一。
安全修复:CVE-2025-21605问题修复
本次7.4.3版本最重要的更新是针对CVE-2025-21605安全问题的修复。该问题允许未经身份验证的客户端导致输出缓冲区异常增长,可能引发严重的系统问题。
在Redis的网络通信模型中,每个客户端连接都有自己的输出缓冲区,用于存储服务器准备发送给客户端的响应数据。正常情况下,Redis会监控这些缓冲区的大小,防止其过度增长消耗过多内存。然而,在这个问题中,某些操作可以绕过这些保护机制,使输出缓冲区不受控制地增长,最终可能导致服务器资源耗尽,引发服务不可用情况。
修复后的版本通过改进输出缓冲区的管理机制,确保在任何情况下都能正确限制其大小,防止异常客户端行为。对于生产环境中的Redis实例,强烈建议尽快升级到7.4.3版本以避免潜在的系统风险。
重要Bug修复
内存泄漏问题
在7.4.3版本中修复了使用FUNCTION FLUSH命令时可能发生的内存泄漏问题,特别是在使用jemalloc内存分配器的情况下。jemalloc是一种高性能的内存分配器,Redis默认使用它来管理内存。当执行FUNCTION FLUSH命令清除所有函数时,某些情况下未能正确释放相关内存,导致内存泄漏。这个问题在长时间运行的Redis实例中可能逐渐累积,最终影响系统性能。
WAITAOF命令改进
WAITAOF命令用于等待指定数量的AOF(append-only file)写入操作完成。在之前的版本中,该命令存在提前返回的问题,可能导致客户端在AOF操作实际完成前就收到响应。7.4.3版本修复了这个问题,确保WAITAOF命令能准确等待所有指定的AOF操作完成后再返回,提高了数据持久化的可靠性。
SLAVEOF命令稳定性提升
修复了在执行SLAVEOF命令(用于将Redis实例配置为另一个实例的副本)时,如果有客户端被阻塞等待懒释放(lazy free)操作完成,可能导致服务器崩溃的问题。懒释放是Redis的一种内存回收机制,它允许在低峰期执行某些内存释放操作以提高性能。这个修复提高了Redis在主从切换场景下的稳定性。
RANDOMKEY命令优化
RANDOMKEY命令用于随机返回数据库中的一个键。在之前的版本中,当Redis处于客户端暂停状态时,该命令可能陷入无限循环。7.4.3版本改进了这一行为,确保在任何情况下都能正确返回结果或错误信息。
分片ID一致性修复
对于支持分片ID(shardID)的Redis集群,修复了在主节点和副本节点同时支持分片ID时可能出现的不一致问题。这一改进确保了在分布式环境中分片ID的正确性和一致性,对于使用Redis集群的用户尤为重要。
升级建议
对于所有使用Redis 7.x版本的用户,特别是那些暴露在公共网络环境中的实例,建议尽快升级到7.4.3版本以获取最新的安全修复和稳定性改进。升级前应做好充分测试,并确保有完整的备份方案。
Redis 7.4.3版本虽然是一个小版本更新,但包含了多个关键问题的修复,特别是安全问题的修补,对于保障Redis实例的安全稳定运行具有重要意义。开发者和运维人员应当重视这次更新,及时评估升级的必要性并制定相应的升级计划。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00