Valkey项目中TLS连接写入异常问题分析与解决方案
问题背景
在Valkey项目(一个高性能键值存储系统)的使用过程中,开发人员发现当系统处于高吞吐量场景下运行时,特别是配置了TLS加密连接的集群环境中,会出现频繁的客户端重连现象。通过详细日志分析,可以观察到系统频繁输出"Error writing to client: error:0A00010F:SSL routines::bad length"的错误信息,这表明在SSL/TLS层出现了数据写入异常。
问题现象
该问题在以下场景中表现尤为明显:
- 在高吞吐量的Redis集群环境中(3个分片,每个分片1个副本)
- 当使用自签名证书配置TLS加密连接时
- 在读写分离架构中,读副本节点更容易出现此问题
- 使用valkey-benchmark工具进行压力测试时,特别是使用大尺寸数据包(如32KB)和大量并发线程(如50个)时
错误表现为客户端连接频繁断开,系统吞吐量下降,延迟增加,严重影响系统稳定性和性能。
技术分析
OpenSSL写入机制
深入分析发现,该问题与OpenSSL库的写入机制密切相关。OpenSSL文档明确指出:当SSL_write函数因SSL_ERROR_WANT_READ或SSL_ERROR_WANT_WRITE错误需要重试时,必须使用完全相同的参数再次调用。这是因为数据可能已经被部分处理,参数不一致会导致处理错误。
Valkey网络层实现
Valkey的网络层在处理大块数据写入时,会将数据分割成多个小块进行处理。具体流程如下:
- 当待写入数据超过NET_MAX_WRITES_PER_EVENT(默认为64KB)时,系统会将数据分割
- 使用writev系统调用进行向量化写入
- 对于TLS连接,会调用connTLSWritev函数处理分割后的数据块
问题出现在当第一次写入尝试只成功写入部分数据(如16KB)后,后续重试时的数据块大小与初始调用不一致,违反了OpenSSL的重试规则,导致"bad length"错误。
系统参数影响
通过实验发现,调整系统TCP缓冲区大小会显著影响该问题的出现频率:
- 当设置较小的tcp_wmem值(如4KB)时,问题更容易复现
- 同时调整tcp_rmem参数可以缓解问题
- 修改NET_MAX_WRITES_PER_EVENT参数也能影响问题表现
这表明问题与网络层缓冲机制和OpenSSL的交互方式密切相关。
解决方案
经过深入分析,开发团队提出了以下修复方案:
- 在TLS连接结构中增加last_write_data_len字段,记录上次写入尝试的数据长度
- 在connTLSWritev函数中增加判断逻辑,确保重试时的数据块不小于上次尝试
- 当检测到需要重试且数据块变小时,强制使用最大可能缓冲区处理
该方案的核心是确保在SSL写入需要重试时,遵守OpenSSL的重试规则,保持参数一致性。具体实现通过以下机制:
- 记录每次写入尝试的数据长度
- 比较当前数据块与上次尝试的大小关系
- 在必要时调整写入策略,避免违反OpenSSL规则
验证与效果
该修复方案经过多种场景验证:
- 在调整系统TCP缓冲区参数的极端情况下验证
- 使用valkey-benchmark工具进行压力测试验证
- 在集群环境和单节点环境分别验证
- 在不同OpenSSL版本(3.0.x和3.4.x)下验证
测试结果表明,修复方案有效解决了"bad length"错误,系统在高负载下的稳定性显著提升,客户端重连现象消失,性能指标恢复正常。
总结
Valkey项目中TLS连接写入异常问题是一个典型的网络层与加密层交互问题,其根本原因在于未能完全遵守OpenSSL的重试规则。通过深入分析OpenSSL机制和Valkey网络层实现,开发团队提出了针对性的解决方案,有效提升了系统在加密连接下的稳定性和可靠性。
这一案例也提醒我们,在实现网络加密功能时,必须严格遵循底层加密库的规范和要求,特别是在处理部分写入和重试逻辑时,任何细微的偏差都可能导致难以排查的稳定性问题。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00