Sing-box连接资源泄漏问题分析与解决方案
问题现象
近期在Sing-box项目中,多个用户报告了TCP连接资源无法正常回收的问题。主要表现为:
- 用户通过浏览器访问网站后,即使关闭浏览器或断开网络连接,Sing-box仍会保持大量ESTABLISHED状态的连接
- 问题在直接连接和网络连接中均有出现,特别是涉及WebSocket的混合连接场景更为明显
- 连接数持续增长最终导致"too many open files"错误,影响新连接的建立
- 内存占用随连接数增加而持续上升,部分情况下会导致进程被系统终止
技术背景分析
Sing-box作为一款网络工具,其连接管理机制直接影响系统资源的利用率。在Linux系统中,每个TCP连接都会占用文件描述符资源,系统默认限制通常为1024个。当连接数超过限制时,就会触发"too many open files"错误。
连接回收机制通常依赖于:
- 操作系统层面的TCP keepalive机制
- 应用层的心跳检测
- 空闲超时设置
在Sing-box的实现中,连接回收主要受两个关键参数控制:
- 默认空闲超时时间为10分钟
- 心跳间隔为75秒,最多重试9次
理论上,一个无效连接最长会在21.25分钟(10min + 75s×9)后被回收。但实际观察发现,部分连接会远远超过这个时间仍未被释放。
问题根源探究
通过对用户报告的分析,我们发现几个关键点:
-
WebSocket连接影响:使用HTTP+WebSocket混合协议的网站更容易出现连接不回收的情况。这可能是因为WebSocket的长连接特性与工具的连接管理机制存在兼容性问题。
-
版本差异:用户反馈1.9.4版本比1.10-beta5版本表现稍好,关闭浏览器后能够回收连接,但仍有改进空间。
-
分流场景:无论是直接连接还是网络连接都会出现此问题,说明问题可能存在于核心的连接管理逻辑,而非特定协议实现。
-
系统资源限制:在资源受限的路由器环境中,这个问题尤为明显,因为这类设备通常文件描述符限制较低。
解决方案
临时解决方案
-
降级到1.9.4版本:部分用户反馈1.9.4版本表现更好,可以作为临时解决方案。
-
定期重启服务:通过cron设置定时任务,每天重启sing-box服务强制释放资源。
-
调整系统限制:临时增加系统的文件描述符限制:
ulimit -n 65535
长期解决方案
-
修改http.Transport参数:通过调整Go语言标准库中的http.Transport参数,可以优化连接管理:
- 设置更合理的MaxIdleConnsPerHost
- 调整IdleConnTimeout
- 启用连接状态检测
-
核心代码优化:建议在sing-box项目中:
- 加强对WebSocket连接的特殊处理
- 实现更积极的连接健康检测机制
- 提供连接回收相关的可配置参数
-
连接池管理:实现智能的连接池机制,根据系统负载动态调整连接保持策略。
最佳实践建议
对于普通用户,建议采取以下措施:
- 监控连接数变化,设置报警阈值
- 在路由器等资源受限环境中,考虑使用更保守的连接保持策略
- 对于长期运行的下载等应用,定期检查连接状态
- 考虑使用h2mux等替代方案作为临时解决方案
对于开发者,建议:
- 在应用层实现更精细化的连接生命周期管理
- 增加连接状态监控和诊断接口
- 提供连接回收相关的详细日志
- 针对不同协议特点实现差异化的回收策略
总结
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00