VSCode Remote-SSH 扩展在 Windows 11 24H2 下使用 BBR2 拥塞算法导致连接失败的解决方案
问题背景
在 Windows 11 24H2 系统中,当用户将 TCP 拥塞控制算法手动设置为 BBR2 时,使用 VSCode 的 Remote-SSH 扩展连接远程开发环境会出现动态端口转发失败的问题。具体表现为连接过程中卡在"waiting for port forwarding to be ready"状态,最终弹出错误提示"Failed to set up dynamic port forwarding connection over SSH to the VS Code Server"。
技术分析
拥塞控制算法的影响
TCP 拥塞控制算法是网络协议栈中用于控制数据传输速率的重要机制。Windows 11 24H2 默认使用 CUBIC 算法,但部分用户出于性能优化考虑会手动更改为 BBR2 算法。BBR2 是 Google 开发的第二代 Bottleneck Bandwidth and Round-trip propagation time 算法,旨在提高网络吞吐量并降低延迟。
问题现象
当系统使用 BBR2 算法时,VSCode Remote-SSH 扩展在建立动态端口转发连接时会出现以下典型症状:
- 连接过程在"等待端口转发就绪"阶段停滞
- 最终报错"代理连接超时",提示 TCP 端口转发可能被禁用或远程服务器可能已崩溃
- 普通 SSH 连接不受影响,仅影响 VSCode 的远程开发功能
根本原因
经过验证,这个问题与 Windows 11 24H2 系统中 BBR2 算法的实现方式有关。BBR2 在某些网络环境下可能与 VSCode Remote-SSH 扩展使用的动态端口转发机制存在兼容性问题,导致连接建立过程超时。
解决方案
临时解决方法
-
将 TCP 拥塞控制算法改回默认值:
- 以管理员身份打开命令提示符
- 执行以下命令恢复默认设置:
netsh int tcp set supplemental Template=Internet CongestionProvider=ctcp netsh int tcp set supplemental Template=InternetCustom CongestionProvider=ctcp
-
重启网络服务或系统使更改生效
长期建议
- 等待 Microsoft 或 Google 发布针对 BBR2 算法的更新补丁
- 考虑使用其他拥塞控制算法如 CUBIC 或 CTCP
- 关注 VSCode Remote-SSH 扩展的更新日志,查看是否解决了此兼容性问题
技术验证
用户可以通过以下步骤验证问题是否与 BBR2 算法相关:
-
检查当前拥塞控制算法设置:
netsh int tcp show supplemental -
临时切换不同算法进行测试:
- 切换到 CUBIC:
netsh int tcp set supplemental Template=Internet CongestionProvider=cubic - 切换到 CTCP:
netsh int tcp set supplemental Template=Internet CongestionProvider=ctcp
- 切换到 CUBIC:
-
每次更改后测试 VSCode Remote-SSH 连接
注意事项
- 此问题不仅影响 VSCode Remote-SSH,也可能影响其他依赖动态端口转发的应用程序(如报告中提到的 Steam)
- Windows 11 24H2 对网络协议栈进行了多项改进,建议用户在修改高级网络设置前做好备份
- 如果必须使用 BBR2 算法,可以考虑通过 WSL 环境进行远程开发,可能规避此问题
总结
Windows 11 24H2 系统中手动设置 BBR2 拥塞控制算法会导致 VSCode Remote-SSH 扩展的动态端口转发功能失效。目前最可靠的解决方案是暂时使用其他拥塞控制算法。网络协议栈的优化需要平衡性能与兼容性,用户在修改此类高级设置时应充分测试关键应用程序的功能。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0119- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
SenseNova-U1-8B-MoT-SFTenseNova U1 是一系列全新的原生多模态模型,它在单一架构内实现了多模态理解、推理与生成的统一。 这标志着多模态AI领域的根本性范式转变:从模态集成迈向真正的模态统一。SenseNova U1模型不再依赖适配器进行模态间转换,而是以原生方式在语言和视觉之间进行思考与行动。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00