Go-Proxy-BingAI项目部署中的WebSocket连接问题解析
问题背景
在使用美国VPS部署Go-Proxy-BingAI项目时,用户遇到了前端界面持续显示"正在尝试重新连接"的问题。尽管已经按照文档配置了站点和Cookie,但服务仍无法正常建立连接。
问题诊断
通过分析用户提供的截图和描述,可以确定问题出在WebSocket协议的支持上。控制台显示WebSocket连接未能成功建立,这通常意味着反向代理配置存在问题。
根本原因
-
宝塔面板默认配置限制:宝塔面板自带的反向代理配置默认不支持WebSocket协议,而Go-Proxy-BingAI项目需要WebSocket来实现实时通信功能。
-
Nginx缓存配置冲突:用户最初使用的Nginx配置中包含了缓存相关的设置,这些设置可能会干扰WebSocket连接的正常建立。
解决方案
正确的Nginx配置
经过测试验证,以下精简的Nginx配置可以解决WebSocket连接问题:
server {
listen 80;
server_name yourdomain.com;
location / {
proxy_pass http://127.0.0.1:8080;
proxy_http_version 1.1;
proxy_cache_bypass $http_upgrade;
# 必要的代理头设置
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection $connection_upgrade;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Host $host;
proxy_set_header X-Forwarded-Port $server_port;
}
}
关键配置说明
-
WebSocket支持:通过
proxy_http_version 1.1和Upgrade头设置启用HTTP/1.1协议和连接升级功能。 -
连接升级:
Connection $connection_upgrade确保WebSocket连接能够正确建立。 -
移除了缓存配置:删除了可能导致问题的缓存相关设置,包括
proxy_cache和proxy_cache_valid等指令。
部署建议
-
避免使用宝塔默认配置:虽然文档中提到了宝塔面板,但其默认配置不完全适配本项目需求。
-
手动配置Nginx:建议直接编辑Nginx配置文件,确保包含上述必要的WebSocket支持配置。
-
Cookie管理:虽然某些浏览器插件可以导出Cookie,但Go-Proxy-BingAI项目目前不支持直接从这些插件导出的格式。
总结
WebSocket连接问题在反向代理场景中较为常见,特别是在使用管理面板的默认配置时。通过正确配置Nginx的代理头和移除不必要的缓存设置,可以有效解决Go-Proxy-BingAI项目的连接问题。未来项目文档将更新这些配置细节,以避免用户遇到类似问题。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00