【亲测免费】 JetBrains MCP Proxy Server 使用教程
1. 项目介绍
JetBrains MCP Proxy Server 是一个模型上下文协议服务器,用于与 JetBrains IDEs(如 IntelliJ, PyCharm, WebStorm 等)协同工作。它也可以与 Android Studio 使用。该服务器的主要功能是代理来自客户端的请求,并将其转发到 JetBrains IDE。
2. 项目快速启动
环境准备
确保您的系统中安装了 Node.js 版本 18 或更高。您可以通过以下命令检查 Node.js 版本:
node -v
如果您使用的是 MacOS 并且通过 nvm(Node Version Manager)安装了 Node.js,您可能需要创建一个指向 nvm 中 npx 可执行文件的符号链接:
which npx > /dev/null && sudo ln -sf $(which npx) /usr/local/bin/npx
安装 MCP Server 插件
在您的 JetBrains IDE 中安装 MCP Server 插件。您可以在 IDE 的插件市场中搜索 "MCP Server" 并进行安装。
配置和使用
-
创建
claude_desktop_config.json文件,根据您的操作系统选择正确的路径:- MacOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%/Claude/claude_desktop_config.json
- MacOS:
-
在
claude_desktop_config.json文件中添加以下内容:
{
"mcpServers": {
"jetbrains": {
"command": "npx",
"args": ["-y", "@jetbrains/mcp-proxy"]
}
}
}
- 如果您运行多个 IDE 并且想要连接到特定的 IDE,可以在 MCP 服务器配置中添加环境变量:
"env": {
"IDE_PORT": "<IDE 的内置 Web 服务器端口>",
"HOST": "<IDE 的内置 Web 服务器地址或主机>"
}
- 要启用日志记录,添加:
"env": {
"LOG_ENABLED": "true"
}
3. 应用案例和最佳实践
使用 MCP 与外部客户端或 Docker 容器
当尝试从外部客户端、Docker 容器或第三方应用程序(如 LibreChat)连接到 JetBrains MCP 代理时,可能会遇到 404 错误或连接失败的问题。以下是一些解决方案:
- 在您的 JetBrains IDE 中,确保在 "Settings | Build, Execution, Deployment | Debugger" 中启用了 "Can accept external connections"。
- 使用您的计算机的局域网 IP 地址而不是
host.docker.internal,并明确设置IDE_PORT和HOST在您的配置中。
例如,对于 LibreChat 或类似的外部客户端配置:
{
"mcpServers": {
"intellij": {
"type": "stdio",
"command": "sh",
"args": [
"-c",
"IDE_PORT=YOUR_IDEA_PORT HOST=YOUR_IDEA_LAN_IP npx -y @jetbrains/mcp-proxy"
]
}
}
}
将 YOUR_IDEA_PORT 替换为您的 IDE 的调试端口(在 IDE 设置中找到),将 YOUR_IDEA_LAN_IP 替换为您的计算机的局域网 IP 地址(例如,192.168.0.12)。
4. 典型生态项目
目前,JetBrains MCP Proxy Server 的生态项目还不是很多,但它的设计允许开发者轻松地与各种 JetBrains IDEs 集成,从而可以预期在未来会有更多的生态项目出现。开发者可以关注 JetBrains 官方插件市场以及相关社区,以获取最新的生态项目信息。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00