【亲测免费】 JetBrains MCP Proxy Server 使用教程
1. 项目介绍
JetBrains MCP Proxy Server 是一个模型上下文协议服务器,用于与 JetBrains IDEs(如 IntelliJ, PyCharm, WebStorm 等)协同工作。它也可以与 Android Studio 使用。该服务器的主要功能是代理来自客户端的请求,并将其转发到 JetBrains IDE。
2. 项目快速启动
环境准备
确保您的系统中安装了 Node.js 版本 18 或更高。您可以通过以下命令检查 Node.js 版本:
node -v
如果您使用的是 MacOS 并且通过 nvm(Node Version Manager)安装了 Node.js,您可能需要创建一个指向 nvm 中 npx 可执行文件的符号链接:
which npx > /dev/null && sudo ln -sf $(which npx) /usr/local/bin/npx
安装 MCP Server 插件
在您的 JetBrains IDE 中安装 MCP Server 插件。您可以在 IDE 的插件市场中搜索 "MCP Server" 并进行安装。
配置和使用
-
创建
claude_desktop_config.json文件,根据您的操作系统选择正确的路径:- MacOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%/Claude/claude_desktop_config.json
- MacOS:
-
在
claude_desktop_config.json文件中添加以下内容:
{
"mcpServers": {
"jetbrains": {
"command": "npx",
"args": ["-y", "@jetbrains/mcp-proxy"]
}
}
}
- 如果您运行多个 IDE 并且想要连接到特定的 IDE,可以在 MCP 服务器配置中添加环境变量:
"env": {
"IDE_PORT": "<IDE 的内置 Web 服务器端口>",
"HOST": "<IDE 的内置 Web 服务器地址或主机>"
}
- 要启用日志记录,添加:
"env": {
"LOG_ENABLED": "true"
}
3. 应用案例和最佳实践
使用 MCP 与外部客户端或 Docker 容器
当尝试从外部客户端、Docker 容器或第三方应用程序(如 LibreChat)连接到 JetBrains MCP 代理时,可能会遇到 404 错误或连接失败的问题。以下是一些解决方案:
- 在您的 JetBrains IDE 中,确保在 "Settings | Build, Execution, Deployment | Debugger" 中启用了 "Can accept external connections"。
- 使用您的计算机的局域网 IP 地址而不是
host.docker.internal,并明确设置IDE_PORT和HOST在您的配置中。
例如,对于 LibreChat 或类似的外部客户端配置:
{
"mcpServers": {
"intellij": {
"type": "stdio",
"command": "sh",
"args": [
"-c",
"IDE_PORT=YOUR_IDEA_PORT HOST=YOUR_IDEA_LAN_IP npx -y @jetbrains/mcp-proxy"
]
}
}
}
将 YOUR_IDEA_PORT 替换为您的 IDE 的调试端口(在 IDE 设置中找到),将 YOUR_IDEA_LAN_IP 替换为您的计算机的局域网 IP 地址(例如,192.168.0.12)。
4. 典型生态项目
目前,JetBrains MCP Proxy Server 的生态项目还不是很多,但它的设计允许开发者轻松地与各种 JetBrains IDEs 集成,从而可以预期在未来会有更多的生态项目出现。开发者可以关注 JetBrains 官方插件市场以及相关社区,以获取最新的生态项目信息。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0130- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00