如何用 n8n-nodes-mcp 打造终极 AI 工具集成平台:2025 完整指南
n8n-nodes-mcp 是一款强大的 n8n 社区节点,让你能够在 n8n 工作流中无缝集成 Model Context Protocol (MCP) 服务器,实现 AI 模型与外部工具的标准化交互。通过这款工具,普通用户无需编写复杂代码,就能轻松构建自动化工作流,连接 AI 能力与各类外部服务。
为什么选择 n8n-nodes-mcp?三大核心优势解析 🚀
n8n-nodes-mcp 作为连接 AI 与外部工具的桥梁,凭借以下特性在众多自动化工具中脱颖而出:
1. 多传输协议支持,连接方式灵活多样
支持命令行(STDIO)、HTTP Streamable(推荐)和 SSE 三种连接方式,满足不同场景需求。其中 HTTP Streamable 作为最新传输方式,提供了比传统 SSE 更高效的性能和更好的灵活性,特别适合新搭建的工作流。
2. 无缝集成 n8n AI Agent,释放自动化潜能
只需简单配置环境变量,即可将 MCP Client 节点作为工具集成到 n8n AI Agent 中,让 AI 能够自动调用各类外部工具,实现真正的智能自动化流程。
3. Docker 环境变量管理,部署运维更轻松
支持通过 Docker 环境变量统一管理 MCP 服务器配置,所有以 MCP_ 为前缀的变量会自动传递给 MCP 服务器,极大简化了多服务部署和密钥管理流程。
快速上手:n8n-nodes-mcp 安装与基础配置
简单三步安装流程
- 按照 n8n 社区节点安装指南 安装节点
- 设置环境变量启用工具功能(AI Agent 必需):
export N8N_COMMUNITY_PACKAGES_ALLOW_TOOL_USAGE=true - 重启 n8n 服务使配置生效
配置 MCP 服务器连接凭证
n8n-nodes-mcp 提供三种凭证类型连接 MCP 服务器,满足不同部署场景需求:
命令行传输(STDIO)配置
核心配置项:
- 命令:启动 MCP 服务器的命令
- 参数:传递给服务器的可选参数
- 环境变量:以 NAME=VALUE 格式设置的变量
HTTP Streamable 传输(推荐)配置
这是 2025 年推荐的现代连接方式,提供更好的性能和灵活性:
-
启动支持 HTTP Streamable 的本地 MCP 服务器:
npx @modelcontextprotocol/server-example-streamable -
创建 MCP Client (HTTP Streamable) API 凭证:
- 设置 HTTP Streamable URL:
http://localhost:3001/stream - 添加必要的认证头信息
- 设置 HTTP Streamable URL:
-
在工作流中选择 HTTP Streamable 连接类型并使用新创建的凭证
环境变量配置指南:两种实用方法
方法一:通过凭证界面设置(适合测试)
直接在凭证配置中添加环境变量,安全存储在 n8n 凭证系统中:
这种方法适合个人测试和小型项目,配置简单直观,变量值加密存储。
方法二:Docker 环境变量注入(适合生产)
在 Docker 部署中,只需添加以 MCP_ 为前缀的环境变量,即可自动传递给 MCP 服务器:
version: '3'
services:
n8n:
image: n8nio/n8n
environment:
- MCP_BRAVE_API_KEY=your-api-key-here
- MCP_OPENAI_API_KEY=your-openai-key-here
- MCP_CUSTOM_SETTING=some-value
实战教程:五大常用操作与案例演示
1. 列出可用工具:快速了解服务器能力
操作步骤:
- 添加 MCP Client 节点
- 选择 "List Tools" 操作
- 运行节点查看结果
此操作返回服务器所有可用工具,包括名称、描述和参数 schema,帮助你快速了解 MCP 服务器能力。
2. 执行工具:以 Brave 搜索为例
完整流程:
-
安装 Brave Search MCP 服务器:
npm install -g @modelcontextprotocol/server-brave-search -
配置凭证:
- 命令:
npx - 参数:
-y @modelcontextprotocol/server-brave-search - 环境变量:
BRAVE_API_KEY=your-api-key
- 命令:
-
创建工作流:
- 添加 MCP Client 节点,选择 "Execute Tool" 操作
- 工具选择 "brave_search"
- 参数设置:
{"query": "latest AI news"}
3. 多服务器集成:打造全能 AI 助手
通过配置多个 MCP 服务器,让 AI 能够调用不同类型的工具,实现复杂任务处理:
实现步骤:
- 在 docker-compose.yml 中配置所有必要环境变量
- 创建多个 MCP Client 凭证(Brave 搜索、OpenAI 工具等)
- 在 AI Agent 节点中启用 MCP Client 作为工具
- 编写综合提示词,让 AI 自动选择合适的工具
示例提示词:
我需要你帮我规划旅行。首先,搜索{destination_country}的热门景点,然后查询前三名城市的当前天气,最后查找这些地方的最新旅行限制新闻。
4. 作为 AI Agent 工具使用:释放自动化潜力
要将 MCP Client 节点用作 AI Agent 工具,必须设置环境变量:
不同部署方式的设置方法:
-
bash/zsh 终端:
export N8N_COMMUNITY_PACKAGES_ALLOW_TOOL_USAGE=true n8n start -
Docker 部署:
environment: - N8N_COMMUNITY_PACKAGES_ALLOW_TOOL_USAGE=true -
桌面应用: 在 n8n 目录创建
.env文件:N8N_COMMUNITY_PACKAGES_ALLOW_TOOL_USAGE=true
设置完成后,MCP Client 将作为可用工具出现在 AI Agent 节点中,实现 AI 自动调用外部服务的强大能力。
5. 执行工具操作界面详解
执行工具是最常用的核心操作,让我们详细了解其界面和配置选项:
关键配置项:
- 操作类型:选择 "Execute Tool"
- 工具名称:从下拉菜单选择要执行的工具
- 参数:根据工具要求的 schema 输入 JSON 参数
- 凭证:选择已配置的 MCP 服务器凭证
常见问题与解决方案
连接 MCP 服务器失败怎么办?
首先检查服务器是否正常运行,然后验证连接参数是否正确。对于 HTTP Streamable 连接,可以使用 curl 命令测试端点连通性:
curl http://localhost:3001/stream
环境变量不生效的排查步骤
- 确认变量名称是否以
MCP_为前缀 - 检查 Docker 配置是否正确挂载环境变量
- 通过 "List Tools" 操作验证服务器是否接收到变量
- 重启 n8n 服务确保配置生效
如何更新 MCP 服务器到最新版本?
对于命令行安装的服务器,使用以下命令更新:
npm update -g @modelcontextprotocol/server-example-streamable
n8n-nodes-mcp 技术规格与兼容性说明
- 支持 n8n 版本:1.0.0 及以上
- 兼容 MCP 协议版本:1.0.0 及以上
- 传输方式支持:STDIO、HTTP Streamable、SSE(SSE 已 deprecated)
- 安全要求:建议使用 HTTPS 加密传输敏感数据
- 环境要求:Node.js 16.x 及以上版本
总结:开启 AI 自动化新纪元
n8n-nodes-mcp 作为连接 AI 与外部工具的桥梁,为普通用户提供了构建复杂自动化工作流的能力。无论是简单的工具调用,还是多服务器协同的 AI 助手,这款节点都能轻松应对。通过本文介绍的安装配置、环境变量管理和实际操作案例,你已经掌握了使用 n8n-nodes-mcp 的核心技能。
现在就动手尝试,用 n8n-nodes-mcp 打造属于你的智能自动化工作流,让 AI 能力与外部工具无缝协同,释放更多生产力!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00






