Python框架FastMCP零基础快速上手:LLM工具开发实战指南
在AI应用开发领域,如何让大语言模型(LLM)高效调用外部工具和资源一直是开发者面临的核心挑战。Model Context Protocol(MCP协议)作为解决这一问题的标准规范,为LLM与外部系统的交互提供了统一接口。FastMCP作为一款轻量级Python框架,让开发者能够以最低成本快速构建MCP服务器,本文将手把手教你5分钟掌握从环境配置到功能实现的完整流程。
为什么选择FastMCP构建MCP服务器?
传统LLM应用开发中,工具调用往往面临接口不统一、权限管理复杂、跨平台兼容性差等问题。FastMCP通过Pythonic的设计理念,将这些复杂问题简化为几行代码的事。
核心优势:FastMCP采用装饰器模式定义资源和工具,自动生成OpenAPI文档,支持异步处理和多种认证方式,让开发者专注于业务逻辑而非底层实现。
零基础环境准备:5分钟完成系统检测与依赖安装
在开始编码前,让我们先确保开发环境符合要求。以下环境检测脚本可以帮你快速诊断系统配置:
# environment_check.py
import sys
import importlib.util
def check_environment():
# 检查Python版本
if sys.version_info < (3, 7):
print("⚠️ Python版本需3.7及以上,当前版本:", sys.version)
return False
# 检查关键依赖
required_packages = ["pydantic", "httpx"]
missing = []
for pkg in required_packages:
if importlib.util.find_spec(pkg) is None:
missing.append(pkg)
if missing:
print(f"⚠️ 缺少必要依赖: {', '.join(missing)}")
print("💡 建议执行: pip install " + " ".join(missing))
return False
print("✅ 环境检测通过!")
return True
if __name__ == "__main__":
check_environment()
快速安装步骤
-
克隆项目仓库(如果需要本地开发)
git clone https://gitcode.com/GitHub_Trending/fa/fastmcp cd fastmcp -
安装核心依赖
# 使用pip安装FastMCP pip install fastmcp # 安装ASGI服务器(FastMCP运行必需) pip install uvicorn
核心优势:FastMCP采用模块化设计,核心包体积小于5MB,安装速度快,不会给项目带来额外负担。
快速上手:3步构建你的第一个MCP服务器
第1步:创建基础服务器代码
在项目目录下新建server.py文件,输入以下代码:
from fastmcp import FastMCP # 导入FastMCP核心类
# 创建MCP服务器实例,参数为服务器名称
mcp_server = FastMCP("MyFirstMcpServer")
# 定义资源:使用resource装饰器,参数为资源名称
@mcp_server.resource("welcome")
def get_welcome_message():
"""返回欢迎信息的简单资源"""
return {"message": "欢迎使用FastMCP服务器", "version": "1.0.0"}
# 定义工具:使用tool装饰器,自动处理参数验证
@mcp_server.tool()
def calculate_sum(a: int, b: int) -> int:
"""计算两个整数的和"""
return a + b
# 运行服务器
if __name__ == "__main__":
# debug=True启用自动重载,生产环境应设为False
mcp_server.run(debug=True, host="0.0.0.0", port=8000)
第2步:启动服务器
在终端执行以下命令启动服务器:
uvicorn server:app --reload
看到类似以下输出表示启动成功:
INFO: Uvicorn running on http://127.0.0.1:8000 (Press CTRL+C to quit)
INFO: Started reloader process [12345] using statreload
INFO: Started server process [12347]
INFO: Waiting for application startup.
INFO: Application startup complete.
第3步:测试服务器功能
打开浏览器访问http://127.0.0.1:8000/docs,可以看到自动生成的OpenAPI文档界面。你也可以使用curl命令测试工具调用:
# 测试资源访问
curl http://127.0.0.1:8000/resources/welcome
# 测试工具调用
curl -X POST http://127.0.0.1:8000/tools/calculate_sum \
-H "Content-Type: application/json" \
-d '{"a": 5, "b": 3}'
进阶功能:让你的MCP服务器更强大
配置文件管理
FastMCP支持通过JSON配置文件管理服务器参数,创建fastmcp.json:
{
"server": {
"name": "MyConfiguredServer",
"description": "使用配置文件的MCP服务器"
},
"cors": {
"allow_origins": ["*"]
}
}
在代码中加载配置:
mcp_server = FastMCP.from_config("fastmcp.json")
核心优势:配置文件支持环境变量插值,便于不同环境(开发/测试/生产)的参数管理。
权限控制
添加简单的API密钥认证:
from fastmcp.server.auth import BearerAuth
# 创建认证实例
auth = BearerAuth(valid_tokens=["your_secure_token"])
# 保护资源
@mcp_server.resource("protected", auth=auth)
def get_protected_data():
return {"secret": "这是受保护的数据"}
常见错误排查与解决方案
问题1:服务器启动后无法访问
症状:浏览器访问http://127.0.0.1:8000显示无法连接
解决方案:
- 检查端口是否被占用:
netstat -tuln | grep 8000 - 确认服务器绑定地址是否为
0.0.0.0(允许外部访问) - 尝试更换端口:
mcp_server.run(port=8080)
问题2:工具调用返回422错误
症状:调用工具时返回"validation error"
解决方案:
- 检查请求参数类型是否匹配函数定义
- 使用
http://127.0.0.1:8000/docs页面的"Try it out"功能验证参数格式 - 确保JSON请求体格式正确,特别是数字类型不要加引号
问题3:装饰器不生效
症状:定义的资源或工具在API文档中不显示
解决方案:
- 检查装饰器语法是否正确(
@mcp_server.resource(...)) - 确保函数定义在
mcp_server.run()调用之前 - 检查函数是否有返回值(FastMCP不支持无返回值的工具)
总结:从零基础到生产部署的LLM工具开发之旅
通过本文的手把手教学,你已经掌握了FastMCP的核心功能和使用方法。从环境检测到服务器部署,FastMCP通过简洁的API设计和自动化工具,大幅降低了MCP服务器的开发门槛。无论是构建简单的工具调用服务,还是复杂的AI应用后端,FastMCP都能提供高效可靠的技术支持。
官方文档:docs/server.md
更多示例代码:examples/
现在就动手创建你的第一个MCP服务器,开启LLM工具开发的新篇章吧!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
