3分钟搭建你的MCP服务器:Figma设计无缝接入AI编码工具
你还在为AI编码工具无法准确理解Figma设计而烦恼吗?本文将带你3分钟搭建Figma-Context-MCP服务器,让Cursor等AI编码工具直接获取Figma设计数据,实现设计到代码的精准转换。读完本文,你将掌握:MCP服务器的核心作用、环境准备步骤、配置文件修改方法、连接验证流程,以及常见问题解决技巧。
什么是Figma-Context-MCP?
Figma-Context-MCP是一个基于模型上下文协议(Model Context Protocol, MCP)的服务器,它能让AI编码工具(如Cursor)直接访问Figma文件的布局和样式信息。相比传统的截图粘贴方式,这种方式能显著提高AI生成代码的准确性,因为AI可以获取到精确的尺寸、颜色、字体等设计数据。
项目的核心代码位于src/mcp-server.ts,它实现了MCP协议的服务端逻辑,而src/services/figma.ts则负责与Figma API进行交互,获取设计数据并进行简化处理,确保只向AI模型提供最相关的信息。
准备工作
在开始搭建之前,请确保你的环境满足以下要求:
- Node.js(v14或更高版本)
- npm或pnpm包管理器
- Figma账号及个人访问令牌
获取Figma个人访问令牌的步骤如下:
- 登录Figma账号
- 进入个人设置页面
- 在"开发者"选项卡中创建新的访问令牌
- 保存生成的令牌,后续配置会用到
如果你需要更详细的Figma访问令牌创建指南,可以参考Figma官方帮助文档。
快速安装与配置
1. 获取项目代码
首先,克隆项目仓库到本地:
git clone https://gitcode.com/gh_mirrors/fi/Figma-Context-MCP.git
cd Figma-Context-MCP
2. 安装依赖
使用npm或pnpm安装项目依赖:
npm install
# 或
pnpm install
3. 配置MCP服务器
根据你的操作系统,创建或修改配置文件,添加Figma-Context-MCP服务器配置。
macOS/Linux系统
在配置文件中添加以下内容:
{
"mcpServers": {
"Framelink MCP for Figma": {
"command": "npx",
"args": ["-y", "figma-developer-mcp", "--figma-api-key=YOUR-KEY", "--stdio"]
}
}
}
Windows系统
Windows用户需要稍作调整,配置如下:
{
"mcpServers": {
"Framelink MCP for Figma": {
"command": "cmd",
"args": ["/c", "npx", "-y", "figma-developer-mcp", "--figma-api-key=YOUR-KEY", "--stdio"]
}
}
}
注意:将上述配置中的
YOUR-KEY替换为你之前获取的Figma个人访问令牌。
你也可以通过环境变量来设置API密钥和端口:
{
"mcpServers": {
"Framelink MCP for Figma": {
"command": "npx",
"args": ["-y", "figma-developer-mcp", "--stdio"],
"env": {
"FIGMA_API_KEY": "YOUR-KEY",
"PORT": "3000"
}
}
}
}
配置文件的具体位置和格式可能因AI编码工具而异,例如Cursor的配置文件通常位于用户目录下的.cursor/mcp.json。
启动与验证
启动MCP服务器
配置完成后,启动你的AI编码工具(如Cursor),MCP服务器会自动启动。你也可以手动启动服务器进行测试:
npx figma-developer-mcp --figma-api-key=YOUR-KEY --port=3000
获取Figma文件链接
在Figma中打开你的设计文件,点击右上角的"分享"按钮,然后点击"复制链接"获取文件URL。
验证连接
在AI编码工具的聊天窗口中,粘贴Figma文件链接,然后发送消息请求AI实现设计。如果一切正常,AI将能够访问Figma设计数据并生成相应的代码。
服务器的日志输出可以帮助你排查问题,核心的日志处理逻辑位于src/utils/logger.ts。
工作原理简析
Figma-Context-MCP的工作流程如下:
- 用户在AI编码工具中粘贴Figma文件链接
- AI工具通过MCP协议向Figma-Context-MCP服务器发送请求
- 服务器通过Figma API获取设计数据
- src/extractors/design-extractor.ts处理并简化设计数据
- 服务器将处理后的数据返回给AI工具
- AI工具利用这些结构化设计数据生成更精准的代码
这种方式相比传统的截图方式,能够提供更丰富的上下文信息,如尺寸、颜色、字体、层级关系等,从而显著提高AI生成代码的准确性。
常见问题解决
连接失败
如果服务器无法连接到Figma API,请检查:
- Figma API密钥是否正确
- 网络连接是否正常
- 防火墙设置是否阻止了连接
数据获取不完整
如果AI工具只能获取部分设计数据,可能是因为:
- Figma文件权限设置问题,请确保文件可访问
- 设计文件过大,尝试只选择特定框架或组件
性能问题
如果服务器响应缓慢,可以尝试:
- 升级Node.js到最新版本
- 增加服务器内存分配
- 减少同时处理的设计文件数量
更多问题和解决方案,请参考项目的CONTRIBUTING.md和RELEASES.md文件。
总结与展望
通过本文的步骤,你已经成功搭建了Figma-Context-MCP服务器,实现了AI编码工具与Figma的无缝连接。这将极大地提高你的前端开发效率,让AI能够更准确地将设计转换为代码。
项目团队正在不断改进Figma-Context-MCP,未来计划支持更多设计工具和AI编码平台。你可以通过ROADMAP.md了解未来的发展计划,或通过CHANGELOG.md查看最新的更新内容。
如果你在使用过程中遇到任何问题,或有改进建议,欢迎参与项目贡献,一起完善这个工具。
相关资源
- 项目文档:README.md
- 开发指南:CONTRIBUTING.md
- 版本历史:CHANGELOG.md
- 许可证信息:LICENSE
希望本文对你有所帮助!如果你觉得Figma-Context-MCP有用,请点赞、收藏并关注项目,以便获取最新更新。下期我们将介绍如何优化Figma设计以获得更好的AI代码生成效果,敬请期待!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00


