3分钟搭建你的MCP服务器:Figma设计无缝接入AI编码工具
你还在为AI编码工具无法准确理解Figma设计而烦恼吗?本文将带你3分钟搭建Figma-Context-MCP服务器,让Cursor等AI编码工具直接获取Figma设计数据,实现设计到代码的精准转换。读完本文,你将掌握:MCP服务器的核心作用、环境准备步骤、配置文件修改方法、连接验证流程,以及常见问题解决技巧。
什么是Figma-Context-MCP?
Figma-Context-MCP是一个基于模型上下文协议(Model Context Protocol, MCP)的服务器,它能让AI编码工具(如Cursor)直接访问Figma文件的布局和样式信息。相比传统的截图粘贴方式,这种方式能显著提高AI生成代码的准确性,因为AI可以获取到精确的尺寸、颜色、字体等设计数据。
项目的核心代码位于src/mcp-server.ts,它实现了MCP协议的服务端逻辑,而src/services/figma.ts则负责与Figma API进行交互,获取设计数据并进行简化处理,确保只向AI模型提供最相关的信息。
准备工作
在开始搭建之前,请确保你的环境满足以下要求:
- Node.js(v14或更高版本)
- npm或pnpm包管理器
- Figma账号及个人访问令牌
获取Figma个人访问令牌的步骤如下:
- 登录Figma账号
- 进入个人设置页面
- 在"开发者"选项卡中创建新的访问令牌
- 保存生成的令牌,后续配置会用到
如果你需要更详细的Figma访问令牌创建指南,可以参考Figma官方帮助文档。
快速安装与配置
1. 获取项目代码
首先,克隆项目仓库到本地:
git clone https://gitcode.com/gh_mirrors/fi/Figma-Context-MCP.git
cd Figma-Context-MCP
2. 安装依赖
使用npm或pnpm安装项目依赖:
npm install
# 或
pnpm install
3. 配置MCP服务器
根据你的操作系统,创建或修改配置文件,添加Figma-Context-MCP服务器配置。
macOS/Linux系统
在配置文件中添加以下内容:
{
"mcpServers": {
"Framelink MCP for Figma": {
"command": "npx",
"args": ["-y", "figma-developer-mcp", "--figma-api-key=YOUR-KEY", "--stdio"]
}
}
}
Windows系统
Windows用户需要稍作调整,配置如下:
{
"mcpServers": {
"Framelink MCP for Figma": {
"command": "cmd",
"args": ["/c", "npx", "-y", "figma-developer-mcp", "--figma-api-key=YOUR-KEY", "--stdio"]
}
}
}
注意:将上述配置中的
YOUR-KEY替换为你之前获取的Figma个人访问令牌。
你也可以通过环境变量来设置API密钥和端口:
{
"mcpServers": {
"Framelink MCP for Figma": {
"command": "npx",
"args": ["-y", "figma-developer-mcp", "--stdio"],
"env": {
"FIGMA_API_KEY": "YOUR-KEY",
"PORT": "3000"
}
}
}
}
配置文件的具体位置和格式可能因AI编码工具而异,例如Cursor的配置文件通常位于用户目录下的.cursor/mcp.json。
启动与验证
启动MCP服务器
配置完成后,启动你的AI编码工具(如Cursor),MCP服务器会自动启动。你也可以手动启动服务器进行测试:
npx figma-developer-mcp --figma-api-key=YOUR-KEY --port=3000
获取Figma文件链接
在Figma中打开你的设计文件,点击右上角的"分享"按钮,然后点击"复制链接"获取文件URL。
验证连接
在AI编码工具的聊天窗口中,粘贴Figma文件链接,然后发送消息请求AI实现设计。如果一切正常,AI将能够访问Figma设计数据并生成相应的代码。
服务器的日志输出可以帮助你排查问题,核心的日志处理逻辑位于src/utils/logger.ts。
工作原理简析
Figma-Context-MCP的工作流程如下:
- 用户在AI编码工具中粘贴Figma文件链接
- AI工具通过MCP协议向Figma-Context-MCP服务器发送请求
- 服务器通过Figma API获取设计数据
- src/extractors/design-extractor.ts处理并简化设计数据
- 服务器将处理后的数据返回给AI工具
- AI工具利用这些结构化设计数据生成更精准的代码
这种方式相比传统的截图方式,能够提供更丰富的上下文信息,如尺寸、颜色、字体、层级关系等,从而显著提高AI生成代码的准确性。
常见问题解决
连接失败
如果服务器无法连接到Figma API,请检查:
- Figma API密钥是否正确
- 网络连接是否正常
- 防火墙设置是否阻止了连接
数据获取不完整
如果AI工具只能获取部分设计数据,可能是因为:
- Figma文件权限设置问题,请确保文件可访问
- 设计文件过大,尝试只选择特定框架或组件
性能问题
如果服务器响应缓慢,可以尝试:
- 升级Node.js到最新版本
- 增加服务器内存分配
- 减少同时处理的设计文件数量
更多问题和解决方案,请参考项目的CONTRIBUTING.md和RELEASES.md文件。
总结与展望
通过本文的步骤,你已经成功搭建了Figma-Context-MCP服务器,实现了AI编码工具与Figma的无缝连接。这将极大地提高你的前端开发效率,让AI能够更准确地将设计转换为代码。
项目团队正在不断改进Figma-Context-MCP,未来计划支持更多设计工具和AI编码平台。你可以通过ROADMAP.md了解未来的发展计划,或通过CHANGELOG.md查看最新的更新内容。
如果你在使用过程中遇到任何问题,或有改进建议,欢迎参与项目贡献,一起完善这个工具。
相关资源
- 项目文档:README.md
- 开发指南:CONTRIBUTING.md
- 版本历史:CHANGELOG.md
- 许可证信息:LICENSE
希望本文对你有所帮助!如果你觉得Figma-Context-MCP有用,请点赞、收藏并关注项目,以便获取最新更新。下期我们将介绍如何优化Figma设计以获得更好的AI代码生成效果,敬请期待!
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00


