首页
/ MCP-Mem0 项目使用与部署教程

MCP-Mem0 项目使用与部署教程

2025-04-17 23:47:08作者:范垣楠Rhoda

1. 项目介绍

MCP-Mem0 是一个开源项目,它基于 Model Context Protocol (MCP) 服务器,并集成了 Mem0,为 AI 代理提供持久化内存功能。该项目可以为 AI 代理存储、检索和使用语义搜索来查找相关记忆。它不仅是一个实用的 MCP 服务器实现,也是一个创建自定义 MCP 服务器的模板。

2. 项目快速启动

安装依赖

首先,确保你的系统中已经安装了 Python 3.12 或更高版本。然后,你可以通过以下步骤安装项目依赖:

pip install uv
git clone https://github.com/coleam00/mcp-mem0.git
cd mcp-mem0
uv pip install -e .

配置环境

创建一个 .env 文件,基于 .env.example 进行配置:

cp .env.example .env

.env 文件中设置以下环境变量:

  • TRANSPORT: 传输协议,可选 ssestdio
  • HOST: 当使用 SSE 传输时的绑定主机。
  • PORT: 当使用 SSE 传输时的监听端口。
  • LLM_PROVIDER: 语言模型提供者,可选 openaiopenrouterollama
  • LLM_BASE_URL: 语言模型 API 的基础 URL。
  • LLM_API_KEY: 语言模型提供者的 API 密钥。
  • LLM_CHOICE: 选择的 LLM 模型。
  • EMBEDDING_MODEL_CHOICE: 使用的嵌入模型。
  • DATABASE_URL: PostgreSQL 数据库连接字符串。

运行服务器

根据你的配置,可以使用以下命令启动服务器:

使用 uv 和 SSE 传输

set TRANSPORT=sse in .env then:
uv run src/main.py

使用 Docker 和 SSE 传输

docker build -t mcp/mem0 --build-arg PORT=8050 .
docker run --env-file .env -p:8050:8050 mcp/mem0

3. 应用案例和最佳实践

MCP-Mem0 可用于多种场景,以下是一些应用案例和最佳实践:

  • 长期记忆存储:为 AI 代理提供一个持久的记忆存储解决方案,以便于长期记忆的保存和检索。
  • 语义搜索:利用内置的语义搜索功能,快速定位相关记忆,提高信息检索效率。
  • 集成到现有系统:作为 MCP 兼容的服务器,可以轻松集成到任何支持 MCP 协议的客户端。

4. 典型生态项目

目前,MCP-Mem0 可以与多种 AI 客户端和工具集成,以下是一些典型的生态项目:

  • Claude Desktop:一个基于 MCP 协议的 AI 客户端。
  • Windsurf:另一个支持 MCP 的客户端,用于与 MCP 服务器进行交互。
  • n8n:一个可扩展的工作流自动化工具,可以与 MCP-Mem0 集成。

通过上述教程,你可以开始使用和部署 MCP-Mem0 项目,为你的 AI 应用添加持久化内存功能。

登录后查看全文
热门项目推荐