Back to Catalog
OpenMemory MCP logo
mcp-server9

OpenMemory MCP

OpenMemory MCP 是一个以本地为优先、注重隐私的记忆服务器,实现了模型上下文协议(MCP),可在兼容的 AI 客户端之间实现持久的共享记忆。

概览

OpenMemory MCP 是一个开源、本地优先的记忆服务器,基于模型上下文协议(MCP)构建。它提供了标准化的记忆基础设施,使 AI 客户端能够跨会话和应用共享并持久化上下文,而无需依赖云存储,从而确保用户对存储数据的完全所有权和隐私。:contentReference[oaicite:0]{index=0}

该项目由 Mem0 于 2025 年 5 月推出,很快引起关注,成为需要在工作流中保留和查询用户或系统记忆的 AI 工具的基础层。:contentReference[oaicite:1]{index=1}

功能

  • 本地优先架构: 完全运行在用户设备上,无自动云同步,保护隐私和控制权。:contentReference[oaicite:2]{index=2}
  • 标准化 MCP API: 提供核心操作,如 add_memoriessearch_memorylist_memoriesdelete_all_memories,用于持久化记忆管理。:contentReference[oaicite:3]{index=3}
  • 跨客户端上下文共享: 允许一个 MCP 兼容工具(如 Claude Desktop)存储的上下文被另一个工具(如 Cursor)检索。:contentReference[oaicite:4]{index=4}
  • 统一控制面板: 内置 Web UI,可实时浏览、管理和控制记忆及客户端访问。:contentReference[oaicite:5]{index=5}
  • 语义搜索: 通过向量数据库(如 Qdrant)进行语义索引,实现基于意义的记忆检索。:contentReference[oaicite:6]{index=6}

使用场景

  • 持久化项目记忆: 存储关键细节、偏好或上下文,并可在会话和工具之间重复使用,无需重复提示。:contentReference[oaicite:7]{index=7}
  • 跨工具协作: 在涉及多个 AI 客户端的复杂工作流中保持共享上下文(例如,在一个工具中规划,在另一个工具中执行)。:contentReference[oaicite:8]{index=8}
  • 开发者工作流: 开发者在不同环境或工具间切换时,可保持一致的上下文,减少开销,提高生产力。:contentReference[oaicite:9]{index=9}

架构

OpenMemory MCP 利用容器化微服务、用于语义索引的向量数据库以及服务器发送事件(SSE)实现连接客户端的实时更新。可通过 Docker 部署,并配置通过 MCP 的 REST/SSE 端点与客户端接口。:contentReference[oaicite:10]{index=10}

入门

服务器可以通过克隆仓库、满足先决条件(Docker、某些配置需要 OpenAI API Key)并运行提供的部署脚本在本地启动。启动后,支持 MCP 的 AI 工具即可连接到服务器端点存储和检索记忆数据。:contentReference[oaicite:11]{index=11}

优势与注意事项

优势: 所有记忆保存在本地并由用户控制;标准化 AI 工具共享记忆的方式;避免重复输入上下文带来的令牌开销。:contentReference[oaicite:12]{index=12} 注意事项: 需要安装和配置(如 Docker);需要 MCP 客户端兼容性以实现集成。:contentReference[oaicite:13]{index=13}

社区与贡献

OpenMemory MCP 是开源的,鼓励通过 GitHub 仓库贡献。文档、控制面板和指南帮助开发者和高级用户扩展或自定义系统。:contentReference[oaicite:14]{index=14}

Tags

MCP记忆AI开源本地优先上下文共享