
OpenMemory MCP
OpenMemory MCP 是一个以本地为优先、注重隐私的记忆服务器,实现了模型上下文协议(MCP),可在兼容的 AI 客户端之间实现持久的共享记忆。
概览
OpenMemory MCP 是一个开源、本地优先的记忆服务器,基于模型上下文协议(MCP)构建。它提供了标准化的记忆基础设施,使 AI 客户端能够跨会话和应用共享并持久化上下文,而无需依赖云存储,从而确保用户对存储数据的完全所有权和隐私。:contentReference[oaicite:0]{index=0}
该项目由 Mem0 于 2025 年 5 月推出,很快引起关注,成为需要在工作流中保留和查询用户或系统记忆的 AI 工具的基础层。:contentReference[oaicite:1]{index=1}
功能
- 本地优先架构: 完全运行在用户设备上,无自动云同步,保护隐私和控制权。:contentReference[oaicite:2]{index=2}
- 标准化 MCP API: 提供核心操作,如
add_memories、search_memory、list_memories和delete_all_memories,用于持久化记忆管理。:contentReference[oaicite:3]{index=3} - 跨客户端上下文共享: 允许一个 MCP 兼容工具(如 Claude Desktop)存储的上下文被另一个工具(如 Cursor)检索。:contentReference[oaicite:4]{index=4}
- 统一控制面板: 内置 Web UI,可实时浏览、管理和控制记忆及客户端访问。:contentReference[oaicite:5]{index=5}
- 语义搜索: 通过向量数据库(如 Qdrant)进行语义索引,实现基于意义的记忆检索。:contentReference[oaicite:6]{index=6}
使用场景
- 持久化项目记忆: 存储关键细节、偏好或上下文,并可在会话和工具之间重复使用,无需重复提示。:contentReference[oaicite:7]{index=7}
- 跨工具协作: 在涉及多个 AI 客户端的复杂工作流中保持共享上下文(例如,在一个工具中规划,在另一个工具中执行)。:contentReference[oaicite:8]{index=8}
- 开发者工作流: 开发者在不同环境或工具间切换时,可保持一致的上下文,减少开销,提高生产力。:contentReference[oaicite:9]{index=9}
架构
OpenMemory MCP 利用容器化微服务、用于语义索引的向量数据库以及服务器发送事件(SSE)实现连接客户端的实时更新。可通过 Docker 部署,并配置通过 MCP 的 REST/SSE 端点与客户端接口。:contentReference[oaicite:10]{index=10}
入门
服务器可以通过克隆仓库、满足先决条件(Docker、某些配置需要 OpenAI API Key)并运行提供的部署脚本在本地启动。启动后,支持 MCP 的 AI 工具即可连接到服务器端点存储和检索记忆数据。:contentReference[oaicite:11]{index=11}
优势与注意事项
优势: 所有记忆保存在本地并由用户控制;标准化 AI 工具共享记忆的方式;避免重复输入上下文带来的令牌开销。:contentReference[oaicite:12]{index=12} 注意事项: 需要安装和配置(如 Docker);需要 MCP 客户端兼容性以实现集成。:contentReference[oaicite:13]{index=13}
社区与贡献
OpenMemory MCP 是开源的,鼓励通过 GitHub 仓库贡献。文档、控制面板和指南帮助开发者和高级用户扩展或自定义系统。:contentReference[oaicite:14]{index=14}