
OpenMemory MCP
OpenMemory MCP 是一個以本地為優先、注重隱私的記憶伺服器,實現了模型上下文協議(MCP),可在相容的 AI 客戶端之間實現持久的共享記憶。
概覽
OpenMemory MCP 是一個開源、本地優先的記憶伺服器,基於模型上下文協議(MCP)構建。它提供了標準化的記憶基礎設施,使 AI 客戶端能夠跨會話和應用共享並持久化上下文,而無需依賴雲端存儲,從而確保用戶對存儲資料的完全所有權和隱私。:contentReference[oaicite:0]{index=0}
該專案由 Mem0 於 2025 年 5 月推出,很快引起關注,成為需要在工作流程中保留和查詢用戶或系統記憶的 AI 工具的基礎層。:contentReference[oaicite:1]{index=1}
功能
- 本地優先架構: 完全運行在用戶設備上,無自動雲端同步,保護隱私和控制權。:contentReference[oaicite:2]{index=2}
- 標準化 MCP API: 提供核心操作,如
add_memories、search_memory、list_memories和delete_all_memories,用於持久化記憶管理。:contentReference[oaicite:3]{index=3} - 跨客戶端上下文共享: 允許一個 MCP 相容工具(如 Claude Desktop)存儲的上下文被另一個工具(如 Cursor)檢索。:contentReference[oaicite:4]{index=4}
- 統一控制面板: 內建 Web UI,可即時瀏覽、管理和控制記憶及客戶端訪問。:contentReference[oaicite:5]{index=5}
- 語義搜索: 透過向量資料庫(如 Qdrant)進行語義索引,實現基於意義的記憶檢索。:contentReference[oaicite:6]{index=6}
使用場景
- 持久化專案記憶: 儲存關鍵細節、偏好或上下文,並可在會話和工具之間重複使用,無需重複提示。:contentReference[oaicite:7]{index=7}
- 跨工具協作: 在涉及多個 AI 客戶端的複雜工作流程中保持共享上下文(例如,在一個工具中規劃,在另一個工具中執行)。:contentReference[oaicite:8]{index=8}
- 開發者工作流程: 開發者在不同環境或工具間切換時,可保持一致的上下文,減少開銷,提高生產力。:contentReference[oaicite:9]{index=9}
架構
OpenMemory MCP 利用容器化微服務、用於語義索引的向量資料庫以及伺服器發送事件(SSE)實現連接客戶端的即時更新。可透過 Docker 部署,並配置透過 MCP 的 REST/SSE 端點與客戶端接口。:contentReference[oaicite:10]{index=10}
入門
伺服器可以透過複製倉庫、滿足先決條件(Docker、某些配置需要 OpenAI API Key)並運行提供的部署腳本在本地啟動。啟動後,支援 MCP 的 AI 工具即可連接到伺服器端點儲存和檢索記憶資料。:contentReference[oaicite:11]{index=11}
優勢與注意事項
優勢: 所有記憶保存在本地並由用戶控制;標準化 AI 工具共享記憶的方式;避免重複輸入上下文帶來的令牌開銷。:contentReference[oaicite:12]{index=12} 注意事項: 需要安裝和配置(如 Docker);需要 MCP 客戶端相容性以實現整合。:contentReference[oaicite:13]{index=13}
社群與貢獻
OpenMemory MCP 是開源的,鼓勵透過 GitHub 倉庫貢獻。文件、控制面板和指南幫助開發者和高級用戶擴展或自訂系統。:contentReference[oaicite:14]{index=14}