Back to Blog
BlogApril 7, 20262

MemPalaceとは何か?ミラ・ジョヴォヴィッチが開発するAI記憶システムはLongMemEvalで100%を達成

MemPalaceとは何か?ミラ・ジョヴォヴィッチが開発するAI記憶システムはLongMemEvalで100%を達成

主なポイント

  • MemPalaceは、古代の場所法(記憶の宮殿)にヒントを得た仮想記憶宮殿アーキテクチャを使用し、AIモデルに永続的で構造化された無損失の長期記憶を提供する、無料・オープンソースのエージェント記憶システムです。
  • 女優ミラ・ジョヴォヴィッチとエンジニアのベン・シグマンによって開発され、業界標準のLongMemEvalベンチマークで100%ハイブリッドスコアと最高の生スコアを獲得しています。
  • 完全ローカル・オフラインファースト:クラウド不要、APIコストなし、外部へのデータ送信なし。ChromaDB、SQLite、ファイルシステムを利用して自端末で動作します。
  • 階層的な組織化(棟、部屋、ホール、トンネル、クローゼット、引き出し)に加えて、AAAK無損失圧縮を採用。内容を完全に読み取り可能な状態で最大30倍の効率化を実現。
  • ベンチマーク分析では、Mem0やZepなどの有償ツールよりも、想起精度とコストの両面で優れた性能を示しています。
  • コミュニティおよび初期ユーザーのフィードバックは、AIの「健忘症」に直面している開発者、チーム、ローカルLLMユーザーにとってその効果性を強調しています。

MemPalaceとは?

MemPalaceは、大規模言語モデルがコンテキストウィンドウがリセットされると、以前の会話、決定、プロジェクト詳細を忘れてしまうという持続的な問題を解決するための革新的なAI記憶システムです。損失のある要約や高価なクラウドストレージに依存する代わりに、構造化された仮想記憶宮殿を構築し、すべての情報を逐語的に保存して即座に検索可能にします。

2026年4月上旬にリリースされ、リポジトリmilla-jovovich/mempalaceでGitHub上で完全オープンソースとして公開されています。古典的な記憶宮殿(場所法)の技術から直接インスピレーションを得て、空間的な組織原理をデジタル知識管理に適用しています。

ベンチマークでは、MemPalaceがLongMemEvalで公開されている最高スコアを提供しており、長期実行されるAIエージェントやアプリケーションを構築・使用するすべての人にとって、際立ったソリューションとなっています。

起源とインスピレーション

ミラ・ジョヴォヴィッチは、入念なファイリングにもかかわらず、AIツールが重要な詳細を失うことに苛立ちを感じた後、中核的なアーキテクチャを開発しました。膨大な量の情報を想起するために空間記憶技術を用いる古代ギリシャの雄弁家や現代の記憶チャンピオンの歴史的記述から着想を得て、彼女はAIのための「仮想記憶宮殿」を構想しました。

技術的共同創設者ベン・シグマンと協力して、チームはデータを親しみやすい空間的メタファーに組織化するシステムを作りました:プロジェクトや人別の異なる、トピック別の部屋、決定タイプ別のホールなどです。このアプローチは、脳の空間ナビゲーションにおける自然な強みを活かしながら、AI検索のための実用的なフレームワークを提供します。

その結果は、要約による損失なしにすべてを保存し、キーワードや単純なベクトル検索だけよりも直感的で正確な検索を可能にするシステムです。

MemPalaceの仕組み

MemPalaceは、階層的な空間構造化、セマンティック検索、効率的な圧縮を組み合わせたマルチレイヤーメモリスタックを実現します:

  • マイニングフェーズ: チャット、コードプロジェクト、Slack履歴、その他データソースを自動的に取り込み、宮殿構造に分類します。
  • AAAK圧縮: カスタムのロスレスフォーマットにより、トークン数を劇的に削減(例:1,000トークン→約120トークン)しながら、人間とあらゆるLLMが完全に読解可能な状態を維持します。特別なデコーダは不要です。
  • 宮殿アーキテクチャ:
    • ウィング: 高レベルカテゴリ(プロジェクト、人物)
    • ルーム: 特定のトピックや会話
    • ホール: 事実やイベントタイプ(決定事項、イベント)
    • トンネル: 要素間の相互参照
    • クローゼット/引き出し: 圧縮された要約とオリジナルの逐語記録ファイル
  • ストレージと検索: ベクトル埋め込みにChromaDB、時間的知識グラフ(事実の有効期間ウィンドウ付き)にSQLite、生データにローカルファイルシステムを使用します。検索では階層的フィルタリングを適用して精度を確保します。
  • 統合: ClaudeやChatGPTとのシームレスな利用のためのMCP(Model Context Protocol)をサポートし、Ollamaなどのローカルモデルのための直接的なPython/CLIアクセスも提供します。

この設計により、データ損失ゼロとセマンティック・構造化クエリの両方が実現されます。

主な機能と技術詳細

  • ロスレスかつ効率的: 最大30倍の圧縮率。完全な履歴を極小のウェイクアップコンテキストに収納可能。
  • 階層的フィルタリング: 検索性能を大幅に向上(ベンチマークではウィング+ルームフィルタリングによる向上を示しています)。
  • 時間的知識グラフ: エンティティの関係性と経時変化を追跡し、履歴および矛盾認識クエリをサポート。
  • オフラインファースト: 依存関係は1つ。完全にローカルで動作し、継続コストなし。 -s MCPツール: 検索、グラフクエリなどを含むエージェント用ビルトインツール。
  • スペシャリストサポート: チームや複雑なプロジェクトのためのドメイン固有ウィングと自動保存機能。

ベンチマークと性能

MemPalaceは公開された結果に基づき新たな標準を確立します:

  • LongMemEval: 発表されている最高スコアを記録し、ハイブリッドモードでは100%。
  • 完全に無料かつローカルでありながら、複数の商用メモリシステムを凌駕します。

API呼び出しやサブスクリプションを必要とするツールと比較して、精度、プライバシー、コスト面で明確な優位性を示しています。階層的アプローチは、単なる生の埋め込み以上に測定可能な精度向上に寄与します。

MemPalaceの使い始め方

CLIによるインストールと基本的な使用法は簡単です:

pip install mempalace
mempalace init ~/my-palace
mempalace mine ~/projects --mode projects
mempalace mine ~/chats --mode convos
mempalace search "decision details"
mempalace status

Claude統合の場合は、MCPサーバーを追加してください。ローカルLLMユーザーは、ウェイクアップコンテキストを直接生成できます。リポジトリには完全なドキュメントと例が用意されています。

上級テクニックとユースケース

  • チームメモリ: 共有コミュニケーション履歴を専用ウィングにマイニングし、組織的な記憶を一貫して保持します。
  • カスタム設定: リポジトリや個人の自動分類のために、ウィングマッピングを調整できます。
  • ナレッジグラフクエリ: 時間軸を考慮した情報検索のために、時系列クエリを活用します。
  • 大規模対応: パフォーマンスを低下させることなく、数百万トークンを効率的に処理します。 . ハイブリッドワークフロー: ローカルモデルと組み合わせることで、継続的なコストを極限まで低減できます。

構造化された検索可能なメモリは、長期的なエージェントを構築する開発者や、複雑なプロジェクトを管理するチームに最も大きなメリットをもたらします。

よくある落とし穴と解決策

.

  • 初期インデックス作成時間: 大規模なデータセットのマイニングには時間がかかります。まずは対象を絞ったフォルダから始めましょう。
  • 検索精度: 最適な結果を得るには、生の検索ではなく階層的なフィルタに頼ります。 . AAAKへの慣れ: モデルはすぐに適応しますが、必要に応じて人間のユーザー向けに簡単な入門ガイドを含めるとよいでしょう。
  • 事実の更新: 時代遅れの情報を提供することを避けるために、グラフ内に有効期間を維持します。

このシステムは、検索がデータベース主導であるため、高度な可視化スキルを持たないユーザーにとっても堅牢です。

結論

MemPalaceは、古代の空間記憶の原理と現代のローカルファースト技術を組み合わせることで、AIメモリ管理における大きな進歩を体現しています。それは比類のない想起精度、完全なプライバシー、そして継続コストゼロを実現します。

公式GitHubリポジトリ(github.com/milla-jovovich/mempalace)でプロジェクトを探索してみてください。MemPalaceをインストールし、最初の仮想宮殿を構築して、AIに長らく必要とされてきた永続的な記憶を与えましょう。信頼性が高く、プライベートなAIコンテキストの未来はここから始まります。

Share this article