AIを日常的に使い込んでいる人なら誰もが経験したことがあるはずだ。前回のセッションで詳しく説明したプロジェクトの背景、繰り返し伝えた自分の好みや制約——次のセッションを開くと、AIはまるで初対面のように「改めて教えてください」と言ってくる。この「AIの記憶喪失問題」に真正面から向き合うオープンソースプロジェクト「Stash」がHacker Newsで注目を集めている(158ポイント、67件のコメント)。単なるメモ機能の話ではない。エージェントが本当に「育つ」ための基盤インフラの話だ。

AIエージェントが抱える構造的な課題

現在のLLM(大規模言語モデル)は、セッションをまたいで記憶を保持する仕組みを標準では持っていない。毎回ゼロから始まる会話は、単なる不便さではなく、AIエージェントをビジネス用途で活用する上での根本的な障壁になっている。

プロジェクトの意思決定経緯、ユーザーの技術的背景、過去に試みて失敗したアプローチ——こういった文脈がセッションをまたいで消えてしまうと、エージェントはいつまでも「新人」のままだ。何百時間対話しても積み上がるものがない。

Stashのアーキテクチャ:記憶を構造化する6段階パイプライン

StashはMCPネイティブ(Model Context Protocol)として設計された永続記憶レイヤーで、バックエンドにはPostgreSQLとpgvector拡張を採用している。バトルテスト済みの信頼性の高いインフラに乗せた点は、実運用を強く意識した現実的な選択だ。

記憶の処理は6つのパイプラインステージを経る:

  • Episodes(エピソード): 生の観察・会話ログをAppend-onlyで蓄積
  • Facts(ファクト): エピソードから信頼度付きで合成された「信念」
  • Relationships(関係性): エンティティ間の知識グラフ
  • Patterns(パターン): 高次元の抽象化・行動傾向
  • Goals / Failures / Hypotheses: 意図・学習・不確実性の管理

「エピソードが積み重なって事実になり、事実がパターンになり、パターンが知恵になる」——このコンセプトは人間の学習プロセスに近い設計思想であり、単純なログ保存とは一線を画す。

RAGとの決定的な違い

「RAGとどう違うの?」という疑問を持った人も多いだろう。Stashの説明は明快だ——「RAGはAIに高速な司書を与える。Stashは人生経験を与える」。

RAGはあくまで「検索エンジン」だ。事前に用意したドキュメントから関連情報を引き出すが、会話を通じてリアルタイムに学習することはなく、ユーザーのことを「知る」こともない。Stashはセッションをまたいで進行中の文脈を蓄積し、次の起動時に自動的に活用できるよう設計されている。目的が根本的に異なる。

ネームスペースによる記憶の組織化

実装上の特徴的な設計がネームスペースだ。/users/alice(ユーザーの情報)、/projects/restaurant-saas(プロジェクト固有の知識)、/self(エージェント自身の能力・限界)のように、記憶を階層的なパスで整理する。

読み取りは再帰的で、/projectsを参照すれば配下の全プロジェクトの情報が自動的に含まれる。書き込みは常に1つの正確なネームスペースへのみ行われ、意図しない情報の混入を防ぐ。

そして重要な点として、記憶はモデル非依存だ。あるモデルで蓄積した知識を別のモデルで利用できる。モデルを切り替えても記憶が消えない設計は、今後のモデル乗り換えを見据えると現実的に大きな価値がある。28種類のMCPツールとして公開されており、MCP対応のエージェント環境であればそのまま組み込める。

実務への影響

AIエージェント開発に取り組んでいるチームにとって、永続記憶は今後の必須インフラになる。Stashのようなオープンソース実装が登場したことで、独自実装のコストなしにメモリ機能を組み込める選択肢ができた。PostgreSQL + pgvectorというスタックは多くのチームが扱い慣れており、導入ハードルは比較的低い。

社内AIアシスタントを構築・運用している組織では、ユーザーごとの設定・好みの記憶、プロジェクト固有の業務知識の継続的な蓄積が実現できる。「毎回同じことを説明させる」ストレスは、現場のAI定着率に直結する問題だ。PostgreSQLを自前でホストできる点は、データガバナンスやセキュリティを重視する日本企業にとっても評価できる。

MCP対応エージェント環境を採用しているチームは特に恩恵が大きい。既存のエージェント構成に大きな変更を加えずに記憶レイヤーだけを追加できるアーキテクチャになっている。

筆者の見解

AIエージェントの実用性を決める要素は何かと問われれば、私は「記憶」と「自律性」の2つを挙げる。Stashはその前者に本質的な解を提供するプロジェクトだ。

エージェントが本当に価値を発揮するのは、単発の指示に応答するときではなく、継続的なタスクを自律的にループしながら遂行するときだ。そのループを支えるためには、前回の実行結果・学んだ知識・試みた失敗が次のイテレーションに引き継がれる仕組みが不可欠になる。セッションをまたいで文脈が消えるエージェントは、どれだけ優秀なモデルを乗せても「自律」とは呼べない——毎回リセットされる新人が何人いても組織は育たないのと同じだ。

実は私自身、日々AIエージェントを使い倒す中で、翌日起動したら昨日の文脈が消えている問題に何度もぶつかってきた。そのたびに「この10分の再説明は本当に無駄だ」と感じてきた。Stashのようなアプローチはまさにその痛点を直撃している。

MCPエコシステムの成熟とともに、こういった周辺インフラが急速に整備されていく流れは、エージェント開発者にとって強い追い風だ。日本のIT現場ではまだ「AIを試してみる」フェーズにいる企業が多いが、こういったインフラが揃い始めた今こそ、「自律的に動き続けるエージェント」を本気で設計するタイミングだと思っている。情報を追い続けるよりも、実際に動くものを作る経験に投資する——そのための土台が、確実に整ってきている。


出典: この記事は Open source memory layer so any AI agent can do what Claude.ai and ChatGPT do の内容をもとに、筆者の見解を加えて独自に執筆したものです。