Chromaが自己編集型検索エージェント「Context-1」を公開
ベクトルデータベースで知られるChromaが、RAG(Retrieval-Augmented Generation)向けに開発した独自の検索エージェントモデル「Chroma Context-1」を発表した。20Bパラメータのこのモデルは、OpenAIやAnthropicのフロンティアLLMと同等の検索性能を持ちながら、最大10倍の推論速度を実現しているという。モデルの重みはApache 2.0ライセンスで一般公開されている。
従来のRAGが抱えていた「1発検索の限界」
従来のRAGシステムは、ベクトル検索や全文検索を1度実行してドキュメントを取得し、それをLLMに渡すという単純なパイプラインが主流だった。この手法はシンプルな質問には効果的だが、回答に至るまでに複数の検索が必要な「マルチホップ検索」には対応できないという根本的な制約があった。
たとえば「Aという技術を採用しているスタートアップのCEOは誰か」のような質問では、「Aを採用している企業を探す」→「その企業のCEOを調べる」という複数段階の検索が必要になる。こうした複雑なクエリをLLMエージェントに解かせる「エージェンティック検索」が近年注目されているが、課題もあった。
コンテキストウィンドウが「腐敗」する問題
エージェンティック検索で特に深刻なのが、検索を繰り返すにつれてコンテキストウィンドウが無関係な情報で膨れ上がる「コンテキスト汚染(context rot)」だ。不要な検索結果が蓄積されると、推論コストと応答レイテンシが増大するだけでなく、本当に必要な情報がノイズに埋もれてモデルの精度が低下するという悪循環が生じる。
Context-1はこの問題を「自己編集型コンテキスト(self-editing context)」という手法で解決する。エージェントは検索を重ねながら、取得済みのドキュメントの中から無関係なものを能動的に削除し、コンテキストウィンドウを常に整理された状態に保つ。これにより、長時間にわたるマルチホップ検索を効率的かつ高精度に継続できる。
段階的トレーニングカリキュラムと合成データ生成
Context-1のトレーニングには、8,000件以上の合成タスクが使用された。トレーニングは2段階で行われ、最初の段階では広範なリコール(再現率)を最適化し、次の段階でプレシジョン(適合率)を高めるよう設計されている。これにより、エージェントは最初に幅広く情報を収集し、その後必要な情報を精選するという人間の調査プロセスに近い動作を学習する。
また、Context-1は回答生成は行わず「検索サブエージェント」として機能する設計になっている。上位のLLMに対してランク付けされた根拠ドキュメントのセットを返すことで、検索と生成を明確に分離。それぞれのモデルが専門特化することで、システム全体のコストと精度のバランスを最適化できる。
日本のRAG開発者への示唆
日本でもRAGシステムの実用化が進んでいるが、フロンティアモデルを使ったマルチターン検索は運用コストの観点から課題とされてきた。Context-1のように検索に特化した小規模モデルを組み合わせるアーキテクチャは、コスト効率の高いRAG構築の有力な選択肢となりそうだ。モデルの重みが公開されており、Chromaのベクトルデータベースとの連携も容易と見られることから、国内での活用事例が増える可能性がある。
Chromaはモデルの重み、合成データ生成パイプライン、エージェントハーネスの詳細を論文として公開しており、研究・商用を問わず幅広い利用が期待される。