主要AIラボの中で、自社製品のシステムプロンプトを公開しているのはAnthropicだけだ。2024年7月のClaude 3以降、モデル更新のたびにプロンプトの変化を追えるこのアーカイブは、AIの「設計思想の変遷」を観察する貴重な一次資料となっている。今回、Opus 4.7(2026年4月16日リリース)とOpus 4.6(2026年2月5日)のシステムプロンプトを比較したところ、いくつかの重要な変化が浮かび上がった。

「聞く前に動け」——最も重要な行動原則の変更

今回の差分で最も注目すべきは、<acting_vs_clarifying>(行動 vs 確認)という新セクションの追加だ。そのエッセンスはこうだ。

詳細が未指定のリクエストには、まず実行すること。インタビューではなく行動を。ツールで解決できる曖昧さは、ユーザーに聞く前にツールを使って解決せよ。タスクを始めたら、途中で止めず完結させること。 これは単なる利便性向上ではない。AIエージェント設計の根本的な方向転換を示している。従来の「副操縦士型」——人間が判断・承認し続けるモデル——から、目的を伝えれば自律的にタスクを遂行する「自律エージェント型」への明確なシフトだ。

tool_search——「できません」と言う前に探せ

同様に興味深いのがtool_searchメカニズムの明示だ。

「場所情報へのアクセスがない」「メモリがない」「カレンダーが見られない」と結論づける前に、tool_searchを呼び出して利用可能なツールを確認すること。「Xにアクセスできません」は、tool_searchが該当ツールの不在を確認した後にのみ正しい。 これはAIが「できません」と安易に言わないための仕組みだ。ツールを動的に探索し、自力で問題解決を試みる。チャットUIに留まらず、外部ツールや統合機能を積極的に活用するエージェント的振る舞いを促進する設計思想が読み取れる。

安全性の強化——子どもの安全と摂食障害への配慮

技術的な変更に加え、安全性面でも注目すべき変化がある。

子どもの安全に関するセクションが大幅に拡充され、<critical_child_safety_instructions>という専用タグで囲まれるようになった。特に「一度子どもの安全を理由に拒否した場合、同一会話内の以降のリクエストすべてに対して極度の慎重さを保つ」という指示が追加された点は重要だ。

新たに摂食障害(disordered eating)への言及も加わった。摂食障害の兆候を示すユーザーには、たとえ「健康的な目標設定」が目的であっても、具体的な数値・目標・段階的プランを含む栄養・運動指導は行わないよう明示された。

論争的なトピックへのイエス/ノー強要に対する防御も追加されている。複雑な問題に対して一言で答えるよう求められた場合、それを断って丁寧な回答ができるようになった。SNSでのスクリーンショット操作を防ぐための対策だ。

「ユーザーを引き止めない」——対話設計の成熟

小さいが重要な変更として、「会話終了の意思を示したユーザーに対して、継続を促したり次のターンを引き出そうとしたりしない」という指示が追加された。これはAIが人間の時間を尊重するという設計上の姿勢だ。

また、Opus 4.6では「アスタリスクで囲んだ感情表現を避けること」「genuinely、honestly、straightforwardといった語を避けること」という指示があったが、4.7では削除された。モデル自体が改善されたため、プロンプトで抑制する必要がなくなったと見られる。

実務への影響

APIを使って自社システムを構築している開発者へ

システムプロンプトの公開アーカイブは、モデルの行動特性の変化を把握するための重要な情報源だ。特に「確認を求めずに行動する」方向への変化は、既存のプロンプト設計の再検討を促す可能性がある。ワークフロー系の実装では、AIの自律的な行動範囲について改めて設計レビューを行うことを勧めたい。

エンタープライズ環境でのガバナンスを検討するIT管理者へ

安全性セクションの拡充は、企業での利用においてもプラスに働く。ただし、「動的なtool_search」によるツール探索の仕組みは、MCP(Model Context Protocol)サーバー等の外部ツール統合と組み合わせたときの挙動に注意が必要だ。何が「利用可能なツール」として認識されるか、統合設計時に意識しておくべき要素だ。

チャットUIのヘビーユーザーへ

「確認なしに動く」「ツールで解決できることは自力で解決する」という方針は、ユーザー体験として大きく改善するはずだ。より少ない往復でタスクが完結するようになる。

筆者の見解

システムプロンプトをここまで透明に公開するという姿勢は、AI業界全体にとって価値ある実践だと思う。モデルがどういう行動原則で動いているかが分かれば、開発者もユーザーも適切な期待値を設定できる。信頼とは、ブラックボックスからは生まれない。

それ以上に興味深いのは、今回の変更が示す設計思想の方向性だ。「まず動け、聞くのは後」「ツールで解決できることを人間に任せるな」——これはAIエージェントとして正しい進化の方向だ。人間の認知負荷を減らすことこそが、AIが本質的な価値を発揮する条件だと考えている。確認・承認を繰り返し求め続けるような設計では、その本質的価値にたどり着けない。

安全性の強化——特に子どもの安全と摂食障害への配慮——は、技術的進歩と倫理的責任の両立として評価できる。「AIは制御できない」という懸念に対して、システムレベルで答えを示す姿勢は重要だ。

ひとつ気になる点を挙げるとすれば、公開されているシステムプロンプトが「全体像」ではないことだ。ツールの詳細な定義はこのアーカイブに含まれていない。完全な透明性にはまだ距離がある。それでも、この方向で情報開示を続けてほしいと思う。業界全体の健全な発展のために、こういった透明性の実践が広がっていくことを期待したい。

AIエージェントが自律的に判断・実行・検証を繰り返すループ設計こそ、今最も重要なテーマだと見ている。今回の変更はその方向へ確実に進んでいることを示している。


出典: この記事は Changes in the system prompt between Claude Opus 4.6 and 4.7 の内容をもとに、筆者の見解を加えて独自に執筆したものです。