【Claude Code】発表資料の全自動作成デモ — マイクでちょっとしゃべるだけ

この記事の内容

  • Claude Codeにマイクで話しかけるだけで、Obsidianノート・Todoistタスク・スライド原稿が自動生成される様子をデモ
  • 「AI時代の本当のハイブリッドクラウド」という勉強会ネタを思いついた瞬間から、発表スライドの叩き台完成までを一気通貫で実演
  • AIエージェントの実行環境・コンテキストの置き場所・モデル選択という3つの軸でアーキテクチャを整理
  • Claude CodeとCopilot CLIの比較を通じて、コンテキスト管理の選択肢がいかに多様になったかを解説
  • 「しゃべって → 確認して → 直す」というAI活用サイクルで、発表準備の80〜90%を自動化できる可能性を示す

きっかけ:思いついた瞬間にAIへ伝える

勉強会のネタを思いついたとき、その場でClaude Codeに音声で伝えてみました。内容は次のようなものです。

「今度のHCCJPの勉強会で整理して伝えたいネタを思いついた。AI時代のエージェントをどこで動かすのか、コンテキストをどこで組み立てるのか、という話がまさにハイブリッドクラウド・マルチクラウドと言えるような構造だと改めて思った。これをObsidianのノートにも落としておいて、イベントを作って、登壇準備をして、スライドを作るという一連の流れをTodoに追加しておいてください」

これだけ話しかけただけで、Claude Codeは関連情報の収集・イベント番号の確認・タスクの作成を一気に実行してくれました。


自動生成されたObsidianノート

Claude Codeが生成したノートの内容は、話し言葉でざっくり伝えた内容を次のように整理したものでした。

ACCJPを設立した当時、ハイブリッドクラウド・マルチクラウドは概念としては語られていたが、実際に1つのシステムが複数の場所にまたがって動くケースは少なかった。結局1つのシステムは1箇所にまとまって動くのが当たり前だった。しかし今、AI時代になって状況は完全に変わった。

さらに次のような問いも自動的に整理されていました。

  • エージェントはどこで動かすのか — ローカル / クラウド / エッジ / 複数のAIプロバイダー
  • コンテキストはどこで組み立てるのか — ローカルファイル / クラウドDB / 外部API / 複数サービス
  • モデルはどこで実行するのか — Claude API / Azure OpenAI / オンデバイスモデル

音声認識の精度が完璧でなくても、これだけ構造化された文章として出力されるのは驚くべき点です。


Claude CodeとCopilot CLIの比較:コンテキストの置き場所

デモの中では、Claude CodeとCopilot CLIの違いについても補足で説明されました。

Claude Codeの場合

  • コンテキストは主にローカルに保持
  • Obsidianノートも含め、すべてをローカルに集約
  • モデルはクラウド(Claude API)を使用

Copilot CLIの場合

  • ローカルにコンテキストを持つことも可能
  • GitHub上のスペースにコンテキストを持たせることも可能
  • 複数モデルへの切り替えにも対応しており、よりマルチな選択肢

共通点

どちらも Azure AI Foundry 上に展開したモデルを使うといった応用も可能であり、コンテキスト管理とモデル選択の自由度が高い点は共通しています。


Claude Code on the Webへのセッション引き継ぎ

ローカルで実行していた会話セッションを、途中からWebブラウザの「Claude Code on the Web」で引き継ぐことも可能です。これもまた一種のハイブリッドな動作であり、ローカル・クラウド間をシームレスに移動できる例として紹介されました。

AIエージェントの時代は、VMの引っ越しのような複雑さがなく、会話データ程度の軽量な状態であれば実行場所の移動コストが非常に低くなっています。


スライドの自動生成デモ

「とりあえず今の想定でいいので、次回の勉強会のスライドを叩き台としてMarkdownファイルで作成してください」とお願いしたところ、Claude Codeは過去の勉強会スライドのリポジトリを参照し、第71回のスライド原稿を自動生成しました。

生成されたスライドの構成は次のようなものです。

##-----------#AAA3---ICCCC3JJPP2A0I252026AI

3つの軸で整理するAIアーキテクチャ

Claude Codeが自動的に整理した「3つの軸」は、この発表の核心部分です。

軸1:実行環境(エージェントをどこで動かすか)

種別
ローカル実行Claude Code(ローカル)
クラウド実行GitHub Copilot Coding Agent
ハイブリッドローカルで起動 → Webへ引き継ぎ

軸2:コンテキスト(情報をどこに持つか)

種別
ローカルObsidianノート、ローカルファイル
クラウドGitHub Copilot Spaces
ハイブリッド複数エージェント間でコンテキストを共有

軸3:モデル(どのAIで推論するか)

種別
シングルプロバイダーClaude APIのみ
マルチプロバイダーClaude + Azure OpenAI
セルフホスト / オンデバイスローカルモデル

この3軸の組み合わせにより、構成パターンは爆発的に増加します。これこそが「AI時代の本当のハイブリッドクラウド」と言える状態です。


AIを活用した発表準備のサイクル

デモ全体を通じて示されたAI活用の流れは次のとおりです。

  1. 思いついたことを音声でざっくり話す
  2. AIがノート・タスク・スライド原稿を自動生成する
  3. 生成物を見ながら「こう直して」と指示する
  4. 最終的な手直しだけ自分で行う

この流れによって、発表準備の80〜90%をAIに任せられるケースもあるとのことです。テーマによって精度は変わりますが、叩き台を素早く作れるという点で非常に効果的なアプローチです。


まとめ

この動画では、Claude Codeにマイクで話しかけるだけで、Obsidianへのノート記録・Todoistへのタスク追加・勉強会スライドの叩き台生成までを一気に実演しました。

また、AIエージェントの時代における「実行環境」「コンテキストの置き場所」「モデル選択」という3つの軸の組み合わせが、昔のハイブリッドクラウドの夢を自然な形で実現しているという視点も提示されました。

Claude CodeとCopilot CLIの比較、Claude Code on the Webへのセッション引き継ぎなど、具体的なツールを交えた説明は、AIエージェント活用の多様な選択肢を理解するうえで参考になります。

「話しながら考え、AIが整理し、人間が確認して仕上げる」というサイクルは、これからの知的作業の標準的なスタイルになっていく可能性を感じさせるデモでした。