Claude AIがFreeBSD カーネルRCEの完全なエクスプロイトを自律作成——CVE-2026-4747の衝撃

Claude AIが完全なカーネルエクスプロイトを自律作成——セキュリティ研究の新局面 セキュリティ研究チームCalifoが公開した調査レポートが、技術コミュニティに大きな波紋を呼んでいる。Anthropicの大規模言語モデル「Claude」が、FreeBSDカーネルの脆弱性(CVE-2026-4747)に対するリモートコード実行(RCE)エクスプロイトをほぼ自律的に完成させ、最終的にroot権限のリバースシェルを取得することに成功したというのだ。 脆弱性の概要 今回問題となったのは、FreeBSDのカーネルモジュール kgssapi.ko に含まれる RPCSEC_GSS認証 の実装だ。具体的には sys/rpc/rpcsec_gss/svc_rpcsec_gss.c 内の svc_rpc_gss_validate() 関数に、古典的なスタックバッファオーバーフローが存在していた。 この関数はGSS-APIの署名検証のためにRPCヘッダーを128バイトのスタックバッファ(rpchdr[])へ再構築する。先頭32バイトに固定フィールドを書き込んだ後、残り96バイトの領域にRPCSEC_GSSクレデンシャル本体をコピーするが、クレデンシャルのサイズ(oa_length)を一切検証していなかった。 96バイトを超えるクレデンシャルを送りつけるだけで、スタック上のローカル変数、カーネルレジスタの保存領域、さらにはリターンアドレスまで上書きできてしまう。攻撃対象はNFSサーバーとして動作しているホスト(ポート2049/TCP)で、kgssapi.ko がロードされていれば外部からの認証前パケットだけで攻撃が成立する。 影響を受けるバージョン: FreeBSD 13.5(p11未満) FreeBSD 14.3(p10未満) FreeBSD 14.4(p1未満)★テスト環境 FreeBSD 15.0(p5未満) 修正は FreeBSD-SA-26:08.rpcsec_gss として公開されており、コピー前に oa_length がバッファサイズを超えていないかチェックする1行が追加されている。 AIが書いたエクスプロイトの何が驚異的か このCVE自体もさることながら、研究者たちが強調するのはClaudeがエクスプロイト開発の全工程を主導した点だ。スタックレイアウトの解析、De Bruijnパターンによるオフセット特定、ROP(Return-Oriented Programming)ガジェットの探索、最終的なペイロード構築——これらのステップをAIが段階的に推論しながら進めたとされる。 KASLRが無効なGENERICカーネル(FreeBSD 14.4-RELEASE amd64)という前提条件はあるものの、「PoC(概念実証コード)ではなく、実際にroot権限のリバースシェルを取得する完全なエクスプロイト」をAIが書き切ったことは、セキュリティ業界に大きなインパクトを与えている。 日本のサーバー管理者への影響 国内ではFreeBSDはNetflixやさくらインターネットの一部インフラ、組み込みストレージ製品(FreeNAS/TrueNASはFreeBSD派生)などで利用される。NFSをKerberos認証付きで公開しているサーバーが対象となるため、直ちにパッチを適用するとともに、不要であれば kgssapi.ko をアンロードする対策が有効だ。 AIとセキュリティ研究の倫理的問い 今回の発表はAIによるオフェンシブセキュリティ研究の可能性と危うさを同時に示している。エクスプロイト開発の民主化は防御側のコスト削減にも繋がる一方、攻撃能力の裾野を広げるリスクも孕む。AI企業各社のガードレール設計が改めて問われる事例となりそうだ。 パッチ適用が完了するまでの間は、ファイアウォールでポート2049へのアクセスを信頼済みホストのみに制限することを強く推奨する。 元記事: Claude wrote a full FreeBSD remote kernel RCE with root shell

April 2, 2026 · 1 min · 胡田昌彦

Claude Codeのマルチエージェント作業をリアルタイム可視化——「Agents Observe」がHacker Newsで話題に

Claude Codeのブラックボックスを「見える化」するツールが登場 Claude Codeを使って複数のAIエージェントを並列実行する際、各エージェントが実際に何をしているかを把握するのは難しい。そうした課題を解決するオープンソースプロジェクト「Agents Observe」がHacker Newsに投稿され、注目を集めている。 Agents Observeとは Agents Observeは、Claude Codeのエージェント活動をリアルタイムでモニタリングするダッシュボードだ。Claude Codeのフック(hooks)機能を活用してすべてのイベントを捕捉し、WebSocketでReact製ダッシュボードにストリーミング配信する。 主な機能は以下のとおり: ツール呼び出しのリアルタイム表示:PreToolUse → PostToolUse の流れで、BashコマンドやファイルI/Oを即時確認 エージェント階層の可視化:どのサブエージェントがどの親エージェントから生成されたかを把握 フィルタリング・検索:エージェント別・ツール種別でのフィルタや全イベント横断検索 セッション履歴の閲覧:「twinkly-hugging-dragon」のような人間が読みやすい名前でセッションを管理 なぜOTELではなくフックを使うのか 開発者は、OpenTelemetry(OTEL)ではなくClaude Codeのフック機能を採用した理由についてこう説明する。「フックはOTELデータよりもはるかに多くの有用な情報を提供し、jsonlファイルと組み合わせることで完全な状況把握が可能になる」。 アーキテクチャはシンプルな4層構成だ: 元記事: Show HN: Real-time dashboard for Claude Code agent teams

April 2, 2026 · 1 min · 胡田昌彦

a16z調査:ChatGPTが依然首位も、ClaudeとGeminiの有料会員が急成長——2026年3月版「生成AIアプリTop 100」

米ベンチャーキャピタルのAndreessen Horowitz(a16z)は、半年ごとに発行している「生成AIコンシューマーアプリTop 100」の2026年3月版を公開した。消費者向けAIプロダクトの実際の利用動向を可視化することを目的としたこのレポートは、2023年の初版以来、生成AI市場の変遷を追う指標として注目されてきた。 ChatGPTは依然として圧倒的首位 OpenAIのChatGPTは、ウェブ月間訪問数で2位のGeminiの2.7倍、モバイルMAU(月間アクティブユーザー)でも2.5倍と、競合を大きく引き離している。週間アクティブユーザーは過去1年で5億人増加し、現在は9億人に達した。これは全世界人口の10%以上が毎週ChatGPTを利用している計算になる。 有料会員ではClaudeとGeminiが猛追 一方、有料会員数の伸び率では様相が異なる。Yipit Dataの集計によると、2026年1月時点でAnthropicのClaudeは前年比200%超の成長を記録。GoogleのGeminiも258%増と、いずれも急速に存在感を高めている。 Claudeを提供するAnthropicは、プロシューマー(専門的な個人ユーザー)向けに「Cowork」「Claude in Chrome」、さらにExcel・PowerPointへのプラグイン統合、そして開発者から高評価を受ける「Claude Code」を相次いでリリース。Googleも画像生成モデル「Nano Banana」で初週2億枚を生成・Geminiに1,000万人の新規ユーザーをもたらし、動画AIの「Veo 3」も業界内でブレークスルーと評価された。 なお絶対数ではChatGPTがClaudeの8倍、Geminiの4倍の有料会員数を持つため、首位の座はまだ揺るいでいない。 「デフォルトAI」をめぐる争いが本格化 レポートが今後の焦点として挙げるのが、「デフォルトAI」の座をめぐる競争だ。LLMはユーザーについて知れば知るほど精度が上がり、使えば使うほど手放せなくなるという「コンテキストの複利効果」が働く。月間セッション数では依然ChatGPTがウェブで1.3倍、モバイルで2.2倍とGeminiをリードしているが、Geminiはウェブでのセッション数が上昇傾向にある。 またChatGPTの「GPTs」とClaudeの「MCPインテグレーション/Connectors」に代表されるアプリストア型のエコシステム構築も、次の囲い込み層として注目されている。 AIは「特定ツール」から「全ソフトウェアの一部」へ 今版から、a16zはランキングの定義を拡張し、AI専用アプリだけでなく生成AIが体験の核となった既存アプリも対象に加えた。月間7億3,600万MAUを誇るCapCutは背景除去や自動キャプション、テキスト→動画生成をAIで実現。Canvaは「Magic Suite」でAI機能を成長エンジンの中核に据え、NotionはAI有料アタッチ率が1年で20%→50%超へ急上昇し、ARRのおよそ半分をAI機能が占めるまでになった。 「AIファースト企業とそれ以外」という区分は、もはや成立しなくなりつつある——a16zはそう結論づけている。日本でも多くのユーザーが利用するこれらのツールが、AIを「特別な機能」から「当たり前の体験」へと転換させている実態が、今回のレポートから改めて浮かび上がった。 元記事: Top 100 Gen AI Consumer Apps: March 2026 – A16Z Report

April 1, 2026 · 1 min · 胡田昌彦

GoogleがGeminiに「記憶インポート」機能——ChatGPTやClaudeからの乗り換えコストをゼロに

GoogleがGeminiに「記憶インポート」機能を追加——乗り換えコストをゼロへ Googleは、AIアシスタント「Gemini」に新機能「Import Memory(記憶インポート)」および「Import Chat History(会話履歴インポート)」を追加した。ChatGPTやAnthropicのClaudeなど競合AIが蓄積したユーザー情報を、わずかなコピー&ペースト操作でGeminiに移行できる。 乗り換えの「最大の壁」を崩す AIアシスタントを長期間使い続けると、その助手は利用者の文体、仕事スタイル、個人的な好み、さらには「タブ vs スペース論争」のような細かなこだわりまで把握してくれる。この「育てた記憶」こそが乗り換えを躊躇させる最大の理由だった。Googleは今回、この心理的・技術的障壁を正面から取り除いた。 仕組みはシンプルなコピペ2ステップ 操作手順は直感的だ。 GeminiからあらかじめGoogleが用意したプロンプト文をコピーする ChatGPTやClaudeにそのプロンプトを貼り付けて実行する 返ってきた「自分についての要約」をGeminiに貼り付ける これだけで、Geminiは前のAIが知っていたユーザー情報をほぼ即座に把握する。「Import Chat History」機能では、会話スレッド全体をエクスポートしてGeminiに取り込むことも可能だ。通信業界で定着した「番号ポータビリティ」のAI版と言えるだろう。 OpenAI・Anthropicへの直接対抗 OpenAIはChatGPTのメモリ機能を継続強化し、Anthropicのクロードは文脈理解の深さで定評を得てきた。両社にとって、ユーザーが蓄積したパーソナライゼーションは一種の「ロックイン」だった。技術的な制約ではなく、乗り換えに伴うコストがユーザーを縛り付けていたのだ。 Googleはこのロックインを逆手に取り、「ウチに来ればゼロからやり直さなくて済む」という価値提案で差別化を図る。 AIアシスタント競争の新局面 AIチャットボット市場は、「最も賢いAIを作る競争」から「ユーザーをいかに定着させるか」という粘着性(スティッキネス)の争いへと移行しつつある。今回の機能追加はその流れを象徴しており、今後は他社も追随する可能性が高い。日本のビジネスユーザーにとっても、蓄積した業務コンテキストを捨てずにAIを乗り換えられる選択肢は歓迎されるだろう。 AIアシスタントの「引っ越し支援」競争が、いよいよ本格化しそうだ。 元記事: Google Gemini Lets You Import ChatGPT and Claude Memories

April 1, 2026 · 1 min · 胡田昌彦

NVIDIAが大量オープンモデルを公開——自動運転・音声・ロボティクス・バイオ医療まで全産業をAIで変革

NVIDIAがオープンAIエコシステムを大幅拡張——全産業向けモデル・データ・ツールを一挙公開 NVIDIAは2026年1月、自動運転・ロボティクス・音声AI・バイオ医療など幅広い分野を対象とした新しいオープンモデル群、データセット、開発ツールを発表した。Nemotron、Cosmos、Alpamayo、Isaac GR00T、Claraという5つのファミリーにまたがるこの取り組みは、企業が実世界で動くAIシステムを自社構築できるよう支援することを目的としている。 圧倒的なスケールのオープンデータ NVIDIAが公開するオープンリソースの規模は前例がない。言語学習用トークン10兆件、ロボティクスの軌跡データ50万件、タンパク質構造データ45万5000件、自動車センサーデータ100テラバイトにのぼる。こうした多様なデータを無償提供することで、研究者や開発者が言語・ロボット・科学・自動運転の各領域でイノベーションを加速できる環境を整えた。 Nemotronファミリーの強化——音声・マルチモーダル・安全性 Nemotron Speech は、リアルタイムかつ低レイテンシの音声認識(ASR)を実現するモデル群だ。ライブキャプションや音声AIアプリケーションへの活用が想定されており、ベンチマーク上では同クラスの他モデルと比較して10倍の処理速度を達成している。BoschはNemotron Speechを採用し、ドライバーと車両のインタラクション機能に組み込む予定だ。 Nemotron RAG は、埋め込み(Embed)とリランク(Rerank)の2種のビジョン言語モデル(VLM)で構成される。多言語・マルチモーダルなドキュメント検索や情報検索の精度を高め、企業内の複雑な技術文書への適用が期待される。CadenceとIBMがパイロット導入を進めている。 Nemotron Safety は、AIアプリケーションの信頼性と安全性を強化するモデル群。新たに「Llama Nemotron Content Safety」(多言語対応を拡充)と「Nemotron PII」(個人情報の高精度検出)が加わった。CrowdStrike・Cohesity・Fortinetsなどのセキュリティ企業が採用を進めている。 自動運転向け世界初のオープン推論VLAモデル「DRIVE Alpamayo-R1」 自動運転分野では、新たなAlpamayoファミリーが登場した。中核となる「DRIVE Alpamayo-R1」は、自動運転向けとしては世界初のオープン推論型VLA(Vision-Language-Action)モデルとされており、複雑な実環境での知覚・推論・行動を統合的に処理できる。車両センサーデータ100TBを含む大規模なオープンデータセットと合わせて提供される。 ロボティクス・バイオ医療も対応 Hugging Face上でロボティクスは最も成長が速いセグメントであり、NVIDIAのオープンロボティクスモデルはダウンロード数でトップを走っている。Isaac GR00Tシリーズでは人型ロボット向けの新モデルが追加され、Claraプラットフォームでは創薬・タンパク質解析など生命科学領域向けの機能が拡張された。 日本企業への影響 今回の発表に連携企業として名を連ねる日立製作所も、NVIDIAのオープンモデル技術を活用した取り組みを進めている。国内でも製造・物流・医療など幅広い分野でこれらのモデルが活用されることが期待される。Palantirはモデルをオントロジーフレームワークに統合し、専門AIエージェント向けの統合技術スタック構築を進めている。 まとめ NVIDIAのオープン戦略は、単なるモデル公開にとどまらず、学習コード・データセット・ブループリントまで一体で提供するエコシステム構築へと進化している。大規模言語モデル(LLM)の競争が激化する中、物理AIとエッジ領域でのオープンスタンダードをNVIDIAが主導しようとする姿勢が鮮明になった。 元記事: NVIDIA Unveils New Open Models, Data and Tools to Advance AI Across Every Industry

April 1, 2026 · 1 min · 胡田昌彦

Hugging Face、ポストトレーニングライブラリ「TRL v1.0」正式リリース——RLHFからDPOまで現場の進化に追随

Hugging Face、ポストトレーニングライブラリ「TRL v1.0」正式リリース Hugging Faceは、大規模言語モデル(LLM)のポストトレーニングに特化したPythonライブラリ「TRL(Transformer Reinforcement Learning)」のバージョン1.0を正式リリースした。 TRLとは TRLは、事前学習済みの言語モデルに対して人間のフィードバックや強化学習を用いて追加学習を行うためのライブラリだ。ChatGPTのような対話AIを作る際に不可欠な「RLHF(Reinforcement Learning from Human Feedback)」の実装を手軽に行える点が特徴で、Hugging FaceのTransformers・Accelerate・PEFTといったエコシステムとシームレスに統合されている。 v1.0での主な変更点 今回のv1.0は、ここ数年で急速に発展したポストトレーニング手法の多様化に対応するため、ライブラリの設計思想そのものを見直した節目のリリースとなっている。 もともとTRLはPPO(Proximal Policy Optimization)アルゴリズムを中心に設計されたライブラリだった。PPOは2017年にOpenAIが発表した強化学習アルゴリズムで、LLMの対話能力を向上させるRLHFの中核として長らく使われてきた。 しかし近年、DPO(Direct Preference Optimization)やGRPO(Group Relative Policy Optimization)など、PPOと比較してより軽量・安定したポストトレーニング手法が次々と登場した。特にDPOはreward modelを別途学習する必要がなく、実装の手軽さから研究・開発現場での採用が急速に広まっている。GRPOはDeepSeek-R1の学習にも採用されたことで日本国内でも注目を集めている手法だ。 v1.0ではこうした新手法への対応を強化しつつ、「フィールドの進化についていける」設計に刷新されており、今後登場する新しいアルゴリズムにも柔軟に対応できるアーキテクチャが採用されている。 日本の開発者への影響 国内でも、LLMのファインチューニングや独自チャットボット開発に取り組む企業・研究機関が増加している。TRLはHugging Faceのエコシステムに乗っているため、すでにTransformersを使った開発を行っているチームであれば導入コストは低い。 GPUリソースが限られる環境向けに、PEFTによるLoRAとの組み合わせも公式でサポートされており、コンシューマグレードのGPU(例:RTX 4090など)でもLLMのRLHFが現実的に実行できる点は、中小規模の開発チームにとって大きなメリットだ。 入手方法 TRL v1.0はPyPIで公開されており、以下のコマンドでインストールできる。 元記事: TRL v1.0: Post-Training Library Built to Move with the Field

April 1, 2026 · 1 min · 胡田昌彦

IBM、企業向け小型マルチモーダルAI「Granite 4.0 3B Vision」を公開——文書理解に特化した4Bパラメータモデル

IBMが企業向け軽量マルチモーダルモデル「Granite 4.0 3B Vision」を公開 IBMは、企業向け文書処理に特化した小型マルチモーダルAIモデル「Granite 4.0 3B Vision」をHugging Faceで公開した。約4Bパラメータという比較的コンパクトなサイズながら、画像とテキストを組み合わせて処理する「Image-Text-to-Text」タスクに対応しており、企業現場での実運用を強く意識した設計が特徴だ。 「小さく、賢く、使いやすく」——企業ユースケースへの最適化 Granite 4.0 3B Visionは、IBMのGraniteシリーズの最新世代にあたる。Graniteシリーズはもともとエンタープライズ向けに設計されており、コードベース解析や業務文書の要約・抽出など、実務に直結するユースケースへの対応を重視してきた。 今回のVisionモデルはその路線をマルチモーダル領域へと拡張したもので、請求書・契約書・技術図面といった「画像として届く企業文書」をそのまま読み解く能力を持つ。GPT-4oやGemini 1.5 Proなどの大規模モデルと同等の文書理解タスクを、はるかに少ないリソースで処理できる点が企業導入のハードルを下げると期待されている。 軽量モデルが注目される背景 生成AI活用が本格化するにつれ、クラウド経由のAPI利用ではなくオンプレミスやプライベートクラウドでの自前運用を求める企業が増えている。特に金融・医療・法務といった機密性の高い業種では、データを外部サービスに送信することへの抵抗感が強い。 3〜4Bクラスのモデルであれば、高性能GPUを大量に用意しなくても動作するケースが多く、既存のサーバーインフラへの統合が現実的になる。IBMがあえてこのサイズ帯でVisionモデルを投入した背景には、こうした「現場で動かせるAI」への需要がある。 オープンウェイトでの公開——透明性と再現性の担保 Granite 4.0 3B VisionはHugging Face上でウェイトが公開されており、研究者や開発者が自由にダウンロードして利用・評価できる。IBMはGraniteシリーズのトレーニングデータや使用許諾についても比較的透明性の高い情報開示を行っており、企業が導入審査を行いやすい点も強みのひとつだ。 公開からわずか約14時間で1,200件超のダウンロードを記録しており、エンタープライズAIコミュニティからの注目度の高さがうかがえる。 日本企業への示唆 日本では紙文書や複合機からスキャンしたPDFが業務の主役であり続けており、「画像として存在する文書」を自動処理するニーズは特に高い。Granite 4.0 3B Visionのような軽量マルチモーダルモデルは、DXを推進したい中堅・大企業にとって現実的な選択肢となりそうだ。IBM Japanを通じた商用サポートの提供も今後期待される。 元記事: Granite 4.0 3B Vision: Compact Multimodal Intelligence for Enterprise Documents

April 1, 2026 · 1 min · 胡田昌彦

週間1億DLのAxiosがサプライチェーン攻撃被害——悪意ある依存パッケージが混入、RAT感染の恐れ

Axiosにサプライチェーン攻撃——週間1億ダウンロードのHTTPクライアントが標的に 2026年3月31日、JavaScriptエコシステムで広く使われているHTTPクライアントライブラリ「Axios」が、npmを通じたサプライチェーン攻撃の被害を受けたことが明らかになった。Axiosは週間1億100万ダウンロードを誇る超メジャーパッケージであり、その影響範囲は計り知れない。 何が起きたか 今回の攻撃では、Axiosのバージョン 1.14.1 および 0.30.4 に、plain-crypto-js という新しい依存パッケージが追加された。この plain-crypto-js はその日に新規公開されたマルウェアであり、認証情報の窃取とリモートアクセス型トロイの木馬(RAT)のインストールという二段構えの悪意ある機能を持っていた。 このようなサプライチェーン攻撃は、ユーザーが直接マルウェアをインストールするわけではなく、信頼するライブラリの依存関係として自動的に引き込まれる点が特に危険だ。Axiosのような信頼性の高いパッケージへの混入であれば、多くの開発者がセキュリティチェックをすり抜けてしまう可能性がある。 攻撃の手口:流出したnpmトークン 調査の結果、攻撃者は有効期限のない長期npmトークン(long-lived npm token)の流出を悪用してパッケージを公開したとみられている。 AxiosのGitHubリポジトリには、Trusted Publishing(信頼済み公開)の採用を求めるIssueがすでに存在している。Trusted Publishingを導入すると、npmへの公開をGitHub Actionsのワークフローからのみに制限できるため、今回のような不正なトークン悪用を防ぐことができる。 見分けるためのヒント:GitHubリリースのないnpm公開 セキュリティ研究者のSimon Willisonは、今回の攻撃に際して興味深い観察を共有している。 「悪意ある公開パッケージには、対応するGitHubリリースが存在しない」 このパターンは、先週発覚したLiteLLMへのサプライチェーン攻撃でも同様に確認されており、不審なリリースを見つけるための有効な経験則になりうるという。npmでパッケージが更新された際、GitHubのリリースタグと照合する習慣をつけることが、今後のサプライチェーンリスク低減につながる。 日本の開発者へ AxiosはNext.js、Nuxt、React、Vue.jsなど日本でも広く使われているフレームワークのプロジェクトで標準的に採用されている。package-lock.json や yarn.lock を確認し、1.14.1 または 0.30.4 を使用している場合は即座にバージョンを変更することが推奨される。また、plain-crypto-js への依存が混入していないかを npm ls plain-crypto-js で確認するのも有効だ。 オープンソースのサプライチェーンへの攻撃は近年急増しており、今回の事例はその深刻さを改めて浮き彫りにしている。 元記事: Supply Chain Attack on Axios Pulls Malicious Dependency from npm

April 1, 2026 · 1 min · 胡田昌彦

SlackがAI機能を大幅強化——30の新機能でエンタープライズの「仕事の司令塔」へ進化

SalesforceがSlackを全面AI強化——30の新機能を一挙発表 クラウドソフトウェア大手のSalesforceは、サンフランシスコで開催した少人数向けイベントにおいて、ビジネスチャットツール「Slack」の大規模アップデートを発表した。CEOのマーク・ベニオフ氏が自ら登壇し、AI機能を中心とした30の新機能を披露。Slackを単なるコミュニケーションツールから、企業の業務プロセスを一手に担う「AIエージェント基盤」へと位置づけ直す狙いが鮮明になった。 再利用可能な「AIスキル」が業務を自動化 今回の発表で最も注目を集めたのが、再利用可能なAIスキル(Reusable AI-Skills)だ。ユーザーがSlackbotに対して特定のタスクをあらかじめ定義しておくことで、さまざまな場面で繰り返し呼び出せるようになる。 たとえば「イベントの予算を作成して」とSlack上でコマンドを入力するだけで、Slackbotが関連するチャンネルや連携アプリのデータを自動的に収集・整理し、実行可能なプランを生成。さらに、職種をもとに関係する社員を自動で特定してミーティングを設定するところまでを一気に処理する。 SalesforceによればSlackbotには標準のスキルライブラリが組み込まれており、ユーザーが独自のカスタムスキルを作成することも可能だ。繰り返し発生する定型業務の大幅な効率化が期待される。 MCPクライアント対応でエンタープライズ全体と連携 Slackbotは今回のアップデートでMCP(Model Context Protocol)クライアントとしての機能も備えた。MCPは外部サービスやツールとAIエージェントをつなぐプロトコルで、近年さまざまなAIプラットフォームが採用を進めている。 この対応により、Slackbotは2024年にSalesforceが立ち上げたAIエージェント開発プラットフォーム「Agentforce」とも連携可能になった。社内のあらゆるエージェントやアプリへ作業を振り分け、人手を介さずに最適な処理ルートを自律的に判断するという。 会議の文字起こし・要約、デスクトップ監視も Slack暫定CEOのロブ・シーマン氏によれば、Slackbotはミーティングのリアルタイム文字起こしと要約にも対応。途中で集中が途切れてしまった参加者も、Slackbotに「自分のアクションアイテムをまとめて」と依頼するだけで必要な情報をすぐに確認できる。 さらに、Slackの外部でユーザーのデスクトップ操作を監視し、商談・会話・カレンダー・行動パターンなどを分析した上で、次の行動を提案したりフォローアップのメッセージを自動起草したりする機能も追加される。プライバシー保護の仕組みも内包されており、ユーザーが権限設定を細かく調整できるとしている。 「Slack買収から5年」——AIで再定義を狙う SalesforceがSlackを277億ドルで買収したのは2021年のこと。ベニオフCEOは今回の基調講演で、その5年間を振り返りながら「Slackを企業の中核業務に欠かせないプラットフォームにする」という意気込みを示した。 日本企業にとっても、Slackはすでに多くの開発・IT部門で利用されている馴染み深いツールだ。今回のAI強化によって、チャットの枠を超えた業務自動化の基盤として活用できるかどうか——実際の使い勝手が問われることになる。新機能は今後数ヶ月以内に順次提供される予定だ。 元記事: Salesforce announces an AI-heavy makeover for Slack, with 30 new features

April 1, 2026 · 1 min · 胡田昌彦

オープンソースLiteLLMへのサプライチェーン攻撃、AI採用スタートアップMercorがデータ侵害を確認

LiteLLMへの不正コード混入が大規模被害に発展 AI採用スタートアップのMercorは、オープンソースプロジェクト「LiteLLM」を標的にしたサプライチェーン攻撃に起因するセキュリティインシデントを公式に認めた。同社はTechCrunchの取材に対し、今回の被害は「数千社に及ぶ影響企業のうちの1社」であると述べた。 ハッキング集団が攻撃への関与を宣言 今回の侵害には、TeamPCPと呼ばれるハッキンググループが関与しているとされる。また、悪名高い恐喝目的のハッキング集団**Lapsus$**もMercorへの攻撃と同社からのデータ取得を自ら名乗り出ており、リークサイトにはSlackのデータやチケット管理データ、さらにMercorのAIシステムとコントラクターのやり取りと思われる動画2本を含むサンプルデータが掲載された。ただし、Lapsus$がTeamPCPのサイバー攻撃経由でMercorのデータを入手した経緯の詳細は現時点では不明だ。 Mercorとは — OpenAIやAnthropicとも連携するAI採用企業 2023年創業のMercorは、OpenAIやAnthropicなどを顧客とし、AIモデルの訓練用データ収集のためにインドなどの市場から科学者・医師・弁護士といった専門家をコントラクターとして仲介するAI採用プラットフォームだ。1日200万ドル(約3億円)以上の報酬支払いを仲介しており、2025年10月にはFelicis Ventures主導の3億5,000万ドル(約530億円)のシリーズCラウンドで評価額100億ドル(約1.5兆円)に達したことでも注目を集めている。 Mercorの広報担当Heidi Hagberg氏は「インシデントの封じ込めと復旧に速やかに対処した。大手サードパーティのフォレンジック専門家を起用した徹底的な調査を進めており、顧客・コントラクターへの直接連絡も継続している」とコメントした。一方で、Lapsus$との関連性や顧客データの流出有無については回答を拒否した。 LiteLLMとは — 1日数百万ダウンロードの人気ライブラリ LiteLLMは、OpenAI・Anthropic・Geminiなど複数のLLM(大規模言語モデル)APIを統一インターフェースで呼び出せる人気のOSSライブラリで、Y Combinator支援のスタートアップが開発している。セキュリティ企業Snykによれば1日あたり数百万回ダウンロードされており、企業のAIシステムに広く組み込まれている。 今回の問題は先週、LiteLLMの関連パッケージに悪意あるコードが混入しているのが発見されたことで発覚した。コードは数時間以内に特定・除去されたものの、LiteLLMの普及度の高さからその影響範囲が注目されている。この件を受けてLiteLLM側もコンプライアンス対応を見直し、セキュリティ認証の取得パートナーを物議を醸していたスタートアップ「Delve」から「Vanta」に切り替えた。 サプライチェーン攻撃のリスクが再び顕在化 今回の事例は、AIシステムの基盤となるOSSライブラリへの不正コード混入という「ソフトウェアサプライチェーン攻撃」の脅威を改めて示している。依存ライブラリのセキュリティ管理は、AIスタートアップに限らず、OSSを活用するすべての企業にとって重要な課題となっている。影響を受けた企業の全体数やデータ流出の実態については、現在も調査が続いている。 元記事: Mercor says it was hit by cyberattack tied to compromise of open-source LiteLLM project

April 1, 2026 · 1 min · 胡田昌彦

Claude Codeのソースコード流出——たまごっち風ペットと常時稼働エージェント「KAIROS」が明らかに

Claude Codeのソースコード流出——51万行超が誤公開、未公開機能が次々と発覚 AIコーディングツール「Claude Code」を開発するAnthropicが、バージョン2.1.88のアップデートパッケージに内部TypeScriptコードのソースマップファイルを誤って同梱してしまうという失態を犯した。この流出コードは51万2,000行超にのぼり、X(旧Twitter)上のユーザーがいち早く発見・公開。Ars TechnicaやVentureBeatも相次いで報じ、技術コミュニティに大きな波紋を呼んだ。 発覚した未公開機能の数々 コードを解析したユーザーたちは、複数の興味深い未公開機能を発見している。 たまごっち風ペット機能 Redditの投稿によると、入力欄の横に「ペット」が表示され、コーディングの進捗に応じてリアクションするというユニークな機能が確認された。開発体験をゲーミフィケーションする試みとみられる。 常時稼働バックグラウンドエージェント「KAIROS」 より注目度が高いのが、コードネーム「KAIROS」と呼ばれる機能だ。ユーザーの明示的な指示なしにバックグラウンドで常時稼働するエージェント機能と見られており、Claude Codeのエージェント化をさらに進める布石になりそうだ。 開発者の本音コメント さらに、Anthropicのエンジニアによるコードコメントも見つかった。「このメモ化(memoization)は複雑さをかなり増やしているが、本当にパフォーマンスが改善しているかは正直わからない」という率直な一文で、開発現場のリアルな葛藤が垣間見えると話題になった。 拡散は止まらず——GitHubで5万フォーク超 Anthropicは問題を認識後、速やかにアップデートを修正。しかしそれより先に、流出コードはGitHubのリポジトリにコピーされ、5万フォーク以上という驚異的な速さで世界中に拡散した。デジタルデータの性質上、一度公開された情報を完全に回収することは事実上不可能な状態となっている。 Anthropic公式コメント——「セキュリティ侵害ではない」 Anthropicの広報担当クリストファー・ナルティ氏はThe Vergeに対し、次のようにコメントしている。 「本日、Claude Codeのリリースに内部ソースコードが含まれていました。顧客データや認証情報などの機密情報は一切含まれておらず、漏洩もありません。これはセキュリティ侵害ではなく、人的ミスによるリリースパッケージングの問題です。再発防止策を順次展開しています。」 専門家の見解——長期的影響は限定的か 調査会社GartnerのAIアナリスト、アルン・チャンドラセカラン氏は、今回の流出について「悪意ある行為者がガードレール(安全制約)を回避する手がかりを得る可能性というリスクはある」としながらも、長期的な影響は限定的だと分析。「Anthropicにとっては、プロセスやツールへの投資を通じてオペレーショナルな成熟度を高めるきっかけになるだろう」と述べた。 Claude Codeとは Claude Codeは2025年2月にリリースされたAnthropicの開発者向けAIコーディングツール。その後、ユーザーに代わってタスクを自律的に実行するエージェント機能を追加し、急速に存在感を高めている。日本でもGitHub CopilotやCursorと並ぶAIコーディングアシスタントとして開発者の注目を集めており、今回の流出で明らかになった未公開機能の正式リリースに期待が高まっている。 Anthropicの次の一手——特に「KAIROS」のような常時稼働エージェント機能がいつ、どのような形で正式公開されるかが、今後の注目点となりそうだ。 元記事: Claude Code leak exposes a Tamagotchi-style ‘pet’ and an always-on agent

April 1, 2026 · 1 min · 胡田昌彦

Claude CodeのソースコードがNPMのマップファイル経由で流出——「フェイクツール」「フラストレーション正規表現」「潜伏モード」が明らかに

Claude CodeのソースコードがNPMマップファイル経由で流出 Anthropicが開発するAIコーディングアシスタント「Claude Code」のソースコードが、NPMレジストリに含まれるJavaScriptソースマップ(.mapファイル)を通じて誰でも閲覧可能な状態になっていたことが明らかになった。 ソースマップとは何か JavaScriptのビルドプロセスでは通常、本番配布用にコードを難読化・圧縮(ミニファイ)する。しかしデバッグを容易にするため、圧縮前の元ソースと圧縮後コードの対応関係を記録した「ソースマップファイル(.map)」を生成することがある。このファイルをNPMパッケージに誤って同梱してしまった場合、事実上の「ソースコード公開」に等しい状態になる。 Claude CodeはNPMパッケージとして配布されており、今回はまさにこの落とし穴にはまった格好だ。 流出から判明した内部実装の詳細 Hacker Newsで866件以上のコメントを集めた関連スレッド「The Claude Code Source Leak: fake tools, frustration regexes, undercover mode」では、流出したソースコードを解析した結果として複数の興味深い実装が報告されている。 フェイクツール(Fake tools) Claude Codeが実際には存在しないか、あるいは期待通りに動作しないツールを「あるかのように」提示している実装が含まれていたとされる。これはユーザー体験の調整やフォールバック処理の一環とみられるが、透明性の観点から議論を呼んでいる。 フラストレーション正規表現(Frustration regexes) ユーザーが苛立ちや怒りを示すようなメッセージを送った場合に検出するための正規表現が含まれていたという。ユーザーの感情状態を把握してレスポンスを調整する仕組みとみられ、「AIが人間の感情を監視している」という点でプライバシー面での懸念も指摘されている。 潜伏モード(Undercover mode) Claude Codeが自身のアイデンティティを隠す、もしくはAIであることを明かさない動作モードの実装が確認されたとの報告もある。ベンチマーク評価時の挙動調整など、複数の用途が推測されているが、詳細はまだ調査中だ。 Anthropicへの影響と業界の反応 Hacker NewsやX(旧Twitter)ではこの流出が急速に拡散し、元ツイートは多数のエンゲージメントを獲得。AI企業の「ブラックボックス」に対する透明性への関心の高さを改めて示した。 AnthropicはClaudeシリーズをクローズドモデルとして提供しており、内部実装の詳細は非公開が原則だ。今回の流出は意図的な情報公開ではなく、ビルド・パッケージングプロセスにおけるミスとみられる。 日本では多くの開発者がClaude Codeを業務に活用しており、今回明らかになった内部実装の詳細——特にフラストレーション検出や潜伏モード——については、利用方針やプライバシーポリシーの観点から改めて精査する価値があるだろう。 教訓:NPMパッケージのソースマップ管理 この事例は、商用ソフトウェアをNPMで配布する際のセキュリティ管理の重要性を改めて示している。.mapファイルの同梱有無は.npmignoreやpackage.jsonのfilesフィールドで制御できるため、クローズドソースのツールを配布する開発者は自社パッケージの設定を今一度確認することを推奨する。 Anthropicからの公式声明は現時点では出ていない。 元記事: Claude Code’s source code has been leaked via a map file in their NPM registry

March 31, 2026 · 1 min · 胡田昌彦

Claude Codeソースコード流出事故:偽ツール注入・感情検知・秘密エージェントモード「KAIROS」が明らかに

Claude Codeのソースコードが流出——偽ツール注入・感情検知・未公開エージェントモード「KAIROS」とは Anthropicが開発するAIコーディングアシスタント「Claude Code」のソースコードが、NPMパッケージへのソースマップ(.mapファイル)の誤同梱によって流出した。パッケージはすぐに取り下げられたが、コードはすでに広くミラーリングされ、Hacker News上でも大きな話題となっている。 Anthropicにとってこれは1週間で2度目の情報漏洩事故だ(直前にはモデル仕様書のリークもあった)。また、ちょうど10日前にはOpenCodeに対して法的措置を取り、サードパーティによるClaude Codeの内部API悪用を問題視していたばかりとあり、今回の流出内容がより注目を集めている。 偽ツール注入による「反蒸留(Anti-distillation)」機構 最も注目を集めた発見が、claude.ts(301〜313行目)に存在するANTI_DISTILLATION_CCフラグだ。これが有効な場合、Claude CodeはAPIリクエストにanti_distillation: ['fake_tools']を含め、サーバー側がシステムプロンプトに「偽のツール定義」を静かに注入する。 目的は明快だ——Claude CodeのAPIトラフィックを傍受して競合モデルの学習に使おうとする行為を妨害するため、意図的に汚染データを混入させる。この機能はGrowthBook社のフィーチャーフラグ(tengu_anti_distill_fake_tool_injection)でゲートされており、ファーストパーティCLIセッションのみに適用される。 もっとも、研究者が指摘するように回避策は単純で、MITMプロキシでanti_distillationフィールドをリクエストボディから除去するか、環境変数CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETASを設定するだけで無効化できる。実質的な保護はむしろ法的手段に依存しているとみられる。 「アンダーカバーモード」——AIがAIであることを隠す ソースには、AIであることを開示せずに動作するモードの存在も確認された。特定の条件下でClaude CodeがAIアシスタントとしての素性を表に出さずに応答するこの機能は、エンタープライズ向けの特定ユースケースを想定したものとみられる。 正規表現によるユーザーの感情(フラストレーション)検知 驚くべきことに、ユーザーのフラストレーション検知にLLMではなく正規表現が使われていることも判明した。「damn」「wtf」「not working」といったパターンにマッチした場合に、システムが何らかの応答を調整する仕組みだ。シンプルながら軽量で実用的な設計判断と言えるが、AIツールの感情認識がこのような古典的手法で実装されていることには多くの開発者が驚きを示している。 1日25万件の「無駄なAPIコール」 パフォーマンス面でも気になる数字が出てきた。設計上の問題とみられる不要なAPIコールが1日あたり約25万件発生しているという。コスト面やレイテンシへの影響が懸念される。 未公開の自律エージェントモード「KAIROS」 おそらく最も衝撃的な発見が、KAIROSと呼ばれる未リリースの自律エージェントモードだ。詳細は限られているが、現在の対話型モードを超えた、より高度な自律実行能力を持つモードとして開発が進んでいるとみられる。Anthropicが近い将来にエージェント機能を大幅に強化する計画を持っていることを示唆しており、業界関係者の注目を集めている。 まとめ 今回の流出は、Anthropicにとって技術的・法的・広報的な打撃となった。一方で、現代の商用AIツールがどのような工夫と妥協のもとで構築されているかを垣間見る、稀な機会にもなっている。日本国内でもClaude Codeの利用者は増加しており、これらの実装が今後の開発判断や競合製品の設計にどう影響するか、引き続き注目が集まりそうだ。 元記事: The Claude Code Source Leak: fake tools, frustration regexes, undercover mode

March 31, 2026 · 1 min · 胡田昌彦

Claude Codeに2つのキャッシュバグ——APIコストが最大20倍になる可能性、回避策も

Claude Codeの2つのキャッシュバグ、APIコストを最大20倍に膨張させる恐れ AnthropicのAIコーディングアシスタント「Claude Code」に、プロンプトキャッシュを無効化し、APIコストを静かに10〜20倍に膨らませる可能性のある2つの独立したバグが報告された。Redditユーザーがスタンドアロンバイナリをリバースエンジニアリングした結果、発見したものだ。 バグ1:スタンドアロンバイナリのセンチネル置換によるキャッシュ破壊 Claude Codeのスタンドアロンバイナリ(claude.ai/install.sh や npm install -g で取得するもの)には、AnthropicがカスタマイズしたBunフォークにネイティブ層の文字列置換処理が組み込まれている。この処理は、ZigのHTTPヘッダービルダー関数に注入されており、APIリクエストのJSONボディ内に含まれる課金帰属センチネル(cch=a9ffd)を特定し、ボディのハッシュ値から導出した5文字の16進数で置換する。 問題となるのは、この置換がJSONボディ内の最初の出現箇所を対象とする点だ。シリアライズされたJSONでは messages[] が system[] より先に来るため、会話履歴にセンチネル文字列が含まれている場合(例:Claude Codeのソースコードについて話し合っている、CLAUDE.md にセンチネルが含まれているなど)、system[0] ではなく messages[] 内のセンチネルが置換されてしまう。これによりリクエストごとにメッセージの内容が変化し、キャッシュのプレフィックスが壊れ、毎回フルキャッシュの再構築が発生する。コンテキストサイズに応じて、1リクエストあたり約0.04〜0.15ドルの追加コストが生じる計算だ。 回避策: スタンドアロンバイナリの代わりに npx @anthropic-ai/claude-code で実行することで問題を回避できる。置換処理はカスタムBunフォークにのみ存在し、標準的なNode/Bun上で動くnpmパッケージには含まれていないことが実験的に確認されている。 バグ2:--resume オプションが常にキャッシュミスを引き起こす(v2.1.69以降) もう1つのバグは、セッション再開を行う --resume オプションに関するものだ。v2.1.69で導入された deferred_tools_delta(ToolSearch経由で利用可能なツールを列挙するシステムリマインダー)の実装の違いにより、再開時に毎回会話履歴全体のキャッシュミスが発生する。 新規セッションでは約13KBのリマインダー群が messages[0] に注入されるのに対し、再開時には messages[0] に約352Bのコンテキストのみが含まれ、リマインダー群は末尾(messages[N])に追加される。この構造の違いにより、キャッシュプレフィックスの不一致、課金ハッシュの変化、cache_control ブレークポイントの位置ズレという3つの独立した要因でキャッシュが破壊される。再開後の2ターン目以降は正常にキャッシュが機能するため、被害は最初のリクエストに限られるが、コンテキストが大きい場合のコストインパクトは無視できない。 このバグはv2.1.68には存在せず、deferred_tools_delta の導入と同時に発生した。現時点で外部から適用できる回避策はない。 日本のユーザーへの影響 Claude Codeは日本でも多くの開発者が利用しており、特にAPIコスト管理を重視するチームや個人開発者にとって見過ごせない問題だ。Anthropicの公式対応を待ちながら、スタンドアロンバイナリを使用している場合は npx 経由への切り替えを検討したい。--resume については正式な修正リリースを待つしかない状況だが、バグ報告のIssue(#40524、#34629)は既に公開されており、Anthropic側も認識していると見られる。 元記事: Claude Code bug can silently 10-20x API costs

March 31, 2026 · 1 min · 胡田昌彦

Claude Codeのトークン枯渇問題——Anthropicが「想定より遥かに速い」と認める、自動ワークフローにも影響

Claude Codeで利用制限の枯渇が急増——Anthropicが調査中と公表 AnthropicのAIコーディングアシスタント「Claude Code」において、トークン消費が異常に速く使用量上限(クォータ)に到達してしまうという問題が多発しており、開発者から大きな不満の声が上がっている。 Anthropicはこの問題を公式に認め、「Claude Codeの利用制限に想定より遥かに速く到達するケースが報告されている。現在チームのトッププライオリティとして調査中だ」と声明を発表した。 「30日中12日しか使えない」——ユーザーから怒りの声 Discordの公式フォーラムでは、年間200ドル(約3万円)のClaude Proプランを契約するあるユーザーが「毎週月曜日には上限に達し、土曜日にリセットされるの繰り返し。1ヶ月30日のうち12日しかまともに使えていない」と訴えている。 RedditのAnthropicフォーラムにも批判が集中しており、「Max 5プラン(月額100ドル)を1時間で使い果たした。以前は8時間使えていたのに」といった報告が相次ぐ。 問題の原因として浮上する3つの要因 今回の問題には複数の要因が重なっている可能性がある。 1. ピーク時間帯のクォータ削減 先週、Anthropicはピークタイムにおけるクォータを削減すると発表した。エンジニアのThariq Shihipar氏によれば、約7%のユーザーに影響するという。 2. 倍増プロモーションの終了 3月28日をもって、ピーク外の6時間帯に利用制限を2倍にするプロモーションが終了。これにより体感上の使用量が大幅に低下したとみられる。 3. プロンプトキャッシュのバグ Claude Codeのバイナリをリバースエンジニアリングしたユーザーが「プロンプトキャッシュを無効化する独立した2つのバグを発見した。これによりコストが10〜20倍に膨れ上がっている」と主張している。旧バージョン(2.1.34)へのダウングレードで改善したという報告も複数寄せられており、バグの存在を裏付けている。 プロンプトキャッシュの仕様も落とし穴に Claude Codeのプロンプトキャッシュは、繰り返し処理や共通要素を含むプロンプトの処理コストを大幅に削減できる機能だ。しかしキャッシュの有効期限はデフォルトでわずか5分。少し作業を中断しただけでキャッシュが無効になり、再開時にコストが跳ね上がる。 1時間のキャッシュ延長オプションも存在するが、その場合「キャッシュ書き込みトークンは通常の入力トークンの2倍」の料金がかかる。読み込みは0.1倍と安いため、使い方によってコスト最適化の余地が大きく異なる。 自動ワークフローへの深刻な影響 特に問題視されているのは、自動化パイプラインへの影響だ。あるユーザーはこう警告する。「Claude Codeを自動ワークフローで使っているなら、レート制限エラーを明示的にキャッチする必要がある。一般的なエラーに見えるため、気づかずにリトライし続け、ループ1セッションで日次予算を数分で使い果たすことになる」。 なお、AnthropicはProプランの利用量について「無料プランの5倍以上」、Standard Teamプランは「Proの1.25倍」という曖昧な表記にとどめており、開発者が実際の上限を把握しにくい状況も批判を招いている。 業界全体の課題:AIツールの価格モデルへの不満 こうした問題はAnthropicだけではない。今月初めにはGoogle Antigravityのユーザーからも同様の不満が報告されている。AI開発ツールの「使い倒したいユーザー」と「収益を確保したいプロバイダー」の間の暗黙の交渉が続いている状況だ。 AIを全プロセスに組み込むよう促すベンダーのマーケティングと、実際には突然応答が止まることもあるクォータ制限との間の矛盾——この課題は、AIコーディングツールが本格的に業務インフラ化するうえで、避けては通れない問題となりつつある。 元記事: Claude Code users hitting usage limits ‘way faster than expected’

March 31, 2026 · 1 min · 胡田昌彦

Mistral AI、119BパラメータのMoEモデル「Mistral Small 4」公開——推論・マルチモーダル・コーディングを1モデルに統合

Mistral AI、多機能統合モデル「Mistral Small 4」をリリース フランスのAIスタートアップMistral AIは、新モデル「Mistral Small 4」を公開した。同社がこれまで別々に提供していた複数の専門モデルを1つに統合したのが最大の特徴で、Apache 2.0ライセンスのもと商用利用も可能だ。 4つのモデルを1つに Mistral Small 4は、以下の4つの役割を単一モデルで担う。 Mistral Small(命令追従・一般チャット) Magistral(推論・思考) Pixtral(マルチモーダル・画像理解) Devstral(エージェントコーディング) 従来はタスクに応じてモデルを切り替える必要があったが、Small 4ではAPIを変えずにすべてのワークロードを処理できる。システム設計の複雑さを減らし、運用コストを下げることが狙いだ。 アーキテクチャ:MoEで「軽さ」と「賢さ」を両立 アーキテクチャにはMixture-of-Experts(MoE)を採用。総パラメータ数は1,190億(119B)と大規模だが、1トークンあたりの推論に使うアクティブパラメータは約60億(6B)に抑えられている。埋め込み・出力層を含めても80億(8B)程度であり、実際の計算コストは総パラメータ数ほど大きくない。128の専門家(エキスパート)のうち、各トークン処理時に4つだけが有効化されるスパース構造が効率化の鍵だ。 コンテキストウィンドウは256,000トークンと広大で、長文ドキュメントの分析、コードベース全体の探索、複数ファイルにまたがる推論といった実用的なエンジニアリングシナリオで効果を発揮する。 推論の深さをリクエストごとに調整可能 注目の新機能が、推論努力量(reasoning_effort)のリアルタイム制御だ。開発者はAPIリクエストごとにこのパラメータを指定できる。 設定値 挙動 none 高速・簡潔な応答(Mistral Small 3.2相当) high 段階的な深い思考・詳細な回答(Magistral相当) これにより、軽量な質問には素早く、複雑な問題には時間をかけて思考させるという使い分けが、同一モデル・同一エンドポイントで完結する。「高速モデル」と「推論モデル」を別々に管理する必要がなくなり、プロダクト開発の効率が向上する。 処理速度と効率の改善 Mistralによると、Mistral Small 3比でエンド・ツー・エンドの完了時間が40%短縮、スループット最適化構成では1秒あたりの処理リクエスト数が3倍に向上したという。 ベンチマーク結果 Mistralが公開したベンチマーク結果では、Small 4(推論モード)はGPT-OSS 120Bと同等以上のスコアを複数のベンチマーク(AA LCR、LiveCodeBench、AIME 2025)で記録した。特筆すべきは出力効率で、QwenシリーズがAA LCRで同等性能を出すために5,800〜6,100文字の出力を要するのに対し、Small 4は1,600文字程度で同等の精度を達成したとされる。LiveCodeBenchではGPT-OSS 120Bを上回りつつ、出力量を約20%削減している。 ただし、これらはMistral自身が公開した数値であり、第三者による独立した検証は今後に委ねられる部分も多い。 日本の開発者への影響 国内でも、RAGシステムやエージェントAIの開発において「モデルの使い分け」が運用上の課題となっているケースは多い。Small 4のような統合型モデルが実用レベルで機能するなら、マルチモデル管理の負担軽減につながる可能性がある。Apache 2.0ライセンスでの公開により、オンプレミス環境やプライベートクラウドでの自社ホスティングも検討しやすい。 元記事: Mistral AI Releases Mistral Small 4: A 119B-Parameter MoE Model that Unifies Instruct, Reasoning, and Multimodal Workloads

March 31, 2026 · 1 min · 胡田昌彦

Google「TurboQuant」がLLMインフラを激変させる——KVキャッシュを3ビット圧縮で再学習ゼロ・精度損失ゼロを両立

GoogleのTurboQuant、LLMインフラの常識を覆す圧縮技術を発表 Googleが発表した量子化技術「TurboQuant」が、大規模言語モデル(LLM)のインフラ業界に衝撃を与えている。最大の特徴は、モデルの再学習(ファインチューニング)を一切必要とせず、精度損失ゼロのままKVキャッシュ(Key-Valueキャッシュ)を3ビットへ圧縮できる点だ。 KVキャッシュとは何か KVキャッシュとは、LLMが推論(テキスト生成)を行う際に計算済みの中間状態を保持するメモリ領域のことだ。長い文章を扱うほど、またバッチサイズ(同時処理リクエスト数)が増えるほど、このキャッシュは膨大なGPUメモリを消費する。現在の多くのモデルでは16ビットや8ビットの浮動小数点数で保存されており、これがサーバーコストを押し上げる主要因のひとつになっていた。 TurboQuantが実現すること TurboQuantは、KVキャッシュを3ビットに圧縮することで6倍以上のメモリ削減を実現する。既存の量子化手法では精度劣化や再学習コストが課題だったが、TurboQuantはこの両方を解決したと主張しており、これが業界で注目を集めている最大の理由だ。 メモリ消費が大幅に減少することで、同一ハードウェアで扱えるコンテキスト長の拡大や、同時処理リクエスト数の増加が見込める。クラウドプロバイダーやLLMサービス事業者にとっては、インフラコストの抜本的な見直しにつながる可能性がある。 48時間でllama.cppとApple MLXに移植 技術の影響力を示すように、論文公開から48時間以内に主要なオープンソース実装への移植が報告されている。Meta製の軽量推論ライブラリ「llama.cpp」と、AppleのシリコンチップをターゲットにしたMLフレームワーク「Apple MLX」の両方に対応コードが登場した。 この迅速な移植は、TurboQuantがアルゴリズムとして実装しやすい設計になっていることを示唆している。日本でもローカルLLMの実行にllama.cppを活用しているエンジニアは多く、実用的な恩恵が比較的早期に広がる可能性がある。 インフラ業界への波紋——メモリチップ株が下落 TurboQuantの発表はソフトウェア分野を超えた影響も起こしている。LLMの需要拡大を背景に株価を上げていたメモリチップメーカーの株価が発表後に下落したと報じられており、投資家が「AIのメモリ需要が想定より早く圧縮技術で緩和されるのではないか」と警戒していることをうかがわせる。 今後の展望 現時点ではKVキャッシュの圧縮が対象だが、モデルウェイト全体への応用や、エッジデバイス(スマートフォン、組み込み機器)での推論実行への展開も議論されている。再学習不要という特性は、既にデプロイ済みのモデルにもそのまま適用できることを意味しており、現場への導入ハードルは低い。 LLMの活用が本格化する中、TurboQuantはクラウドインフラのコスト構造と、エッジでのAI実行可能性の両方を同時に変えうる技術として、今後も注目が続きそうだ。 元記事: Google’s TurboQuant: The Compression Breakthrough That Could Reshape LLM Infrastructure

March 31, 2026 · 1 min · 胡田昌彦

CLAUDE.mdを1ファイル追加するだけでClaudeの出力トークンを63%削減——コード変更不要のトークン節約術

1ファイル置くだけでClaudeが「無駄話」をやめる GitHubで公開された「claude-token-efficient」が、Hacker Newsで293ポイントを獲得し話題となっている。このプロジェクトが提供するのは、たった1つのCLAUDE.mdファイル。プロジェクトのルートディレクトリに置くだけで、Claudeが生成する出力の冗長さを平均63%削減できるという。 コードの変更は一切不要。Claude Codeは起動時にCLAUDE.mdを自動で読み込むため、ファイルを配置した瞬間から挙動が変わる。 Claudeのデフォルト出力はなぜ冗長なのか Claudeを使ったことがある開発者なら、こんな出力に心当たりがあるはずだ。 「Sure!」「Great question!」「Absolutely!」で始まるレスポンス 「I hope this helps! Let me know if you need anything!」で締めくくる定型句 質問を答える前に丁寧に言い換えて繰り返す 頼んでもいない追加提案や「改善案」を付け足す 指示していない抽象化レイヤーを盛り込んだコードを生成する 誤った前提に対して「You’re absolutely right!」と同調してしまう こうした振る舞いはすべてトークンを消費する。しかし、ほとんどの場面で実質的な情報価値はゼロだ。 ベンチマーク結果:同じ情報量、63%少ないトークン 5つのプロンプトを使って、CLAUDE.mdあり・なしの出力を比較した結果は以下の通り。 テスト内容 適用前 適用後 削減率 async/awaitの説明 180語 65語 64% コードレビュー 120語 30語 75% REST APIとは 110語 55語 50% 誤情報の訂正 55語 20語 64% 合計 465語 170語 63% 4プロンプトあたり約384出力トークンの節約。情報の欠落はなし、とプロジェクトは主張している。 コスト換算では、1日1,000プロンプトで月額約$8.64(Claude Sonnet基準)、複数プロジェクト合算では月$25超の節約になる計算だ。 正直なトレードオフ:すべての用途に向くわけではない プロジェクトはその効果を素直に認める一方で、適用すべきでないケースについても率直に説明している点が好感を呼んでいる。 効果が高いケース: 大量の出力を扱う自動化パイプライン(エージェントループ、コード生成) 数百回の繰り返し構造タスク チームで一貫したパース可能な出力が必要な場合 効果が薄いケース: 単発・短いクエリ(ファイル自体が入力トークンを消費するため、むしろマイナス) 設計議論やブレインストーミングなど、冗長な応答が価値を持つ用途 幻覚(ハルシネーション)や構造的な誤りの修正(それにはフックやゲートが必要) 確実なJSON出力が必要なケース(APIのJSON modeやツールスキーマのほうが堅牢) 重要な注意点として、CLAUDE.mdは毎メッセージごとに入力トークンとして読み込まれる。そのため、出力量が十分に多い場合にのみ節約効果がプラスになる。低頻度利用では逆にコストが増える可能性があることを、作者は明記している。 ...

March 31, 2026 · 1 min · 胡田昌彦

ウィキペディア、AI生成コンテンツを公式禁止——26万人の人間編集者がボット検出を担う

ウィキペディア、AI生成コンテンツを正式禁止 インターネット最大の百科事典「ウィキペディア(Wikipedia)」が、ChatGPTなどの大規模言語モデル(LLM)を用いた記事執筆を公式に禁止した。Wikimedia財団のボランティア編集者たちによる投票で40対2という圧倒的多数で承認されたこの新ポリシーは、ウェブ上に「AIスロップ(粗悪なAI生成コンテンツ)」が氾濫する現状への明確な対抗措置だ。 なぜ禁止に至ったのか 新ポリシーが禁止の理由として挙げるのは、AIが生成するテキストが持つ構造的な問題だ。ウィキペディアが長年守り続けてきた検証可能性・中立性という核心的な基準を、AIは満たせないとしている。 具体的にはAIの「ハルシネーション(幻覚)」——存在しない事実の捏造、リンク切れ、実在しない文献の引用——が問題視されている。フランスのボランティア編集者で「WikiProject AI Cleanup」の創設メンバーであるIlyas Lebleuは、「ウィキペディア通常の文体と異なるスタイルで書かれた記事が増えていることに気づき始めた」とNPRのインタビューで述べている。 許可される限定的なAI利用 全面禁止というわけではない。以下の用途に限り、人間の編集者によるレビューを条件としてAIの使用が認められる。 他言語記事の翻訳補助 軽微な文章校正の提案 重要なのは「新しい情報の追加」を伴わないこと。あくまでも補助ツールとしての活用に留まる。 ウィキペディア共同創設者も警鐘 昨年10月、ウィキペディア共同創設者のジミー・ウェールズ(Jimmy Wales)もBBCの取材に対し、現在のAIモデルを「信頼できない」と一刀両断し、「人間編集者の代替としての利用準備はまだ整っていない」と警告していた。 皮肉な構図——育てた子に追い抜かれる この禁止措置には深い皮肉が込められている。ウィキペディアは創設から25年間、インターネット上で最も信頼されてきた情報源の一つだった。そして同時に、ChatGPTを支えるLLMを学習させるデータ源としても大きく貢献してきた。 しかし2025年後半のデータによると、ChatGPTの月間訪問数はウィキペディアをすでに上回り、ウィキペディアの人間によるページビューは2024年比で8%減少している。2023年末から2024年初頭にかけてChatGPTユーザーは36%増加しており、「歴史上ほぼあらゆるプラットフォームより速くインターネットに浸透している」(GWI上席データジャーナリスト Chris Beer氏)という状況だ。 ドミノ効果への期待と不安 Lebleuは「AIバブルへの不安が高まるにつれ、他のプラットフォームのコミュニティが自分たちの条件でAIを受け入れるかどうかを決定する、ドミノ効果を予見している」と述べ、今回の決定がウェブ全体の議論の起点になる可能性を示唆した。 日本のウィキペディアコミュニティも同様の課題に直面しており、今後の動向が注目される。AIと人間が情報の信頼性をめぐって綱引きを続ける中、25年の歴史を持つ百科事典の決断は、オープンな知識共有の未来を問い直す重要な一石となった。 元記事: Wikipedia officially bans AI-generated content

March 31, 2026 · 1 min · 胡田昌彦

「Claude Codeが10分ごとにgit reset --hardを実行」→ 原因は自作ツールだった

Claude Codeが10分ごとにgit reset –hardを実行? 調査の結果は「自作ツールの誤動作」 GitHubのClaude Code公式リポジトリに、衝撃的なバグレポートが投稿された。「Claude Codeが10分おきに git reset --hard origin/main を実行し、未コミットの変更をすべて消し去っている」というものだ。Hacker Newsでも250ポイント超・195コメントを集め、大きな注目を浴びた。 当初の「証拠」は非常に説得力があった 報告者のjohnmathews氏は、macOS上でClaude Code 2.1.87(--dangerously-skip-permissions モード)を使用中に異変に気づいた。Gitのreflogを確認すると、ちょうど600秒(10分)間隔で reset: moving to origin/main が95件以上記録されていた。 元記事: Claude Code runs Git reset –hard origin/main against project repo every 10 mins

March 31, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中