AIがエンジニアの「修行期間」を奪っている——キャリアラダーから消えた踏み台の問題

AIはコードを書く。でも「学び」も奪っている AIツールがエンジニアリングの現場に急速に浸透するなか、見落とされがちな問題が静かに広がっている。AIが得意とするタスクの多くが、かつてジュニアエンジニアが「判断力」や「直感」を身につけるために経験してきた仕事そのものだという事実だ。 QCon London 2026でAlasdair Allanが行った講演の内容が、業界関係者の間で大きな反響を呼んでいる。 アモデイ予言の検証 Anthropicの共同創業者でRLHF(人間のフィードバックによる強化学習)の共同発明者でもあるDario Amodeiは、昨年「3〜6ヶ月以内にAIがすべてのコードの90%を書くようになる」と予言した。6ヶ月後、彼は「少なくともAnthropic社内では正しい」と主張した。 しかし実態はどうか。Redwood Researchの詳細な分析によれば、リポジトリにコミットされたコードだけでカウントすると、AI生成コードは約50%にとどまる。90%という数字は、一時的に使われただけの使い捨てスクリプトや探索的なコードを含めた場合にのみ成立する。 実際の企業データでも、Googleは内部コードの約25%、Microsoftは約30%、GitHub Copilotのエンタープライズ向け提案受け入れ率も約30%と報告している。「ほぼすべて」には程遠い数字だ。 生産性の「錯覚」 一方でAIの活用が現場に浸透していることは事実だ。Anthropic社内ではエンジニアの59%が日常業務でClaudeを使用し、50%の生産性向上を実感していると報告。GitHubのパブリックコミットの約4%はすでにClaude Codeが書いたものだという。 ところが昨年7月、業界に衝撃を与えた研究結果がある。METRが実施した無作為対照試験では、AIツールを使用した経験豊富な開発者はタスク完了に19%長い時間がかかったという結果が出た。開発者自身は「24%速くなる」と予測し、終了後も「20%速くなった」と感じていたにもかかわらずだ。知覚と実測値のギャップは43ポイントにもなる。 さらに今年2月、METRがフォローアップ研究を試みたところ、開発者がAIなしでの作業を拒否するケースが増加し、実験自体が困難になったという。 本当の問題:梯子に踏み台がない Allanが最も強調するのは、コードの生成量ではなく「構造的問題」だ。 Amodei自身も「プログラマーは全体的な設計、コードの協調関係、セキュリティの妥当性を判断する必要がある」と述べ、コードを「書くこと」と「エンジニアリング」を切り分けている。しかし問題は、つい最近までコードを書くことこそがエンジニアリングを学ぶ手段だったという点だ。 バグを自分で直し、地味な実装タスクをこなし、コードレビューで叩かれる——そうした経験の積み重ねが、上級エンジニアに必要な「判断力」を育ててきた。AIがその部分を引き受けると、次世代エンジニアはどこでその能力を身につけるのか。 「梯子の踏み台が消えている」というAllanのメタファーは示唆に富む。問題はAIがコードを書くかどうかではなく、梯子を作った人々を生み出したプロセスそのものが失われつつあることだ。日本のIT業界でも若手育成の在り方を根本から見直す議論が急務と言えるだろう。 元記事: The ladder is missing rungs – Engineering Progression When AI Ate the Middle

March 31, 2026 · 1 min · 胡田昌彦

コーディングフォント選びをゲーム感覚で——「CodingFont」がHacker Newsで大反響

コーディングフォント選びに悩むエンジニア必見のWebツール プログラマーなら一度は悩む「どのコーディングフォントを使うべきか」問題。Fira Code、JetBrains Mono、Cascadia Code、Hack……選択肢は数十種類にのぼり、それぞれ微妙なデザインの違いがある。そんな悩みをゲーム感覚で解決してくれるWebツール「CodingFont」が、Hacker Newsで410ポイントを獲得し、200件以上のコメントが寄せられる大きな反響を呼んでいる。 トーナメント形式で「自分好み」を見つける CodingFontの仕組みはシンプルだ。画面に2つのコードサンプルが並んで表示され、ユーザーは「どちらが読みやすいか」をクリックで選ぶだけ。この選択をトーナメント形式で繰り返すことで、最終的に自分にとって最も見やすいフォントが絞り込まれる仕組みだ。 比較に使われるコードサンプルは実際のプログラミング場面を想定したもので、数字の「0」と文字の「O」の区別、「l」(小文字のL)と「1」(数字)の視認性、リガチャ(!= や => などの合字表現)の有無といった、コーディングフォント選びで重要なポイントが自然に確認できるよう設計されている。 なぜ今、コーディングフォントが注目されるのか 開発者がエディタの前で過ごす時間は膨大だ。1日8時間コードを書くエンジニアにとって、フォントの読みやすさは目の疲労や生産性に直結する。近年、JetBrains Monoのリリースやプログラミング向けフォントのオープンソース化が進んだことで選択肢が一気に増え、「どれが自分に合うのか分からない」という声も多い。 日本のエンジニアコミュニティでも、英数字の視認性だけでなく、コメントやドキュメント用途での日本語フォントとの組み合わせ(いわゆる「英語プログラミング用フォント+日本語フォント」の合成)が話題になることが多く、まずベースとなる欧文フォントを選ぶ際にCodingFontは有効な出発点になり得る。 Hacker Newsコミュニティの反応 Hacker Newsのコメント欄では「こんなツールをずっと待っていた」「JetBrains Monoに落ち着くと思っていたら意外なフォントが勝った」といった声が相次いだ。一方で「同じコードサンプルが使われているため、フォントの特性よりも慣れ親しんだスタイルに引っ張られる可能性がある」という鋭い指摘も見られた。 またリガチャ(合字)の好みについて意見が割れており、「!= が ≠ のように表示されると直感的」という派と「実際の文字と異なって見えるのは混乱のもと」という派が活発に議論しており、フォント選びの奥深さが改めて浮き彫りになった。 使ってみよう CodingFontはブラウザから即座に利用でき、インストール不要。所要時間は5〜10分程度。エディタの設定を見直すきっかけとしても最適だ。普段使いのフォントに疑問を感じているエンジニアは、一度試してみる価値がある。 元記事: CodingFont: A game to help you pick a coding font

March 31, 2026 · 1 min · 胡田昌彦

最新AIモデルがハッカーの「夢の武器」に?AnthropicのClaude MythosとOpenAIが業界に警戒感

最新AIモデルがサイバー攻撃に悪用される懸念が急浮上 Anthropicが開発する次世代AIモデル「Claude Mythos」やOpenAIの最新モデルが、高度なサイバー攻撃の自動化・拡張に悪用できるとして、セキュリティ業界やAI安全性コミュニティで警戒感が高まっている。 AIが攻撃者に「非対称な優位性」をもたらす これまでのサイバーセキュリティの世界では、攻撃側と防御側がほぼ対等な技術競争を繰り広げてきた。しかし最新世代のAIモデルは、その均衡を崩す可能性があると専門家たちは指摘する。 懸念されているのは、高度な推論能力と自律的なタスク実行力を持つ「AIエージェント」の登場だ。従来の攻撃ツールは人間のハッカーが細かく操作する必要があったが、最新のAIモデルはターゲットの脆弱性調査からエクスプロイト(脆弱性を突くコード)の生成、実行計画の立案までを自律的にこなせる段階に近づいている。 こうした能力は、これまで高度な技術スキルを持つ攻撃者にしか不可能だった攻撃を、スキルの低い「スクリプトキディ」レベルの攻撃者でも実行可能にしてしまうリスクをはらんでいる。 防御側が追いつけない構造的問題 セキュリティ研究者たちが特に危惧するのは、攻撃者と防御者の間に存在する「非対称性」だ。攻撃者は一度の攻撃が成功すれば目的を達成できるが、防御側はすべての攻撃を防ぎ続けなければならない。AIがこの非対称性をさらに拡大するという構図だ。 AIを使えば攻撃者は24時間365日、大量のターゲットに対して自動的にスキャンや侵入試行を繰り返せる。一方、防御側も同様にAIを活用した検知・対応システムを整備しつつあるが、攻撃側の進化スピードに追いつくのは容易ではない。 AI安全性コミュニティで新たな論争 AnthropicやOpenAIといったAI企業は、モデルに対してサイバー攻撃への直接的な協力を拒否するよう「ガードレール」を設けている。しかし研究者たちは、こうした安全策が巧妙なプロンプトエンジニアリングや多段階の迂回手法によって回避される可能性を繰り返し示してきた。 今回の懸念はAI安全性コミュニティ内でも新たな議論を呼んでいる。「能力の公開」と「悪用リスクの抑制」のバランスをどう取るかという問いは、モデルの強化とともにより切実さを増している。 日本への影響 日本でもサイバー攻撃の件数は年々増加しており、特に重要インフラや製造業を狙ったランサムウェア攻撃が深刻化している。AIを活用した攻撃の高度化・低コスト化は、国内企業にとっても対岸の火事ではない。経済産業省やIPAが推進するサイバーセキュリティ対策の強化と並行して、AIを活用した防御側の能力向上も急務となっている。 最新AIモデルの能力向上は技術の進歩を象徴する一方で、その「両刃の剣」としての側面に、業界全体が真剣に向き合う時期に来ている。 元記事: Everyone’s worried that AI’s newest models are a hacker’s dream weapon

March 31, 2026 · 1 min · 胡田昌彦

中国製オープンソースAI「Qwen 3.5」がLlamaやMistralを超えた——欧米モデルとの差が急速に縮まっている

中国製AIがオープンソース市場を席巻——Qwen 3.5の全貌 半年前、開発者にオープンソースLLMを尋ねれば「Llama一択、軽量ならMistral」という答えが返ってきた。中国製モデルは欧米の開発者コミュニティにほとんど存在感がなかった。その常識が2026年に入って大きく変わった。 AlibabaのQwen(通義千問)チームが2026年3月初旬までに全パラメータサイズのリリースを完了した「Qwen 3.5」ファミリーは、コーディング・数学・指示追従・長文推論といった実務直結のベンチマークで欧米のオープンソースモデルを上回る結果を出している。 3段階でリリースされた全ラインナップ Qwen 3.5は2月〜3月にかけて3波に分けてリリースされた。 第1波(2月16日)——フラッグシップ Qwen3.5-397B-A17B:総パラメータ数397B、推論時に実際に活性化するのは17BのみというハイブリッドなMoE(Mixture-of-Experts)アーキテクチャを採用。Llama 4 MaverickやGPT-4oと正面から競合するモデル。 第2波(2月24日)——ミドルレンジ Qwen3.5-122B-A10B(MoE) Qwen3.5-35B-A3B(MoE) Qwen3.5-27B(Dense) 第3波(3月2日)——エッジ向け小型モデル Qwen3.5-9B / 4B / 2B / 0.8B:モバイルや組み込み環境向けに設計されており、MacBook上で5.5トークン/秒以上の速度で動作することが確認されている。 すべてのモデルがApache 2.0ライセンスで公開されており、商用利用も制限なく可能。 Qwen 3からの主な進化点 Qwen 3.5は単なるマイナーアップデートではない。注目すべき改善点は以下の通りだ。 MoEアーキテクチャの拡大:35Bと122Bモデルもシリーズ化し、推論コストを大幅削減しながら品質を維持 思考モードの切り替え:すべてのモデルで「thinking(拡張推論あり)」と「non-thinking(高速応答)」をタスクに応じて切り替え可能 エージェント機能の強化:関数呼び出し(Function Calling)、ツール利用、マルチステップ処理が大幅に改善 多言語対応:100以上の言語をサポートし、日本語を含むCJK(中国語・日本語・韓国語)での精度が特に高い。日本語ユーザーにとっては欧米モデルより実用的な場面も多いだろう 長文コンテキスト対応:大規模リポジトリ全体を横断したコード推論や文書解析に対応 中国製オープンソースAIが急加速している背景 Qwen 3.5は単独の出来事ではない。2025年後半から中国のAI開発は急加速しており、DeepSeek V3.2は推論タスクでGPT-5に匹敵するという評価も出ている。さらにHuaweiは米国製半導体に依存しない独自シリコンの開発を進めており、米国の輸出規制が想定ほどの足かせになっていないことが示されつつある。 Hugging Faceのダウンロードランキングでも、Qwenシリーズは2025年中頃から継続的に上位に入っており、開発者コミュニティへの浸透は着実に進んでいる。 オープンソースAIの競争は、MetaとMistralの2強から、QwenとDeepSeekを加えた4強へと移行した。日本の開発者にとっても、選択肢として中国製モデルを無視できない時代が到来している。 元記事: Qwen 3.5 vs Llama vs Mistral: China’s Open-Source AI Is Catching Up Faster Than You Think

March 31, 2026 · 1 min · 胡田昌彦

OpenAI、GPT-5.4を正式リリース——100万トークン対応&「自律的デジタルワーカー」へ進化

OpenAI、GPT-5.4を正式リリース——プロフェッショナル向け最高性能モデルが登場 OpenAIは、新たな基盤モデル「GPT-5.4」を正式にリリースした。同社は「プロフェッショナルワークに向けた、最も高性能かつ効率的なフロンティアモデル」と位置づけている。 標準版に加え、推論特化版の「GPT-5.4 Thinking」と高性能最適化版の「GPT-5.4 Pro」の3バリアントが同時提供される。 100万トークンのコンテキストウィンドウ API版では最大100万トークンのコンテキストウィンドウに対応しており、これはOpenAIのモデルとして過去最大規模となる。長大なドキュメントの処理やコードベース全体を一括で扱う用途に大きな強みを持つ。さらにトークン効率も改善しており、前モデルと比較して同じ問題をより少ないトークン数で解決できるという。 ベンチマーク各種で記録を更新 コンピューター操作の評価指標「OSWorld-Verified」および「WebArena Verified」で過去最高スコアを達成。知識業務タスクを評価する「GDPval」では83%を記録した。 また、弁護士・ファイナンスの専門スキルを測る「Mercor APEX-Agentsベンチマーク」でもトップに立った。Mercor CEOのBrendan Foody氏は「スライドデッキ、財務モデル、法律文書といった長期成果物の作成に優れ、競合のフロンティアモデルより高速かつ低コストでトップパフォーマンスを発揮する」とコメントしている。 幻覚(ハルシネーション)を大幅削減 GPT-5.4では、AIが事実と異なる情報を生成する「ハルシネーション(幻覚)」の抑制にも注力。GPT-5.2と比較して個別の主張における誤りが33%減少し、回答全体のエラー率も18%低下したとしている。日本でもAIの業務利用が広がる中、信頼性向上は実用化の重要な鍵となる。 Tool Search:トークン消費を抑える新設計 API版では「Tool Search」と呼ばれる新しいツール呼び出し管理システムが導入された。従来はシステムプロンプトにすべてのツール定義を列挙する必要があり、ツール数が増えるほどトークン消費が膨らむ問題があった。新システムでは必要に応じてツール定義を動的に参照する仕組みとなり、大規模なツール群を持つシステムでのリクエストを高速化・低コスト化できる。 推論プロセスの安全性評価も強化 OpenAIはGPT-5.4のリリースに合わせ、モデルの「思考の連鎖(Chain-of-Thought、CoT)」——複数ステップの推論過程を可視化する仕組み——を対象とした新たな安全性評価を導入した。AI安全研究者の間では、推論モデルが思考プロセスを意図的に隠蔽・偽装するリスクが懸念されていた。今回の評価によれば、GPT-5.4 Thinkingでは「モデルが推論を隠す能力を持たないことが示唆される」とし、CoTの監視が有効な安全ツールであり続けることが確認されたとしている。 GPT-5.4は、単なるチャットアシスタントを超え、複数のソフトウェア環境をまたいで自律的に業務を遂行する「デジタルワーカー」への転換点として注目されている。API経由での利用が可能で、企業向けの本格的な業務自動化への活用が期待される。 元記事: OpenAI launches GPT-5.4 with Pro and Thinking versions

March 31, 2026 · 1 min · 胡田昌彦

AIゲートウェイ「LiteLLM」、不正疑惑のコンプライアンス企業Delveと決別——セキュリティ認証を再取得へ

LiteLLM、Delveとの契約解消を公式発表 数百万人の開発者が利用するAIゲートウェイサービス「LiteLLM」は、セキュリティコンプライアンス認証を提供するスタートアップ「Delve」との契約を解消すると公式に発表した。今後は競合サービスの「Vanta」を通じて認証を再取得するとしている。 LiteLLMは開発者がOpenAIやAnthropicなど複数のLLM(大規模言語モデル)プロバイダーを統一インターフェースで呼び出せるOSSライブラリとして広く普及しており、エンタープライズ向けのゲートウェイ機能も提供している。日本国内でも多くのAIアプリケーション開発で採用されている。 相次ぐ問題が引き金に 今回の決断には、二つの問題が重なった。 一つ目は、LiteLLMのオープンソース版が先週、深刻なクレデンシャル窃取マルウェアの被害を受けたこと。このインシデントにより、同社のセキュリティ態勢が改めて注目を集めた。 二つ目は、Delve自体への不信感の高まりだ。Delveは「AIネイティブなコンプライアンス認証」を売りにしたスタートアップだが、匿名の内部告発者から虚偽のデータを生成して顧客に誤解を与え、形式的なチェックしかしない審査員を使って認証を通過させていたとの告発が相次いでいる。 Delveの創業者はこれらの疑惑を否定し、顧客全員への無償再テストを申し出たが、内部告発者は週末にかけて「証拠」とされる追加資料を公開。疑惑は収束するどころか拡大している。 CTO自らXで声明 LiteLLMのCTO、Ishaan Jaffer氏は月曜日にX(旧Twitter)で声明を投稿。Vantaを使って認証を再取得し、独立したサードパーティ審査員を自社で選定してコンプライアンス管理を検証すると表明した。 SOC 2やISO 27001といったセキュリティコンプライアンス認証は、企業がインシデント防止の手順を整備していることを第三者が保証するもの。AIインフラを担うサービスにとって、エンタープライズ顧客からの信頼を得るうえで欠かせない要素だ。 今回の一連の出来事は、急拡大するAIスタートアップ市場において、コンプライアンス認証の品質と透明性がいかに重要かを改めて浮き彫りにした。LiteLLMの「足で投票する」判断は、業界全体への警鐘ともなりそうだ。 元記事: Popular AI gateway startup LiteLLM ditches controversial startup Delve

March 31, 2026 · 1 min · 胡田昌彦

「AIが上司でもいい」アメリカ人の15%が容認——AIによる管理職代替の現実

AIが上司になる時代——15%のアメリカ人が受け入れ意向 「マネージャーをチャットボットに替えてもいい」——そう答えるアメリカ人が増えつつある。 クイニピアック大学(Quinnipiac University)が2026年3月30日に公表した世論調査によると、**アメリカ人の15%**が「AIプログラムがタスクを割り当て、スケジュールを管理する直属の上司であっても構わない」と回答した。同調査は2026年3月19日〜23日にかけて全米の成人1,397人を対象に実施され、AIの導入状況、信頼度、雇用への不安なども幅広く聞いている。 中間管理職を侵食するAIの波 もちろん、大多数の回答者は人間の上司をAIに置き換えることに否定的だ。しかし、AIが管理業務の一端を担う動きは、すでに現実のものとなっている。 人事・財務ソフトウェア大手のWorkdayは、従業員に代わって経費精算の申請・承認を行うAIエージェントを展開済みだ。Amazonは中間管理職の役割の一部をAIワークフローで代替し、その過程で数千人規模の管理職レイオフを実施した。さらにUberでは、エンジニアたちがCEOのダラ・コスロシャヒ氏をモデル化したAIを構築し、実際の役員会議の前に事業提案の事前審査を行わせているという。 こうした流れは「ザ・グレート・フラット化(The Great Flattening)」とも呼ばれ、組織の階層構造を大幅に削減する動きとして注目されている。将来的には、全自動化された従業員と経営幹部を擁する「一人で数十億ドル企業」が誕生するという見方も出始めている。 雇用への不安は根強い 一方、AIが雇用全体に与える影響への懸念は依然として強い。同調査では回答者の**70%**が「AIの進歩により雇用機会が減少する」と回答。就業者に絞ると、**30%**が「AIによって自分の仕事が不要になるかもしれない」と、強く、あるいはある程度懸念していると答えた。 AIによる管理職代替は、欧米の大企業で着実に進行している。日本でも業務効率化ツールとしてのAI導入は広がっているが、「AIが直属の上司」という形態が受け入れられるかどうかは、文化的・組織的な背景も絡む複雑な問題だ。テクノロジーの進化とともに、「管理する」という行為の意味そのものが問われる時代が始まっている。 元記事: 15% of Americans say they’d be willing to work for an AI boss, according to new poll

March 31, 2026 · 1 min · 胡田昌彦

「エージェントAIの時代が来た」—— フライト自動チェックインも実現するAIツール「OpenClaw」が世界で注目

AIがフライトチェックインを自動実行——「OpenClaw」が示すエージェントAIの現在地 オーストリア人開発者のPeter Steinbergerが作ったAIエージェントツール「OpenClaw」が、テック業界で大きな話題を呼んでいる。同ツールはフライトのチェックインをはじめとする現実世界のタスクを自律的に実行できる能力を持ち、Steinberger自身が東京行きのフライトに自動チェックインしたというエピソードが広まった。 Steinbergerは3月30日、東京で行われたOpenClaw愛好者向けイベント「ClawCon」に合わせたAFPとのインタビューの中で、「AIはまだ一般ユーザーの日常的なパーソナルアシスタントとは言えないが、今年はエージェントの年だ。この分野の動きはこれからますます加速する」と語った。 使い方はまるで「友人へのメッセージ」 OpenClawは既存のAIモデル(ChatGPTやClaude等)と連携でき、LINEやSlackなどのインスタントメッセージアプリから自然な言葉で指示を出すだけで動作する。ユーザーは友人や同僚に話しかけるような感覚でAIエージェントにタスクを依頼できる点が特徴だ。 世界最大の時価総額企業Nvidiaのジェンスン・ファン(Jensen Huang)CEOは今月、OpenClawをロブスターをシンボルとするこのツールを「次のChatGPT」と絶賛し、業界内での注目度がさらに高まった。 中国での急速な普及——「勢いはある」 特に中国での普及が顕著で、ユーザーはメールの整理、コーディング支援、その他多様なデジタルタスクにOpenClawを積極的に活用している。Steinbergerは「競争という観点で見ると、中国はAI分野で確実に勢いを増している」と述べつつも、「ただし現時点では、中国トップモデルと米国トップモデルの間にはまだ相当な差がある」と付け加えた。 OpenAIにも採用——次世代エージェント開発へ OpenClawの成功を受け、ChatGPT開発元のOpenAIはSteinbergerを採用。「次世代のパーソナルエージェントを推進する」役割を担うと、OpenAI CEOのSam Altmanが2月に発表している。 Steinbergerは自社ツールが大企業から生まれなかった理由についてこう語る。「大企業は何かが失敗するリスクを恐れすぎて慎重になりすぎる。私はただ、人々に未来を体験させたかった」。 セキュリティリスクも浮上 一方で、AIエージェントが銀行情報などの個人データにアクセスできる仕組みは、サイバーセキュリティ上のリスクも孕む。OpenClawの中国での普及を受け、中国の国家サイバーセキュリティ当局と北京市のIT省庁も公式な注意喚起を発している。 Steinberger自身も「悪用されるリスクは多少心配している。OpenClawのインストールを簡単にしようとするビジネスが増えている中で、ユーザーがAIとは何か、AIがミスを犯す可能性、プロンプトとは何かをしっかり理解してほしい」と懸念を示した。あえてインストールハードルを下げすぎず、ユーザーが仕組みを理解した上で使えるよう設計しているという。 日本での展開にも期待 東京での「ClawCon」イベントには数百人が参加し、ロブスターのコスプレをした参加者も多く見られた。ステージ上でのデモや専門家によるインストール支援も行われ、エージェントAIの実用フェーズへの移行を象徴するイベントとなった。 個人の生産性向上から業務自動化まで、AIエージェントが現実のタスクを肩代わりする時代はすでに始まっている。 元記事: OpenClaw: AI Agent That Executes Real-Life Tasks Like Flight Check-In

March 31, 2026 · 1 min · 胡田昌彦

ヴィクトリア朝文学だけで学習したローカルLLM「Mr. Chatterbox」——著作権フリーデータのみで作れるか?

著作権フリーデータだけで訓練したLLMが登場 Trip Venturellaが、英国図書館(British Library)が公開するヴィクトリア朝時代のテキストのみを使って学習させた言語モデル「Mr. Chatterbox」をHugging Faceで公開した。 このモデルの最大の特徴は、1837年〜1899年に刊行された英国の書籍28,035冊だけをトレーニングデータとして使用しており、1899年以降の情報は一切含まれていない点だ。語彙も概念も、すべて19世紀の文学から形成されている。 学習に使ったトークン数はフィルタリング後で約29.3億。パラメータ数は約3億4000万で、OpenAIのGPT-2 Mediumと同程度のサイズだ。ただしGPT-2と異なり、現代のウェブスクレイピングデータは一切使っていない。 現状の性能と課題 ディスクサイズは2.05GBと、大規模言語モデルとしては非常にコンパクト。HuggingFace Spacesでデモも試せる。 ただし、実際に会話してみると現時点では実用的とは言い難い。応答はヴィクトリア朝らしい独特の語り口ではあるものの、質問に対して的確な答えを返すのは難しく、マルコフ連鎖に近い印象を受けると開発者のSimon Willisonは評している。 性能不足の一因は学習データ量にある。2022年のChinchillaペーパーは「パラメータ数の20倍のトークン数が望ましい」と提唱しており、3億4000万パラメータなら約70億トークンが理想的だ。今回の英国図書館コーパスはその半分以下。実用的な会話モデルにするには、4倍以上のデータが必要とみられる。 ローカル実行も可能——LLMプラグインとして動かす Willisonは自身が開発するCLIツール「LLM」向けにプラグイン「llm-mrchatterbox」を作成し、ローカルPCで動かせるようにした。プラグインの実装にはClaude Codeを活用したという。 モデルの学習にはAndrej KarpathyのナノスケールLLMフレームワーク「nanochat」が使われており、Willisonはそのコードを参照しながらClaude Codeにプラグインを生成させた。 導入は以下のコマンド一発で完了する: 元記事: Mr. Chatterbox is a (weak) Victorian-era ethically trained model you can run on your own computer

March 30, 2026 · 1 min · 胡田昌彦

宇宙データセンター企業Starcloud、シリーズAで約250億円調達——YC史上最速のユニコーン誕生

宇宙にデータセンターを建設——Starcloudが約250億円を調達しユニコーン企業へ 宇宙コンピューティング企業のStarcloudが、シリーズAラウンドで1億7000万ドル(約250億円)の資金調達を完了した。今回の調達によって企業評価額は11億ドル(約1600億円)に達し、Y Combinator(YC)卒業後わずか17ヶ月でユニコーン企業の仲間入りを果たした。YC史上最速の記録だという。 ラウンドはBenchmarkとEQT Venturesが主導し、累計調達額は2億ドルを超えた。 宇宙軌道上のGPUクラスター Starcloudはすでに2025年11月、Nvidia H100 GPUを搭載した初の人工衛星を打ち上げ済みだ。今年後半には後継機「Starcloud 2」を投入予定で、Nvidia BlackwellチップやAWSのサーバーブレード、さらにはビットコインマイニング用コンピューターも搭載される。 同社はさらに、SpaceXのStarshipから打ち上げる大型データセンター宇宙船「Starcloud 3」の開発にも着手する。重量3トン・電力200キロワットのこの宇宙船は、StarshipがStarlinkを展開するために設計した「PEZディスペンサー」方式のデプロイシステムに対応する設計となっている。 コスト競争力の鍵はStarshipの商業利用 CEOのPhilip Johnston氏は、Starcloud 3が地上のデータセンターとコスト競争できる初の軌道上データセンターになると主張する。電力コストは1kWhあたり約0.05ドルを想定しており、その実現にはロケットの打ち上げコストが1kgあたり500ドル程度まで下がることが前提条件だ。 問題は、Starshipがまだ商業運用を開始していない点だ。Johnston氏は2028〜2029年に商業アクセスが開放されると見込むが、「Starshipの打ち上げ頻度が十分でなければ、エネルギーコストでの競争力は生まれない。それまではFalcon 9での小型機打ち上げを続ける」とも語っており、大規模展開は2030年代にずれ込む可能性もある。 2つのビジネスモデル Starcloudが描くビジネスモデルは2段階だ。まず短期的には、軌道上の他の衛星に処理能力を提供する。実際に同社の初号機はCapella Spaceのレーダー衛星が収集したデータの解析を行っている。長期的には打ち上げコストの低下に伴い、地上のデータセンターからワークロードを引き受ける分散型クラウドへの発展を目指す。 宇宙コンピューティングはまだ黎明期 とはいえ、この産業がいかに新興かを示すデータもある。現在軌道上に存在する高性能GPUはわずか数十個程度。一方でNvidiaは2025年に地上のハイパースケーラーへ約400万個ものGPUを出荷したとされる。また、世界最大の衛星コンステレーションであるStarlinkの1万機が生み出す電力はおよそ200メガワット。これに対し、現在米国で建設中のデータセンターの総電力容量は25ギガワット超にのぼる(Cushman and Wakefield調べ)。 宇宙コンピューティングという構想は壮大だが、その実現は次世代ロケットの稼働率向上という、まだ見ぬ未来に大きく依存している。Starcloudの挑戦は、地球規模のAIインフラ整備競争が文字通り「宇宙規模」に拡大しつつある最前線を象徴している。 元記事: Starcloud raises $170 million Series A to build data centers in space

March 30, 2026 · 1 min · 胡田昌彦

AIコード検証スタートアップ「Qodo」が70億円超を調達——「生成」より「検証」が次の主戦場に

AIコード爆増時代の新たなボトルネック AIコーディングツールが月数十億行ものコードを生成するようになった今、ソフトウェア開発の現場では新たな課題が顕在化しつつある。「速く書ける」ことと「正しく動く」ことは、まったく別の問題だ。 この課題に正面から挑むスタートアップ「Qodo」が、シリーズBラウンドで7,000万ドル(約110億円)を調達したと発表した。リードインベスターはQumra Capitalで、Maor Ventures、Phoenix Venture Partners、S Ventures、Square Peg、Susa Ventures、TLV Partners、Vine Ventures、そしてOpenAIのPeter Welinder氏やMetaのClara Shih氏といった著名エンジェル投資家も参加。累計調達額は1億2,000万ドル(約190億円)に達した。 「コード生成」と「コード検証」は根本的に異なる問題 Qodoは2022年にニューヨークで設立された。創業者のItamar Friedman氏は、Nvidiaに買収されたMLスタートアップ「Mellanox」でのハードウェア検証自動化の経験と、Alibaba傘下でのAI研究経験を持つ連続起業家だ。 Friedman氏はTechCrunchに対し、Mellanoxでの経験から「システムを生成することと、システムを検証することはまったく異なるアプローチを必要とする」と気づいたと語る。ChatGPT登場の数か月前にQodoを創業したのも、「AIは大量のコードを生成するようになる。しかしその品質保証には別の仕組みが必要だ」という確信からだ。 LLMだけでは品質は担保できない Qodoが注目する市場データがある。ある調査によると、開発者の95%がAI生成コードを完全には信頼していないにもかかわらず、コミット前に一貫してレビューしているのはわずか**48%**にとどまる。認識と実践の間に大きなギャップが存在する。 「コード品質やガバナンスには、LLM単体では不十分です」とFriedman氏は強調する。「品質とは主観的なもの。組織のコーディング規約、過去の設計判断、暗黙知に左右されます。LLMにはその内部コンテキストを完全に理解することはできない。優秀なエンジニアを別の会社に連れてきてコードレビューを頼むようなもの——内部事情を知らなければ的確な判断はできません」 変更点ではなく「システム全体への影響」を評価 Qodoのアプローチは、多くのAIレビューツールとは一線を画す。一般的なツールが「何が変わったか」に注目するのに対し、Qodoは「コード変更がシステム全体にどう影響するか」を評価する。組織の標準、過去の意思決定の文脈、リスク許容度を組み合わせることで、企業がAI生成コードをより自信を持って管理できるよう支援する。 OpenAI「Codex」やAnthropicの「Claude Code」といったツールの企業導入が加速する中、コードの生産速度は上がっても品質・セキュリティが追いつかないという問題は多くの組織で現実のものとなっている。 業界評価も実力で証明 Qodoは最近、コードレビューの業界標準ベンチマーク「Martian’s Code Review Bench」で64.3%のスコアで1位を獲得した。競合他社の多くがまだアーリーステージにある中、企業導入実績と技術的優位性の両面でリードを広げようとしている。 AIが「書く」時代から「書いたものを正しく動かす」時代へ——Qodoはその移行期のど真ん中に賭けている。 元記事: Qodo raises $70M for code verification as AI coding scales

March 30, 2026 · 1 min · 胡田昌彦

Mistral AIがパリ近郊にデータセンター建設へ——8億3000万ドルの負債調達でNvidiaチップ搭載施設を整備

Mistral AI、パリ近郊にデータセンター建設——8億3000万ドルを負債調達 フランスのAIスタートアップMistral AIが、パリ近郊にNvidia製チップを搭載した新たなデータセンターを建設するため、約8億3000万ドル(約1,200億円)の負債調達を完了したことがロイターおよびCNBCの報道で明らかになった。 パリ南部・ブリュイエール=ル=シャテルに建設 建設予定地はパリ南郊のブリュイエール=ル=シャテル(Bruyères-le-Châtel)。同地はフランス原子力・代替エネルギー庁(CEA)の研究施設が集積するハイテク地区として知られる。Mistralは2026年第2四半期中の稼働開始を目指しており、欧州における独自AIインフラ整備を急いでいる。 Mistral CEOのアルテュール・マンシュ(Arthur Mensch)氏はCNBCのコメントで、「欧州でのインフラ拡充は、顧客を支援し、AI技術の革新と自律性を欧州の中核に据えるために不可欠だ。政府・企業・研究機関からサードパーティのクラウドプロバイダーに依存せず自前のAI環境を持ちたいという需要が急増・持続しており、引き続き投資を続ける」と強調した。 欧州全土で200MWの計算資源を展開へ Mistralはすでに先月、スウェーデンへの14億ドル投資を発表しており、データセンターを含むAIインフラの構築を進めている。同社は2027年までに欧州全体で200メガワットの計算資源を展開する計画を掲げている。 これは単なる自社インフラ整備にとどまらず、米国ビッグテック(OpenAI・Google・Meta等)やクラウド大手への依存を減らしたい欧州各国政府・企業の需要を取り込む戦略でもある。EU規制(AI Act)への対応を考える日本企業にとっても、欧州拠点のAIプロバイダーの動向は無視できない。 累計調達額は28億ユーロ超 Mistralの累計資金調達額はCrunchbaseのデータによると28億ユーロ(約31億ドル)超に上る。投資家にはGeneral Catalyst、ASML、Andreessen Horowitz(a16z)、Lightspeed、DST Globalなどが名を連ねる。 2023年創業ながら急成長を続けるMistralは、欧州発のオープンウェイトLLM(大規模言語モデル)の旗手として、技術力と資金力を両輪に独自路線を突き進んでいる。今回のデータセンター投資は、API提供・エンタープライズ向けサービスの拡大を見据えた重要な布石となる。 元記事: Mistral AI raises $830M in debt to set up a data center near Paris

March 30, 2026 · 1 min · 胡田昌彦

韓国AIチップ新興企業Rebellions、IPO前に400億円超を調達——評価額2,300億円超でNvidiaに挑む

韓国発AIチップ新興企業、IPO前に4億ドルの大型調達 韓国のファブレス(設計専業)AIチップスタートアップRebellions(リベリオンズ)は、IPO(新規株式公開)前のファンディングラウンドで4億ドル(約600億円)を調達したと発表した。今回のラウンドはミレアセット・ファイナンシャル・グループと韓国成長ファンド(Korea National Growth Fund)が主導した。 累計調達額は8.5億ドル、評価額は23億ドル超に 2020年設立のRebellionsは、AIチップの設計に特化しながら製造は外部委託するファブレスモデルを採用する。2024年のシリーズBで1億2,400万ドル、2025年11月のシリーズCで2億5,000万ドルを調達しており、今回の追加調達を加えた累計調達額は8億5,000万ドルに達した。なお、直近6カ月だけで6億5,000万ドルを調達したことになる。評価額は約23億4,000万ドル(約3,500億円)と報告されている。 推論特化チップでNvidiaの牙城に迫る Rebellionsが開発するチップが特徴的なのは、AIインファレンス(推論)、つまりLLM(大規模言語モデル)がユーザーの質問に答える際の演算処理に特化している点だ。LLMが商用サービスとして広く普及するにつれ、学習よりも推論処理の重要性が高まっており、同社CEOのSunghyun Park氏も「AIの競争軸は、実世界でのスケール稼働・電力制約下での動作・明確な経済的リターンに移行しつつある。これは推論インフラへの重心シフトを意味する」と述べている。 NvidiaがGPU市場で圧倒的な地位を築いてきたAI半導体領域では、AWS・Meta・Googleなどの大手テック企業が自社チップ開発に乗り出す一方、Rebellionsのような新興勢力も台頭している。 新製品「RebelRack」「RebelPOD」も同時発表 今回の資金調達と同時に、AIインフラプラットフォームとしてRebelPODとRebelRackの2製品が発表された。RebelPODは本番稼働に対応した推論コンピュートユニット、RebelRackは複数ラックを統合した大規模AI展開向けのスケーラブルクラスターとして位置付けられる。 日本を含むグローバル展開を加速 CBO(最高ビジネス責任者)のMarshall Choy氏は、米国・日本・サウジアラビア・台湾に現地法人を設立したことを明らかにした。米国ではクラウドプロバイダー、政府機関、通信事業者、ネオクラウドとのパートナーシップ構築を進めており、中東やアジアへの展開も積極的に推進している。日本市場への進出が明言されている点は、国内の企業・政府関係者にとっても注目に値する動きといえるだろう。 IPOの時期についてChoy氏はコメントを控えたが、今年後半の上場が計画されているとされており、AI半導体市場の競争激化を象徴する大きなイベントとして注目される。 元記事: AI chip startup Rebellions raises $400 million at $2.3B valuation in pre-IPO round

March 30, 2026 · 1 min · 胡田昌彦

ScaleOps、シリーズCで130億円超を調達——AIインフラの無駄を最大80%削減するKubernetes自動最適化

AIブームの裏側で膨らむ「計算資源の無駄」 AI需要が爆発的に拡大する一方で、企業のクラウドインフラには深刻な非効率が潜んでいる。GPUが遊休状態のまま放置され、ワークロードは過剰にプロビジョニングされ、クラウドコストは膨らみ続ける——。KubernetesスタートアップのScaleOpsは「問題はGPU不足ではなく、管理の失敗だ」と断言する。 同社は2026年3月31日、シリーズCラウンドで1億3000万ドル(約190億円)を調達したと発表した。企業評価額は8億ドル(約1170億円)。ラウンドをリードしたのはInsight Partnersで、既存投資家のLightspeed Venture Partners、NFX、Glilot Capital Partners、Picture Capitalも参加した。 NvidiaがM&AしたRun:ai出身の創業者が見た「現場の苦悩」 ScaleOpsを2022年に共同創業したYodar Shafrir CEOは、NvidiaがM&Aで買収したGPUオーケストレーション企業Run:aiの元エンジニアだ。Run:ai時代に多くの顧客——特にDevOpsチーム——と接する中で、彼は一つのパターンに気づいた。 「Run:aiのサービスを気に入っていたお客様でも、本番ワークロードの管理には苦労していた。AIの推論ワークロードが増えるにつれてその問題は顕著になった。俯瞰してみると、課題はGPUだけじゃない。コンピュート、メモリ、ストレージ、ネットワーク全体に及んでいた」(Shafrir氏) DevOpsチームは問題が発生するたびに複数の関係者を巻き込んで対応に追われるが、多くの既存ツールは「可視化」止まりで根本的な解決策を提供できていないという。 Kubernetesの「静的設定問題」をリアルタイム自動化で突破 ScaleOpsが解決しようとするのは、Kubernetes固有の構造的な課題だ。 「Kubernetesは優れたシステムで、柔軟性も設定自由度も高い。だがそれが問題でもある。Kubernetesは静的な設定に依存しているが、現代のアプリケーションは極めて動的だ。各アプリが何を必要とし、どう振る舞い、環境がどう変化しているかを理解するものが必要だ」(Shafrir氏) 同社のプラットフォームはアプリケーションの要求とインフラ側の意思決定をリアルタイムで連携させ、エンドツーエンドで自律的にリソースを管理する。手動設定不要で「箱から出してすぐ使える(out of the box)」設計が特徴で、コンテキストを理解した上で動作するため、既存の自動化ツールが引き起こしがちなパフォーマンス低下やダウンタイムを防ぐという。 同社はクラウドおよびAIインフラコストを最大80%削減できると主張しており、本番環境向けに設計された点で競合のCast AI、Kubecost、Spotとの差別化を図る。 日本企業にとっての示唆 GPU不足とクラウドコスト高騰は日本のAI活用企業にとっても切実な課題だ。ScaleOpsのアプローチが示す「調達より最適化」という発想は、限られたGPUリソースを最大限に活かしたい企業にとって重要な視点となるだろう。ニューヨーク本社の同社が日本市場への展開をどのように進めるか、今後の動向が注目される。 元記事: ScaleOps raises $130M to improve computing efficiency amid AI demand

March 30, 2026 · 1 min · 胡田昌彦

AIを使う人は増えているのに、信頼する人は減っている——アメリカの最新世論調査が示す矛盾

AIを使うけど、信じてはいない アメリカでAIツールの利用者が着実に増えている。しかし、使う人が増えるほど「信頼できる」と思う人は減っている——そんな逆説的な実態が、クィニピアック大学(Quinnipiac University)が2026年3月末に公表した世論調査で明らかになった。 約1,400人のアメリカ人を対象にした調査によると、AIを「ほとんど信頼しない」または「たまにしか信頼しない」と答えた人は76%にのぼった。「ほぼ常に信頼する」または「大半の場合信頼する」と答えたのはわずか21%にとどまる。 一方で利用率は確実に上がっている。「AIツールを一度も使ったことがない」と答えた人は27%で、2025年4月時点の33%から減少した。リサーチ、文章作成、職場や学校での課題、データ分析といった場面でAIを活用する人が増えている。 同大学のコンピュータサイエンス教授チェタン・ジャイスワル氏はこう指摘する。「利用と信頼の矛盾は際立っている。51%がリサーチにAIを使うと答えているのに、AIが生成した情報を大半の時間信頼できるのはわずか21%だ。アメリカ人はAIを採用しているが、深い信頼からではなく、深い躊躇を抱えながらそうしている」 期待より不安が圧倒的に上回る AIの将来に「非常に期待している」と答えたのはわずか6%。対して「あまり期待していない」または「まったく期待していない」は62%に達した。懸念についてはほぼ逆転し、80%が「非常に懸念」または「やや懸念」していると回答した。ミレニアル世代(1980年代〜1990年代生まれ)とベビーブーマー世代(1946〜1964年生まれ)が最も懸念を抱えており、Z世代(1997〜2008年生まれ)もそれに続く。 「AIは日常生活においてメリットよりも害をもたらす」と考える人は55%で、「メリットの方が大きい」と答えた約33%を大きく上回った。AIへの否定的な見方は昨年の調査より増えており、大手テクノロジー企業の大規模レイオフや、AIチャットボットへの依存が引き金とされる深刻な精神的健康被害のニュース、そして電力網に負荷をかけるデータセンターの問題が背景にあるとみられる。 雇用への影響、Z世代が最も悲観的 AIの進歩によって雇用機会が減少すると考える人は70%にのぼり、増加すると答えた7%を大幅に上回った。前年調査では「減少する」が56%、「増加する」が13%だったことを考えると、わずか1年で悲観論が急速に広がっていることがわかる。 特にZ世代は81%が雇用減少を予測しており、最も悲観的な世代となっている。実際、アメリカのエントリーレベルの求人数は2023年以降35%減少しており、AnthropicのCEOダリオ・アモデイ氏もAIによる雇用消失を警告している。 クィニピアック大学のビジネスアナリティクス教授タミラ・トリアントロ氏は「若い世代ほどAIツールへの習熟度が高いが、労働市場への楽観論は最も低い。AIの流暢さと楽観主義は逆方向に動いている」と述べている。 データセンター建設にも住民が反発 AIインフラをめぐる地域社会の反発も浮き彫りになった。65%のアメリカ人が「自分のコミュニティにAIデータセンターが建設されることに反対する」と回答。主な理由として電力コストの上昇と大量の水使用が挙げられた。 日本でも生成AIの普及が進む中、同様の「利用はするが信頼はしない」という意識のギャップや、雇用・エネルギーへの懸念は共通の課題になりつつある。今回の調査は、技術の普及速度と社会的信頼の醸成速度が必ずしも一致しないという現実を改めて示している。 元記事: As more Americans adopt AI tools, fewer say they can trust the results

March 30, 2026 · 1 min · 胡田昌彦

ペンタゴンのAnthropicへの「サプライチェーンリスク」指定、連邦裁判所が一時差し止め——SNS投稿が裁判官の心証を悪化させた

ペンタゴン対Anthropic——「ツイートが先、法廷が後」の戦略が裏目に 米国防総省(ペンタゴン)がAIスタートアップのAnthropicに対してとった強硬措置が、連邦裁判所によって一時的に差し止められた。カリフォルニア州のリタ・リン連邦裁判官は3月27日、国防総省によるAnthropicの「サプライチェーンリスク」指定と、政府機関へのAI利用停止命令を暫定的にブロックする決定を下した。 1カ月にわたる対立の経緯 事の発端は、米政府がAnthropicと直接の契約交渉を始めたことだった。それまで2025年を通じて、防衛関連の職員はPalantir(パランティア)経由でAnthropicのAIアシスタント「Claude(クロード)」を問題なく利用していた。Anthropic共同創業者のジャレッド・カプランによれば、その利用規約は「アメリカ市民の大規模監視や自律型致死兵器を禁止する」内容を含んでいたという。 直接契約の話し合いが始まると摩擦が生まれ、2月27日にはトランプ大統領がSNS「Truth Social」に「Anthropicの左翼のナットジョブ(leftwingnuts)」と名指しする投稿を行い、全連邦機関に対してAnthropicのAI利用停止を指示。これを受けてピート・ヘグセス国防長官も、Anthropicをサプライチェーンリスクと指定する方針をSNSに投稿した。 裁判官が問題視した「手順の無視」と「SNS投稿の矛盾」 43ページにわたる判決文の中で、リン裁判官が指摘したのは手続き上の重大な欠陥だ。サプライチェーンリスクの指定には国防長官が踏むべき具体的なステップが定められているが、ヘグセス長官はそれを完了していなかった。議会委員会への書簡では「より穏当な措置を検討したが不可能と判断した」とだけ記されており、詳細は何も示されていなかった。 さらに、政府は「Anthropicがシステムに『キルスイッチ』を実装できる」ことをリスク指定の理由の一つに挙げていたが、政府側弁護士が法廷で「その証拠はない」と認める場面もあった。ヘグセス長官のSNS投稿には「Anthropicと取引する請負業者・サプライヤー・パートナーは米軍との取引が禁止される」という記述もあったが、政府側弁護士自身が「長官にそのような権限はなく、法的効力は全くない」と法廷で認めた。 表現の自由侵害も認定 こうした一連のSNS投稿は、裁判官にAnthropicの主張——政府が同社の「イデオロギー」や「傲慢さ」を公開の場で罰しようとした、という憲法修正第1条(言論の自由)違反の訴え——を支持させる結果にもなった。「SNS投稿が先、法廷対応が後」というパターンが、政府の法廷での主張と矛盾を生み出す構図となった。 今後の行方 政府には7日間の上訴期限が与えられており、Anthropicが起こしている別の訴訟も決着していないため、この問題は完全には解決していない。Anthropicは現時点でも政府との取引が事実上制限された状態にある。 AIを国家安全保障にどこまで活用できるか、そして民間AI企業はどこまで政府の要求に応じなければならないのか——本件は、AIの軍事利用と企業の倫理指針のせめぎ合いという、今後ますます重要になる問題を浮き彫りにした。 元記事: The Pentagon’s culture war tactic against Anthropic has backfired

March 30, 2026 · 1 min · 胡田昌彦

OktaのCEOがAIエージェントのアイデンティティ管理に大きく賭ける——「SaaS終末論」への備え

OktaのCEO、AIエージェントのアイデンティティ管理が次の主戦場と断言 企業向けアイデンティティ・セキュリティ管理プラットフォームを提供するOkta(時価総額約140億ドル)のCo-founder兼CEO、Todd McKinnon氏が、AIエージェントのアイデンティティ管理こそが同社の次なる成長の核心だと語った。The Vergeのポッドキャスト「Decoder」でのインタビューで明らかになった。 「SaaSpocalypse(SaaS終末論)」への危機感 McKinnon氏が最近の決算説明会で「われわれはパラノイア(妄想的な危機感)を持っている」と発言し、業界で話題になった。これはいわゆる「SaaSpocalypse」、つまり生成AIの台頭によって既存のSaaSビジネスモデルが崩壊しかねないという懸念を指している。 「なぜ高額のSaaSツールにお金を払うのか。自分でコードを書けばいいじゃないか」——そんな考え方が広がりつつある中、Okta自身もその波に飲み込まれるリスクを抱えている。McKinnon氏はこの脅威を「ナイーブに無視するのは危険だ」と明言し、積極的に手を打つ姿勢を示している。 AIエージェントは「人間でもシステムでもない」新たな存在 インタビューの核心は、AIエージェントのアイデンティティ管理という概念だ。McKinnon氏は「AIエージェントは人間とシステムの中間に位置する新しい種類の存在だ」と説明する。 従来、Oktaが管理してきたのは「人間のログイン」だった。社員が業務用アプリにアクセスする際の認証・認可がその中心だ。しかしOpenAIのエージェント機能(記事内では「OpenClaw」と表記)をはじめとするAIエージェントが企業内に普及するにつれ、エージェントにも適切なアクセス権限を付与し、管理・監視する仕組みが不可欠になっている。 日本企業でも、Microsoft 365 CopilotやSlack AIなどのAIエージェントが業務に組み込まれ始めており、「どのエージェントがどのデータにアクセスできるか」を管理するニーズは急速に高まっている。 セキュリティの課題:クレデンシャルをエージェントに渡すリスク McKinnon氏が特に懸念するのは、社員が自分の認証情報をAIエージェントに渡し、エージェントが自由に操作するというシナリオだ。「Mac Miniを買ってきて、自分のクレデンシャルをそこに預け、AIに好き勝手させる——そんな状況になったとき、企業はデータを守れるのか」と問題提起した。 これに対し同氏は、エージェントレベルでの「キルスイッチ(強制停止機能)」の実装を一つの対策として提案しているが、それだけで十分かどうかは議論の余地があるとも認めている。 人間とエージェントの混成チームという未来 さらにMcKinnon氏は、近い将来「人間とAIエージェントが混在するチームを管理する」という、これまで想定されてこなかった組織運営の課題が生まれると指摘する。誰がエージェントを管理し、エージェントの行動に誰が責任を持つのか——こうした問いに、企業のIT部門や経営層は早急に向き合う必要がある。 Oktaはこの「エージェントアイデンティティ」領域を新たな市場機会と捉え、製品・サービスの拡充を進めている。SaaS終末論が現実のものとなりつつある今、アイデンティティ管理の守備範囲はAIエージェントへと確実に広がっている。 元記事: Okta’s CEO is betting big on AI agent identity

March 30, 2026 · 1 min · 胡田昌彦

OpenAIがSoraを突然終了した本当の理由——1日100万ドルの赤字とClaude Codeの台頭

OpenAIがSoraを終了した「本当の理由」が明らかに OpenAIが先週、AI動画生成ツール「Sora」の提供を終了した。公開からわずか6か月という異例の短さでのサービス終了に、多くのユーザーが驚きを隠せなかった。「アップロードした顔写真が目的のデータ収集だったのでは」という憶測もSNS上で飛び交ったが、ウォール・ストリート・ジャーナル(WSJ)の調査報道によって明かされた真相は、もっと現実的——そしてOpenAIにとって痛い——ものだった。 ユーザー離れと膨大な運用コスト Soraは鮮烈なデモ映像で大きな話題を呼び、全世界のユーザー数は一時100万人に達した。しかしその後は急速に減少し、500万人を下回るまでに落ち込んでいたという。 問題はユーザー数だけではなかった。動画生成AIはテキスト生成と比べて圧倒的に計算資源を食う。ユーザーが幻想的なシーンに自分の顔を合成するたびに、OpenAIのGPUが大量に消費される。その結果、Soraの運用コストは1日あたり約100万ドル(約1億5000万円)に膨らんでいた——利用者が増えているからではなく、ただ動かし続けているだけで。 Claude Codeに「ランチを食われた」 OpenAI社内でSoraチームが動画生成の改善に奔走している間、競合のAnthropicは静かに、しかし着実に前進していた。特にソフトウェアエンジニアや企業向けの収益源として、Claude Codeが急成長。WSJの表現を借りれば、AnthropicはOpenAIの「ランチを食べていた」状態だ。 日本でもAIコーディングアシスタントの需要は急拡大しており、Claude Codeの存在感は無視できない段階に入っている。 Altman CEOの決断——そしてDisneyへの余波 こうした状況を受け、Sam Altman CEOはSoraを終了し、計算資源を再配分する決断を下した。その決定がいかに急だったかを示す象徴的なエピソードがある。エンターテインメント大手のDisneyはSoraとの提携に10億ドル(約1500億円)を投じる契約を結んでいたが、サービス終了の事実を知ったのは一般公開の1時間前だったという。当然、この巨大契約も白紙に戻った。 「派手な発表」の裏にあるもの Soraの失敗は、AI業界における「話題性」と「持続可能性」のギャップを改めて浮き彫りにした。華やかなデモで注目を集めても、実際の利用コストや競合との差別化が伴わなければ、ビジネスとして成立しない。OpenAIは今後、Soraに注ぎ込んでいたリソースをどこに向けるのか。その答えが、同社の競争力を左右することになる。 元記事: Why OpenAI really shut down Sora

March 30, 2026 · 1 min · 胡田昌彦

EU AI規制法、透明性要件が2026年8月施行——日本企業も対応猶予は残り4ヶ月

EU AI Act 透明性要件、2026年8月2日に施行迫る EUが世界初の包括的AI規制として制定した「AI規制法(EU AI Act)」の中核となる透明性要件と高リスクAIシステムへの義務規定が、2026年8月2日にいよいよ施行される。コンプライアンス対応の猶予はわずか4ヶ月を切っており、EU市場でAIシステムを展開する企業にとって準備の加速が急務となっている。 何が義務化されるのか AI Actは、AIシステムをリスクレベルに応じて4段階(禁止・高リスク・限定リスク・最小リスク)に分類し、それぞれに異なる規制を課す枠組みだ。今回施行される主な要件は以下の通り。 透明性の義務: チャットボットや感情認識AIなど、人間と直接やり取りするシステムは、AIであることを利用者に開示しなければならない 高リスクAIの要件: 採用選考・信用審査・医療診断など重要な意思決定に用いるAIは、リスク管理システムの構築、高品質なトレーニングデータの確保、詳細な技術文書の作成、人間による監視体制の整備が必要 GPAI(汎用AIモデル)の透明性: ChatGPTのような汎用AIモデルのプロバイダーは、学習データや能力に関する情報を欧州AI事務局に開示する義務を負う GDPR(一般データ保護規則)との整合性 欧州委員会は、AI ActとGDPR(EU一般データ保護規則)の要件が競合・重複するケースについてのガイダンスを2026年中に公開する予定だ。個人データを活用するAIシステムは両方の規制に同時対応する必要があり、コンプライアンス担当者にとって特に複雑な課題となっている。 日本企業への影響 AI Actは域外適用の規定を持ち、EU域内のユーザーに向けてAIシステムを提供・展開する場合、事業者の所在地がEU外であっても適用される。EU市場を持つ日本企業はもちろん、欧州の顧客基盤を持つSaaSベンダーやAI開発企業も対象になりうる。 違反した場合のペナルティは重大で、禁止AIの違反では最大3,500万ユーロまたは全世界売上高の7%、その他の義務違反でも最大**1,500万ユーロまたは全世界売上高の3%**の制裁金が科される可能性がある。 今から取るべき準備ステップ 専門家は以下の優先対応を推奨している。 AIシステムの棚卸し: 社内で利用・提供しているAIシステムをリストアップし、AI Act上のリスク分類を特定する ギャップ分析: 現状の体制と高リスクAI要件との乖離を把握する ドキュメント整備: 技術文書・リスク評価・適合宣言書の作成を開始する ガバナンス体制の構築: 人間による監視体制と継続的なモニタリングの仕組みを設計する AI規制の世界標準を形成しつつあるEU AI Actは、日本の「AI事業者ガイドライン」や米国の大統領令にも影響を与えており、グローバルAI展開戦略を持つ企業にとっては今後の国際標準の予行演習とも言える。施行まで残り4ヶ月——対応を先送りするリスクは、対応コストをはるかに上回る。 元記事: EU AI Act Transparency Requirements Due August 2026: What Enterprises Must Prepare Now

March 30, 2026 · 1 min · 胡田昌彦

ARC-AGI-3登場——最先端AIのスコアが1%未満という衝撃的な現実

エージェント型AIの「本当の知性」を問う新ベンチマーク AIの能力評価に新たな指標が加わった。「ARC-AGI-3」は、ターン制の抽象的な対話環境でエージェント型AI(自律的に行動するAIシステム)の汎化能力を評価する新しいベンチマークだ。2026年3月時点で、GPT-4oやClaude 3などの最先端モデルがこのベンチマークで記録したスコアは1%未満という驚くべき結果となっている。 なぜ1%未満なのか ARC-AGI(Abstraction and Reasoning Corpus for Artificial General Intelligence)シリーズは、フランソワ・ショレ氏(Google DeepMind)が提唱した「真の知能」を測るベンチマークとして知られる。単純な暗記や統計的パターンマッチングでは解けない、人間には自明な抽象推論タスクで構成されている点が特徴だ。 第3世代となるARC-AGI-3では、インタラクティブ性が加わった。静的な問題を解くだけでなく、AIが環境と対話しながら複数ターンにわたって問題を解決しなければならない。これはまさに現実世界のタスクに近い設定だ。 この結果は、現行の大規模言語モデル(LLM)がいかに「記憶した知識の応用」に依存しているかを浮き彫りにする。未知の構造をゼロから理解して行動する「汎化能力」においては、まだ人間の子供にも遠く及ばないのが現状だ。 2026年のAI研究トレンドと重なる課題 ARC-AGI-3の登場は、AI研究コミュニティが2026年に直面している課題と符合する。AIは2025年に「推論モデルがエージェントになった年」を経て、現在はプロトタイプから本番運用への移行期にある。 OpenAIのo3やAnthropicのClaude 4シリーズは、テスト時計算(test-time compute)を活用した推論能力で数学や論理タスクに飛躍的な進歩をもたらした。Claude Codeのような自律コーディングツールや、Gemini Deep Researchのような情報統合エージェントも実用化されている。 しかし、Gartnerの予測によれば、2027年までに40%以上のエージェントAIプロジェクトがコスト超過や事業価値の不明確さで中止されるという。プロトタイプと製品の間には、技術的な深い溝がある。 AGI到達の議論に新たな視座 ARC-AGI-3は「AGI(汎用人工知能)に到達したかどうか」を判断するひとつの基準として注目されている。現在のAIが苦手とするのは、見たことのない問題構造を、環境とのやり取りを通じて動的に理解する能力だ。 日本でも大規模言語モデルの業務活用が急速に進む中、こうした「汎化能力の限界」を正確に把握することは、AIツール導入の効果測定や失敗リスクの予測において重要な視点となる。 ARC-AGI-3のスコアが劇的に向上する日が来たとき、それは真の意味でAIが「知る」のではなく「考える」存在へと近づいた瞬間となるだろう。 元記事: ARC-AGI-3: New Interactive Benchmark for Agentic AI — Frontier Models Score Below 1%

March 30, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中