Mistral、オープンソースMoEモデル「Small 4」を公開——推論・マルチモーダル・命令追従を1モデルに統合

MistralがSmall 4を公開——オープンソースAIの品質競争が新局面へ フランスのAIスタートアップMistral AIは、最新のオープンソースモデル「Mistral Small 4」をApache 2.0ライセンスで公開した。推論(Reasoning)・マルチモーダル・命令追従(Instruction Following)という3つの主要機能を単一モデルに統合した点が最大の特徴だ。 Mixture-of-Experts構造で性能と効率を両立 Small 4はMoE(Mixture-of-Experts)アーキテクチャを採用している。MoEとは、入力に応じて複数の「専門家(エキスパート)」モジュールを選択的に活用する設計で、パラメータ数を増やしながらも推論時の計算コストを抑えられる。 Mistralによれば、Small 4は前モデルと比較して速度・スループット・レイテンシのいずれも大幅に改善しているという。商用利用を含む幅広いユースケースで自由に使えるApache 2.0ライセンスでの提供は、企業導入のハードルを下げる点でも注目される。 3機能の統合がもたらすインパクト これまでオープンソースモデルは、推論特化・マルチモーダル対応・命令追従といった機能をそれぞれ別モデルで提供するケースが多かった。Small 4はこれらを1つのモデルで実現しており、開発者がユースケースごとにモデルを切り替える手間を省ける。 日本語を含む多言語対応の詳細は今後の情報公開が待たれるが、Mistralのモデルは従来から多言語性能に定評があり、日本の開発者コミュニティからの注目も高い。 オープンソースAIの品質競争が激化 MetaのLlamaシリーズやGoogleのGemmaシリーズと並び、Mistralはオープンソース大規模言語モデル(LLM)の主要プレイヤーとして存在感を高めている。Small 4の登場により、推論・マルチモーダル・命令追従を兼ね備えたオープンソースモデルの選択肢がさらに広がった形だ。 クローズドなAPIサービスに依存せず、自社インフラで高品質なLLMを運用したい国内企業にとっても、Small 4は有力な選択肢の一つとなりそうだ。 モデルの重みはHugging Face等のプラットフォームからダウンロード可能。詳細はMistral AIの公式アナウンスを参照されたい。 元記事: Mistral Releases Small 4: Open-Source MoE Model with Reasoning, Multimodal, and Instruction Following

March 24, 2026 · 1 min · 胡田昌彦

AnthropicがClaude Code ChannelsをリサーチプレビューとしてTelegram・Discord向けに公開——スマホから開発環境を操作可能に

スマートフォンがコーディングの指揮台に Anthropicは、同社のAIコーディングアシスタント「Claude Code」をメッセージングアプリから直接操作できる新機能「Claude Code Channels」をリサーチプレビューとして公開した。対応プラットフォームはTelegramとDiscordの2種類で、開発者はスマートフォンさえあれば外出先からでもClaude Codeセッションにメッセージを送り、コードの生成・修正・確認といった作業を指示できる。 モバイルと開発環境の壁を取り払う これまでClaude Codeは、ターミナル上での操作が前提だった。PCやMacのローカル環境、あるいはクラウド開発環境(GitHub CodespacesやAWS Cloud9など)にSSHでアクセスし、コマンドラインから使用するのが一般的な利用スタイルだ。 Claude Code Channelsはこのワークフローを根本から変える可能性を持つ。TelegramやDiscordのチャットインターフェースから自然言語でClaude Codeに指示を出せるため、「電車の中でバグ修正の指示を出す」「会議の合間にPRレビューを依頼する」といったシナリオが現実的になる。 日本ではTelegramよりもDiscordのほうが開発者コミュニティで広く普及しているため、Discord対応は特に国内ユーザーにとって恩恵が大きいと言えるだろう。 リサーチプレビューとして段階的な展開 現時点でClaude Code Channelsはリサーチプレビュー段階であり、すべてのユーザーがすぐに利用できるわけではない。Anthropicは段階的にアクセスを拡大しながらフィードバックを収集し、機能の安定性や安全性を検証していく方針とみられる。 リサーチプレビューという位置づけは、Anthropicが本機能を商用サービスとして確立する前に、実際の開発者による利用データを集めることを重視していることを示している。モバイル経由でのコーディング指示は、誤操作や意図しないコード変更のリスクも伴うため、慎重な検証プロセスが求められる。 広がるAIコーディングのエコシステム GitHub CopilotやCursorなど競合するAIコーディングツールがIDE統合を深化させる一方で、Anthropicはメッセージングプラットフォームという異なるアプローチで開発者体験の拡張を図っている。 Claude Code自体は2025年にリリースされて以来、高い評価を得てきたツールだ。ターミナルからの自律的なコーディング支援に定評があり、今回のChannels機能はその延長線上にある「どこからでもアクセス可能な開発環境」というビジョンの具現化とも言える。 AIが開発ワークフローのあらゆる場面に浸透していく中で、モバイルとデスクトップの境界をなくすこの試みは、今後のAI開発ツールの方向性を示す一歩として注目される。 元記事: Anthropic Releases Claude Code Channels in Research Preview via Telegram and Discord

March 24, 2026 · 1 min · 胡田昌彦

OpenAI、学生向けCodexを無料提供開始——米加の大学生に100ドルクレジット付与、レガシー深層調査モードは3月26日廃止

OpenAI、学生向けCodex提供と深層調査モード廃止を相次いで発表 OpenAIは2026年3月20日、AIコーディングエージェント「Codex」を米国・カナダの大学生向けに開放する「Codex for Students」プログラムを開始したと発表した。同時に、ChatGPTのレガシー版「深層調査(Deep Research)」モードを3月26日に廃止することも明らかにした。 学生はCodexを$100クレジットで試せる Codex for Studentsは、在学中の大学生がSheerIDを通じて大学メールアドレスで本人確認を行うと利用できる。確認完了後、$100相当(2,500クレジット) がChatGPTの個人ワークスペースに自動付与される。 このクレジットはChatGPT Free・Go・Plus・Proプランに含まれるCodex利用枠を超えた分に充当でき、付与日から12ヶ月間有効。ただしAPIクレジットとは別扱いで、API経由では使用できない点に注意が必要だ。利用開始は chatgpt.com/codex/students から。 日本の学生は現時点で対象外だが、OpenAIが学生層への展開を本格化させている動向として注目される。国内大学でのChatGPT Enterprise/EDU導入が進む中、今後の日本展開も期待される。 レガシー深層調査モードは3月26日終了 ChatGPT(個人・Business・Enterprise/EDU)全プランで、旧来の「レガシー深層調査(Legacy Deep Research)」モードが2026年3月26日(木) に廃止される。 現行の深層調査機能や過去の会話履歴は引き続き利用可能で、ユーザーへの実質的な影響は限定的とされている。OpenAIは現行モードへの一本化を進めることで、機能の統合・保守コストを削減する狙いとみられる。 Enterprise/EDU向けにはインパクト調査機能も強化 ChatGPT Enterprise・EDUユーザー向けには「インパクト調査(Impact Survey)」機能の拡充も発表された。これまでEnterpriseのみだった調査機能がEDU(教育機関向け)にも展開され、専用の設問セットが追加される。調査結果のエクスポートや、ワークスペースオーナーによるオンデマンド実施も可能になった。 OpenAIの製品統合戦略が加速 今回の一連の発表は、OpenAIが進める製品ラインの統合・整理の一環と見られる。ChatGPT・Codex・Atlas(企業向け高機能版)を段階的に融合させ、単一のスーパーアプリとして展開する動きが進んでいる。さらにPythonエコシステムの主要ツール(ruff、uvなど)を開発するAstralの買収も伝えられており、Codexのコード実行・品質管理機能が大幅に強化されるとの見方も出ている。 AIアシスタントの「群雄割拠」から「統合プラットフォーム」へのシフトが、OpenAIを中心に加速しつつある。 元記事: OpenAI Is Merging ChatGPT, Codex, and Atlas Into One Desktop Superapp and Acquires Astral

March 24, 2026 · 1 min · 胡田昌彦

楽天AI 3.0はDeepSeek V3派生か——国産LLM最大級をめぐるライセンス問題が日本で波紋

楽天AI 3.0、DeepSeek V3との関連が浮上——ライセンス問題で波紋 楽天グループは2026年3月17日、約7000億パラメータの大規模言語モデル(LLM)「Rakuten AI 3.0」を公開した。経済産業省のAI開発支援プログラム「GENIAC」のバックアップを受け、「国内最大・最強クラスのLLM」として大きく打ち出された同モデルだが、公開からわずか1日で予期せぬ論争の的となった。 Hugging Faceの設定ファイルに「DeepSeek V3派生」の記述 オープンソースコミュニティの開発者たちは、Hugging Face上に公開されたモデルの設定ファイルに「アーキテクチャはDeepSeek V3に由来する」という記述を発見した。楽天のプレスリリースには中国のDeepSeekへの言及はなく、「オープンソースコミュニティの成果を取り入れた」という説明にとどまっていた。 さらに問題視されたのがライセンスの扱いだ。DeepSeek V3はMITライセンスで公開されており、再配布時に元のライセンス表記を保持することが求められる。しかし公開当初のコードパッケージにはその表記が含まれておらず、指摘を受けた後に「NOTICE」というファイル名で追加された。楽天側は本モデルをApache 2.0ライセンスでオープンソース公開すると説明しているが、MITライセンスとの整合性について疑問の声が上がっている。 アーキテクチャの一致——671億 vs 700億パラメータ 技術的な観点からも関連を示す状況証拠がある。Rakuten AI 3.0のアーキテクチャはMixture of Experts(MoE)方式で、総パラメータ数約7000億・アクティブパラメータ約370億という構成は、DeepSeek V3の6710億総パラメータ・370億アクティブという仕様と高い類似性を持つ。 楽天のChief AI Officer(CAO)を務めるTing Cai氏は「データ、エンジニアリング、革新的なアーキテクチャを大規模に組み合わせた驚くべき成果」と述べた。同氏はGoogleやApple、Microsoftでの勤務経験を持つベテランのAI研究者だ。 日本のAI開発に潜む構造的課題 今回の騒動は、日本のAI開発が抱える構造的な問題を浮き彫りにした。日経新聞の報道によると、日本企業が公開した有力モデルの上位10件のうち6件が、DeepSeekまたはアリババのQwenをベースにした二次開発品だという。 コスト効率の高い中国発アーキテクチャを活用することは開発期間や費用の圧縮につながる一方、帰属表示や出所の透明性が不十分だと公的信頼を損ない、ベンダーとの関係にも影響を及ぼしかねない。特に国費(GENIAC補助金)を受けて「海外プラットフォーム依存からの脱却」を掲げるプロジェクトにとっては、その矛盾が際立つ。 能力だけでなく「信頼性」が問われる時代へ 今回の一件は、生成AI競争の次の段階を示すシグナルとも言える。ベンチマークスコアや性能だけでなく、透明性のある帰属表示・一貫したライセンス運用・再現性の確保が、国産LLMの信頼を左右する時代になりつつある。政府支援を受けたAIプロジェクトにおいては特に、情報開示の在り方が今後の業界標準を形成していく可能性がある。 元記事: Rakuten AI 3.0 linked to DeepSeek V3, licensing questioned in Japan

March 24, 2026 · 1 min · 胡田昌彦

楽天AI 3.0とは何か?約7000億パラメータの日本語特化LLMが切り拓く実用AIの新時代

楽天、日本最大級の大規模言語モデル「Rakuten AI 3.0」を無償公開 楽天グループは2026年3月17日、日本語に特化した高性能AI基盤モデル「Rakuten AI 3.0」の一般公開を発表した。2025年12月に開発着手が明らかになって以来、継続的な改善を経て、ついに誰でも無償で利用できる形での正式リリースとなった。 MoEアーキテクチャと約7000億パラメータの技術的実力 Rakuten AI 3.0の核心は、Mixture of Experts(MoE) アーキテクチャの採用にある。MoEは推論時に必要なパラメータのみを選択的に活性化する設計で、単純なDenseモデルと比較して計算効率を大幅に向上させる手法だ。総パラメータ数は約7000億と国内最大級の規模を誇り、主要な日本語ベンチマークでGPT-4oを上回るスコアを記録したとされる。 想定する主なユースケースは、文章生成・コード生成・ドキュメント分析・情報抽出と、企業実務に直結する領域が中心だ。日本語の自然さと業務文書への対応力は、これまで海外LLMの利用で課題となっていた「日本語が不自然」「社内文書の取り扱いが難しい」という問題への直接的な回答といえる。 GENIACプロジェクトの成果——国家戦略と民間技術の融合 本モデルの開発背景として欠かせないのが、経済産業省・NEDOが推進する「GENIAC(Generative AI Accelerator Challenge)」だ。GENIACは生成AI基盤モデルの国産開発力を強化するために計算資源の提供や開発支援を行う国家プロジェクトで、楽天はその枠組みの中でRakuten AI 3.0を育ててきた。 つまりRakuten AI 3.0は、単なる一企業の実験的取り組みではなく、日本のAI産業基盤強化という国家的文脈の中から生まれたモデルである点が重要だ。日本企業が外部APIへの依存を減らし、独自のガバナンスを持ちながらAIを活用するための選択肢として、政策的な意味合いも持つ。 Apache 2.0ライセンスが意味すること 技術的な性能と同様に注目すべきは、Apache 2.0ライセンスでの公開という点だ。このライセンスは商用利用・改変・再配布を広く認めており、企業がモデルを自社システムに組み込んだり、ファインチューニングしてカスタマイズしたりする際の法的障壁が低い。GPT-4oのようなクローズドAPIと異なり、モデルの重みを手元に置いて運用できるため、情報漏洩リスクを抑えつつ社内AIとして展開したい企業にとって現実的な選択肢となる。 「楽天の社内AI」ではなく「日本語AI基盤」として捉える 楽天グループは「AI化」という概念を掲げ、ショッピング・金融・旅行・エンターテインメントなど70以上のサービスにAIを横断的に組み込む戦略を推進している。30カ国・地域で20億人超のサービス利用者を持つ同グループにとって、AIは新規事業ではなくインフラだ。Rakuten AI 3.0はその共通基盤の一つとして位置づけられている。 しかし同モデルの真の意義は、「楽天のための」モデルではなく、日本全体の企業・開発者が活用できる公開基盤として設計されている点にある。企業ITやDX部門、大量の日本語文書を扱う法務・人事部門、カスタムアプリへの組み込みを検討する開発者にとって、実用的な評価に値するマイルストーンが打たれたと言えるだろう。 まとめ 項目 内容 リリース日 2026年3月17日 パラメータ規模 約7000億(MoEアーキテクチャ) ライセンス Apache 2.0(商用利用・改変可) 開発背景 METI/NEDO GENIACプロジェクト 日本語性能 主要ベンチマークでGPT-4o超えを記録 Rakuten AI 3.0は、日本語AI活用における「実用フェーズへの移行」を象徴するモデルだ。商用グレードの性能・オープンなライセンス・国家支援という三拍子が揃った今、日本企業がAI内製化を本格検討する好機が訪れている。 元記事: What Is Rakuten AI 3.0? A Clear and Thorough Guide to Rakuten’s Latest LLM Advancing Practical Japanese AI

March 24, 2026 · 1 min · 胡田昌彦

Claude Codeが8時間で910件の実験を自動実行——AIエージェントが「自律研究」時代を切り開く

AIエージェントが「研究者」になる日が来た 研究者がClaude Codeエージェントに16基のGPU(グラフィックス処理装置)を与えて自由に走らせたところ、わずか8時間で910件もの実験を自動実行し、従来の逐次探索では到達できなかった解を発見した——そんな事例が2026年3月、世界中の機械学習コミュニティで大きな話題となっている。 この試みで特筆すべきは、単なるスピードではない。エージェントが人間の研究者が見落としがちなパターンを自律的に捉えた点だ。仮説の立案・実験設計・結果の評価というサイクルを、睡眠も休憩もなく回し続けた結果、研究の質そのものが底上げされた。AIによる「自律研究(Autonomous Research)」が現実のものとなりつつある。 Anthropicが「Claude Opus 4.6」をリリース 上記の事例を技術的に支えているのが、Anthropicが同月リリースしたClaude Opus 4.6だ。Claudeファミリー最高性能モデルとなる今作の最大の特徴は、100万トークンのコンテキストウィンドウ。コードベース全体・長大なドキュメント・数日にわたる会話履歴をまるごと処理できる。 主な強化点は以下のとおり: エージェント能力の向上:計画立案・ツール活用・自律的なマルチステップワークフロー全般が改善 コーディング性能の大幅強化:実世界のコーディングベンチマークで顕著なスコアアップ 高速モード(Fast Mode)の追加:同一モデルをスループット最適化で高速出力 100万トークンのコンテキストは、エージェントがプロジェクト全体を「記憶しながら」作業できることを意味する。個別ファイルではなく、プロジェクト全体の文脈を保ち続ける点が、コーディングエージェントやデータ分析ワークフローにとって特に大きい。 企業導入が急加速——Fortune 500の67%が本番運用中 AIエージェントの企業採用も今月、急速に可視化されてきた。複数のレポートが同じ傾向を示している。 指標 数値 Fortune 500でのAIエージェント本番運用率 67%(2025年の34%から倍増) 最多ユースケース 顧客サービス(42%)、データ分析(28%)、コーディング支援(19%) カスタマーサポートでのコスト削減率 平均35% 2026年Q1のAIエージェントスタートアップへの投資額 42億ドル 具体的な事例として、WalmartがCrewAIベースのエージェントをサプライチェーン最適化に展開。JPMorgan(JPモルガン)は200体以上の金融分析特化エージェントを稼働させ、Shopify(ショッピファイ)はマーチャントサポートにAIエージェントを統合し、問い合わせの60%を自律処理している。 主要フレームワークも一斉アップデート エージェント開発の基盤となるフレームワークも今月、相次いで大型アップデートを発表した。 CrewAI 0.85では階層的なチーム管理を担うManagerAgentが追加されたほか、より長い作業フロー越しに文脈を保持するメモリ改善が施され、委譲の最適化によってトークン消費量が40%削減された。 LangGraph 0.3はドラッグ&ドロップでエージェントワークフローを構築できるビジュアルグラフエディタ(ベータ版)を搭載。状態復元が3倍高速になった新チェックポイント形式も注目点だ。 AutoGen 0.5はアーキテクチャを全面刷新。大規模なエージェント協調向けの「Swarmモード」と、Dockerネイティブなエージェントデプロイメントを実現した。 「実験の自動化」から「研究の自動化」へ 冒頭の910件実験の事例は、AIエージェントが単純なタスク自動化を超え、科学的探索そのものを担い始めた象徴的な出来事だ。日本の研究機関や企業R&D部門にとっても、「AIエージェントに研究の一部を任せる」という選択肢が現実味を帯びてきた。2026年は、AIが道具から「同僚」へと変わっていく年になるかもしれない。 元記事: Claude Code agents run 910 experiments in 8 hours using 16 GPUs

March 24, 2026 · 1 min · 胡田昌彦

Yann LeCunのAMIラボ、欧州史上最大の10億ドルシードラウンドを調達——LLMに代わる「ワールドモデル」で物理世界を理解するAIへ

チューリング賞受賞者が描く「次世代AI」——LLMを超えるワールドモデルとは MetaのチーフAIサイエンティストとして知られるYann LeCun氏が設立した新スタートアップ「Advanced Machine Intelligence(AMI)Labs」が、シードラウンドで10億3,000万ドル(約1,500億円)の資金調達に成功した。欧州のスタートアップ史上最大規模のシードラウンドとして記録を塗り替えた今回の調達では、評価額は35億ドル(約5,000億円)に達している。 NvidiaやBezosも支援——錚々たる投資陣が集結 今回の調達には、AIチップ大手のNvidia、Amazon創業者ジェフ・ベゾス氏の投資ファンド「Bezos Expeditions」、シンガポールの政府系ファンド「Temasek」など、テック・投資業界の重要プレイヤーが名を連ねた。パリを拠点とするAMI Labsは、深層学習の父の一人として知られるLeCun氏の「LLMへの根本的な批判」を実装する場として注目を集めている。 LLMではなく「ワールドモデル」——LeCunが否定するテキスト予測の限界 AMI Labsが開発するのは「ワールドモデル(World Models)」と呼ばれる新しいAIアーキテクチャだ。ChatGPTやGeminiに代表される大規模言語モデル(LLM)がテキストの次のトークンを予測することで動作するのに対し、ワールドモデルは物理世界の法則そのものを学習・理解することを目指す。 LeCun氏はかねてより「LLMは人間レベルの知能に到達できない」と主張してきた。人間の子供が少ない経験から物理的な因果関係を素早く学習できるのに対し、LLMはテキストという間接的な情報だけを処理するため、世界の真の理解には本質的な限界があるという立場だ。ワールドモデルはこの批判を具体的な代替アーキテクチャとして実装しようとするものであり、AI研究コミュニティ内でも賛否両論を巻き起こしている。 ターゲットはロボティクス・医療・製造——「使えるAI」の実装へ AMI Labsが注力するのは、ロボティクス、ヘルスケア、製造業への実用応用だ。これらの分野では、物理的な環境の理解や因果推論が不可欠であり、テキスト生成を得意とするLLMが苦手とする領域でもある。 日本においても製造業のAI活用は重要課題となっており、工場自動化やロボット制御での高精度な物理モデリングへの需要は高い。AMI Labsのアプローチが実用化されれば、「LLMが使えなかった現場」に新たな可能性をもたらす可能性がある。 AI業界の構造変化を示す10億ドルの賭け 今回の資金調達は、AI業界が「より賢いLLMを作る競争」から「LLMの根本的な限界を乗り越える研究」へとシフトしつつあることを象徴している。OpenAI、Google、Anthropicが巨大な資金でLLMの高度化を追求する一方で、AIの「次のパラダイム」を模索する動きが加速している。 チューリング賞受賞者が設立し、Nvidiaが投資するスタートアップが「LLMでは不十分だ」というテーゼを掲げて欧州から挑む——この10億ドルの賭けの行方は、今後数年のAI研究の方向性に大きな影響を与えるだろう。 元記事: Yann LeCun’s AMI Labs raises $1.03 billion seed round for ‘world models’

March 24, 2026 · 1 min · 胡田昌彦

Linux FoundationがAIエージェント標準化団体「Agentic AI Foundation」を設立——OpenAI・Anthropic・AWS・Googleが参画

Linux Foundation主導でAIエージェントの業界標準化が本格始動 Linux Foundationは、AIエージェント技術の標準化を推進する新たな業界団体「Agentic AI Foundation(AAIF)」の設立を発表した。OpenAI、Anthropic、AWS、Google、Microsoftといったビッグテック各社がプラチナメンバーとして参画しており、AIエージェントの相互運用性と信頼性の確立を目指す。 創設プロジェクトに名を連ねる注目技術 AAIFの創設プロジェクトとして参加するのは以下の3つだ。 MCP(Model Context Protocol) — Anthropicが開発したオープンプロトコルで、AIモデルと外部ツール・データソースを標準的な方法で接続する仕様。すでに多くのIDEやAIツールが対応しており、事実上の業界標準として普及しつつある Goose — Blockが開発するオープンソースのAIエージェントフレームワーク。開発者が自律型エージェントを構築・実行するための基盤を提供する AGENTS.md — OpenAIが提案する仕様で、リポジトリやプロジェクトにAIエージェントの動作指針を記述するための標準フォーマット。README.mdのエージェント版と理解するとわかりやすい なぜ今、標準化が必要なのか 2024年から2025年にかけて、AIエージェント技術は急速に実用段階へ移行した。単一のタスクをこなすチャットボットではなく、複数のツールを自律的に呼び出し、複雑なワークフローを実行するエージェントが企業システムに組み込まれ始めている。 しかし現状では、各社がバラバラな実装を持ち込んでおり、異なるエージェントシステム間の連携が困難だ。AAIFはこの課題に対し、ベンダーニュートラルな標準仕様とガバナンス体制を整備することで解決を図る。 Linux FoundationはこれまでKubernetes(CNCF)やNode.js(OpenJS Foundation)など、オープンソース技術の標準化・中立化で実績を持つ。AIエージェント分野でも同様のアプローチで、特定企業に依存しないエコシステムの構築を狙う。 日本企業への影響 MCPはすでにCursor、VS Code、Claude Desktopなど日本でも広く使われるツールに実装されており、AAIFの動向は国内の開発者・企業にとっても無縁ではない。エンタープライズ向けAIエージェント導入を検討する組織は、AAIF標準への準拠が将来的な相互運用性確保の鍵になる可能性がある。 AAIFの詳細なガバナンス体制や技術仕様の公開は今後予定されており、引き続き注目が必要だ。 元記事: OpenAI co-founds the Agentic AI Foundation under the Linux Foundation

March 24, 2026 · 1 min · 胡田昌彦

OpenAI、軽量高速モデル「GPT-5.4 mini」と「GPT-5.4 nano」を正式リリース——エージェントAI時代の新定番へ

OpenAI、軽量推論モデル2種を投入——エージェントAI向けに最適化 OpenAIは3月17日、新たな軽量言語モデル「GPT-5.4 mini」と「GPT-5.4 nano」を正式にリリースした。両モデルは、AIエージェントが複数の小タスクを並列処理する「サブエージェント(subagent)」ワークフローへの組み込みを主な用途として設計されており、高いスループットと低レイテンシーを両立している点が特徴だ。 軽量化でも「考える力」は健在——Thinkingモード搭載 今回のモデルで注目すべきは、推論能力を高める「Thinking(思考)」機能が搭載されている点だ。これまでは上位モデルや有料プランのユーザー向けに提供されていたこの機能が、今回のリリースに伴いChatGPTの無料ユーザーにも開放された。 Thinkingモードは、モデルが回答を生成する前に内部で段階的な推論を行う仕組みで、複雑な質問や多段階の問題解決において精度を高める効果がある。Google DeepMindのGemini Thinkingや、Anthropicが推進するExtended Thinkingと同様のアプローチであり、各社が推論能力の民主化を競っている構図が鮮明になっている。 Deep Researchモードは3月26日に終了 リリースと同時に、既存の「Deep Research」モードが3月26日をもって廃止されることも発表された。Deep Researchは、複数ステップにわたるWeb検索と文書統合を自動で行う機能として注目を集めていたが、新モデルの登場によってその役割が刷新される形となる。 日本のユーザーや開発者にとっては、APIコストの低い軽量モデルが充実することで、チャットボット・社内ナレッジ検索・コード補完など多様な用途でのAI活用がより現実的になることが期待される。 「mini」と「nano」——何が違うのか 現時点での公式情報によると、GPT-5.4 miniは精度とスピードのバランスを重視した汎用サブエージェント向けモデルで、GPT-5.4 nanoはさらに軽量化を突き詰めた超高速処理向けモデルと位置付けられている。具体的なパラメータ数やベンチマーク比較については順次公開される見込みだ。 OpenAIは近年、大規模モデル(GPT-4oやo3)と小型高速モデルの二軸展開を加速させており、今回のリリースはその戦略の延長線上にある。AIエージェントの普及が進む中、推論コストの削減は開発者・企業双方にとって重要な課題であり、miniとnanoの投入はその解決策の一端を担う。 今後は、Microsoft Azure OpenAI ServiceやAmazon Bedrockなどのクラウドプラットフォームへの統合も予想され、日本企業が利用する既存の業務AIシステムへの組み込みも容易になりそうだ。 元記事: OpenAI launches GPT-5.4 mini and nano

March 24, 2026 · 1 min · 胡田昌彦

Google、Gemini 3.1 Proを発表——推論性能が前世代比2倍超、ARC-AGI-2で77.1%を達成

Google、Gemini 3.1 Proを正式発表——推論AIの新基準へ Googleは2026年2月19日、最新のAIモデル「Gemini 3.1 Pro」を発表した。同モデルは複雑な問題解決を必要とするタスクに特化して設計されており、開発者・企業・一般ユーザー向けに段階的に提供が開始されている。 推論性能が前世代比2倍超に向上 最も注目すべき点は、推論ベンチマーク「ARC-AGI-2」における圧倒的な性能向上だ。ARC-AGI-2は、AIモデルがまったく新しい論理パターンを解く能力を評価するもので、汎用人工知能(AGI)研究の指標として世界的に注目されている。Gemini 3.1 Proはこのベンチマークで77.1%のスコアを達成。前世代の「Gemini 3 Pro」から推論性能が2倍以上に向上したとGoogleは説明している。 利用可能なプラットフォーム Gemini 3.1 Proは以下のプラットフォームで順次展開される。 開発者向け: Gemini API(Google AI Studio)、Gemini CLI、エージェント開発プラットフォーム「Google Antigravity」、Android Studio(プレビュー) 企業向け: Vertex AI、Gemini Enterprise 一般ユーザー向け: Geminiアプリ、NotebookLM 「単純な回答では不十分なタスク」に対応 Googleは3.1 Proを「単純な回答では不十分なタスク向け」と位置づけている。具体的なユースケースとして以下が挙げられている。 コードベースのアニメーション生成: テキストプロンプトからWebサイトに直接埋め込めるSVGアニメーションを純粋なコードで生成。ピクセルではなくコードで構築されるため、どのサイズでも鮮明に表示でき、従来の動画と比較してファイルサイズを大幅に削減できる。 複雑なシステムの統合: 国際宇宙ステーション(ISS)の軌道をリアルタイムで可視化する航空宇宙ダッシュボードの構築など、複雑なAPIとユーザーフレンドリーなデザインの橋渡しを担う。 インタラクティブな3Dデザイン: ムクドリの群れ(マーマレーション)を模した3Dシミュレーションをコード生成し、ハンドトラッキングで操作できるインタラクティブ体験を実現。 文学テーマのコード化: 文学作品のテーマをWebポートフォリオとして機能するコードに変換するなど、創造的なコーディングにも対応。 エージェントワークフローへの活用も視野に Googleは今回のリリースを「エージェントワークフローをさらに前進させるための検証」と位置づけており、金融データのスプレッドシート操作や自律的なタスク処理など、AIエージェントとしての活用が期待されている。 なお、先週発表された「Gemini 3 Deep Think」は科学・研究・エンジニアリング分野の現代的課題に特化した上位モデルであり、今回の3.1 Proはその「コアインテリジェンス」として位置づけられている。日本でも既にGeminiアプリやVertex AIを通じた利用が可能で、開発者・企業双方にとって実用的な選択肢が広がった形だ。 元記事: Gemini 3.1 Pro: Announcing our latest Gemini AI model

March 24, 2026 · 1 min · 胡田昌彦

NVIDIAがGTC 2026でオープンソースのエンタープライズAIエージェント基盤「NVIDIA Agent Toolkit」を発表——Adobe・Cisco・SAPら16社以上が採用へ

NVIDIAがナレッジワークの次世代産業革命を宣言——オープンなAIエージェント開発基盤を公開 NVIDIAは2026年3月開催の開発者向け最大イベント「GTC 2026」において、エンタープライズ向けAIエージェント開発プラットフォーム「NVIDIA Agent Toolkit」をオープンソースとして公開することを発表した。同社は今回の発表を「ナレッジワーク(知識労働)における次の産業革命の幕開け」と位置づけており、企業が自社業務にAIエージェントを本格導入するための包括的な基盤を提供する。 セキュリティとガバナンスを両立する「OpenShell™」 今回の発表で特に注目を集めているのが、OpenShell™(オープンシェル)と呼ばれるセキュリティポリシー強制機能だ。AIエージェントが企業システム内で自律的に動作する際、承認されていない操作や機密データへの不正アクセスを防止するポリシー制御レイヤーとして機能する。エンタープライズ導入における最大の課題の一つである「AIの暴走リスク」に対し、設計段階からセキュリティを組み込む「Security by Design」のアプローチを採用している点が評価されている。 LangChain連携の「AI-Q Blueprint」でRAG構築を簡素化 もう一つの柱となるAI-Q Blueprintは、人気オープンソースフレームワーク「LangChain」と連携した検索拡張生成(RAG: Retrieval-Augmented Generation)パイプラインの雛形を提供する。企業が保有する社内文書・ナレッジベースとLLM(大規模言語モデル)を組み合わせたAIエージェントを、最小限の開発工数で構築できる設計となっている。日本でも社内文書検索やカスタマーサポート自動化への応用が期待される。 国際大手16社以上が採用表明 発表と同時に、Adobe、Cisco、SAP、Salesforceをはじめとする16社以上のグローバル企業がNVIDIA Agent Toolkitの採用を表明した。特にSAPやSalesforceはERP・CRMとAIエージェントの統合に活用することで、企業のバックオフィス業務から営業支援まで幅広い自動化を進める方針だ。 日本市場においても、NVIDIAパートナーエコシステムを通じた展開が見込まれており、SAPやSalesforceを導入済みの国内大企業への波及効果が注目される。 オープン戦略でエコシステム拡大を狙う NVIDIAがAIエージェント基盤をオープンソースで提供する背景には、GPU販売だけでなくエンタープライズAIのソフトウェアスタック全体を押さえるという長期戦略がある。競合するMicrosoft(Azure AI)やAmazon(AWS Bedrock)との差別化として、ハードウェアとの深い統合によるパフォーマンス最適化を打ち出している。 GTC 2026での今回の発表は、AIエージェントがPoC(概念実証)段階を超え、いよいよ本格的なエンタープライズ展開フェーズに入りつつあることを印象付けるものとなった。 元記事: NVIDIA Ignites the Next Industrial Revolution in Knowledge Work With Open Agent Development Platform

March 24, 2026 · 1 min · 胡田昌彦

NvidiaのジェンスンCEO「AGIはもう達成された」——しかしすぐに発言を修正

NvidiaのジェンスンCEO「AGIはもう達成された」——しかしすぐに発言を修正 Nvidia(エヌビディア)のCEOであるジェンスン・ファン(Jensen Huang)氏が、3月23日に公開されたLex Fridman(レックス・フリードマン)ポッドキャストの中で「私たちはすでにAGI(汎用人工知能)を達成したと思う」と発言し、AI業界に波紋を呼んでいる。 AGIとは何か AGI(Artificial General Intelligence/汎用人工知能)とは、人間と同等かそれを超える知的能力を持つAIを指す用語だが、その定義は専門家の間でも統一されていない。近年、OpenAIのサム・アルトマン氏やメタのマーク・ザッカーバーグ氏といったテック企業トップたちが「AGI」という表現を避け、独自の用語を作り出す動きが見られる。過度に期待感を煽るイメージを払拭したい意図があるとみられるが、実質的に意味するところはAGIと大差ないとの指摘も多い。 AGIはビジネス面でも重要な意味を持ち、OpenAIとMicrosoftの契約においても「AGI達成」の定義をめぐって多額の資金が絡む条項が存在すると報じられている。 「AGIは今だ」——ファン氏の発言 ポッドキャストのホストであるフリードマン氏は、AGIを「10億ドル以上の価値を持つテック企業を起業・成長・経営できるAIシステム」と定義した上で、ファン氏に「AGI実現まであと何年か——5年、10年、15年、20年?」と問いかけた。 ファン氏はこれに対し、「今だと思う。AGIはもう達成されていると思う」と答えた。 フリードマン氏が「その発言で多くの人が興奮するだろう」と返すと、ファン氏はオープンソースのAIエージェントプラットフォーム「OpenClaw」の急速な普及を例に挙げ、「人々が個々のAIエージェントを様々な用途に使い始めている。デジタルインフルエンサーや、たとえばたまごっちのようなソーシャルアプリが突然ヒットしても驚かない」とAIエージェント活用の広がりを強調した。 直後に発言を修正 ただし、ファン氏は同じ場でこの発言を一部撤回するような発言も行っている。「多くの人が数か月使って、それきりになることもある。10万のエージェントがNvidiaのような会社を作り上げる確率はゼロパーセントだ」と述べ、AGI達成の主張を慎重に言い直した形だ。 AGIをめぐる議論は技術的・哲学的に根深く、明確な定義なしには「達成」を語ること自体が難しい。ファン氏の発言は業界の楽観論を体現する一方で、その曖昧さも浮き彫りにしている。日本のAI研究者や産業界においても、AGI議論は今後ますます重要な論点になってきそうだ。 元記事: Nvidia CEO Jensen Huang says ‘I think we’ve achieved AGI’

March 24, 2026 · 1 min · 胡田昌彦

Claude Codeチートシート完全版 — キーボードショートカットからMCPサーバー設定まで網羅

Claude Code使いこなしのすべてが1ページに Anthropicが提供するターミナル統合型AIコーディングアシスタント「Claude Code」の全機能を網羅したチートシートが公開され、Hacker Newsで181ポイントを獲得するなど開発者コミュニティで大きな反響を呼んでいる。 キーボードショートカット Claude Codeには多くのショートカットが用意されている。基本操作として Ctrl+C で入力/生成のキャンセル、Ctrl+L で画面クリア、Ctrl+R で履歴の逆検索が使える。ユニークなのは Ctrl+B でタスクをバックグラウンド実行できる点で、重い処理を走らせながら別の指示を出すことが可能だ。Esc キーを2回押すと直前の操作を取り消す「Rewind」機能も便利だろう。 モード切り替えでは Shift+Tab でパーミッションモードをサイクル切り替え、Alt+T でThinking(推論)モードのオン/オフを即座に切り替えられる。 スラッシュコマンド / で始まるスラッシュコマンドも充実している。コンテキスト管理の /compact [focus] は長い会話を圧縮して重要な文脈だけを保持するもので、長時間の開発セッションで重宝する。新機能として追加された /effort [low|med|high] はモデルの推論深度を手動で制御でき、単純なタスクにOpusを全力投球させる無駄を省ける。 /btw <質問> は現在のコンテキストを消費せずにサイドクエスチョンを投げられる機能で、コストを抑えながら気になる点を確認できる実用的なコマンドだ。 MCPサーバー連携 Model Context Protocol(MCP)サーバーの追加は --transport http(リモートHTTP、推奨)、--transport stdio(ローカルプロセス)、--transport sse(リモートSSE)の3方式に対応。スコープはローカル・プロジェクト・ユーザーの3段階で管理でき、チームで共有する設定は .mcp.json にコミットして全員が同じ環境で使えるようにすることが推奨されている。 また新機能「Elicitation」により、MCPサーバーがタスク実行中にユーザーへ入力を要求できるようになり、よりインタラクティブなワークフロー構築が可能になった。 メモリとCLAUDE.md Claude Codeのメモリ機構は./CLAUDE.md(プロジェクト共有)、~/.claude/CLAUDE.md(個人全プロジェクト共通)、/etc/claude-code/(組織全体管理)の3層構造になっている。Auto Memory機能では ~/.claude/projects/<プロジェクト>/memory/ 配下に MEMORY.md とトピック別ファイルが自動管理され、セッションをまたいで文脈が継続する。 ワークフローのヒント 並行開発に便利なGit Worktrees統合では --worktree name オプションで機能ごとに隔離されたブランチを作成でき、複数のエージェントが干渉なく同時作業できる。コンテキスト上限(現在Opus 4.6でMaxプラン以上なら100万トークン)に近づくと自動コンパクトが発動し、CLAUDE.md の内容はコンパクション後も保持される仕様だ。 ヘッドレス/SDK利用では claude -p "クエリ" で非インタラクティブ実行が可能で、--max-budget-usd 5 でコストキャップを設定できる点はCI/CDパイプラインへの組み込みで特に有用だ。 Claude Codeは急速に機能が拡充されており、このチートシートは定期的に更新されているとのこと。普段使いのショートカットから高度なMCP連携まで、改めて全機能を把握し直すよい機会となりそうだ。 元記事: Claude Code Cheat Sheet ...

March 24, 2026 · 1 min · 胡田昌彦

DeepSeek V4、テキスト・画像・動画を統合するマルチモーダルAIとして間もなくリリースか——オープンモデル最強候補

DeepSeek V4、マルチモーダルAIとして間もなく登場か 中国のAI企業DeepSeekが開発する次世代モデル「V4」が、テキスト・画像・動画生成を単一アーキテクチャに統合したマルチモーダルAIシステムとして登場する見通しだ。フィナンシャル・タイムズなど複数の信頼性の高い情報源がその詳細を伝えている。 コーディング特化からマルチモーダルへ方針転換 2026年2月に明らかになった当初の情報では、V4はコーディング性能に特化したモデルとされていた。700億パラメータ超のアーキテクチャ、SWE-benchでの記録更新を狙った設計、Engramメモリによる最大100万トークンのコンテキストウィンドウ——これらが主な特徴として語られていた。 しかし3月に入って状況は大きく変わった。V4は今やコーディング専用モデルではなく、テキスト・画像・動画をひとつのモデルで生成できる統合マルチモーダルシステムとして位置づけられている。これはOpenAIの「GPT-4o」やGoogleの「Gemini 3」シリーズと真っ向から競合する設計だ。 オープンソースで公開されれば業界に激震 DeepSeek V4が注目される最大の理由は、MIT または Apache 2.0 ライセンスでのオープンウェイト公開が見込まれている点だ。もし実現すれば、画像・動画生成まで含む史上最強クラスのオープンソースマルチモーダル基盤モデルとなる。 OpenAIの「Sora」、GoogleのVeo 3、Runwayの「Gen-3」といった動画生成AIはいずれもクローズドなプロプライエタリシステムだ。これらに対抗できるオープンウェイトの選択肢が登場すれば、研究者や開発者はクローズドAPIへの依存なしにマルチモーダルアプリケーションを構築できるようになる。 統合アーキテクチャの技術的優位性 DeepSeek V4のマルチモーダル設計は、テキスト・画像・動画を別々のモデルに分離せず、単一フレームワーク内で統合的に扱う点が特徴だ。Gemini 3 Proなどが各モダリティに個別パイプラインを持つのとは異なるアプローチを採る。 この統合型設計の利点は「一貫性(コヒーレンス)」にある。テキストに添える画像を生成する際も、生成した動画にナレーションをつける際も、各モダリティが独立して動くのではなく共有された意味理解をもとに連携して動作する。 基盤技術として、2026年1月に発表されたアーキテクチャ革新——静的知識をシステムDRAMにオフロードしてスループット低下を3%未満に抑える「Engramメモリ」と、兆パラメータ規模の学習安定化を図る「Manifold制約ハイパーコネクション」——が引き続き採用される見込みだ。 ソフトローンチ戦略の可能性も 3月9日には「V4 Lite」が静かにリリースされたとの情報もあり、段階的なロールアウト戦略が取られている可能性がある。内部ベンチマークでは長文コーディングタスクでClaudeやChatGPT(GPT-4系)を上回る結果が出ているとも報告されているが、公式確認はまだ取れていない。 正式リリースの時期や最終的なスペックについては、引き続き動向を注視する必要がある。 元記事: DeepSeek V4 Multimodal Launch Imminent: Text, Image, and Video in One Open Model

March 24, 2026 · 1 min · 胡田昌彦

OpenAI、エンタープライズ向けAIエージェント基盤「Frontier」を正式発表——企業のAI業務統合を加速

OpenAI、企業向けAIエージェント基盤「Frontier」を正式発表 OpenAIは、エンタープライズ(大企業)向けに特化したAIエージェント構築・展開・管理プラットフォーム「OpenAI Frontier」を正式発表した。同プラットフォームは、企業が実務環境で活用できる独自のAIエージェントを開発・運用するための包括的な基盤を提供するもので、AIの業務統合を次のステージへと引き上げることを狙いとしている。 AIエージェント活用の「基盤」を企業に提供 これまで企業がAIを業務に組み込む場合、個別のAPIやモデルを組み合わせて独自システムを構築する必要があり、技術的なハードルが高かった。OpenAI Frontierは、そのような課題に対応するべく設計されており、エージェントの構築(Build)・展開(Deploy)・管理(Manage)の3フェーズを一貫してサポートするという。 企業は同プラットフォームを通じて、カスタマーサポートの自動化、社内ナレッジベースとの連携、業務フローの自律的な実行といった高度なAIエージェントを、自社のセキュリティポリシーやコンプライアンス要件に沿った形で構築・運用できるようになる。 日本企業への影響 日本においても、製造業・金融・医療・官公庁などでAI活用が急速に進んでいるが、エンタープライズ要件(セキュリティ、監査ログ、アクセス制御など)を満たす形でのAI導入はまだ発展途上だ。OpenAI Frontierのような管理基盤が整備されることで、企業のIT部門がより安心して本格的なAIエージェント導入に踏み切れる環境が整いつつある。 また、MicrosoftはOpenAIとの深い提携関係にあり、Azure OpenAI Serviceを通じた日本市場への展開も注目される。Frontierの機能がAzureエコシステムと統合されれば、日本企業にとってのアクセスしやすさはさらに向上すると見られる。 競合各社との競争激化 エンタープライズ向けAIエージェント基盤をめぐっては、GoogleのVertex AI AgentやAmazonのBedrock Agentsなど、主要クラウドベンダーも積極的に展開を進めている。OpenAIがFrontierとして独自プラットフォームを打ち出すことで、モデルプロバイダーとしての立場を超え、エンタープライズAI基盤のプレイヤーとしての地位を確立しようとする戦略的な意図が読み取れる。 AIエージェントが「試験的な導入フェーズ」から「業務の中核を担う存在」へと移行するなか、OpenAI Frontierはその転換点を象徴するプロダクトといえそうだ。今後の機能拡充や価格体系の詳細発表が注目される。 元記事: Introducing OpenAI Frontier

March 24, 2026 · 1 min · 胡田昌彦

OpenAI、GPT-5ベースのセキュリティAIエージェント「Aardvark」発表——脆弱性調査を自律実行

OpenAI、自律型セキュリティAIエージェント「Aardvark」を発表 OpenAIは、セキュリティ調査に特化したAIエージェント「Aardvark」(現在は「Codex Security」に改称)を発表した。GPT-5を基盤とし、脆弱性の発見から調査まで自律的に実行できるエージェントで、ChatGPT Enterprise・Business・Edu向けに研究プレビューとして公開されている。 セキュリティ分野へのAIエージェント進出 Aardvarkは、人間のセキュリティ研究者が行うような脆弱性調査プロセスを自律的にこなすことを目指して設計されている。コードの静的解析にとどまらず、実際の脆弱性パターンを追跡・分析し、潜在的なリスクを特定する能力を持つとされる。 AIエージェント(AI Agent)とは、与えられた目標に向けて自律的に計画・実行・判断を繰り返すAIシステムのことだ。従来のAIアシスタントが「質問に答える」受動的な役割に留まるのに対し、エージェントは自ら行動を起こし、複数ステップのタスクを完遂できる点が大きく異なる。 企業セキュリティチームへの実用価値 セキュリティエンジニアの慢性的な人材不足が続く現在、Aardvarkのようなエージェントは組織のセキュリティ態勢強化に大きく貢献する可能性がある。脆弱性スキャンやペネトレーションテスト(侵入テスト)の一部を自動化することで、人間の専門家はより高度な判断が求められる作業に集中できるようになる。 日本でも、経済産業省や内閣サイバーセキュリティセンター(NISC)がサイバーセキュリティ人材育成を急務と位置付けている中、AI支援によるセキュリティ自動化への関心は高まりつつある。 「研究プレビュー」としての慎重なアプローチ OpenAIが本ツールを「研究プレビュー」として限定公開している点は注目に値する。攻撃的なセキュリティ手法にも応用できるデュアルユース(二重用途)技術であるため、悪用リスクへの配慮が伺える。エンタープライズ契約ユーザーに対象を絞ることで、利用者の管理とフィードバック収集を慎重に進める方針とみられる。 AIエージェント時代のセキュリティ GitHubのCopilot、GoogleのProject Marinerなど、コーディング支援を超えた自律型AIエージェントの登場が相次いでいる。Aardvarkはその流れをセキュリティ領域に持ち込んだ先駆的な事例であり、AIが「使うツール」から「自ら動くパートナー」へと進化する転換点を象徴している。 OpenAIは今後、フィードバックをもとに機能拡充を進め、より広いユーザー層への展開を検討していると見られる。 元記事: Introducing Aardvark: OpenAI’s agentic security researcher

March 24, 2026 · 1 min · 胡田昌彦

ChatGPT無料ユーザーが2026年3月に実際に使えるモデルは何か——GPT-5.4の誤解を整理する

「GPT-5.4が無料で使える」は本当か? 公式ドキュメントから読み解く実態 2026年3月、OpenAIのモデルラインナップに「GPT-5.4」が登場したことで、「無料ユーザーも最新モデルが使えるようになった」という期待が広がっている。しかし公式ドキュメントを丁寧に読み解くと、実態はやや異なる。 無料プランで明確に使えるのはGPT-5.3 OpenAIのヘルプセンターが2026年3月時点で無料プランについて明示しているのは、GPT-5.3へのアクセスだ。具体的なルールも示されており、無料アカウントは5時間ごとに最大10メッセージをGPT-5.3で送信できる。上限を超えると、より軽量な「miniモデル」に自動切り替えとなり、制限がリセットされるまでその状態が続く。 この仕様が重要なのは、「GPT-5.4が存在する」という事実と「無料ユーザーがGPT-5.4を使える」という話が、まったく別の話だからだ。ChatGPTのプラットフォーム上にGPT-5.4が存在することは確かだが、無料プランで明文化されているモデルはあくまでGPT-5.3にとどまる。 GPT-5.4は有料プラン向け OpenAIの料金体系では、モデルの利用可能範囲が明確に区分されている。 モデル 無料 有料(一般) 上位プラン(Pro等) GPT-5.3 ◯(10回/5時間) ◯ ◯ GPT-5.4 Thinking ✗ ◯(モデル選択可) ◯ GPT-5.4 Pro ✗ 一部✗ ◯ GPT-5.4 Proについては、無料プランのみならず一部の低価格有料プランでも利用不可とされており、ProプランやそれEに準ずる上位プランが対象となっている。 なぜ混乱が生まれるのか 混乱の原因のひとつは、OpenAIのモデル命名体系の複雑さだ。GPT-5.3、GPT-5.4、GPT-5.4 Thinking、GPT-5.4 Pro——これらは似た名前を持ちながら、それぞれ異なる機能・価格帯に対応している。加えて、旧来のGPT-5.1系モデルが順次廃止されていく流れの中で、ユーザーが「最新モデルに移行した=無料で使える」と誤解しやすい状況が生まれている。 OpenAIが「GPT-5.4が存在する」と公式に認めている一方で、無料ユーザー向けの明確なドキュメントはGPT-5.3を中心に記述されている。GPT-5.4 Thinkingが内部的なルーティングとして無料ユーザーに一部適用されているかどうかは、現時点の公式ドキュメントからは確認できない。 日本のユーザーへの示唆 日本でもChatGPTの無料プランを活用するユーザーは多い。「最新モデルが無料になった」という情報をSNSやメディアで目にする機会も増えているが、実際には5時間に10回というGPT-5.3の制限が基本となる。より高度な推論機能(Thinking系)や高性能なPro版を日常的に活用したい場合は、有料プランへの移行を検討する必要がある。 AIツールの「無料で使える範囲」は、発表内容をそのまま受け取るのではなく、公式の料金・制限ドキュメントを確認する習慣が重要だ。 元記事: ChatGPT 5.4 free in March 2026: what free users actually get, what is not included

March 24, 2026 · 1 min · 胡田昌彦

小米がGPT-5.2に挑む1兆パラメータAI「MiMo-V2-Pro」を無料公開——コストは圧倒的に低く、性能は最前線級

スマホメーカーがAI最前線へ——小米「MiMo-V2-Pro」の衝撃 世界第3位のスマートフォンメーカーであり、電気自動車(EV)「SU7」「YU7」を展開する小米(シャオミ)が、生成AI最前線に本格参入した。同社が発表したMiMo-V2-Proは、総パラメータ数1兆(1T)を持つ大規模言語モデル(LLM)だが、その設計思想はチャット向け汎用モデルではなく「AIエージェントの頭脳」として最適化されている点が異色だ。 DeepSeek R1の立役者が率いる開発チーム 開発を主導するのは、DeepSeekの「R1」プロジェクトで中心的な役割を担ったFuli Luo氏。同氏は本モデルを「フロンティアへの静かな奇襲」と表現しており、純粋な会話ベンチマークではなく、ターミナル操作・コード実行・ツール連携といった「行動空間(Action Space)」での優位性を競争軸に据えている。 この方向性は小米のハードウェア事業と無関係ではない。IoTデバイスやEVで培ったリアルタイム判断・制御のノウハウを、デジタル環境全般に応用する試みとして位置付けられている。 MoEで1兆パラメータの「推論コスト問題」を解決 MiMo-V2-Proの技術的な肝はスパースなMixture-of-Experts(MoE)アーキテクチャだ。総パラメータは1兆だが、1回の推論(フォワードパス)で実際に動くのは約420億(42B)パラメータのみ。これにより、超大規模モデルの表現力を持ちながら、計算コストは40Bクラスに抑えられる。 OpenRouter経由のAPIコストは256Kトークンの範囲内で現在無料公開されており、GPT-5.2やClaude Opus 4.6と同等の性能をはるかに低コストで利用できる点が実務家には刺さる。 100万トークンのコンテキストを支える「ハイブリッドアテンション」 長大なコンテキスト処理にも工夫がある。標準的なTransformerアーキテクチャでは、コンテキスト長が伸びるにつれ計算量が二乗的に増加するという問題がある。MiMo-V2-Proは7:1のハイブリッドアテンション比率(前世代MiMo-V2-Flashの5:1から強化)を採用し、入力の約85%を「構造的把握」に、残り約15%を「精密な推論」に振り分けることで、最大100万トークンのコンテキストウィンドウを実現している。 これはログの蓄積・計画・状態更新など長大な情報系列を処理するエージェントワークフローに直結する特性だ。 さらにMulti-Token Prediction(MTP)レイヤーにより、1トークンずつの逐次生成を超えた複数トークンの同時予測が可能になり、エンタープライズ用途での応答速度向上にも貢献する。 日本市場へのインパクト 国内ではほぼ未報道のMiMo-V2-Proだが、エージェント型AI開発者や企業のAI基盤担当者にとって見逃せない存在だ。コード・ターミナル・複雑なオーケストレーション基盤を統合した長期タスク処理に特化した設計は、サプライチェーン管理・コード自動化・複数AIエージェントの協調制御といった実務シナリオとの親和性が高い。 オープンソース版の公開も「モデルが安定した段階で」検討されているとLuo氏は述べており、今後の動向は要注目だ。GPT・Claudeが当然視されてきたフロンティアに、コスト競争力を武器にした第三極が出現しつつある。 元記事: Inside Xiaomi’s MiMo-V2-Pro: A 1T-Parameter Agentic LLM Challenging GPT-5.2 on Cost and Capability

March 24, 2026 · 1 min · 胡田昌彦

エンタープライズAIが本番稼働へ——NVIDIAのAgent ToolkitがPoC時代の終焉を告げる

エンタープライズAIがPoC(概念実証)から本番運用へ NVIDIAは2026年3月に開催した年次カンファレンス「GTC 2026」において、エンタープライズ向けAIエージェントの標準化を目指すAgent Toolkitを発表した。Adobe、SAP、Salesforceをはじめとする50社超がすでに採用を表明しており、企業AIの本格展開を加速する節目となる発表として注目を集めている。 3つのコアコンポーネント Agent Toolkitは以下の3つの主要コンポーネントで構成されている。 OpenShell(セキュリティランタイム) エンタープライズ環境でAIエージェントを安全に実行するためのセキュリティランタイム。企業が最も懸念する「AIエージェントによる意図しない操作や情報漏洩」を防ぐ仕組みを提供する。金融・医療・製造など規制産業での本番導入を想定した設計だ。 AI-Q(リサーチエージェント) 複雑な調査・分析タスクを自律的にこなすリサーチエージェント。社内ドキュメントや外部データを横断的に検索・統合し、担当者が数時間かけて行っていた情報収集作業を大幅に短縮できるとされる。 Nemotronオープンモデル NVIDIAが独自に開発・公開するオープンな大規模言語モデル群。商用利用も可能な形でバンドルされており、クラウドAPIへの依存を減らしながらオンプレミスや専用クラウド環境でのAI活用を可能にする。 コスト50%削減とベンチマーク首位という二兎を得た NVIDIAの発表によれば、Agent Toolkitの導入によりエージェントクエリのコストを最大50%削減できるという。同時に精度面でも複数のベンチマークで首位を達成しており、「コストか精度か」というトレードオフを打ち破る結果を示している。 これは日本企業にとっても重要な意味を持つ。国内では生成AIの「PoC疲れ」が指摘されて久しく、実証実験から本番移行できない案件が積み上がっている。コストと精度の両立は、その最大のボトルネックを解消する可能性がある。 「パイロット時代の終わり」が意味するもの 50社超の採用表明は単なる関心表明ではなく、具体的な本番展開のコミットメントを含む。SAPはERPワークフローへの組み込み、SalesforceはCRM上での顧客対応エージェント展開を計画しているとされる。 エンタープライズAI市場では、MicrosoftのCopilot、GoogleのGemini for Workspaceとの競争が激化している。NVIDIAはGPUインフラという強みを活かしつつ、アプリケーション層にまで踏み込むことでプラットフォームとしての地位確立を狙う戦略を鮮明にした。 まとめ NVIDIAのAgent Toolkitは、エンタープライズAIの本番展開に必要な「セキュリティ」「エージェント機能」「オープンモデル」を一つのパッケージで提供する点が特徴だ。国内でもSAPやSalesforceのエコシステムを通じて間接的な影響が広がるとみられ、今後の国内大手ベンダーの対応動向が注目される。 元記事: Enterprise AI Goes Live: NVIDIA’s Agent Toolkit Signals the End of the Pilot Era

March 24, 2026 · 1 min · 胡田昌彦

iPhone 17 ProでなんとLLM 400Bが動作——オンデバイスAIの常識を覆すデモが話題に

iPhone 17 Proで400Bパラメータ級LLMが動作——オンデバイスAIの限界を更新 Apple製デバイス向けLLM推論プロジェクト「ANEMLL(Apple Neural Engine Machine Learning)」が、iPhone 17 Proで4000億(400B)パラメータ規模の大規模言語モデル(LLM)を動作させるデモ映像を公開し、開発者コミュニティで大きな反響を呼んでいる。Hacker Newsでは370ポイント以上を獲得し、200件超のコメントが集まった。 400Bとはどれほど巨大か 400Bパラメータというのは、現時点で公開されている最大クラスのオープンモデルと肩を並べる規模だ。たとえばMeta社のLlama 3.1の最大モデルが405Bであり、数年前まで「クラウド専用」の代名詞だった規模感である。これをデータセンターのGPUクラスタではなく、ポケットに入るスマートフォン1台で動かすという試みは、エッジAIの文脈において革命的な意味を持つ。 ANEMLLが活用するApple Neural Engine ANEMLLは、iPhoneおよびiPad・Mac搭載のApple Siliconに内蔵される「Apple Neural Engine(ANE)」を最大限活用するためのLLM推論フレームワークだ。ANEはCPU・GPUとは独立した専用演算ユニットであり、行列演算を高効率・低電力で処理できる。通常のLLMフレームワークがCPUやGPUを主に使うのに対し、ANEMLLはANEに最適化したモデル変換と推論パイプラインを独自に構築している。 今回のデモでは、4ビット量子化(INT4)などのモデル圧縮技術と、Apple Siliconの統合メモリアーキテクチャを組み合わせることで、超大規模モデルをオンデバイス推論可能にしていると考えられる。iPhone 17 Proは前世代から大幅に増強されたメモリ容量と改良されたANEを搭載しており、こうした試みを可能にするハードウェア基盤が整ってきた形だ。 プライバシーとレイテンシの観点から オンデバイスでLLMが動作することの意義は、単なる技術的な面白さにとどまらない。クラウドにテキストを送信せずに処理できることはプライバシー保護に直結し、ネットワーク遅延も排除できる。医療・法律・金融といった機密性の高い業務や、オフライン環境でのAI活用にも道が開ける。 日本国内でも個人情報保護法や各種業界ガイドラインの観点から「クラウドに社内データを送りたくない」というニーズは強い。大規模モデルのオンデバイス化が実用レベルに達すれば、エンタープライズ向けモバイルAIの設計思想そのものが変わりうる。 現時点での課題 Hacker Newsのコメント欄では「推論速度はどの程度か」「トークン生成レートが実用域に達しているか」を問う声が多く上がっている。400Bモデルを数ビット量子化しても必要なメモリ帯域幅は膨大であり、現状では応答速度に制約があることが予想される。デモがどの程度の実用性を示しているかは、続報を待つ必要がある。 とはいえ、わずか数年前には「スマートフォンでGPT-2クラスすら動かない」とされていた時代から、今や400B規模のデモが登場するまでに至った進化の速度は驚異的だ。ANEMLLの取り組みは、オンデバイスAIの可能性を再定義する一石として記憶されることになりそうだ。 元記事: iPhone 17 Pro Demonstrated Running a 400B LLM

March 23, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中