DeepSeek、次世代マルチモーダルAI「V4」を間もなく公開か——中国の国家戦略とも連動

DeepSeek V4、マルチモーダル対応で近日公開へ 中国のAIスタートアップ DeepSeek(深度求索)が、次世代大規模言語モデル「V4」のリリースを間近に控えていることが、フィナンシャル・タイムズ(FT)の報道で明らかになった(2026年2月27日付)。 テキスト・画像・動画を統合するマルチモーダルモデル FTが入手した複数の情報筋によると、V4はテキスト生成にとどまらず、画像・動画の生成・理解も可能なマルチモーダルモデルとして設計されている。注目すべきは、中国の半導体メーカーであるHuawei(華為)とCambricon(寒武紀)の最新チップ向けに最適化が施されている点だ。米国の輸出規制によりNVIDIA製GPUの入手が制限される中、国産チップとの協業は中国AI産業の自立化戦略の一環とも読める。 リリース時期は、中国の年次重要政治行事である「両会」(全国人民代表大会・全国人民政治協商会議)の開幕(3月4日)に合わせて設定されたとされる。DeepSeekを「国家AIの旗手」として位置づける政治的な演出とも見られており、中国政府のAI振興戦略と密接に絡み合っている。 V3が起こした「AIスプートニク・ショック」 DeepSeekが世界的に注目を集めたのは、2025年1月に公開した推論モデルR1がきっかけだ。米国トップモデルに匹敵する性能を、はるかに少ない計算コストで実現したとして、シリコンバレーに衝撃を与えた。その影響はSAP社のコンサルタントが「1957年のスプートニク打ち上げに相当する」と評するほどだった。 その後DeepSeekは大型モデルのリリースを控え、段階的なアップデートにとどめていた。その間にAlibaba(阿里巴巴)などの中国競合他社が低コスト・オープンソースAIの需要を取り込んでいたとFTは指摘している。 オープンソース公開の可否も焦点 V4がオープンソースとして公開されるかどうかは現時点では不明だが、前モデルの公開戦略が世界中の開発者コミュニティで高い評価を得たことを踏まえると、引き続き注目される。日本国内でも、DeepSeekのモデルをオンプレミスや自社クラウドで動かす企業・研究機関が増えており、V4の動向は国内AI開発者にとっても無視できない情報だ。 Andrew Ng「AGIはまだ数十年先」 これとは別に、AI研究の第一人者であるAndrew Ng氏(DeepLearning.AI創設者、元Google Brain設立者)は先週、「人間と同等の知的能力を持つAGI(汎用人工知能)の実現には、まだ数十年かかる」と述べた。同氏は「トラックの運転を学ぶ、博士論文を書くといった人間並みの知的作業」をAGIの定義とした上で、「近づいてはいるが、まだ非常に遠い」との見解を示している。DeepSeekのような効率化の進展があっても、AGIへの道のりはまだ長いということだろう。 V4の正式発表がいつになるか、またどのようなライセンスで提供されるかについては、続報を待ちたい。 元記事: DeepSeek Poised to Unveil Latest AI Model — V4 imminent

March 27, 2026 · 1 min · 胡田昌彦

OpenAI・Anthropic・xAIのオフィス前で約200名がデモ——高度AI開発の一時停止を要求

OpenAI・Anthropic・xAIのオフィス前で約200名がデモ——高度AI開発の一時停止を要求 サンフランシスコで、OpenAI・Anthropic・xAIのオフィス前に約200名が集結し、高度なAI開発の一時停止を求めるデモ活動が行われた。参加者たちはAI業界の急速な発展に対する深刻な懸念を訴え、各社のオフィス前に次々と姿を現した。 各社前でのデモの様子 OpenAIのオフィス前では、ChatGPTをはじめとする生成AIサービスの商業展開スピードへの批判が中心となった。参加者の多くは「技術的な安全性が十分に検証される前に、製品が市場に投入されている」という危機感を共有していたという。 Anthropicのオフィス前に集まったデモ参加者は、特に「自己改善するAI(Self-Improving AI)」のリスクに強く警鐘を鳴らした。自己改善型AIとは、AIシステムが自律的に自身のアルゴリズムや能力を向上させていく仕組みを指し、AGI(汎用人工知能)への到達経路として研究が進んでいる領域でもある。参加者たちは無条件の開発停止ではなく、安全性が担保されるまでの条件付き開発停止を要求した点が注目される。 ElonMusk率いるxAIのオフィス前でも抗議活動が展開された。xAIはGrokと呼ばれる大規模言語モデルを開発しており、OpenAIとの競合関係でも知られている。 「AIの安全性」をめぐる市民運動の広がり こうした草の根的なAI反対運動は近年世界各地で広がりを見せており、今回のサンフランシスコでのデモもその流れの一環と見られる。2023年には著名な研究者や技術者が署名した「AI開発の6カ月間停止」を求める公開書簡が話題を呼んだが、今回の運動はより一般市民を巻き込んだ形での抗議活動として注目を集めた。 日本でも、AI規制のあり方については政府・産業界・学術界で活発な議論が続いており、2024年にはAI事業者ガイドラインが策定された。国際的なAI開発競争が激化する中、「安全性と革新のバランス」をどう取るかは、日本においても重要な政策課題となっている。 AI企業側の反応 各社は今回のデモに対して公式なコメントを出していないが、OpenAIとAnthropicはいずれも「AI安全性(AI Safety)」の研究部門を社内に設置しており、リスク評価を行いながら開発を進めているとしている。 AIの能力が急速に向上し続ける中、開発者・政策立案者・市民社会が一体となって安全基準を議論する場の必要性は、今後ますます高まっていきそうだ。 元記事: Protesters Rally Outside OpenAI, Anthropic, and xAI Offices Over Industry Concerns

March 27, 2026 · 1 min · 胡田昌彦

FigmaがAIエージェントベータ版を公開——キャンバス上でアセットを自律生成・編集

FigmaがAIエージェントのベータ版を公開、デザインワークフローに革新 デザインツール大手のFigmaは、AIエージェントがキャンバス上でアセットを直接生成・編集できるベータ版機能を公開した。既存のデザインシステムを活用しながら、ブランドガイドラインに沿ったビジュアルアセットをAIが自律的に扱えるようになる点が大きな特徴だ。 デザインシステムとの深い統合が差別化ポイント 今回の機能が単なる「AI画像生成」と一線を画すのは、企業ごとに構築されたデザインシステム——カラーパレット、タイポグラフィ、コンポーネントライブラリなど——をAIエージェントが参照・活用できる点にある。これにより、生成されたアセットはブランドの世界観から逸脱せず、デザイナーが手動で修正する手間を大幅に削減できる。 たとえば「このボタンコンポーネントをダークモード用に3パターン生成して」といった指示をキャンバス上で直接与えると、エージェントがデザインシステムの制約を守りながら複数の候補を自動生成するといったユースケースが想定される。 デザインワークフロー自動化の転換点 業界では今回の発表を「デザインワークフロー自動化における大きな転換点」と評価する声が多い。従来のAI生成ツールはデザインツールの外側で動作し、生成したアセットを手動でFigmaに取り込む必要があった。それが今後はキャンバス上で完結する形になる。 日本企業においても、UI/UXデザインチームの生産性向上や、デザイナー不足の課題解消につながる可能性がある。特に中小規模のプロダクト開発チームでは、専任デザイナーがいなくてもブランド品質のアセットを迅速に量産できる恩恵が大きいだろう。 現在はベータ版、今後の展開に注目 現時点ではベータ版の提供にとどまっており、一般利用可能となる時期や価格体系の詳細は明らかになっていない。Figmaはデザインと開発のギャップを埋める取り組みを継続しており、AIエージェント機能の拡充はその流れを加速するものとみられる。 生成AI(Generative AI)の波はテキストや画像生成にとどまらず、設計・制作ツールそのものの在り方を変えつつある。Figmaの今回の発表は、AIがデザイナーの「アシスタント」から「共同制作者」へと進化する時代の幕開けを象徴していると言えそうだ。 元記事: Figma introduces AI agent beta: agents can generate and edit assets directly on the canvas

March 27, 2026 · 1 min · 胡田昌彦

MCP(モデルコンテキストプロトコル)が累計9,700万インストール突破——全主要AIプロバイダーが対応済み

AIエージェント連携の「共通言語」が業界標準へ Anthropicが提唱したAIエージェント間通信の標準規格「MCP(Model Context Protocol)」が、累計インストール数9,700万件を突破した。OpenAI、Google、Mistralを含む全主要AIプロバイダーがMCP互換ツールの出荷を完了しており、群雄割拠だったエージェント連携の世界に、事実上の統一標準が誕生した形だ。 MCPとは何か MCPは、AIモデルが外部ツールやデータソースと通信するための標準プロトコルだ。たとえば、AIアシスタントがファイルシステムを読み書きしたり、外部APIを呼び出したり、別のAIエージェントと連携したりする際の「共通言語」として機能する。 これまでは各AIプロバイダーが独自の連携仕様を持っており、あるプロバイダーのエージェントに対応したツールが別のプロバイダーではそのまま使えないという断絶が生じていた。MCPはこの問題を解消するために設計されており、USB規格がデバイス接続を統一したように、AIツールエコシステムの相互運用性を実現する。 日本のエコシステムへの影響 国内でも開発者コミュニティ向けのMCP対応ツールの整備が急速に進んでいる。GitHub Copilot、VS Code拡張、各種クラウドIDEがMCPサポートを相次いで追加しており、日本語対応の開発ツールにとっても標準APIとして活用できる環境が整いつつある。 エンタープライズ向けには、社内ナレッジベースやSaaS製品とAIエージェントをMCPで接続するユースケースが注目されている。kintoneやSalesforceのようなビジネスアプリケーションとAIを繋ぐMCPサーバーの開発事例も増えており、業務自動化の加速が期待される。 標準化がもたらす開発者体験の変化 9,700万インストールという数字は、単なる普及を超えてエコシステムの臨界点(クリティカルマス)を突破したことを示している。主要プロバイダーが全社対応した今、新規のAIツール開発者はMCPへの対応をデフォルトの選択肢として考える段階に入った。 「どのモデルでも動く」ツールが作りやすくなることで、開発コストの削減とイノベーションの加速が見込まれる。AIエージェント活用を検討している企業にとっても、ベンダーロックインのリスクを低減できる点で歓迎すべき動向といえるだろう。 元記事: Model Context Protocol (MCP) crosses 97 million installs — every major AI provider ships MCP-compatible tooling

March 27, 2026 · 1 min · 胡田昌彦

OpenAIがSoraを突然終了——ディズニー10億ドル契約も消滅、同日に7つの重大発表

OpenAI、怒涛の「1日7発表」で業界を揺るがす 2026年3月25日(火)、OpenAIは業界観測者も驚く密度で複数の重大発表を一斉に行った。その中でも最も衝撃的だったのが、ビデオ生成AIアプリ「Sora」の完全終了だ。 Sora、わずか6ヶ月で幕引き Soraは2025年末にリリース直後にApp Storeトップを獲得した話題作。スタンドアロンアプリとAPIの両方が提供されていたが、OpenAIは今回「ビデオ生成事業からの撤退」を正式に発表した。 これに伴い、2025年12月に締結したとされるディズニーとの10億ドル(約1,500億円)のライセンス契約も解消される。ディズニー側は「OpenAIの判断を尊重する」と丁寧なコメントを発表したが、事実上の破談だ。社内関係者によれば、SoraはAnthropicやGoogleとの競争が激化するなか、膨大なGPUリソースを消費し続けており、経営判断として見切りをつけた模様だ。 Altman CEO、安全部門の直接管理を手放す Samuel Altman CEOは同日、安全・セキュリティチームの直接監督権限を移譲することをスタッフに伝えた。今後は資金調達、サプライチェーン構築、そして「前例のない規模でのデータセンター建設」に専念するという。 AI安全性を重視してきたOpenAIがCEO主導の安全監督体制を変更することに、業界からは賛否両論の声が上がっている。 新モデル「Spud」の初期開発が完了 Altman氏はさらに、次期主力AIモデルのコードネームが「Spud(スパッド)」であることを明かし、初期開発が完了したと述べた。GPT-4後継にあたるとみられるが、詳細なスペックや公開時期は未発表だ。 100億ドル追加調達と10億ドルの科学研究基金 OpenAIは同日、100億ドル(約1兆5,000億円)規模の追加資金調達を完了したと発表。これにより直近ラウンドの合計は約1,200億ドルに達する。 また、約1,300億ドル相当の株式を保有する「OpenAI Foundation」が正式にリーダーシップ陣容を発表し、AI主導の科学的発見のために今年だけで10億ドル以上を拠出する方針を示した。 Arm、35年ぶりに自社チップを発表 同週にはArm(アーム)も歴史的な発表を行った。チップ設計ライセンスビジネス一本で35年間成長してきた同社が、初めて自社製データセンター向けチップ「AGI CPU」を発表。136コア・3nmプロセスで構築されたAI特化プロセッサで、MetaがすでにAGI CPU採用を決定しているという。 今週のAI業界は、まるで数ヶ月分のニュースが凝縮されたかのような激動の一週間となった。OpenAIが短命に終わったSoraとともにディズニーという巨大パートナーとの関係まで清算した背景には、AnthropicやGoogleとの生存競争をにらんだ「選択と集中」戦略があるとみられる。次期モデル「Spud」の動向と、安全監督体制の変更が今後の企業姿勢にどう影響するかが注目される。 元記事: OpenAI acquired Astral and merged everything into a superapp (week of March 21-24)

March 27, 2026 · 1 min · 胡田昌彦

2026年3月AIまとめ:GPT-5.4・Gemini 3.1・Grok 4.20が同月リリース、MCPは9700万インストール突破

AI業界が「同時多発的な変曲点」を迎えた月 2026年3月は、AI業界にとって単なる「ニュースの多い月」ではなかった。モデル性能・エージェント基盤・エンタープライズ導入・規制執行という四つのトレンドが、ほぼ同時に臨界点へ達した月として記録されることになりそうだ。 フロンティアモデルが23日間で5本リリース 3月の最大のトピックは、主要ラボが足並みをそろえるように大型モデルを投入したことだ。 3月3日 — Mistral Small 4がオープンソース推論ベンチマークでトップに立つ 3月17日 — OpenAIがGPT-5.4をStandard・Thinking・Proの3バリアント同時リリース 3月20日 — GoogleがGemini 3.1 Ultraを公開。ネイティブマルチモーダル推論を搭載 3月22日 — xAIがリアルタイムWeb検索を強化したGrok 4.20を投入 3週間余りで5本のフロンティアモデルが出そろった計算になり、ラボ間の能力差はかつての「月単位」から「週単位」へと縮まった。日本企業がAI戦略の見直しサイクルを短縮しなければならない理由がここにある。 MCPが9700万インストール突破——エージェント基盤として定着 3月25日に公表されたデータによると、Anthropicが策定したModel Context Protocol(MCP)のインストール数が累計9700万件を突破した。主要AIプロバイダーがすべてMCP互換ツールを同梱するようになった現在、MCPは「実験的な標準」から「エージェントAIのインフラ」へと格上げされた。開発者コミュニティでのデファクト化が、ベンダーロックインを避けたいエンタープライズにとっても追い風となっている。 Oracle AI Database 26ai——エージェント向け「永続メモリDB」が登場 データベース側でも大きな動きがあった。OracleはAI Database 26aiを発表。AIエージェントがセッションをまたいで状態と記憶を保持できる「永続メモリ」機能と、ノーコードで社内エージェントを構築できるPrivate Agent Factoryを搭載する。RAG(検索拡張生成)ではカバーしきれなかった「エージェントの長期記憶問題」に正面から取り組んだ初のデータベース基盤として注目されている。 NVIDIA GTC 2026——エンタープライズはデモから本番へ 3月10〜14日に開催されたNVIDIA GTCは、ベンチマーク競争よりもエンタープライズのエージェント本番導入が主役となった。エージェント・オーケストレーションフレームワーク「NeMoCLAW」「OpenCLAW」のセッションが最多集客を記録し、Fortune 500企業による本番稼働事例が相次いで発表された。 またSXSWで発表されたCMO調査では、エンタープライズマーケティング予算の67%がAI専用予算を2026年に設けていることが明らかになった。 Sora APIが静かに終了——コスト問題が浮き彫りに 一方、3月24日にOpenAIはSoraのパブリックAPIを終了した。動画1分あたりの推論コストが持続不可能な水準に達したことが理由とされており、コンピュート集約型のメディア生成ビジネスモデルへの再評価を業界全体に迫る出来事となった。 規制も加速 EU AI Actが初の正式照会を発行し、米国3州がAI透明性法を可決、英国AI安全機関が3月評価を公表するなど、三大陸で規制執行ペースが明らかに上がった。 2026年3月は、AIを「試験的に使う時代」から「本番インフラとして前提とする時代」への移行を象徴する月として刻まれるだろう。 元記事: Oracle AI Database 26ai launches with persistent memory for AI agents and no-code Private Agent Factory

March 27, 2026 · 1 min · 胡田昌彦

Anthropicの次世代AI「Claude Mythos」がデータ漏洩で発覚——「前例のないサイバーセキュリティリスク」と同社認める

データ漏洩で明らかになった「ステップチェンジ」モデル AIスタートアップのAnthropicが、これまでリリースしたどのモデルよりも強力な新世代AIモデルを開発・テスト中であることが明らかになった。同社の設定ミスにより、未公開の草稿ブログ記事が一般公開状態のデータキャッシュに保存されていたことを、米経済誌Fortuneが報じた。 Anthropicのスポークスパーソンは「このモデルはAI性能におけるステップチェンジ(段階的な飛躍)を表しており、これまで構築した中で最も高性能なモデルだ」と認めた。現在は「アーリーアクセス顧客」と呼ばれる限られたグループを対象にトライアルが進められているという。 新モデルの正体——「Capybara」と「Mythos」 漏洩した草稿によると、新モデルには「Capybara(カピバラ)」という新しいモデル階層名と、「Claude Mythos(ミトス)」というコードネームが付けられていることが判明した。 Anthropicは現在、モデルを3つのサイズで展開している: Opus(最大・最高性能) Sonnet(中程度の速度と性能) Haiku(最小・最速・最安価) 草稿ブログによれば、「Capybara」はこれらの上に位置するまったく新しい階層であり、現在最上位のOpusよりもさらに大規模で高性能——その分コストも高い——とされている。 「従来の最高モデルであるClaude Opus 4.6と比較して、Capybaraはソフトウェアコーディング、学術的推論、サイバーセキュリティなどのテストで大幅に高いスコアを記録している」 同文書には「Claude Mythosのトレーニングが完了した」とも記されており、「これまで開発した中で圧倒的に最も強力なAIモデル」と表現されている。 「前例のないサイバーセキュリティリスク」という異例の警告 注目すべきは、Anthropic自身が草稿の中でこのモデルについて「前例のないサイバーセキュリティリスクをもたらす」と記述していた点だ。これはAI企業が自社モデルの危険性を自ら認めた異例の表現であり、能力と安全性のバランスをめぐる業界全体の緊張を反映している。 漏洩の経緯と対応 この漏洩を発見・検証したのは、セキュリティ企業LayerX SecurityのシニアAIセキュリティリサーチャーであるRoy Paz氏と、ケンブリッジ大学のサイバーセキュリティ研究者Alexandre Pauwels氏。Pauwels氏によれば、未公開の資産は約3,000件にのぼり、いずれもAnthropicのブログに関連するものだった。 Fortuneからの連絡を受けたAnthropicは即座にデータストアへの公開アクセスを遮断。「コンテンツ管理システムの設定における人的ミスが原因で、公開すべきでない草稿が閲覧可能な状態になっていた」と認めた。 国内への影響と今後の展望 AnthropicのClaudeシリーズはAmazon BedrockやGCP Vertex AIを通じて国内企業でも広く活用されている。Claude Mythosが正式にリリースされれば、コーディング支援や業務自動化の領域で既存モデルを大きく上回る性能が期待できる。一方で「前例のないサイバーセキュリティリスク」という表現が示すように、安全審査のプロセスも通常より慎重になるとみられる。正式発表の時期や価格体系など、詳細は今後の公式アナウンスを待つ必要がある。 元記事: Exclusive: Anthropic ‘Mythos’ AI model representing ‘step change’ in power revealed in data leak

March 27, 2026 · 1 min · 胡田昌彦

Google翻訳の「ライブ翻訳」がiOSに対応、日本も対象国に追加

Googleは、ヘッドフォンを使ったリアルタイム翻訳機能「Live translate(ライブ翻訳)」をiOSに正式展開すると発表した。またAndroid・iOS双方において、日本・フランス・ドイツ・イタリア・スペイン・タイ・イギリスを含む新たな国々へも対応を拡大する。 ヘッドフォンが即席の通訳に ライブ翻訳は、Google翻訳アプリを通じて70以上の言語に対応するリアルタイム音声翻訳機能だ。任意のヘッドフォンを接続した状態で使用でき、相手の話す言葉を即座に翻訳して耳に届ける。 特徴的なのは、翻訳精度だけでなく話者のトーンやリズムを保持する点だ。単に言葉を訳すだけでなく、話し手のニュアンスや感情も伝わるよう設計されている。 日本語話者にとっての活用シーン 今回の日本対応追加により、日本語を話す側・聞く側の両方でメリットがある。 海外旅行時: 現地のアナウンスや道案内、レストランでのやり取りをリアルタイムで理解できる インバウンド対応: 日本を訪れた外国人観光客との会話をスムーズに行える 多言語家族・コミュニティ: 異なる言語を話す家族や友人との会話の壁を下げる 使い方 利用手順はシンプルだ。 Google翻訳アプリを開く 「ライブ翻訳」をタップ ヘッドフォンを接続する iOSユーザーは今回の展開でAndroidユーザーと同様に本機能を利用できるようになる。 AI翻訳の実用化が加速 リアルタイム音声翻訳はかつてSFの世界の話だったが、AI技術の進化によって日常的なツールとして普及しつつある。Googleのライブ翻訳のような機能は、言語の壁を下げ、国際的なコミュニケーションのあり方を変える可能性を持っている。 日本では訪日外国人数が増加傾向にあり、言語サポートの需要は高まる一方だ。こうしたツールの普及が、観光・ビジネス・日常生活のさまざまな場面での多言語コミュニケーションをより身近なものにしていくだろう。 元記事: Transform your headphones into a live personal translator on iOS.

March 27, 2026 · 1 min · 胡田昌彦

EUがAI法の施行延期とヌード生成アプリ禁止を可決——開発者への猶予期間は最大2028年まで

EUがAI法の施行を大幅延期、ヌード生成アプリ禁止も追加 欧州議会は2026年3月26日、EU人工知能法(EU AI Act)の主要規定の施行期限を延期する提案を大多数の賛成で可決した。あわせて、AIを悪用したヌード画像生成アプリ(いわゆる「ヌーディファイアプリ」)の禁止を同法に盛り込む方針も承認された。 延期される主な規定と新たな期限 当初、今年8月に施行予定だった複数の規定が先送りされる見通しだ。 高リスクAIシステム(健康・安全・基本的人権に「深刻なリスク」をもたらすとされるもの)の開発者に対するコンプライアンス期限:2027年12月まで延期 玩具や医療機器など、業界固有の安全規制が適用されるAIシステム:さらに長い猶予が与えられ、2028年8月まで延期 AIが生成したコンテンツへのウォーターマーク付与を義務付ける規定:2026年11月まで延期 AIによるヌード画像生成アプリを禁止へ 改正案には、AIを使って実在の人物のヌード画像を生成するアプリの禁止も盛り込まれた。詳細な規制内容は未定だが、「ユーザーがそのような画像を生成できないよう有効な安全対策を講じているAIシステムには適用しない」とされている。 この方針の背景には、2026年初頭にイーロン・マスク氏のAIサービス「Grok」がX(旧Twitter)上で性的なディープフェイク画像を大量生成し、EU内で広く批判を浴びた出来事がある。日本でも同様のディープフェイク被害が社会問題となっており、この規制は国際的な議論に一石を投じる動きとして注目される。 法改正には加盟国との交渉が必要 欧州議会の可決はあくまで第一段階に過ぎない。EUでは欧州議会が単独で法律を変更することはできず、EU加盟27カ国の閣僚で構成される欧州理事会との交渉(三者協議)を経て最終的な法文が確定する。8月の当初期限までに正式な変更が間に合うかどうかは不透明だ。 欧州でビジネスを展開する企業への影響 EU AI Actをめぐっては、EUが自ら設定した主要ガイダンスの公表期限を守れなかったり、法律の一部を変更したりするなど、これまでも度重なる混乱があった。今回の延期決定は、欧州でAIサービスを提供する事業者にとって不確実な状況が続くことを意味する。 とはいえ、施行延期によって開発者側には準拠体制を整える時間的余裕が生まれる。特に高リスクAIシステムを手がける企業にとっては、コンプライアンス対応のロードマップを再設計する機会となりそうだ。 世界最初の包括的なAI規制法として注目されるEU AI Actは、日本を含む各国の規制当局にとっても参照点となっており、その動向は引き続き要注目だ。 元記事: EU backs nude app ban and delays to landmark AI rules

March 27, 2026 · 1 min · 胡田昌彦

米上院議員がデータセンターの電力消費量の義務的開示を求める超党派書簡を送付

超党派でデータセンターの電力消費透明化を要求 米上院議員のエリザベス・ウォーレン(民主党・マサチューセッツ州)とジョシュ・ホーリー(共和党・ミズーリ州)は3月26日、米エネルギー情報局(EIA: Energy Information Administration)に対し、データセンターの「包括的な年次エネルギー使用量の開示」を収集し、その情報を一般公開するよう求める書簡を送付した。 この動きはWiredが最初に報じたもので、両議員はEIAに対してデータセンターへの「強制的な年次報告要件の設立」を促している。書簡の中では、このデータが「電力網の正確な計画立案に不可欠」であると強調。また、今月初めに「Ratepayer Protection Pledge(電気料金支払者保護誓約)」に署名した7つのテック企業が約束を遵守しているかどうかを確認するためにも必要だと主張している。 EIAの自主的パイロット計画では不十分 EIAは同じく3月26日、テキサス州、ワシントン州、バージニア州北部、ワシントンDCでデータセンターのエネルギー使用量を評価する自主的なパイロットプログラムの開始を発表した。しかし、ウォーレンとホーリーが求めているのはこれよりも広範な、義務的なデータセンターのエネルギー消費報告だ。 立法・規制の動きが相次ぐ データセンターの電力問題をめぐっては、連邦・州の両レベルで複数の動きが起きている。 バーニー・サンダース上院議員(無所属・バーモント州)とアレクサンドリア・オカシオ=コルテス下院議員(民主党・ニューヨーク州)は、データセンターの新規建設に対するモラトリアム(一時停止)を提案する法案を提出 ホーリー議員とブルーメンタール議員(民主党・コネチカット州)は2月、データセンターに起因する電気料金上昇を抑制することを目的とした法案を提出 ニューヨーク州では新規データセンター建設を3年間停止する州法案が審議中 昨年12月には民主党議員がテック企業とデータセンター開発業者に対し、電力使用量や拡張計画についての回答を求める書簡を送付 日本への影響と背景 生成AIの急速な普及に伴い、データセンターの電力消費は世界規模で急増している。日本でも大規模データセンターの建設ラッシュが続いており、電力インフラへの影響や電気料金上昇を懸念する声は国内でも高まっている。米国での透明性確保の動きは、日本を含む各国の規制議論に影響を与える可能性がある。 今回の超党派書簡は、AI・クラウドインフラの電力消費問題が党派を超えた政策課題となっていることを示す象徴的な出来事といえる。 元記事: Senators are pushing to find out how much electricity data centers actually use

March 27, 2026 · 1 min · 胡田昌彦

Wikipedia、AI生成記事を全面禁止——編集者による利用は校正・翻訳補助のみ許可

WikipediaがAI生成コンテンツを禁止——品質維持のための新方針 インターネット最大の百科事典Wikipediaが、AI(人工知能)を用いた記事の執筆・書き直しを公式に禁止する方針を発表した。この変更は先週末に英語版Wikipediaのガイドラインに追加されたもので、AI生成コンテンツがWikipediaのコアとなるコンテンツポリシーに反しやすいことが主な理由として挙げられている。 何が禁止され、何が許可されるのか 新ガイドラインでは、編集者がLLM(大規模言語モデル)を使える場面を明確に制限している。 禁止事項: AIによる記事の新規執筆 AIによる既存記事の書き直し 引き続き許可される用途: 自分の文章への「基本的な校正提案」の取得(ただしAIが独自のコンテンツを追加しない場合に限る) 他言語版WikipediaからのAI補助翻訳(ただし元言語の正確性を確認できる十分な知識を編集者が持つ必要あり) AI生成コンテンツとの戦いの背景 Wikipediaの編集者コミュニティは、ここ数ヶ月でAI生成記事の急増に悩まされてきた。対応策として、品質の低いAI執筆記事の「迅速削除」を可能にする新ポリシーをすでに導入。さらに「WikiProject AI Cleanup」というイニシアチブも立ち上げられ、AI生成コンテンツの特定・除去に取り組んでいる。 今回の方針変更は、編集者「Chaotic Enby」氏の提案に端を発し、長期にわたる編集者間の議論を経て「圧倒的な賛成多数」で可決された。ガイドラインは「LLMの明らかに問題のある使用を対象としながらも、適切と判断される用途には余地を残している」と説明している。 誤認防止にも言及 注目すべき点として、新ポリシーはAI検出に関する注意書きも含んでいる。「LLMと似た文体で書く人もいる可能性がある」として、編集者の制限を正当化するには文体や言語的な特徴だけでは不十分とした。記事の内容がコアポリシーに準拠しているかどうか、また対象の編集者の最近の編集履歴を総合的に判断するよう求めている。 日本語版への影響は? 今回の規制は現時点では英語版Wikipediaのみが対象だ。日本語版Wikipediaを含む他言語版への適用については明言されていないが、英語版の動向は他言語版コミュニティの議論にも影響を与えることが予想される。 AI生成コンテンツの質と信頼性をめぐる議論が世界的に高まる中、情報の正確性を根幹に置くWikipediaが明確な線引きを示したことは、他のオンラインプラットフォームにとっても一つの指標となりそうだ。 元記事: Wikipedia bans AI-generated articles

March 27, 2026 · 1 min · 胡田昌彦

LiteLLMマルウェア攻撃:ClaudeがリアルタイムでPyPI感染を確認した一部始終

LiteLLMにマルウェア混入——ClaudeがPyPI感染をリアルタイムで確認 人気PythonライブラリのLiteLLMに悪意のあるコードが混入していたことが明らかになった。セキュリティ研究者のCallum McMahon氏が、AIアシスタント「Claude」と協力しながら分単位でインシデントに対応した詳細なトランスクリプトを公開し、注目を集めている。 何が起きたのか litellm==1.82.8 がPyPIに公開された際、パッケージ内に悪意のある .pth ファイル(litellm_init.pth)が含まれていた。このファイルはPythonの起動時に自動実行される仕組みを悪用したもので、Base64でエンコードされたコードを subprocess 経由でひそかに実行するというサプライチェーン攻撃の典型的な手口だ。 問題のコードは以下の形式だった: 元記事: My minute-by-minute response to the LiteLLM malware attack

March 27, 2026 · 1 min · 胡田昌彦

AIで1日でJSONataをGoに書き直し、年間500万円超のコスト削減を実現

AIによる「バイブポーティング」でJSONataをGoに移植、年間コストを大幅削減 クラウドセキュリティ企業のRecoは、JSONクエリ言語「JSONata」のGo実装をAIの支援によってわずか7時間で構築し、年間50万ドル(約7,500万円)のコスト削減を達成したと発表した。 JSONataとは JSONataは、JSONデータに対してjqに似たクエリや変換を行うための式言語で、ローコード/ノーコードツールとして有名なNode-REDとの連携でも広く知られている。Recoはこれまでサードパーティのnode.js製JSONata実装に依存していたが、パフォーマンスとインフラコストの問題から独自のGo実装への移行を検討していた。 「バイブポーティング」という手法 Simon Willisonのブログでも取り上げられたこのプロジェクトは、近年注目を集める「バイブポーティング(vibe porting)」の好例だ。バイブポーティングとは、AIを活用して既存のコードベースを別の言語やプラットフォームへ移植する手法で、従来は数週間〜数ヶ月かかる作業を大幅に短縮できる点が特徴。 今回の成功を支えた最大の要因は、JSONataが充実したテストスイートを持っていたことだ。AIが生成したGoのコードが正しく動作しているかどうかを、既存のテストケース群で即座に検証できたため、反復的な改善サイクルを高速で回すことができた。 開発の流れ AIによるコード生成:LLMを使ってJSONataの仕様をGoで実装。費用は約400ドル(約6万円)のトークン消費 テストによる検証:既存テストスイートを活用し、動作の正確性を継続的に確認 シャドウデプロイ:本番環境で旧実装(Node.js版)と新実装(Go版)を1週間並行稼働させ、出力結果が完全に一致することを確認 本番切り替え:検証完了後、Go実装へ完全移行 コスト削減の背景 Node.js環境の維持・運用コストとGo製バイナリの実行コストの差が積み重なり、年間50万ドル規模の削減を実現。Willisonは「やや誇張気味なフレーミング」と指摘しつつも、AIを活用したポーティングの有力な事例として評価している。 日本への示唆 日本でも多くの企業がNode-REDやJSONataを活用したシステムを運用している。本事例は「既存のテストがあれば、AIによる言語移植は現実的な選択肢になり得る」ことを示しており、レガシーシステムのモダナイゼーションや技術的負債の解消においても参考になるアプローチだ。 短期間・低コストで成果を出した今回の取り組みは、AIを「コード補完ツール」としてではなく、エンジニアリングの加速装置として活用した実践例として注目に値する。 元記事: We Rewrote JSONata with AI in a Day, Saved $500K/Year

March 27, 2026 · 1 min · 胡田昌彦

Google Gemini、他のAIチャットボットからの会話履歴・個人情報移行ツールを提供開始

他のAIから乗り換えやすく——Google、Gemini向け「スイッチングツール」を発表 Googleは2026年3月26日、AIチャットボット「Gemini」への乗り換えを大幅に簡単にする新機能「スイッチングツール(Switching Tools)」を発表した。これにより、ChatGPTやAnthropicのClaudeといった競合サービスのユーザーが、会話履歴や個人情報をそのままGeminiに持ち込めるようになる。 2つのインポート機能 スイッチングツールは主に2つの機能で構成される。 メモリ(個人情報)のインポートは、ユーザーが別のチャットボットに登録している「興味・関心」「家族や知人の名前」「出身地」といった個人的な文脈情報をGeminiに引き継ぐ仕組みだ。操作手順はユニークで、Geminiがユーザーに対して「他のAIに入力するためのプロンプト」を提案する。そのプロンプトを既存のチャットボットに入力すると、AIが個人情報をまとめたテキストを生成し、それをコピーしてGeminiに貼り付けることでインポートが完了する。 会話履歴のインポートは、既存サービスからエクスポートしたZIPファイルをアップロードするだけで利用できる。ChatGPTやClaudeはいずれも会話のエクスポート機能を備えており、それらのログをそのままGeminiに取り込める。インポートした過去の会話は検索も可能で、「以前話したことの続き」からシームレスに再開できる。 背景——激化するチャットボット市場での競争 現在のAIチャットボット市場では、ユーザー獲得をめぐる激しい競争が続いている。OpenAIは今年2月に週間アクティブユーザーが9億人を突破したと発表。一方のGeminiは月間アクティブユーザー7億5000万人と公表しており、Googleはスマートフォン(Android)やChromeブラウザという巨大な流通経路を持ちながらも、消費者認知においてChatGPTに後れを取っているのが現状だ。 このスイッチングツールは、乗り換えにおける最大の障壁——「新しいAIにゼロから自分を説明し直す手間」——を取り除くことで、既存ユーザーの移行コストを劇的に下げることを狙ったものだ。 日本ユーザーへの影響 日本でも企業・個人を問わずChatGPTの利用者は多い。すでに独自のプロンプトや会話履歴を積み上げてきたユーザーにとって、この機能は乗り換えの現実的な選択肢を広げるものとなるだろう。Geminiへの移行を検討している方は、まずデータエクスポート→インポートの流れを試してみる価値がある。 GoogleはAIアシスタントの統合・普及に向けて積極的な施策を打ち続けており、今後もこうした競合対抗機能の追加が予想される。 元記事: You can now transfer your chats and personal information from other chatbots directly into Gemini

March 27, 2026 · 1 min · 胡田昌彦

Anthropic、トランプ政権との法廷闘争に勝訴——「サプライチェーンリスク」指定の取り消しを命じる仮処分

Anthropicが仮処分獲得——政府との対立に司法が歯止め AIスタートアップのAnthropicは、トランプ政権との法廷闘争で大きな勝利を収めた。カリフォルニア北部地区連邦裁判所のリタ・F・リン判事は2026年3月26日(現地時間)、トランプ政権に対して以下を命じる仮処分を発令した。 Anthropicを「サプライチェーンリスク(supply chain risk)」に指定した政府命令の撤回 連邦政府機関にAnthropicとの取引を禁じた命令の停止 リン判事は審理の中で「これはAnthropicを潰そうとする試みに見える(It looks like an attempt to cripple Anthropic)」と述べ、政府の一連の命令が同社の言論の自由を侵害していると判断した。 発端は「自律型兵器への使用禁止」条項 今回の対立は先月、国防総省とAnthropicの間で起きた政府AIモデル利用をめぐる指針の衝突に端を発する。 Anthropicは自社のAIモデルについて、政府に対して以下のような利用制限を設けようとしていたと報じられている。 自律型兵器システム(autonomous weapons systems)への使用禁止 大規模監視(mass surveillance)への使用禁止 これに対し政府側はこうした制限を拒否。通常は外国勢力に対して使われる「サプライチェーンリスク」という異例の指定を行い、トランプ大統領は連邦機関に同社との取引を断ち切るよう命じた。 Anthropicはその後、ピート・ヘグセス国防長官とともに国防総省を提訴。ホワイトハウスは近週にわたってAnthropicを「過激左派でウォーク(woke)な企業」と批判し、アメリカの国家安全保障を脅かしていると主張していた。 一方、AnthropicのCEOであるダリオ・アモデイ氏は、国防総省の行動を「報復的かつ懲罰的(retaliatory and punitive)」と非難してきた。 Anthropicのコメントと今後の展望 仮処分の発令を受け、AnthropicはTechCrunchに以下のコメントを寄せた。 「裁判所が迅速に動いてくださったことに感謝しており、本訴訟でAnthropicが勝訴する可能性が高いという判断に同意いただけたことを嬉しく思います。この訴訟はAnthropicおよびお客様・パートナーを守るために必要なものでしたが、私たちの主眼は引き続き、すべてのアメリカ国民が安全で信頼性の高いAIの恩恵を受けられるよう、政府と生産的に協力していくことにあります。」 今回の仮処分はあくまで本訴訟の最終判決前の暫定的な措置であり、今後も法廷闘争は続く見通しだ。AIの軍事・安全保障用途をめぐる企業と政府の主導権争いは、米国のAI政策において重要な前例となりうる。日本を含む各国のAI企業・政府機関にとっても、その行方は注視すべき動向といえる。 元記事: Anthropic wins injunction against Trump administration over Defense Department saga

March 27, 2026 · 1 min · 胡田昌彦

iOS 27でSiriが「ChatGPT以外」にも対応へ——GeminiやClaudeと連携可能に

AppleがSiriをマルチAI対応へ——iOS 27で「Extensions」機能が登場か Appleは次期OS「iOS 27」において、SiriとサードパーティのAIチャットボットを連携させる新機能「Extensions(エクステンション)」を導入する見通しだ。Bloombergの著名記者マーク・ガーマン氏が報じた。 ChatGPT独占から複数AI選択の時代へ これまでSiriが外部AIと連携する仕組みは、OpenAIのChatGPTのみに限定されていた。iOS 27では、App Storeからダウンロードしたサードパーティのチャットボット——GoogleのGeminiやAnthropicのClaudeなども含む——をSiriのバックエンドとして利用できるようになるという。 ユーザーはiPhone・iPad・Macの設定画面から、Siriに連携させるAIチャットボットを有効・無効の形で自由に選択できる仕組みになるとされており、実質的に「Siriが使うAIエンジンを自分で選ぶ」時代が到来することになる。 スタンドアローン版Siriアプリとも統合予定 Extensions機能は、Appleが開発中と報じられているSiriの単体アプリとも連携する予定だとBloombergは伝えている。この刷新版Siriはアプリをまたいでユーザーの代わりに操作を実行するエージェント的な機能を備えるとされており、サードパーティのAIがその中枢を担う可能性がある。 GoogleとのAI協業も進行中 AppleはSiriの抜本的な強化に向け、すでにGoogleとの提携を進めていることを今年1月に明らかにしている。The Informationの報道によれば、この提携にはGeminiを活用したApple独自のスモールモデルのトレーニングも含まれているという。 当初の計画から複数回の延期を経てきたAppleのAI戦略だが、サードパーティAIへの開放という方針転換は、競合するAndroid陣営に追いつくための現実的な判断とも言える。 WWDC 2026で正式発表へ 詳細は6月8日に開幕予定の「WorldWide Developers Conference(WWDC)2026」で発表される見通し。iOS 27とともに、Siriの新たな姿が明らかになりそうだ。 日本ユーザーにとっては、日本語対応が充実しているGeminiとの連携が特に注目される。Claudeも日本語精度が高く評価されており、用途に合わせてAIを使い分けられる環境が実現すれば、iPhoneの利便性は大きく向上しそうだ。 元記事: Apple will reportedly allow other AI chatbots to plug into Siri

March 27, 2026 · 1 min · 胡田昌彦

トランプ政権のAI・暗号資産顧問デイビッド・サックス氏が特別政府職員を退任、PCAST共同議長へ

サックス氏、ホワイトハウスAI・暗号資産顧問を退任 トランプ政権のAIおよび暗号資産担当特別顧問として知られるベンチャーキャピタリストのデイビッド・サックス氏が、特別政府職員(SGE: Special Government Employee)としての立場を終えたことを明らかにした。Bloomberg Televisionのインタビューの中で、SGEとして認められる最大130日間の勤務上限を消化したと説明した。 「AI・暗号資産皇帝」の終わりと次のステップ サックス氏は今後、大統領科学技術諮問委員会(PCAST: President’s Council of Advisors on Science and Technology)の共同議長を務める予定だ。同委員会には今週、マーク・ザッカーバーグ(Meta CEO)、マーク・アンドリーセン(著名VC)、ジェンスン・ファン(NVIDIA CEO)、セルゲイ・ブリン(Googleの共同創業者)といったテック業界の重鎮たちが新たに任命された。 「PCAST共同議長として、AIだけでなくより幅広いテクノロジー分野について大統領や行政府に提言できる」とサックス氏はコメント。ただし、この役割は連邦機関との調整ではなく、あくまで「大統領への助言」にとどまるという。 在任中の実績と政治的失策 サックス氏は2024年にトランプ陣営のシリコンバレー向け資金調達イベントを主催したことで知られ、就任後は攻撃的なAI政策の立案に深く関与してきた。一方で、その手法は批判も呼んだ。 最大の政治的失敗とされるのが、州レベルのAI規制を一括禁止しようとした試みだ。議会提出と大統領令の両面から進めたこの政策は、共和党の州知事やMAGAポピュリスト層からも反発を招き、子供の安全に関する法案など他の政策的勝利まで「毒」にしてしまったと批判されている。 保守系シンクタンク「Institute for Family Studies」のマイケル・トスカノ事務局長はThe Vergeの取材に対し、「彼は先制権(連邦優越)の獲得に失敗し、政権を自らの有権者との文化戦争に引きずり込んだ。彼は政治的な災厄だった」と厳しく評した。 大統領批判が引き金か 退任の直接的な引き金となったとみられるのが、先週のポッドキャスト「All In」での発言だ。サックス氏はトランプ大統領がイランとの対立において「出口戦略を見つける必要がある」と公に批判した。トランプ政権は以前から、問題となった幹部を解任するのではなく「格下げ」する形で処遇してきており、今回もその文脈に沿った人事とみられる。 日本への示唆 サックス氏の退任は、米国のAI政策の方向性に影響を与える可能性がある。日本政府もAI規制の国際協調を模索する中、ホワイトハウスの政策立案体制の変化は引き続き注視が必要だ。PCASTがサックス氏の新たな影響力の場となるのか、それとも実質的な権限は限定されるのか——今後の動向が注目される。 元記事: David Sacks is no longer the White House AI and Crypto Czar

March 27, 2026 · 1 min · 胡田昌彦

月7ドルのVPSにAIエージェントを構築——IRCをトランスポート層に使ったポートフォリオ「デジタル門番」

「レジュメAIチャット」への問題提起 ポートフォリオサイトにAIチャットボットを載せるのはもはや珍しくない。しかしそのほとんどは、レジュメの内容をそのままモデルに食わせて訪問者が「言い換え」できるようにしているだけだ——エンジニアのGeorge Larson氏はそう指摘する。 「テストカバレッジはどう扱っていますか?」という質問に「包括的なテストを重視しています」と返すのは、レジュメを読み上げているに過ぎない。Larson氏が求めたのは、実際にリポジトリをクローンし、テストを数え、CI設定を読んだうえで具体的な回答を返すシステムだった。 2エージェント・2ボックス構成 システムの中核はnullclawとironclawという2つのエージェントで構成される。 nullclawは公開向けの「門番」だ。Zigで書かれた678KBのバイナリで、メモリ消費は約1MB。月額7ドルのVPS上で動作し、訪問者からの質問を受け付け、必要に応じてGitHubリポジトリをクローンして実コードを根拠に回答する。 ironclawはTailscaleで接続された別のマシン上で動くプライベートエージェントで、メール・カレンダー・機密コンテキストへのアクセス権を持つ。複雑な問い合わせはnullclawから#backofficeというプライベートIRCチャンネル経由でironclaw にルーティングされる。公開ボックスからプライベートデータへは直接アクセスできない設計が意図的なセキュリティ境界となっている。 なぜIRCなのか DiscordやTelegramではなくIRCを選んだ理由は3つある。 サイトの世界観に合う — ターミナルUIのポートフォリオにIRCクライアントが埋め込まれているのは自然だ。Discordでは世界観が壊れる。 スタック全体を自分で所有できる — Ergo IRCサーバー、gamja Webクライアント、エージェントすべてが自前インフラ上に存在し、サードパーティのAPI変更やプラットフォームの方針変更に左右されない。 30年の実績があるシンプルなプロトコル — ベンダーロックインゼロ。Webクライアント経由で訪問者と対話する同じエージェントを、ターミナルからirssiで自分自身が操作することもできる。 モデル選定もシステム設計の一部 Larson氏が強調するのは、「最大のモデルを使えばいい」という発想が間違っているという点だ。 会話層: Claude Haiku 4.5を使用。挨拶・振り分け・簡単な質問は1秒未満で返答でき、コストも1会話あたり数セント。 ツール使用層: リポジトリのクローンやコード横断的な分析が必要な場合のみClaude Sonnet 4.6にフォールバック。推論コストは推論が本当に必要なときだけ払う。 1日2ドルの支出上限: 上限なしの公開エージェントはリスクだ。悪意ある利用者が推論予算を使い果たそうとしても壁にぶつかる。 「Opus(最上位モデル)を受付係に使うことは、モデルへの理解のなさを露呈する」とLarson氏は述べており、適切なモデル選定自体がエンジニアリングセンスのシグナルになるという考え方は、日本のエンジニアコミュニティにとっても参考になる視点だろう。 まとめ 本プロジェクトはHacker Newsでポイント100超を獲得し注目を集めた。月額7ドルのインフラ、IRC、モデルの階層的使い分けという3つの要素が組み合わさった実装は、「ポートフォリオにAIを組み込む」という課題に対する一つの洗練された回答といえる。ソースコードや詳細なアーキテクチャはLarson氏のブログで公開されている。 元記事: Show HN: I put an AI agent on a $7/month VPS with IRC as its transport layer

March 27, 2026 · 1 min · 胡田昌彦

Mistral Small 3.1(24B)がオープンソースで公開——ローカル環境で動く高性能LLMが現実に

Mistral Small 3.1 24B、オープンソースで登場 フランスのAIスタートアップMistral AIが、最新モデル「Mistral Small 3.1(パラメータ数:24B)」をオープンソースライセンスで公開した。2026年3月に相次いで発表されたオープンソースLLMアップデートの中でも、特に注目を集めている一本だ。 「軽量=性能妥協」の常識を覆す これまでオープンソースモデルといえば、商用クローズドモデルと比べて性能面で一歩劣るというイメージが根強かった。しかし2026年3月の最新リリース群はその常識を大きく塗り替えつつある。 Mistral Small 3.1はその代表例だ。24Bというパラメータ規模は、100B超の大規模モデルに比べれば「小型」の部類に入るが、推論精度や応答品質は2025年後半の商用モデルと肩を並べるレベルに達していると評価されている。 ローカル実行でコストを大幅削減 最大のメリットはコストとプライバシーだ。商用APIを利用する場合と比べ、自前のGPU環境や小規模クラウドインスタンスで運用することで、推論コストを最大70%削減できるという試算も報告されている。 実行に必要なVRAMの目安は以下のとおり。 7Bモデル:最低16GB VRAM 13B以上(4ビット量子化使用時):最低24GB VRAM Mistral Small 3.1(24B)を快適に動かすには、24GB VRAMを搭載したGPU(NVIDIA RTX 3090/4090など)が推奨される。 技術的な進化:PagedAttentionと投機的デコーディング 今回のリリースで特筆すべきは、スペキュラティブデコーディング(Speculative Decoding)やPagedAttentionといった推論最適化技術が標準搭載されている点だ。これらはかつて研究論文の中だけに存在していた手法だが、現在は主要なオープンソースモデルに直接統合されるようになっている。 これにより、「Time-to-First-Token(TTFT)」と呼ばれる最初のトークンが返ってくるまでの応答時間が大幅に短縮。コンシューマー向けハードウェアでも200ms以下の応答が実現可能になっている。 Ollamaで簡単に導入可能 ローカル環境への導入は、統合ランナーOllamaを使えば比較的容易だ。インストール後、以下のコマンド一発でモデルを取得できる。 元記事: Mistral Small 3.1 24B Released as Open Source

March 27, 2026 · 1 min · 胡田昌彦

MetaとRay-Ban、次世代AIスマートグラス「Scriber」「Blazer」を近く発売か——FCC申請で判明

MetaのAIグラス第3世代が間近?FCCに2モデルが登場 MetaとスマートグラスのハードウェアパートナーであるEssilorLuxotticaが、Ray-Ban AIグラスの次世代モデル発売に向けた準備を進めていることが明らかになった。米連邦通信委員会(FCC)に今月公開された申請書類により、「RayBan Meta Scriber」と「RayBan Meta Blazer」という2つの新モデルの存在が確認された。 製品版ユニットとして申請——発売は近い? FCC申請書類には、テスト対象が「製品版ユニット(production units)」と明記されており、近いうちに正式発表が行われる可能性が高い。過去の事例では、2023年末に発売された第2世代Ray-BanがFCC通過から約1ヶ月後に発表されており、同様のスケジュールが繰り返されると見られる。 Metaは今回の件についてコメントを出していない。 2モデルの概要と注目点 申請書類の多くは黒塗りとなっており、デザインや詳細な新機能は不明だが、いくつかの重要な情報が読み取れる。 モデル名: 「RayBan Meta Scriber」(型番:RW7002)と「RayBan Meta Blazer」(型番:RW7001) サイズ展開: Blazerモデルはレギュラーサイズとラージサイズの2種類 充電ケース付属: テスト対象にケースが含まれており、携帯充電に対応 特に注目されるのがモデル番号の大幅な変化だ。現行の第1・第2世代はRW4002〜RW4014の範囲だが、新モデルはRW7001・RW7002と大きく跳び上がっており、チップセットの刷新を含む大幅なハードウェアアップグレードが示唆される。 Wi-Fi 6 UNII-4対応で通信性能が向上 もう一つの注目点は、新モデルがWi-Fi 6のUNII-4帯(6GHz帯の一部)に対応している点だ。これにより高速データ転送の安定性が向上し、ライブストリーミングやリアルタイム映像を必要とするAI機能の品質改善が期待できる。 急成長するAIグラス市場——年間7百万台超を販売 Ray-Ban AIグラスはMetaにとって大きな成功を収めている。EssilorLuxotticaの直近の決算報告によれば、昨年だけで700万台以上を販売。2023年と2024年の合計が200万台だったことを考えると、急激な成長ぶりがわかる。同社は今年末までに年間生産能力を2,000〜3,000万台規模に拡大する計画だとBloombergが報じている。 Mark Zuckerberg CEOは直近の決算説明会で「グラスの売上は昨年比で3倍以上に成長しており、家電製品の中でも最も急速に普及している製品の一つだと思う」と発言。Reality Labsの投資の重点をVRからグラス・ウェアラブルへ移行させる方針を改めて示した。 OakleyブランドやRay-Ban Displayにも展開 2025年にはEssilorLuxotticaとの提携を拡大し、Oakleyブランドのファーストモデルや、モノキュラーディスプレイを内蔵した「Ray-Ban Display」グラスも投入済み。AIグラスのエコシステムは着実に広がりを見せている。 一方でMetaはVR事業の縮小を進めており、Reality Labs部門で1,000人規模のレイオフや複数のVRゲームスタジオの閉鎖を実施。メタバースプロジェクト「Horizon Worlds」のVR版終了も一時は検討されたが、ユーザーからの反発を受けて撤回している。 AIグラスの次世代モデルがいつ正式発表されるのか、続報に注目したい。 元記事: Meta gets ready to launch two new Ray-Ban AI glasses

March 26, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中