AppleのiOS 26.4では、Googleの1.2兆パラメーターのGeminiモデルを搭載した完全再設計のSiriが登場し、アシスタントの老朽化したニューラルアーキテクチャを置き換えます。このアップデートによりSiriは画面認識とアプリ横断型インテリジェンスを獲得しますが、AppleとGoogleのデータ共有契約に関する新たな疑問も浮上しています。
AppleのiOS 26.4アップデートは水曜日にiPhone 15以降へのロールアウトを開始し、同社が18ヶ月間静かに約束してきたものを実現します。それは、真に競争できるSiriです。新しいSiriはGoogleのGeminiアーキテクチャ——デジタル市場法に基づいてAppleがEU規制当局に行った技術的開示によれば、具体的には1.2兆パラメーターのGemini Ultra 2モデル——上で動作しており、旧アシスタントの限界と格闘してきた人なら誰でも、その違いはすぐに明らかになるでしょう。これはイテレーションではありません。これは置き換えです。
AppleがプロプライエタリモデルとM&A技術の組み合わせで構築した旧Siriは、競争上の弱点となっていました。マルチステップの質問に確実に答えられず、会話のターン間でコンテキストを失い、画面上の情報に対する有意義な認識を持っていませんでした。新しいSiriはこの3つの能力をすべて備えています。「マルカスからのパリ旅行に関するメールを見つけて、フライト番号をカレンダーに追加して」と頼めば実行されます。レストランのメニューを見せて「30ドル以下で最もカロリーが低いメインディッシュは何?」と聞けば、メニューを読み込み、フィルターを適用して回答します。これらは厳選されたデモではありません——Geminiエンジンが提供するベースラインの能力です。
Apple iOS 26.4 · Siri Gemini AI · Apple AI 2026パートナーシップの構造は理解する価値があります。AppleはGoogleサービスの検索をライセンス契約するように——Googleのインフラ内に留まる結果に対して定額料金を支払うような形では——Geminiをライセンスしていません。その代わり、AppleはハイブリッドアーキテクチャをRunningしています。シンプルなオンデバイスクエリ(タイマーのセット、曲の再生、懐中電灯のオン)はデータが端末から外に出ない蒸留されたAppleモデルで処理されます。推論、ウェブ知識、またはアプリ横断的な統合を必要とする複雑なクエリはGeminiで処理され、AppleのPrivate Relayテクノロジーを使ってGoogleのサーバーに届く前にリクエストを匿名化します。AppleはGoogleがこれらのクエリをモデルのトレーニングやユーザープロファイルの構築に使用できないことを強調しています。
そのプライバシーの約束が守られるかどうかは、このアップデートを巡る最も議論される問題です。電子フロンティア財団(EFF)は水曜日に技術的分析を公開し、匿名化レイヤーは「意味があるが絶対ではない」と主張しています——特に、リクエストのタイミングとクラスタリングが、理論的には、洗練されたトラフィック分析によってユーザーを部分的に再特定できる可能性があると指摘しています。Appleは、EFFのシナリオが「国家レベルの能力を必要とし、消費者デバイスにとって現実的な脅威モデルではない」と回答しました。どちらの立場も技術的に擁護可能です。実際のところ、現在Googleサービスの検索をデフォルトのブラウザエンジンとして使用しているユーザー——iPhoneでは既に最も一般的な構成——にとって、Siri-Gemini統合による追加のプライバシーリスクは限定的です。
重要ポイント
- →Apple iOS 26.4: iOS 26.
- →Siri Gemini AI: iOS 26.
- →Apple AI 2026: iOS 26.
- →Google Gemini Apple: iOS 26.
AppleがEUのデジタル市場法に基づいて行った開示自体も注目に値します。DMAルールに基づき、AppleはGemini統合の技術文書を欧州委員会に提出しなければならず、欧州委員会は火曜日に条件の概要を公開しました。主な規定:Appleは、30日以内に購入に転換した商取引関連クエリ(ショッピング、旅行予約、サービス比較)についての収益分配として構成されたクエリごとの料金をGoogleに支払います。情報収集のみのクエリについては支払いが発生しません。GoogleはSiriデータをGeminiのトレーニングや広告配信に使用することを禁止されています。この契約は更新オプション付きで2029年まで続きます。
OpenAIの反応は鋭いものでした。OpenAIは声明の中で、Appleが「世界で最も有能なAIと提携する機会を持ちながら、財政的な理由から2番目に良い選択肢を選んだ」と述べました。この批判はまったく根拠がないわけではありません。ChatGPTのGPT-5.4アーキテクチャ——こちらも2026年3月に広く展開され、105万トークンのコンテキストウィンドウを持つ——は、Hugging FaceとLMSYSによる独立した評価によれば、いくつかの推論ベンチマークでGemini Ultra 2を上回っています。Appleは2025年第4四半期にChatGPT統合を検討したと報告されていますが、データ取り扱い条件——特にモデルトレーニングのためのクエリログ保持に関するOpenAIの主張——について合意に達することができませんでした。
Apple iOS 26.4 · Siri Gemini AI · Apple AI 2026実際のハードウェア上の意味合いとして、新しいSiriにはiPhone 15以降——具体的には、オンデバイス処理レイヤーを実行するのに十分なニューラルエンジン能力を持つA17 ProまたはA18ファミリーチップ——が必要です。iPhone 14のユーザーはより限定的なアップデートを受け取ります。Siriは会話コンテキスト(直前に言ったことを忘れなくなる)を得ますが、画面認識やGemini推論レイヤーは利用できません。Appleはリリースノートでこれを認め、「会話体験への意義深いアップグレード」と呼びながらも、フルのiOS 26.4 Siriとは呼ばないようにしました。
今週Atlassianが従業員1,600人——全従業員の10パーセント——を解雇しながら、AIを統合したプロジェクト管理へのピボットを発表したことは、iOS 26.4が加速させる業界全体のダイナミクスの最も明確な例です。AIアシスタントがマルチステップのタスク実行において真に有能になるにつれ、最も恩恵を受けるソフトウェアカテゴリーはプロダクティビティです——カレンダー、メール、ファイル、コミュニケーションを統合されたワークフローに接続するツールです。新しいSiriに対するAppleの賭けは、スマートフォンがこの統合の自然なハブであり、ハードウェアを所有することでGPT-5やClaudeのようなクラウドファーストのAIアシスタントより優位に立てるというものです。
Appleの株価は水曜日の朝の取引で2.1パーセント上昇し、週初めの小幅な下落から回復しました。Alphabetは0.8パーセント下落しましたが、これはGemini統合の技術的な懸念よりも、契約条件に対する投資家の不安を反映している可能性が高いです。
iPhoneのユーザーにとって、デバイスがiPhone 15以降で自動アップデートが有効になっていれば、アップデートは自動的に適用されます。最も有用な即座の変化はアプリ横断型の認識です。Siriは画面を読み取って操作できるようになり、アプリ間での絶え間ないコピー&ペーストの手間がなくなります。パワーユーザーにとっては、長年約束されてきた「パーソナルコンテキスト」機能——Siriが時間をかけてあなたの好みとコミュニケーションパターンを学習する——が、初めて真に機能するようになりました。
プライバシーを重視するユーザーにとって、EFFの分析は読む価値がありますが、パニックになる必要はありません。Appleが構築したハイブリッドアーキテクチャは、すべてのSiriクエリをGoogleのサーバーに単純にルーティングするよりも、真にプライバシーを保護するものです。ほとんどのユーザーにとってリスクプロファイルは低く、例えばどのプラットフォームでもGmailやChromeを使用することによるプライバシーリスクをはるかに下回っています。
AI業界にとって、Apple-Google契約は競争環境を全容が明らかになるまで数ヶ月かかるような形で再構成します。Appleは米国スマートフォン市場の57パーセントを支配しています。GeminiにルーティングされるすべてのSiriクエリは、ChatGPT、Claude、またはスタンドアロンのAIアプリに向かわないクエリです。消費者生活におけるAIアシスタントレイヤーをめぐる戦いはiPhone上で戦われており、Googleはこの契約を通じて既存勢力としての地位を確保しました。
Continue reading to see the full article
#Apple iOS 26.4#Siri Gemini AI#Apple AI 2026#Google Gemini Apple#Siri relaunch#Apple intelligence update#iOS AI assistant#Apple Google deal#AI smartphone assistant#Gemini 1.2 trillion parameters#Apple privacy AI
JC
Written by
James CarterJames Carter is a correspondent at dailytrends covering Tech & AI. All articles are fact-checked and editorially reviewed before publication.
View full profileよくある質問
- iOS 26.4でSiriはどう変わったのか?
- iOS 26.4では、複雑なクエリに対してSiriの基盤アーキテクチャをGoogleのGemini Ultra 2モデル(1.2兆パラメーター)に完全に置き換えました。新しいSiriは画面認識、アプリ横断型インテリジェンス、マルチステップ推論を備えています。シンプルなクエリは引き続きデバイス上で処理され、外部にデータは送信されません。フルアップデートにはiPhone 15以降が必要です。
- この契約のもとでAppleはSiriのデータをGoogleと共有するのか?
- Appleはハイブリッドアプローチを採用しています。シンプルなクエリはデバイス上で処理されます。複雑なクエリはGoogleのGeminiサーバーに送られますが、AppleはPrivate Relayテクノロジーを通じてリクエストを匿名化してからGoogleに送信します。EUデジタル市場法の開示により、GoogleはSiriのデータをGeminiのトレーニングや広告配信に使用できないことが確認されています。EFFは「匿名化は意味のあるものだが絶対ではない」と指摘しています。
- AppleはGemini統合についてGoogleにどのように支払うのか?
- Appleは、30日以内に購入に至った商取引関連クエリ(ショッピング、旅行、サービス比較)について収益分配として構成されたクエリごとの料金をGoogleに支払います。情報収集のみのクエリについては支払いが発生しません。この契約は2029年まで継続されます。
- なぜAppleはGoogleではなくOpenAIと提携しなかったのか?
- Appleは2025年第4四半期にChatGPT統合を検討したと報告されていますが、データ取り扱い条件——特にモデルトレーニングのためのクエリログ保持に関するOpenAIの主張——について合意に達することができませんでした。Googleはトレーニングや広告目的でSiriのデータを使用しないことに同意しました。
- どのiPhoneモデルが新しいSiriの完全な機能を利用できるか?
- iPhone 15以降(A17 ProまたはA18チップ搭載)は、画面認識とGemini推論を含むフルアップデートを受け取ります。iPhone 14のユーザーは、会話コンテキストの改善を含むより限定的なアップデートを受け取りますが、高度な画面認識やアプリ横断機能は利用できません。