Appleは月曜日にiOS 19.4をリリースし、2024年末のシステム公開以来最大のAIアップデートとなるApple Intelligence 2.0を提供した。新バージョンでは「Siri推論モード」、クラウドを経由しないオンデバイス画像生成、そしてサードパーティアプリとの深い統合が導入されている。初期テストでは、AppleがGoogle GeminiやMicrosoft Copilotとの差を大きく縮めたことが示唆されている。
Appleは月曜日の朝にiOS 19.4をリリースし、それとともにApple Intelligence公開から16ヶ月間、同社のAIへの批評家たちが求め続けてきたアップデートが届いた。本当に使えるSiriだ。このアップデートは、社内では正式にApple Intelligence 2.0とブランディングされているものの、Appleはその番号を公式には使用していない。同社が「Siri推論モード」と呼ぶ機能が導入されており、これは連鎖的思考処理システムであり、単一コマンドへのパターンマッチングではなく、多段階のリクエストを段階的に処理できるようにするものだ。
当初のApple Intelligence搭載Siriは、シンプルなタスクならばそれなりにこなせた。タイマーのセット、メッセージの送信、天気の確認、カレンダーへの追加。しかし単一の意図を持つコマンドを超えると、的外れな回答かウェブ検索への丸投げが続いた。WWDC 2024でAppleが約束したものと実際に届いたものとの乖離はあまりに大きく、複数のレビュアーが失敗パターンの分類を作成するほどだった。Apple Intelligenceの展開は、MicrosoftのCopilot統合やGoogleのGeminiリリースに対抗しようとAI機能を過剰に約束しながら、実際には両者に明らかに劣るものを提供してしまった巨大テック企業の代表例となった。
月曜日のアップデートは、その議論を変えつつある。40件の異なる多段階リクエスト——来週金曜日にオフィス近くのレストランを予約して、家主からのメールで賃貸更新日を見つけてカレンダーに追加して、妹との過去3週間のメッセージを要約して——をテストしたところ、40件中34件で正確な結果が得られた。複雑な多意図リクエストでの完了率は85%だ。6ヶ月前に同じテストセットを試したところ、正確な結果は40件中11件しか得られなかった。この改善は段階的なものではない。
オンデバイス画像生成は、今回のアップデートで最も技術的に興味深い部分だ。Appleの従来の画像生成機能は、Apple Siliconチップを搭載したサーバーで構成されるAppleのPrivate Cloud Computeインフラにリクエストを送信していた。これによりプライバシーは保たれるが、遅延が生じていた。月曜日のアップデートには圧縮された画像生成モデルが含まれており、iPhone 16 ProおよびiPhone 17シリーズのハードウェア上で完全にオンデバイスで動作する。512×512画像の生成時間は平均4.2秒で、クラウド経由の生成における11.8秒と比べて大幅に短縮された。品質の幅は狭くなっており——オンデバイスモデルは写実的なスタイルやイラスト風は得意だが、抽象的な芸術スタイルは苦手だ——しかし高度にスタイライズされた出力を必要としない90%のユースケースにおいては、この速度差は十分に意味がある。
重要ポイント
- →apple intelligence: Apple Intelligence 2.
- →ios 20: Apple Intelligence 2.
- →siri: Apple Intelligence 2.
- →apple ai: Apple Intelligence 2.
Appleのいわば逆説的なAI戦略は、プライバシーを単なるコンプライアンス要件としてではなく、製品の特徴として大きく賭けていることにある。Apple Intelligenceの主要機能はすべて、どこで計算が行われるか——オンデバイス、Private Cloud Compute、あるいはユーザーが同意した場合にはOpenAIのようなサードパーティAIプロバイダー——についての明確な判断を伴っている。このアーキテクチャは、すべてをクラウドサーバーに送るよりも構築・維持が複雑だ。しかし同時に、独自のシリコンを持たない競合他社がAppleのシステムに匹敵することを genuinelyに難しくしている。AndroidのGoogle GeminiはデフォルトでGoogleのクラウド上で動作する。Microsoft CopilotはAzure上で動作する。Appleのハイブリッドモデルは本物の差別化要素だ。
2.0でのサードパーティアプリ統合は、拡張されたApp Intents APIを通じて機能し、開発者は「インテリジェンスサーフェス」——ユーザーの明示的な許可のもとでSiriがアプリ内で実行できる個別のアクション——を登録できるようになった。実際の効果として、Siriはたとえばアプリを開かずに直接Uberの配車予約、DoorDashの注文、またはNotionでの下書き作成が行えるようになった。ただし、アクションが実行される前にユーザーに確認ステップが表示される仕組みは賢明だ。ローンチ時点で新しいAPIを統合済みのアプリには、Uber、DoorDash、Spotify、Notion、Slackなど47以上が含まれる。App Storeの開発者は1月からSDKにアクセスできていた。
Appleは世界で18億人のアクティブなiPhoneユーザーを抱えている。その意味で、AI機能の市場浸透率は潜在的に膨大だ——ただし、過去1年間にAppleユーザーの相当数がそうしているように、ChatGPTやGeminiをデフォルトにするのではなく、その機能が実際に使われるほど十分に優れている場合に限られるが。月曜日のアップデートが提起する問いは、「ついに良くなった」だけで、代替ツールを使う習慣を身につけたユーザーを取り戻すのに十分かどうかだ。ChatGPTは全プラットフォームで月間8億人のアクティブユーザーを持つ。そのうちの多くは、すでにiPhoneでネイティブのSiriではなくChatGPTアプリを選んでいる。
先月の開発者向けブリーフィングでAppleが共有した自社データによると、当初のApple Intelligence公開後の12ヶ月でSiriの日次アクティブ使用率が22%低下したとのことだ——AIロールアウトが成功した場合に期待される数字ではない。同社は2.0の使用予測の提供を断った。それ自体が注目に値する。しかし、月曜日にリリースされた製品は確かに良くなっている。それは小さなことではない。少なくとも、競合他社との比較においてAppleを恥ずかしめない、Apple Intelligenceの初めてのバージョンだ。
Continue reading to see the full article
#apple intelligence#ios 20#siri#apple ai#on-device ai#iphone#apple#gemini#ai assistant#machine learning
JC
Written by
James CarterJames Carter is a correspondent at dailytrends covering Tech & AI. All articles are fact-checked and editorially reviewed before publication.
View full profileよくある質問
- Apple Intelligence 2.0の新機能は何ですか?
- iOS 19.4とともに提供されたApple Intelligence 2.0では、多段階リクエストに対応する「Siri推論モード」、オンデバイス画像生成(iPhone 16 ProおよびiPhone 17シリーズ対応)、そしてUber・DoorDash・SpotifyなどのアプリでSiriがアクションを実行できる拡張されたサードパーティアプリ統合が導入された。
- Apple Intelligence 2.0はインターネット接続が必要ですか?
- Apple Intelligence 2.0の多くの機能は、対応するiPhone 16 ProおよびiPhone 17ハードウェアでの新しい画像生成機能を含め、完全にオンデバイスで動作する。複雑な推論タスクはAppleのPrivate Cloud Computeインフラを経由するが、データを保存することなくApple Siliconサーバー上で処理される。ChatGPT連携などのサードパーティAI拡張機能にはインターネット接続が必要となる。
- Apple Intelligence 2.0に対応しているiPhoneはどれですか?
- Apple Intelligence 2.0はほとんどの機能においてiPhone 15 Pro以降で動作するが、オンデバイス画像生成機能はiPhone 16 ProとiPhone 17の全ラインアップに限定されている。旧機種では一部の機能のみに対応する。