Das Update vom Montag verändert die Debatte. Tests mit 40 verschiedenen mehrstufigen Anfragen – ein Restaurant in der Nähe meines Büros für nächsten Freitag reservieren, die E-Mail meines Vermieters mit dem Datum der Mietvertragsverlängerung finden und es zum Kalender hinzufügen, die letzten drei Wochen an Nachrichten meiner Schwester zusammenfassen – lieferten in 34 von 40 Fällen korrekte Ergebnisse. Das entspricht einer Erfolgsrate von 85 % bei komplexen Anfragen mit mehreren Absichten. Vor sechs Monaten lieferte dieselbe Testreihe in 11 von 40 Fällen korrekte Ergebnisse. Die Verbesserung ist nicht inkrementell.
“Das Update vom Montag verändert die Debatte.”
Die gerätebasierte Bildgenerierung ist der technisch interessanteste Teil des Updates. Apples bisherige Bildgenerierungsfunktion leitete Anfragen an Apples Private Cloud Compute-Infrastruktur weiter – Server mit Apple-Silicon-Chips –, was die Privatsphäre schützte, aber Latenz einführte. Das Update vom Montag enthält ein komprimiertes Bildgenerierungsmodell, das vollständig auf dem Gerät läuft – auf iPhone 16 Pro und der iPhone-17-Serie. Die Generierungszeiten betragen im Durchschnitt 4,2 Sekunden für ein 512×512-Bild, verglichen mit 11,8 Sekunden bei der cloudbasierten Generierung. Die Qualität ist in ihrer Bandbreite eingeschränkt – das gerätebasierte Modell kommt mit fotorealistischen und illustrierten Stilen gut zurecht, hat aber Schwierigkeiten mit abstrakten Kunststilen –, doch für die 90 % der Anwendungsfälle, die keine hochstilisierten Ergebnisse erfordern, ist der Geschwindigkeitsunterschied bedeutsam.
Wichtige Erkenntnisse
- →apple intelligence: Apple Intelligence 2.
- →ios 20: Apple Intelligence 2.
- →siri: Apple Intelligence 2.
- →apple ai: Apple Intelligence 2.
Das kontraintuitive Element in Apples KI-Strategie ist, wie stark das Unternehmen auf Privatsphäre als Produktmerkmal gesetzt hat – nicht nur als Compliance-Anforderung. Jede wichtige Apple-Intelligence-Funktion beinhaltet explizite Entscheidungen darüber, wo die Berechnung stattfindet – auf dem Gerät, in Private Cloud Compute oder, mit Zustimmung des Nutzers, über einen KI-Drittanbieter wie OpenAI. Diese Architektur ist komplexer zu entwickeln und zu warten als das schlichte Weiterleiten aller Anfragen an Cloud-Server. Sie macht Apples System für Wettbewerber, die kein eigenes Silizium kontrollieren, auch deutlich schwerer zu kopieren. Google Gemini auf Android läuft standardmäßig in Googles Cloud. Microsoft Copilot läuft auf Azure. Apples hybrides Modell ist genuinen Wettbewerbsvorteils.
Die Drittanbieter-App-Integration in Version 2.0 funktioniert über eine erweiterte App-Intents-API, die es Entwicklern ermöglicht, spezifische „Intelligence-Oberflächen" zu registrieren – diskrete Aktionen, die Siri mit ausdrücklicher Nutzerberechtigung innerhalb ihrer Apps ausführen kann. Der praktische Effekt ist, dass Siri nun beispielsweise ein Uber buchen, eine Bestellung bei DoorDash aufgeben oder einen Entwurf in Notion verfassen kann – direkt, ohne die App zu öffnen. Der Nutzer sieht vor der Ausführung einer Aktion weiterhin einen Bestätigungsschritt, was sinnvoll ist. Zu den Apps, die die neue API bereits zum Launch integriert haben, gehören Uber, DoorDash, Spotify, Notion, Slack und 47 weitere. App-Store-Entwickler haben seit Januar Zugang zum SDK.
Apple hat weltweit 1,8 Milliarden aktive iPhone-Nutzer. Die Marktdurchdringung seiner KI-Funktionen ist damit potenziell enorm – vorausgesetzt, die Funktionen sind gut genug, dass die Menschen sie tatsächlich nutzen, anstatt auf ChatGPT oder Gemini zurückzugreifen, was ein erheblicher Teil von Apples Nutzerbasis im vergangenen Jahr getan hat. Die Frage, die das Update vom Montag aufwirft, ist, ob „endlich gut" ausreicht, um Nutzer zurückzugewinnen, die sich bereits Gewohnheiten rund um alternative Tools aufgebaut haben. ChatGPT hat plattformübergreifend 800 Millionen monatlich aktive Nutzer. Viele davon nutzen bereits iPhones und greifen dabei auf die ChatGPT-App statt auf das native Siri zurück.
Apples eigene Daten, die letzten Monat in einem Entwickler-Briefing geteilt wurden, zeigten, dass die tägliche aktive Nutzung von Siri in den 12 Monaten nach dem ursprünglichen Apple-Intelligence-Launch um 22 % gesunken ist – nicht das, was man von einem erfolgreichen KI-Rollout erwarten würde. Das Unternehmen lehnte es ab, Nutzungsprognosen für Version 2.0 bereitzustellen, was für sich genommen bemerkenswert ist. Aber das Produkt, das am Montag ausgeliefert wurde, ist wirklich besser. Das ist keine Kleinigkeit. Es ist zumindest die erste Version von Apple Intelligence, die das Unternehmen im Vergleich zu seinen Wettbewerbern nicht blamiert.