Ein Kontextfenster von 2 Millionen Token – groß genug, um acht vollständige Romane gleichzeitig zu verarbeiten – wurde als Standardfunktion in Googles Gemini 3.1 Ultra ausgeliefert, als das Modell im April 2026 auf den Markt kam. Es verdoppelte damit den bisherigen Produktionswert und setzte einen neuen operativen Standard für KI-Deployments in Unternehmen. Kein konkurrierendes Modell in der allgemeinen Verfügbarkeit erreicht diesen Wert.
Kontextfenster sind das Arbeitsgedächtnis eines Sprachmodells während einer Sitzung: Jedes zusätzliche Token ermöglicht dem System, mehr Informationen gleichzeitig aktiv zu halten. Gemini 2.0 Ultra, das Ende 2025 veröffentlicht wurde, hatte ein Kontextfenster von 1 Million Token. OpenAIs GPT-5, das im März 2026 erschien, bietet 256.000 Token als Standard-Consumer-Tier. Die Verdopplung auf 2 Millionen ist in erster Linie keine Consumer-Funktion – die meisten Einzelpersonen werden nie einen 2-Millionen-Token-Prompt schreiben – aber für Unternehmensanwendungen wie rechtliche Dokumentenrecherche, medizinische Aktenzusammenfassung, Software-Code-Audits und langfristige Finanzanalysen ist die erweiterte Kapazität praktisch bedeutsam und verändert, welche Aufgaben in einer einzigen Sitzung ohne Kürzung erledigt werden können.
Gemini 3.1 Ultra verarbeitet Text, Bild, Audio und Video nativ über alle Modalitäten gleichzeitig – eine Designentscheidung, die sich von früheren Versionen unterscheidet, bei denen multimodale Eingaben als separate Verarbeitungsströme behandelt wurden. Google nannte interne Benchmarks, nach denen das Modell 89,3 Punkte beim MMLU-Pro-Test für professionelles Wissens-Reasoning erzielt, verglichen mit GPT-5s gemeldeten 87,1 und Anthropics Claude 4.6 mit 88,5; alle drei Zahlen stammen aus den Eigenbewertungen der jeweiligen Unternehmen, die zwischen März und April 2026 veröffentlicht wurden, und sollten entsprechend interpretiert werden.
“Googles Open-Weights-Begleitmodell Gemma 4 belegte am 10.”
Googles Open-Weights-Begleitmodell Gemma 4 belegte am 10. April 2026 den ersten Platz in der LMSYS Chatbot Arena unter den Open-Source-Modellen mit einem Elo-Rating von 1.412 – 28 Punkte vor Metas Llama 4 Scout mit 1.384, laut der öffentlich gepflegten LMSYS-Rangliste. Für Unternehmen, die aus Compliance- oder Latenzgründen keine Daten an eine externe API senden können, stellt Gemma 4 die stärkste derzeit verfügbare Self-Hosting-Option dar.
Wichtige Erkenntnisse
- Google Gemini 3 Ultra: Gemini 3.
- Gemma 4: Gemini 3.
- agentic AI: Gemini 3.
- AI 2026: Gemini 3.
Der zugrundeliegende kommerzielle Treiber ist agentische KI – Systeme, die nicht nur Fragen beantworten, sondern autonom mehrstufige Aufgaben über Softwareumgebungen hinweg planen und ausführen, ohne menschliche Bestätigung bei jedem Schritt. Bloomberg Intelligence prognostizierte im März 2026, dass die globalen Unternehmensausgaben für KI-Software im Jahr 2026 auf 297 Milliarden US-Dollar steigen werden, ein Anstieg von 41 Prozent gegenüber 2025. Google Clouds KI-Umsatz wuchs im vierten Quartal 2025 um 52 Prozent im Jahresvergleich und erreichte 12,3 Milliarden US-Dollar für das Quartal, laut Alphabets Februar-Quartalsbericht – immer noch hinter Microsoft Azures KI-Services-Division, die für denselben Zeitraum 18,7 Milliarden US-Dollar verzeichnete. Gemini 3.1 Ultra und Gemma 4 sind explizit darauf ausgelegt, diesen Abstand im agentischen Tier zu schließen, das sowohl Google als auch Microsoft als die Kategorie identifiziert haben, die die Unternehmens-KI-Adoption in 2026 und 2027 definieren wird.
Googles DeepMind-Team beschrieb die angestrebte Fähigkeit in einem im April 2026 in Nature veröffentlichten Paper als „proaktive Autonomie auf Workflow-Ebene" – und unterschied damit echte agentische Systeme von Chatbots durch ihre Fähigkeit, Browser zu bedienen, Code auszuführen, Live-Daten abzurufen und Aufgaben an untergeordnete Agenten zu delegieren, ohne den Nutzer bei jedem Schritt um Genehmigung zu bitten. Die Tool-Use-APIs von Gemini 3.1 Ultra wurden mit dieser Architektur im Sinn entwickelt. Das Kontextfenster von 2 Millionen Token ermöglicht es, über die Art von langfristigen Aufgabenketten einen kohärenten Zustand aufrechtzuerhalten – mehrtägige Forschungsprojekte, iterative Code-Refaktorierungen, dokumentenübergreifende Rechtsrecherchen –, bei denen frühere Modelle auf separate Sitzungen mit unvermeidlichem Kontextverlust aufgeteilt werden mussten.
Advertisement
Für OpenAI und Anthropic setzt der Launch die Wettbewerbs-Benchmarks neu. GPT-5, im März veröffentlicht, hatte OpenAI kurzzeitig die Führungsposition bei den meisten Unternehmensbewertungen verschafft. Die Kontextfensterlücke und die multimodale Architektur verschieben die Vergleichspunkte. Die realistische kurzfristige Konsequenz ist keine Massenmigration von Kunden – Enterprise-KI-Verträge haben echte Wechselkosten – aber Google Cloud fungiert nun als glaubwürdige Erstbetrachtungsoption für neue Deployments anstatt als nachrangige Evaluation nach den anderen beiden. Diese Veränderung im Kaufprozess ist im großen Maßstab bedeutsam.
Das im agentischen Narrativ verborgene Risiko ist Governance. Modelle, die autonom Workflows über Live-Softwareumgebungen hinweg ausführen, bringen Fehlerarten mit sich, die beratende Chatbots nicht aufweisen. Ein rechtlicher Recherche-Agent, der ein privilegiertes Dokument falsch klassifiziert, oder ein Finanzsystem, das eine fehlerhafte Transaktion ausführt, weil sein Kontextfenster Vertragsbedingungen in einem 200-seitigen PDF falsch gelesen hat, erzeugt Haftungsketten, die aktuelle Regulierungsrahmen nicht klar zuweisen. Der KI-Act der Europäischen Union, der seit August 2025 vollständig in Kraft ist, klassifiziert bestimmte agentische Deployments als Hochrisikosysteme, die Konformitätsbewertungen erfordern – aber die Durchsetzungsmechanismen sind noch im Aufbau, und die Prüfung eines autonomen mehrstufigen Workflows ist wesentlich schwieriger als die Überprüfung einer einzelnen KI-Ausgabe. Rechtsteams in Unternehmen beginnen, auf diese Lücke hinzuweisen.
Der nächste zu beobachtende Meilenstein ist Google I/O, das für den 20. Mai 2026 geplant ist, wo das Unternehmen voraussichtlich bestätigen wird, ob Gemini 3.1 Ultra in consumer-orientierte Produkte integriert wird, darunter Search, Workspace und die Gemini-App. Dieser Rollout würde, falls angekündigt, das Kontextfenster von 2 Millionen Token vor Hunderten von Millionen Nutzern platzieren und die praktische Definition davon festlegen, wie Mainstream-KI auf dem Weg ins Jahr 2027 aussieht.