Foto von cottonbro studio auf Pexels Source

Apple zahlt Google rund eine Milliarde Dollar pro Jahr, damit Siri endlich brauchbar wird. So lässt sich die Partnerschaft zusammenfassen, die im Januar 2026 bekannt wurde. Die nächste Generation der Apple Foundation Models basiert auf Googles Gemini-Architektur und Cloud-Infrastruktur. Die ersten Ergebnisse kommen mit iOS 26.4 Ende März 2026 auf kompatible iPhones: Bildschirm-Kontexterkennung, App-übergreifende Aufgabenketten und ein Gesprächsgedächtnis, das über mehrere Runden bestehen bleibt. Siri entwickelt sich vom Sprachbefehlsparser zu etwas, das tatsächlich an einen KI-Agenten erinnert.

Die strategische Logik ist schonungslos ehrlich. Apple hat nach dem ChatGPT-Launch zwei Jahre lang eigene Foundation Models gebaut und ist sichtbar zurückgefallen. Statt ein weiteres inkrementelles Update zu liefern, hat Apple einen Scheck an Google geschrieben und Zugang zu Modellen bekommen, die bereits funktionieren. Der Deal ist White-Label: Kein Google-Branding taucht in der Nutzererfahrung auf. Von außen bleibt es Siri. Von innen ist es Gemini in Siris Haut.

Weiterlesen: Voice AI Agents: Echtzeit-KI für Unternehmen

Was die Milliarde konkret kauft

Die Apple-Google-Vereinbarung umfasst drei Ebenen. Erstens erhält Apple Zugang zu Geminis Basismodellen, um eigene Apple Foundation Models zu trainieren. Das ist kein simpler API-Aufruf an Googles Server: Apple nutzt Geminis Architektur als Grundlage für Modelle, die Apple selbst feinabstimmt und auf eigener Infrastruktur betreibt. Zweitens bekommt Apple Zugang zu Googles Cloud-Compute für die rechenintensiven Inferenz-Aufgaben, die auf dem Gerät nicht laufen können. Drittens beinhaltet der Deal laufende Modell-Updates, was bedeutet, dass Apples Fähigkeiten sich verbessern, sobald Google neuere Gemini-Versionen liefert.

Keine der beiden Firmen hat den genauen Preis bestätigt. Mehrere Berichte nennen rund eine Milliarde Dollar jährlich, was diesen Deal zu einem der größten KI-Lizenzverträge der Geschichte machen würde. Zum Vergleich: Apple zahlte Google für den Safari-Standardsuchmaschinen-Deal ursprünglich einen ähnlichen Betrag, bevor er auf 20 Milliarden Dollar pro Jahr anstieg. Der KI-Deal ist ein Bruchteil davon, signalisiert aber, wie ernst Apple die Lücke zwischen Siri und der Konkurrenz nimmt.

Die Finanzstruktur offenbart auch Apples Wette: Es ist billiger und schneller, erstklassige Modelle zu lizenzieren, als sie selbst zu bauen. Apples eigenes KI-Forschungsteam hat starke Arbeiten zu effizienten On-Device-Modellen publiziert, aber der Gemini-Deal erkennt an, dass Google bei komplexem Reasoning, Multi-Step-Planung und Vision-Aufgaben vorne liegt.

Bildschirm-Erkennung: Siri kann endlich sehen

Die Schlüsselfunktion in iOS 26.4 ist die Bildschirm-Kontexterkennung. Siri kann jetzt den angezeigten Inhalt interpretieren und darauf reagieren, ohne dass Nutzer kopieren, einfügen oder erklären müssen, was sie gerade sehen.

Die konkreten Beispiele zählen mehr als das Marketing. Wenn ein Restaurant in Safari geöffnet ist, reicht “Reserviere einen Tisch für zwei heute Abend” und Siri liest den Restaurantnamen, findet das Buchungssystem und versucht die Reservierung. Bei einer offenen Flugbestätigung in der Mail-App löst “Füg das in meinen Kalender ein und erinnere mich zwei Stunden vor Abflug” eine Kette aus: Siri extrahiert die Flugdaten, erstellt den Kalendereintrag und konfiguriert die Erinnerung, alles aus einer einzigen Äußerung.

Das ist keine auf einen Sprachassistenten aufgepfropfte Texterkennung. Das Gemini-gestützte Vision-System versteht semantischen Kontext: Es weiß, dass die Telefonnummer auf einer Restaurantseite sich von einer Nummer in einer Spam-Mail unterscheidet. Es kann zwischen einem Foto, das geteilt werden soll, und einem Screenshot einer Konversation unterscheiden. Apple nennt das “Screen Understanding”, und es markiert den Sprung von Schlüsselwort-Matching zu echtem Verständnis.

Die Einschränkung ist erwähnenswert. Bildschirm-Erkennung in iOS 26.4 funktioniert nur innerhalb von Apples eigenen Apps und einer Gruppe freigegebener Drittanbieter-Apps. Voller Drittanbieter-Support, bei dem Siri den Bildschirm jeder App lesen und darauf reagieren kann, wird frühestens in iOS 27 erwartet.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Unternehmen

App-übergreifende Aktionen und Aufgabenketten

Die zweite große Neuerung ist die mehrstufige Aufgabenausführung. Siri kann jetzt bis zu 10 sequenzielle Aktionen aus einer einzigen natürlichen Sprachanfrage verketten und dabei über mehrere Apps hinweg arbeiten, ohne zwischen den Schritten die Kontrolle an den Nutzer zurückzugeben.

Ein konkretes Beispiel: “Finde den günstigsten Flug nach Berlin nächsten Freitag, buche ihn mit meiner gespeicherten Zahlungsmethode, trage ihn in meinen Kalender ein und schick Sarah die Reisedaten.” Das sind vier verschiedene Aktionen über Safari, Wallet, Kalender und Nachrichten. In früheren iOS-Versionen brauchte jeder Schritt einen separaten Siri-Aufruf. Jetzt plant Siri die Sequenz, führt jeden Schritt aus und meldet sich zurück, wenn alles erledigt ist.

Die Aufgabenketten-Architektur nutzt ein Planner-Executor-Muster, das jedem bekannt vorkommt, der mit LangChain oder CrewAI gearbeitet hat. Siris Planner zerlegt die Anfrage in Teilaufgaben, bestimmt die Ausführungsreihenfolge, identifiziert die benötigten Apps und gibt Kontext zwischen den Schritten weiter. Wenn ein Schritt fehlschlägt (der Flug ist ausgebucht, die Zahlungsmethode abgelaufen), meldet Siri den Fehler und fragt nach Anweisungen, statt still abzubrechen.

Das Gesprächsgedächtnis ist der Klebstoff, der das Ganze zusammenhält. Siri behält den Kontext über bis zu 50 Turns in einer einzelnen Sitzung. Nachfragen, Verfeinerungen oder Parameteränderungen funktionieren, ohne die komplette Anfrage wiederholen zu müssen. “Eigentlich lieber Samstag statt Freitag” funktioniert, weil Siri die gesamte geplante Kette im Gedächtnis behält.

Die Datenschutzarchitektur: Warum sie wichtiger ist als das Modell

Apples Argumentation für diesen Deal stützt sich auf eine spezifische technische Aussage: Nutzerdaten berühren Googles Server nie direkt. Die Datenschutzarchitektur arbeitet mit einem Drei-Stufen-System.

Stufe 1: On-Device-Verarbeitung. Einfache Aufgaben (Timer stellen, Musik abspielen, grundlegende Anfragen) laufen komplett auf der Neural Engine des iPhones mit Apples kleineren On-Device-Modellen. Keine Daten verlassen das Gerät.

Stufe 2: Private Cloud Compute. Komplexere Aufgaben, die die Geräte-Kapazität übersteigen, werden auf Apples eigener Cloud-Infrastruktur mit Custom Apple Silicon Servern verarbeitet. Apple hat die Private Cloud Compute Architektur detailliert veröffentlicht: Daten sind bei der Übertragung und im Ruhezustand verschlüsselt, werden in flüchtigen Compute-Knoten verarbeitet, die nach Abschluss der Anfrage keine Daten behalten, und der laufende Code ist öffentlich prüfbar.

Stufe 3: Google Cloud (anonymisiert). Nur die anspruchsvollsten Anfragen, vor allem solche, die Geminis volles Reasoning erfordern, werden an Googles Infrastruktur weitergeleitet. Bevor Daten Google erreichen, entfernt Apple personenbezogene Informationen durch eine Datenschutz-Pufferschicht. Google kann Anfragen weder bestimmten Apple-Nutzern noch Geräten zuordnen.

Das ist besonders für den DACH-Raum relevant. Die DSGVO stellt strenge Anforderungen an die Übermittlung personenbezogener Daten an US-Unternehmen. Apples Drei-Stufen-Modell adressiert genau diese Bedenken: Die Anonymisierung vor der Google-Übertragung könnte als technische Maßnahme im Sinne von Artikel 32 DSGVO gelten. Europäische Datenschutzbehörden werden diese Architektur sicher genau unter die Lupe nehmen, aber sie ist der bisher überzeugendste Ansatz eines Tech-Giganten, KI-Leistung mit europäischem Datenschutz zu verbinden.

Weiterlesen: Apples KI-Agenten-UX-Studie: Warum Nutzer transparente Agenten bevorzugen

Was verschoben wurde: Die Roadmap für iOS 26.5 und iOS 27

Nicht alles hat es in die erste Version geschafft. Apple plante ursprünglich, die komplette Gemini-gestützte Siri-Überarbeitung in iOS 26.4 auszuliefern, aber interne Herausforderungen erzwangen einen phasenweisen Rollout.

iOS 26.4 (März 2026): Bildschirm-Erkennung in Apple-Apps, grundlegende App-übergreifende Aufgabenketten, Gesprächsgedächtnis, verbessertes natürliches Sprachverständnis.

iOS 26.5 (Mai 2026): Erweiterter Drittanbieter-App-Support für Bildschirm-Erkennung, tiefere Shortcuts-Integration, proaktive Vorschläge basierend auf Nutzungsmustern.

iOS 27 (September 2026): Vollständiger agentischer Modus, in dem Siri autonom mehrstufige Aufgaben mit minimalem Nutzereingriff ausführt, Drittanbieter-Agent-Plugins und persistenter Speicher über Sitzungen hinweg.

Die Verzögerung ist strategisch interessant. Apples eigene UX-Forschung ergab, dass Nutzer transparente, vorhersehbare KI-Agenten gegenüber mächtigen, aber undurchsichtigen bevorzugen. Ein phasenweiser Rollout gibt Nutzern Zeit, Vertrauen in Siris neue Fähigkeiten aufzubauen, bevor Apple den vollen autonomen Betrieb freischaltet.

Was das für den KI-Agenten-Markt bedeutet

Der Apple-Google-Deal verändert die Wettbewerbslandschaft in drei Punkten.

KI-Agenten für Verbraucher sind jetzt Realität. Wenn Siri auf 1,5 Milliarden aktiven Apple-Geräten zum echten KI-Agenten wird, ist das Konzept “KI-Agent” kein Enterprise-Schlagwort mehr, sondern etwas, das auch die eigenen Eltern nutzen. Das ist der Massenmarkt-Wendepunkt, auf den die Branche gewartet hat. Jeder Konkurrent, von Samsungs Bixby bis Amazons Alexa, gerät unter Druck, gleichzuziehen.

Die Modell-Ebene wird zur Commodity. Apple, eines der reichsten Unternehmen der Welt, hat entschieden, Googles Modelle zu lizenzieren statt eigene zu bauen. Das Signal ist klar: Der Wert liegt nicht im Foundation Model selbst, sondern im Produkterlebnis, der Datenschutzarchitektur und der Distribution darüber. Startups, die “bessere Modelle” als Alleinstellungsmerkmal bauen, sollten aufhorchen.

Datenschutz wird zum Feature, nicht zur Einschränkung. Apples Drei-Stufen-Architektur beweist, dass man einen leistungsfähigen KI-Agenten bauen kann, der die Privatsphäre respektiert. Für den EU AI Act und die DSGVO ist das ein wichtiger Präzedenzfall: Es geht, wenn man es wirklich will. Europäische Regulierer werden auf Apples Ansatz verweisen, wenn sie Datenschutzstandards für KI-Agenten formulieren.

Für Unternehmen im DACH-Raum, die KI-Agenten-Plattformen evaluieren, validiert der Apple-Deal ein zentrales Architekturmuster: Die besten verfügbaren Modelle nutzen (auch von einem Wettbewerber), sie in die eigene Datenschutz- und Sicherheitsschicht einpacken und die Nutzererfahrung selbst besitzen. Das ist eine Vorlage, der jedes Unternehmen folgen kann.

Häufig gestellte Fragen

Wie viel zahlt Apple an Google für den Gemini-Siri-Deal?

Mehrere Berichte schätzen den Deal auf rund eine Milliarde Dollar pro Jahr, obwohl weder Apple noch Google die genaue Summe bestätigt haben. Die mehrjährige Vereinbarung gibt Apple Zugang zu Geminis Basismodellen, Cloud-Compute-Infrastruktur und laufenden Modell-Updates für die nächste Generation von Siri.

Sendet Apple meine Siri-Daten an Google?

Nicht direkt. Apple nutzt eine dreistufige Datenschutzarchitektur. Einfache Anfragen laufen komplett auf dem iPhone. Komplexere Aufgaben werden auf Apples Private Cloud Compute Servern verarbeitet. Nur die anspruchsvollsten Anfragen erreichen Googles Infrastruktur, und Apple entfernt vorher personenbezogene Informationen durch eine Datenschutz-Pufferschicht.

Welche neuen Siri-Funktionen kommen mit iOS 26.4?

iOS 26.4 bringt Bildschirm-Kontexterkennung (Siri kann sehen und verstehen, was auf dem Display angezeigt wird), App-übergreifende Aufgabenketten (bis zu 10 sequenzielle Aktionen aus einer Anfrage) und Gesprächsgedächtnis (Siri behält den Kontext über bis zu 50 Runden). Funktionen wie voller Drittanbieter-App-Support wurden auf iOS 26.5 und iOS 27 verschoben.

Ist Siri jetzt so gut wie ChatGPT oder Google Assistant?

Siris Reasoning-Fähigkeiten werden jetzt von Gemini angetrieben, was es in die gleiche Modellklasse wie Google Assistant bringt. Allerdings hat Siris erste iOS 26.4 Version begrenzten Drittanbieter-App-Support im Vergleich zu Google Assistants breiterer Integration. Die vollen agentischen Fähigkeiten, einschließlich autonomer mehrstufiger Operationen und Drittanbieter-Plugins, werden in iOS 27 im September 2026 erwartet.

Funktioniert das Gemini-gestützte Siri auf älteren iPhones?

Die Gemini-gestützten Siri-Funktionen erfordern Apple Intelligence, das auf iPhone 15 Pro und neuere Modelle beschränkt ist. On-Device-Verarbeitungsaufgaben benötigen den A17 Pro Chip oder neuer. Ältere iPhones mit iOS 26.4 erhalten andere Updates, aber nicht die neuen KI-Agenten-Fähigkeiten.