Apple Intelligence und Gemini: die KI-Revolution von Apple und Google

Apple Intelligence und Gemini: die KI-Revolution von Apple und Google

15. Januar 2026

VON DER APPLE-WELT

In den letzten Jahren hat die künstliche Intelligenz unsere Art und Weise, Technologie zu nutzen, neu definiert - nicht nur für spezifische Funktionen wie Suche oder Übersetzung, sondern als integraler Bestandteil des täglichen Nutzererlebnisses. In diesem Szenario hat Apple Apple Intelligence vorgestellt, ein tief in iOS, iPadOS und macOS integriertes KI-System, mit dem Ziel, den Sprachassistenten Siri intelligenter, proaktiver und leistungsfähiger zu machen.

Die Evolution von Apple Intelligence beruht jedoch nicht mehr nur auf den intern von Apple entwickelten Technologien, sondern umfasst auch ein disruptives Element: die Integration von Gemini, dem KI-Modell von Google, in die sogenannten Foundation Models, die das Gehirn für die fortschrittlichen Funktionen von Apple AI darstellen.

Diese mehrjährige und strategische Vereinbarung markiert einen bedeutenden Wendepunkt in der Geschichte der Verbraucher-KI und könnte nicht nur die Zukunft von Siri, sondern auch das gesamte Apple Intelligence-Ökosystem in den kommenden Jahren neu definieren.

Apple Intelligence: Was ist es und wo stehen wir im Jahr 2026

Apple Intelligence ist der Name, unter dem Apple alle integrierten KI-Funktionen in seinen neuesten Betriebssystemen zusammengefasst hat. Es handelt sich um einen Satz tiefgreifender KI-Fähigkeiten, die von der Texterstellung bis hin zum kontextuellen Verständnis reichen, einschließlich fortgeschrittener Funktionen wie das Lesen und Zusammenfassen von Dokumenten, die Erstellung visueller Inhalte und die Stärkung von Siri.

Apple Intelligence ist darauf ausgelegt, die Apple Silicon-Chips und die Private Cloud Computer-Infrastruktur optimal zu nutzen, um Operationen zu verwalten, die Rechenleistung erfordern, ohne die Benutzerdaten an unangemessene externe Server preiszugeben.

Gemini: Was ist es und warum ist es anders

Google Gemini ist ein Modell, das in seinen fortschrittlichsten Versionen über 1,2 Billionen Parameter erreichen kann, eine Dimension, die es zu einem der leistungsstärksten Modelle auf dem Markt macht.

Der wahre Durchbruch in der Vereinbarung zwischen Apple und Google besteht darin, dass Apple beschlossen hat, eine angepasste Version von Gemini zu nutzen, um als “Gehirn” für seine Foundation Models zu dienen, die dazu bestimmt sind, zukünftige Versionen von Apple Intelligence und insbesondere dem Assistenten Siri zu unterstützen.

Diese Entscheidung stellt einen Bruch mit Apples historischer Vorgehensweise dar, die bis heute auf intern entwickelten Modellen basierte, die direkt auf den Geräten oder über die eigene Cloud-Infrastruktur verarbeitet wurden.

Die Vereinbarung zwischen Apple und Google: eine neuartige Partnerschaft

Laut verschiedenen Quellen, darunter Bloomberg und internationale Medien, hat Apple eine mehrjährige Vereinbarung mit Google getroffen, um Technologien zu nutzen, die auf Gemini AI in ihren Systemen basieren.

Im Folgenden ein Teil des Textes der Vereinbarung, ins Deutsche übersetzt:

"Apple und Google haben eine mehrjährige Zusammenarbeit gestartet, unter der die nächste Generation der Apple Foundation Models auf den Modellen von Gemini und der Google-Cloud-Technologie basieren wird. Diese Modelle werden die Entwicklung zukünftiger Funktionen von Apple Intelligence unterstützen, einschließlich einer personalisierten Version von Siri, die in diesem Jahr bereits verfügbar sein wird."

Ziel der Vereinbarung

Das Hauptziel ist es, Siri und Apple Intelligence mit einer viel entwickelteren Sprachverständnisfähigkeit auszustatten als bisher verfügbar. Insbesondere beinhaltet diese Vereinbarung:

  • die Nutzung von auf Gemini basierenden Modellen als Grundlage für die Apple Foundation Models;

  • die Einführung von Technologien, die komplexe Aufgaben wie Textzusammenfassung, Planung und kontextuelle Erklärungen ausführen können;

  • die Verwaltung der KI auf Apples privaten Servern oder on device, um die Datenschutzstandards zu wahren, ohne die Benutzerdaten zu gefährden;

  • schon im Jahr 2026 könnte ein neuer, personalisierter und leistungsfähigerer Siri zu sehen sein, dank der Kombination der Siri-Technologie und der Gemini-KI-Engine.

Warum Apple Gemini gewählt hat

Apple hat auch alternative Lösungen bewertet, darunter Modelle von OpenAI und Anthropic, aber letztlich entschieden, dass Gemini die solideste Basis für die Entwicklung ihrer proprietären Modelle darstellt, indem es Leistung, Skalierbarkeit und Kosten ausgleicht.

Was ist ein Foundation Model und warum ist es wichtig

Der Begriff Foundation Model bezieht sich auf sehr umfassende und vielseitige KI-Modelle, die als Grundlage für die Schaffung spezifischer, komplexerer Funktionen dienen. Apple hat das Konzept der Foundation Models in seiner KI-Infrastruktur eingeführt, um Funktionen zu ermöglichen, die weit über die einfache Sprach-zu-Text-Erkennung hinausgehen, bis hin zum fortgeschrittenen semantischen Verständnis und der Generierung von Kontextinhalten.

In der Praxis fungiert ein Foundation Model als zentraler Gehirn, das große Mengen an Informationen versteht, generiert, übersetzt und interpretiert. Der evolutionäre Schritt von Apple war es, diese Modelle nicht nur für die on-device Ausführung zu denken, sondern auch dazu, komplexe Aufgaben über die Cloud zu steuern.

Die Integration von Apple Gemini in die Foundation Models bedeutet, dass dieser grundlegende “künstliche Verstand” viel mächtiger und anpassungsfähiger sein kann als die bis heute ausschließlich intern entwickelten Lösungen.

Das Gleichgewicht zwischen Datenschutz und KI-Power

Eines der Hauptmerkmale von Apple ist seit jeher der Datenschutz. Auch wenn Gemini ein Modell von Google ist, verwaltet Apple die Implementierung so, dass das Modell über Private Cloud Computer ausgeführt wird und von Apples Systemen kontrolliert wird.

Das bedeutet:

  • die persönlichen Daten der Benutzer werden nicht an unbefugte externe Server gesendet;

  • Apple behält die vollständige Kontrolle darüber, wie die Modelle in ihrem Ökosystem verwendet werden;

  • die Antworten und die Verarbeitung können für Apple-Benutzer optimiert werden, ohne die Sicherheit zu gefährden.

Dieses hybride Modell, mit „on-device“-Verarbeitungen und über private Cloud, ist darauf ausgelegt, Benutzerdatenschutz und die Leistungsfähigkeit des Gemini-Modells zu verbinden.

Implikationen für Entwickler und Apps

Die Einführung der Gemini-Modelle in die Foundation Models wird nicht nur Siri beeinflussen. Entwickler können die neue KI-Basis durch die Apple-Frameworks wie Core ML und App Intents nutzen, um intelligentere und interaktive Apps zu erstellen.

Stell dir vor, Anwendungen, die:

  • komplexere natürliche Anweisungen verstehen können;

  • personalisierte Antworten generieren können;

  • multimodale Inhalte erstellen können;

  • proaktive Unterstützung für den Benutzer bereitstellen;

  • Aufgaben automatisieren, die heute manuelle Eingaben erfordern. Diese Öffnung könnte die Einführung fortschrittlicher KI-Funktionen in Drittanbieter-Apps erheblich beschleunigen und die Gesamterfahrung auf iPhone, iPad, Mac und anderen Apple-Geräten verbessern.

Konkrete Anwendungszenarien von Apple Intelligence + Google Gemini

Betrachten wir einige konkrete Beispiele, wie die Integration von Gemini in Apple Intelligence das Nutzererlebnis verändern könnte:

Komplexere und intelligentere Sprachbefehle

Mit dem neuen Siri kannst du nicht nur fragen: „Wie wird das Wetter morgen?

Artikel teilen

Artikel teilen

Abonnieren Sie unseren Newsletter

Bleiben Sie über unsere exklusiven Angebote, Sonderrabatte und neuesten Nachrichten informiert!

Abonnieren Sie unseren Newsletter

Bleiben Sie über unsere exklusiven Angebote, Sonderrabatte und neuesten Nachrichten informiert!

Abonnieren Sie unseren Newsletter

Bleiben Sie über unsere exklusiven Angebote, Sonderrabatte und neuesten Nachrichten informiert!

Abonnieren Sie unseren Newsletter

Bleiben Sie über unsere exklusiven Angebote, Sonderrabatte und neuesten Nachrichten informiert!

DE