Mit „Apple Intelligence“ hat Apple auf der WWDC24 sein Konzept für die Integration von künstlicher Intelligenz vorgestellt. Die neuen Funktionen sollen in iOS 18, iPadOS 18 und macOS Sequoia integriert werden und generative Modelle nutzen, um die Nutzererfahrung zu verbessern. Im Wesentlichen handelt es sich hier um eine Kombination von Apple-eigenen Funktionen, die mit besonderem Fokus auf den Schutz der Privatsphäre konzipiert sind, und der Integration von externen Diensten für Aufgaben, die sich mit den Bordmitteln von Apple nicht bewerkstelligen lassen.
Zu Start soll „Apple Intelligence“ mit einer nahtlosen Integration von ChatGPT erscheinen. Funktionen wie Siri werden dem Nutzer dann künftig anbieten, diese externen Dienstleister einzubeziehen, um einzelne Aufgaben zu bewältigen – quasi als Alternative zu „Ich habe das hier im Web gefunden“ heißt es künftig dann in etwa „Willst du ChatGPT dazu befragen?“.
Kernfunktionen von Apple Intelligence
Zu den von Apple selbst angebotenen und auf maximalen Datenschutz setzenden Basisfunktionen von Apples neuer KI-Integration zählen die folgenden in die Betriebssysteme und Apps integrierten Funktionen. Für komplexere Aufgaben kann „Apple Intelligence“ dabei auch auf speziell entwickelte Apple-Server zugreifen, die ebenfalls maximalen Datenschutz gewährleisten sollen.
Sprach- und Bildverarbeitung:
Sprachverarbeitung: Apple Intelligence soll Texte verstehen und erstellen können. Dies umfasst die Priorisierung von Benachrichtigungen und neue Schreibwerkzeuge, die systemweit verfügbar sind. Diese Werkzeuge können Texte umschreiben, korrigieren und zusammenfassen.
Bildverarbeitung: Nutzer können originelle Bilder erstellen und personalisieren. Funktionen wie „Image Playground“ ermöglichen die Erstellung von Bildern in verschiedenen Stilen (Skizze, Illustration, Animation).
Automatisierung und Kontextverständnis:
Automatisierung: Apple Intelligence kann Aufgaben in verschiedenen Apps ausführen, z. B. das Abrufen bestimmter Dateien oder Fotos.
Kontextverständnis: Die Technologie soll persönliche Informationen und Kontexte nutzen, um relevante Daten zu analysieren und entsprechende Aufgaben zu erledigen, ohne dass diese Daten in der Cloud gespeichert werden.
Verbesserungen von Siri im Detail
Siri soll durch Apple Intelligence natürlicher und kontextbezogener werden. Neu eingeführt werden:
Visuelles Design: Siri erhält ein neues Design mit einem leuchtenden Rahmen am Bildschirmrand.
Sprach- und Texterkennung: Siri soll besser verstehen, was Nutzer meinen, selbst wenn sie sich versprechen.
Kontextuelle Intelligenz: Siri kann Folgefragen verstehen und Aktionen auf dem Bildschirm ausführen, z. B. das Hinzufügen von Adressen zu Kontakten direkt aus Nachrichten heraus.
Erweiterte App-Integration: Entwickler können neue Aktionen für Siri definieren, die in deren Apps ausgeführt werden können.
Neue Schreib- und Kommunikationstools
Systemweite Schreibwerkzeuge: Diese sollen in verschiedenen Apps, einschließlich Mail, Notes und Safari, verfügbar sein und Funktionen wie Umschreiben, Korrekturlesen und Zusammenfassen von Texten bieten.
Smart Reply: Automatisierte Antwortvorschläge in Mail basierend auf dem Inhalt der empfangenen E-Mails.
Priorisierung und Zusammenfassung von E-Mails: E-Mails werden nach Wichtigkeit sortiert und zusammengefasst, um den Überblick zu erleichtern.
Genmoji: Nutzer können personalisierte Emojis erstellen, die perfekt zu ihrer Stimmung passen.
Image Playground: Eine neue Funktion, mit der Nutzer spielerisch Bilder erstellen können, die in verschiedenen Stilen dargestellt werden können.
Apple wird seine neue KI-Funktionen zunächst nur in englischer Sprache anbieten. Ob bereits zum offiziellen Start der neuen Betriebssysteme im Herbst auch internationale Sprachen unterstützt werden, bleibt abzuwarten. Mindestvoraussetzung ist laut Apple ein iPhone 15 Pro oder Macs und iPads mit M-Prozessoren.