Schon in der Vergangenheit wurde viel über neue KI-Features in Apples Hardware spekuliert. Während der WWDC 2024-Keynote haben Tim Cook und Craig Federighi nun diese Funktionen vorgestellt, die unter dem Namen „Apple Intelligence“ versammelt sind.
„Wir wollen sicherstellen, dass das Ergebnis die Prinzipien widerspiegelt, die den Kern unserer Produkte ausmachen“, so Cook, als er Apples KI-Vorstoß ankündigt. „Sie muss leistungsstark, intuitiv und tief integriert sein. Am wichtigsten ist, dass sie dich versteht“, sagte er. „Und natürlich muss der Datenschutz von Anfang an berücksichtigt werden. Es geht über künstliche Intelligenz hinaus“, sagte Cook. „Es ist der nächste große Schritt für Apple.“ Bei Apple Intelligence soll es sich um ein neues persönliches Intelligenzsystem handeln, das die eigenen persönlichen Produkte noch angenehmer zu bedienen machen soll.
Craig Federighi erklärt, dass das Unternehmen seit langem auf diesen Moment hingearbeitet habe. Tools, die heute existieren, wissen „sehr wenig über dich oder deine Bedürfnisse“. Mit iOS 18, iPadOS 18 und macOS Sequoia soll es anders sein: Apple Intelligence wird auf die persönlichen Daten zurückgreifen, um Erlebnisse auf diesen Plattformen zu liefern.
Apple bot auch einen genaueren Blick auf die Funktionen von Apple Intelligence, dann auf die Funktionsweise und schließlich darauf, wie es in der täglichen Praxis eingesetzt werden kann. Apple Intelligence wird mit iPhone, iPad und Mac funktionieren. Es wird den persönlichen Kontext verstehen, angefangen bei Sprache und Text.
Sprachmodelle auch in Drittanbieter-Apps
Die Sprachmodelle in Apple Intelligence werden es ermöglichen, Dinge wie Benachrichtigungen zu lesen und dabei helfen, wichtige Benachrichtigungen zu priorisieren und Ablenkungen zu minimieren. Außerdem wird es systemweit neue Schreibwerkzeuge geben, die Texte umschreiben, Korrektur lesen und zusammenfassen.
Diese Werkzeuge können in Mail, Notizen, Safari, Pages, Keynote und Drittanbieter-Apps verwendet werden. Es wird auch Unterstützung für Bilder und Emojis geben. Man wird in der Lage sein, neue Bilder zu erstellen, um „alltägliche Unterhaltungen angenehmer zu gestalten“. Wenn man beispielsweise einem Freund zum Geburtstag gratuliert, kann man ein Bild mit einem Kuchen erstellen. Bilder lassen sich in drei Stilen erstellen: Skizze, Illustration und Animation. Diese Funktion soll ist in allen Anwendungen des Systems wie Notizen, Freeform und Seiten integriert werden.
Apple Intelligence kann in allen Apps aktiv werden: Sie wurde so konzipiert, dass sie auf vorhandene Tools zugreift, um Aufgaben im eigenen Namen auszuführen. Man kann beispielsweise sagen: „Zeig mir alle Fotos von Mama, Olivia und mir“ oder bestimmte Podcasts abspielen, je nachdem, wann man sie zuletzt abgespielt hat.
Apple Intelligence „basiert auf deinen persönlichen Informationen und Ihrem Kontext“, da es in der Lage ist, Daten aus Apps oder auf dem Bildschirm abzurufen, beispielsweise dem Kalender. Daten müssen nicht aus der Hand gegeben werden, damit sie gespeichert und analysiert werden. Apple Intelligence ist, wie viele andere Produkte des Unternehmens, auf den Datenschutz ausgerichtet. Die Verarbeitung auf dem Gerät ist die Grundlage für Apple Intelligence. Es wird die eigenen persönlichen Daten kennen, ohne sie zu sammeln, so Federighi. Apple Intelligence durchsucht Apps, um relevante Daten zu finden, und leitet diese an andere Apps weiter, um optimal zu unterstützen.
Federighi möchte die Privatsphäre des iPhones auf die Cloud ausdehnen, „um noch mehr Intelligenz für dich freizusetzen“, und so kündigt Private Cloud Compute an. Damit kann das Unternehmen Serverleistung für fortschrittlichere Verarbeitungsprozesse nutzen und gleichzeitig die Privatsphäre und Sicherheit des iPhones wahren. Wenn man eine Anfrage stellt, analysiert Apple Intelligence, ob sie auf dem Gerät verarbeitet werden kann, und sendet nur Daten, die für die Aufgabe relevant sind, zur Verarbeitung an die Apple-Server.
Apple Intelligence mit Siri
Apple Intelligence wird unter anderem mit Siri funktionieren. Siri wurde vor 13 Jahren auf den Markt gebracht und macht mit KI-Funktionen jetzt einen „großen Schritt nach vorn“. Sie wird natürlicher, relevanter und persönlicher werden, ist tiefer in die Systemerfahrung integriert, leuchtet jetzt die Ränder des iPhones aus und kann auch damit umgehen, wenn man während eines Befehls etwas falsch sagt.
Apple stützt sich auch auf das Wissen von Siri bezüglich der eigenen Produkte. Man kann Siri fragen, wie man jetzt eine Nachricht schreiben und morgen zustellen kann, und Siri zeigt Anweisungen zur Verwendung von „Geplantes Senden“ in „Nachrichten“ an.
Siri hat jetzt auch ein Bewusstsein auf dem Bildschirm. Wenn ein Freund eine SMS mit seiner Adresse schickt, kann man Siri bitten, sie zu seiner Kontaktkarte hinzuzufügen. Der Sprachassistent wird in der Lage sein, applikationsübergreifend Aktionen auszuführen. Man kann ein Foto verfeinern oder es in ein Notizen-Dokument einfügen. Dies alles ist Teil der Upgrades rund um „App Intents“, die Entwicklern und Entwicklerinnen helfen können, Absichten innerhalb ihrer Software zu definieren.
Siri und Apple Intelligence in Mail
Apple berichtete auch darüber, wie Siri mit systemweiten Tools funktioniert. Der erste Punkt ist Mail: Man kann E-Mails neu schreiben und sich verschiedene Versionen vorschlagen lassen und dann die bevorzugte auswählen. Die Vorschläge werden inline angezeigt, so dass man diejenige auswählen kann, die sich am besten einfügt. Außerdem kann man mit Rewrite den Tonfall verbessern. Man kann versuchen, freundlicher, professioneller oder prägnanter zu klingen.
Auch Hobby-Poeten können sich freuen: Man kann auch etwas in ein Gedicht umschreiben. Korrekturlesen ist eine weitere Funktion, die bei Grammatik und Zeichensetzung hilft. Man kann einzelne vorgeschlagene Änderungen annehmen oder alle auf einmal akzeptieren. Mit Summarize schließlich lassen sich Kurzfassungen erstellen, die man am Anfang langer E-Mails einfügen kann.
Im Posteingang werden außerdem bessere Vorschauen für jeden Brief mit KI-generierten Zusammenfassungen angezeigt. Man erhält außerdem eine Vorschau am Anfang jeder E-Mail, so dass man weniger Zeit mit Überfliegen und Scrollen verbringen müssen. E-Mails mit hoher Priorität werden ebenfalls besser angezeigt.
Priorisierungen für Benachrichtigungen
Diese Priorisierung wird auch für Benachrichtigungen gelten. Prioritätsbenachrichtigungen werden weiter oben angezeigt und zusammengefasst. Wenn man also von 100 WhatsApp-Pings geweckt wird, erhält man eine Zusammenfassung, die mitteilt, dass sich beispielsweise ein Freund verlobt hat.
Sich ausdrücken mit Apple Intelligence
Apps wie Keynote oder Drittanbieter-Optionen können helfen, sich besser auszudrücken. In iMessage kann man mit Genmoji benutzerdefinierte Emoji erstellen. Sie werden auf dem Gerät erstellt und sie lassen sich über die Tastatur kreieren. Man kann zum Beispiel eine Beschreibung über rüpelhafte Eichhörnchen oder skateboardfahrende Dinosaurier eingeben. Zudem lässt sich auch ein Kontakt benennen und dessen Avatar im eigenen Genmoji verwenden.
Neue App: Image Playground
Es gibt auch ein neues Systemerlebnis namens Image Playground inklusive einer eigenen gleichnamigen App, mit dem man in Sekundenschnelle verspielte Bilder erstellen kann. Image Playground ist auch in Apps wie Messages integriert. Zu Beginn kann man aus Themen, Kostümen, Orten und mehr auswählen. Wenn man eines auswählst, wird es zum eigenen Spielplatz hinzugefügt. Sekunden später erhält man eine Vorschau darauf, wie das Bild aussehen könnte – eine Art visueller Mix-and-Match-Komposition.
Wenn man eine bestimmte Idee im Kopf hat, kann man eine Beschreibung eingeben, um sie der eigenen Spielwiese hinzuzufügen, und man kann einen Stil wählen sowie angeben, ob es sich um eine Animation, Skizze oder Illustration handelt. Außerdem lässt sich zurückgehen und auch früher erstellte Bilder ansehen. Man kann auch Bilder erstellen, die auf eigenen Fotos basieren, und das Aussehen eines Freundes oder einer Freundin aus Bildern von ihm oder ihr erstellen.
Bildbearbeitung mit Apple Intelligence
Auch die Fotobearbeitung erhält ein Update von Apple Intelligence. Das neue Cleanup-Tool ähnelt im Grunde Googles Magic Eraser und wird Ablenkungen im Hintergrund der Bilder beseitigen. Man wird auch in der Lage sein, Fotos und Videos besser zu durchsuchen, indem man bestimmte Beschreibungen eingeben, beispielsweise „Maria rollt auf dem Rasen“ oder jemanden, der Aufkleber im Gesicht hat, um diese speziellen Momente zu finden.
Das Durchsuchen der eigenen Bilder, um Videos und Erinnerungen zu erstellen, kann mühsam sein, wenn man eine Menge Fotos aus Ihrem Urlaub angesammelt hat. Apple Intelligence kann dabei helfen, die besten Fotos und Videos auszuwählen, eine Geschichte mit Kapiteln zu erstellen, die auf den in Ihren Bildern erkannten Themen basieren, und Hintergrundmusik und Übergänge hinzuzufügen.
ChatGPT-Integration und Release
Apple Intelligence ist kostenlos für iOS 18, iPadOS 18 und macOS Sequoia verfügbar. Man wird auch eng mit OpenAIs ChatGPT zusammenarbeiten, und die Tools in die neuen Betriebssysteme integrieren. Auf diese Weise soll das Hin- und Herspringen zwischen Services und Apps vermieden werden. Die ChatGPT-Integration wird im Laufe des Jahres in alle neuen Betriebssysteme von Apple integriert und ist für alle Apple-User ohne das Anlegen eines OpenAI-Accounts kostenlos.
Apple macht es darüber hinaus Entwicklern und Entwicklerinnen leicht, KI-Funktionen zu integrieren. Wenn man bereits SiriKit verwendet hat, muss man nicht viel zusätzliche Arbeit leisten, um die neuen KI-Funktionen von Siri zu nutzen. „Das ist AI für den Rest von uns“, sagt Federighi. Apple Intelligence wird in einer Betaversion mit iOS 18, iPadOS 18 und macOS 15 Sequoia im Herbst eingeführt und soll kontinuierlich weiterentwickelt werden.
Der Beitrag WWDC 2024: Apple Intelligence für das Apple-Ökosystem vorgestellt erschien zuerst auf appgefahren.de.