Seit der Freigabe von iOS 26, iPadOS 26 und macOS 26 steht Entwicklerinnen und Entwicklern das sogenannte Foundation Models Framework von Apple zur Verfügung. Es ermöglicht, auf dem Gerät laufende KI-Funktionen in Apps zu integrieren.
Grundlage ist das Sprachmodell, das auch Apple Intelligence antreibt. Die Verarbeitung erfolgt lokal, wodurch persönliche Daten das Gerät nicht verlassen. Außerdem entstehen keine laufenden Kosten für die Nutzung des Modells, da keine Verbindung zu externen Servern notwendig ist.
Apple zeigt Praxisbeispiele
Auffällig ist, dass Apple selbst nun verstärkt auf Drittanbieter verweist. Das Unternehmen hat eine Pressemitteilung veröffentlicht, in der es konkrete Apps vorstellt, die das Foundation Models Framework bereits einsetzen. Apple selbst hatte sich zuletzt ja eher zurückhaltend zu seiner KI-Strategie geäußert (wenn überhaupt) und nutzt nun die Beispiele von Entwicklerinnen und Entwicklern, um den praktischen Nutzen von Apple Intelligence sichtbar zu machen.
CellWalk: erklärt biologische Fachbegriffe dialogorientiert und passt Erklärungen an den Lernstand an.
Detail: erstellt Teleprompter-Skripte aus Entwürfen und generiert Titel, Beschreibungen und Hashtags für Videos.
Gratitude: erstellt wöchentliche Reflexionen und verwaltet Tagebucheinträge.
Grammo: erläutert Fehler in Englischübungen und generiert neue Aufgaben im Dialog.
Lil Artist: erstellt personalisierte Kinder-Geschichten mit Bildern.
OmniFocus 4: generiert Projekt- und Aufgabenlisten, z. B. für Reisen.
Signeasy: erstellt Zusammenfassungen und beantwortet Fragen zu Dokumenten.
SmartGym: erstellt strukturierte Trainingspläne aus kurzen Beschreibungen, fasst Fortschritte zusammen und gibt adaptive Empfehlungen.
Stoic: generiert personalisierte Tagebuch-Prompts basierend auf Stimmung und bisherigen Einträgen.
Stuff: erkennt Termine, Tags und Listen automatisch und wandelt gesprochene Notizen in Aufgaben um.
SwingVision: analysiert Tennis- und Pickleball-Videos und liefert spielbezogenes Feedback.
VLLO: analysiert Videos und schlägt Musik sowie Sticker passend zu Szenen vor.
Apps aus den Bereichen Fitness, Bildung, Kreativität und Produktivität nutzen das Framework bereits. In Trainings-Apps lassen sich etwa Workouts aus einfachen Textanweisungen generieren oder Trainingsfortschritte zusammenfassen. Tagebuch-Apps können Stimmungen analysieren und individuelle Schreibanregungen anbieten. Lern-Apps erklären Fachbegriffe kontextbezogen und passen Inhalte an das Wissen der Nutzerinnen und Nutzer an. Kreativitäts-Tools analysieren Videos oder Texte und schlagen passende Elemente vor, ohne dass dafür eine Cloud-Verarbeitung erforderlich ist.
Fokus auf Datenschutz und Integration in Swift
Das Framework ist eng mit der Programmiersprache Swift verbunden. Entwickler können Anfragen direkt aus ihrem Code an das lokale Modell mit drei Milliarden Parametern senden. Die geführte Generierung sorgt dafür, dass Antworten in einem verlässlichen Format zurückkommen. Zusätzlich lassen sich eigene Tools einbinden, damit die KI fehlende Informationen direkt aus der App anfordern kann.
Apple betont, dass die neue Architektur den Datenschutz stärkt, da sensible Inhalte auf dem Gerät bleiben. Gleichzeitig sinkt der Aufwand für die Integration von KI, weil keine eigene Serverinfrastruktur erforderlich ist. Das Framework funktioniert auf Geräten, die Apple Intelligence unterstützen und ist für mehrere Sprachen verfügbar, darunter Deutsch.
Der Beitrag Apple zeigt Praxisbeispiele: So setzen Apps Apples KI-Modell bereits ein erschien zuerst auf iphone-ticker.de.
