Mit der App Locally AI lassen sich Sprachmodelle wie Meta Llama, Google Gemma oder Qwen direkt auf dem iPhone oder iPad ausführen. Eine Internetverbindung wird dafür nicht benötigt. Die gesamte Datenverarbeitung erfolgt lokal auf dem Gerät, was eine Nutzung ohne Anmeldung oder Cloud-Anbindung erlaubt.
Laut Anbieter bleibt so die Privatsphäre der Nutzer vollständig gewahrt, da keinerlei Daten an externe Server übertragen werden.
Technische Grundlage ist Apples MLX-Framework, das auf die hauseigenen Chips mit einheitlicher Speicherarchitektur abgestimmt ist. Dadurch sollen sowohl Ladezeiten als auch Antwortgeschwindigkeiten optimiert werden.
Unterstützt werden unter anderem die Modelle Llama 3.2, Gemma 2 und 3, Qwen 3, DeepSeek R1 sowie weitere quelloffene Systeme für Sprachverarbeitung und Bilderkennung. Die Anwendung richtet sich an Nutzer, die Sprachassistenten oder Textgeneratoren verwenden möchten, ohne dafür auf Online-Dienste zurückgreifen zu müssen.
Integration in iOS 26
Locally AI wurde gezielt für iOS 26 und die aktuelle Apple-Hardware entwickelt. Die App nutzt dabei Systemfunktionen wie die Sprachsteuerung über Siri, Schnellzugriffe per Kontrollzentrum und die Integration in Apples Kurzbefehle-App. Ein Sprachmodus erlaubt zudem gesprochene Eingaben, die vollständig lokal verarbeitet werden. Über ein anpassbaren System-Prompt lässt sich das Verhalten des Sprachmodells individuell steuern.
Besonders auf dem iPad sollen sich durch größere Displays und leistungsfähigere Chips auch komplexere Modelle und Aufgaben komfortabel nutzen lassen. Die aktuelle Version unterstützt seit kurzem auch das Apple Foundation Model.
Locally AI steht komplett kostenlos über den App Store für aktuelle iPhone- und iPad-Modelle zur Verfügung und kann ohne Registrierung genutzt werden. Einmal heruntergeladene Modelle lassen sich dauerhaft offline betreiben.
Locally AI – Local AI Chat (Kostenlos, App Store) →
Der Beitrag KI auf dem iPhone: Locally AI ermöglicht Offline-Nutzung vieler Modelle erschien zuerst auf iphone-ticker.de.
