Wer bei KI vor allem Tempo, Effizienz und geringere Kosten will, bekommt mit GPT-5.4 mini jetzt eine neue Option direkt in ChatGPT. Das Modell zielt auf Aufgaben wie Coding, Computernutzung, Bildverständnis und Sub Agents, bei denen größere Modelle wie GPT-5.4 oft langsamer und teurer sind. OpenAI bringt GPT-5.4 mini außerdem in Codex und die API.
GPT-5.4 mini is available today in ChatGPT, Codex, and the API.
Optimized for coding, computer use, multimodal understanding, and subagents. And it’s 2x faster than GPT-5 mini.https://t.co/DKh2cC5S3F pic.twitter.com/sirArgn37L
— OpenAI (@OpenAI) March 17, 2026
Laut OpenAI arbeitet GPT-5.4 mini mehr als doppelt so schnell wie GPT-5 mini und bringt viele Stärken von GPT-5.4 in eine schnellere und effizientere Modellvariante. In ChatGPT können Go Usern das Modell über Thinking im Tools-Menü hinter dem Plussymbol im Eingabefeld nutzen. Für Plus-, Business-, Pro-, Enterprise- und Edu-Nutzer:innen springt GPT-5.4 mini ein, sobald das Nutzungslimit für GPT-5.4 Thinking erreicht ist.
GPT-5.4 ist da:
ChatGPT zeigt den Denkweg und bedient Software
GPT-5.4 mini ist da: OpenAI macht schnelle KI jetzt kostengünstiger
GPT-5.4 mini ist nicht bloß eine abgespeckte Version des großen Modells GPT-5.4. Laut OpenAI wurde es für Workloads entwickelt, bei denen Reaktionsgeschwindigkeit das Produkterlebnis direkt prägt. Dazu zählen etwa Coding Assistants, KI-Assistants für einzelne Teilaufgaben, Anwendungen mit Bild- und Texteingaben sowie Systeme, die Screenshots schnell erfassen und auswerten müssen.
Bei mehreren Evaluierungen liegt GPT-5.4 mini deutlich vor GPT-5 mini und rückt in manchen Benchmarks nah an GPT-5.4 heran. Im Benchmark SWE-Bench Pro erreicht GPT-5.4 mini laut OpenAI 53,4 Prozent, GPT-5 mini 45,7 Prozent. Bei OSWorld-Verified erreicht GPT-5.4 mini 70,6 Prozent, GPT-5 mini 42,0 Prozent. Für die API nennt OpenAI ein Kontextfenster von 400.000 Tokens. Unterstützt werden Text- und Bildeingaben, Tool-Nutzung, Function Calling, Web-Suche, Dateisuche und Computernutzung.
GPT‑5.4 mini ist ab sofort in der API, Codex und ChatGPT verfügbar. Preislich liegt GPT-5.4 mini bei 0,75 US-Dollar pro einer Million Input Tokens und 4,50 US-Dollar pro einer Million Output Tokens. Parallel startet mit GPT-5.4 nano auch die kleinste und günstigste Variante, die aber nur in der API verfügbar ist.
Nicht ein Modell für alles: OpenAI setzt immer stärker auf den Modellmix
Gerade für Entwickler:innen dürfte GPT-5.4 mini interessant sein, weil OpenAI das Modell für Setups empfiehlt, in denen ein großes Modell plant und kleinere Modelle einzelne Aufgaben schneller abarbeiten. In Codex kann GPT-5.4 laut OpenAI etwa die Strategie erarbeiten, während GPT-5.4 mini eine Codebase durchsucht, große Dateien prüft oder Begleitdokumente verarbeitet.
Der Launch von GPT-5.4 mini zeigt, in welche architektonische Richtung sich moderne KI-Systeme entwickeln. Nicht mehr ein Modell erledigt alles, sondern mehrere KI-Modelle arbeiten abgestimmt zusammen. Genau in diesem Umfeld dürfte auch aus Europa bald wieder mehr kommen.
Mit Mistral Vibe 2.0 steht bereits ein europäischer Coding Agent bereit, der Sub Agents, Codebase-Verständnis und Verknüpfungen zu GitHub, GitLab oder Jira bietet. Jetzt hat Mistral AI eine Kooperation mit NVIDIA angekündigt, um gemeinsam offene Frontier-Modelle zu entwickeln.
Announcing a strategic partnership with NVIDIA to co-develop frontier open-source AI models, combining Mistral AI’s frontier model architecture and full-stack AI offering with NVIDIA’s leading compute infrastructure and development tools. pic.twitter.com/4jqyKHHELz
— Mistral AI (@MistralAI) March 16, 2026
Mistrals Modellarchitektur trifft dabei auf NVIDIAs Compute-Infrastruktur und Development Tools. Das ist auch deshalb relevant, weil Europa im KI-Wettbewerb digitale Souveränität und technologische Eigenständigkeit anstrebt. Während die USA den KI-Sektor zunehmend über Exportkontrollen, Infrastrukturbesitz und nationale Sicherheitsinteressen absichern und damit technologische Abhängigkeiten aktiv mitgestalten, versucht Europa mit offenen Modellökosystemen, AI Factories und einer eigener Infrastruktur gegenzuhalten.
