Du sprichst lieber, statt zu tippen? Dann kommt jetzt dein Update! Die Sprachfunktion von ChatGPT ist jetzt direkt im Chat-Fenster verfügbar – ohne Extra-Screen, ohne Unterbrechung.
You can now use ChatGPT Voice right inside chat—no separate mode needed.
You can talk, watch answers appear, review earlier messages, and see visuals like images or maps in real time.
Rolling out to all users on mobile and web. Just update your app. pic.twitter.com/emXjNpn45w
— OpenAI (@OpenAI) November 25, 2025
Damit rückt die Voice-Funktion näher an den natürlichen Gebrauch der ChatGPT-Nutzer:innen. Sprechen, lesen, visuelle Inhalte ansehen: Alles passiert jetzt in einem Chat. Die erweiterte ChatGPT Voice-Funktion ist ab sofort im Web und auf mobilen Geräten für alle User verfügbar.
Sreensharing, Video, Voice-Interaktion:
Mega-Update für ChatGPT Advanced Voice Mode
Sprechen, sehen, tippen – alles in einem ChatGPT Chat
Bisher mussten User in einen separaten Voice-Bildschirm wechseln, um mit ChatGPT zu sprechen. Dort standen zwar Mikrofon- und Live-Video-Funktionen bereit, jedoch fehlten Textantworten, die man beispielsweise auch nach dem Gespräch noch einmal nachvollziehen konnte. Wer etwas verpasst hat, musste zurück in den Textmodus.
Diese Trennung fällt nun weg. Nutzer:innen können sprechen und gleichzeitig zusehen, wie ChatGPT die Antwort formuliert. Frühere Nachrichten bleiben sichtbar. Bilder, Karten oder andere visuelle Elemente erscheinen direkt im laufenden Dialog. Der Wechsel zwischen Stimme und Text passiert ohne Bruch, beendet wird ein Sprachgespräch nur über die Option „Beenden“.
ChatGPTs Voice Mode ist standardmäßig aktiv
Der neue Voice-Modus ist für alle automatisch aktiviert und wird schrittweise auf Web und Mobile ausgerollt. Wer lieber den alten, separaten Sprachmodus nutzt, kann ihn in den Einstellungen unter „Sprachmodus“ wieder aktivieren.
Parallel entwickelt OpenAI zusätzliche Voice-Funktionen weiter. Dazu zählt auch Voice Clipping: ein Feature, das es ermöglicht, gesprochene Antworten zu schneiden und direkt zu teilen. Damit reagiert OpenAI auf die steigende Nachfrage nach flexiblen Audioformaten und dialogorientierten KI-Erlebnissen.
