Taylor Swift tanzt oben ohne, Anime-Charaktere entblößen sich, überall werden in fiktiven Videos die Hüllen fallen gelassen. Das ist ein Effekt des neuen Spicy Mode von Grok Imagine. Das KI-Feature von xAIs KI-Tool Grok hat neben dem Custom, Normal und Fun Mode für die Generierung von Bildern und Videos diesen neuen Modus in petto, um NSFW (Not Safe For Work) Content und insbesondere sexualisierte Visuals erstellen zu können. Zwar soll es dabei Sicherheitsvorkehrungen in Bezug auf Deepfakes von echten Personen und Bildern geben – doch genau solche konnte das Team von The Verge dennoch kreieren, mit Weltstar Taylor Swift im Fokus.

Auf Threads ansehen

Groks brandneuer Modus sorgt in kurzer Zeit für Millionen Videokreationen, lässt viele Bedenken außer acht und wird damit zu einer Folie für eine Kernproblematik der generativen KI im Visual-Kontext. Dabei wollte X-Eigner Elon Musk mit Grok Imagine sein eigenes AI Vine heraufbeschwören. Doch von Vine ist Grok Imagine weit entfernt.

Grok Imagine is AI Vine!

Btw, we recently found the Vine video archive (thought it had been deleted) and are working on restoring user access, so you can post them if you want.

— Elon Musk (@elonmusk) August 2, 2025

Imagine with @Grok pic.twitter.com/UIay5yNp97

— Elon Musk (@elonmusk) August 4, 2025

Erinnerst du dich an Vine?

Musk will die Kult-App zurückbringen

© Vine Labs, Inc. und X Corp. via Wikimedia Commons (via Canva)

Das kann Grok Imagine

xAI hat Grok Imagine für iOS bereitgestellt, zunächst für SuperGrok und Premium Plus X-Abonnent:innen. Diesen Usern erlaubt Grok mit Text-to-Image- und Image-to-Video-Optionen die Generierung von Bildern und Videos im KI-Kosmos. Auch per Prompt können Vorgaben gemacht werden. Dabei lassen sich Clips von bis zu 15 Sekunden Länge aus Bildern kreieren, inklusive Audio – allerdings nicht allein mit dem Prompt. Grok sieht vor, dass die User ein Visual in der App erstellen, das als Grundlage dient. Oder sie nutzen ein Bild aus ihrer Galerie. In diesem Kontext kommt bereits ein Problem auf. Denn während einige User berichten, keine Inhalte auf Basis von Bildern berühmter oder ihnen bekannter Personen kreieren zu können, haben andere im Test bereits NSFW Content mit den Beispielbildern von Taylor Swift und Co. erstellen können.

Wenige Tage nach dem Launch sollen die User von Grok laut Elon Musk bereits 34 Millionen Videos erstellt haben (Stand: 5. August 2025). Zu diesen Videos zählen zahlreiche Clips, in denen sich fiktive, aber fotorealistisch dargestellte Frauen – und Männer, aber deutlich seltener – ausziehen oder laszive Bewegungen durchführen.

Wow.

So, I chose “Spicy” and @grok “Imagine” undressed this AI model for me. pic.twitter.com/0L57668Tst

— Arika (@ARIKAHENRY) August 3, 2025

Bei den Tests, in denen Journalist:innen und User Fotos von realen Personen als Vorlage genommen haben, um diese in Nacktheit darzustellen, gab es zunächst keine Ergebnisse, was auf eine Sicherheitsebene von xAI hinweist. Allerdings lassen sich Visuals von Berühmtheiten oder bekannten Personen durch Prompts mitunter als KI-Version nachbauen, sodass eine klare Ähnlichkeit entsteht. Rebecca Bellan schreibt für TechCrunch, dass sie auf eine Reihe von Einschränkungen gestoßen ist, als sie Bilder von US-Präsident Donald Trump erstellen lassen wollte.

Die Probleme der KI-Videogeneratoren

Während Imagine als Visual Creator eindrucksvoll in kurzer Zeit Bilder in den verschiedenen Stilen hervorbringt, beispielsweise auch imaginierte Comics, veranschaulicht das Feature ein Grundproblem der KI-Videogeneratoren. Schon Googles Veo 3 ist kurz nach dem öffentlichen Launch vielfach für Videoinhalte genutzt worden, die sexistisch und misogyn, rassistisch und diskriminierend waren. Auch das ist mit Grok Imagine ebenso wie anderen Tools möglich.

Nun bieten viele der Grundregeln von KI-Tools den Usern grundsätzlich nicht die Möglichkeit, Deepfakes zu erstellen. Doch xAI und Grok setzen weniger auf Sicherheitsaspekte als zum Beispiel Google oder insbesondere Adobe. Zudem fördert xAI aktiv die Verbreitung von sexualisierten Inhalten, auch pornografischer Content ist auf X erlaubt. Das ist im Grunde noch nicht die Problematik. Diese entsteht, wenn User mit Grok Imagine einfach nur ein Geburtsjahr bestätigen müssen (was Jüngere ebenso falsch angeben können), um stark sexualisierte Videos zu kreieren, die im schlimmsten Fall deutliche Ähnlichkeiten mit realen Personen aufweisen und so doch zu einer Art Deepfake werden.

Bedenkt man überdies, dass xAI und X via Grok zuletzt mit antisemitischen Reproduktionen und Verschwörungstheorien aufgefallen sind, liegt das Gefahrenpotential des AI Tools auf der Hand. Das gilt allerdings nicht für Grok allein, sondern für diverse Tools im AI-Kreationskontext. Denn Sicherheitsvorkehrungen lassen sich mitunter umgehen; die einmal erstellen Videos, beispielsweise nicht jugendfreie, können bei einer umfassenden Verbreitung aber großen Schaden anrichten, der nicht so schnell zu beheben ist.

Black Mirror statt Pixar?

Elon Musk kündigt Chatbot für Kinder an

© Duncan.Hull (eigenes Werk) – Wikipedia.de, CC BY-SA 3.0, (Änderungen wurden vorgenommen via Canva)

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *