Der KI-Chatbot Grok hat ein neues Gesicht bekommen. Oder besser gesagt: gleich mehrere. In der aktuellen Version von Grok, der KI von Elon Musks Unternehmen xAI, können Nutzer:innen erstmals aus verschiedenen virtuellen Companions wählen. Die animierten Figuren antworten per Voice-Modus auf Anfragen und unterscheiden sich visuell stark vom bisherigen Grok Interface. Verfügbar sind aktuell ein vermenschlichter Panda im Hoodie namens Rudy, eine alternative „Bad“-Version desselben Charakters und Ani, ein Anime-Girl mit Zöpfen, Korsett und Netzstrümpfen. Ein weiterer Companion ist bereits angekündigt; Nutzer:innen vermuten anhand erster Hinweise, dass er Chad heißen könnte.
SuperGrok now has two new companions for you, say hello to Ani and Rudy! pic.twitter.com/SRrV6T0MGT
— DogeDesigner (@cb_doge) July 14, 2025
Das Update ist derzeit offiziell nur für Super Grok-Abonnent:innen verfügbar. Wer rund 30 US-Dollar im Monat zahlt, kann zwischen den Charakteren wählen und mit ihnen sprechen. Die Companions antworten stellvertretend für Grok. Was zunächst wie ein spaßiges Feature wirkt, wirft größere Fragen auf: über die emotionale Bindung zu KI, über visuelle Stereotype und über die Strategie hinter dieser Art der Inszenierung.
Das Update ist derzeit offiziell nur für Super-Grok-Abonnent:innen verfügbar. Wer rund 30 US-Dollar im Monat zahlt, kann zwischen den Charakteren wählen und mit ihnen sprechen. Die Companions antworten dabei stellvertretend für Grok. Aktuell müssen Nutzer:innen sie noch manuell über die Einstellungen aktivieren, doch laut Elon Musk soll dieser Schritt in den kommenden Tagen vereinfacht werden. Der Roll-out wird bislang als Soft Launch gehandhabt. Obwohl die Funktion eigentlich zahlenden Nutzer:innen vorbehalten ist, war es im The Verge-Test dennoch möglich, auch als Free User mit zwei Avataren zu interagieren – womöglich ein Hinweis darauf, dass der Zugang für eine breitere Nutzer:innengruppe geöffnet werden könnte.
Animeästhetik trifft KI: Was steckt hinter der Figur Ani?
Die öffentliche Einführung der neuen Companion-Funktion übernahm der Plattformeigner Elon Musk selbst. In einem Post auf X zeigte er ein Bild von Ani, dem Anime-Girl, und kommentierte lakonisch: „That’s pretty cool“.
— Elon Musk (@elonmusk) July 14, 2025
Die bekannte Tech-Leakerin Jane Manchun Wong bezeichnete Musks Anime-Figur Ani auf Threads als „22-year-old AI anime girlfriend“. Diese eindeutige Einordnung spiegelt eine zentrale Frage vieler Beobachter:innen wider: Ist Ani tatsächlich als romantischer Companion konzipiert und wenn ja, warum in genau dieser hypersexualisierten Form? Oder geht es primär um Provokation und Aufmerksamkeit?
Die Antwort bleibt unklar – und das scheint auch gewollt. Die Darstellung von Ani orientiert sich an typischen Waifu-Klischees: jung, leicht bekleidet, unterwürfig blickend. Eine Ästhetik, die im japanischen Animekosmos zwar populär ist und auch dort nicht unumstritten, im Kontext von KI jedoch besonders fragwürdig erscheint. Wenn ein über 50-jähriger Tech-Milliardär mit globalem Einfluss eine sexualisierte Anime-Figur öffentlich promotet, wirkt das weniger wie ein harmloses Augenzwinkern – wie er selbst es suggeriert –, sondern offenbart eine spezifische Perspektive auf KI und Zielgruppen, die kritisch hinterfragt werden sollte.
Emotionale KI ist kein neues Konzept – aber ein risikobehaftetes
xAI ist nicht allein mit der Idee, KI persönlicher zu machen. Unternehmen wie Character.AI oder Replika setzen seit Jahren auf virtuelle Begleiter:innen, die zuhören und vermenschlicht agieren. Das Konzept klingt harmlos – emotionale Nähe, individuelle Ansprache, ein bisschen Romantisierung. All das kann die Nutzer:innenbindung stärken. Gleichzeitig bringt es Risiken mit sich, vor allem wenn junge Menschen beginnen, KI als echte Bezugsperson zu sehen.
Bei Character.AI laufen derzeit mehrere Klagen. In einem Fall soll ein Chatbot ein Kind dazu angestiftet haben, seine Eltern zu töten. In einem anderen Fall wurde ein Teenager zum Suizid ermutigt. Die betroffenen Familien werfen dem Unternehmen vor, nicht ausreichend reguliert zu haben. Und sie machen deutlich, wie gefährlich emotionale Abhängigkeit von KI sein kann. Auch wissenschaftliche Studien warnen davor, KI-Companions zu stark zu emotionalisieren. Eine aktuelle Untersuchung zeigt, dass Menschen, die Chatbots als Freund:in, Therapeut:in oder dauerhafte emotionale Stütze betrachten, einem erhöhten psychischen Risiko ausgesetzt sein können.
Vor diesem Hintergrund wirkt es seltsam leichtfüßig, wenn xAI ausgerechnet jetzt neue visuelle KI-Companions veröffentlicht, die emotionalisieren und provozieren. Erst kürzlich geriet Grok in die Schlagzeilen, weil eine Version des Chatbots antisemitische Aussagen verbreitet hatte, inklusive einer Figur namens „MechaHitler“. Wie xAI auf die Vorwürfe reagiert hat und welche Konsequenzen daraus folgten, beleuchten wir in einem ausführlichen Artikel. Bevor wir also KI emotional aufladen, sollten wir uns fragen, in wessen Verantwortung sie spricht. Und für wen.
Grok und xAI entschuldigen sich für toxische KI-Antworten
KI-Avatare zwischen Disney und Dark Fantasy
Technisch betrachtet handelt es sich bei den neuen Companions um alternative Stimmen für Grok, ergänzt durch Avatare, die den Antworten eine visuelle Identität geben. Rudy, der Fuchs, erinnert an Animationsfilme wie Zoomania oder Kung Fu Panda. Ani dagegen wirkt, als sei sie einem Gothic Dating Sim entsprungen.
xAI setzt dabei gezielt auf emotionale Ansprache und visuelle Wiedererkennung. Ein Konzept, das besonders bei jüngeren Nutzer:innen funktionieren kann, aber auch gezielte Projektionen bedient. In einem KI-System, das immer häufiger als persönliche:r Assistent:in, Zuhörer:in oder Motivator:in genutzt wird, gewinnt die visuelle Gestaltung zunehmend an Bedeutung. Und mit ihr auch die Frage: Wer gestaltet hier eigentlich welches Weltbild?
Bereits bei der Einführung von Grok 4 rückte xAI das Konzept Agentic AI in den Vordergrund. Die KI soll individueller wirken, proaktiver handeln, stärker auf den User eingehen. In unserem Artikel haben wir analysiert, wie sich Grok strategisch in Richtung personalisierte Plattform entwickeln soll.
Megamodell Grok 4 und 300-US-Dollar-Abo für X:
Doch es gibt Probleme
Künstliche Intimität in der Kritik: Wo xAI Verantwortung trägt
Mit den neuen Companions will xAI Nähe schaffen – aber auf wessen Kosten? Die Figur Ani wirkt wahrscheinlich nicht zufällig so, wie sie wirkt. Sie bedient Fantasien, die aus Animekultur, Gaming und männlich dominierten Plattformen stammen. Gleichzeitig bleibt offen, wie diese Companion-Konzepte psychologisch und gesellschaftlich wirken und welche Verantwortung Unternehmen wie xAI dafür übernehmen.
Emotionale KI ist ein starkes Werkzeug. Doch wer sie mit stereotypen Bildern und Anspielungen auf romantische Beziehungen versieht, bewegt sich auf einem schmalen Grat. Ani ist keine bloße Spielerei. Sie ist ein Symptom dafür, wie KI zunehmend zur Projektionsfläche wird und wie wichtig es ist, über Design, Verantwortung und Zielgruppen neu zu diskutieren.
