Nach ChatGPT Pro und dem o1 Update sowie der Vorstellung des Personalisierungs-Features Reinforcement Fine-Tuning kommt der offizielle Sora Launch für die Öffentlichkeit. OpenAI stellt im Rahmen der an den Weihnachtsklassiker Twelve Days of Christmas angelehnten Livestream-Reihe 12 Days of OpenAI einige große und kleine Features vor.
Nicht jeder Tag ist ein großer Launch – es gibt sowohl große als auch kleine Geschenke im Adventskalender,
hieß es in der Ankündigung. Als Präsent wurde die Bereitstellung von Sora für die ersten User außerhalb der Testphase geboten. Das KI-Videogenerierungsmodell sorgte im Februar für viel Aufmerksamkeit, da es erstaunliche realistische AI-Videos zu produzieren imstande war.
OpenAI Sora:
Erste Creator-Videos und ihre Vorteile für das Business
Allerdings war dieses Modell bis dato nur für ausgewählte Test-Creator verfügbar. Das hat sich geändert, obwohl viele trotzdem weitere auf einen Zugriff werden warten müssen.
Now you can generate entirely new videos from text, bring images to life, or extend, remix, or blend videos you already have. We’ve developed new interfaces to allow easier prompting, creative controls, and community sharing: https://t.co/HMcAKwaCCw pic.twitter.com/gtMiFkT6GB
— OpenAI (@OpenAI) December 9, 2024
300 Millionen ChatGPT User pro Woche und 12 Days of OpenAI
© Solen Feyissa – Unsplash
Was Sora jetzt zu bieten hat und für wen
Das KI-Videomodell Sora gibt es jetzt für alle, die ChatGPT Plus oder ChatGPT Pro abonniert haben, also für 20 oder 200 US-Dollar pro Monat. Dabei können mit Pro mehr Videos (bis zu 500 Priority-Videos) erstellt werden und die Abonnent:innen haben mit 1080p eine bessere Auflösung sowie die Möglichkeit, die Clips ohne Wasserzeichen herunterzuladen. Das Modell soll als Sora Turbo jetzt deutlich schneller sein und ist als Standalone-Produkt verfügbar.
We hope that this early version of Sora will help people explore new forms of creativity. We can’t wait to see what you create.
— OpenAI (@OpenAI) December 9, 2024
Dabei gibt es für Interessierte aber gleich mehrere Wermutstropfen. Zum einen ist Sora in den meisten europäischen Ländern nicht verfügbar, auch nicht in Deutschland. Zum anderen berichten erste User davon, dass die OpenAI Server nach der Bekanntgabe so überlastet waren, dass sie gar keinen Sora Account anlegen konnten.
— Kristen Ruby (@sparklingruby) December 9, 2024
Wer schließlich Zugriff auf Sora hat, kann dem Modell anhand von Text-Prompts, Bild- und Videovorlagen Angaben zukommen lassen, um ein KI-generiertes Video zu erstellen. User können unter anderem Frames erweitern, Sequenzen aneinanderreihen, Elemente austauschen oder neu generieren und mit Loop sich wiederholende Videos kreieren – was für TikTok hilfreich sein kann.
Außerdem ist es möglich, mit Blend gleich zwei Videos zu einem zu kombinieren und voreingestellte Stiloptionen wie Film Noir oder Papercraft auszuwählen.
Wie Sora-Videos in der Praxis aussehen
Wird Sora zur Videokreation eingesetzt, kann das facettenreiche Kreationen hervorbringen. Dabei sind teilweise täuschend echt aussehende Menschen, Tiere und Landschaften zu sehen.
Auf YouTube zeigt OpenAI zudem, wie Creator mit Sora arbeiten.
Und der AI-Video-Creator Alex Patrascu zeigt in einem X Thread, was Sora schon gut und weniger gut macht.
Sometimes, it does some crazy morphing, and other times it does perfect shots that are indistinguishable from reality: pic.twitter.com/eRd59KMIKd
— Alex Patrascu (@maxescu) December 9, 2024
Das Modell Sora faszniniert die Creator-Szene und dürfte auch für Marketer von großem Interesse sein. Allerdings ist es keineswegs kritikfrei. Einerseits konnte die ehemalige CTO Mira Murati vor einiger Zeit nicht glaubhabt dementieren, dass OpenAI öffentliche YouTube-Videos für KI-Trainingszwecke genutzt haben könnte. Andererseits werfen einige Tester:innen des Videomodells dem Unternehmen vor, für ihr Feedback und ihre Arbeit mit dem Modell nicht oder nicht ausreichend bezahlt worden zu sein.
OpenAI:
Der Sora Leak und die Ausbeutung kreativer Arbeit
Dennoch wird das Modell viele Interessierte anziehen und in der nächsten Zeit sicher für diverse KI-Videokreationen sorgen, die die digitalen Medien erreichen werden. In Deutschland müssen wir weiterhin auf den Zugriff warten. Derweil gibt es aber viele andere KI-Video-Tools, etwa Runways Gen-3 Alpha und Dream Machine 1.5 von Luma AI.
KI-Videos wie im Kino:
Runway Gen-3 Alpha geht an den Start
Ein Videoausschnitt von Gen-3 Alpha zeigt eine Frau mit Reflektionen von Lichtern im Gesicht, © Runway via Canva