Ob im Marketing, in der Schule, für die nächste Rede oder sogar beim Schreiben von Gedichten: ChatGPT bietet beinahe zahllose Möglichkeiten, um sich mithilfe eines hochfunktionalen KI-Tools Texte schreiben zu lassen. Und diese als von einer KI generierte Texte zu erkennen, fällt zusehends schwerer. Zumal OpenAI als Unternehmen hinter ChatGPT mit dem multimodalen KI-Modell GPT-4o eine äußerst leistungsfähige und verständige AI-Basis bereitstellt.
OpenAI launcht GPT-4o für alle User, GPTs für Free User und bessere AI-Voice-Optionen
Der eigenen KI traut OpenAI so viel Kommunikationsfähigkeit zu, dass mit dem Advanced Voice Mode sogar menschliche Konversationen im gesprochenen Austausch zum viel genutzten Feature werden sollen – während mit SearchGPT eine konversationelle AI Search entwickelt wird, die Google Konkurrenz machen könnte. Aktuell arbeitet OpenAI auch an einem Feature, das Texte, die mit ChatGPT generiert wurden, fehlerfrei erkennen können soll. Trotzdem bleibt ein Launch vorerst aus.
Das hat es mit dem ChatGPT Detector auf sich
Anfang 2023 hatte OpenAI einen AI Classifier zum Erkennen von KI-Texten veröffentlicht. Doch dieser wurde im Juli desselben Jahres eingestellt. Er habe nicht genau genug gearbeitet. So heißt es auf der offiziellen Website:
As of July 20, 2023, the AI classifier is no longer available due to its low rate of accuracy. We are working to incorporate feedback and are currently researching more effective provenance techniques for text, and have made a commitment to develop and deploy mechanisms that enable users to understand if audio or visual content is AI-generated.
Inzwischen ist die Arbeit an einem Detektor, der Texte, die mit ChatGPT geschrieben worden sind, weit vorangeschritten. Davon berichten unter anderem Deepa Seetharaman und Matt Barnum für das Wall Street Journal. Solch ein Tool könnte beispielsweise Lehrkräften an Schulen und Universitäten dabei helfen zu ermitteln, ob Schüler:innen und Studierende Texte mit ChatGPT geschrieben haben. Bei dem Tool würde OpenAI eine Methode der Erkennung über ein Wasserzeichen anwenden. Dieses ist im Text nicht sichtbar, für den Detektor aber durch die Integration in den ChatGPT-Erzeugnissen einfach auszulesen. Mit dieser Methode würde sich das Unternehmen jedoch nur auf das eigene Tool fokussieren; Texte von anderen KI-Tools wären damit also nicht ohne Weiteres zu erkennen. Gegenüber TechCrunch gab OpenAI kürzlich an, dass man bei einem möglichen Launch des Produkts Vorsicht walten lasse. Denn, so heißt es in einem Statement, das Anthony Ha zitiert:
The text watermarking method we’re developing is technically promising, but has important risks we’re weighing while we research alternatives, including susceptibility to circumvention by bad actors and the potential to disproportionately impact groups like non-English speakers.
OpenAI und Co. arbeiten an Content-Markierung – auch über eine Koalition
In einem aktualisierten Blog Post erklärt das Unternehmen zudem, dass man an verschiedenen Methoden zur Provenienzerkennung im AI- beziehungsweise ChatGPT-Kontext arbeite. Bei der Methode mit den Wasserzeichen sieht OpenAI das Problem, dass eine übergeordnete Veränderung des Textes durch Sonderzeichen (die später gelöscht werden) die Erkennung beeinflussen könnte. Bei Paraphrasierungen hingegen funktioniert das Tool schon gut. Auch fürchtet OpenAI, dass die Methode für Personen, die nicht Englisch sprechen, zu einer Stigmatisierung der Nutzung von ChatGPT als Schreib-Tool führen könnte – was sicherlich nicht im Interesse des Unternehmens wäre.
Derweil sind noch andere Detektoroptionen in Arbeit. Beispielsweise gibt es eine Erkennungsmethode auf Basis von Textmetadaten. Doch diese ist noch in einer frühen Entwicklungsphase. Daher wird es womöglich noch einige Zeit dauern, eher OpenAI ein eigenes neues Detection Tool für ChatGPT Content launcht. In der Zwischenzeit müssen Personen, die sich auf die Erkennung verlegen, Alternativen wie TraceGPT und WinstonAI nutzen oder auf eigene Detektionsmethoden bauen. Bei der Erkennung von KI-generierten Inhalten sollen im Digitalraum indes Labels und die Hinweise der Coalition for Content Provenance and Authenticity (C2PA) helfen, die von OpenAI, Microsoft, Adobe, Google, Publicis und Co. unterstützt wird.