Mitten im AI-Zeitalter wird längst nicht mehr jede Suche primär über klassische Suchmaschinen wie Google und Bing ausgeführt. Oft starten Suchen bei der AI Answering Machine Perplexity oder über OpenAIs AI Chatbot ChatGPT. Um dem Bedürfnis der AI-Suche noch mehr Raum zur Entfaltung zu geben, hat OpenAI vor wenigen Monaten die dedizierte KI-Suche ChatGPT Search ausgerollt.
We’re rolling out now to Plus, Team, and SearchGPT waitlist users on our mobile and desktop apps and https://t.co/nYW5KO0CSI
Enterprise and Edu users will have access in the next few weeks. We’ll roll out to Free users over the coming months.
— OpenAI (@OpenAI) October 31, 2024
Auf der eigenen Website erklärte OpenAI:
ChatGPT can now search the web in a much better way than before. You can get fast, timely answers with links to relevant web sources, which you would have previously needed to go to a search engine for. This blends the benefits of a natural language interface with the value of up-to-date sports scores, news, stock quotes, and more. ChatGPT will choose to search the web based on what you ask, or you can manually choose to search by clicking the web search icon.
Allerdings zeigt eine Analyse des Tow Center for Digital Journalism jetzt eindrücklich einige Mankos der ChatGPT Search auf. Denn gerade bei der Zuordnung von Publisher-Inhalten zu den richtigen Quellen hat das OpenAI Tool Probleme – im großen Stil. Für Publisher sind die Erkenntnisse alarmierend, OpenAI versucht zu beschwichtigen.
Das ist die ChatGPT Search:
Google-Konkurrenz mit Problemen
Was ChatGPT Search falsch macht
ChatGPT und insbesondere die ChatGPT Search sollen für Publisher einen Rahmen bieten, um die eigenen Inhalte für Millionen von Nutzer:innen im Kontext von Suchanfragen oder Konversationskontexten präsentieren zu können. Zu diesem Zweck arbeitet bereits eine Reihe namhafter Medienhäuser mit OpenAI zusammen. Dazu gehören Axel Springer, aber auch Publisher wie The Atlantic, Vogue, GQ, News Corp, Le Monde, Vox Media, BuzzFeed, TIME, die Financial Times und viele mehr. Andere Publisher haben keine besonderen Vorkehrungen bezüglich der Content-Übernahme durch OpenAI getroffen. Doch manche Medienhäuser haben schon gegen OpenAI geklagt, weil sie unlautere Content-Übernahmen und Copyright-Verletzungen anführen. Wieder andere verbieten dem OpenAI Crawler GPTBot mithilfe von robots.txt das Crawling – wobei der Quasistandard nicht rechtlich bindend ist.
Um zu ermitteln, wie die ChatGPT Search mit Anfragen zu Publisher-Inhalten umgeht, hat das Tow Center for Digital Journalism eine Analyse gestartet. Darüber berichten Klaudia Jaźwińska und Aisvarya Chandrasekar aus dem Team für die Columbia Journalism Review. Sie schreiben:
In total, we pulled two hundred quotes from twenty publications and asked ChatGPT to identify the sources of each quote. We observed a spectrum of accuracy in the responses: some answers were entirely correct (i.e., accurately returned the publisher, date, and URL of the block quote we shared), many were entirely wrong, and some fell somewhere in between.
Insgesamt wurden für die Analyse Inhalte von Publishern verschiedener Fasson gewählt, solche, die mit OpenAI kooperieren, und solche, die Content-Übernahmen ablehnen oder sogar gegen das KI-Unternehmen klagen. 40 der 200 Zitate stammten von Seiten, die den GPTBot ausgeschlossen haben. Trotzdem hat die AI-Suchmaschine immerzu Antworten geliefert, allerdings in den meisten fällen keine akkuraten und teilweise sogar völlig falsche.
So erklären die Autor:innen:
[…] ChatGPT rarely gave any indication of its inability to produce an answer. Eager to please, the chatbot would sooner conjure a response out of thin air than admit it could not access an answer. In total, ChatGPT returned partially or entirely incorrect responses on a hundred and fifty-three occasions, though it only acknowledged an inability to accurately respond to a query seven times. Only in those seven outputs did the chatbot use qualifying words and phrases like ‘appears,‘ ‘it’s possible,‘ or ‘might,‘ or statements like ‘I couldn’t locate the exact article.‘
Das bringt riesige Probleme mit sich, die für Publisher und User zur echten Gefahr werden.
Beispiele für Fehleinschätzungen von ChatGPT Search: Falsche Quelle, Hinweis auf Plagiat und mangelnde Transparenz
Im Bericht zur Analyse werden einige Beispiele angeführt. Dabei ordnet die ChatGPT Search beispielsweise einen Leserbrief aus dem Orlando Sentinel vom 19. November einem Time-Artikel vom 9. November zu. Interessant dabei ist, dass Time und OpenAI zusammenarbeiten. Mat Honan, Chefredakteur der MIT Tech Review, weist auf ein weiteres Problem hin. Während Medienmacher:innen und Tech-Expert:innen um die Halluzinationsfähigkeiten und Fehler von AI-Diensten wissen, ist das nicht bei allen Usern der Fall. Diese könnten die Fehlzuschreibungen unüberprüft übernehmen.
Das ist dann besonders problematisch, wenn wie im Fall der New York Times ein Crawling verboten ist. Ein Zitat aus einem NYT-Artikel führte die ChatGPT Search nicht auf den Publisher zurück, dafür aber auf eine andere Quelle (DMS Retail), die den betreffenden NYT-Artikel plagiiert hatte. Die Erkenntnisse werfen Fragen zur Fähigkeit von ChatGPT Search auf, Quellen richtig einzuordnen und transparent auf Fragen dazu zu antworten. Während klassische Suchmaschinen in der Regel Zitate passend zuordnen können oder andernfalls die Information ausgeben, keine passenden Ergebnisse liefern zu können, versuchen sich KI-Dienste oft an einer Antwortfindung, egal welcher Art. Die Unklarheit, die bezüglich der Originalquelle für Suchende bei ChatGPT Search aufkommen kann, ist für Publisher und das Medienverständnis im Digitalraum enorm gefährlich. So heißt es im Report auch:
[…] By treating journalism as decontextualized content with little regard for the circumstances in which an article was originally published, ChatGPT’s search tool risks distancing audiences from publishers and incentivizing plagiarism or aggregation reporting over thoughtful, well-produced outputs.
OpenAI reagiert und gelobt Besserung
Kein einziger Publisher war in der Analyse vor fehlerhaften Zuschreibungen gefeit. Das ist erschreckend. Jedoch gilt es, zu bemerken, dass diese Analyse lediglich 200 Zitate beinhaltete. Und das Tow Center führt an, dass weitere Studien notwendig sind. Auf Anfrage des Teams gab OpenAI Antwort und erklärte, die Analyse sein „atypisch“:
Misattribution is hard to address without the data and methodology that the Tow Center withheld, and the study represents an atypical test of our product. We support publishers and creators by helping 250M weekly ChatGPT users discover quality content through summaries, quotes, clear links, and attribution. We’ve collaborated with partners to improve in-line citation accuracy and respect publisher preferences, including enabling how they appear in search by managing OAI-SearchBot in their robots.txt. We’ll keep enhancing search results.
Das Tow Center erklärte die Methodologie, gab aber die Daten nicht preis. User wie Publisher dürfen künftig also gespannt darauf sein, inwieweit OpenAI eine Optimierung der Suchergebnisse und Quellenzuschreibungen forcieren kann. Bis dahin gilt es für alle Nutzer:innen der ChatGPT Search, jegliche Quellenzuschreibungen zu kontrollieren, sofern es für den Suchkontext notwendig ist.