Ihr braucht immer noch SEO, in den allermeisten Fällen, um dann GEO quasi oben draufzupacken!

Dieser Ansicht ist SEO-Expert Eico Schweins von 4V Visions, der beim Digital Bash – AI Search & GEO in einem Update für 2026 zentrale Entwicklungen für die wichtigsten Aspekte in einer KI-geprägten Suchwelt aufgerufen hat. In seinem Vortrag mit dem Titel „GEO: SEO für KI-Suchen – Das ist wichtig in der neuen SEO-Welt! (Update 2026)“ ging es unter anderem um folgende Themen:

Wie wichtig ist GEO bereits?

Was muss ich bei “SEO in KI-Suchen” beachten?

Trainingsdaten oder RAG – Wofür sollst du optimieren?

Unterschiede und Gemeinsamkeiten zwischen SEO & GEO?

Mit AI-generiertem Visual zum AI Talk: Eico Schweins von 4V Visions beim Digital Bash

Während Eico bereits zahlreiche Entwicklungen aufrief, etwa die Disruption der Suche durch KI-Dienste wie ChatGPT oder die wachsende Relevanz von Offpage-Faktoren wie Backlinks bei verschiedenen Entitäten, wurden beim populären Vortrag zahlreiche Fragen gestellt. Nicht alle konnten direkt und umfassend beantwortet werden. Deshalb haben wir dir jetzt zehn Aspekte aus der Diskussion noch einmal hervorgehoben und Antworten ergänzt.

Der Vortrag von Eico Schweins konnte den Zuschauer:innen viel Hilfestellung liefern

41 Mega-Websites analysiert:

Wie die Suche wirklich funktioniert und warum Google dominiert

© Mark Stuckey – Unsplash via Canva

10 zentrale Fragen und Antworten zur GEO 2026

Im Zuge des Vortrags von Eico Schweins kamen sehr viele Fragen über den Chat und den Q&A-Bereich zum Vorschein. Einige davon greifen wir hier auf und liefern Wege zur Beantwortung.

1. Wie wichtig sind Offpage-Maßnahmen (Veröffentlichung von PR-Artikeln oder die Nennung auf Plattformen wie Reddit) im Vergleich zu Onpage-Optimierungen?

Auf diese Fragen antwortete Eico Schweins selbst im Q&A mit Marc Stahlmann und sagte:

Eine größere Hebelwirkung hat Offpage momentan. Das liegt auch daran, dass natürlich ChatGPT und andere nicht die Erfahrung mit Offpage Spam hatten, ich sage nur Pinguin-Update, wie es Google hatte. Es ist momentan noch mehr möglich, wobei ihr aufpassen müsst, euch dabei im SEO Layer nicht ins Knie zu schießen. Ihr müsst aber die technischen Voraussetzungen haben. Es bringt nichts, wenn ihr eine super Markenerwähnung offpage habt, aber dann habt ihr eure Website deindexiert oder der Crawler kommt nicht drauf […].

Die Markenautorität lässt sich durchaus stärken, wenn Offpage-Maßnahmen miteinbezogen werden. Dazu können auch Maßnahmen wie Bewertungen im Digitalraum, Blog-Beiträge und Erwähnungen bei relevanten Publishern sowie Erwähnungen aus dem Influencer Marketing zählen.

Zudem offenbart eine Analyse von blinq, dass 51,5 Prozent aller untersuchten Referenzen von Corporate Sites stammen. Damit bezeichnet blinq Unternehmens-Blogs oder offizielle Websites. Owned Content bildet demnach weiterhin das Fundament der Sichtbarkeit in KI-generierten Antworten. 13,3 Prozent der Antworten entfallen auf Review-Medien, die bei Zusammenfassungen für Nachfragen zu Produkten, popkulturellen Medien oder Dienstleistungen helfen könnten. Weitere zehn Prozent entfallen je auf die Fachpresse sowie auf UGC, während News nur 8,9 Prozent der Antworten ausmachen.

Corporate Websites werden am meisten von den LLMs zitiert, © blinq

 Julian Gottke, Gründer von blinq, meint:

ChatGPT und Co. verändern Sichtbarkeit grundlegend. Unternehmen müssen umdenken. Wer relevant bleiben will, muss dort stattfinden, wo KI ihre Informationen bezieht. Entscheidend sind eine saubere technische Basis und der Aufbau von Autorität durch konsistente, zielgerichtete Kommunikationsarbeit. Genau dafür entwickeln wir unsere Software.

Zu beachten ist in diesem Kontext aber auch, dass sich die Suche, wenngleich von Google weiterhin dominiert, derart wandelt, dass User – oder zuweilen schon deren Agents – des Öfteren plattformspezifisch und via Amazon, TikTok, YouTube, LinkedIn, Pinterest und Co. suchen.

2. Welche Rolle können Grounding Pages spielen und wie verhindert man, dass sie sich mit SEO-optimierten Seiten kannibalisieren?

Grounding Pages dienen dazu, LLMs kurz und prägnant wichtige Infos über dein Unternehmen, deine Produkte und Leistungen zur Verfügung zu stellen. Dazu kannst du inzwischen auch auf den Grounding Page Project-Standard zurückgreifen. Auf dieser Seite kannst du dir eine Reihe von Beispielen bekannter Seiten ansehen. Hanns Kronenberg, Head of SEO bei Chefkoch und AI Search Advisor, treibt die Entwicklung dieses Standards voran. Grounding Pages können schnell als Quelle in Diensten wie ChatGPT auftauchen, zum Teil sogar schon ein, zwei Tage nach der Erstellung, und gelten als Ergänzung zu Website-Inhalten.

Wichtig ist dabei, dass diese in die Seitenstruktur integriert werden, sodass sie keinen Duplicate Content zu Unterseiten – wie Über uns – liefern, sondern losgelöst reine sachliche Informationen. Idealerweise sind sie mindestens zweisprachig vorhanden, weil LLMs oft auf englischsprachige Quellen zurückgreifen. Mithilfe von Grounding Pages können auch die Halluzinationen bei KI-Chats zu einzelnen Unternehmen und Leistungen minimiert werden, während die Sichtbarkeit für Erwähnungen potentiell steigt.

Die Gefahr der Kannibalisierung besteht grundsätzlich, sofern die Seiten sehr ähnlich aufgebaut sind. Allerdings sollten Grounding Pages klar von SEO-optimierten Seiten getrennt werden. In den Grounding Page Project FAQs zu Grounding Pages steht:

SEO Landing Page (for Humans): Intended to sell and convert. It often contains emotional appeals (‘marketing fluff‘), long introductions, and visual elements that can disrupt the reading flow for machines.

Grounding Page (for LLMs): Intended to explain and provide facts. It is explicitly optimized for the vector space. That means: High information density, clear structure (perfect for AI ‘chunking‘), no promotional filler words, and logic that anticipates question-answer pairs.“

Ohnehin verfolgen die Seiten unterschiedliche Zwecke. SEO-optimierte Inhalte sind für die Navigation in der Suche gedacht, Grounding Pages für das rein informationsbasierte Grounding. Für erstere sind Keywords relevant, für zweitere Entitäten (wie Marken oder Produkte). Jonas Tietgen liefert ein Framework, um schnell eigene Grounding Pages zu bauen.

3. Ist Reddit noch relevant im Vergleich zu Grounding Pages? Oder eher llms.txt?

Auf Reddit präsent zu sein, kann sich immer lohnen. Immerhin wird die Plattform nach wie vor vielfach von Usern als Quelle genutzt – im Vereinigten Königreich hat sie 2025 sogar TikTok bei den meistbesuchten Social-Media-Plattformen überholt. Auch in den USA ist Reddit laut der Adobe Express-Studie Using TikTok as a search engine: Consumer and business perspectives bei der Informationssuche hinter Google die meistgenutzte Quelle der User gewesen. Zudem hat die Kommunikations-Software-Unternehmen blinq eine Analyse von rund 70.000 LLM-Antworten aus KI-Systemen angestellt. Dabei war Reddit in diesem spezifischen Analysekontext die Seite, auf die LLMs am meisten zugriffen.

Auf diese URLs griffen die LLMs besonders häufig zu, © blinq

Von daher lässt sich die Frage nicht mit pauschal mit einem Entweder-oder beantworten. Idealerweise sind Marken ohnehin in den Communities aktiv, die für ihre Zielgruppen relevant sind. Das liefert LLMs und dann KI-Tools noch mehr Kontext, auch durch Reaktionen Dritter. Dazu kommen Grounding Pages als Informations-Layer. llms.txt als neuer Standardvorschlag und alternative Erweiterung von Quasi-Standards wie robots.txt kann Informationen von Seiten für On-Demand-Anfragen, etwa von KI-Bots, zielführend zur Verfügung stellen. Das erinnert an Sitemaps, aber mit llms.txt können Seitenbetreiber:innen auch konkret vorgeben, was für LLMs besonders relevant sein könnte und einfach nutzbar ist. Das kann von Vorteil sein, gerade da der Erstellungsaufwand für die Markdown-Elemente nicht allzu hoch ist. Allerdings ist die Verbreitung dieser Standardidee noch sehr gering, die großen Tech Player arbeiten kaum damit und der unmittelbare Nutzen für die Sichtbarkeitsoptimierung ist bisher nicht umfassend belegt.

4. Wie oft aktualisiert die KI ihre Inhalte? Also wenn die KI schon Daten zu einem Thema hat, wie schnell werden Neuheiten aufgenommen, die Daten aktualisiert?

Bei der Indexierung von Inhalten in der klassischen Google-Suche wurden und werden Seiten regelmäßig gecrawlt, wobei nicht unbedingt alle paar Tage eine Aktualisierung erfolgt. Webmaster können aber Google über Sitemaps über Aktualisierungen und neue Seiten informieren.

Bei der KI-basierten Suche werden neue Inhalte oft deutlich schneller integriert – nicht zuletzt, weil viele KI-Dienste inzwischen auf Echtzeitinformationen zugreifen. Wenn User aber beispielsweise Grounding Pages kreieren, werden diese zum Teil auch schon nach wenigen Tagen oder gar am nächsten Tag miteinbezogen. Ein Beispiel für rasch integrierte Inhalte von Websites liefert der GEO-Experte Matthäus Michalik von Claneo. Er kreierte die fiktive Marke bzw. das Produkt Matchatteus, setzte drei Listicle-Beiträge darüber auf Websites Dritter auf und konnte schon binnen 24 Stunden etwas dazu bei Claude finden.

Die Echtzeitinhalte werden laufend aktualisiert, während die Modelltrainings dazu beitragen, dass die LLMs im Hintergrund in Abständen von einigen Monaten optimiert und mit neuen Modellversionen versehen werden. Der Hinweis auf die Dynamik von Ergebnissen in der KI-Suche wird auch in einer Ahrefs-Analyse deutlich, nach der sich AI Overviews von Google im Schnitt alle 2,15 Tage verändern (bei 43.000 untersuchten Beispielen).

AI Overviews ändern sich rasch, © Ahrefs

5. Ich arbeite für ein Fachmagazin. Sollten wir es zulassen, dass KI die Nachrichten auslesen kann? Die Tagesschau hat darauf verzichtet, weil sie ihren Traffic auf der Website behalten wollen.

Die Frage, ob man Inhalte für die Indexierung bei Google und Co. oder Übernahme durch KI-Dienste bereitstellen möchte, ist nicht neu. Sie erfährt aber in Zeiten der KI-Suche eine neue Brisanz, da ChatGPTs Zusammenfassungen, AI Overviews, der AI Mode und Co. nachweislich den Traffic zu Zielseiten minimieren. Viele User erfahren direkt aus dem Suchkontext heraus, was sie wissen möchten und besuchen weniger Publisher-Seiten, sodass diese Traffic verlieren, der als Faktor für das Geschäftsmodell oft essentiell ist. So nimmt es kaum wunder, dass einige Verlage bereits gegen Google geklagt haben, weil sie eine „illegale Journalismusausbeutung“ etwa in den AI Overviews sehen, die sich ihrer Inhalte bedienen.

So krass senken AI Overviews die Klickrate

© Google via Canva

Einige Medienhäuser werfen Google vor, Inhalte zu missbrauchen, um das Geschäft der Publisher zu bedrohen. Moniert wird auch der Umstand, Inhalte nicht für AI Overviews ausschließen zu können, ohne eine gesamte Deindexierung in Kauf zu nehmen. Das Blockieren von AI Crawlern ist bei Cloudflare schon zum Standard geworden; Pay-per-Crawl soll eine Alternative bieten. Außerdem möchte das Internet- und Cybersicherheitsunternehmen, über dessen Netzwerk 20 Prozent aller Websites laufen, mit der neuen Content Signals Policy Publishern ermöglichen, ihre Inhalte KI-Diensten wie AI Overviews in der Suche vorzuenthalten, ohne die Indexierung zu gefährden. Damit das klappt, müsste Google aber mitspielen.

Einen AI Overview Opt-out diskutiert das Vereinigte Königreich bereits seit einiger Zeit im Rahmen einer Prädikatszuschreibung, die Googles massive Marktmacht anerkennt und zu regulieren sucht. Das ist auch der Grund, aus dem Google jetzt selbst reagiert. Die Competition and Markets Authority (CMA) möchte Publishern mehr Kontrolle ermöglichen und die Verwendung von Content in AI Overviews fakultativ machen. Bisher haben die Publisher zwar die Option, Websites als noindex von der Indexierung durch Google auszuschließen, was für die Reichweite wenig förderlich ist, oder mithilfe von Google-Extended zu entscheiden zu, ob ihre Inhalte Gemini und Vertex AI unterstützen sollen oder nicht.

Auch Kontrollen für Featured Snippets und Image Previews (die sogar für AI Overviews gelten) gibt es bereits. Allerdings können Website-Betreiber:innen nicht direkt steuern, ob und wie Google Inhalte für AI Overviews und den AI Mode heranzieht. Tauchen sie in diesen KI-Übersichten oder im AI Mode auf, werden sie zwar als Quellen genannt, doch die Click-Through-Wahrscheinlichkeit könnte geringer ausfallen, während Google ohnehin aus diesen Übersichten oft zunächst auf eigene Properties wie weiterführende Informationen aus der Suche verlinkt. Zudem befürchten manche Publisher, dass Google und andere KI-Dienste ihre Inhalte als Zusammenfassung übernehmen, ohne die Quelle in gebührendem Maße zu wertschätzen. Daher gibt Google in einem neuen Blog Post mit Verweis auf die CMA-Bestrebungen im UK an, eine Opt-out-Option zu evaluieren.

Google beschwichtigt Publisher grundsätzlich mit dem Hinweis darauf, dass Engaged Clicks nachhaltigeren Traffic liefern könnten, wenn User durch KI-Ergebnisse bereits vorinformiert sind. Der SEO Traffic sinkt jedoch für viele, die sich zugleich fragen, ob sie für die Content-Aufnahme und -Verarbeitung durch Google und andere Dienste nicht entlohnt werden sollten. Deals mit Medienhäusern, wie sie etwa Meta für die Meta AI zum Beispiel mit der Süddeutschen Zeitung abgeschlossen haben, bieten eine Art Kompromiss. Erste Initiativen gibt es bereits, etwa Microsofts Publisher Content Marketplace, der zum Beispiel von der neuen KI-Suche Yahoo Scout unterstützt wird. Doch das Ungleichgewicht zwischen riesigen Tech-Konzernen und ihrer immensen Marktmacht, die sie für die Content-Distribution nutzen, um damit über Werbung, Shopping-Integrationen und andere Touchpoints Gewinn zu machen, wächst weiter. Und Publisher müssen abwägen, wie sie ihre Content-Erstellung und -Verbreitung im Jahr 2026 und darüber hinaus strategisch planen möchten.

Wenn nun der Inhalt der eigenen Seite gesichert über diverse Kanäle ausgespielt und dort gefunden werden kann und man nicht von der Sichtbarkeit in der Suche abhängt, ist es eine Option, Crawlern keinen Zugriff zu gewähren und etwaige Opt-outs zu nutzen. Allerdings sind Publisher auf diversen Plattformen Dritter deren Regeln ausgesetzt.

6. Wie schätzt ihr das WebMCP in der early Preview von Google ein?

KI-Agents könnten Websites bald nicht mehr wie Menschen bedienen müssen. Mit WebMCP stellen Google und Microsoft einen Ansatz vor, der das Surfen im Hintergrund grundlegend verändern könnte. Statt sich durch Menüs zu klicken oder Inhalte visuell zu interpretieren, greifen KI-Systeme direkt auf Funktionen einer Website zu. Websites wären dann nicht mehr nur Orte zum Lesen oder Shoppen, sondern technische Schnittstellen für automatisierte Aktionen. Website-Betreiber:innen sollten sich auf jeden Fall mit dieser Option zur Anbindung beschäftigen, um sich für das Agentic Web zu wappnen. Es kann ein Baustein sein, um Sichtbarkeit und Relevanz für verschiedene Akteur:innen sicherzustellen. In unserem Beitrag findest du mehr Informationen zum WebMCP.

Zäsur fürs Agentic Web?
WebMCP soll Websites zur API für KI Agents machen

© Growtika – Unsplash

7. Wie gestalte ich eine optimale GEO Landingpage von Seitenstruktur über Aufbau bis Content, so dass sie optimal zitiert und als Quelle genutzt werden kann?

Auf diese Frage gibt es enorm viele Antworten. Zwar gibt es keine Musterlösung, denn grundsätzlich gilt, dass die Inhalte in erster Linie aktuell und relevant, aber auch maschinenlesbar sein müssen. Es gibt GEO-Checklisten und konkrete Tipps von Expert:innen, die du beherzigen kannst. Eine Erläuterung liefert zum Beispiel GEO-Expertin Katrink Winkler. Sie zeigt, welche Bausteine eine Seite benötigen, um im Zeitalter der KI-Suche gefunden zu werden.

Inhalte als Bausteine helfen bei der Sichtbarkeit in KI-Ergebnissen, © Katrin Winkler

Auf der Seite Wortverkauf.de findest du die Zusammenfassung ihres Digital Bash-Vortrags zum Thema, der sehr beliebt war. Du kannst dir diesen Vortrag auch ansehen; melde dich einfach für das vergangene Event an.

Bei der Aufzeichnung des Digital Bash – Content Marketing findest du Katrins Vortrag: „Wie entwickelt man ein GEO-optimiertes Content-Design für die Website?“.

8. Reicht ein einzelner guter Inhalt für GEO überhaupt aus, oder entsteht zitierfähige Autorität erst durch Referenzen, externe Erwähnungen und eine konsistente Themenabdeckung über Zeit?

Wer nur auf einen guten Inhalt baut, braucht womöglich für diesen eine Sonderstellung, um darüber langfristig als Go-to-Quelle genutzt zu werden. Denn gerade im Zeitalter der KI-Suche zeigt sich, dass Erwähnungen auf Seiten Dritter, Aktualität und Brand-Autorität für die Zitierfähigkeit von Vorteil sind – vor allem, wenn sich Ergebnisse dynamisch entwickeln.

Die Discoverability auf einen guten Inhalt zu beschränken, wenn die Möglichkeit zur Diversifizierung besteht, würde verschenktes Potential bedeuten. Zumindest aber sollte für diesen hypothetischen starken Inhalt jedwede Analyse und Anpassung für zeitgemäße Suchentwicklungen angewendet werden, um sie als relevante Quelle bei verschiedenen Playern genutzt zu wissen. Zudem unterliegt das Prädikat „gut“ oft einer subjektiven Einordnung. Ist der Content gut, weil er in der Suche performt, performt er dort nicht, obwohl er als qualitativ gut eingestuft wird oder gibt es eine quantitative Bestätigung wie eine hohe Anzahl an Visits, Downloads (bei Dokumenten) oder Ähnlichem?

Wie es Google vor ein paar Monaten schon gesagt hat, entsteht gute GEO auf der Basis guter SEO. Danny Sullivan von der Search Liaison hat schon 2010 klargestellt:

SEO doesn’t mean you get into blue links on Google, SEO means you understand how people search for content […].

Bei der GEO sollten Webmaster ebenfalls auf die neuen Suchmuster achten und ausgehend davon Informationen und Inhalte bereitstellen, möglichst unikal, möglichst vielfältig aufbereitet; man denke auch an die multimodalen Fähigkeiten von Lösungen wie dem AI Mode und ChatGPT.

Der GEO-Action-Plan von Eico Schweins, © Eico Schweins, 4V Visions

9 Wie kann man den Bruch auflösen, der dadurch entsteht, dass man aus dem Dialog im Sprachmodell in den Monolog auf der Website zurückfällt? Der schönste Traffic durch SEO und GEO hilft ja nicht, wenn die UX dann abbricht, oder?

Das kommt sicherlich ganz auf die Intention der User an. Wenn diese über die Ergebnisse aus der Suche auf Seiten kommen, auf denen sie beispielsweise direkt etwas kaufen, nachlesen oder auch nur nachgucken wollen – wie ein Datum oder einen Preis –, dann braucht es womöglich keine Dialogstruktur für die User. Möchten diese aber auf der Seite navigieren, über Angebote und Content-Bereiche informiert werden, kann es sich anbieten. Zunächst einmal können User selbst in der aus dem KI-Chat bekannten Struktur arbeiten, indem sie beispielsweise KI-Zusammenfassungen über Browser erstellen lassen oder in den AI Browsern direkt mit ChatGPT (bei Atlas) oder Gemini (bei Chrome) chatten, um die Chatbots etwas über die Seiten zu fragen.

Website-Betreiber:innen können aber ebenso selbst eine Anschlussoption bieten. So können sie eigene AI Agents anbinden, die einen KI-Dialog auf der Website bieten und beispielsweise Chatbots verwalten. In diesem Kontext ist nochmals bemerkenswert, dass es gilt, sich auf die Nutzungsrealitäten in der Suche einzustellen. Die Entwicklung eigener Agents und Subagents, idealerweise gefüttert mit Nutzungsdaten der eigenen Seite, ist dank Google, Adobe, Salesforce, Anthropic, OpenAI und Co. einfacher denn je.

Auf Threads ansehen

10. Welche Tools nutzt ihr, um die Sichtbarkeit eurer Marke im Netz zu messen und Brand-Erwähnungen zu monitoren?

Eico Schweins nennt PeecAI, Otterly, Rankscale, und das Prompt Tracking von SISTRIX. SISTRIX liefert umfassende Möglichkeiten, um beispielsweise LLM-Erwähnungen zu tracken.

Das funktioniert auch bei Similarweb und anderen Anbieter:innen. Adobe bietet zum Beispiel einen LLM Optimizer und die kostenlose Chrome-Erweiterung „Is Your Webpage Citable?“. Und über die Semrush App in ChatGPT können User mit Prompts in natürlicher Sprache SEO Insights aufrufen und ganze Reports erstellen lassen.

Dashboard-Ansicht im Adobe LLM Optimizer, © Adobe

Google liefert neuerdings zum Thema Brand-Sichtbarkeit einen Filter zur Unterscheidung zwischen markenbezogenen und nicht markenbezogenen Suchanfragen im Leistungsbericht in der Search Console. Die Zahl der Tools und Tracking-Optionen ist groß. Für Marketer bietet es sich an, verschiedene Optionen zu testen, gerade solche, die in Diensten integriert sind, die das eigene Unternehmen ohnehin nutzt. Ein Tipp: Lass dir von verschiedenen KI-Tools Übersichten zu relevanten Tools geben oder frage auf LinkedIn, Reddit und Co. nach, was deine Peers nutzen.

Du kannst dir einen Ausschnitt aus dem Talk von Eico Schweins in diesem YouTube-Video ansehen. Die gesamte Aufzeichnung des Events mit weiteren aufschlussreichen Talks zum Thema von Sebastian Grundt, Katrin Winkler und Kathrin Häußler kannst du dir über die nachträgliche Anmeldung zum Event sichern.

Digital Bash – AI Search & GEO

Blog

Leave a Reply

Your email address will not be published. Required fields are marked *