Zurück zum Blog

Technisches GEO-Audit: Die komplette Checkliste (mit Download)

Technical GEO

12.03.2026

Strukturierte Daten verbessern die Trefferquote von GPT-4 von 16 % auf 54 % (Data World, 2025). Das ist keine marginale Verbesserung. Das ist ein Faktor von mehr als drei. Wer seine Website technisch korrekt für KI-Systeme aufbereitet, hat einen messbaren Vorteil gegenüber allen, die es nicht tun. Und die meisten tun es nicht. Ein technisches GEO Audit macht genau sichtbar, wo dieser Abstand entsteht und wie er sich schließen lässt.

Technisches GEO ist kein Nice-to-have. Bevor ChatGPT, Perplexity oder Google AI Overviews Ihren Content überhaupt bewerten können, müssen sie ihn lesen können. Wenn Ihre robots.txt bestimmte KI-Crawler blockiert, wenn Schema Markup fehlt, wenn Ihre Seiten nicht maschinenlesbar strukturiert sind, wird kein einziger Optimierungsschritt auf Content-Ebene etwas bringen. Die technische Basis entscheidet, ob KI-Systeme Sie überhaupt wahrnehmen.

Die Zahlen unterstreichen den Handlungsbedarf. Mehr als 336 % mehr Websites haben im vergangenen Jahr KI-Crawler blockiert (Tollbit, 2025). Viele davon unbeabsichtigt, durch veraltete robots.txt-Regeln oder CMS-Standardeinstellungen. Wer jetzt prüft und optimiert, hat einen Vorsprung gegenüber dem Wettbewerb, der diesen Schritt noch nicht gemacht hat.

Was leistet ein technisches GEO-Audit?

Ein technisches GEO-Audit prüft systematisch, ob Ihre Website von KI-Suchsystemen gelesen, verstanden und zitiert werden kann. Es unterscheidet sich vom klassischen SEO-Audit in einem entscheidenden Punkt: Nicht der Google-Bot steht im Mittelpunkt, sondern GPTBot, ClaudeBot, PerplexityBot und ähnliche KI-Crawler, die nach eigenen Regeln funktionieren.

Das Audit beantwortet fünf grundlegende Fragen. Haben KI-Crawler Zugang zu Ihrer Website? Versteht das System, worum es auf Ihren Seiten geht? Sind Ihre Inhalte so strukturiert, dass sie direkt in Antworten eingebettet werden können? Sind Sie als vertrauenswürdige Quelle erkennbar? Und: Gibt es technische Fehler, die das alles sabotieren?

Die Ausgangslage für viele Websites ist ernüchternd. Mehr als 5,6 Millionen Websites haben OpenAIs GPTBot bereits in ihrer robots.txt blockiert, Tendenz stark steigend (Ahrefs, 2025). Das klingt zunächst nach einer bewussten Entscheidung. In vielen Fällen ist es aber ein Versehen, ein überalterter Eintrag oder eine Pauschalregel, die KI-Crawler ungewollt aussperrt. Andere Seiten haben zwar keine Blockierung, aber auch keine strukturierten Daten, keine klare Autorenschaft, keinen semantischen Kontext. Für KI-Systeme sind sie faktisch leer.

Die 5 Prüfbereiche eines technischen GEO-Audits

Ein vollständiges Audit deckt fünf Bereiche ab. Wir gehen sie bei jedem Kunden-Onboarding bei rankprompt.de systematisch durch, weil ein schwaches Glied in dieser Kette alles andere unwirksam macht. Eine ausführliche Anleitung bietet unser GEO Audit Checkliste.

1. Crawler-Zugang: Wer kann Ihre Website lesen?

Der erste Schritt ist trivial, aber er entscheidet über alles andere. Wenn ein KI-Crawler Ihre Website nicht lesen darf, spielt der Rest keine Rolle. Prüfen Sie Ihre robots.txt manuell auf Einträge für GPTBot, ClaudeBot, PerplexityBot, anthropic-ai, Google-Extended und OAI-SearchBot.

Ein konkretes Problem: 13,26 % aller Anfragen von KI-Bots wurden im zweiten Quartal 2025 gegen explizite robots.txt-Regeln verstoßen (Cloudflare, 2025). Das zeigt zweierlei. Erstens, dass Blockierungen nicht immer zuverlässig greifen. Zweitens, dass KI-Anbieter zunehmend unter Druck stehen, sich an diese Regeln zu halten. Eine korrekt konfigurierte robots.txt ist also sowohl Signal als auch Schutz.

Neben robots.txt spielen auch HTTP-Header und noindex-Tags eine Rolle. Viele CMS-Systeme setzen noindex auf Kategorie- oder Tag-Seiten, was sinnvoll ist. Werden diese Regeln aber auf Content-Seiten ausgeweitet, verschwinden Sie aus dem KI-Radar. Prüfen Sie außerdem, ob Ihr Content server-seitig gerendert wird oder ob er vollständig im Browser via JavaScript aufgebaut wird. KI-Crawler sind schlechter darin, JavaScript zu interpretieren als Google-Bots.

2. Structured Data und Schema Markup

Strukturierte Daten sind die direkteste Sprache zwischen Ihrer Website und KI-Systemen. Wenn ein Crawler auf korrekt implementiertes JSON-LD trifft, muss er Ihren Content nicht interpretieren, er kann ihn direkt lesen. Entitäten, Beziehungen, Kontext sind explizit codiert.

Der Mindeststandard für eine GEO-optimierte Website umfasst drei Schema-Typen. Organization-Schema mit vollständigen Angaben zu Name, Logo, Adresse, Kontakt und Social-Media-Profilen etabliert Ihre Marke als Entität. Article- oder BlogPosting-Schema mit Autor, Datum, Beschreibung und Hauptbild macht jeden Artikel als Informationseinheit erkennbar. FAQPage-Schema liefert KI-Systemen strukturierte Frage-Antwort-Paare, die direkt in Antworten übernommen werden können.

Darüber hinaus gibt es je nach Branche relevante Spezialtypen: Product-Schema für E-Commerce, LocalBusiness für regionale Unternehmen, HowTo für Anleitungen. Der Validator von Schema.org und das Rich Results Test Tool von Google sind die schnellsten Werkzeuge für eine erste Prüfung. Was dort Fehler wirft, funktioniert für KI-Crawler mindestens genauso schlecht. Alle Details zur konkreten Umsetzung finden Sie in unserem Artikel zu Schema Markup für KI-Systeme.

Eine wichtige Einschränkung: Schema Markup ist kein Selbstzweck. Es verstärkt, was im Content bereits vorhanden ist. Wer dünnen, quellenarmen Content mit perfektem Schema Markup versieht, gewinnt wenig. Wer substantiellen, zitierbaren Content hat und ihn mit korrektem Schema strukturiert, hat einen echten Vorteil.

3. llms.txt: Signal für KI-Systeme

llms.txt ist eine vergleichsweise neue Konvention. Die Datei liegt im Root-Verzeichnis Ihrer Website und gibt KI-Systemen strukturierte Hinweise darauf, was auf Ihrer Website zu finden ist, welche Seiten besonders relevant sind und wie Ihr Content eingeordnet werden soll. Eine ausführliche Anleitung zur Implementierung finden Sie in unserem llms.txt Guide.

Die Forschungslage ist noch uneinheitlich. 8 von 9 untersuchten Websites verzeichneten keine messbaren Traffic-Änderungen nach der Implementierung von llms.txt (Search Engine Land, 2025). Das klingt ernüchternd. Es bedeutet aber nicht, dass llms.txt wertlos ist. Es bedeutet, dass allein llms.txt keinen Unterschied macht. Als Teil einer umfassenden technischen Strategie, kombiniert mit korrektem Schema Markup und klarem Crawler-Zugang, setzt es ein konsistentes Signal. Claude-Dokumentation beispielsweise listet llms.txt explizit als relevantes Signal für die eigenen Crawling-Prozesse.

Für die Implementierung gilt: llms.txt ersetzt keine der anderen Maßnahmen. Wer nur llms.txt hinzufügt, ohne die Grundlagen zu klären, verschwendet Zeit. Wer alle Grundlagen hat und llms.txt ergänzt, investiert sinnvoll in ein wachsendes Ökosystem.

4. Content-Struktur und Zitierbarkeit

Technisches GEO endet nicht bei Crawlability und Schema. Es umfasst auch die Frage, ob Ihr Content so strukturiert ist, dass KI-Systeme ihn zitieren können und wollen. Das ist die Brücke zwischen Technik und Inhalt.

Semantische HTML-Struktur bedeutet, dass Überschriften hierarchisch verwendet werden, Absätze klar abgetrennt sind und Listen als Listen formatiert sind. Viele Websites verwenden Überschriften rein visuell, ohne logische Hierarchie. Für KI-Crawler, die Dokumentstruktur interpretieren, ist das ein Problem. Die KI-Sichtbarkeit einer Seite hängt direkt davon ab, wie gut diese Struktur ausgeprägt ist.

Klar abgrenzbare Antwort-Einheiten sind ein weiterer Faktor. KI-Systeme suchen nach Abschnitten, die eine Frage vollständig beantworten. Lange, verschachtelte Texte ohne klare Struktur werden seltener zitiert als Inhalte, bei denen Frage und Antwort direkt aufeinander folgen. FAQ-Sektionen mit korrektem Schema sind das deutlichste Beispiel dafür.

Quellenangaben und Autorenschaft schließen diese Ebene ab. KI-Systeme bevorzugen Quellen mit klarer Urheberschaft. Autorenprofile mit Name, Foto, Qualifikation und Verlinkung zu professionellen Netzwerken sind ein messbares Vertrauenssignal.

5. Technische Basisqualität

Einige technische Faktoren wirken sich gleichzeitig auf klassisches SEO und auf GEO aus, werden aber oft als "SEO-Thema" betrachtet und im GEO-Kontext übersehen. Ladezeit und Core Web Vitals sind relevant, weil langsam ladende Seiten von KI-Crawlern mit niedrigerer Priorität behandelt werden. HTTPS ist Pflicht. Kanonische URLs verhindern, dass KI-Systeme zwischen doppelten Seiten wählen und im Zweifel die schwächere Variante indexieren.

Besonderes Augenmerk verdient die interne Verlinkungsstruktur. KI-Crawler folgen Links, um den Kontext einer Website zu verstehen. Wenn Ihre besten Inhalte nicht verlinkt sind, werden sie schlechter entdeckt. Wenn Ihre Pillar-Artikel nicht von Cluster-Artikeln verlinkt werden, fehlt das semantische Netz, das KI-Systemen die thematische Autorität signalisiert.

Hinzu kommt die Frage der Duplicate Content. Viele CMS-Systeme erzeugen automatisch mehrere URLs für denselben Content: www und non-www, mit und ohne Trailing Slash, HTTP und HTTPS, Paginierungs-URLs. Ohne korrekte Kanonisierung indexieren KI-Crawler möglicherweise die falsche Version oder verteilen Autorität auf mehrere Seiten. Eine systematische Kanonisierungsstrategie ist einfach umzusetzen und bringt sofortigen Effekt.

Mobile-first ist kein optionaler Standard. Viele KI-Crawler nutzen mobile User-Agents. Wenn Ihre Website auf Mobilgeräten Inhalte ausblendet oder vereinfacht, werden diese Inhalte im Audit möglicherweise gar nicht erfasst. Prüfen Sie deshalb alle Seiten explizit in der mobilen Darstellung, nicht nur auf dem Desktop. Eine ausführliche Anleitung bietet unser KI-SEO-Agentur.

Häufige technische Fehler und ihre Auswirkungen

Fehler auf technischer Ebene sind selten dramatisch. Sie sind still. Eine falsch konfigurierte robots.txt schickt keine Fehlermeldung. Fehlerhaftes Schema Markup bricht keine Seite. Die Konsequenz ist, dass Sie in KI-Antworten schlicht nicht auftauchen, während Wettbewerber es tun.

In der Praxis sehen wir bei unseren Kunden wiederkehrende Fehlerbilder. Keiner davon ist schwer zu beheben. Aber jeder davon kostet Sichtbarkeit, solange er nicht behoben ist.

Veraltete robots.txt-Einträge sind der häufigste Fehler. Websites, die vor 2023 ihre robots.txt zuletzt bearbeitet haben, haben oft keine Einträge für KI-Crawler. Das bedeutet nicht zwangsläufig Blockierung, aber auch keine explizite Freigabe. Manche verwenden Wildcard-Disallow-Regeln, die versehentlich KI-Bots aussperren.

Fehlerhaftes oder fehlendes Schema Markup ist fast gleichauf. Viele Websites haben Schema-Implementierungen, die Validierungsfehler werfen, weil Pflichtfelder fehlen oder Werte im falschen Format angegeben sind. Ein fehlerhaftes Schema ist oft schlechter als keins, weil es aktiv Verwirrung stiften kann.

JavaScript-abhängige Inhalte stellen ein wachsendes Problem dar. Single-Page-Applications und Heavy-JavaScript-Frameworks rendern Content erst im Browser. Wer seinen Content ausschließlich client-seitig lädt, macht ihn für viele KI-Crawler praktisch unsichtbar. Die Lösung ist Server-Side Rendering oder statisches Pre-Rendering der wichtigsten Seiten.

Fehlende oder inkonsistente Metadaten betreffen Title-Tags, Meta Descriptions und Open-Graph-Daten. KI-Systeme nutzen diese Signale für die erste Kategorisierung einer Seite. Wenn Title-Tag und H1 thematisch auseinandergehen, sendet das ein Inkonsistenz-Signal, das Vertrauen kostet. Dasselbe gilt für fehlende oder veraltete Open-Graph-Daten, die Social-Sharing und KI-Vorschau-Extraktion beeinflussen.

GEO-Audit: Selbst prüfen oder Agentur beauftragen?

Die kurze Antwort: beides hat seinen Platz, je nach Ressourcen und Tiefe des Audits.

Eine erste Selbstprüfung ist mit frei verfügbaren Tools möglich. Der Rich Results Test von Google prüft Schema Markup. Robots.txt können Sie direkt unter yoursite.com/robots.txt prüfen. Mit dem Google Search Console Crawling-Bericht sehen Sie, welche Seiten nicht indexiert werden. Frei zugängliche Tools wie auditgeo.io geben eine Übersicht über technische GEO-Faktoren. Für einen schnellen Gesundheitscheck reicht das.

Für ein vollständiges Audit, das konkurrierende Websites berücksichtigt, Prioritäten setzt und konkrete Handlungsempfehlungen liefert, ist eine Agentur mit GEO-Expertise sinnvoller. Wir führen bei rankprompt.de strukturierte GEO-Audits durch, die alle fünf Bereiche abdecken und in einer priorisierten Roadmap münden. Der Unterschied zum Do-it-yourself-Check liegt nicht im Aufwand, sondern in der Interpretation: Welcher Fehler kostet am meisten Sichtbarkeit? Und in welcher Reihenfolge lohnt es sich zu handeln?

Wichtig zu verstehen: Ein Audit ohne Umsetzung ändert nichts. Die häufigste Fehler, die wir sehen, sind nicht das Nicht-Wissen, sondern das Nicht-Umsetzen von bekannten Problemen. Ein gutes Audit liefert deshalb nicht nur einen Befund, sondern eine umsetzbare Priorisierung.

Wie oft brauchen Sie ein GEO-Audit?

GEO-Optimierung ist kein einmaliges Projekt. Das KI-Such-Ökosystem entwickelt sich schnell. Neue Crawler entstehen, bestehende Crawler verändern ihr Verhalten, Schema-Standards werden erweitert, neue Signale gewinnen an Gewicht. Was heute best practice ist, kann in sechs Monaten überholt sein.

Unsere Empfehlung: ein vollständiges technisches GEO-Audit alle 6 Monate, ergänzt durch laufendes Monitoring der Crawler-Zugangslogs und Schema-Validierung bei jedem größeren Content- oder Template-Update. Zusätzlich empfiehlt sich ein Quick-Check immer dann, wenn ein KI-Anbieter bedeutende Änderungen ankündigt, zum Beispiel neue Crawling-Policies oder veränderte Ranking-Signale. Wer die robots.txt für KI-Crawler richtig konfiguriert und regelmäßig aktualisiert, hat hier bereits die Hälfte der Arbeit getan.

FAQ: Häufig gestellte Fragen zum technischen GEO Audit

Was kostet ein professionelles GEO-Audit?
Ein grundlegendes GEO-Audit für eine mittelgroße Website liegt typischerweise zwischen 800 und 2.500 Euro. Umfang und Preis hängen von der Seitenzahl, der technischen Komplexität und der Tiefe der Analyse ab. Agenturen, die nur eine Checkliste abarbeiten, sind günstiger. Agenturen, die Ihre Seiten gegen Wettbewerber benchmarken und priorisierte Roadmaps erstellen, kosten mehr, liefern aber direkten Mehrwert. Für größere Domains mit mehreren hundert Seiten und komplexen technischen Architekturen sollten Sie mit 3.000 bis 6.000 Euro rechnen.

Welche Tools brauche ich für ein GEO-Audit?
Für einen ersten Überblick genügen kostenfreie Tools: Rich Results Test (Schema), Google Search Console (Indexierung, Crawling), robots.txt-Viewer und ein Browser-Plugin für die HTTP-Header-Analyse. Für ein tieferes Audit empfehlen sich Screaming Frog, Semrush oder Ahrefs für die technische Analyse sowie spezialisierte GEO-Tools wie auditgeo.io oder Otterly.ai für KI-spezifische Signale.

Muss ich wirklich alle KI-Crawler freigeben?
Nein. Es gibt berechtigte Gründe, bestimmte Crawler zu blockieren, zum Beispiel wenn Sie verhindern möchten, dass Ihre Inhalte zum Training von KI-Modellen verwendet werden. Das ist eine strategische Entscheidung. Wichtig ist, sie bewusst zu treffen und zu unterscheiden: Crawler, die für das Training genutzt werden (GPTBot im Training-Modus), und Crawler, die für die Suche genutzt werden (OAI-SearchBot für ChatGPT Search). Wer sichtbar sein will, sollte Letzteren nicht blockieren.

Wie lange dauert es, bis Änderungen Wirkung zeigen?
Technische Änderungen wie robots.txt-Korrekturen oder Schema-Markup-Ergänzungen zeigen erste Wirkung, sobald KI-Crawler Ihre Seite neu gecrawlt haben. Das dauert in der Regel 2 bis 8 Wochen. Messbarer Einfluss auf Citations und Sichtbarkeit in KI-Antworten ist typischerweise nach 4 bis 12 Wochen erkennbar, je nachdem wie aktiv Ihre Zielthemen in KI-Systemen nachgefragt werden. Messen lässt sich der Fortschritt am besten über Branded Mentions in KI-Antworten, nicht über klassische Ranking-Positionen, da GEO-Erfolg anders gemessen wird als SEO-Erfolg.

Was unterscheidet ein GEO-Audit von einem klassischen SEO-Audit?
Ein klassisches SEO-Audit optimiert für den Google-Bot und die klassische SERP. Ein GEO-Audit prüft zusätzlich die spezifischen Anforderungen von KI-Crawlern, die Zitierbarkeit von Inhalten in generativen Antworten und die Entitäten-Erkennung durch KI-Systeme. Viele Punkte überschneiden sich, aber GEO geht über technisches SEO hinaus: Structured Data, Content-Zitierbarkeit, llms.txt und Autoritätssignale spielen eine andere Rolle als in klassischer SEO-Analyse.

Gibt es Tools, die ein GEO-Audit automatisch durchführen?
Ja, und das Angebot wächst. Otterly.ai, auditgeo.io und das Chrome-Plugin von SEOptimer bieten automatisierte GEO-Checks. Diese Tools sind gut für einen schnellen ersten Überblick. Sie ersetzen kein manuelles Audit, weil sie keine Wettbewerbskontext-Analyse bieten und keine Priorisierungen nach Sichtbarkeitspotenzial vornehmen können. Für eine ernsthafte Strategie sind sie Ausgangspunkt, nicht Endpunkt.

---

Technisches GEO Audit ist der Startpunkt jeder ernsthaften KI-Sichtbarkeitsstrategie. Ohne funktionierenden Crawler-Zugang, ohne strukturierte Daten und ohne die richtigen semantischen Signale bleiben alle anderen Optimierungsmaßnahmen wirkungslos. Wer wissen möchte, wie die eigene Website heute für ChatGPT, Perplexity und Google AI Overviews aufgestellt ist, findet bei rankprompt.de den richtigen Einstieg. Mehr zur übergreifenden Strategie in unserem GEO Guide.













Teile den Blog Post

Teile den Blog Post

Newsletter abonnieren

Newsletter abonnieren

Neueste Artikel

Kontakt

Deine KI-Sichtbarkeit beginnt hier

GEO-Audit, LLM-Strategie oder ChatGPT Ads. Wir finden gemeinsam heraus, wie ihr in KI-Antworten sichtbar werdet.

Kontakt

Deine KI-Sichtbarkeit beginnt hier

GEO-Audit, LLM-Strategie oder ChatGPT Ads. Wir finden gemeinsam heraus, wie ihr in KI-Antworten sichtbar werdet.