FAQPage-Schema allein steigert die Zitierwahrscheinlichkeit um 3,2× (interner Benchmark 2025, 400 Websites).
KI-Such-Bereitschaft Audit
Prüfe, ob deine Inhalte in KI-Suchergebnissen erscheinen. 8 Kategorien, 42 Prüfpunkte — nur 23% der B2B-Seiten bestehen dieses Audit.
- 42 Signale · 8 Kategorien
- Privat · läuft lokal
- Dauert ~ 6 Min
GEO Content Readiness
01 Technische Grundlage Kerninfrastruktur, die KI-Crawler zuerst bewerten — HTTPS, Geschwindigkeit, Sitemaps. 0/10
- Website über HTTPS bereitgestellt 2Pkts
- Seite lädt in unter 600 ms (Server-Antwortzeit) 3Pkts
- sitemap.xml vorhanden 1Pkt
- sitemap.xml zugänglich (kein 403/404) 1Pkt
- HTML-lang-Attribut gesetzt 1Pkt
- Keine aufdringlichen Interstitials beim Laden 2Pkts
02 Schema & Strukturierte Daten JSON-LD-Markup, das KI-Modellen hilft, Ihre Inhalte zu verstehen und zu zitieren. FAQPage-Schema allein bringt eine 3,2× höhere Zitierrate. 0/8
- JSON-LD-strukturierte Daten vorhanden 1Pkt i
- Organisation-Schema implementiert 2Pkts
- FAQPage-Schema auf Schlüsselseiten (3,2× Zitier-Boost) 3Pkts i
- BreadcrumbList-Schema für Navigationskontext 1Pkt
- Autor/Person-Schema mit Inhalten verknüpft 1Pkt
03 KI-Bot-Zugang Ob GPTBot, ClaudeBot, PerplexityBot und Google-Extended Ihre Website crawlen können. 0/6
- GPTBot nicht in robots.txt blockiert 2Pkts i
- ClaudeBot / anthropic-ai nicht blockiert 1Pkt
- PerplexityBot nicht blockiert 1Pkt
- Google-Extended (Gemini) nicht blockiert 1Pkt
- Schlüsselinhalte nicht nur JS (servergerendertes HTML) 1Pkt
04 Inhaltsstruktur Antwortkapseln, Statistiken mit Quellen und semantische HTML-Tabellen, die KI-Modelle bevorzugt zitieren. 0/12
- Seiten beginnen mit 40-60-Wörter-Antwortkapsel 3Pkts i
- Statistiken enthalten Quelle und Jahr 3Pkts
- Semantische HTML-Tabellen mit <thead> und <caption> 2Pkts
- Strukturierte Vergleichstabellen (Produkt vs. Alternativen) 2Pkts
- Sichtbare 'Zuletzt aktualisiert'-Daten auf Artikeln und Datenseiten 2Pkts
05 Markenautoritätssignale Externe Signale wie Wikipedia-Präsenz, Knowledge Panel und Pressemeldungen, die Markenvertrauen aufbauen. 0/10
- Marke oder Gründer auf Wikipedia / Wikidata erwähnt 3Pkts i
- Google Knowledge Panel beansprucht 2Pkts
- Konsistente NAP-Daten auf LinkedIn, Crunchbase, G2 usw. 2Pkts
- Branchen-Presse- oder Nachrichtenerwähnungen der letzten 6 Monate 2Pkts
- Nicht-werbliche Markendiskussionen auf Reddit oder in Foren 1Pkt
06 Inhaltliche Aktualität 76,4 % der am häufigsten zitierten ChatGPT-Seiten wurden innerhalb von 30 Tagen aktualisiert. Aktualität ist der 3. Zitierfaktor. 0/8
- Monatlich neue Inhalte veröffentlicht oder bestehende Seiten aktualisiert 3Pkts
- Statistiken enthalten Jahres-/Quartalsstempel (z. B. 'Q1 2026 Daten') 2Pkts
- Branchenbenchmarks, Umfragen oder Originalforschung veröffentlicht 2Pkts
- Schlüsselseiten zeigen sichtbare Aktualisierungshistorie oder 'Zuletzt überprüft'-Datum 1Pkt
07 E-E-A-T-Signale Erfahrung, Expertise, Autorität, Vertrauenswürdigkeit — Autorenbiografien, Fallstudien, Kontaktdaten. 0/10
- Artikelautoren haben Bio-Seiten mit beruflichen Qualifikationen 3Pkts
- Über-uns-Seite enthält Gründungsdatum, Team, Mission und Aussagen 2Pkts
- Geschäftsadresse, Telefon oder verifizierte Kontaktmethode sichtbar 1Pkt
- Fallstudien oder Kundenergebnisse mit konkreten Zahlen 2Pkts
- Branchenzertifizierungen, Auszeichnungen oder Mitgliedschaften angezeigt 1Pkt
- Datenschutzrichtlinie und Nutzungsbedingungen vorhanden und im Footer verlinkt 1Pkt
08 Multiformatbereitschaft Alternative Inhaltsformate — llms.txt, JSON-Endpunkte, Open Graph, kanonische Tags, hreflang. 0/8
- /llms.txt-Datei vorhanden 1Pkt i
- Benchmark- oder strukturierte Daten über JSON/API verfügbar 2Pkts
- Artikel haben eine druckfreundliche oder minimale Version 1Pkt
- Open-Graph-Tags (og:title, og:description) implementiert 2Pkts
- Kanonische Tags gesetzt, um Duplikat-Content-Verwirrung zu vermeiden 1Pkt
- hreflang-Tags implementiert (wenn mehrsprachige Website) 1Pkt
Generative Suche ist ein anderes Indexierungsproblem.
der von uns verfolgten KI-Zitate betrafen Seiten, die in den letzten 90 Tagen aktualisiert wurden.
Durchschnittliche Crawl-Zeit von Perplexity und ChatGPT für neue Inhalte von Domains mit hoher Autorität.
Wie sich Readiness-Scores in Zitate übersetzen.
Score-Band → Zitierrate nach Engine
| Score-Band | ChatGPT | Perplexity | Claude |
|---|---|---|---|
| 0–40 | 2% | 3% | 1% |
| 41–65 | 11% | 18% | 7% |
| 66–85 | 34% | 51% | 22% |
| 86–100 | 71% | 83% | 58% |
Welche Signale wirken am schnellsten?
| Signal | Aufwand | Ø Zitier-Hebel |
|---|---|---|
| FAQPage JSON-LD | 2 Std. | +3.2× |
| Zuletzt-aktualisiert-Stempel | 1 Std. | +1.9× |
| Autor-E-E-A-T-Biografien | 4 Std. | +2.4× |
| Semantische Tabellen | 4 Std. | +1.7× |
| llms.txt | 1 Std. | +1.3× |
| GPTBot + PerplexityBot zulassen | 5 Min. | +4.1× |
Was zuerst umsetzen.
FAQPage JSON-LD ausrollen
Strukturierte Antworten sind das größte einzelne Zitiersignal. Auditiere jede Pillar-Seite und erzeuge FAQPage-Schema.
~ 2 Std. pro SeiteZuletzt-aktualisiert-Stempel veröffentlichen
KI-Engines bevorzugen Aktualität. dateModified in Article-Schema + sichtbares „Aktualisiert"-Label auf allen Inhalten.
~ 1 Std. pro SeiteGPTBot + PerplexityBot zulassen
Die meisten Seiten blockieren KI-Crawler standardmäßig. Eine Zeile in robots.txt ändern, und die Indexierung aller großen Engines ist frei.
~ 5 Min. siteweitFragen, die Gründer stellen.
-
Was ist GEO-Content-Readiness?
GEO-Content-Readiness misst, wie gut eine Website für KI-Suchmaschinen wie ChatGPT, Perplexity und Gemini optimiert ist. Es umfasst 8 Bereiche: technische Grundlage, Schema-Markup, KI-Bot-Zugang, Inhaltsstruktur, Markenautorität, Inhaltliche Aktualität, E-E-A-T-Signale und Multiformatbereitschaft. -
Welche KI-Bots sollte ich in der robots.txt zulassen?
Die vier wichtigsten KI-Crawler sind GPTBot (OpenAI/ChatGPT), ClaudeBot oder anthropic-ai (Anthropic/Claude), PerplexityBot (Perplexity) und Google-Extended (Google Gemini und AI Overviews). Das Blockieren eines dieser Bots verhindert, dass diese KI Ihre Inhalte zitiert. -
Hilft FAQPage-Schema wirklich bei der KI-Sichtbarkeit?
Ja. Seiten mit FAQPage-Schema werden in KI-Antworten zu 41% zitiert, verglichen mit 15% ohne — eine 3,2-fache Verbesserung. Dies gilt, obwohl Google FAQ-Rich-Results im August 2023 eingeschränkt hat. Das Verhalten von KI-Crawlern unterscheidet sich von Googles SERP-Richtlinien. -
Wie lange dauert das GEO-Readiness-Audit?
Die manuelle Selbstbewertungs-Checkliste dauert etwa 3-5 Minuten. Sie beantworten 42 Fragen in 8 Kategorien zur KI-Suchbereitschaft Ihrer Website und erhalten sofortige Bewertung mit priorisierten Quick Wins. -
Welcher GEO-Readiness-Wert gilt als gut?
Werte über 70/100 zeigen eine starke KI-Suchbereitschaft an. Der Branchendurchschnitt über alle B2B-Sektoren liegt bei 38/100. B2B-SaaS-Unternehmen erreichen durchschnittlich 45/100, während lokale Dienstleister 27/100 erreichen. Werte unter 30 bedeuten, dass die Website wahrscheinlich in KI-gestützter Recherche unsichtbar ist. -
Können JavaScript-lastige Websites für KI-Sichtbarkeit optimiert werden?
JavaScript-gerenderte Inhalte sind für GPTBot, ClaudeBot und PerplexityBot unsichtbar — diese Bots können kein JavaScript ausführen. Schlüsselinhalte müssen als servergerendertes HTML vorliegen. Dies ist der häufigste kritische Fehler bei GEO-Audits. -
Was ist der Unterschied zwischen SEO und GEO?
SEO optimiert für Rankings in traditionellen Suchergebnissen; GEO (Generative Engine Optimization) optimiert für Zitierung in KI-generierten Antworten. Wesentliche Unterschiede: GEO erfordert statistische Aussagen mit Quellen (Keyword-Stuffing schadet GEO um 10%), semantische HTML-Tabellen (2,5-fache Zitierrate) und Inhaltsaktualisierung innerhalb von 30 Tagen. -
Wie oft sollte ich die GEO-Readiness-Checkliste erneut durchführen?
Monatlich wird empfohlen, hauptsächlich weil sich KI-Zitiermuster mit Modell-Updates ändern. Inhaltliche Aktualität ist ein wichtiger Faktor — 76,4% der am häufigsten zitierten ChatGPT-Seiten wurden innerhalb der letzten 30 Tage aktualisiert. -
Wie wird das berechnet?
Die Checkliste umfasst 42 Positionen in 8 Kategorien mit zugewiesenen Punktwerten, die zusammen 72 Basispunkte ergeben. Jede Antwort hat einen Koeffizienten: Ja = 1,0; Teilweise = 0,5; Noch nicht = 0. Der laufende Score ist die Basissumme, umgerechnet auf eine 0-100-Skala. Kategorien werden intern gewichtet für das UX-Feedback, aber jede Position trägt ihre Basispunkte zur Summe bei — keine versteckten Multiplikatoren. Quellen: CodeFormers GEO-Benchmark 2025 (n=400 Websites), öffentliche llms.txt-Audits und ChatGPT-/Perplexity-/Claude-Zitat-Tracking Jan-Nov 2025.
Professionelle GEO-Optimierung, auditiert.
Wir bringen deinen Readiness-Score von wo-auch-immer auf 65+ in vier Wochen. Komplett-Audit (Technik + Content + Schema), Umsetzung und Post-Launch-Zitiertracking.