Für alle Nerds und Nicht-Nerds, die die Anderscape verstehen – und dort sichtbar werden wollen.
Eine neue Disziplin benötigt neue Begriffe, daher hat Vanessa Kämmerling dieses viSEOnäre GEO-Wiki angelegt. Es richtet sich an alle, die die answerscape, die schöne neue (Such-)Welt verstehen möchten, ohne oberflächliches Content-Geblubber und ohne Technik-Overload.
Schnellnavigation
Nachfolgend findest du alle Kategorien, rund um die Welt der Generativen Suchmaschinen. Viel Spaß beim Stöbern!
🔍 GEO (Generative Engine Optimization)
Was bedeutet GEO?
GEO ist die strategische Antwort auf KI-Suchsysteme. Während SEO für Google optimiert, sorgt GEO dafür, dass deine Inhalte von Systemen wie ChatGPT, Perplexity oder Gemini verstanden, zitiert und empfohlen werden.
Warum ist das wichtig?
KI-Systeme entscheiden nicht nur, ob du gefunden wirst – sondern wofür und wie. GEO macht deine Inhalte retrieverfreundlich: klar, relevant, chunkbar.
Woran erkennst du guten GEO-Content?
- Klare Struktur (H2/H3, Fragelogik)
- In sich geschlossene Abschnitte (Chunks)
- Vertrauen durch Autorenschaft & Quellen
- Snippet-Tauglichkeit (zitierbar, direkt verwendbar)

Das Thema GEO verdient einen eigenen Artikel. Diesen findest du hier
🧭 Topical Authority
Was ist Topical Authority?
Topical Authority bedeutet: Du wirst von KI-Systemen als verlässliche Quelle für ein bestimmtes Thema erkannt. Nicht, weil du das Keyword hundertmal nennst – sondern weil dein Content tief, konsistent und sinnvoll verlinkt ist.
Wie erreichst du das?
- Themencluster statt Einzelartikel
- Sinnvolle interne Verlinkung (Topical Map)
- Wiedererkennbare Stimme und Haltung
- Ergänzende Formate (FAQ, Glossar, Deep Dives)

Warum das wichtig ist?
Retriever (z. B. bei RAG) brauchen Kontext. Wer vernetzt schreibt, wird nicht nur gelesen, sondern verstanden – und das ist die Grundlage für KI-Zitate.
🤖 KI-Suchmaschinen
Was sind KI-Suchmaschinen?
KI-Suchsysteme wie ChatGPT, Perplexity oder Gemini funktionieren anders als Google. Sie ranken nicht – sie antworten. Dafür ziehen sie aus Milliarden Webseiten die relevantesten Textabschnitte („Chunks“) – in Echtzeit.
Wie wirst du dort sichtbar?
- Durch klar strukturierte, vertrauenswürdige Inhalte
- Mit llms.txt (Crawlersteuerung für KI)
- Durch externe Erwähnungen (Trust-Signale)
- Mit Schema-Markup & RAG-kompatiblen Chunks

KI-gestützte Suchsysteme sind spanend, daher haben sie einen eigenen Artikel bekommen. Hier kannst du ihn lesen.
Unterschied zu klassischen Suchmaschinen:
Google & Co. | KI-Suchsysteme |
Rankings & SERPs | Direktantworten & Snippets |
Fokus auf Keywords | Fokus auf Kontext & Relevanz |
Klickentscheidungen | Vertrauensentscheidungen |
📂 Strukturelle Sichtbarkeit (LLM-ready Content)
llms.txt
Was ist llms.txt?
Die llms.txt
ist eine Steuerungsdatei für KI-Crawler – vergleichbar mit der robots.txt
, aber speziell für generative KI-Systeme.
Sie sagt der KI: „Diese Inhalte darfst du indexieren, analysieren und nutzen – und diese nicht.“
Wofür ist das wichtig?
In der Welt von GEO bestimmst du aktiv, welche Seiten für Large Language Models (LLMs) relevant und nutzbar sind. Die llms.txt
wirkt als Sichtbarkeitsfilter – aber nicht für Google, sondern für GPTBot, ClaudeBot, PerplexityBot & Co.

So funktioniert es:
- Datei wird im Root-Verzeichnis deiner Domain abgelegt
- Einträge bestehen aus URLs + optionaler Beschreibung
- Kann genutzt werden zur Sichtbarkeitslenkung, z. B.:
- Nur Pillarseiten freigeben
- Nur strukturierte Inhalte zulassen
- Bestimmte Themen besonders hervorheben
Beispieleintrag der llms.txt-Datei
https://vauceka.de/geo-wiki/
# GEO-Wiki: Begriffserklärungen für KI-Sichtbarkeit
🧠 Merksatz:Die llms.txt sagt der KI nicht nur, was sie lesen darf – sondern auch, was sie lernen und weitergeben soll.
Snippetmap 🗺️ (statt Sitemap)
Was ist eine Snippetmap?
Während Sitemaps Suchmaschinen zeigen, welche Seiten es gibt, zeigt eine Snippetmap KIs, welche Abschnitte besonders relevant, chunkbar und zitierfähig sind.
Warum ist das sinnvoll?
Retriever brauchen keine URL-Listen, sondern Antworteinheiten. Eine Snippetmap lenkt Aufmerksamkeit gezielt auf strukturierte Inhalte, z. B. H2–H3–Bullet-Kombis oder definierte Glossar-Boxen.
Einsatzmöglichkeiten:
- visuelle Übersicht mit Chunk-Links
- strukturierte „Highlight-Liste“ pro Pillarseite
- Integration in JSON-LD (future-ready)
Dokumentenstruktur für LLM-Auslesbarkeit 📑
Was bedeutet das?
LLMs lesen keine ganzen Seiten – sie verarbeiten Chunks. Deine Dokumentstruktur entscheidet, wie gut deine Inhalte verdaulich, kontextualisiert und zitatefähig sind.
Best Practices:
- klare H2/H3-Logik
- Abschnitte in sich geschlossen (1 Chunk = 1 Bedeutungseinheit)
- semantische Dichte, keine Textwüsten
Antwortfähigkeit (statt Ranking) ✅
Was bedeutet Antwortfähigkeit?
In KI-Suchsystemen geht es nicht mehr um Platz 1 – sondern darum, ob dein Inhalt zur Antwort passt. Dafür brauchst du klare, zitierfähige Aussagen.
Wie du das erreichst:
- Nutze H2-Fragen und prägnante H3-Antworten
- Liefere direkt verwertbare Snippets
- Setze auf Klarheit statt Floskeln
Semantische Tiefe 🌐
Was ist semantische Tiefe?
Semantische Tiefe bedeutet, ein Thema nicht nur oberflächlich, sondern facettenreich, vernetzt und mit echtem Kontext aufzubereiten. Genau das erkennen KIs, und Retriever honorieren es.
Merkmale:
- verwandte Begriffe, Synonyme, Beziehungen
- thematische Verzweigungen, „Was hängt womit zusammen?“
- echte Beispiele, nicht nur Buzzwords
👁 Vertrauen & Autorenschaft
Autorenprofil Schema
Was ist das?
Ein strukturiertes Autorenprofil in JSON-LD
-Form, das Suchmaschinen und KI-Systemen klare Informationen zu deiner Person liefert: Name, Rolle, Fachgebiete, Social-Links, Veröffentlichungen.
Warum ist das wichtig?
Retriever und LLMs erkennen dadurch deine Glaubwürdigkeit und Expertise. Inhalte von klar identifizierten Autor:innen werden eher zitiert und als vertrauenswürdig eingestuft.
Best Practices:
- Nutze
Person
-Schema mitsameAs
-Links zu LinkedIn, Wikipedia, Autorenseiten - Erwähne relevante Veröffentlichungen (
worksFor
,knowsAbout
) - Halte Daten aktuell
Kontextualisierte Bewertungen
Was bedeutet das?
Nicht nur Sterne sammeln – sondern Bewertungen mit Kontext einbinden. Das heißt: Referenzen, die thematisch zu deinem Content passen und deine Fachkompetenz belegen.
Warum es wirkt:
- LLMs erkennen inhaltlichen Zusammenhang zwischen Bewertung & Thema
- Bewertungs-Snippets steigern das Vertrauen bei Usern UND Maschinen
Tipps:
- Zitate aus Kundenfeedback in thematisch passenden Artikeln einbinden
- Schema
Review
oderTestimonial
nutzen