
Ein Marketing-Manager gibt in Perplexity die Frage ein: „Welche Strategien verbessern die Conversion Rate im B2B?" Die KI liefert eine strukturierte Antwort mit Quellenangaben. Zwei der zitierten Quellen stammen von Unternehmensblogs, die ihre Inhalte klar in thematische Abschnitte gegliedert haben. Die dritte Quelle, ein 5.000-Wörter-Artikel ohne klare Struktur, taucht nicht auf. Wer verstehen will, was ist Chunking GEO, findet hier die Erklärung: KI-Systeme wie ChatGPT, Perplexity und Google AI Overviews zerlegen Texte in kleinere Einheiten, um daraus Antworten zu generieren. Dieser Prozess entscheidet mit darüber, ob Ihr Content zitiert wird oder unsichtbar bleibt.

Chunking Definition: Was bedeutet Chunking im KI-Kontext?
Chunking bezeichnet den Prozess, bei dem längere Texte in kleinere, semantisch sinnvolle Abschnitte zerlegt werden. Diese Abschnitte, sogenannte „Chunks", bilden die Grundlage für die Informationsverarbeitung in KI-gestützten Suchsystemen. Ohne Chunking könnten Large Language Models grosse Textmengen nicht effizient durchsuchen und relevante Passagen nicht gezielt extrahieren. Details finden Sie in unserem was ist RAG.
Der Begriff stammt ursprünglich aus der Kognitionspsychologie. George Miller beschrieb 1956, dass das menschliche Kurzzeitgedächtnis etwa 7 (plus/minus 2) Informationseinheiten gleichzeitig verarbeiten kann (Miller, Princeton University, 1956). KI-Systeme haben ein ähnliches Problem: Ihr Kontextfenster ist begrenzt. Ein typisches RAG-System kann nicht einen kompletten 10.000-Wörter-Artikel auf einmal verarbeiten und daraus die relevanteste Passage identifizieren. Es braucht Chunks.
Für Content Chunking GEO bedeutet das konkret: Die Art, wie Sie Ihren Content strukturieren, beeinflusst direkt, welche Textpassagen ein KI-System als Antwortquelle auswählt. Laut einer Analyse von Search Engine Land stammen 44,2 % aller KI-Zitationen aus den ersten 30 % eines Artikels (Search Engine Land, 2026). Das ist kein Zufall, sondern ein direktes Ergebnis davon, wie Chunking-Algorithmen Texte segmentieren und gewichten.
Wie Chunking in RAG-Systemen funktioniert
Retrieval-Augmented Generation, kurz RAG, ist die Architektur hinter den meisten KI-Suchsystemen. Perplexity, ChatGPT mit Websuche und Google AI Overviews nutzen Varianten dieses Ansatzes. Der Prozess läuft in drei Schritten ab. Details finden Sie in unserem Was ist GEO.
Schritt 1: Indexierung. Webseiten werden gecrawlt und in Chunks zerlegt. Jeder Chunk erhält einen Vektor, also eine mathematische Repräsentation seines semantischen Inhalts. Diese Vektoren werden in einer Datenbank gespeichert. LlamaIndex empfiehlt dabei eine optimale Chunk-Grösse von 200 bis 500 Wörtern für die meisten Anwendungsfälle (LlamaIndex, 2025). Mehr dazu in unserem was ist Share of Voice.
Schritt 2: Retrieval. Wenn ein Nutzer eine Frage stellt, wird diese ebenfalls in einen Vektor umgewandelt. Das System sucht dann nach den Chunks, deren Vektoren am ähnlichsten sind. Typischerweise werden die 5 bis 20 relevantesten Chunks ausgewählt.
Schritt 3: Generation. Das LLM erhält die ausgewählten Chunks als Kontext und generiert daraus eine Antwort. Dabei entscheidet die Qualität der Chunks über die Qualität der Antwort. Eine Studie von Georgia Tech zeigt, dass Antworten unter 40 Wörtern 2,7 Mal häufiger von KI-Systemen extrahiert werden als längere Passagen (Georgia Tech, 2024). Das liegt daran, dass kompakte Chunks mit klaren Aussagen besser in den Generierungsprozess passen.
Wichtig zu verstehen: RAG Chunking ist kein statischer Prozess. Verschiedene Systeme verwenden unterschiedliche Chunk-Grössen, Überlappungen und Ranking-Methoden. Was bei allen gleich bleibt, ist die Grundlogik: Klar strukturierter Content wird besser in Chunks zerlegt und deshalb häufiger zitiert.

Chunking-Strategien: Drei Ansätze im Vergleich
Nicht jedes System zerlegt Texte auf die gleiche Weise. Es gibt drei dominante Strategien, die in der Praxis zum Einsatz kommen.
Fixed-Size Chunking
Der einfachste Ansatz: Der Text wird in Blöcke fester Grösse geteilt, typischerweise nach Zeichenanzahl oder Tokenanzahl. Ein Chunk umfasst beispielsweise immer 512 Tokens. Der Vorteil ist die Einfachheit. Der Nachteil: Sätze und Absätze werden mitten im Gedanken abgeschnitten. Semantische Zusammenhänge gehen verloren. Laut OpenAI empfehlen sich bei diesem Ansatz Überlappungen von 10 bis 20 % zwischen aufeinanderfolgenden Chunks, um Kontextverluste zu minimieren (OpenAI, 2024).
Semantisches Chunking
Hier analysiert ein Algorithmus den Inhalt und erkennt thematische Grenzen. Ein neuer Chunk beginnt dort, wo sich das Thema ändert. Dieser Ansatz liefert deutlich bessere Ergebnisse für die Informationsextraktion. Microsoft Research hat gezeigt, dass semantisches Chunking die Retrieval-Genauigkeit um 23 % gegenüber Fixed-Size-Methoden verbessert (Microsoft Research, 2024). Für Content-Ersteller ist das ein klares Signal: Texte mit klaren thematischen Abschnitten werden von semantischen Chunking-Algorithmen besser verarbeitet.
HTML-basiertes Chunking
Viele RAG-Systeme nutzen die HTML-Struktur einer Seite als Chunking-Signal. H2- und H3-Überschriften dienen als natürliche Trennlinien. Jeder Abschnitt unter einer Überschrift wird zu einem eigenen Chunk. Das ist der Ansatz, der für uns als Content-Ersteller am relevantesten ist. Denn hier haben wir direkten Einfluss darauf, wie unsere Inhalte zerteilt werden. Princeton NLP hat herausgefunden, dass strukturierte Auszeichnung mit Schema Markup die Extraktion durch KI-Systeme um den Faktor 3,1 erhöht (Princeton NLP, 2024). Die HTML-Struktur ist also nicht nur für menschliche Leser relevant, sondern auch für Maschinen.
Content-Struktur für optimales Chunking
Wie strukturieren Sie Ihren Content so, dass Chunking-Algorithmen ihn optimal verarbeiten? Wir haben bei unseren Analysen fünf Prinzipien identifiziert, die den grössten Unterschied machen.
Ein Thema pro H2-Abschnitt. Jeder H2-Abschnitt sollte eine eigenständige, in sich geschlossene Informationseinheit bilden. Wenn ein KI-System diesen Abschnitt als Chunk extrahiert, muss er ohne den Rest des Artikels verständlich sein. Mischen Sie nicht mehrere Themen in einem Abschnitt.
Kernaussage in den ersten zwei Sätzen. Die wichtigste Information eines Abschnitts gehört an den Anfang. KI-Systeme gewichten den Beginn eines Chunks stärker. Eine Untersuchung von Zyppy zeigt, dass Seiten mit klaren, prägnanten Definitionen 2,1 Mal häufiger in KI-Antworten zitiert werden (Zyppy, 2025).
Optimale Abschnittslänge einhalten. Zu kurze Abschnitte liefern nicht genug Kontext. Zu lange Abschnitte enthalten zu viel irrelevante Information. Der optimale Bereich liegt bei 150 bis 400 Wörtern pro H2-Abschnitt. Das deckt sich mit den Empfehlungen von LlamaIndex für Chunk-Grössen in RAG-Systemen.
Beschreibende Überschriften verwenden. Schreiben Sie „Wie Chunking in RAG-Systemen funktioniert" statt „Der Prozess". KI-Systeme nutzen Überschriften als semantische Marker, um den Inhalt eines Chunks einzuordnen. Je präziser die Überschrift, desto besser die Zuordnung zu Nutzeranfragen. Laut einer Analyse von Authoritas erhalten Seiten mit strukturierten Überschriften 41 % mehr Sichtbarkeit in KI-gestützten Suchsystemen (Authoritas, 2025).
Schema Markup als zusätzliches Signal. Strukturierte Daten helfen KI-Systemen, den Typ und die Relevanz eines Inhalts schneller einzuordnen. FAQ-Schema, HowTo-Schema und Article-Schema liefern zusätzliche Kontextinformationen, die den Chunking-Prozess unterstützen. In unserem Leitfaden zu Schema Markup für KI erklären wir, welche Auszeichnungen den grössten Effekt haben.

Häufige Chunking-Fehler und wie Sie sie vermeiden
Viele Websites machen es KI-Systemen unnötig schwer, relevante Informationen zu extrahieren. Diese Fehler sehen wir regelmässig.
Lange Textblöcke ohne Zwischenüberschriften. Ein Artikel mit 2.000 Wörtern und nur zwei H2-Überschriften zwingt den Chunking-Algorithmus, entweder riesige Chunks zu erstellen oder den Text willkürlich zu zerteilen. Beides schadet der Retrieval-Qualität. Setzen Sie alle 200 bis 400 Wörter eine H2- oder H3-Überschrift.
Generische Überschriften. „Weitere Informationen" oder „Tipps" sagen einem KI-System nichts über den Inhalt. Der Chunk verliert seine semantische Einordnung. Jede Überschrift sollte den Inhalt des folgenden Abschnitts konkret beschreiben.
Thematisches Springen innerhalb eines Abschnitts. Wenn ein Absatz mit Conversion-Optimierung beginnt und mit Social-Media-Strategie endet, kann kein Chunking-Algorithmus daraus einen kohärenten Chunk bilden. Die Folge: Der gesamte Abschnitt wird für keine der beiden Suchanfragen als relevant eingestuft.
Wichtige Informationen nur in Bildern oder Tabellen. Viele KI-Systeme können Fliesstext besser verarbeiten als Tabelleninhalte. Wenn Ihre Kernaussagen nur in einer Infografik stehen, sind sie für RAG-Systeme praktisch unsichtbar. Stellen Sie sicher, dass alle wichtigen Informationen auch als Text vorhanden sind.
Die gute Nachricht: Diese Fehler lassen sich mit einer systematischen Überprüfung Ihrer bestehenden Inhalte schnell identifizieren und beheben. In unserer GEO-Audit-Checkliste finden Sie einen strukturierten Prozess dafür.
FAQ: Häufig gestellte Fragen
Was ist der Unterschied zwischen Chunking und Tokenisierung?
Tokenisierung zerlegt Text in kleinste sprachliche Einheiten wie Wörter oder Wortteile. Chunking arbeitet auf einer höheren Ebene und fasst zusammengehörige Textpassagen zu thematischen Blöcken zusammen. Beide Prozesse sind Teil der KI-Textverarbeitung, erfüllen aber unterschiedliche Funktionen.
Welche Chunk-Grösse ist optimal für GEO?
LlamaIndex empfiehlt 200 bis 500 Wörter pro Chunk (LlamaIndex, 2025). Für Webseiten-Content übersetzen wir das in H2-Abschnitte von 150 bis 400 Wörtern, da Überschriften und Metadaten zusätzliche Token verbrauchen. Testen Sie verschiedene Abschnittslängen und beobachten Sie, welche Ihrer Seiten am häufigsten in KI-Antworten zitiert werden.
Beeinflusst Chunking mein Google-Ranking?
Chunking beeinflusst primär die KI-gestützte Suche, nicht das klassische Google-Ranking. Allerdings verbessert die für Chunking optimierte Struktur, also klare Überschriften, thematisch geschlossene Abschnitte und prägnante Kernaussagen, auch die klassische SEO-Performance. In unserem GEO-Guide erklären wir den Zusammenhang zwischen beiden Disziplinen.
Muss ich meine bestehenden Inhalte umstrukturieren?
Nicht zwingend. Beginnen Sie mit den Seiten, die das höchste Potenzial für KI-Sichtbarkeit haben, also Seiten mit informationalen Keywords und hohem Suchvolumen. Prüfen Sie die Abschnittsstruktur, ergänzen Sie beschreibende Überschriften und stellen Sie sicher, dass jeder Abschnitt eine klare Kernaussage enthält. Ein Verständnis der ChatGPT-Ranking-Faktoren hilft bei der Priorisierung.
Funktioniert Chunking-Optimierung auch für Voice Search?
Ja. Sprachassistenten wie Alexa, Siri und Google Assistant nutzen ähnliche RAG-Architekturen. Kurze, prägnante Antworten in klar strukturierten Abschnitten sind sowohl für textbasierte KI-Suche als auch für Voice Search relevant. Die Georgia-Tech-Studie zeigt, dass Antworten unter 40 Wörtern 2,7 Mal häufiger extrahiert werden, unabhängig vom Kanal (Georgia Tech, 2024).
---
Was ist Chunking GEO ist eine der grundlegenden Fragen, die jeder verstehen sollte, der KI-Sichtbarkeit ernst nimmt. Die Art, wie Sie Ihren Content strukturieren, bestimmt, wie KI-Systeme ihn verarbeiten, zerlegen und zitieren. Wer seine Inhalte mit klaren H2-Abschnitten, beschreibenden Überschriften und kompakten Kernaussagen aufbaut, gibt Chunking-Algorithmen genau das, was sie brauchen. Bei rankprompt.de unterstützen wir Unternehmen dabei, ihre Content-Struktur systematisch für KI-Suchsysteme zu optimieren.







