Join Waitlist
GAISEO Logo G lossary

Inside the page

Share this
Cosima Vogel

Definition: Das Kontextfenster ist die maximale Anzahl von Token (Texteinheiten), die ein Large Language Model gleichzeitig verarbeiten kann, einschließlich sowohl des Eingabe-Prompts als auch der generierten Ausgabe, typischerweise zwischen 4.000 und 2 Millionen Token je nach Modell.

Kontextfenster repräsentieren eine der kritischsten Einschränkungen—und Chancen—in der AI-SEO-Strategie. Dieser „Arbeitsspeicher“ fester Größe bestimmt, wie viele Informationen ein LLM bei der Antwortgenerierung berücksichtigen kann. Wenn KI-Systeme deinen Content via RAG abrufen, konkurriert er innerhalb dieses Fensters mit anderen Quellen.

Wie Kontextfenster funktionieren

  • Token-basierte Messung: Kontext wird in Token gemessen, nicht in Wörtern. Deutsch hat etwa 1,5 Token pro Wort.
  • Bidirektionale Beschränkung: Das Fenster umfasst Input und Output. Ein 128K-Fenster bedeutet nicht 128K Input.
  • Positionseffekte: Informationen am Anfang und Ende werden stärker gewichtet—das „Lost in the Middle“-Phänomen.

Kontextfenster-Größen nach Modell

Modell Kontextfenster
GPT-4 Turbo 128.000 Token
Claude 3.5 Sonnet 200.000 Token
Gemini 1.5 Pro 2.000.000 Token

Warum Kontextfenster für AI-SEO wichtig sind

  1. Retrieval-Wettbewerb: RAG-Systeme müssen multiple Quellen ins Kontextfenster packen.
  2. Informationsdichte: Content mit mehr Wert pro Token wird eher inkludiert.
  3. Strategische Positionierung: Kernaussagen sollten früh erscheinen und am Ende verstärkt werden.

„Im Wettbewerb um Kontextfenster-Platz muss jeder Token seinen Platz verdienen.“

Verwandte Konzepte

  • RAG – Das Retrieval-System, das Kontextfenster befüllt
  • Semantic Chunking – Wie Content für Inklusion aufgeteilt wird
  • Embeddings – Vektorrepräsentationen für Retrieval

Häufig gestellte Fragen

Was passiert, wenn Content das Kontextfenster überschreitet?

Content wird typischerweise abgeschnitten. Manche Systeme schneiden aus der Mitte, andere vom Ende. RAG-Systeme können zusammenfassen oder nur relevante Teile auswählen.

Bedeutet ein größeres Kontextfenster immer bessere Ergebnisse?

Nicht unbedingt. Performance kann bei sehr langen Kontexten abnehmen. Qualität und Relevanz des Contents zählen mehr als Quantität.

Quellen

Zukunftsausblick

Kontextfenster expandieren weiter dramatisch. Der Fokus verschiebt sich von reiner Größe zu effektiver Nutzung—Fortschritte bei Attention-Mechanismen und sophistiziertere Chunking-Strategien.