Du kennst das: Du gibst ChatGPT oder Claude eine Anweisung und das Ergebnis ist… okay. Manchmal ganz gut. Manchmal völlig daneben. Du versuchst es noch einmal, formulierst um, fügst mehr Kontext hinzu. Es wird besser. Dann wieder schlechter.
Kontext. Ein eher abstraktes Thema, das uns zwar im Alltag begleitet .. aber nicht unbedingt in einer Art, wie wir es für die Arbeit mit unseren fleißigen Chat-Fenstern brauchen.
Manchmal beobachte ich, wie jemand kaum Kontext hinzufügt und sich über eine irrelevante, generische Antwort wundert. Andererseits ist auch nicht untypisch, dass gigantische Textdokumente mit wahnsinnig viel Inhalt mit zum Prompt gestopft werden und dann wichtige Details vom KI-Chat ignoriert bleiben.
Es gibt einen besseren Weg. Und er ist überraschend simpel. Ich erzähle einmal ein wenig technischen Kontext dazu (;D), aber komme 3-4 Absätze später zum praktischen.
Was ist das eigentliche Problem? Mehr Kontext ≠ bessere Antworten
Hier wird's kontraintuitiv: Moderne KI-Modelle können inzwischen riesige Kontextfenster verarbeiten. Claude schafft 200.000 Token, GPT-4 und 5 schaffen auch viele hunderttausende.. Gemini haut meistens noch einen obendrauf. Aber mehr Input bedeutet nicht automatisch besseren Output.
Lass mich das einmal einordnen für dich .. Token .. 200.000 Token sind etwa 800.000 Zeichen. Mal angenommen wir füllen damit eine klassische A4 Seite, Schriftgröße 12, normales Fließtext-Layout. Da passen etwa ± 1.800 Zeichen auf eine Seite. Also sind aktuelle gängige Kontextgrenzen durchaus mal 450 A4 Seiten. Also könnten wir in einer Anfrage locker ein Buch als Prompt reinwerfen und das Model wäre damit fein.
Aber irrelevante Informationen im Kontext verschlechtern die Ergebnisse aktiv. Das Modell muss nicht nur die richtige Nadel im Heuhaufen finden – es wird von "Distraktoren" abgelenkt. Information, die thematisch verwandt ist, aber die eigentliche Frage nicht beantwortet.
Eigentlich ja auch logisch, wenn ich dir 450 Seiten Kontext gebe und eine spezifische Frage stelle, wird’s für dich auch nicht unbedingt einfach diese genau so zu beantworten, wie ich mir das bei meiner Anfrage vorstelle.
Ein weniger extremes Beispiel: Du fragst Claude, ob deine Headline gut ist. Aber im Kontext steckt auch deine komplette Markenhistorie, dein Wettbewerbsvergleich, deine Produktspezifikationen. Das Modell muss jetzt Filtern (ohne Anweisung, wie es das genau tun soll) und Denken. Das kostet Qualität.
Die Lösung: Granulare Context Library mit Index-System
Das Problem ist natürlich vielseitig und vor allem für die meisten aktiven Nutzer:innen relevant. Also gibt’s eine Lösung. Die klingt erst einmal ein wenig technisch, am Ende wird’s aber verhältnismäßig simpel. Versprochen.
Viele kleine, fokussierte Text-Dateien. Statt "alles auf einmal laden": Ein einfaches System, das KI nur den relevanten Kontext liefert.
Das Prinzip ist simpel:
Fokussierte Kontext-Dateien: Kleine Text(Markdown)-Dokumente, jedes für ein spezifisches Thema. Nicht "brand_guidelines.md" mit 50 Seiten, sondern separate Dateien: headline_voice.md, audience_b2b_profile.md, competitor_positioning.md.
Index-Dateien: Dokumente, die festlegen, welcher Kontext für welche Aufgabe geladen wird. Wie ein Inhaltsverzeichnis, das sagt: "Für E-Mail-Betreffzeilen, lade diese drei Dateien. Für Blog-Reviews, lade jene vier."
Iterative Updates: Nach wichtigen Sessions fragen: "Was haben wir heute gelernt, das wir dokumentieren sollten?"
Das Ergebnis: Wir können jetzt "faule Prompts" geben. Kurze, simple Anweisungen wie "Review diesen Blogpost" und bekommen trotzdem präzises, kalibriertes Feedback. Weil der relevante Kontext automatisch geladen wird.
Das funktioniert extrem gut mit Claude Co-Work und Claude als Desktop app.
Warum das für dich relevant ist
Die meisten Leute optimieren Prompts. Stundenlang. Und ja, gute Prompts helfen. Aber sie kompensieren schlechten Kontext nicht.
Wichtig ist inzwischen für die professionelle Nutzung die Kontext-Architektur: Wie du dein Wissen organisierst, indexierst und verteilst. Das ist einer der größten Unterschiede zwischen "KI ist manchmal nützlich" und "KI ist ein zuverlässiger Arbeitspartner".
Einmal aufgebaut, kompoundiert das System:
Bessere Schreibreviews, weil dein Styleguide immer geladen ist
Schnellere Task-Erledigung, weil relevante Frameworks parat sind
Zuverlässiges "KI-Gedächtnis" über deine gesamte Wissensbasis
Viel weniger Nacharbeit
Du musst nicht programmieren können. Markdown-Dateien in Obsidian oder einem beliebigen anderen Texteditor reichen völlig.
So setzt du das um anhand eines Beispiels
Was du brauchst
Einen Markdown-Editor (also Texteditor) (Obsidian, einfach VS Code, oder oder)
Einen Datei-Ordner für deine Context Library
30 Minuten für den Start, danach 15 Minuten pro Woche oder so
Schritt 1: Identifiziere deine Top Use Cases
Frag dich: Wofür nutze ich KI am häufigsten? Wofür wäre bessere KI-Qualität am wertvollsten?
Beispiele:
Marketing Lead: Headlines schreiben, E-Mail-Kampagnen, Social Posts, Wettbewerbsanalyse
Founder: Investor-Kommunikation, Produktstrategie, Team-Updates
Sales Leader: Outreach-Mails, Einwandbehandlung, Proposal-Reviews
Liste 3-5 Use Cases. Das sind deine Startpunkte.
Schritt 2: Extrahiere dein implizites Wissen
Für jeden Use Case: Was weißt du bereits darüber, was gut funktioniert? Vieles davon ist implizit, du machst es automatisch, hast es aber nie aufgeschrieben.
Beispiel für "E-Mail-Betreffzeilen":
Betreffzeilen mit Zahlen performen besser
Personalisierung im Betreff erhöht Öffnungsraten
Unter 50 Zeichen bleiben
Keine Clickbait-Versprechen, die der Inhalt nicht hält
Schreib das in eine Markdown-Datei: email-subject-lines-framework.md
Schritt 3: Strukturiere deine Dateien richtig
Jede Datei bekommt einen sogenannten YAML-Header (das ist der Block am Anfang mit den Metadaten). Einfach kopieren und in jeder Datei einfügen und dann anpassen:
---
title: E-Mail Betreffzeilen Framework
domain: marketing
use_case: email_subject_lines
audience: b2b
last_updated: 2025-01-15
related_files:
- audience-b2b-profile.md
- brand-voice.md
---
Warum? Die KI kann diese Metadaten lesen und versteht sofort: Worum geht's? Wie aktuell ist das? Was hängt zusammen?
Schritt 4: Erstelle deine Index-Datei
Die Index-Datei ist dein Inhaltsverzeichnis. Sie sagt der KI, welche Dateien für welche Aufgabe relevant sind. Ein Beispiel für den Start:
# Context Router – Marketing
## Für E-Mail-Betreffzeilen:
Lade: email-subject-lines-framework.md, audience-b2b-profile.md, past-email-performance.md
## Für Blog-Artikel:
Lade: brand-voice.md, audience-profile.md, content-themes.md
## Für Social Media:
Lade: social-voice.md, platform-guidelines.md
Das Inhaltsverzeichnis enthält nicht die Informationen selbst, sondern verweist auf die richtigen Dateien.
Schritt 5: Nutze das System in der Praxis
Starte simpel mit manuellem in Claude Co-Work:
"Lade email-subject-lines-framework.md und audience-b2b-profile.md. Dann gib mir Feedback zu diesen drei Betreffzeilen-Optionen."
Du kannst Claude auch einfach fragen, ob er ein Script für dich schreibt, dass automatisch die richtigen Dateien lädt. Aber wie gesagt, mit Claude Co-Work gehts am einfachsten. Einfach die Context Bibliothek als Ordner reinziehen, und weiter arbeiten.
Schritt 6: Die entscheidende Angewohnheit
Nach wichtigen Sessions fragst du: "Was haben wir heute gelernt, das wir dokumentieren sollten?"
Das ist der Hebel, der alles zusammenhält. Die KI reflektiert über die Session und schlägt vor, was in deine Library aufgenommen werden sollte. Über Zeit wird dein System immer besser und es lernt deine impliziten Frameworks, deine Präferenzen, deine Entscheidungsmuster.
Fazit: Wenn ich heute starten würde
Ich würde mit einem Use Case anfangen. Dem wichtigsten. Für mich wäre das wahrscheinlich Content-Review. Headlines, Einleitungen, Struktur.
Drei Dateien: brand-voice.md, audience-profile.md, content-frameworks.md. Eine Index-Datei, die sagt: "Für Content-Review, lade diese drei."
Dann zwei Wochen nutzen. Jeden Tag fragen: "Was haben wir gelernt?" Nach zwei Wochen habe ich ein System, das kompoundiert. Nach zwei Monaten habe ich einen KI-Partner, der meine Arbeit wirklich versteht.
Hast du schon eine Context Library? Oder einen anderen Ansatz, der für dich funktioniert? Ich bin neugierig, schreib mir gern deine Tipps oder Fragen.
Liebe Grüße
Georg
