Es gibt diese seltsamen Momente, in denen man vor einer leeren Eingabezeile sitzt – nicht vor einer Person, sondern vor einem Sprachmodell – und spürt, dass schon ein einziger Satz über Erfolg oder Missverständnis entscheidet. Ein falsches Wort, und die Maschine antwortet, als hätte sie nur zur Hälfte zugehört. Ein präziser Satz, und plötzlich entfaltet sich ein Gedankenstrom, der klüger wirkt, als man es für möglich gehalten hätte.
Viele Menschen tippen ihre Prompts, als würden sie einem Kind sagen: „Mach mal was Schönes.“ Das Ergebnis ist oft entsprechend. Ein paar kleine Grundlagen helfen schon, um diese Ungenauigkeit zur Ausnahme zu machen.

“Selbstportrait eines ChatGPT Nutzenden”
(oder: wie ich nächtelang vor ChatGPT sitze, romantisiert)
Prompting, das klingt nach Technik. Aber eigentlich ist es ein Gesprächshandwerk. Wer gut fragt, bekommt gute Antworten. Wer schlecht fragt, erntet Beliebigkeit.
Ich möchte heute fünf Techniken vorstellen, von denen ich glaube, dass sie helfen können beim einordnen dessen, wie man mit dem kleinen Eingabefenster umgehen kann. Das sind keine crazy geheimen Hacks, die folgen sicher in späteren Posts, sondern Grundlagen. Grundlagen, die du vielleicht schon nutzt aber noch nie hinterfragt hast. Ob bekannt oder unbekannt: Es sind Techniken, die du auf jeden Fall anwenden können solltest.
Zero-Shot: Das Vertrauen ins Offene
Die erste Begegnung ist meist eine direkte. Das sogenannte Zero-Shot Prompting: ein ungeschütztes Gespräch, ohne Beispiele, ohne Netz. „Ist dieser Satz positiv oder negativ?“ – „Ich denke, der Urlaub war okay.“ Die Maschine antwortet nüchtern: neutral. Man versteht sich irgendwie, gerade so.
Warum funktioniert das überhaupt? Weil große Sprachmodelle in ihren Milliarden von Trainingsbeispielen gelernt haben, typische Aufgaben zu erkennen – etwa Stimmungsanalysen oder einfache Übersetzungen. Ohne Beispiele rufen sie gewissermaßen ihren statistischen Erfahrungsschatz ab: Wie klang das in ähnlichen Sätzen? Zero-Shot ist ein Sprung ins Wasser, getragen wird man von Wahrscheinlichkeiten.
Rollenwechsel: Die Bühne im Kopf der Maschine
Doch wenn man sich an den ersten Sprung ins Wasser gewöhnt hat, merkt man schnell: Das Becken ist tiefer, als gedacht. Denn die Maschine schwimmt nicht nur, sie spielt auch Theater. Sagt man ‚Du bist ein Marketingdirektor…‘, schlüpft sie bereitwillig in die Rolle. Plötzlich klingt die Antwort nicht mehr nach einer Datenbank, sondern nach Konferenzraum und PowerPoint. Das nennt sich Role-Based Prompting (oder genauer Role-/Persona-Prompting) . Eine Aufforderung zum Kostümwechsel, und die Maschine spielt bereitwillig mit. Sie wird Professor, Arzt, Shakespeare … was auch immer man ihr als Rolle zuweist.
Technisch liegt das daran, dass die Modelle Kontexte gewichten. Ein „Du bist…“-Prompt wirkt wie eine Vorbemerkung, die den gesamten weiteren Textrahmen verschiebt.
Natürlich bleibt die Frage: Täuscht uns das alles? Wenn eine Maschine plötzlich so klingt wie ein alter Freund oder eine erfahrene Managerin … was hören wir da eigentlich? Intelligenz? Oder nur eine gute Simulation? Vielleicht ist Prompting deshalb auch ein Spiel mit dem eigenen Glauben an Sprache.
System Prompt: Die unsichtbare Regieanweisung
Noch bevor wir etwas eintippen, hat das Modell bereits einen inneren Rahmen. In den meisten Chat-Interfaces gibt es eine Art unsichtbares Drehbuch: eine Systemnachricht, die vorgibt, wie das Modell grundsätzlich auftreten soll. „Du bist ein hilfreicher Assistent…“ steht da oft. Alles, was wir später fragen, spielt sich innerhalb dieser Vorgabe ab. Das System Prompt ist also die Regieanweisung, die nicht für uns, sondern für die Maschine geschrieben ist; und die trotzdem unsere Antworten prägt. Wer versteht, dass immer schon ein unsichtbarer Regisseur mit im Raum sitzt, liest Antworten anders: nicht als nackte Wahrheit, sondern als Szene innerhalb einer Inszenierung. (Das Systemprompt lässt sich beeinflussen, aber dazu ein andermal mehr.)
Die Kunst der Anweisung
Viele Menschen tippen ihre Prompts, als würden sie einem Kind sagen: „Mach mal was Schönes.“ Das Ergebnis ist entsprechend.
Auch Rollen haben Grenzen. Manchmal reicht das Kostüm allein nicht. Besser ist es, der Maschine so zu schreiben wie einem guten Handwerker: präzise Maße, klares Material, genauer Zweck.
AUFGABE, FORMAT, KONTEXT, so einfach ist das eigentlich. Ein Beispiel: „Fasse die fünf wichtigsten Trends im E-Commerce 2025 in fünf Bullet Points zusammen, je zwei Sätze, gedacht für einen Shop-Betreiber in Deutschland.“
Manchmal braucht es eben klare Instruktionen, fast pedantisch formuliert. Instruction Prompting / Direct (Basic) Instructioning heißt das dann. Es lohnt sich ggf. im Prompting hier einzusteigen und das zu verinnerlichen.
Few-Shot: Die Methode der Beispiele
Und doch bleibt da diese Unsicherheit: Wie sehr versteht sie wirklich, was wir meinen? In solchen Momenten hilft es, Brotkrumen auszulegen. Kleine Spuren, an denen das Modell sich orientiert. ‚Jargon: … Übersetzt: …‘ – drei, vier solcher Paare, und die Maschine folgt der Spur wie ein Hund dem Geruch.
Schau dir das an:
Jargon: „Wir müssen unsere Synergien optimieren.“
Übersetzt: „Wir sollten besser zusammenarbeiten.“
Jargon: „Das Projekt braucht mehr Bandbreite.“
Übersetzt: „Wir brauchen mehr Zeit und Ressourcen.“
Ist das Muster klar?
Dem LLM vermutlich auch. Mit dieser Vorlage ahnt die Maschine, was gemeint ist.
Noch mächtiger wird es, wenn man mehrere Brotkrumen streut, drei oder vier kleine Demonstrationen. Beim Beispiel würde das System begreifen, dass es nicht um Übersetzen geht, sondern um offenbaren. Um das Wegziehen des Nebels, der Sprache oft anhaftet.
Ein erstes Fazit
Diese fünf Methoden sind keine Tricks, aber dafür Fundament für den täglichen Einsatz. Beispielsweise hoffe ich, dass Aufgabe+Format+Kontext der Standard für deine nächsten abfragen wird, wenn du mit Chatmodellen arbeitest. Man lernt, präziser zu sprechen, eindeutiger zu denken. Vielleicht ist das der eigentliche Gewinn dieser merkwürdigen Zwiesprache mit Maschinen: dass sie uns zwingt, unser eigenes Sprechen (bzw. tippen) zu schärfen.
In einer baldigen nächsten Ausgabe hoffe ich einige “next level” Techniken mit dir teilen zu dürfen. Schick mir gern’ jederzeit Fragen, Feedback und Beobachtungen - ich freue mich auf Austausch.
Vielleicht werden wir irgendwann zurückschauen und sagen: Prompting war wie die ersten E-Mails: unbeholfen, provisorisch, und doch ein Tor in eine neue Welt. Noch üben wir, Sätze zu tippen. Später, wenn die Maschinen uns längst beim Wort nehmen, vielleicht auch viel mehr Kontext Zugriff haben als wir, wird diese Epoche wirken wie ein Prolog.