Few-Shot vs. Zero-Shot Prompting: Wann du was nutzt
Ein praktischer Leitfaden, um den richtigen Prompting-Ansatz für deine Aufgabe zu wählen — mit kopierbaren Beispielen und einem einfachen Entscheidungsrahmen.
Du fügst einen Prompt in ChatGPT ein. Das Ergebnis ist... okay. Aber du hast gesehen, wie andere mit ein paar „Beispielen“ im Prompt deutlich bessere Resultate bekommen. Solltest du das auch tun? Wie viele Beispiele? Macht das bei deiner konkreten Aufgabe überhaupt einen Unterschied?
Diese Fragen tauchen ständig auf, und die Begriffe helfen kaum weiter. „Zero-Shot“, „Few-Shot“, „One-Shot“ — das klingt eher nach Fotografie als nach praktischer Anleitung. Dieser Leitfaden räumt mit dem Fachjargon auf und gibt dir einen klaren Rahmen, wann du welchen Ansatz wählst, plus komplette Prompts, die du sofort kopieren und ausprobieren kannst.
Was Zero-Shot-Prompting wirklich bedeutet
Zero-Shot-Prompting heißt, der KI eine Aufgabe zu geben, ohne ihr Beispiele zu zeigen. Du beschreibst, was du brauchst, und das Modell findet aus seinem Training heraus, wie es das umsetzt.
Hier ein Zero-Shot-Prompt, um eine Besprechung zusammenzufassen:
Fasse die folgenden Besprechungsnotizen in 3-5 Stichpunkten zusammen, die die wichtigsten getroffenen Entscheidungen abdecken.
Besprechungsnotizen:
{{meeting_notes}}
Das war's. Keine „guten“ Beispielzusammenfassungen, keine Beispiel-Inputs und -Outputs. Du vertraust darauf, dass das Modell weiß, wie eine Zusammenfassung aussieht und was „wichtige Entscheidungen“ bedeutet. Für viele Aufgaben funktioniert das überraschend gut.
Was Few-Shot-Prompting wirklich bedeutet
Beim Few-Shot-Prompting baust du 2-5 Beispiele in deinen Prompt ein, die das gewünschte Muster zeigen. Du sagst der KI im Grunde „so will ich, dass du das machst“, bevor du die eigentliche Aufgabe stellst.
Hier dieselbe Aufgabe mit Beispielen:
Fasse Besprechungsnotizen in 3-5 Stichpunkten zusammen, die die wichtigsten Entscheidungen abdecken.
Beispiel 1:
Input: „Das Team besprach die Q3-Ziele. Sarah schlug vor, das Vertriebsziel um 15 % zu erhöhen. Mark widersprach und hielt 10 % angesichts der aktuellen Pipeline für realistischer. Das Team stimmte ab und einigte sich auf 12 %. Außerdem wurde beschlossen, das Website-Redesign auf Q4 zu verschieben.“
Output:
- Einigung auf 12 % Steigerung des Vertriebsziels für Q3 (Kompromiss zwischen 15 % und 10 %)
- Website-Redesign auf Q4 verschoben
Beispiel 2:
Input: „Budget-Review-Meeting. Aktuelle Ausgaben liegen 8 % über dem Plan. Der CFO empfahl, das Reisebudget um 50 % zu kürzen und Neueinstellungen für 60 Tage zu stoppen. Der CEO genehmigte beide Maßnahmen mit sofortiger Wirkung.“
Output:
- Reisebudget um 50 % gekürzt (sofort wirksam)
- 60-tägiger Einstellungsstopp genehmigt
- Reaktion auf 8 % Budgetüberschreitung
Fasse jetzt das hier zusammen:
{{meeting_notes}}
Sieh dir den Unterschied an. Die Beispiele zeigen dem Modell genau, welches Format du willst (Stichpunkte mit Kontext in Klammern), wie detailliert es sein soll und wie es mit mehreren Entscheidungen umgeht. Das Modell lernt deine Vorlieben im Kontext — kein Fine-Tuning nötig.
Die wichtigsten Unterschiede auf einen Blick
So vergleichen sich die beiden Ansätze in den entscheidenden Faktoren:
Geschwindigkeit: Zero-Shot ist schneller. Weniger Tokens bedeuten kürzere Antwortzeiten.
Kosten: Zero-Shot ist günstiger. Du zahlst pro Token, und Beispiele summieren sich.
Aufwand bei der Einrichtung: Zero-Shot braucht so gut wie keinen. Few-Shot bedeutet, gute Beispiele zu finden oder zu erstellen.
Genauigkeit bei einfachen Aufgaben: Ungefähr gleich. Moderne Modelle bewältigen klare Anfragen so oder so gut.
Genauigkeit bei komplexen oder maßgeschneiderten Aufgaben: Few-Shot gewinnt meistens. Wenn du spezifische Formate oder Fachbegriffe brauchst, machen Beispiele einen messbaren Unterschied.
Der Kompromiss ist klar: Zero-Shot ist einfacher und günstiger, Few-Shot gibt dir mehr Kontrolle über das Ergebnis. Die Frage ist, wann sich diese zusätzliche Kontrolle lohnt.
Wann Zero-Shot am besten funktioniert
Zero-Shot-Prompting glänzt, wenn die Aufgabe etwas ist, das das Modell aus seinem Training bereits „kennt“. Dazu gehören:
Allgemeinwissen: Erklärungen, Definitionen oder Faktenfragen. Das Modell weiß, wie eine gute Erklärung aussieht.
Kreatives Brainstorming: Ideen sammeln, erste Entwürfe schreiben, Optionen erarbeiten. Hier willst du Vielfalt, keine Treue zu einem festen Muster.
Standard-Zusammenfassungen: Artikel, E-Mails oder Dokumente eindampfen, wenn du kein bestimmtes Format brauchst.
Übersetzung: Texte zwischen Sprachen umwandeln, mit denen das Modell trainiert wurde.
Einfache Klassifizierung: Inhalte in gängige Kategorien einsortieren (positiv/negativ, dringend/nicht dringend), wenn die Kategorien selbsterklärend sind.
Eine gute Faustregel: Wenn du in einfacher Sprache beschreiben kannst, was du willst, und ein Mensch es ohne Beispiele verstehen würde, reicht Zero-Shot wahrscheinlich aus.
Flussdiagramm zum Entscheidungsprozess: mit Zero-Shot starten, Ergebnisse bewerten, Beispiele nur bei Bedarf hinzufügen
Wann sich Few-Shot trotz zusätzlicher Tokens lohnt
Few-Shot-Prompting zahlt sich aus, wenn der Output Mustern folgen muss, die das Modell allein aus Anweisungen nicht ableiten kann:
Eigene Formate: Wenn du Outputs in einer bestimmten Struktur brauchst — JSON mit bestimmten Feldern, Tabellen mit exakten Spalten, Stichpunkte in einem bestimmten Stil. Beispiele zeigen das Format besser, als Beschreibungen es erklären können.
Deine eigenen Klassifizierungskategorien: Wenn du Kunden-E-Mails in Kategorien wie „Rechnungsfrage“, „Feature-Wunsch“, „Bug-Report“ und „Allgemeine Anfrage“ sortierst, hilft je ein Beispiel pro Kategorie dem Modell, deine Definitionen zu verstehen.
Markenstimme oder Tonalität treffen: Soll die KI wie die bestehenden Inhalte deines Unternehmens schreiben? Zeig ihr 2-3 Beispiele dieser Stimme. Anweisungen wie „schreibe professionell, aber freundlich“ sind vage; Beispiele sind konkret.
Fachterminologie: Wenn deine Branche Jargon oder Abkürzungen nutzt, die anderswo etwas anderes bedeuten, zeigen Beispiele dem Modell deinen Kontext.
Sonderfälle und Nuancen: Sarkasmus, Ironie oder feine Unterschiede, an denen Zero-Shot scheitert. Studien zeigen, dass Few-Shot-Prompting den Umgang mit Sonderfällen bei Sentiment-Analyse wie Verneinung und Sarkasmus deutlich verbessert.
Eine Studie zur Sentiment-Klassifizierung von Twitter-Posts ergab, dass Few-Shot-Prompting mit nur 20-50 Beispielen an die Leistung von Modellen herankam, die auf 10 000+ Beispielen feinabgestimmt wurden. So stark sind gut gewählte Demonstrationen.
Wenn du anfängst, eine Sammlung von Few-Shot-Prompts für verschiedene Aufgaben aufzubauen, hilft dir ein Tool wie PromptNest dabei, sie mit eingebauten Variablen wie {{meeting_notes}} zu speichern — du füllst die Lücken beim Kopieren, und der fertige Prompt ist sofort einsatzbereit.
Der Workflow: „Erst Zero, bei Bedarf upgraden“
Hier der praktische Ansatz, der dir Zeit und Tokens spart:
Schritt 1: Probier zuerst Zero-Shot. Schreibe einen klaren Prompt, der beschreibt, was du willst. Sei präzise bei der Aufgabe, aber lass Beispiele erstmal weg.
Schritt 2: Bewerte das Ergebnis. Bekommst du, was du brauchst? Wenn ja: fertig. Wenn nicht, erkenn, was nicht stimmt — das Format? Der Ton? Fehlende Details? Die Aufgabe falsch verstanden?
Schritt 3: Füge gezielte Beispiele hinzu. Erstelle 2-3 Beispiele, die genau das demonstrieren, was das Modell falsch gemacht hat. Lag es am Format, zeig das richtige Format. Lag es am Ton, zeig den passenden Ton.
Dieser Workflow funktioniert, weil du nicht rätst, ob du Beispiele brauchst — du reagierst auf konkrete Lücken. Manchmal löst schon ein „Lass uns Schritt für Schritt vorgehen“ im Zero-Shot-Prompt Logikprobleme, ganz ohne Beispiele. Studien bestätigen, dass Zero-Shot-Chain-of-Thought bei Reasoning-Aufgaben oft besser abschneidet als Few-Shot.
Wie viele Beispiele brauchst du wirklich?
Studien deuten konsistent auf einen Sweet Spot von 2-5 Beispielen für die meisten Aufgaben hin. Das zeigen die Daten:
- Die ersten 2-3 Beispiele bringen den größten Genauigkeitssprung
- Nach 4-5 Beispielen flacht der Nutzen stark ab
- Mehr Beispiele können die Leistung sogar verschlechtern, weil sie widersprüchliche Muster einführen
- Qualität schlägt Quantität — drei exzellente Beispiele schlagen zehn mittelmäßige
Auch die Reihenfolge spielt eine Rolle: Studien zeigen, dass die Sequenz deiner Beispiele die Ergebnisse beeinflusst und die optimale Anordnung manchmal den Unterschied zwischen guter und schlechter Performance ausmacht. Wenn dein Few-Shot-Prompt nicht gut läuft, sortier die Beispiele um, bevor du weitere hinzufügst.
Illustration mit Beispielkarten, die einem Prompt hinzugefügt werden, mit abnehmendem Nutzen nach den ersten paar
Für die meisten Anwendungsfälle: Starte mit 2 Beispielen. Wenn die Genauigkeit noch nicht reicht, ergänze ein drittes mit einer anderen Variante. Mehr als 4 brauchst du selten.
Chain-of-Thought: Der Mittelweg fürs Schlussfolgern
Es gibt einen dritten Ansatz, der besonders gut bei Mathematik, Logik und mehrstufigen Problemen funktioniert: Chain-of-Thought-Prompting. Statt Input-Output-Beispiele zu zeigen, bittest du das Modell, „Schritt für Schritt nachzudenken“.
Zero-Shot-Chain-of-Thought sieht so aus:
Ein Laden hat 45 Äpfel. Vormittags werden 12 verkauft, dann kommt eine Lieferung von 30 weiteren an. Nachmittags werden noch 18 verkauft. Wie viele Äpfel sind beim Ladenschluss übrig?
Lass uns das Schritt für Schritt durchgehen.
Dieser eine Satz — „Lass uns das Schritt für Schritt durchgehen“ — bringt das Modell dazu, seinen Gedankengang zu zeigen, statt direkt zur Antwort zu springen. Bei komplexem Schlussfolgern schlägt das oft sowohl Zero-Shot als auch Few-Shot.
Aktuelle Forschung von arXiv zeigt, dass bei starken Modellen wie GPT-4 und Claude Zero-Shot-Chain-of-Thought bei Reasoning-Aufgaben oft besser abschneidet als Few-Shot. Die Beispiele können das Denken des Modells eher einengen als unterstützen.
Nutze Chain-of-Thought, wenn:
Die Aufgabe mehrere logische Schritte erfordert
Du willst, dass das Modell sein Vorgehen erklärt (hilft, Fehler zu erkennen)
Mathematik, Code-Logik oder analytische Probleme im Spiel sind
Du nicht nur die Antwort, sondern auch den Lösungsweg überprüfen willst
Komplette Prompt-Beispiele zum Kopieren
Sehen wir uns die drei Ansätze nebeneinander an realen Aufgaben an. Alle Prompts sind mit GPT-4 und Claude getestet und einsatzbereit.
Aufgabe 1: Tonalität von E-Mails klassifizieren
Zero-Shot-Variante:
Klassifiziere die Tonalität dieser Kunden-E-Mail als: frustriert, zufrieden, neutral oder dringend.
E-Mail:
{{email_text}}
Tonalität:
Few-Shot-Variante (besser bei Sonderfällen):
Klassifiziere die Tonalität von Kunden-E-Mails als: frustriert, zufrieden, neutral oder dringend.
E-Mail: „Ich warte seit 3 Wochen auf meine Bestellung. Das ist lächerlich. Ich will JETZT eine Rückerstattung.“
Tonalität: frustriert
E-Mail: „Wollte nur Danke sagen — das Produkt kam früher an und funktioniert super!“
Tonalität: zufrieden
E-Mail: „Hi, könnt ihr bestätigen, ob meine Bestellung verschickt wurde? Bestell-Nr. 12345.“
Tonalität: neutral
E-Mail: „Unser System ist ausgefallen, und wir brauchen das Ersatzteil HEUTE, sonst verlieren wir den Auftrag.“
Tonalität: dringend
E-Mail: {{email_text}}
Tonalität:
Die Few-Shot-Variante hilft dem Modell, deine konkreten Definitionen zu verstehen. „Dringend“ vs. „frustriert“ kann mehrdeutig sein — Beispiele machen deine Grenzen klar.
Aufgabe 2: Produktbeschreibung umschreiben
Zero-Shot-Variante:
Schreibe diese Produktbeschreibung packender und nutzenorientierter um. Maximal 100 Wörter.
Original: {{product_description}}
Neue Version:
Few-Shot-Variante (besser für konsistente Markenstimme):
Schreibe Produktbeschreibungen packend und nutzenorientiert um. Halte dich an diesen Stil:
Original: „Edelstahl-Trinkflasche. 700 ml Fassungsvermögen. Hält Getränke 24 Stunden kalt.“
Neu: „Bleib den ganzen Tag erfrischt mit unserer schlanken 700-ml-Edelstahlflasche. Dein Morgenkaffee bleibt auf dem Weg zur Arbeit heiß. Dein Nachmittagswasser bleibt im Gym eiskalt. Eine Flasche, unzählige Möglichkeiten.“
Original: „Kabellose Earbuds. 8 Stunden Akku. Geräuschunterdrückung.“
Neu: „Acht Stunden deiner Lieblings-Podcasts, ohne Unterbrechung. Unsere kabellosen Earbuds blenden den Lärm aus, damit du dich auf das Wesentliche konzentrieren kannst — ob Deep Work, Workout-Playlist oder das Hörbuch, das du endlich zu Ende hören willst.“
Original: {{product_description}}
Neu:
Die Few-Shot-Variante vermittelt einen bestimmten Copywriting-Stil — nutzenorientiert, locker, mit konkreten Anwendungsfällen. Zero-Shot liefert dir eine Umschreibung, aber nicht zwingend deine Stimme.
Aufgabe 3: Bug-Report strukturieren
Zero-Shot-Variante:
Überführe diesen Bug-Report in ein strukturiertes Format mit: Zusammenfassung, Schritte zur Reproduktion, Erwartetes Verhalten und Tatsächliches Verhalten.
Bug-Report: {{bug_report}}
Few-Shot-Variante (besser für einheitliche Formatierung):
Überführe Bug-Reports in ein strukturiertes Format.
Input: „Die App stürzt ab, wenn ich ein PDF hochladen will. Ich war im Dashboard, hab auf Upload geklickt, ein 5-MB-PDF ausgewählt, und dann hat sie sich einfach geschlossen. Eigentlich sollte die Datei in meinen Uploads erscheinen, aber stattdessen geht die ganze App kaputt.“
Output:
**Zusammenfassung:** App stürzt beim Hochladen von PDF-Dateien ab
**Schritte zur Reproduktion:**
1. Zum Dashboard navigieren
2. Auf Upload-Button klicken
3. PDF-Datei auswählen (getestet mit 5-MB-Datei)
**Erwartet:** Datei erscheint im Upload-Bereich
**Tatsächlich:** Anwendung stürzt ab/schließt sich unerwartet
---
Input: {{bug_report}}
Output:
Bei technischer Dokumentation zählt Konsistenz. Die Few-Shot-Variante sorgt dafür, dass jeder Bug-Report derselben Struktur und demselben Detailgrad folgt.
Schneller Entscheidungsrahmen
Wenn du vor einer neuen Aufgabe sitzt, geh diese Fragen durch:
1. Ist die Aufgabe klar und unkompliziert? → Starte mit Zero-Shot
2. Brauchst du ein bestimmtes Format, das das Modell vielleicht nicht errät? → Nimm Few-Shot
3. Erfordert die Aufgabe mehrstufiges Schlussfolgern? → Probier zuerst Zero-Shot-Chain-of-Thought
4. Brauchst du eine konsistente Markenstimme oder Fachsprache? → Nimm Few-Shot mit Beispielen in dieser Stimme
5. Hat Zero-Shot dir 80 % von dem geliefert, was du brauchst? → Behalt es. Perfektion ist nicht das Dreifache an Tokens wert.
Es geht nicht darum, die ausgefallenste Technik zu wählen — es geht darum, effizient gute Ergebnisse zu erzielen. Zero-Shot ist der Standard. Komplexität nur dann ergänzen, wenn der einfachere Weg nicht reicht.
In die Praxis bringen
Am besten verinnerlichst du das durch Ausprobieren. Nimm eine Aufgabe, die du regelmäßig erledigst — Berichte zusammenfassen, E-Mails entwerfen, Feedback kategorisieren — und teste beide Ansätze. Achte darauf, wo Zero-Shot an Grenzen stößt. Achte darauf, wo Few-Shot wirklich einen Unterschied macht.
Wenn du Prompts gefunden hast, die funktionieren, leg sie irgendwo ab, wo du sie auch wiederfindest. Wenn du eine Sammlung von Prompts mit Beispielen und Variablen aufbaust, ist PromptNest eine native Mac-App ($19.99 einmalig im Mac App Store, kein Abo, kein Account, läuft lokal), die alles organisiert, durchsuchbar und per Tastenkürzel aus jeder App heraus erreichbar hält. Kein Suchen mehr in verstreuten Notizen nach diesem perfekten Few-Shot-Prompt, den du vor drei Wochen geschrieben hast.
Fang einfach an. Erhöhe die Komplexität nur, wenn nötig. Speichere, was funktioniert. Mehr ist die Strategie nicht.