Tilbage til blog

Few-shot vs. zero-shot prompting: hvornår skal du bruge hvad?

En praktisk guide til at vælge den rette prompting-tilgang til din opgave — med eksempler, du kan kopiere, og en simpel beslutningsramme.

Few-shot vs. zero-shot prompting: hvornår skal du bruge hvad?
Du indsætter en prompt i ChatGPT. Resultatet er ... fint. Men du har set andre få markant bedre svar ved at lægge "eksempler" ind i deres prompts. Skal du gøre det samme? Hvor mange eksempler? Og betyder det overhovedet noget for lige din opgave?
De spørgsmål dukker op igen og igen, og terminologien hjælper ikke. "Zero-shot", "few-shot", "one-shot" — det lyder mere som fototermer end som praktisk vejledning. Den her guide skærer igennem fagsproget og giver dig en klar ramme for, hvilken tilgang du skal vælge, plus færdige prompts, du kan kopiere og selv afprøve.

Hvad zero-shot prompting i virkeligheden er

Zero-shot prompting betyder, at du giver AI'en en opgave uden at vise eksempler på, hvad du vil have. Du beskriver, hvad du har brug for, og modellen regner selv ud, hvordan den skal løse det, ud fra sin træning.
Her er en zero-shot prompt til at opsummere et mødereferat:

Summarize the following meeting notes into 3-5 bullet points covering the key decisions made.

Meeting notes:
{{meeting_notes}}
Det er det. Ingen eksempler på "gode" opsummeringer, ingen prøvedata. Du stoler på, at modellen ved, hvordan en opsummering ser ud, og hvad "vigtige beslutninger" betyder. For mange opgaver fungerer det overraskende godt.

Hvad few-shot prompting i virkeligheden er

Few-shot prompting betyder, at du lægger 2-5 eksempler ind i din prompt, som viser det mønster, du vil have AI'en til at følge. Du siger i praksis: "sådan vil jeg have, du håndterer det her", før du giver den selve opgaven.
Her er den samme opgave med mødereferatet, men med eksempler:

Summarize meeting notes into 3-5 bullet points covering key decisions.

Example 1:
Input: "Team discussed Q3 targets. Sarah proposed increasing the sales goal by 15%. Mark disagreed, suggested 10% was more realistic given current pipeline. Team voted and agreed on 12%. Also decided to postpone the website redesign until Q4."
Output:
- Agreed on 12% sales goal increase for Q3 (compromise between 15% and 10% proposals)
- Postponed website redesign to Q4

Example 2:
Input: "Budget review meeting. Current spending is 8% over forecast. CFO recommended cutting travel budget by 50% and freezing new hires for 60 days. CEO approved both measures effective immediately."
Output:
- Cut travel budget by 50% (effective immediately)
- 60-day hiring freeze approved
- Response to 8% budget overrun

Now summarize this:
{{meeting_notes}}
Læg mærke til forskellen. Eksemplerne viser modellen præcis, hvilket format du vil have (punktopstilling med kontekst i parentes), hvor mange detaljer der skal med, og hvordan flere beslutninger skal håndteres. Modellen lærer dine præferencer i konteksten — uden finjustering.

De vigtigste forskelle på et øjeblik

Sådan står de to tilgange over for hinanden på de faktorer, der betyder mest:
  • Hastighed: Zero-shot er hurtigere. Færre tokens at behandle giver hurtigere svar.
  • Pris: Zero-shot er billigere. Du betaler pr. token, og eksempler tæller med.
  • Opsætning: Zero-shot kræver stort set ingen forberedelse. Few-shot kræver, at du finder eller laver gode eksempler.
  • Præcision på simple opgaver: Nogenlunde ens. Moderne modeller klarer ligetil opgaver fint på begge måder.
  • Præcision på komplekse eller skræddersyede opgaver: Few-shot vinder typisk. Når du har brug for et bestemt format eller fagsprog, gør eksempler en målbar forskel.
Afvejningen er klar: zero-shot er enklere og billigere, men few-shot giver dig mere kontrol over outputtet. Spørgsmålet er, hvornår den ekstra kontrol er besværet værd.

Hvornår zero-shot fungerer bedst

Zero-shot prompting glimrer, når opgaven er noget, modellen allerede "forstår" fra sin træning. Det dækker blandt andet:
Almene videnspørgsmål: Forklaringer, definitioner eller faktaoplysninger. Modellen ved, hvordan en god forklaring ser ud.

Kreativ idéudvikling: Idégenerering, første udkast eller forslag til muligheder. Her vil du gerne have variation, ikke at modellen følger ét bestemt mønster.

Standardopsummering: At skære artikler, mails eller dokumenter ned, når du ikke har brug for et bestemt format.

Oversættelse: Tekst mellem sprog, modellen er trænet i.

Simpel klassificering: At sortere ting i almindelige kategorier (positiv/negativ, hastende/ikke hastende), når kategorierne giver sig selv.
En god tommelfingerregel: Hvis du kan beskrive, hvad du vil have, i almindeligt sprog, og et menneske ville forstå det uden eksempler, så virker zero-shot sandsynligvis.
Flowchart, der viser beslutningsprocessen: start med zero-shot, vurdér resultatet, og tilføj kun eksempler, hvis det er nødvendigt
Flowchart, der viser beslutningsprocessen: start med zero-shot, vurdér resultatet, og tilføj kun eksempler, hvis det er nødvendigt

Hvornår few-shot er de ekstra tokens værd

Few-shot prompting tjener sig hjem, når outputtet skal følge mønstre, modellen ikke kan udlede af instruktionerne alene:
Skræddersyet format: Når du har brug for output i en bestemt struktur — JSON med specifikke felter, tabeller med præcise kolonner, punkter i en bestemt stil. Eksempler viser formatet bedre, end beskrivelser kan forklare det.

Dine egne klassifikationskategorier: Hvis du sorterer kundemails i kategorier som "faktura-spørgsmål", "feature-ønske", "fejlrapport" og "generel henvendelse", hjælper konkrete eksempler modellen med at forstå dine definitioner.

Brand-stemme eller tone: Skal AI'en skrive som dit firmas eksisterende indhold? Vis den 2-3 eksempler på stemmen. Instruktioner som "skriv professionelt, men venligt" er vage; eksempler er konkrete.

Domænespecifikt fagsprog: Hvis din branche bruger jargon eller forkortelser, der betyder noget andet andre steder, lærer eksemplerne modellen din kontekst.

Grænsetilfælde og nuancer: Sarkasme, ironi eller subtile forskelle, som zero-shot snubler over. Forskning viser, at few-shot prompting markant forbedrer håndteringen af grænsetilfælde i sentimentanalyse som negation og sarkasme.
Et studie viste, at few-shot prompting med blot 20-50 eksempler nærmede sig præstationen for modeller, der var finjusteret på over 10.000 eksempler, når det gjaldt sentimentklassificering på Twitter. Det er styrken ved gennemtænkte demonstrationer.
Hvis du finder ud af, at du opbygger et bibliotek af few-shot prompts til forskellige opgaver, hjælper et værktøj som PromptNest dig med at gemme dem med variabler som {{meeting_notes}} indbygget — udfyld felterne, når du kopierer, og hele prompten er klar til at indsætte.

Arbejdsgangen "start med zero, opgrader hvis nødvendigt"

Her er den praktiske fremgangsmåde, der sparer både tid og tokens:
Trin 1: Prøv zero-shot først. Skriv en klar prompt, der beskriver, hvad du vil have. Vær specifik om opgaven, men lad være med at tilføje eksempler endnu.

Trin 2: Vurdér resultatet. Får du det, du har brug for? Hvis ja, så er du i mål. Hvis nej, så find ud af hvad der gik galt — er det formatet? Tonen? Manglende detaljer? Har modellen helt misforstået opgaven?

Trin 3: Tilføj målrettede eksempler. Lav 2-3 eksempler, der præcist demonstrerer det, modellen ramte forkert. Var formatet skævt, så vis det rigtige format. Var tonen forkert, så vis den rigtige tone.
Den arbejdsgang virker, fordi du ikke gætter på, om du har brug for eksempler — du reagerer på faktiske mangler. Nogle gange løser et simpelt "Lad os tænke skridt for skridt" tilføjet til en zero-shot prompt et ræsonneringsproblem helt uden eksempler. Forskning bekræfter, at zero-shot chain-of-thought ofte slår few-shot på ræsonneringsopgaver.

Hvor mange eksempler har du egentlig brug for?

Forskningen peger konsekvent på et sweet spot på 2-5 eksempler for de fleste opgaver. Det viser dataene:
- De første 2-3 eksempler giver den største præcisionsgevinst - Effekten falder kraftigt efter 4-5 eksempler - Flere eksempler kan faktisk skade præstationen ved at introducere modstridende mønstre - Kvaliteten af eksemplerne betyder mere end mængden — tre fremragende eksempler slår ti middelmådige
Der er også en vigtig pointe om rækkefølgen: studier viser, at den orden, du præsenterer dine eksempler i, påvirker resultatet, og at den optimale rækkefølge nogle gange udgør forskellen mellem godt og dårligt resultat. Hvis din few-shot prompt halter, så prøv at omarrangere eksemplerne, før du tilføjer flere.
Illustration, der viser eksempelkort blive tilføjet til en prompt, med faldende effekt efter de første få
Illustration, der viser eksempelkort blive tilføjet til en prompt, med faldende effekt efter de første få
I de fleste tilfælde skal du starte med 2 eksempler. Hvis præcisionen ikke er, hvor du har brug for den, så tilføj et tredje, der dækker en anden variation. Sjældent får du brug for mere end 4.

Chain-of-thought: mellemvejen til ræsonnement

Der findes en tredje mulighed, som fungerer særligt godt til matematik, logik og opgaver i flere trin: chain-of-thought prompting. I stedet for at vise input-output-eksempler beder du modellen om at "tænke skridt for skridt".
Zero-shot chain-of-thought ser sådan her ud:

A store has 45 apples. They sell 12 in the morning and receive a shipment of 30 more. Then they sell 18 in the afternoon. How many apples do they have at closing?

Let's work through this step by step.
Den simple sætning — "Let's work through this step by step" — får modellen til at vise sit ræsonnement i stedet for at hoppe direkte til svaret. På komplekse ræsonneringsopgaver slår det ofte både zero-shot og few-shot.
Nyere forskning fra arXiv viste, at zero-shot chain-of-thought ofte slår few-shot prompting på ræsonneringsopgaver, når det gælder stærke modeller som GPT-4 og Claude. Eksemplerne kan i virkeligheden begrænse modellens tankegang frem for at hjælpe den.
Brug chain-of-thought, når:
  • Opgaven kræver flere logiske trin
  • Du har brug for, at modellen forklarer sit ræsonnement (godt til at fange fejl)
  • Det handler om matematik, kodelogik eller analytiske problemer
  • Du vil verificere modellens fremgangsmåde, ikke kun svaret

Færdige prompt-eksempler, du kan kopiere

Lad os se de tre tilgange side om side på rigtige opgaver. Alle prompts er testet med GPT-4 og Claude og klar til brug.

Opgave 1: Tone-klassificering af mails

Zero-shot version:

Classify the tone of this customer email as: frustrated, satisfied, neutral, or urgent.

Email:
{{email_text}}

Tone:
Few-shot version (bedre til grænsetilfælde):

Classify customer email tone as: frustrated, satisfied, neutral, or urgent.

Email: "I've been waiting 3 weeks for my order. This is ridiculous. I want a refund NOW."
Tone: frustrated

Email: "Just wanted to say thanks — the product arrived early and works great!"
Tone: satisfied

Email: "Hi, can you confirm my order shipped? Order #12345."
Tone: neutral

Email: "Our system is down and we need the replacement part TODAY or we lose the contract."
Tone: urgent

Email: {{email_text}}
Tone:
Few-shot-versionen hjælper modellen med at forstå dine specifikke definitioner. "Hastende" og "frustreret" kan let flyde sammen — eksempler trækker en tydelig grænse.

Opgave 2: Omskrivning af produktbeskrivelse

Zero-shot version:

Rewrite this product description to be more engaging and benefit-focused. Keep it under 100 words.

Original: {{product_description}}

Rewritten version:
Few-shot version (bedre til ensartet brand-stemme):

Rewrite product descriptions to be engaging and benefit-focused. Match this style:

Original: "Stainless steel water bottle. 24oz capacity. Keeps drinks cold for 24 hours."
Rewritten: "Stay hydrated all day with our sleek 24oz steel bottle. Your morning coffee stays hot through your commute. Your afternoon water stays ice-cold at the gym. One bottle, endless possibilities."

Original: "Wireless earbuds. 8-hour battery. Noise cancelling."
Rewritten: "Eight hours of your favorite podcasts, uninterrupted. Our wireless earbuds block out the noise so you can focus on what matters — whether that's deep work, your workout playlist, or finally finishing that audiobook."

Original: {{product_description}}
Rewritten:
Few-shot-versionen lærer modellen en bestemt skrivestil — fordel-fokuseret, samtalende, med konkrete brugssituationer. Zero-shot ville give dig en omskrivning, men ikke nødvendigvis i din stemme.

Opgave 3: Strukturering af fejlrapporter

Zero-shot version:

Convert this bug report into a structured format with: Summary, Steps to Reproduce, Expected Behavior, and Actual Behavior.

Bug report: {{bug_report}}
Few-shot version (bedre til ensartet formatering):

Convert bug reports into structured format.

Input: "The app crashes when I try to upload a PDF. I was on the dashboard, clicked upload, selected a 5MB PDF, and it just closed. Should show the file in my uploads but instead the whole app dies."

Output:
**Summary:** App crashes when uploading PDF files
**Steps to Reproduce:**
1. Navigate to dashboard
2. Click upload button
3. Select a PDF file (tested with 5MB file)
**Expected:** File appears in uploads section
**Actual:** Application crashes/closes unexpectedly

---

Input: {{bug_report}}

Output:
Til teknisk dokumentation er konsistens afgørende. Few-shot-versionen sikrer, at hver fejlrapport følger samme struktur og samme detaljeringsgrad.

Hurtig beslutningsramme

Når du står med en ny opgave, så løb disse spørgsmål igennem:
1. Er opgaven ligetil og veldefineret? → Start med zero-shot 2. Har du brug for et bestemt format, modellen ikke kan gætte? → Brug few-shot 3. Kræver opgaven flere ræsonneringstrin? → Prøv zero-shot chain-of-thought først 4. Skal du have en bestemt brand-stemme eller fagterminologi? → Brug few-shot med eksempler i den stemme 5. Gav zero-shot dig 80 % af det, du skal bruge? → Behold den. Perfektion er ikke 3 gange flere tokens værd.
Målet er ikke at bruge den smarteste teknik — det er at få gode resultater effektivt. Zero-shot er udgangspunktet. Tilføj kompleksitet, når enklere tilgange ikke er nok.

Sådan får du det ind under huden

Den bedste måde at internalisere det her på er at eksperimentere. Tag en opgave, du laver jævnligt — opsummering af rapporter, mailudkast, kategorisering af feedback — og prøv begge tilgange. Læg mærke til, hvor zero-shot kommer til kort. Læg mærke til, hvor few-shot virkelig flytter noget.
Når du finder prompts, der virker, så gem dem et sted, hvor du faktisk kan finde dem igen. Hvis du er ved at samle en samling af prompts med eksempler og variabler, er PromptNest en native Mac-app ($19.99 som engangskøb i Mac App Store, ingen abonnement, ingen konto, kører lokalt), der holder dem organiseret, søgbare og tilgængelige med en tastaturgenvej fra enhver app. Slut med at lede efter den perfekte few-shot prompt, du skrev for tre uger siden, i spredte noter.
Start enkelt. Tilføj kompleksitet, når der er brug for det. Gem det, der virker. Det er hele strategien.