Few-shot vs. zero-shot prompting: när du ska använda vilken
En praktisk guide till att välja rätt promptstrategi för din uppgift, med exempel att kopiera in och ett enkelt beslutsramverk.
Du klistrar in en prompt i ChatGPT. Resultatet är... okej. Men du har sett andra få betydligt bättre svar genom att lägga till "exempel" i sina prompter. Borde du göra detsamma? Hur många exempel behövs? Och spelar det egentligen någon roll för just din uppgift?
De här frågorna dyker upp hela tiden, och terminologin gör det inte enklare. "Zero-shot", "few-shot", "one-shot" — det låter mer som fototermer än praktisk vägledning. Den här guiden skär igenom jargongen och ger dig ett tydligt ramverk för att välja metod, plus färdiga prompter som du kan kopiera och testa själv.
Vad zero-shot prompting faktiskt innebär
Zero-shot prompting betyder att du ger AI:n en uppgift utan att visa några exempel på vad du vill ha. Du beskriver vad du behöver, och modellen räknar ut hur den ska lösa det utifrån sin träning.
Här är en zero-shot-prompt för att sammanfatta ett möte:
Sammanfatta följande mötesanteckningar i 3–5 punkter som täcker de viktigaste besluten som fattades.
Mötesanteckningar:
{{meeting_notes}}
Det är allt. Inga exempel på "bra" sammanfattningar, ingen mall med in- och utdata. Du litar på att modellen förstår hur en sammanfattning ska se ut och vad "viktigaste beslut" betyder. För många uppgifter fungerar det förvånansvärt bra.
Vad few-shot prompting faktiskt innebär
Few-shot prompting betyder att du inkluderar 2–5 exempel i din prompt som visar mönstret du vill att AI:n ska följa. Du säger i princip "så här vill jag att du hanterar det här" innan du ger den den faktiska uppgiften.
Här är samma sammanfattningsuppgift, men med exempel:
Sammanfatta mötesanteckningar i 3–5 punkter som täcker de viktigaste besluten.
Exempel 1:
Indata: "Teamet diskuterade Q3-målen. Sarah föreslog att höja säljmålet med 15 %. Mark höll inte med och menade att 10 % var mer realistiskt med tanke på pipelinen. Teamet röstade och enades om 12 %. Beslutade också att skjuta upp webbplatsens omdesign till Q4."
Utdata:
- Enades om 12 % höjning av säljmålet för Q3 (kompromiss mellan förslagen 15 % och 10 %)
- Sköt upp webbplatsens omdesign till Q4
Exempel 2:
Indata: "Budgetgenomgång. Nuvarande spendering ligger 8 % över prognos. CFO rekommenderade att skära resebudgeten med 50 % och frysa nyrekryteringar i 60 dagar. VD godkände båda åtgärderna med omedelbar verkan."
Utdata:
- Resebudget kapad med 50 % (gäller omedelbart)
- 60-dagars rekryteringsstopp godkänt
- Svar på 8 % budgetöverdrag
Sammanfatta nu det här:
{{meeting_notes}}
Lägg märke till skillnaden. Exemplen visar modellen exakt vilket format du vill ha (punktlista med kontext inom parentes), vilken detaljnivå som behövs och hur den ska hantera flera beslut. Modellen lär sig dina preferenser i kontext — ingen finjustering krävs.
De viktigaste skillnaderna i korthet
Så här står sig de två metoderna mot varandra på de faktorer som spelar mest roll:
Hastighet: Zero-shot är snabbare. Färre tokens att processa innebär snabbare svar.
Kostnad: Zero-shot är billigare. Du betalar per token, och exemplen läggs ihop.
Förberedelser: Zero-shot kräver nästan inga. Few-shot kräver att du hittar eller skapar bra exempel.
Träffsäkerhet på enkla uppgifter: Ungefär densamma. Moderna modeller hanterar enkla förfrågningar väl oavsett.
Träffsäkerhet på komplexa eller anpassade uppgifter: Few-shot vinner oftast. När du behöver specifik formatering eller branschterminologi gör exemplen en mätbar skillnad.
Avvägningen är tydlig: zero-shot är enklare och billigare, men few-shot ger dig mer kontroll över resultatet. Frågan är när den extra kontrollen är värd kostnaden.
När zero-shot fungerar bäst
Zero-shot prompting briljerar när uppgiften är något modellen redan "förstår" från sin träning. Det inkluderar:
Allmänna kunskapsfrågor: Att be om förklaringar, definitioner eller faktauppgifter. Modellen vet hur en bra förklaring ser ut.
Kreativ idégenerering: Att ta fram idéer, skriva första utkast eller lista alternativ. Här vill du ha variation, inte trogen följsamhet till ett specifikt mönster.
Standardsammanfattningar: Att korta ned artiklar, mejl eller dokument när du inte behöver ett specifikt format.
Översättning: Att konvertera text mellan språk som modellen är tränad på.
Enkel klassificering: Att sortera saker i vanliga kategorier (positiv/negativ, brådskande/inte brådskande) när kategorierna talar för sig själva.
En bra tumregel: om du kan beskriva vad du vill ha med vanliga ord och en människa skulle förstå utan exempel, fungerar zero-shot förmodligen.
Flödesschema som visar beslutsprocessen: börja med zero-shot, utvärdera resultatet, lägg bara till exempel om det behövs
När few-shot är värd de extra tokens
Few-shot prompting förtjänar sin plats när utdatan måste följa mönster som modellen inte kan gissa sig till från instruktionerna ensamma:
Anpassad formatering: När du behöver utdata i en specifik struktur — JSON med vissa fält, tabeller med exakta kolumner, punktlistor med en viss stil. Exempel visar formatet bättre än beskrivningar förklarar det.
Dina egna kategorier: Om du sorterar kundmejl i kategorier som "fakturafråga", "funktionsönskemål", "buggrapport" och "allmän förfrågan", hjälper exempel på var och en modellen att förstå dina definitioner.
Varumärkesröst eller tonläge: Vill du att AI:n ska skriva som ert befintliga innehåll? Visa två eller tre exempel på den rösten. Instruktioner som "skriv professionellt men vänligt" är luddiga; exempel är konkreta.
Branschspecifik terminologi: Om din bransch använder jargong eller förkortningar som betyder något annat på andra håll, lär exemplen modellen din kontext.
Gränsfall och nyanser: Sarkasm, ironi eller subtila distinktioner som zero-shot lätt missar. Forskning visar att few-shot prompting märkbart förbättrar hanteringen av gränsfall i sentimentanalys som negationer och sarkasm.
En studie visade att few-shot prompting med bara 20–50 exempel för Twitter-sentimentklassificering närmade sig prestandan hos modeller finjusterade på över 10 000 exempel. Det är kraften i välvalda demonstrationer.
Om du märker att du bygger upp ett bibliotek med few-shot-prompter för olika uppgifter, hjälper ett verktyg som PromptNest dig att spara dem med inbyggda variabler som {{meeting_notes}} — fyll i luckorna när du kopierar, så är hela prompten redo att klistra in.
Arbetsflödet "börja med zero, uppgradera vid behov"
Här är det praktiska tillvägagångssättet som sparar både tid och tokens:
Steg 1: Testa zero-shot först. Skriv en tydlig prompt som beskriver vad du vill ha. Var specifik kring uppgiften, men ta inte med exempel än.
Steg 2: Utvärdera resultatet. Ger det dig det du behöver? Om ja, är du klar. Om inte, identifiera vad som blev fel — är det formatet? Tonläget? Saknade detaljer? Helt missuppfattad uppgift?
Steg 3: Lägg till riktade exempel. Skapa två eller tre exempel som specifikt visar det modellen fick fel. Om formatet sket sig, visa rätt format. Om tonläget var fel, visa rätt tonläge.
Det här arbetsflödet är värdefullt eftersom du inte gissar om du behöver exempel — du svarar på faktiska luckor. Ibland räcker det med att lägga till "Låt oss tänka steg för steg" i en zero-shot-prompt för att lösa resonemangsproblem utan exempel alls. Forskning bekräftar att zero-shot chain-of-thought ofta överträffar few-shot på resonemangsuppgifter.
Hur många exempel behöver du egentligen?
Forskningen pekar konsekvent på en söt fläck på 2–5 exempel för de flesta uppgifter. Så här ser datan ut:
- De första 2–3 exemplen ger den största träffsäkerhetsförbättringen
- Avkastningen avtar kraftigt efter 4–5 exempel
- Fler exempel kan faktiskt försämra prestandan genom att introducera motstridiga mönster
- Kvaliteten på exemplen spelar större roll än antalet — tre utmärkta exempel slår tio medelmåttiga
Det finns också ett viktigt fynd om ordningen: studier visar att sekvensen av dina exempel påverkar resultatet, och optimal ordning kan ibland avgöra skillnaden mellan bra och dåligt utfall. Om din few-shot-prompt inte fungerar bra, prova att kasta om exemplen innan du lägger till fler.
Illustration som visar exempelkort som läggs till i en prompt, med avtagande avkastning efter de första
För de flesta användningsfall, börja med två exempel. Om träffsäkerheten inte räcker till, lägg till ett tredje som täcker en annan variant. Det är sällan du behöver fler än fyra.
Chain-of-thought: medelvägen för resonemang
Det finns ett tredje alternativ som fungerar särskilt bra för matematik, logik och flerstegsproblem: chain-of-thought prompting. I stället för att visa exempel på in- och utdata ber du modellen att "tänka steg för steg".
Zero-shot chain-of-thought ser ut så här:
En butik har 45 äpplen. De säljer 12 på morgonen och får in en leverans på 30 till. Sedan säljer de 18 på eftermiddagen. Hur många äpplen har de vid stängning?
Låt oss arbeta igenom det här steg för steg.
Den enkla frasen — "Låt oss arbeta igenom det här steg för steg" — får modellen att visa sitt resonemang i stället för att hoppa direkt till ett svar. För komplexa resonemang slår det här ofta både zero-shot och few-shot.
Färsk forskning från arXiv visade att för starka modeller som GPT-4 och Claude överträffar zero-shot chain-of-thought ofta few-shot prompting på resonemangsuppgifter. Exemplen kan faktiskt begränsa modellens tänkande snarare än att hjälpa det.
Använd chain-of-thought när:
Uppgiften kräver flera logiska steg
Du behöver att modellen förklarar sitt resonemang (bra för att fånga fel)
Det handlar om matematik, kodlogik eller analytiska problem
Du vill kunna granska modellens tillvägagångssätt, inte bara svaret
Färdiga promptexempel att kopiera
Låt oss se de tre metoderna sida vid sida på riktiga uppgifter. Alla prompter är testade med GPT-4 och Claude och redo att användas.
Uppgift 1: Klassificera tonläge i mejl
Zero-shot-version:
Klassificera tonläget i det här kundmejlet som: frustrerad, nöjd, neutral eller brådskande.
Mejl:
{{email_text}}
Tonläge:
Few-shot-version (bättre för gränsfall):
Klassificera tonläge i kundmejl som: frustrerad, nöjd, neutral eller brådskande.
Mejl: "Jag har väntat 3 veckor på min beställning. Det här är löjligt. Jag vill ha återbetalning NU."
Tonläge: frustrerad
Mejl: "Ville bara säga tack — produkten kom tidigt och fungerar utmärkt!"
Tonläge: nöjd
Mejl: "Hej, kan ni bekräfta att min beställning skickats? Ordernr 12345."
Tonläge: neutral
Mejl: "Vårt system ligger nere och vi behöver reservdelen IDAG annars förlorar vi avtalet."
Tonläge: brådskande
Mejl: {{email_text}}
Tonläge:
Few-shot-versionen hjälper modellen att förstå dina specifika definitioner. "Brådskande" och "frustrerad" kan vara tvetydiga — exempel gör dina gränser tydliga.
Uppgift 2: Skriv om produktbeskrivning
Zero-shot-version:
Skriv om den här produktbeskrivningen så att den blir mer engagerande och nyttofokuserad. Håll den under 100 ord.
Original: {{product_description}}
Omskriven version:
Few-shot-version (bättre för konsekvent varumärkesröst):
Skriv om produktbeskrivningar så att de blir engagerande och nyttofokuserade. Matcha den här stilen:
Original: "Vattenflaska i rostfritt stål. 7 dl. Håller drycken kall i 24 timmar."
Omskriven: "Håll dig pigg hela dagen med vår eleganta 7-dl-flaska i stål. Morgonkaffet håller värmen genom hela pendlingen. Eftermiddagsvattnet förblir iskallt på gymmet. En flaska, oändliga möjligheter."
Original: "Trådlösa hörlurar. 8 timmars batteri. Brusreducering."
Omskriven: "Åtta timmar med dina favoritpoddar, utan avbrott. Våra trådlösa hörlurar stänger ute oljudet så att du kan fokusera på det som spelar roll — oavsett om det är djupt arbete, gymspellistan eller den där ljudboken du äntligen tänker avsluta."
Original: {{product_description}}
Omskriven:
Few-shot-versionen lär ut en specifik copystil — nyttodriven, konversationell, med konkreta användningsfall. Zero-shot ger dig en omskrivning, men inte nödvändigtvis i din röst.
Uppgift 3: Strukturera buggrapport
Zero-shot-version:
Konvertera den här buggrapporten till ett strukturerat format med: Sammanfattning, Steg för att återskapa, Förväntat beteende och Faktiskt beteende.
Buggrapport: {{bug_report}}
Few-shot-version (bättre för konsekvent formatering):
Konvertera buggrapporter till strukturerat format.
Indata: "Appen kraschar när jag försöker ladda upp en PDF. Jag var på dashboarden, klickade ladda upp, valde en 5 MB PDF och så stängdes hela appen. Filen borde dyka upp under mina uppladdningar men i stället dör hela appen."
Utdata:
**Sammanfattning:** Appen kraschar vid uppladdning av PDF-filer
**Steg för att återskapa:**
1. Navigera till dashboarden
2. Klicka på uppladdningsknappen
3. Välj en PDF-fil (testat med 5 MB-fil)
**Förväntat:** Filen dyker upp i uppladdningssektionen
**Faktiskt:** Appen kraschar/stängs oväntat
---
Indata: {{bug_report}}
Utdata:
För teknisk dokumentation är konsekvens viktigt. Few-shot-versionen säkerställer att varje buggrapport följer samma struktur med samma detaljnivå.
Snabbt beslutsramverk
När du står inför en ny uppgift, gå igenom de här frågorna:
1. Är uppgiften enkel och väldefinierad? → Börja med zero-shot
2. Behöver du ett specifikt format som modellen kanske inte gissar? → Använd few-shot
3. Kräver uppgiften flerstegsresonemang? → Testa zero-shot chain-of-thought först
4. Behöver du konsekvent varumärkesröst eller branschterminologi? → Använd few-shot med exempel i den rösten
5. Gav zero-shot dig 80 % av det du behöver? → Behåll det. Perfektion är inte värt tre gånger så många tokens.
Målet är inte att använda den flashigaste tekniken — det är att få bra resultat effektivt. Zero-shot är standardvalet. Lägg bara till komplexitet när enklare metoder inte räcker till.
Sätta det i praktiken
Det bästa sättet att internalisera det här är att experimentera. Ta en uppgift du gör regelbundet — sammanfatta rapporter, skriva mejl, kategorisera feedback — och prova båda metoderna. Lägg märke till var zero-shot brister. Lägg märke till var few-shot gör en verklig skillnad.
När du hittat prompter som fungerar, spara dem någonstans där du faktiskt hittar dem igen. Om du bygger en samling prompter med exempel och variabler är PromptNest en macOS-app ($19.99 engångskostnad på Mac App Store, ingen prenumeration, inget konto, körs lokalt) som håller dem organiserade, sökbara och tillgängliga med en kortkommando från vilken app som helst. Inget mer letande i spridda anteckningar efter den där perfekta few-shot-prompten du skrev för tre veckor sedan.
Börja enkelt. Lägg till komplexitet vid behov. Spara det som fungerar. Det är hela strategin.