Few-shot vs. zero-shot prompting: Når bør du bruke hva?
En praktisk guide til å velge riktig prompting-tilnærming for oppgaven din, med eksempler du kan kopiere og et enkelt rammeverk for beslutninger.
Du limer inn en prompt i ChatGPT. Resultatet er ... greit. Men du har sett at andre får langt bedre svar ved å legge til «eksempler» i promptene sine. Burde du gjøre det samme? Hvor mange eksempler? Spiller det egentlig noen rolle for akkurat din oppgave?
Disse spørsmålene dukker opp hele tiden, og terminologien hjelper ikke. «Zero-shot», «few-shot», «one-shot» — det høres ut som fototermer, ikke praktisk veiledning. Denne guiden kutter gjennom sjargongen og gir deg et tydelig rammeverk for å velge tilnærming, pluss komplette prompter du kan kopiere og teste selv.
Hva zero-shot prompting faktisk betyr
Zero-shot prompting betyr at du gir KI-en en oppgave uten å vise noen eksempler på hva du vil ha. Du beskriver hva du trenger, og modellen finner ut hvordan den skal løse det basert på treningen sin.
Her er en zero-shot-prompt for å oppsummere et møte:
Oppsummer følgende møtenotater i 3-5 punkter som dekker de viktigste beslutningene som ble tatt.
Møtenotater:
{{meeting_notes}}
Det er alt. Ingen eksempler på «gode» oppsummeringer, ingen eksempelinndata og -utdata. Du stoler på at modellen forstår hva en oppsummering ser ut som og hva «viktige beslutninger» betyr. For mange oppgaver fungerer dette overraskende godt.
Hva few-shot prompting faktisk betyr
Few-shot prompting betyr at du legger inn 2-5 eksempler i prompten som viser mønsteret du vil at KI-en skal følge. Du sier i praksis «slik vil jeg at du skal håndtere dette» før du gir den selve oppgaven.
Her er den samme oppsummeringsoppgaven, men med eksempler:
Oppsummer møtenotater i 3-5 punkter som dekker de viktigste beslutningene.
Eksempel 1:
Input: «Teamet diskuterte mål for Q3. Sarah foreslo å øke salgsmålet med 15 %. Mark var uenig og mente 10 % var mer realistisk gitt dagens pipeline. Teamet stemte og ble enige om 12 %. Bestemte også å utsette redesignet av nettsiden til Q4.»
Output:
- Enige om 12 % økning i salgsmål for Q3 (kompromiss mellom 15 % og 10 %)
- Utsatt redesign av nettsiden til Q4
Eksempel 2:
Input: «Budsjettmøte. Faktiske utgifter ligger 8 % over prognosen. Finansdirektøren anbefalte å kutte reisebudsjettet med 50 % og fryse nyansettelser i 60 dager. Adm.dir. godkjente begge tiltak med umiddelbar virkning.»
Output:
- Reisebudsjett kuttet med 50 % (gjelder umiddelbart)
- 60 dagers ansettelsesstopp godkjent
- Tiltak mot 8 % budsjettsprekk
Oppsummer nå dette:
{{meeting_notes}}
Legg merke til forskjellen. Eksemplene viser modellen nøyaktig hvilket format du vil ha (punktliste med kontekst i parentes), hvilket detaljnivå den skal bruke, og hvordan den skal håndtere flere beslutninger. Modellen lærer preferansene dine i konteksten — uten finjustering.
De viktigste forskjellene på et øyeblikk
Slik sammenlignes de to tilnærmingene på de faktorene som betyr mest:
Hastighet: Zero-shot er raskere. Færre tokens å behandle gir kjappere svar.
Kostnad: Zero-shot er rimeligere. Du betaler per token, og eksempler legger på seg.
Oppstartsarbeid: Zero-shot krever nesten ingenting. Few-shot krever at du finner eller lager gode eksempler.
Treffsikkerhet på enkle oppgaver: Omtrent likt. Moderne modeller takler greie forespørsler bra uansett.
Treffsikkerhet på komplekse/skreddersydde oppgaver: Few-shot vinner som regel. Når du trenger spesifikt format eller fagterminologi, gir eksempler en målbar forskjell.
Avveiningen er klar: zero-shot er enklere og billigere, men few-shot gir deg mer kontroll over resultatet. Spørsmålet er når den ekstra kontrollen er verdt prisen.
Når zero-shot fungerer best
Zero-shot prompting skinner når oppgaven er noe modellen allerede «forstår» fra treningen. Det inkluderer:
Generelle kunnskapsspørsmål: Be om forklaringer, definisjoner eller faktainformasjon. Modellen vet hvordan en god forklaring ser ut.
Kreativ idémyldring: Generere ideer, skrive første utkast eller foreslå alternativer. Her vil du ha variasjon, ikke trofasthet til ett bestemt mønster.
Standard oppsummering: Komprimere artikler, e-poster eller dokumenter når du ikke trenger et bestemt format.
Oversettelse: Konvertere tekst mellom språk modellen er trent på.
Enkel klassifisering: Sortere elementer i vanlige kategorier (positiv/negativ, hastesak/ikke hastesak) når kategoriene forklarer seg selv.
En god tommelfingerregel: hvis du kan beskrive hva du vil ha med vanlig språk og et menneske ville forstått det uten eksempler, vil zero-shot sannsynligvis fungere.
Flytdiagram som viser beslutningsprosessen: start med zero-shot, vurder resultatet, legg bare til eksempler hvis det trengs
Når few-shot er verdt de ekstra tokenene
Few-shot prompting tjener prisen sin når resultatet må følge mønstre modellen ikke kan lese seg til av instruksjonene alene:
Skreddersydd format: Når du trenger output i en bestemt struktur — JSON med spesifikke felt, tabeller med eksakte kolonner, punktlister i en bestemt stil. Eksempler viser formatet bedre enn beskrivelser forklarer det.
Dine egne klassifiseringskategorier: Hvis du sorterer kundehenvendelser i kategorier som «faktura-spørsmål», «funksjonsønske», «feilmelding» og «generell henvendelse», hjelper eksempler modellen å forstå dine definisjoner.
Merkevarestemme eller tone: Vil du at KI-en skal skrive som det eksisterende innholdet ditt? Vis den 2-3 eksempler på den stemmen. Instrukser som «skriv i en profesjonell, men vennlig tone» er vage; eksempler er konkrete.
Bransjespesifikk terminologi: Hvis bransjen din bruker sjargong eller forkortelser som betyr noe annet andre steder, lærer eksempler modellen din kontekst.
Grensetilfeller og nyanser: Sarkasme, ironi eller subtile forskjeller som zero-shot snubler i. Forskning viser at few-shot prompting forbedrer håndteringen av grensetilfeller i sentimentanalyse som negering og sarkasme betraktelig.
En studie fant at for sentimentklassifisering på Twitter nådde few-shot prompting med bare 20-50 eksempler nesten ytelsen til modeller finjustert på over 10 000 eksempler. Det er kraften i godt valgte demonstrasjoner.
Hvis du finner ut at du bygger et bibliotek av few-shot-prompter for ulike oppgaver, hjelper et verktøy som PromptNest deg å lagre dem med variabler som {{meeting_notes}} innebygd — fyll inn feltene når du kopierer, og hele prompten er klar til å limes inn.
Arbeidsflyten «Start med zero, oppgrader ved behov»
Her er den praktiske tilnærmingen som sparer både tid og tokens:
Steg 1: Prøv zero-shot først. Skriv en tydelig prompt som beskriver hva du vil ha. Vær spesifikk om oppgaven, men ikke ta med eksempler ennå.
Steg 2: Vurder resultatet. Får du det du trenger? Hvis ja, er du ferdig. Hvis ikke, identifiser hva som er feil — er det formatet? Tonen? Manglende detaljer? Misforståelse av hele oppgaven?
Steg 3: Legg til målrettede eksempler. Lag 2-3 eksempler som spesifikt demonstrerer det modellen tok feil av. Var formatet feil, vis riktig format. Var tonen feil, vis riktig tone.
Denne arbeidsflyten er viktig fordi du ikke gjetter på om du trenger eksempler — du svarer på reelle hull. Noen ganger fikser «La oss tenke steg for steg» resonneringen i en zero-shot-prompt uten at du trenger eksempler i det hele tatt. Forskning bekrefter at zero-shot chain-of-thought ofte overgår few-shot på resonneringsoppgaver.
Hvor mange eksempler trenger du egentlig?
Forskningen peker konsekvent på et søtpunkt på 2-5 eksempler for de fleste oppgaver. Dette er hva tallene viser:
- De første 2-3 eksemplene gir det største løftet i nøyaktighet
- Avkastningen flater kraftig ut etter 4-5 eksempler
- Flere eksempler kan faktisk skade ytelsen ved å introdusere motstridende mønstre
- Kvaliteten på eksemplene betyr mer enn antallet — tre utmerkede eksempler slår ti middelmådige
Det er også et viktig funn om rekkefølgen på eksempler: studier viser at sekvensen påvirker resultatet, og optimal rekkefølge kan utgjøre forskjellen mellom god og dårlig ytelse. Hvis few-shot-prompten din ikke fungerer godt, prøv å endre rekkefølgen før du legger til flere eksempler.
Illustrasjon som viser eksempelkort som legges til i en prompt, med avtagende avkastning etter de første få
For de fleste tilfeller, start med 2 eksempler. Hvis nøyaktigheten ikke er der du trenger den, legg til et tredje som dekker en annen variant. Sjelden trenger du mer enn 4.
Chain-of-thought: Mellomtingen for resonnering
Det finnes et tredje alternativ som fungerer spesielt godt for matematikk, logikk og oppgaver med flere steg: chain-of-thought prompting. I stedet for å vise input-output-eksempler, ber du modellen «tenke steg for steg».
Zero-shot chain-of-thought ser slik ut:
En butikk har 45 epler. De selger 12 på morgenen og får inn et nytt parti på 30. Så selger de 18 på ettermiddagen. Hvor mange epler har de ved stengetid?
La oss løse dette steg for steg.
Den enkle setningen — «La oss løse dette steg for steg» — får modellen til å vise resonneringen sin i stedet for å hoppe rett til svaret. For komplekse resonneringer slår dette ofte både zero-shot og few-shot.
Nyere forskning fra arXiv fant at for sterke modeller som GPT-4 og Claude overgår zero-shot chain-of-thought ofte few-shot prompting på resonneringsoppgaver. Eksemplene kan faktisk begrense modellens tenkning i stedet for å hjelpe.
Bruk chain-of-thought når:
Oppgaven krever flere logiske steg
Du trenger at modellen forklarer resonneringen sin (nyttig for å fange feil)
Matematikk, kodelogikk eller analytiske problemer er involvert
Du vil verifisere modellens framgangsmåte, ikke bare svaret
Komplette prompt-eksempler du kan kopiere
La oss se de tre tilnærmingene side om side på reelle oppgaver. Alle promptene er testet med GPT-4 og Claude og klare til bruk.
Oppgave 1: Tone-klassifisering av e-post
Zero-shot-versjon:
Klassifiser tonen i denne kunde-e-posten som: frustrert, fornøyd, nøytral eller hastesak.
E-post:
{{email_text}}
Tone:
Few-shot-versjon (bedre for grensetilfeller):
Klassifiser tonen i kunde-e-poster som: frustrert, fornøyd, nøytral eller hastesak.
E-post: «Jeg har ventet 3 uker på bestillingen min. Dette er latterlig. Jeg vil ha refusjon NÅ.»
Tone: frustrert
E-post: «Ville bare si tusen takk — produktet kom tidlig og fungerer kjempebra!»
Tone: fornøyd
E-post: «Hei, kan dere bekrefte at bestillingen min er sendt? Ordre #12345.»
Tone: nøytral
E-post: «Systemet vårt er nede, og vi trenger reservedelen I DAG, ellers mister vi kontrakten.»
Tone: hastesak
E-post: {{email_text}}
Tone:
Few-shot-versjonen hjelper modellen å forstå dine spesifikke definisjoner. «Hastesak» og «frustrert» kan være tvetydige — eksempler gjør grensene tydelige.
Oppgave 2: Omskriving av produktbeskrivelse
Zero-shot-versjon:
Skriv om denne produktbeskrivelsen så den blir mer engasjerende og fokusert på fordeler. Hold den under 100 ord.
Original: {{product_description}}
Omskrevet versjon:
Few-shot-versjon (bedre for konsekvent merkevarestemme):
Skriv om produktbeskrivelser så de blir engasjerende og fokuserte på fordeler. Match denne stilen:
Original: «Drikkeflaske i rustfritt stål. 700 ml. Holder drikken kald i 24 timer.»
Omskrevet: «Hold deg hydrert hele dagen med vår elegante 700 ml ståflaske. Morgenkaffen er fortsatt varm når du kommer på jobb. Vannet er iskaldt på treningssenteret. Én flaske, uendelige muligheter.»
Original: «Trådløse øreplugger. 8 timers batteri. Støydempende.»
Omskrevet: «Åtte timer med favorittpodkastene dine, uten avbrudd. De trådløse øreproppene våre stenger ute støyen så du kan fokusere på det som betyr noe — enten det er konsentrasjonsarbeid, treningsspillelisten eller å endelig få fullført den lydboka.»
Original: {{product_description}}
Omskrevet:
Few-shot-versjonen lærer modellen en bestemt skrivestil — fordel-fokusert, samtalepreget, med konkrete brukstilfeller. Zero-shot ville gitt deg en omskriving, men ikke nødvendigvis din stemme.
Oppgave 3: Strukturering av feilrapport
Zero-shot-versjon:
Gjør om denne feilrapporten til et strukturert format med: Sammendrag, Steg for å reprodusere, Forventet oppførsel og Faktisk oppførsel.
Feilrapport: {{bug_report}}
Few-shot-versjon (bedre for konsekvent format):
Gjør om feilrapporter til strukturert format.
Input: «Appen krasjer når jeg prøver å laste opp en PDF. Jeg var på dashbordet, klikket på opplasting, valgte en PDF på 5 MB, og så lukket den seg bare. Skulle vist filen i opplastingene mine, men i stedet dør hele appen.»
Output:
**Sammendrag:** Appen krasjer ved opplasting av PDF-filer
**Steg for å reprodusere:**
1. Naviger til dashbordet
2. Klikk på opplastingsknappen
3. Velg en PDF-fil (testet med 5 MB)
**Forventet:** Filen vises i opplastingsseksjonen
**Faktisk:** Applikasjonen krasjer/lukker seg uventet
---
Input: {{bug_report}}
Output:
For teknisk dokumentasjon er konsistens viktig. Few-shot-versjonen sikrer at hver feilrapport følger samme struktur med samme detaljnivå.
Rask beslutningsramme
Når du står overfor en ny oppgave, kjør gjennom disse spørsmålene:
1. Er oppgaven enkel og tydelig definert? → Start med zero-shot
2. Trenger du et bestemt format modellen kanskje ikke gjetter? → Bruk few-shot
3. Krever oppgaven flere resonnementsteg? → Prøv zero-shot chain-of-thought først
4. Trenger du konsekvent merkevarestemme eller fagterminologi? → Bruk few-shot med eksempler i den stemmen
5. Ga zero-shot deg 80 % av det du trenger? → Behold den. Perfeksjon er ikke verdt 3x tokens.
Målet er ikke å bruke den fanciest teknikken — det er å få gode resultater effektivt. Zero-shot er standarden. Legg på kompleksitet bare når enklere tilnærminger ikke strekker til.
Sett det ut i livet
Den beste måten å få dette under huden på er å eksperimentere. Ta en oppgave du gjør jevnlig — oppsummere rapporter, skrive e-poster, kategorisere tilbakemeldinger — og prøv begge tilnærminger. Legg merke til hvor zero-shot kommer til kort. Legg merke til hvor few-shot virkelig utgjør en forskjell.
Når du finner prompter som fungerer, lagre dem et sted du faktisk finner dem igjen. Hvis du bygger en samling av prompter med eksempler og variabler, er PromptNest en ekte Mac-app ($19.99 som engangskjøp på Mac App Store, ingen abonnement, ingen konto, kjører lokalt) som holder dem organisert, søkbare og tilgjengelige med en hurtigtast fra hvilken som helst app. Slutt å lete gjennom spredte notater etter den perfekte few-shot-prompten du skrev for tre uker siden.
Start enkelt. Legg på kompleksitet ved behov. Ta vare på det som fungerer. Det er hele strategien.