Few-shot vs. zero-shot prompting: wanneer gebruik je wat?
Een praktische gids om de juiste promptaanpak voor je taak te kiezen, met kant-en-klare voorbeelden en een eenvoudig beslissingskader.
Je plakt een prompt in ChatGPT. De output is... oké. Maar je hebt anderen veel betere resultaten zien halen door "voorbeelden" aan hun prompts toe te voegen. Moet jij dat ook doen? Hoeveel voorbeelden? En maakt het eigenlijk wel uit voor jouw specifieke taak?
Dit soort vragen komen voortdurend terug, en de terminologie helpt niet echt. "Zero-shot", "few-shot", "one-shot" — het klinkt eerder als fototermen dan als praktische uitleg. Deze gids snijdt door het jargon heen en geeft je een helder kader om te bepalen welke aanpak je gebruikt, plus complete prompts die je kunt kopiëren en zelf uitproberen.
Wat zero-shot prompting eigenlijk inhoudt
Zero-shot prompting betekent dat je de AI een taak geeft zonder voorbeelden te tonen van wat je wilt. Je beschrijft wat je nodig hebt en het model bepaalt zelf hoe het dat aanpakt op basis van zijn training.
Hier is een zero-shot prompt om een vergadering samen te vatten:
Vat de volgende vergadernotities samen in 3 tot 5 bullets met de belangrijkste genomen besluiten.
Vergadernotities:
{{meeting_notes}}
Meer is het niet. Geen voorbeelden van "goede" samenvattingen, geen voorbeeldinvoer of -uitvoer. Je vertrouwt erop dat het model begrijpt hoe een samenvatting eruitziet en wat "belangrijkste besluiten" inhoudt. Voor veel taken werkt dit verrassend goed.
Wat few-shot prompting eigenlijk inhoudt
Few-shot prompting betekent dat je 2 tot 5 voorbeelden in je prompt opneemt die het patroon laten zien dat je wilt dat de AI volgt. Je zegt eigenlijk "zo wil ik dat je dit aanpakt" voordat je de eigenlijke taak geeft.
Dezelfde taak van vergadernotities samenvatten, maar nu met voorbeelden:
Vat vergadernotities samen in 3 tot 5 bullets met de belangrijkste besluiten.
Voorbeeld 1:
Input: "Team besprak Q3-doelen. Sarah stelde voor de salesdoelstelling met 15% te verhogen. Mark was het er niet mee eens en vond 10% realistischer gezien de huidige pipeline. Het team stemde en kwam uit op 12%. Daarnaast werd besloten de website-redesign uit te stellen tot Q4."
Output:
- Akkoord op 12% verhoging salesdoelstelling Q3 (compromis tussen voorstellen van 15% en 10%)
- Website-redesign uitgesteld naar Q4
Voorbeeld 2:
Input: "Budgetreview. Huidige uitgaven liggen 8% boven prognose. CFO adviseerde reisbudget met 50% te verlagen en 60 dagen geen nieuwe medewerkers aan te nemen. CEO keurde beide maatregelen per direct goed."
Output:
- Reisbudget met 50% verlaagd (per direct)
- Aannamestop van 60 dagen goedgekeurd
- Reactie op budgetoverschrijding van 8%
Vat nu deze samen:
{{meeting_notes}}
Zie je het verschil? De voorbeelden laten het model precies zien welke opmaak je wilt (bullets met context tussen haakjes), welk detailniveau je verwacht en hoe je meerdere besluiten verwerkt. Het model leert je voorkeuren in context — finetuning is niet nodig.
De belangrijkste verschillen op een rij
Zo verhouden de twee aanpakken zich tot elkaar op de factoren die het meest tellen:
Snelheid: zero-shot is sneller. Minder tokens om te verwerken betekent kortere antwoorden.
Kosten: zero-shot is goedkoper. Je betaalt per token en voorbeelden tikken aan.
Inrichtingstijd: zero-shot kost vrijwel niets. Few-shot vraagt om goede voorbeelden vinden of opstellen.
Nauwkeurigheid bij eenvoudige taken: ongeveer gelijk. Moderne modellen handelen rechttoe-rechtaan verzoeken in beide gevallen prima af.
Nauwkeurigheid bij complexe of maatwerk-taken: few-shot wint meestal. Heb je specifieke opmaak of vakterminologie nodig, dan maken voorbeelden een meetbaar verschil.
De afweging is helder: zero-shot is simpeler en goedkoper, maar few-shot geeft je meer grip op de output. De vraag is wanneer die extra controle de moeite waard is.
Wanneer zero-shot het beste werkt
Zero-shot prompting komt het best tot zijn recht als de taak iets is wat het model al "begrijpt" vanuit zijn training. Denk aan:
Algemene kennisvragen: uitleg, definities of feitelijke informatie vragen. Het model weet hoe een goede uitleg eruitziet.
Creatief brainstormen: ideeën genereren, eerste concepten schrijven of opties bedenken. Hier wil je juist variatie, geen vast patroon.
Standaard samenvattingen: artikelen, e-mails of documenten verkorten als je geen specifieke opmaak nodig hebt.
Vertalingen: tekst omzetten tussen talen waarop het model is getraind.
Eenvoudige classificatie: items in voor de hand liggende categorieën sorteren (positief/negatief, urgent/niet urgent) als de categorieën voor zich spreken.
Een goede vuistregel: kun je in gewone taal beschrijven wat je wilt en zou een mens dat zonder voorbeelden begrijpen, dan werkt zero-shot waarschijnlijk prima.
Stroomdiagram van het beslissingsproces: begin met zero-shot, beoordeel het resultaat en voeg pas voorbeelden toe als dat nodig is
Wanneer few-shot de extra tokens waard is
Few-shot prompting verdient zichzelf terug zodra de output patronen moet volgen die het model niet uit instructies alleen kan afleiden:
Maatwerk-opmaak: als je output in een specifieke structuur nodig hebt — JSON met bepaalde velden, tabellen met exacte kolommen, bullets in een bepaalde stijl. Voorbeelden tonen de opmaak duidelijker dan beschrijvingen die kunnen uitleggen.
Je eigen classificatiecategorieën: sorteer je klant-e-mails in categorieën als "factuurvraag", "feature-verzoek", "bugmelding" en "algemene vraag", dan helpen voorbeelden van elk het model je definities te begrijpen.
Brand voice of toon: wil je dat de AI schrijft zoals jullie bestaande content? Toon 2 of 3 voorbeelden van die toon. Een instructie als "schrijf in een professionele maar vriendelijke toon" is vaag; voorbeelden zijn concreet.
Domeinspecifieke terminologie: gebruikt jouw branche jargon of afkortingen die elders iets anders betekenen, dan leren voorbeelden het model jouw context.
Randgevallen en nuance: sarcasme herkennen, ironie of subtiele verschillen waar zero-shot vaak op vastloopt. Onderzoek laat zien dat few-shot prompting de afhandeling van randgevallen bij sentiment zoals ontkenning en sarcasme aanzienlijk verbetert.
Eén onderzoek vond dat few-shot prompting met slechts 20 tot 50 voorbeelden bij sentimentclassificatie op Twitter de prestaties benaderde van modellen die op meer dan 10.000 voorbeelden waren gefinetuned. Dat is de kracht van goedgekozen demonstraties.
Bouw je een verzameling few-shot prompts voor verschillende taken op, dan helpt een tool als PromptNest ze op te slaan met variabelen als {{meeting_notes}} ingebouwd — vul de blanco's in bij het kopiëren en de complete prompt staat klaar om te plakken.
De "begin met zero, breid uit als het moet"-werkwijze
Een praktische aanpak die je zowel tijd als tokens scheelt:
Stap 1: probeer eerst zero-shot. Schrijf een heldere prompt die beschrijft wat je wilt. Wees specifiek over de taak, maar voeg nog geen voorbeelden toe.
Stap 2: beoordeel de output. Krijg je wat je nodig hebt? Zo ja, klaar. Zo nee, bepaal wat er mis is — de opmaak? De toon? Ontbrekende details? Of begrijpt het model de taak helemaal verkeerd?
Stap 3: voeg gerichte voorbeelden toe. Maak 2 of 3 voorbeelden die specifiek laten zien waar het model de mist inging. Was de opmaak verkeerd, toon dan de juiste opmaak. Was de toon niet goed, toon de juiste toon.
Deze werkwijze werkt omdat je niet gokt of je voorbeelden nodig hebt — je reageert op echte hiaten. Soms verhelpt "laten we stap voor stap nadenken" toevoegen aan een zero-shot prompt al redeneerproblemen, zonder voorbeelden. Onderzoek bevestigt dat zero-shot chain-of-thought few-shot vaak voorbijstreeft bij redeneertaken.
Hoeveel voorbeelden heb je echt nodig?
Onderzoek wijst consistent op een sweet spot van 2 tot 5 voorbeelden voor de meeste taken. Wat de data laten zien:
- De eerste 2 of 3 voorbeelden leveren de grootste nauwkeurigheidswinst op
- Vanaf 4 of 5 voorbeelden nemen de extra winsten scherp af
- Méér voorbeelden kunnen de prestaties zelfs schaden doordat er tegenstrijdige patronen ontstaan
- Kwaliteit van voorbeelden weegt zwaarder dan aantal — drie uitstekende voorbeelden verslaan tien middelmatige
Er is ook een belangrijke bevinding over de volgorde: studies laten zien dat de volgorde van je voorbeelden de resultaten beïnvloedt en dat de optimale volgorde soms het verschil maakt tussen goede en slechte prestaties. Werkt je few-shot prompt niet goed, herorder dan eerst je voorbeelden voordat je er meer toevoegt.
Illustratie waarin voorbeeldkaarten aan een prompt worden toegevoegd, met afnemende meeropbrengst na de eerste paar
Begin voor de meeste use cases met 2 voorbeelden. Is de nauwkeurigheid niet wat je nodig hebt, voeg dan een derde toe dat een andere variatie afdekt. Meer dan 4 heb je zelden nodig.
Chain-of-thought: het middenpad voor redeneren
Er is een derde optie die bijzonder goed werkt voor wiskunde, logica en problemen met meerdere stappen: chain-of-thought prompting. In plaats van input-outputvoorbeelden te tonen, vraag je het model om "stap voor stap te denken".
Zero-shot chain-of-thought ziet er zo uit:
Een winkel heeft 45 appels. 's Ochtends verkoopt hij er 12 en hij ontvangt een levering van 30 appels. 's Middags verkoopt hij er nog 18. Hoeveel appels zijn er bij sluitingstijd?
Laten we dit stap voor stap doorlopen.
Die simpele zin — "laten we dit stap voor stap doorlopen" — zet het model aan om zijn redenering te tonen in plaats van direct naar een antwoord te springen. Voor complex redeneren verslaat dit vaak zowel zero-shot als few-shot.
Recent onderzoek van arXiv vond dat zero-shot chain-of-thought bij sterke modellen als GPT-4 en Claude few-shot prompting bij redeneertaken regelmatig voorbijstreeft. De voorbeelden kunnen het denken van het model namelijk juist inperken in plaats van helpen.
Gebruik chain-of-thought wanneer:
De taak meerdere logische stappen vereist
Je wilt dat het model zijn redenering uitlegt (handig om fouten op te sporen)
Het gaat om wiskunde, programmeerlogica of analytische problemen
Je niet alleen het antwoord wilt verifiëren, maar ook de aanpak
Complete promptvoorbeelden om te kopiëren
Laten we de drie aanpakken naast elkaar zien voor echte taken. Alle prompts zijn getest met GPT-4 en Claude en kant-en-klaar voor gebruik.
Taak 1: toon van een e-mail classificeren
Zero-shotversie:
Classificeer de toon van deze klant-e-mail als: gefrustreerd, tevreden, neutraal of urgent.
E-mail:
{{email_text}}
Toon:
Few-shotversie (beter voor randgevallen):
Classificeer de toon van klant-e-mails als: gefrustreerd, tevreden, neutraal of urgent.
E-mail: "Ik wacht al 3 weken op mijn bestelling. Dit is belachelijk. Ik wil NU mijn geld terug."
Toon: gefrustreerd
E-mail: "Wilde even bedanken — het product kwam eerder aan dan verwacht en werkt perfect!"
Toon: tevreden
E-mail: "Hoi, kunnen jullie bevestigen dat mijn bestelling verzonden is? Bestelnummer #12345."
Toon: neutraal
E-mail: "Onze systemen liggen plat en we hebben het vervangingsonderdeel VANDAAG nodig, anders verliezen we het contract."
Toon: urgent
E-mail: {{email_text}}
Toon:
De few-shotversie helpt het model je specifieke definities te begrijpen. "Urgent" en "gefrustreerd" kunnen door elkaar lopen — voorbeelden maken jouw grenzen helder.
Taak 2: productomschrijving herschrijven
Zero-shotversie:
Herschrijf deze productomschrijving zodat hij aansprekender en meer voordeelgericht is. Houd hem onder de 100 woorden.
Origineel: {{product_description}}
Herschreven versie:
Few-shotversie (beter voor consistente brand voice):
Herschrijf productomschrijvingen zodat ze aansprekend en voordeelgericht zijn. Volg deze stijl:
Origineel: "Roestvrijstalen drinkfles. Inhoud 700 ml. Houdt drank 24 uur koud."
Herschreven: "Blijf de hele dag goed gehydrateerd met onze strakke stalen drinkfles van 700 ml. Je ochtendkoffie blijft warm tijdens je woon-werkverkeer. Je middagwater blijft ijskoud in de sportschool. Eén fles, eindeloze mogelijkheden."
Origineel: "Draadloze oordopjes. 8 uur batterij. Noise cancelling."
Herschreven: "Acht uur lang ononderbroken naar je favoriete podcasts luisteren. Onze draadloze oordopjes blokkeren omgevingsgeluid zodat jij je kunt richten op wat telt — of dat nu diep werk is, je workout-playlist of dat luisterboek dat je eindelijk wilt uitkrijgen."
Origineel: {{product_description}}
Herschreven:
De few-shotversie leert het model een specifieke copystijl — voordeelgericht, conversational, met concrete gebruikssituaties. Zero-shot geeft je een herschreven versie, maar niet per se jouw stem.
Taak 3: bugrapport structureren
Zero-shotversie:
Zet dit bugrapport om in een gestructureerd format met: Samenvatting, Reproductiestappen, Verwacht gedrag en Werkelijk gedrag.
Bugrapport: {{bug_report}}
Few-shotversie (beter voor consistente opmaak):
Zet bugrapporten om in een gestructureerd format.
Input: "De app crasht als ik een PDF probeer te uploaden. Ik was op het dashboard, klikte op uploaden, koos een PDF van 5 MB, en de app sloot zich gewoon af. Het bestand zou in mijn uploads moeten staan, maar in plaats daarvan klapt de hele app eruit."
Output:
**Samenvatting:** App crasht bij het uploaden van PDF-bestanden
**Reproductiestappen:**
1. Ga naar dashboard
2. Klik op de uploadknop
3. Selecteer een PDF-bestand (getest met bestand van 5 MB)
**Verwacht:** Bestand verschijnt in de uploadssectie
**Werkelijk:** Applicatie crasht/sluit onverwacht af
---
Input: {{bug_report}}
Output:
Bij technische documentatie telt consistentie. De few-shotversie zorgt dat elk bugrapport dezelfde structuur en hetzelfde detailniveau krijgt.
Snel beslissingskader
Sta je voor een nieuwe taak, loop dan deze vragen langs:
1. Is de taak rechttoe-rechtaan en helder gedefinieerd? → Begin met zero-shot
2. Heb je een specifiek format nodig dat het model misschien niet raadt? → Gebruik few-shot
3. Vraagt de taak om redeneren in meerdere stappen? → Probeer eerst zero-shot chain-of-thought
4. Heb je consistente brand voice of vakterminologie nodig? → Gebruik few-shot met voorbeelden in die toon
5. Geeft zero-shot je 80% van wat je nodig hebt? → Houd het zo. Perfectie is geen 3x zoveel tokens waard.
Het doel is niet de meest geavanceerde techniek gebruiken, maar efficiënt goede resultaten halen. Zero-shot is je standaard. Voeg complexiteit pas toe als simpelere aanpakken tekortschieten.
In de praktijk brengen
De beste manier om dit eigen te maken, is experimenteren. Pak een taak die je vaak doet — rapporten samenvatten, e-mails opstellen, feedback categoriseren — en probeer beide aanpakken. Merk op waar zero-shot tekortschiet. Merk op waar few-shot echt het verschil maakt.
Heb je eenmaal prompts gevonden die werken, sla ze dan ergens op waar je ze ook echt terugvindt. Bouw je een verzameling prompts met voorbeelden en variabelen op, dan is PromptNest een native Mac-app ($19.99 eenmalig in de Mac App Store, geen abonnement, geen account, draait lokaal) die ze georganiseerd, doorzoekbaar en met een sneltoets vanuit elke app bereikbaar houdt. Geen gegraaf meer in verspreide notities naar die ene perfecte few-shot prompt die je drie weken geleden schreef.
Begin simpel. Voeg complexiteit toe als het nodig is. Bewaar wat werkt. Dat is de hele strategie.