Chain-of-Thought prompting: laat AI stap voor stap denken
Met Chain-of-Thought prompting ging de nauwkeurigheid van AI op redeneertaken van 18% naar 79%. Leer de techniek met kant-en-klare voorbeelden voor je werk.
Je stelde ChatGPT een vraag waarvoor wat denkwerk nodig was — twee opties vergelijken, een beslissing analyseren of een probleem in meerdere stappen uitwerken. De AI antwoordde direct, vol zelfvertrouwen. Eén probleempje: het antwoord was compleet fout.
Dat gebeurt vaker dan je denkt. AI-assistenten zijn getraind om antwoorden te geven die plausibel klinken, niet om écht door een probleem heen te redeneren. Stel je een complexe vraag op de gewone manier, dan slaat de AI het denkwerk vaak over en springt meteen naar een antwoord — soms spectaculair fout, terwijl het volkomen overtuigd klinkt.
Daar is een oplossing voor. In 2022 ontdekten onderzoekers van Google dat één zin toevoegen aan een prompt — "Laten we stap voor stap denken" — de nauwkeurigheid op rekenproblemen verhoogde van 17,7% naar 78,7%. Dat is geen typefout. Eén zin maakte de AI vier keer zo nauwkeurig.
Deze techniek heet Chain-of-Thought prompting, en hij werkt omdat hij de AI dwingt om zijn denkstappen te laten zien in plaats van naar een conclusie te springen. Hieronder lees je hoe je de techniek inzet bij echt werk — niet alleen bij rekensommen.
Wat is Chain-of-Thought prompting?
Chain-of-Thought (CoT) prompting is precies wat het lijkt: je vraagt de AI om eerst zijn redenering stap voor stap uit te leggen en pas daarna een eindantwoord te geven. In plaats van "Wat is het antwoord?" vraag je "Loop me door je denkproces, en geef me dan het antwoord."
Zie het als een collega vragen om zijn werk te laten zien. Krijg je een advies zonder uitleg, dan kun je niet zien of iemand er echt over heeft nagedacht of gewoon iets heeft geroepen. Maar als hij je door zijn redenering loodst — "Ik heb X overwogen, Y afgewezen vanwege Z, en daarom kwam ik tot deze conclusie" — kun je gaten in de logica spotten.
Hetzelfde geldt voor AI. Dwing je het model om tussenstappen te verwoorden, dan gebeuren er twee dingen:
De AI vangt zijn eigen fouten op tijdens het redeneren
Jij ziet precies waar de logica spaak liep als het antwoord niet klopt
Waarom AI stappen overslaat (en de mist in gaat)
Dit beseffen de meeste mensen niet: AI-modellen "denken" niet zoals mensen. Ze matchen patronen tegen miljarden voorbeelden van tekst om te voorspellen welk woord er als volgende komt. Stel je een rechttoe rechtaan vraag, dan springt het model naar het statistisch meest waarschijnlijke antwoord.
Voor simpele vragen werkt dat prima. "Wat is de hoofdstad van Frankrijk?" vereist geen redenering — die vraag en dat antwoord heeft het model miljoenen keren samen gezien.
Maar zodra er echt logica nodig is — opties vergelijken, afwegingen maken, problemen in meerdere stappen oplossen — valt de patroonmatch-aanpak om. De AI kiest een antwoord dat klinkt alsof het klopt, zonder het werk te doen om te checken of het ook is.
Chain-of-Thought prompting onderbreekt die shortcut. Door de AI hardop te laten redeneren, dwing je hem om de tussenstappen te genereren — en die tussenstappen leggen het eindantwoord vast. Het is veel lastiger om bij een verkeerde conclusie uit te komen als je het pad ernaartoe moet laten zien.
Vergelijking tussen een AI die direct naar een antwoord springt en een AI die eerst stap voor stap door de redenering loopt voordat hij antwoordt
De simpelste manier om Chain-of-Thought te gebruiken
De makkelijkste variant kost je geen voorbereiding. Plak een van deze zinnen achter je prompt:
"Laten we stap voor stap denken."
"Loop me door je redenering."
"Leg eerst je denkproces uit voordat je een eindantwoord geeft."
"Hak dit op in stappen."
Onderzoekers vonden dat "Laten we stap voor stap denken" het beste werkte in hun tests, al ontdekte vervolgonderzoek een nóg betere variant: "Laten we dit stap voor stap uitwerken om zeker te weten dat we het juiste antwoord hebben."
Zo ziet dat er in de praktijk uit. Stel, je twijfelt of je een nieuw jobaanbod aanneemt.
Zonder Chain-of-Thought:
Moet ik een baan aannemen die 20% meer betaalt, maar waarvoor ik moet verhuizen naar een stad waar de kosten van levensonderhoud 40% hoger liggen?
De AI gooit er waarschijnlijk een snelle "ja" of "nee" uit op basis van oppervlakkige patroonmatching.
Met Chain-of-Thought:
Moet ik een baan aannemen die 20% meer betaalt, maar waarvoor ik moet verhuizen naar een stad waar de kosten van levensonderhoud 40% hoger liggen?
Laten we hier stap voor stap door, met aandacht voor de financiële gevolgen, kwaliteit van leven en impact op mijn carrière, voordat we een conclusie trekken.
Nu loopt de AI elke factor langs, rekent uit of die 20% extra salaris die 40% hogere kosten dekt, weegt af wat je wint of verliest, en komt met een onderbouwde aanbeveling.
Few-shot CoT: laat de AI zien hoe je wilt dat hij denkt
De aanpak met "Laten we stap voor stap denken" heet zero-shot CoT, omdat je geen voorbeelden meegeeft. Voor veel situaties werkt dat prima, maar bij complexe of gespecialiseerde taken haal je nóg betere resultaten als je het redeneerpatroon laat zien dat je verwacht.
Dat heet few-shot CoT — je geeft één of twee uitgewerkte voorbeelden mee waarin je precies laat zien hoe de AI door vergelijkbare problemen moet redeneren.
Hier is een sjabloon voor het analyseren van zakelijke beslissingen:
Ik wil hulp bij het afwegen van opties. Zo wil ik dat je elke optie doorloopt:
Voorbeeld:
Vraag: Moeten we overstappen van maand- op jaarfacturatie?
Stap 1 - Identificeer de belangrijkste factoren: voorspelbaarheid van cashflow, klantverloop, prijsperceptie.
Stap 2 - Analyseer elke factor:
- Cashflow: jaarfacturatie levert vooraf omzet op, dat maakt het beter voorspelbaar
- Klantverloop: klanten die per jaar betalen, hebben een lager verloop
- Prijs: we kunnen korting geven op een jaarplan zonder verlies te draaien
Stap 3 - Weeg de afwegingen: het belangrijkste nadeel is dat de drempel voor nieuwe aanmeldingen hoger wordt.
Stap 4 - Conclusie: ja, maar bied beide opties aan met 15% korting op het jaarplan.
Pas nu dezelfde redenering toe op mijn vraag:
{{question}}
Het voorbeeld hoeft niet exact bij jouw vraag te passen — het hoeft alleen de redeneerstructuur te tonen die je wilt. De AI past het patroon aan op jouw specifieke situatie.
Wanneer Chain-of-Thought écht helpt (en wanneer niet)
CoT prompting is geen wondermiddel voor elke AI-interactie. Onderzoek van Wharton liet zien dat de techniek wel helpt bij lastige problemen, maar de nauwkeurigheid bij makkelijke vragen kan verlagen door onnodige complexiteit toe te voegen.
Gebruik Chain-of-Thought wanneer:
Je meerdere opties vergelijkt of afwegingen maakt
De taak meerdere redeneer- of rekenstappen vraagt
Je een probleem moet doorgronden of diagnosticeren
Het antwoord oorzaak en gevolg moet analyseren
Je de redenering van de AI wilt zien, niet alleen het antwoord
Sla Chain-of-Thought over wanneer:
Je om simpele feiten of definities vraagt
Je creatieve output wilt, zoals brainstormen of schrijven
Je een samenvatting of vertaling nodig hebt
Snelheid belangrijker is dan nauwkeurigheid
De taak geen logisch redeneren vereist
Ook goed om te weten: CoT prompting heeft minder effect bij kleinere AI-modellen. Het oorspronkelijke onderzoek van Google liet zien dat noemenswaardige verbeteringen pas optreden bij modellen met 100+ miljard parameters. Met de huidige AI-tools voor consumenten — ChatGPT-4, Claude, Gemini — zit je goed. Werk je met oudere of kleinere modellen, dan kunnen de resultaten tegenvallen.
5 kant-en-klare CoT-prompts voor echt werk
Hieronder vijf prompts die je vandaag nog kunt kopiëren en gebruiken. In elke prompt zit de Chain-of-Thought-structuur al ingebakken.
1. Beslissingsanalyse
Help me beslissen: {{decision_to_make}}
Loop dit stap voor stap door:
1. Noem de belangrijkste factoren waar ik op moet letten
2. Analyseer hoe elke optie scoort op die factoren
3. Wijs de grootste risico's en afwegingen aan
4. Geef je aanbeveling, met onderbouwing
Wees specifiek en gebruik mijn werkelijke situatie, geen standaardadvies.
2. Voor- en nadelen vergelijken
Vergelijk deze opties: {{option_1}} vs {{option_2}}
Doe het systematisch:
1. Bepaal eerst 5 criteria die het belangrijkst zijn voor dit type beslissing
2. Beoordeel elke optie op elk criterium
3. Markeer eventuele dealbreakers of harde eisen
4. Weeg de algehele afwegingen tegen elkaar af
5. Geef me een duidelijke aanbeveling
Dus niet zomaar voor- en nadelen opsommen — redeneer welke factoren zwaarder wegen en waarom.
3. Oorzaakanalyse
Help me uitzoeken waarom dit gebeurt: {{problem_description}}
Volg dit redeneerproces:
1. Verhelder wat er precies gebeurt versus wat er zou moeten gebeuren
2. Som alle mogelijke oorzaken op (ook de onwaarschijnlijke)
3. Bedenk per oorzaak welk bewijs die zou bevestigen of uitsluiten
4. Wijs op basis van de beschikbare informatie de meest waarschijnlijke oorzaak aan
5. Stel voor hoe ik dit kan verifiëren en wat ik eraan kan doen
4. Stappenplan opstellen
Ik wil {{goal}}.
Hak dit op in stappen:
1. Bepaal eerst wat er allereerst moet gebeuren (de randvoorwaarden)
2. Schets daarna de hoofdfases of mijlpalen
3. Noem per fase de concrete acties die nodig zijn
4. Markeer afhankelijkheden (wat moet eerder gebeuren voordat iets anders kan beginnen)
5. Wijs op mogelijke obstakels en hoe je die aanpakt
Wees concreet — geef me uitvoerbare stappen, geen vage adviezen.
5. Complexe vraag uitpluizen
{{complex_question}}
Voordat je antwoordt, gaan we hier zorgvuldig doorheen:
1. Pak uit wat deze vraag eigenlijk vraagt
2. Benoem de aannames die in de vraag verstopt zitten
3. Bedenk welke factoren het antwoord beïnvloeden
4. Redeneer elke factor uit
5. Geef daarna je antwoord, met de redenering die het ondersteunt
Is er echte onzekerheid, geef dat dan toe in plaats van te doen alsof je het zeker weet.
Deze prompts volgen hetzelfde patroon: beschrijf wat je nodig hebt en geef daarna expliciet aan welk redeneerproces je verwacht. Die structuur loodst de AI door een grondige analyse in plaats van hem naar een conclusie te laten springen.
Een sjabloonkaart met variabele velden die voor verschillende taken worden ingevuld
Merk je dat je deze prompts steeds opnieuw gebruikt — telkens een andere beslissing, een ander probleem, een andere vraag — dan kun je met een tool als PromptNest je prompts opslaan met de {{variabelen}} al op hun plek. Heb je er een nodig, dan vul je alleen de gaten in en kopieer je de complete prompt.
Probleemoplossing: als de redenering ontspoort
Soms gebruik je Chain-of-Thought prompting en laat de AI keurig zijn stappen zien... maar komt hij toch tot een verkeerde conclusie. Zo pak je dat aan.
De redenering ziet er goed uit, maar de conclusie klopt niet. De AI is mogelijk vanuit een foute aanname vertrokken. Vraag: "Welke aannames doe je hier? Noem ze expliciet." Vaak zit de fout in een onuitgesproken premisse, niet in de logica zelf.
De AI heeft belangrijke factoren overgeslagen. Reageer met: "Je hebt {{factor}} niet meegenomen. Hoe verandert dat je analyse?" De AI verwerkt de nieuwe informatie en past zijn conclusie vaak aan.
De redenering is rondjes draaien of te vaag. Vraag om meer specificiteit: "In stap 2 schrijf je 'dit kan riskant zijn'. Welke risico's bedoel je precies, en hoe kun je die kwantificeren?" Concrete details afdwingen ontmaskert wollig denken.
Je vermoedt dat de AI te zelfverzekerd is. Probeer: "Speel advocaat van de duivel. Wat is het sterkste argument tégen deze conclusie?" Vaak komen er zwaktes boven die de AI in de eerste ronde over het hoofd zag.
Het punt van Chain-of-Thought prompting is niet alleen betere antwoorden krijgen — het maakt de redenering zichtbaar zodat je fouten kunt opmerken en bijsturen. Behandel het eerste antwoord als startpunt, niet als eindpunt.
Begin vandaag nog met Chain-of-Thought
Je hoeft geen technieken uit je hoofd te leren of ingewikkelde frameworks te volgen. Onthoud alleen het kernidee: wil je dat de AI écht nadenkt in plaats van gokt, vraag hem dan om zijn werk te laten zien.
Begin met één taak waarvoor je AI vaker gebruikt — iets met analyse, vergelijking of probleemoplossing. Plak er "Laten we hier stap voor stap doorheen" achter en kijk hoe het antwoord verandert. Zie je het verschil eenmaal, dan weet je vanzelf wanneer je de techniek inzet.
Wil je een bibliotheek opbouwen van redeneerprompts zoals hierboven, dan kun je ze opslaan waar je wilt — een notitie-app, een document, wat je toch al gebruikt. Of wil je iets dat hier specifiek voor gebouwd is: PromptNest is een native Mac-app ($19.99 eenmalig in de Mac App Store, geen abonnement, geen account, draait lokaal) die je prompts overzichtelijk houdt met variabelen erin verwerkt. Hoe dan ook, het draait erom dat je beste prompts klaarliggen wanneer je ze nodig hebt — en niet zijn weggezakt in oude chatgeschiedenissen.
Het verschil tussen AI die je helpt nadenken en AI die alleen overtuigd klinkt, zit vaak in vier woorden: "Laten we stap voor stap denken."