Hoe je AI-prompts itereert: een eenvoudig testsysteem
Stop met gokken waarom je prompts falen. Een cyclus van 4 stappen om prompts te testen en te verbeteren — met écht betere resultaten.
Je schreef een prompt. De output klopte niet. Dus herschreef je hem. Nog steeds fout, maar op een andere manier. Je paste een paar woorden aan, genereerde opnieuw, kreeg iets wat dichter in de buurt kwam — en raakte vervolgens het overzicht kwijt over wat je had veranderd. Een halfuur later sta je weer bij af, zonder te weten welke versie eigenlijk beter was.
Deze "opnieuw genereren en hopen"-aanpak is hoe de meeste mensen AI gebruiken. En het is precies waarom de meeste mensen gefrustreerd blijven. Volgens onderzoek van Workday gaat ongeveer 37% van de tijd die werknemers met AI besparen weer verloren aan herwerk — fouten corrigeren, output verifiëren en content herschrijven die de plank missloeg.
Het verschil tussen lukraak schaven en systematisch itereren zit niet in moeite — het zit in methode. Wanneer je je wijzigingen test, beoordeelt en vastlegt, stop je met dezelfde fouten herhalen. Je leert wat écht werkt voor jouw specifieke situatie. En je bouwt prompts die betrouwbaar goede resultaten leveren in plaats van er af en toe per ongeluk eentje raak te schieten.
Waarom lukraak schaven niet werkt
Er is een reden waarom prompt-iteratie aanvoelt als gokken. Als je drie dingen tegelijk verandert en de output verbetert, weet je niet welke verandering hielp. Als je uit je hoofd herschrijft in plaats van versies te vergelijken, zie je geen patronen. En als je je oude pogingen weggooit, verlies je precies de data die je zou vertellen wat werkt.
Onderzoek van MIT Sloan liet zien dat slechts de helft van de prestatiewinst van geavanceerde AI-modellen uit het model zelf komt. De andere helft komt van hoe gebruikers hun prompts aanpassen. Met andere woorden: jouw prompt-vaardigheid is net zo belangrijk als wat de AI kan.
Maar vaardigheid is geen toverij. Het is patroonherkenning, opgebouwd door gestructureerd oefenen. Je moet kunnen zien welke veranderingen welke resultaten opleveren — en daarvoor heb je een systeem nodig.
De iteratiecyclus in 4 stappen
Effectieve prompt-iteratie volgt een eenvoudige loop:
Test — Draai je prompt en leg de volledige output vast
Evalueer — Vergelijk het resultaat met je specifieke doel
Verfijn — Maak één gerichte aanpassing op basis van wat er fout is
Documenteer — Noteer wat je hebt veranderd en wat het opleverde
Niet ingewikkeld. Maar alle vier de stappen daadwerkelijk doen — vooral die laatste — is wat het verschil maakt tussen mensen die gestaag beter worden en mensen die met dezelfde problemen blijven worstelen.
Een cirkeldiagram met de vier stappen van prompt-iteratie: testen, evalueren, verfijnen, documenteren
Stap 1: Draai je prompt en leg alles vast
Begin met de prompt die je hebt. Pieker niet te lang over de eerste versie — je gaat hem toch verbeteren. Het doel is een nulmeting waar je tegenaan kunt vergelijken.
Sla bij elke uitvoering zowel de prompt als het volledige antwoord op. Niet alleen de goede stukjes. Geen samenvatting. Het hele ding. Je hebt het complete beeld nodig om problemen te kunnen diagnosticeren.
Test je in ChatGPT of Claude? Kopieer dan de hele uitwisseling naar een notitie of document voordat je iets verandert. Zodra je opnieuw genereert of bewerkt, is het origineel weg.
Stap 2: Evalueer tegen je werkelijke doel
Hier gaan de meeste mensen onderuit. Ze kijken naar de output, denken "dit klopt niet helemaal" — en beginnen meteen te herschrijven. Die vage onvrede vertelt je niet wat je moet repareren.
Gebruik in plaats daarvan wat ik de Rode Pen-test noem. Loop de output door en markeer concrete problemen:
Klopt de toon niet? Waar precies?
Mist er informatie? Wat dan?
Is het te lang? Welke stukken zijn opvulling?
Heeft het de taak verkeerd begrepen? Hoe?
Is het format fout? Wat had het moeten zijn?
Schrijf je beoordeling op. "Te formeel in alinea 2, budgetbeperking ontbreekt, irrelevante achtergrond over de bedrijfsgeschiedenis erbij gezet." Nu weet je precies wat er moet gebeuren.
Stap 3: Verander één ding tegelijk
Dit is de moeilijkste discipline om vol te houden, en de belangrijkste. Verander je meerdere dingen tegelijk, dan kun je niet leren welke aanpassing werkte. A/B-testonderzoek laat steevast zien dat één variabele isoleren cruciaal is — meerdere wijzigingen tegelijk testen maakt het onmogelijk om resultaten toe te schrijven.
Pak het belangrijkste probleem uit je evaluatie en pak alleen dát aan. Veelvoorkomende oplossingen:
Voeg context toe: geef de AI de achtergrond die nodig is om jouw situatie te begrijpen
Voeg beperkingen toe: geef lengte, format, toon op of wat juist níet mee mag
Voeg voorbeelden toe: laat zien hoe goede output eruitziet (dat heet few-shot prompting)
Verduidelijk de taak: herschrijf vage instructies zodat ze specifiek worden
Geef een rol: vertel de AI wie hij moet zijn (zie role prompting)
Maak die ene aanpassing, draai de prompt opnieuw en vergelijk. Hielp het? Of leverde het juist een nieuw probleem op? Dat weet je, want je hebt maar één ding veranderd.
Stap 4: Documenteer wat je hebt veranderd
Deze stap voelt optioneel. Dat is hij niet. Zonder documentatie herhaal je mislukte experimenten, vergeet je succesvolle technieken en raak je je beste prompts kwijt in je chatgeschiedenis.
Je documentatie hoeft niet uitgebreid te zijn. Een eenvoudig logboek volstaat:
Versie: v1, v2, v3...
Wat veranderd: "Maximaal 200 woorden als beperking toegevoegd"
Resultaat: "Output nu de juiste lengte, maar de gespreksachtige toon is weg"
Houden of weg: Beperking houden, toon volgende keer aanpakken
Op den duur wordt dit logboek je persoonlijke playbook. Je gaat patronen zien — misschien helpen voorbeelden altijd bij schrijftaken, of levert format vroeg vastleggen consistent betere structuur op. Die inzichten stapelen op.
Itereer je op prompts die je vaker gaat gebruiken? Dan kun je met een tool als PromptNest notities direct aan elke prompt koppelen. Je houdt bij wat je hebt geprobeerd, wat werkte en waarom — zonder een apart document bij te houden.
Praktijkvoorbeeld: een prompt voor vergadernotulen verbeteren
Laten we een echte iteratiecyclus doorlopen. Stel: je wilt vergadernotulen samenvatten tot actiepunten voor je team.
Versie 1:
Vat deze vergadernotulen samen.
{{meeting_notes}}
Resultaat: een algemene samenvatting waarin de actiepunten verstopt zitten in alinea's vol context. Te lang, en je moet zoeken naar wat er nu eigenlijk moet gebeuren.
Evaluatie: geen gestructureerde output. Geen heldere actiepunten. Onnodige samenvatting erbij.
Aanpassing: formaatbeperkingen toevoegen.
Versie 2:
Haal de actiepunten uit deze vergadernotulen. Geef ze als opsomming met de naam van de eigenaar tussen vierkante haken achter elk punt.
{{meeting_notes}}
Resultaat: een nette opsomming van actiepunten met eigenaren. Maar sommige punten zijn vaag ("opvolgen op dat ene dat we bespraken") en deadlines ontbreken.
Evaluatie: goed format, maar de punten missen specificiteit en timing.
Aanpassing: eisen aan specificiteit en deadlines toevoegen.
Voor- en na-vergelijking waarin een vage prompt wordt omgezet naar een specifieke, gestructureerde prompt
Versie 3:
Haal de actiepunten uit deze vergadernotulen.
Vermeld voor elk actiepunt:
- Wat er specifiek gedaan moet worden (geen vage verwijzingen)
- Wie het oppakt [tussen vierkante haken]
- De deadline indien genoemd, of "Geen deadline opgegeven"
Als een actiepunt onduidelijk is in de notulen, markeer het dan met "[VERDUIDELIJKING NODIG]" zodat ik het kan opvolgen.
{{meeting_notes}}
Resultaat: specifieke actiepunten, duidelijke eigenaren, deadlines waar beschikbaar en markeringen op alles wat onduidelijk is. Dit is bruikbaar.
Drie iteraties. Elke iteratie pakte een specifiek probleem aan dat in de evaluatie naar boven kwam. De uiteindelijke prompt is enorm veel beter dan de eerste — en je weet precies waarom.
Wanneer stop je met itereren?
Iteratie heeft een afnemend rendement. Op een gegeven moment ben je iets aan het oppoetsen wat al goed genoeg is. Tekenen dat je moet stoppen:
De output voldoet aan je eisen. Niet perfect — eisen. Doet het wat je nodig hebt, dan is het klaar.
Je aanpassingen maken het slechter. Soms zit je vast op een lokaal maximum. Hebben je laatste drie wijzigingen alledrie de kwaliteit omlaag gehaald? Rol terug naar je beste versie en noem het af.
Je optimaliseert voor uitzonderingsgevallen. Werkt de prompt 90% van de tijd en ben je uren bezig met de overgebleven 10%? Vraag je dan af of die tijd het waard is.
Het probleem zit in de taak, niet in de prompt. Sommige taken zijn voor de huidige AI gewoon lastig. Heb je elke redelijke aanpak geprobeerd? Dan vraag je de AI misschien iets wat hij nog niet betrouwbaar kan.
Bouw je systeem, niet alleen je prompts
De echte waarde van systematisch itereren zit niet in één verbeterde prompt. Het zit in de vaardigheid die je opbouwt en de bibliotheek die je aanlegt.
Elke prompt die je doorloopt leert je iets over hoe AI op instructies reageert. Mettertijd krijg je betere eerste versies, omdat je hebt geïnternaliseerd wat werkt. Je herkent veelvoorkomende faalpatronen meteen. En je hebt een collectie bewezen prompts die je voor nieuwe taken kunt aanpassen.
Die collectie doet ertoe. De beste prompt engineers beginnen niet elke keer opnieuw — ze onderhouden bibliotheken van geteste prompts die ze kunnen aanpassen en hergebruiken. Volgens een enquête van Rev.com hebben gebruikers die promptsuggesties nuttig vinden 280% meer kans om binnen twee minuten een bevredigend antwoord te krijgen, vergeleken met gebruikers die dat niet doen.
Bouw je een verzameling prompts op die het bewaren waard zijn? Dan geeft PromptNest ze een fatsoenlijk thuis — geordend per project, doorzoekbaar en oproepbaar met een sneltoets vanuit elke app. Je kunt je geïtereerde prompts opslaan met variabelen zoals {{meeting_notes}} ingebouwd, ze invullen wanneer je ze nodig hebt, en het hele iteratieproces overslaan — omdat je het werk al hebt gedaan.
Begin de 4-stappencyclus bij je volgende prompt. Test, evalueer, verfijn, documenteer. Het kost in het begin iets meer tijd. Maar elk uur dat je in iteratie steekt, krijg je vele malen terug — zodra je prompts daadwerkelijk werken.