Tilbage til blog

Sådan itererer du på AI-prompts: et enkelt testsystem

Stop med at gætte på, hvorfor dine prompts fejler. En 4-trins-cyklus til at teste og forbedre prompts, der faktisk giver bedre resultater.

Sådan itererer du på AI-prompts: et enkelt testsystem
Du skrev en prompt. Resultatet var forkert. Så du skrev den om. Stadig forkert, bare på en anden måde. Du justerede et par ord, genererede igen, fik noget tættere på — og mistede så overblikket over, hvad du havde ændret. En halv time senere er du tilbage ved start og aner ikke, hvilken version der egentlig var bedst.
Denne "generér igen og håb"-tilgang er den måde, de fleste bruger AI på. Og det er derfor, de fleste forbliver frustrerede. Ifølge research fra Workday går omkring 37 % af den tid, medarbejdere sparer med AI, tabt på efterarbejde — at rette fejl, verificere output og omskrive indhold, der ramte forbi.
Forskellen mellem tilfældige justeringer og systematisk iteration handler ikke om indsats — det handler om metode. Når du tester, evaluerer og dokumenterer dine ændringer, holder du op med at gentage de samme fejl. Du lærer, hvad der faktisk virker for netop dit brugstilfælde. Og du bygger prompts, der pålideligt giver gode resultater i stedet for kun ind imellem at ramme rigtigt.

Hvorfor tilfældige justeringer ikke virker

Der er en grund til, at promptiteration føles som hasardspil. Når du ændrer tre ting på én gang, og resultatet bliver bedre, ved du ikke, hvilken ændring der hjalp. Når du skriver om fra hukommelsen i stedet for at sammenligne versioner, kan du ikke få øje på mønstrene. Når du sletter dine gamle forsøg, mister du de data, der ville fortælle dig, hvad der virker.
Forskning fra MIT Sloan viste, at kun halvdelen af de præstationsgevinster, avancerede AI-modeller giver, kommer fra modellen selv. Den anden halvdel kommer fra, hvordan brugerne tilpasser deres prompts. Med andre ord betyder dine evner som prompter lige så meget som AI'ens kapaciteter.
Men evner er ikke magi. Det er mønstergenkendelse opbygget gennem struktureret øvelse. Du skal kunne se, hvilke ændringer der giver hvilke resultater — og det kræver et system.

Iterationscyklussen i 4 trin

Effektiv promptiteration følger en simpel sløjfe:
  1. Test — Kør din prompt og gem hele outputtet
  2. Evaluér — Sammenlign resultatet med dit konkrete mål
  3. Forfin — Lav én målrettet ændring ud fra det, der er galt
  4. Dokumentér — Notér, hvad du ændrede, og hvad der skete
Det er ikke kompliceret. Men det er at gøre alle fire trin — især det sidste — der adskiller dem, der bliver støt bedre, fra dem, der bliver ved med at kæmpe med de samme problemer.
Et cirkulært diagram, der viser de fire trin i promptiteration: Test, Evaluér, Forfin, Dokumentér
Et cirkulært diagram, der viser de fire trin i promptiteration: Test, Evaluér, Forfin, Dokumentér

Trin 1: Kør din prompt og gem alt

Begynd med den prompt, du har. Tænk ikke for meget over den første version — du skal alligevel forbedre den. Målet er at få et udgangspunkt, du kan måle op imod.
Når du kører prompten, skal du gemme både prompten og det fulde svar. Ikke kun de gode dele. Ikke et resumé. Det hele. Du har brug for det fulde billede for at kunne diagnosticere problemerne.
Hvis du tester i ChatGPT eller Claude, så kopiér hele udvekslingen ind i en note eller et dokument, før du laver ændringer. Når du genererer igen eller redigerer, er originalen væk.

Trin 2: Evaluér op mod dit egentlige mål

Det er her, de fleste går galt i byen. De ser på outputtet og tænker "det er ikke helt rigtigt" — og går straks i gang med at skrive om. Den vage utilfredshed fortæller dig ikke, hvad du skal rette.
Brug i stedet det, jeg kalder Rødblyantstesten. Gå outputtet igennem og marker konkrete problemer:
  • Er tonen forkert? Hvor præcist?
  • Mangler der information? Hvad helt konkret?
  • Er det for langt? Hvilke dele er fyld?
  • Misforstod den opgaven? Hvordan?
  • Er formatet forkert? Hvad burde det være i stedet?
Skriv din evaluering ned. "For formel i afsnit 2, mangler budgetbegrænsningen, indeholdt irrelevant baggrund om virksomhedens historie." Nu ved du præcis, hvad du skal rette.

Trin 3: Lav kun én ændring ad gangen

Det er den sværeste disciplin at holde fast i og samtidig den vigtigste. Når du ændrer flere ting på én gang, kan du ikke lære, hvilken ændring der virkede. Forskning i A/B-test viser konsekvent, at det at isolere én variabel er afgørende — at teste flere ændringer samtidig gør det umuligt at tilskrive resultaterne.
Vælg det vigtigste problem fra din evaluering, og tag kun fat på det. Almindelige rettelser omfatter:
  • Tilføj kontekst: Giv den baggrund, AI'en har brug for at forstå din situation
  • Tilføj begrænsninger: Angiv længde, format, tone eller hvad der skal udelades
  • Tilføj eksempler: Vis, hvordan et godt output ser ud (det kaldes few-shot prompting)
  • Præcisér opgaven: Skriv vage instruktioner om, så de bliver konkrete
  • Tildel en rolle: Fortæl AI'en, hvem den skal være (se rolleprompting)
Lav din ene ændring, kør prompten igen, og sammenlign. Hjalp det? Skabte det et nyt problem? Det vil du kunne se, fordi du kun ændrede én ting.

Trin 4: Dokumentér, hvad du ændrede

Det her trin føles valgfrit. Det er det ikke. Uden dokumentation gentager du fejlede eksperimenter, glemmer succesfulde teknikker og mister dine bedste prompts i chathistorikken.
Din dokumentation behøver ikke være kompliceret. En simpel log virker:
  • Version: v1, v2, v3...
  • Hvad blev ændret: "Tilføjede en længdebegrænsning på 200 ord"
  • Resultat: "Output har nu rigtig længde, men tabte den samtaleagtige tone"
  • Behold eller forkast: Behold begrænsningen, ret tonen næste gang
Med tiden bliver loggen din personlige drejebog. Du vil opdage mønstre — måske hjælper eksempler altid på dine skriveopgaver, eller måske giver det bedre struktur at angive formatet tidligt. De indsigter hober sig op.
Hvis du itererer på prompts, du vil bruge igen og igen, kan et værktøj som PromptNest lade dig knytte noter direkte til hver enkelt prompt. Du kan holde styr på, hvad du har prøvet, hvad der virkede, og hvorfor — uden at skulle vedligeholde et separat dokument.

Konkret eksempel: iteration på en mødereferatprompt

Lad os gennemgå en rigtig iterationscyklus. Sig, du skal opsummere mødenoter til handlingspunkter for dit team.
Version 1:

Summarize these meeting notes.

{{meeting_notes}}
Resultat: Et generelt resumé, der begraver handlingspunkterne i lange afsnit med kontekst. For langt, og du skal lede efter, hvad der faktisk skal ske.
Evaluering: Mangler struktureret output. Ingen klare handlingspunkter. Indeholder unødvendigt resumé.
Ændring: Tilføj formatbegrænsninger.
Version 2:

Extract action items from these meeting notes. Format as a bulleted list with the owner's name in brackets after each item.

{{meeting_notes}}
Resultat: En ren punktopstilling med handlingspunkter og ejere. Men nogle punkter er vage ("følg op på det, vi talte om"), og deadlines mangler.
Evaluering: Godt format, men punkterne mangler konkretion og tidsangivelse.
Ændring: Tilføj krav om konkretion og deadlines.
Før-og-efter-sammenligning, der viser en vag prompt forvandlet til en konkret, struktureret prompt
Før-og-efter-sammenligning, der viser en vag prompt forvandlet til en konkret, struktureret prompt
Version 3:

Extract action items from these meeting notes.

For each action item, include:
- What specifically needs to be done (not vague references)
- Who owns it [in brackets]
- Deadline if mentioned, or "No deadline specified"

If an action item is unclear in the notes, flag it with "[NEEDS CLARIFICATION]" so I can follow up.

{{meeting_notes}}
Resultat: Konkrete handlingspunkter, klare ejere, deadlines hvor de findes, og flag på alt tvetydigt. Det her kan bruges.
Tre iterationer. Hver enkelt tog fat på et konkret problem fra evalueringen. Den endelige prompt er markant bedre end den første — og du ved præcis hvorfor.

Hvornår skal du stoppe med at iterere

Iteration har aftagende udbytte. På et tidspunkt polerer du noget, der allerede er godt nok. Her er tegn på, at du bør stoppe:
Outputtet opfylder dine krav. Ikke perfekt — krav. Hvis det gør det, du har brug for, så send det af sted.
Ændringerne gør det værre. Nogle gange rammer du et lokalt maksimum. Hvis dine sidste tre ændringer alle har forringet kvaliteten, så rul tilbage til din bedste version og kald det færdigt.
Du optimerer på særtilfælde. Hvis prompten virker 90 % af tiden, og du bruger timer på de sidste 10 %, så overvej, om den tid er det værd.
Problemet er opgaven, ikke prompten. Nogle opgaver er ganske enkelt svære for nuværende AI. Hvis du har prøvet alle rimelige tilgange, kan problemet være, at du beder AI'en om noget, den endnu ikke kan løse pålideligt.

Byg dit system, ikke kun dine prompts

Den rigtige værdi af systematisk iteration er ikke en enkelt forbedret prompt. Det er den evne, du udvikler, og det bibliotek, du opbygger.
Hver prompt, du itererer på, lærer dig noget om, hvordan AI reagerer på instruktioner. Med tiden begynder du at få bedre førsteudkast, fordi du har internaliseret, hvad der virker. Du genkender almindelige fejlmønstre med det samme. Du får en samling af afprøvede prompts, som du kan tilpasse til nye opgaver.
Den samling betyder noget. De bedste promptengineers starter ikke fra bunden hver gang — de vedligeholder biblioteker af afprøvede prompts, de kan ændre og genbruge. Ifølge en undersøgelse fra Rev.com har brugere, der finder promptforslag nyttige, 280 % større sandsynlighed for at få tilfredsstillende svar på under to minutter sammenlignet med dem, der ikke gør.
Hvis du opbygger prompts, der er værd at gemme, giver PromptNest dem et ordentligt hjem — organiseret efter projekt, søgbare og tilgængelige med en tastaturgenvej fra enhver app. Du kan gemme dine itererede prompts med variabler som {{meeting_notes}} indbygget, udfylde de tomme felter, når du har brug for dem, og helt springe iterationsprocessen over, fordi du allerede har gjort arbejdet.
Start med 4-trins-cyklussen på din næste prompt. Test, evaluér, forfin, dokumentér. Det tager lidt længere tid i starten. Men hver time, du investerer i iteration, er en time, du sparer — mange gange — når dine prompts faktisk virker.