Zurück zum Blog

KI-Prompts iterativ verbessern: Ein einfaches Testsystem

Hör auf zu raten, warum deine Prompts scheitern. Ein 4-Schritte-Zyklus zum Testen und Verbessern, der wirklich bessere Ergebnisse liefert.

KI-Prompts iterativ verbessern: Ein einfaches Testsystem
Du hast einen Prompt geschrieben. Das Ergebnis war falsch. Also hast du ihn umgeschrieben. Wieder falsch, nur anders falsch. Du hast ein paar Wörter angepasst, neu generiert, etwas Besseres bekommen — und dann den Überblick verloren, was du eigentlich geändert hast. Eine halbe Stunde später bist du wieder am Anfang und weißt nicht mehr, welche Version eigentlich besser war.
Dieser Ansatz nach dem Motto „neu generieren und hoffen" ist der Standard, mit dem die meisten Menschen KI nutzen. Und genau deshalb bleibt der Frust. Laut einer Workday-Studie gehen rund 37 Prozent der Zeit, die Mitarbeitende durch KI sparen, wieder durch Nacharbeit verloren — Fehler korrigieren, Ergebnisse prüfen und Inhalte umschreiben, die das Ziel verfehlt haben.
Der Unterschied zwischen wildem Herumprobieren und systematischem Iterieren liegt nicht im Aufwand, sondern in der Methode. Wenn du testest, bewertest und deine Änderungen dokumentierst, hörst du auf, dieselben Fehler immer wieder zu machen. Du lernst, was für deinen konkreten Anwendungsfall wirklich funktioniert. Und du baust Prompts, die zuverlässig gute Ergebnisse liefern, statt nur ab und zu zufällig ins Schwarze zu treffen.

Warum zufälliges Anpassen nicht funktioniert

Es gibt einen Grund, warum sich Prompt-Iteration oft wie Glücksspiel anfühlt. Wenn du drei Dinge gleichzeitig änderst und das Ergebnis besser wird, weißt du nicht, welche Änderung geholfen hat. Wenn du aus dem Gedächtnis umformulierst, statt Versionen zu vergleichen, erkennst du keine Muster. Wenn du alte Versuche löschst, gehen genau die Daten verloren, die dir verraten würden, was funktioniert.
Eine Studie der MIT Sloan hat gezeigt, dass nur etwa die Hälfte der Leistungsgewinne aus modernen KI-Modellen tatsächlich auf das Modell selbst zurückgeht. Die andere Hälfte kommt daher, wie die Nutzenden ihre Prompts anpassen. Anders gesagt: Deine Prompting-Fähigkeit zählt genauso viel wie die Fähigkeiten der KI.
Aber Können ist keine Magie. Es ist Mustererkennung, die durch strukturierte Praxis entsteht. Du musst sehen, welche Änderungen welche Ergebnisse erzeugen — und dafür brauchst du ein System.

Der 4-Schritte-Zyklus für die Iteration

Effektive Prompt-Iteration folgt einer einfachen Schleife:
  1. Testen — Führe deinen Prompt aus und sichere die vollständige Ausgabe
  2. Bewerten — Vergleiche das Ergebnis mit deinem konkreten Ziel
  3. Verfeinern — Nimm eine gezielte Änderung anhand des erkannten Problems vor
  4. Dokumentieren — Halte fest, was du geändert hast und was passiert ist
Das ist nicht kompliziert. Aber alle vier Schritte konsequent durchzuziehen — vor allem den letzten — trennt die Leute, die kontinuierlich besser werden, von denen, die immer wieder mit denselben Problemen ringen.
Ein kreisförmiges Diagramm mit den vier Schritten der Prompt-Iteration: Testen, Bewerten, Verfeinern, Dokumentieren
Ein kreisförmiges Diagramm mit den vier Schritten der Prompt-Iteration: Testen, Bewerten, Verfeinern, Dokumentieren

Schritt 1: Prompt ausführen und alles erfassen

Starte mit dem Prompt, den du gerade hast. Verlier dich nicht in der ersten Version — du wirst sie sowieso verbessern. Ziel ist eine Basislinie, mit der du später vergleichen kannst.
Wenn du den Prompt ausführst, sichere sowohl den Prompt als auch die komplette Antwort. Nicht nur die guten Stellen. Keine Zusammenfassung. Das gesamte Ergebnis. Du brauchst das vollständige Bild, um Probleme zu diagnostizieren.
Wenn du in ChatGPT oder Claude testest, kopiere den kompletten Austausch in eine Notiz oder ein Dokument, bevor du etwas änderst. Sobald du neu generierst oder bearbeitest, ist das Original weg.

Schritt 2: Bewerte gegen dein tatsächliches Ziel

Hier laufen die meisten Leute in die Falle. Sie schauen sich das Ergebnis an, denken „das ist nicht ganz richtig" — und fangen sofort an umzuschreiben. Diese vage Unzufriedenheit sagt dir aber gar nicht, was du beheben sollst.
Nutze stattdessen das, was ich den Rotstift-Test nenne. Geh die Ausgabe durch und markiere konkrete Probleme:
  • Stimmt der Ton nicht? Wo genau?
  • Fehlen Informationen? Welche genau?
  • Ist es zu lang? Welche Teile sind Füllmaterial?
  • Hat die KI die Aufgabe missverstanden? Inwiefern?
  • Ist das Format falsch? Wie sollte es stattdessen sein?
Schreib deine Bewertung auf. „Zu förmlich in Absatz 2, die Budgetbeschränkung fehlt, irrelevante Hintergründe zur Firmengeschichte enthalten." Jetzt weißt du genau, was du beheben musst.

Schritt 3: Immer nur eine Sache auf einmal ändern

Das ist die Disziplin, die am schwersten durchzuhalten ist — und gleichzeitig die wichtigste. Wenn du mehrere Dinge gleichzeitig änderst, kannst du nicht erkennen, welche Änderung geholfen hat. Forschung zu A/B-Tests zeigt durchgehend, dass es entscheidend ist, eine einzige Variable zu isolieren — wer mehrere Änderungen gleichzeitig testet, kann die Ergebnisse nicht mehr sauber zuordnen.
Such dir das wichtigste Problem aus deiner Bewertung heraus und kümmere dich nur darum. Häufige Eingriffe sind:
  • Kontext ergänzen: Gib der KI Hintergrund, den sie braucht, um deine Situation zu verstehen
  • Vorgaben hinzufügen: Lege Länge, Format, Ton oder Ausschlusskriterien fest
  • Beispiele beifügen: Zeig, wie ein gutes Ergebnis aussieht (das nennt man Few-Shot-Prompting)
  • Aufgabe präzisieren: Schreib unscharfe Anweisungen so um, dass sie konkret werden
  • Rolle zuweisen: Sag der KI, wer sie sein soll (siehe Rollen-Prompting)
Nimm deine eine Änderung vor, lass den Prompt erneut laufen und vergleiche. Hat es geholfen? Hat es ein neues Problem geschaffen? Du wirst es wissen, weil du nur eine Sache geändert hast.

Schritt 4: Dokumentiere, was du geändert hast

Dieser Schritt fühlt sich optional an. Ist er aber nicht. Ohne Dokumentation wiederholst du gescheiterte Experimente, vergisst funktionierende Techniken und verlierst deine besten Prompts in irgendeinem Chatverlauf.
Deine Dokumentation muss nicht aufwendig sein. Ein einfaches Logbuch reicht:
  • Version: v1, v2, v3 …
  • Was geändert wurde: „Wortanzahl-Vorgabe von 200 Wörtern ergänzt"
  • Ergebnis: „Länge jetzt korrekt, aber der locker-gesprächige Ton ist verloren"
  • Behalten oder verwerfen: Vorgabe behalten, als Nächstes den Ton beheben
Mit der Zeit wird daraus dein persönliches Spielbuch. Dir fallen Muster auf — vielleicht helfen Beispiele bei deinen Schreibaufgaben immer, oder ein früh festgelegtes Format führt verlässlich zu besserer Struktur. Diese Erkenntnisse summieren sich.
Wenn du Prompts iterierst, die du immer wieder verwenden wirst, kannst du mit einem Tool wie PromptNest Notizen direkt an jeden Prompt hängen. So hältst du fest, was du probiert hast, was funktioniert hat und warum — ohne ein separates Dokument zu pflegen.

Praxisbeispiel: Iteration eines Meeting-Zusammenfassungs-Prompts

Gehen wir einen echten Iterationszyklus durch. Nehmen wir an, du willst Meeting-Notizen für dein Team in Action Items überführen.
Version 1:

Fasse diese Meeting-Notizen zusammen.

{{meeting_notes}}
Ergebnis: Eine allgemeine Zusammenfassung, die die Action Items in seitenlangen Absätzen vergräbt. Zu lang, und du musst lange suchen, was eigentlich passieren soll.
Bewertung: Es fehlt eine strukturierte Ausgabe. Keine klaren Action Items. Enthält unnötige Wiederholungen.
Änderung: Format-Vorgaben hinzufügen.
Version 2:

Extrahiere die Action Items aus diesen Meeting-Notizen. Formatiere als Aufzählungsliste mit dem Namen der zuständigen Person in eckigen Klammern hinter jedem Punkt.

{{meeting_notes}}
Ergebnis: Saubere Liste mit Action Items und zuständigen Personen. Aber einige Punkte sind vage („sich um die Sache kümmern, über die wir gesprochen haben"), und Fristen fehlen.
Bewertung: Format passt, aber den Punkten fehlt Konkretheit und ein Zeitbezug.
Änderung: Anforderungen an Konkretheit und Fristen ergänzen.
Vorher-Nachher-Vergleich: Aus einem vagen Prompt wird ein konkreter, strukturierter Prompt
Vorher-Nachher-Vergleich: Aus einem vagen Prompt wird ein konkreter, strukturierter Prompt
Version 3:

Extrahiere die Action Items aus diesen Meeting-Notizen.

Nenne für jedes Action Item:
- Was konkret zu tun ist (keine vagen Verweise)
- Wer dafür zuständig ist [in eckigen Klammern]
- Frist, falls genannt, sonst „Keine Frist genannt"

Ist ein Action Item in den Notizen unklar, markiere es mit „[KLÄRUNG NÖTIG]", damit ich nachhaken kann.

{{meeting_notes}}
Ergebnis: Konkrete Action Items, klare Zuständigkeiten, Fristen wo vorhanden, Markierungen bei allem Unklaren. Damit kann man arbeiten.
Drei Iterationen. Jede hat ein konkretes Problem aus der Bewertung adressiert. Der finale Prompt ist deutlich besser als der erste — und du weißt genau, warum.

Wann du aufhören solltest zu iterieren

Iteration hat abnehmenden Grenznutzen. Irgendwann polierst du nur noch etwas, das längst gut genug ist. Hier sind die Anzeichen, dass du aufhören kannst:
Das Ergebnis erfüllt deine Anforderungen. Nicht perfekt — Anforderungen. Wenn es das tut, was du brauchst, dann nutze es.
Änderungen machen es schlechter. Manchmal landest du in einem lokalen Maximum. Wenn deine letzten drei Änderungen alle die Qualität verschlechtert haben, geh zurück zur besten Version und mach Schluss.
Du optimierst auf Randfälle. Wenn der Prompt in 90 Prozent der Fälle funktioniert und du Stunden in die restlichen 10 Prozent steckst, frag dich, ob diese Zeit das wert ist.
Das Problem ist die Aufgabe, nicht der Prompt. Manche Aufgaben sind für aktuelle KI schlicht schwer. Wenn du jeden vernünftigen Ansatz durchhast, liegt es vielleicht daran, dass du die KI um etwas bittest, das sie noch nicht zuverlässig leisten kann.

Bau dir ein System, nicht nur Prompts

Der eigentliche Wert systematischer Iteration liegt nicht in einem einzelnen verbesserten Prompt. Er liegt in der Fähigkeit, die du dabei entwickelst, und in der Bibliothek, die du aufbaust.
Jeder Prompt, den du iterierst, bringt dir etwas darüber bei, wie KI auf Anweisungen reagiert. Mit der Zeit gelingen dir bessere erste Entwürfe, weil du verinnerlicht hast, was funktioniert. Du erkennst typische Fehlermuster sofort. Und du hast eine Sammlung erprobter Prompts, die du für neue Aufgaben anpassen kannst.
Genau diese Sammlung macht den Unterschied. Die besten Prompt-Engineers fangen nicht jedes Mal bei null an — sie pflegen Bibliotheken erprobter Prompts, die sie modifizieren und wiederverwenden. Laut einer Rev.com-Umfrage erhalten Nutzende, die Prompt-Vorschläge hilfreich finden, mit 280 Prozent höherer Wahrscheinlichkeit zufriedenstellende Antworten in unter zwei Minuten als Nutzende, denen die Vorschläge nicht weiterhelfen.
Wenn du Prompts aufbaust, die es wert sind, behalten zu werden, gibt PromptNest ihnen ein richtiges Zuhause — nach Projekt geordnet, durchsuchbar und aus jeder App per Tastenkürzel erreichbar. Du kannst deine iterierten Prompts mit Variablen wie {{meeting_notes}} speichern, die Lücken bei Bedarf füllen und dir den Iterationsprozess komplett sparen, weil du die Arbeit schon einmal gemacht hast.
Fang beim nächsten Prompt mit dem 4-Schritte-Zyklus an. Testen, bewerten, verfeinern, dokumentieren. Am Anfang dauert das ein bisschen länger. Aber jede Stunde, die du in Iteration steckst, sparst du dir vielfach wieder ein, sobald deine Prompts wirklich funktionieren.