Retour au blog

Comment itérer sur ses prompts IA : un système de test simple

Arrête de deviner pourquoi tes prompts échouent. Un cycle en 4 étapes pour tester et améliorer tes prompts et obtenir vraiment de meilleurs résultats.

Comment itérer sur ses prompts IA : un système de test simple
Tu as écrit un prompt. La sortie était fausse. Alors tu l'as réécrit. Toujours faux, mais autrement faux. Tu as ajusté quelques mots, relancé, obtenu quelque chose de plus proche — puis tu as perdu le fil de ce que tu avais changé. Trente minutes plus tard, te voilà revenu à la case départ, sans savoir laquelle des versions était réellement la meilleure.
Cette approche « relancer et croiser les doigts » est la façon dont la plupart des gens utilisent l'IA. Et c'est pour ça que la plupart restent frustrés. D'après une étude Workday, environ 37 % du temps que les employés gagnent grâce à l'IA est perdu dans les retouches : corriger des erreurs, vérifier les sorties et réécrire des contenus à côté de la plaque.
Ce qui sépare le bricolage aléatoire de l'itération systématique, ce n'est pas l'effort, c'est la méthode. Quand tu testes, évalues et documentes tes changements, tu cesses de répéter les mêmes erreurs. Tu apprends ce qui marche réellement pour ton cas d'usage. Et tu construis des prompts qui produisent de bons résultats de façon fiable, au lieu de tomber dessus par hasard de temps en temps.

Pourquoi le bricolage aléatoire ne marche pas

Il y a une raison pour laquelle l'itération sur un prompt ressemble à un pari. Quand tu changes trois choses d'un coup et que la sortie s'améliore, tu ne sais pas quel changement a aidé. Quand tu réécris de mémoire au lieu de comparer les versions, tu ne peux pas repérer les schémas. Quand tu effaces tes anciennes tentatives, tu perds les données qui te diraient ce qui marche.
Une recherche du MIT Sloan a montré que seule la moitié des gains de performance des modèles d'IA avancés vient du modèle lui-même. L'autre moitié vient de la façon dont les utilisateurs adaptent leurs prompts. Autrement dit, ta compétence en prompting compte autant que les capacités de l'IA.
Mais cette compétence, ce n'est pas de la magie. C'est une reconnaissance de schémas qui se construit par une pratique structurée. Tu as besoin de voir quels changements produisent quels résultats — et donc d'un système.

Le cycle d'itération en 4 étapes

Une itération efficace de prompt suit une boucle simple :
  1. Tester — Lance ton prompt et capture la sortie complète
  2. Évaluer — Compare le résultat à ton objectif précis
  3. Affiner — Fais un seul changement ciblé en fonction de ce qui cloche
  4. Documenter — Note ce que tu as changé et ce qui s'est passé
Ce n'est pas compliqué. Mais faire les quatre étapes — surtout la dernière — c'est ce qui sépare ceux qui progressent régulièrement de ceux qui se débattent toujours avec les mêmes problèmes.
Schéma circulaire montrant les quatre étapes de l'itération de prompt : Tester, Évaluer, Affiner, Documenter
Schéma circulaire montrant les quatre étapes de l'itération de prompt : Tester, Évaluer, Affiner, Documenter

Étape 1 : lance ton prompt et capture tout

Pars du prompt que tu as, quel qu'il soit. Ne t'embête pas trop avec la première version — tu vas l'améliorer de toute façon. L'objectif, c'est d'obtenir une base de référence à laquelle te comparer.
Quand tu lances le prompt, sauvegarde à la fois le prompt et la réponse complète. Pas seulement les bons passages. Pas un résumé. L'intégralité. Tu as besoin de la vue d'ensemble pour diagnostiquer les problèmes.
Si tu testes dans ChatGPT ou Claude, copie tout l'échange dans une note ou un document avant de modifier quoi que ce soit. Une fois que tu relances ou édites, l'original est perdu.

Étape 2 : évalue par rapport à ton vrai objectif

C'est là que la plupart des gens se plantent. Ils regardent la sortie, se disent « ce n'est pas tout à fait ça » — et se mettent aussitôt à réécrire. Ce vague mécontentement ne te dit pas quoi corriger.
À la place, utilise ce que j'appelle le test du stylo rouge. Passe en revue la sortie et marque les problèmes précis :
  • Le ton est-il mauvais ? Où exactement ?
  • Manque-t-il des informations ? Lesquelles précisément ?
  • C'est trop long ? Quelles parties sont du remplissage ?
  • Le modèle a-t-il mal compris la tâche ? Comment ?
  • Le format est-il mauvais ? Quel devrait-il être ?
Note ton évaluation. « Trop formel au paragraphe 2, contrainte de budget oubliée, contexte inutile sur l'historique de l'entreprise. » Maintenant, tu sais exactement quoi corriger.

Étape 3 : un seul changement à la fois

C'est la discipline la plus difficile à tenir, et la plus importante. Quand tu changes plusieurs choses d'un coup, tu ne peux pas savoir lequel des changements a fonctionné. Les recherches en A/B testing montrent systématiquement qu'isoler une seule variable est crucial — tester plusieurs changements en même temps rend impossible l'attribution des résultats.
Choisis le problème le plus important de ton évaluation et ne traite que celui-là. Les corrections courantes :
  • Ajouter du contexte : donner à l'IA les informations dont elle a besoin pour comprendre ta situation
  • Ajouter des contraintes : préciser la longueur, le format, le ton ou ce qu'il faut exclure
  • Ajouter des exemples : montrer à quoi ressemble une bonne sortie (c'est ce qu'on appelle le few-shot prompting)
  • Clarifier la tâche : reformuler les instructions vagues pour qu'elles soient précises
  • Attribuer un rôle : dire à l'IA qui elle est censée être (voir le role prompting)
Fais ton changement unique, relance le prompt et compare. Est-ce que ça a aidé ? Est-ce que ça a créé un nouveau problème ? Tu le sauras, parce que tu n'as changé qu'une seule chose.

Étape 4 : documente ce que tu as changé

Cette étape paraît facultative. Elle ne l'est pas. Sans documentation, tu vas refaire des essais qui ont échoué, oublier les techniques qui ont marché et perdre tes meilleurs prompts dans l'historique de chat.
Ta documentation n'a pas besoin d'être élaborée. Un simple journal suffit :
  • Version : v1, v2, v3...
  • Ce qui a changé : « Ajout d'une contrainte de 200 mots »
  • Résultat : « Longueur correcte mais le ton conversationnel est perdu »
  • À garder ou jeter : on garde la contrainte, on corrige le ton ensuite
Avec le temps, ce journal devient ton playbook personnel. Tu remarqueras des schémas — peut-être qu'ajouter des exemples aide toujours pour tes tâches d'écriture, ou que préciser le format dès le début donne une meilleure structure. Ces enseignements se cumulent.
Si tu itères sur des prompts que tu vas réutiliser, un outil comme PromptNest te permet d'attacher des notes directement à chaque prompt. Tu peux suivre ce que tu as essayé, ce qui a marché et pourquoi — sans avoir à tenir un document à part.

Exemple concret : itérer sur un prompt de compte rendu de réunion

Déroulons un vrai cycle d'itération. Imagine que tu dois transformer des notes de réunion en actions à mener pour ton équipe.
Version 1 :

Summarize these meeting notes.

{{meeting_notes}}
Résultat : un résumé général qui noie les actions au milieu de paragraphes de contexte. Trop long, et il faut chercher ce qui doit vraiment être fait.
Évaluation : sortie non structurée. Pas d'actions claires. Récapitulatif inutile.
Changement : ajouter des contraintes de format.
Version 2 :

Extract action items from these meeting notes. Format as a bulleted list with the owner's name in brackets after each item.

{{meeting_notes}}
Résultat : une liste à puces propre des actions avec leurs responsables. Mais certains éléments restent vagues (« revenir sur ce qu'on s'est dit ») et les échéances manquent.
Évaluation : bon format, mais les éléments manquent de précision et de timing.
Changement : exiger plus de précision et des échéances.
Comparaison avant/après montrant un prompt vague transformé en un prompt précis et structuré
Comparaison avant/après montrant un prompt vague transformé en un prompt précis et structuré
Version 3 :

Extract action items from these meeting notes.

For each action item, include:
- What specifically needs to be done (not vague references)
- Who owns it [in brackets]
- Deadline if mentioned, or "No deadline specified"

If an action item is unclear in the notes, flag it with "[NEEDS CLARIFICATION]" so I can follow up.

{{meeting_notes}}
Résultat : des actions précises, des responsables clairs, des échéances quand elles sont disponibles, et un signalement sur tout ce qui est ambigu. C'est utilisable.
Trois itérations. Chacune a réglé un problème précis identifié à l'évaluation. Le prompt final est nettement meilleur que le premier — et tu sais exactement pourquoi.

Quand arrêter d'itérer

L'itération a des rendements décroissants. À un moment, tu polis quelque chose qui est déjà assez bon. Voici les signes qui montrent qu'il est temps d'arrêter :
La sortie répond à ton cahier des charges. Pas parfaite — conforme aux exigences. Si elle fait ce dont tu as besoin, livre-la.
Tes changements dégradent le résultat. Parfois tu butes sur un maximum local. Si tes trois derniers changements ont tous fait baisser la qualité, reviens à ta meilleure version et considère que c'est terminé.
Tu optimises pour des cas marginaux. Si le prompt marche 90 % du temps et que tu passes des heures sur les 10 % restants, demande-toi si ça en vaut la peine.
Le problème vient de la tâche, pas du prompt. Certaines tâches sont vraiment difficiles pour l'IA actuelle. Si tu as essayé toutes les approches raisonnables, le souci est peut-être que tu demandes à l'IA quelque chose qu'elle ne sait pas encore faire de façon fiable.

Construis ton système, pas juste tes prompts

La vraie valeur de l'itération systématique, ce n'est pas un prompt amélioré ici ou là. C'est la compétence que tu développes et la bibliothèque que tu construis.
Chaque prompt sur lequel tu itères t'apprend quelque chose sur la façon dont l'IA réagit aux instructions. Avec le temps, tes premiers jets seront déjà meilleurs parce que tu auras intériorisé ce qui marche. Tu repéreras tout de suite les schémas d'échec courants. Et tu auras une collection de prompts éprouvés à adapter pour de nouvelles tâches.
Cette collection compte. Les meilleurs prompt engineers ne repartent pas de zéro à chaque fois — ils entretiennent des bibliothèques de prompts testés qu'ils peuvent modifier et réutiliser. D'après un sondage Rev.com, les utilisateurs qui trouvent les suggestions de prompts utiles ont 280 % de chances en plus d'obtenir une réponse satisfaisante en moins de deux minutes par rapport à ceux qui ne les utilisent pas.
Si tu accumules des prompts qui valent le coup d'être gardés, PromptNest leur offre un vrai foyer : organisés par projet, cherchables, et accessibles depuis n'importe quelle app via un raccourci clavier. Tu peux y enregistrer tes prompts itérés avec des variables comme {{meeting_notes}} intégrées, remplir les blancs au besoin, et zapper l'étape d'itération parce que le travail est déjà fait.
Lance-toi avec le cycle en 4 étapes sur ton prochain prompt. Tester, évaluer, affiner, documenter. Ça prend un peu plus de temps au départ. Mais chaque heure investie dans l'itération, c'est une heure que tu vas récupérer — bien des fois — quand tes prompts feront enfin leur job.