Few-shot vs zero-shot : quand utiliser chaque approche
Un guide pratique pour choisir la bonne technique de prompting, avec des exemples prêts à copier et un cadre de décision simple.
Vous collez un prompt dans ChatGPT. Le résultat est… correct. Mais vous avez vu d'autres personnes obtenir des réponses nettement meilleures en ajoutant des « exemples » à leurs prompts. Faut-il faire pareil ? Combien d'exemples ? Et est-ce que ça change vraiment quelque chose pour votre tâche précise ?
Ces questions reviennent sans cesse, et le vocabulaire n'aide pas. « Zero-shot », « few-shot », « one-shot » — on dirait des termes de photographie, pas des conseils pratiques. Ce guide met de côté le jargon et vous propose un cadre clair pour choisir l'approche qui convient, ainsi que des prompts complets que vous pouvez copier et tester par vous-même.
Ce que signifie vraiment le zero-shot prompting
Le zero-shot prompting consiste à donner une tâche à l'IA sans lui montrer aucun exemple du résultat attendu. Vous décrivez ce dont vous avez besoin, et le modèle se débrouille à partir de ce qu'il a appris pendant son entraînement.
Voici un prompt zero-shot pour résumer une réunion :
Résumez les notes de réunion suivantes en 3 à 5 puces couvrant les principales décisions prises.
Notes de réunion :
{{meeting_notes}}
C'est tout. Aucun exemple de « bon » résumé, aucun couple entrée/sortie. Vous faites confiance au modèle pour savoir à quoi ressemble un résumé et ce que veut dire « principales décisions ». Pour beaucoup de tâches, ça fonctionne étonnamment bien.
Ce que signifie vraiment le few-shot prompting
Le few-shot prompting consiste à inclure 2 à 5 exemples dans le prompt qui démontrent le schéma à suivre. Vous dites en substance « voilà comment je veux que tu traites ce genre de cas » avant de poser la vraie tâche.
Voici la même tâche de résumé de réunion, mais avec des exemples :
Résumez les notes de réunion en 3 à 5 puces couvrant les décisions clés.
Exemple 1 :
Entrée : « L'équipe a discuté des objectifs du T3. Sarah a proposé d'augmenter l'objectif commercial de 15 %. Mark n'était pas d'accord, il jugeait 10 % plus réaliste vu le pipeline actuel. L'équipe a voté et s'est accordée sur 12 %. Il a aussi été décidé de reporter la refonte du site web au T4. »
Sortie :
- Augmentation de 12 % de l'objectif commercial du T3 (compromis entre les propositions à 15 % et 10 %)
- Refonte du site web reportée au T4
Exemple 2 :
Entrée : « Réunion de revue budgétaire. Les dépenses actuelles dépassent les prévisions de 8 %. Le directeur financier a recommandé de réduire le budget voyages de 50 % et de geler les nouvelles embauches pendant 60 jours. Le PDG a validé les deux mesures avec effet immédiat. »
Sortie :
- Budget voyages réduit de 50 % (effet immédiat)
- Gel des embauches pendant 60 jours
- Réponse à un dépassement budgétaire de 8 %
Maintenant, résumez ceci :
{{meeting_notes}}
Notez la différence. Les exemples montrent au modèle exactement le format attendu (puces avec contexte entre parenthèses), le niveau de détail à inclure et la façon de traiter plusieurs décisions. Le modèle apprend vos préférences en contexte — pas besoin de fine-tuning.
Les différences clés en un coup d'œil
Voici comment se comparent les deux approches sur les critères qui comptent le plus :
Vitesse : le zero-shot est plus rapide. Moins de tokens à traiter, donc des réponses plus rapides.
Coût : le zero-shot est moins cher. Vous payez au token, et les exemples s'additionnent.
Effort de mise en place : quasi nul en zero-shot. Le few-shot demande de trouver ou rédiger de bons exemples.
Précision sur les tâches simples : à peu près équivalente. Les modèles récents gèrent bien les demandes directes dans les deux cas.
Précision sur les tâches complexes ou sur mesure : le few-shot l'emporte presque toujours. Quand il faut un format précis ou un vocabulaire métier, les exemples font une vraie différence.
Le compromis est limpide : le zero-shot est plus simple et moins cher, le few-shot vous donne plus de contrôle sur la sortie. Toute la question est de savoir quand ce contrôle supplémentaire en vaut la peine.
Quand le zero-shot fonctionne le mieux
Le zero-shot brille quand la tâche est quelque chose que le modèle « connaît » déjà grâce à son entraînement. Cela inclut :
Les questions de culture générale : demander des explications, des définitions ou des informations factuelles. Le modèle sait à quoi ressemble une bonne explication.
Le brainstorming créatif : générer des idées, écrire un premier jet ou proposer des options. Ici, vous voulez de la variété, pas le respect strict d'un schéma.
Le résumé classique : condenser des articles, des e-mails ou des documents quand vous n'avez pas besoin d'un format précis.
La traduction : convertir un texte entre des langues sur lesquelles le modèle a été entraîné.
La classification simple : ranger des éléments dans des catégories courantes (positif/négatif, urgent/non urgent) quand les catégories parlent d'elles-mêmes.
Une bonne règle empirique : si vous pouvez décrire ce que vous voulez en langage clair et qu'un humain comprendrait sans voir d'exemples, le zero-shot fera probablement l'affaire.
Schéma de décision : commencer par le zero-shot, évaluer le résultat, ajouter des exemples uniquement si nécessaire
Quand le few-shot vaut les tokens supplémentaires
Le few-shot prompting prend tout son sens quand la sortie doit suivre des schémas que le modèle ne peut pas deviner à partir des seules instructions :
Le formatage sur mesure : quand il vous faut une structure précise — du JSON avec des champs particuliers, des tableaux avec des colonnes exactes, des puces dans un certain style. Les exemples montrent le format mieux que les descriptions ne l'expliquent.
Vos catégories de classification : si vous triez des e-mails clients dans des catégories comme « question-facturation », « demande-fonctionnalité », « bug » et « demande-générale », montrer un exemple de chacune aide le modèle à comprendre vos définitions.
Le ton et la voix de marque : vous voulez que l'IA écrive comme le contenu existant de votre entreprise ? Montrez-lui 2 à 3 exemples de cette voix. Une consigne du type « écris sur un ton professionnel mais chaleureux » est vague ; les exemples sont concrets.
Le vocabulaire métier : si votre secteur utilise du jargon ou des abréviations qui ont un autre sens ailleurs, les exemples apprennent au modèle votre contexte.
Les cas limites et la nuance : détection du sarcasme, ironie ou distinctions subtiles qui font trébucher les approches zero-shot. Des recherches montrent que le few-shot améliore nettement le traitement des cas limites en analyse de sentiment comme la négation ou le sarcasme.
Une étude a montré que pour la classification de sentiments sur Twitter, un prompt few-shot avec seulement 20 à 50 exemples se rapprochait des performances de modèles fine-tunés sur plus de 10 000 exemples. C'est toute la puissance de démonstrations bien choisies.
Si vous vous retrouvez à constituer une bibliothèque de prompts few-shot pour différentes tâches, un outil comme PromptNest vous permet de les enregistrer avec des variables comme {{meeting_notes}} déjà intégrées — vous remplissez les blancs au moment de copier, et le prompt complet est prêt à coller.
La méthode « commence en zero-shot, monte en gamme si besoin »
Voici l'approche pragmatique qui fait gagner du temps et économise des tokens :
Étape 1 : essayez le zero-shot d'abord. Rédigez un prompt clair décrivant ce que vous voulez. Soyez précis sur la tâche, mais n'incluez pas encore d'exemples.
Étape 2 : évaluez la sortie. Est-ce qu'elle vous donne ce qu'il vous faut ? Si oui, c'est terminé. Sinon, identifiez ce qui cloche — le format ? Le ton ? Des détails manquants ? Un contresens complet sur la tâche ?
Étape 3 : ajoutez des exemples ciblés. Créez 2 à 3 exemples qui montrent précisément ce que le modèle a raté. Si le format n'allait pas, montrez le bon format. Si le ton était mauvais, montrez le bon ton.
Cette méthode compte parce que vous ne devinez pas si vous avez besoin d'exemples — vous répondez à des écarts réels. Parfois, il suffit d'ajouter « Procédons étape par étape » à un prompt zero-shot pour résoudre des problèmes de raisonnement, sans aucun exemple. Des recherches confirment que le chain-of-thought zero-shot bat souvent le few-shot sur les tâches de raisonnement.
Combien d'exemples vous faut-il vraiment ?
Les recherches pointent toujours vers un même point d'équilibre : 2 à 5 exemples pour la plupart des tâches. Voici ce que disent les données :
- Les 2 ou 3 premiers exemples apportent le plus gros gain de précision
- Les rendements diminuent fortement au-delà de 4 ou 5 exemples
- Trop d'exemples peuvent même dégrader les performances en introduisant des schémas contradictoires
- La qualité des exemples compte plus que le nombre — trois excellents exemples valent mieux que dix moyens
Il y a aussi un constat important sur l'ordre des exemples : des études montrent que la séquence des exemples influe sur les résultats, et qu'un ordre optimal peut faire la différence entre une bonne et une mauvaise performance. Si votre prompt few-shot ne donne pas satisfaction, essayez de réorganiser les exemples avant d'en ajouter d'autres.
Illustration montrant des cartes d'exemples ajoutées à un prompt, avec des rendements décroissants au-delà des premières
Pour la majorité des cas d'usage, commencez avec 2 exemples. Si la précision n'est pas au rendez-vous, ajoutez-en un troisième qui couvre une variation différente. Vous aurez rarement besoin de dépasser 4.
Chain-of-thought : le juste milieu pour le raisonnement
Il existe une troisième option, particulièrement efficace pour les maths, la logique et les problèmes en plusieurs étapes : le chain-of-thought prompting. Au lieu de montrer des paires entrée/sortie, vous demandez au modèle de « réfléchir étape par étape ».
Un chain-of-thought zero-shot ressemble à ceci :
Un magasin a 45 pommes. Il en vend 12 le matin et reçoit une livraison de 30 pommes supplémentaires. Puis il en vend 18 l'après-midi. Combien de pommes lui reste-t-il à la fermeture ?
Résolvons ce problème étape par étape.
Cette simple phrase — « Résolvons ce problème étape par étape » — incite le modèle à dérouler son raisonnement plutôt qu'à sauter directement à la réponse. Pour du raisonnement complexe, ça bat souvent à la fois le zero-shot et le few-shot.
Une étude récente sur arXiv a montré que pour des modèles puissants comme GPT-4 et Claude, le chain-of-thought zero-shot dépasse fréquemment le few-shot sur les tâches de raisonnement. Les exemples peuvent en fait restreindre la pensée du modèle au lieu de l'aider.
Utilisez le chain-of-thought quand :
La tâche demande plusieurs étapes logiques
Vous avez besoin que le modèle explicite son raisonnement (utile pour repérer les erreurs)
Il s'agit de maths, de logique de code ou de problèmes analytiques
Vous voulez vérifier la démarche du modèle, pas seulement sa réponse
Exemples de prompts complets, prêts à copier
Voyons les trois approches côte à côte sur des tâches concrètes. Tous les prompts ont été testés avec GPT-4 et Claude et sont prêts à l'emploi.
Tâche 1 : classification du ton d'un e-mail
Version zero-shot :
Classez le ton de cet e-mail client parmi : frustré, satisfait, neutre ou urgent.
E-mail :
{{email_text}}
Ton :
Version few-shot (meilleure pour les cas limites) :
Classez le ton des e-mails clients parmi : frustré, satisfait, neutre ou urgent.
E-mail : « J'attends ma commande depuis 3 semaines. C'est ridicule. Je veux un remboursement, MAINTENANT. »
Ton : frustré
E-mail : « Je voulais juste vous remercier — le produit est arrivé en avance et il fonctionne très bien ! »
Ton : satisfait
E-mail : « Bonjour, pouvez-vous confirmer que ma commande a été expédiée ? Commande n° 12345. »
Ton : neutre
E-mail : « Notre système est en panne, il nous faut la pièce de rechange AUJOURD'HUI ou nous perdons le contrat. »
Ton : urgent
E-mail : {{email_text}}
Ton :
La version few-shot aide le modèle à saisir vos définitions précises. Distinguer « urgent » de « frustré » peut être ambigu — les exemples rendent vos limites claires.
Tâche 2 : réécriture d'une description produit
Version zero-shot :
Réécrivez cette description produit pour la rendre plus engageante et axée sur les bénéfices. Restez sous les 100 mots.
Original : {{product_description}}
Version réécrite :
Version few-shot (meilleure pour la cohérence de la voix de marque) :
Réécrivez les descriptions produit pour les rendre engageantes et axées sur les bénéfices. Reproduisez ce style :
Original : « Bouteille d'eau en acier inoxydable. Capacité 24 oz. Garde les boissons fraîches pendant 24 heures. »
Réécrit : « Restez hydraté toute la journée avec notre bouteille en acier élégante de 24 oz. Votre café du matin reste chaud pendant le trajet. Votre eau de l'après-midi reste glacée à la salle de sport. Une seule bouteille, mille usages. »
Original : « Écouteurs sans fil. Autonomie de 8 heures. Réduction de bruit. »
Réécrit : « Huit heures de vos podcasts préférés, sans interruption. Nos écouteurs sans fil coupent le bruit pour que vous puissiez vous concentrer sur l'essentiel — un travail de fond, votre playlist sportive ou ce livre audio que vous voulez enfin terminer. »
Original : {{product_description}}
Réécrit :
La version few-shot enseigne un style de copywriting précis — orienté bénéfices, conversationnel, ancré dans des cas d'usage concrets. Le zero-shot vous donnerait une réécriture, mais pas forcément votre voix.
Tâche 3 : structuration d'un rapport de bug
Version zero-shot :
Convertissez ce rapport de bug en un format structuré avec : Résumé, Étapes pour reproduire, Comportement attendu et Comportement observé.
Rapport de bug : {{bug_report}}
Version few-shot (meilleure pour un formatage cohérent) :
Convertissez les rapports de bug en format structuré.
Entrée : « L'application plante quand j'essaie d'uploader un PDF. J'étais sur le tableau de bord, j'ai cliqué sur Upload, sélectionné un PDF de 5 Mo, et elle s'est juste fermée. Le fichier devrait apparaître dans mes uploads, au lieu de ça toute l'appli meurt. »
Sortie :
**Résumé :** L'application plante lors de l'upload d'un fichier PDF
**Étapes pour reproduire :**
1. Aller sur le tableau de bord
2. Cliquer sur le bouton Upload
3. Sélectionner un fichier PDF (testé avec un fichier de 5 Mo)
**Attendu :** Le fichier apparaît dans la section uploads
**Observé :** L'application plante / se ferme de manière inattendue
---
Entrée : {{bug_report}}
Sortie :
Pour la documentation technique, la cohérence est essentielle. La version few-shot garantit que chaque rapport de bug suit la même structure avec le même niveau de détail.
Cadre de décision rapide
Face à une nouvelle tâche, passez en revue ces questions :
1. La tâche est-elle simple et bien définie ? → Commencez en zero-shot
2. Vous faut-il un format précis que le modèle pourrait ne pas deviner ? → Passez au few-shot
3. La tâche implique-t-elle un raisonnement en plusieurs étapes ? → Essayez d'abord le chain-of-thought zero-shot
4. Avez-vous besoin d'une voix de marque ou d'un vocabulaire métier cohérents ? → Utilisez le few-shot avec des exemples dans cette voix
5. Le zero-shot vous a déjà donné 80 % de ce qu'il vous faut ? → Gardez-le. La perfection ne vaut pas trois fois plus de tokens.
L'objectif n'est pas d'utiliser la technique la plus sophistiquée, c'est d'obtenir de bons résultats efficacement. Le zero-shot est la valeur par défaut. N'ajoutez de la complexité que lorsque les approches plus simples montrent leurs limites.
Passer à la pratique
La meilleure façon d'intégrer tout ça, c'est d'expérimenter. Prenez une tâche que vous faites régulièrement — résumer des rapports, rédiger des e-mails, classer des retours utilisateurs — et essayez les deux approches. Voyez où le zero-shot atteint ses limites. Voyez où le few-shot fait une vraie différence.
Une fois que vous avez trouvé des prompts qui fonctionnent, rangez-les là où vous saurez les retrouver. Si vous constituez une collection de prompts avec des exemples et des variables, PromptNest est une application native pour Mac (19,99 $ en achat unique sur le Mac App Store, sans abonnement, sans compte, fonctionne en local) qui les garde organisés, cherchables et accessibles via un raccourci clavier depuis n'importe quelle application. Fini de fouiller dans des notes éparpillées pour retrouver ce prompt few-shot parfait que vous aviez écrit il y a trois semaines.
Commencez simple. Ajoutez de la complexité quand c'est nécessaire. Conservez ce qui marche. Voilà toute la stratégie.