Few-shot vs. zero-shot prompting: quan utilitzar cadascun
Una guia pràctica per triar l'enfocament adequat per a la teva tasca, amb exemples per copiar i enganxar i un marc de decisió senzill.
Enganxes un prompt a ChatGPT. El resultat és... acceptable. Però has vist com altres persones obtenen resultats molt millors afegint «exemples» als seus prompts. Hauries de fer-ho tu també? Quants exemples? De fet, importa per a la teva tasca concreta?
Aquestes preguntes apareixen constantment, i la terminologia no ajuda gaire. «Zero-shot», «few-shot», «one-shot»: sonen més a termes de fotografia que no pas a consells pràctics. Aquesta guia deixa de banda l'argot i et dona un marc clar per decidir quin enfocament fer servir, juntament amb prompts complets que pots copiar i provar tu mateix.
Què vol dir realment el prompting zero-shot
El prompting zero-shot vol dir donar una tasca a la IA sense ensenyar-li cap exemple del que vols. Tu descrius el que necessites i el model dedueix com fer-ho a partir del seu entrenament.
Aquí tens un prompt zero-shot per resumir una reunió:
Resumeix les notes de la reunió següents en 3-5 punts que cobreixin les decisions clau preses.
Notes de la reunió:
{{meeting_notes}}
I ja està. Cap exemple de resums «bons», cap mostra d'entrades i sortides. Confies que el model entengui com és un resum i què vol dir «decisions clau». Per a moltes tasques, això funciona sorprenentment bé.
Què vol dir realment el prompting few-shot
El prompting few-shot consisteix a incloure entre 2 i 5 exemples al teu prompt que mostrin el patró que vols que la IA segueixi. Bàsicament estàs dient «així és com vull que ho gestionis» abans de donar-li la tasca real.
Aquí tens la mateixa tasca de resum de reunió, però amb exemples:
Resumeix les notes d'una reunió en 3-5 punts que cobreixin les decisions clau.
Exemple 1:
Entrada: «L'equip ha parlat dels objectius del Q3. La Sara ha proposat augmentar l'objectiu de vendes un 15%. El Marc no hi ha estat d'acord i ha suggerit que un 10% era més realista tenint en compte el pipeline actual. L'equip ha votat i ha acordat un 12%. També s'ha decidit posposar el redisseny del web fins al Q4.»
Sortida:
- Acord d'augmentar l'objectiu de vendes un 12% al Q3 (compromís entre les propostes del 15% i del 10%)
- Redisseny del web posposat al Q4
Exemple 2:
Entrada: «Reunió de revisió pressupostària. La despesa actual supera la previsió en un 8%. El director financer ha recomanat retallar el pressupost de viatges un 50% i congelar les noves contractacions durant 60 dies. El conseller delegat ha aprovat les dues mesures amb efecte immediat.»
Sortida:
- Retallada del 50% del pressupost de viatges (efecte immediat)
- Congelació de contractacions durant 60 dies aprovada
- Resposta a una desviació pressupostària del 8%
Ara resumeix això:
{{meeting_notes}}
Fixa't en la diferència. Els exemples mostren al model exactament quin format vols (punts amb context entre parèntesis), quin nivell de detall ha d'incloure i com gestionar diverses decisions. El model aprèn les teves preferències en context, sense necessitat d'afinament.
Les diferències clau d'un cop d'ull
Així es comparen els dos enfocaments en els factors més importants:
Velocitat: zero-shot és més ràpid. Menys tokens per processar vol dir respostes més ràpides.
Cost: zero-shot és més barat. Pagues per token i els exemples sumen.
Esforç de configuració: zero-shot pràcticament no en demana. Few-shot exigeix trobar o crear bons exemples.
Precisió en tasques senzilles: semblant. Els models moderns gestionen bé peticions directes amb qualsevol dels dos enfocaments.
Precisió en tasques complexes o personalitzades: few-shot sol guanyar. Quan necessites un format específic o terminologia de domini, els exemples marquen una diferència mesurable.
El compromís és clar: zero-shot és més senzill i barat, però few-shot et dona més control sobre la sortida. La pregunta és quan val la pena aquest control extra.
Quan funciona millor el zero-shot
El prompting zero-shot brilla quan la tasca és una cosa que el model ja «coneix» pel seu entrenament. Això inclou:
Preguntes de cultura general: demanar explicacions, definicions o informació factual. El model sap com és una bona explicació.
Pluja d'idees creativa: generar idees, escriure primers esborranys o proposar opcions. Aquí vols varietat, no fidelitat a un patró concret.
Resums estàndard: condensar articles, correus o documents quan no necessites un format específic.
Traducció: convertir text entre llengües amb què el model ha estat entrenat.
Classificació senzilla: ordenar elements en categories habituals (positiu/negatiu, urgent/no urgent) quan les categories s'expliquen soles.
Una bona regla pràctica: si pots descriure el que vols en un llenguatge planer i una persona ho entendria sense veure exemples, segurament el zero-shot funcionarà.
Diagrama de flux que mostra el procés de decisió: comença amb zero-shot, avalua els resultats i afegeix exemples només si cal
Quan val la pena els tokens extra del few-shot
El prompting few-shot es guanya el seu lloc quan la sortida ha de seguir patrons que el model no pot deduir només amb instruccions:
Format personalitzat: quan necessites sortides amb una estructura concreta — JSON amb camps específics, taules amb columnes exactes, llistes amb un estil determinat. Els exemples mostren el format millor del que les descripcions el poden explicar.
Les teves categories de classificació: si classifiques correus de clients en categories com «consulta-de-facturació», «sol·licitud-de-funcionalitat», «informe-d'error» i «consulta-general», veure exemples de cada categoria ajuda el model a entendre les teves definicions.
Coincidència amb el to o la veu de marca: vols que la IA escrigui com el contingut existent de la teva empresa? Mostra-li 2-3 exemples d'aquesta veu. Instruccions com «escriu amb un to professional però proper» són vagues; els exemples són concrets.
Terminologia específica del sector: si la teva indústria fa servir argot o sigles que tenen significats diferents en altres àmbits, els exemples ensenyen al model el teu context.
Casos límit i matisos: detecció de sarcasme, ironia o distincions subtils que despisten els enfocaments zero-shot. La recerca demostra que el prompting few-shot millora notablement la gestió de casos límit de sentiment com la negació o el sarcasme.
Un estudi va trobar que, per a la classificació de sentiment a Twitter, el prompting few-shot amb només 20-50 exemples s'acostava al rendiment de models afinats amb més de 10.000 exemples. Aquesta és la potència de les demostracions ben triades.
Si et trobes construint una biblioteca de prompts few-shot per a tasques diferents, una eina com PromptNest t'ajuda a desar-los amb variables com {{meeting_notes}} ja integrades: omples els espais en blanc en copiar i el prompt complet queda llest per enganxar.
El flux «comença amb zero, escala si cal»
Aquest és l'enfocament pràctic que t'estalvia temps i tokens:
Pas 1: prova primer el zero-shot. Escriu un prompt clar que descrigui el que vols. Sigues específic amb la tasca, però no incloguis exemples encara.
Pas 2: avalua la sortida. Et dona el que necessites? Si sí, ja has acabat. Si no, identifica què falla: és el format? El to? Detalls que falten? Una mala interpretació de la tasca?
Pas 3: afegeix exemples concrets. Crea 2-3 exemples que demostrin específicament allò en què el model ha errat. Si el format no era correcte, mostra el format adequat. Si el to no era el desitjat, mostra el to correcte.
Aquest flux és important perquè no estàs endevinant si necessites exemples: estàs responent a llacunes reals. De vegades, afegir «Pensem-ho pas a pas» a un prompt zero-shot soluciona problemes de raonament sense que calgui cap exemple. La recerca confirma que la cadena de pensament zero-shot sovint supera el few-shot en tasques de raonament.
Quants exemples necessites realment?
La recerca apunta de manera consistent a un punt òptim de 2-5 exemples per a la majoria de tasques. Això és el que mostren les dades:
- Els primers 2-3 exemples aporten el major guany de precisió
- Els rendiments minven ràpidament a partir de 4-5 exemples
- Més exemples poden empitjorar el rendiment introduint patrons contradictoris
- La qualitat dels exemples importa més que la quantitat: tres exemples excel·lents superen deu de mediocres
També hi ha una troballa important sobre l'ordre dels exemples: els estudis mostren que la seqüència dels exemples afecta els resultats, i de vegades l'ordre òptim marca la diferència entre un bon rendiment i un de pobre. Si el teu prompt few-shot no acaba de funcionar, prova de reordenar els exemples abans d'afegir-ne més.
Il·lustració que mostra com s'afegeixen targetes d'exemple a un prompt, amb rendiments decreixents després dels primers
Per a la majoria de casos, comença amb 2 exemples. Si la precisió no és la que necessites, afegeix-ne un tercer que cobreixi una variació diferent. Rarament en necessitaràs més de 4.
Cadena de pensament: el terme mig per al raonament
Hi ha una tercera opció que va especialment bé per a problemes de matemàtiques, lògica i diversos passos: el prompting de cadena de pensament. En lloc de mostrar exemples d'entrada-sortida, demanes al model que «pensi pas a pas».
La cadena de pensament zero-shot té aquest aspecte:
Una botiga té 45 pomes. Al matí en venen 12 i reben un enviament de 30 pomes més. Després, a la tarda, en venen 18. Quantes pomes tenen al tancament?
Resolguem-ho pas a pas.
Aquesta frase tan senzilla — «Resolguem-ho pas a pas» — fa que el model mostri el seu raonament en lloc de saltar directament a la resposta. Per a raonaments complexos, sovint supera tant el zero-shot com el few-shot.
Una recerca recent d'arXiv ha trobat que, en models potents com GPT-4 i Claude, la cadena de pensament zero-shot supera amb freqüència el prompting few-shot en tasques de raonament. Els exemples poden arribar a limitar el pensament del model en lloc d'ajudar-lo.
Fes servir la cadena de pensament quan:
La tasca requereix diversos passos lògics
Necessites que el model expliqui el seu raonament (útil per detectar errors)
Hi ha matemàtiques, lògica de codi o problemes analítics implicats
Vols verificar l'enfocament del model, no només la resposta
Exemples complets de prompts que pots copiar
Vegem els tres enfocaments costat a costat per a tasques reals. Tots els prompts s'han provat amb GPT-4 i Claude i estan llestos per fer-se servir.
Tasca 1: classificació del to d'un correu
Versió zero-shot:
Classifica el to d'aquest correu de client com a: frustrat, satisfet, neutre o urgent.
Correu:
{{email_text}}
To:
Versió few-shot (millor per a casos límit):
Classifica el to d'un correu de client com a: frustrat, satisfet, neutre o urgent.
Correu: «Fa 3 setmanes que espero la comanda. Això és ridícul. Vull el reemborsament ARA.»
To: frustrat
Correu: «Només volia donar-vos les gràcies: el producte ha arribat abans d'hora i funciona molt bé!»
To: satisfet
Correu: «Hola, em podeu confirmar que la meva comanda s'ha enviat? Comanda #12345.»
To: neutre
Correu: «El nostre sistema està caigut i necessitem la peça de recanvi AVUI o perdrem el contracte.»
To: urgent
Correu: {{email_text}}
To:
La versió few-shot ajuda el model a entendre les teves definicions concretes. Distingir «urgent» de «frustrat» pot ser ambigu; els exemples deixen clares les teves fronteres.
Tasca 2: reescriptura de descripcions de producte
Versió zero-shot:
Reescriu aquesta descripció de producte perquè sigui més atractiva i centrada en els beneficis. Mantén-la per sota de 100 paraules.
Original: {{product_description}}
Versió reescrita:
Versió few-shot (millor per a la consistència de la veu de marca):
Reescriu descripcions de producte perquè siguin atractives i centrades en els beneficis. Imita aquest estil:
Original: «Ampolla d'aigua d'acer inoxidable. Capacitat de 24 oz. Manté les begudes fredes durant 24 hores.»
Reescrita: «Mantén-te hidratat tot el dia amb la nostra elegant ampolla d'acer de 24 oz. El cafè del matí es manté calent durant el trajecte. L'aigua de la tarda es manté ben fresca al gimnàs. Una ampolla, possibilitats infinites.»
Original: «Auriculars sense fils. 8 hores de bateria. Cancel·lació de soroll.»
Reescrita: «Vuit hores dels teus podcasts preferits, sense interrupcions. Els nostres auriculars sense fils bloquegen el soroll perquè et puguis concentrar en el que importa: ja sigui un treball profund, la teva playlist d'entrenament o, per fi, acabar aquell audiollibre.»
Original: {{product_description}}
Reescrita:
La versió few-shot ensenya un estil de redacció concret: orientat als beneficis, conversacional i amb casos d'ús específics. El zero-shot et donaria una reescriptura, però no necessàriament la teva veu.
Tasca 3: estructuració d'informes d'errors
Versió zero-shot:
Converteix aquest informe d'error en un format estructurat amb: Resum, Passos per reproduir-ho, Comportament esperat i Comportament real.
Informe d'error: {{bug_report}}
Versió few-shot (millor per a un format consistent):
Converteix informes d'error en format estructurat.
Entrada: «L'aplicació es bloqueja quan intento pujar un PDF. Estava al tauler, he clicat a pujar, he seleccionat un PDF de 5 MB i s'ha tancat tot. Hauria de mostrar el fitxer als meus arxius pujats, però en lloc d'això tota l'aplicació es mor.»
Sortida:
**Resum:** L'aplicació es bloqueja en pujar fitxers PDF
**Passos per reproduir-ho:**
1. Anar al tauler
2. Clicar el botó de pujar
3. Seleccionar un fitxer PDF (provat amb un fitxer de 5 MB)
**Esperat:** El fitxer apareix a la secció de pujats
**Real:** L'aplicació es bloqueja o es tanca de manera inesperada
---
Entrada: {{bug_report}}
Sortida:
Per a la documentació tècnica, la consistència importa. La versió few-shot garanteix que cada informe d'error segueixi la mateixa estructura amb el mateix nivell de detall.
Marc de decisió ràpid
Quan tinguis una tasca nova al davant, repassa aquestes preguntes:
1. És una tasca directa i ben definida? → Comença amb zero-shot
2. Necessites un format específic que el model potser no encertarà? → Fes servir few-shot
3. La tasca implica raonament en diversos passos? → Prova primer la cadena de pensament zero-shot
4. Necessites una veu de marca o terminologia de domini coherents? → Fes servir few-shot amb exemples en aquesta veu
5. El zero-shot t'ha donat el 80% del que necessites? → Queda-t'hi. La perfecció no val 3 vegades més tokens.
L'objectiu no és fer servir la tècnica més sofisticada, sinó obtenir bons resultats de manera eficient. El zero-shot és la opció per defecte. Afegeix complexitat només quan els enfocaments més senzills es queden curts.
Posar-ho en pràctica
La millor manera d'interioritzar tot això és experimentar. Agafa una tasca que facis sovint — resumir informes, redactar correus, categoritzar comentaris — i prova els dos enfocaments. Fixa't en què falla el zero-shot. Fixa't en què marca una diferència real el few-shot.
Quan trobis prompts que funcionen, desa'ls en algun lloc on els puguis tornar a localitzar. Si estàs construint una col·lecció de prompts amb exemples i variables, PromptNest és una aplicació nativa per a Mac ($19.99 d'un sol pagament al Mac App Store, sense subscripció, sense compte, funciona en local) que els manté organitzats, cercables i accessibles amb una drecera de teclat des de qualsevol aplicació. Prou de buscar entre notes escampades aquell prompt few-shot perfecte que vas escriure fa tres setmanes.
Comença simple. Afegeix complexitat quan calgui. Desa allò que funciona. Aquesta és tota l'estratègia.