Înapoi la blog

Few-shot vs. zero-shot prompting: când să folosești fiecare metodă

Un ghid practic pentru a alege abordarea potrivită de prompting în funcție de sarcină, cu exemple gata de copiat și un cadru simplu de decizie.

Few-shot vs. zero-shot prompting: când să folosești fiecare metodă
Lipești un prompt în ChatGPT. Răspunsul este... acceptabil. Dar ai văzut că alții obțin rezultate mult mai bune adăugând „exemple” în prompturile lor. Ar trebui să faci și tu asta? Câte exemple? Chiar contează pentru sarcina ta?
Aceste întrebări apar tot timpul, iar terminologia nu ajută deloc. „Zero-shot”, „few-shot”, „one-shot” — sună ca termeni de fotografie, nu a îndrumare practică. Acest ghid lasă jargonul deoparte și îți oferă un cadru clar pentru a decide ce abordare să folosești, plus prompturi complete pe care le poți copia și testa singur.

Ce înseamnă, de fapt, zero-shot prompting

Zero-shot prompting înseamnă să-i dai modelului AI o sarcină fără să-i arăți niciun exemplu de ce vrei să obții. Descrii ce ai nevoie, iar modelul își dă seama cum să o facă pe baza datelor pe care a fost antrenat.
Iată un prompt zero-shot pentru a rezuma o ședință:

Summarize the following meeting notes into 3-5 bullet points covering the key decisions made.

Meeting notes:
{{meeting_notes}}
Atât. Niciun exemplu de rezumat „bun”, niciun input și output de probă. Te bazezi pe model să înțeleagă cum arată un rezumat și ce înseamnă „decizii-cheie”. Pentru multe sarcini, asta funcționează surprinzător de bine.

Ce înseamnă, de fapt, few-shot prompting

Few-shot prompting înseamnă să incluzi 2-5 exemple în prompt care demonstrează tiparul pe care vrei să-l urmeze modelul. Practic îi spui „uite cum vreau să procedezi” înainte de a-i da sarcina propriu-zisă.
Iată aceeași sarcină de rezumat al ședinței, dar cu exemple:

Summarize meeting notes into 3-5 bullet points covering key decisions.

Example 1:
Input: "Team discussed Q3 targets. Sarah proposed increasing the sales goal by 15%. Mark disagreed, suggested 10% was more realistic given current pipeline. Team voted and agreed on 12%. Also decided to postpone the website redesign until Q4."
Output:
- Agreed on 12% sales goal increase for Q3 (compromise between 15% and 10% proposals)
- Postponed website redesign to Q4

Example 2:
Input: "Budget review meeting. Current spending is 8% over forecast. CFO recommended cutting travel budget by 50% and freezing new hires for 60 days. CEO approved both measures effective immediately."
Output:
- Cut travel budget by 50% (effective immediately)
- 60-day hiring freeze approved
- Response to 8% budget overrun

Now summarize this:
{{meeting_notes}}
Observă diferența. Exemplele îi arată modelului exact ce format vrei (puncte cu context între paranteze), ce nivel de detaliu să includă și cum să trateze mai multe decizii deodată. Modelul învață preferințele tale în context — fără niciun fine-tuning.

Diferențele-cheie pe scurt

Iată cum se compară cele două abordări la criteriile care contează cel mai mult:
  • Viteză: Zero-shot este mai rapid. Mai puține tokenuri de procesat înseamnă răspunsuri mai prompte.
  • Cost: Zero-shot este mai ieftin. Plătești la token, iar exemplele se adună.
  • Efort de pregătire: Zero-shot aproape că nu cere nimic. Few-shot presupune să găsești sau să creezi exemple bune.
  • Acuratețe pe sarcini simple: Aproximativ aceeași. Modelele moderne se descurcă bine cu cereri directe în ambele variante.
  • Acuratețe pe sarcini complexe sau personalizate: Few-shot câștigă de obicei. Când ai nevoie de un format precis sau de terminologie de specialitate, exemplele aduc o diferență măsurabilă.
Compromisul este clar: zero-shot este mai simplu și mai ieftin, dar few-shot îți oferă mai mult control asupra rezultatului. Întrebarea este când merită acest control suplimentar.

Când funcționează cel mai bine zero-shot

Zero-shot prompting strălucește atunci când sarcina este ceva ce modelul deja „înțelege” din antrenament. Asta include:
Întrebări de cultură generală: Cereri de explicații, definiții sau informații factuale. Modelul știe cum arată o explicație bună.

Brainstorming creativ: Generarea de idei, scrierea unor prime ciorne sau găsirea de variante. Aici vrei diversitate, nu fidelitate față de un tipar precis.

Rezumat standard: Condensarea articolelor, e-mailurilor sau documentelor când nu ai nevoie de un format anume.

Traducere: Conversia textului între limbi pe care modelul le-a învățat.

Clasificare simplă: Sortarea elementelor în categorii uzuale (pozitiv/negativ, urgent/nu urgent), când categoriile se înțeleg de la sine.
O regulă bună: dacă poți descrie ce vrei în limbaj simplu și un om ar înțelege fără să vadă exemple, probabil zero-shot va funcționa.
Diagramă a procesului de decizie: începe cu zero-shot, evaluează rezultatele, adaugă exemple doar dacă este nevoie
Diagramă a procesului de decizie: începe cu zero-shot, evaluează rezultatele, adaugă exemple doar dacă este nevoie

Când few-shot merită tokenurile în plus

Few-shot prompting își justifică efortul atunci când rezultatul trebuie să respecte tipare pe care modelul nu le poate deduce doar din instrucțiuni:
Formatare personalizată: Când ai nevoie de output într-o structură anume — JSON cu anumite câmpuri, tabele cu coloane exacte, liste cu un anumit stil. Exemplele arată formatul mai bine decât îl pot descrie cuvintele.

Categoriile tale de clasificare: Dacă sortezi e-mailurile clienților în categorii precum „billing-question”, „feature-request”, „bug-report” și „general-inquiry”, exemplele pentru fiecare îl ajută pe model să-ți înțeleagă definițiile.

Vocea sau tonul brandului: Vrei ca AI-ul să scrie ca textele existente ale companiei tale? Arată-i 2-3 exemple în acea voce. Instrucțiuni de tipul „scrie pe un ton profesionist, dar prietenos” sunt vagi; exemplele sunt concrete.

Terminologie de domeniu: Dacă industria ta folosește jargon sau abrevieri care au alte înțelesuri în alte contexte, exemplele îl învață pe model contextul tău.

Cazuri-limită și nuanțe: Detectarea sarcasmului, a ironiei sau a unor distincții fine pe care zero-shot le ratează adesea. Studiile arată că few-shot prompting îmbunătățește semnificativ tratarea cazurilor-limită de sentiment, precum negația și sarcasmul.
Un studiu a arătat că, pentru clasificarea sentimentelor pe Twitter, few-shot prompting cu doar 20-50 de exemple s-a apropiat de performanța modelelor antrenate fin pe peste 10.000 de exemple. Asta este puterea unor demonstrații bine alese.
Dacă observi că-ți construiești o bibliotecă de prompturi few-shot pentru sarcini diferite, un instrument precum PromptNest te ajută să le salvezi cu variabile precum {{meeting_notes}} deja integrate — completezi spațiile la copiere și ai promptul complet, gata de lipit.

Fluxul „pornește de la zero, urcă dacă e nevoie”

Iată abordarea practică ce economisește atât timp, cât și tokenuri:
Pasul 1: Încearcă mai întâi zero-shot. Scrie un prompt clar care descrie ce vrei. Fii precis privind sarcina, dar nu adăuga încă exemple.

Pasul 2: Evaluează rezultatul. Îți dă ce ai nevoie? Dacă da, ai terminat. Dacă nu, identifică ce e în neregulă — formatul? Tonul? Lipsesc detalii? Sau modelul a înțeles greșit complet sarcina?

Pasul 3: Adaugă exemple țintite. Creează 2-3 exemple care să demonstreze exact lucrul pe care modelul l-a greșit. Dacă formatul a fost prost, arată-i formatul corect. Dacă tonul a fost greșit, arată-i tonul potrivit.
Acest flux contează pentru că nu ghicești dacă ai nevoie de exemple — răspunzi unor lipsuri reale. Uneori, adăugarea expresiei „Hai să gândim pas cu pas” într-un prompt zero-shot rezolvă problemele de raționament fără a fi nevoie de niciun exemplu. Cercetările confirmă că zero-shot chain-of-thought depășește adesea few-shot pentru sarcini de raționament.

De câte exemple ai nevoie cu adevărat?

Cercetările indică în mod constant un punct optim de 2-5 exemple pentru majoritatea sarcinilor. Iată ce arată datele:
- Primele 2-3 exemple aduc cea mai mare creștere a acurateții - Câștigurile scad brusc după 4-5 exemple - Mai multe exemple pot chiar afecta performanța, introducând tipare contradictorii - Calitatea exemplelor contează mai mult decât cantitatea — trei exemple excelente bat zece mediocre
Există și o constatare importantă despre ordinea exemplelor: studiile arată că secvența exemplelor influențează rezultatele, iar ordonarea optimă face uneori diferența între o performanță bună și una slabă. Dacă promptul tău few-shot nu funcționează bine, încearcă să schimbi ordinea exemplelor înainte să adaugi altele.
Ilustrație care arată cum se adaugă exemple unui prompt, cu randamente descrescătoare după primele câteva
Ilustrație care arată cum se adaugă exemple unui prompt, cu randamente descrescătoare după primele câteva
Pentru majoritatea cazurilor, începe cu 2 exemple. Dacă acuratețea nu este unde îți trebuie, adaugă un al treilea care acoperă o variație diferită. Rareori vei avea nevoie de mai mult de 4.

Chain-of-thought: calea de mijloc pentru raționament

Există și o a treia opțiune care funcționează deosebit de bine la matematică, logică și probleme cu mai mulți pași: chain-of-thought prompting. În loc să arăți exemple de input-output, îi ceri modelului să „gândească pas cu pas”.
Zero-shot chain-of-thought arată cam așa:

A store has 45 apples. They sell 12 in the morning and receive a shipment of 30 more. Then they sell 18 in the afternoon. How many apples do they have at closing?

Let's work through this step by step.
Această frază simplă — „Let's work through this step by step” — îl determină pe model să-și expună raționamentul în loc să sară direct la răspuns. Pentru raționamente complexe, asta depășește adesea atât abordările zero-shot, cât și pe cele few-shot.
O cercetare recentă publicată pe arXiv a constatat că, pentru modele puternice precum GPT-4 și Claude, zero-shot chain-of-thought depășește frecvent few-shot prompting la sarcinile de raționament. Exemplele pot, de fapt, să îngrădească gândirea modelului, în loc să o sprijine.
Folosește chain-of-thought când:
  • Sarcina cere mai mulți pași logici
  • Ai nevoie ca modelul să-și explice raționamentul (util pentru a depista erori)
  • Implică matematică, logică de cod sau probleme analitice
  • Vrei să verifici abordarea modelului, nu doar răspunsul

Exemple complete de prompturi pe care le poți copia

Hai să vedem cele trei abordări una lângă alta, pe sarcini reale. Toate prompturile sunt testate cu GPT-4 și Claude și gata de folosit.

Sarcina 1: Clasificarea tonului unui e-mail

Versiunea zero-shot:

Classify the tone of this customer email as: frustrated, satisfied, neutral, or urgent.

Email:
{{email_text}}

Tone:
Versiunea few-shot (mai bună pentru cazuri-limită):

Classify customer email tone as: frustrated, satisfied, neutral, or urgent.

Email: "I've been waiting 3 weeks for my order. This is ridiculous. I want a refund NOW."
Tone: frustrated

Email: "Just wanted to say thanks — the product arrived early and works great!"
Tone: satisfied

Email: "Hi, can you confirm my order shipped? Order #12345."
Tone: neutral

Email: "Our system is down and we need the replacement part TODAY or we lose the contract."
Tone: urgent

Email: {{email_text}}
Tone:
Versiunea few-shot îl ajută pe model să înțeleagă definițiile tale concrete. „Urgent” și „frustrated” pot fi ambigue — exemplele îți clarifică limitele.

Sarcina 2: Rescrierea unei descrieri de produs

Versiunea zero-shot:

Rewrite this product description to be more engaging and benefit-focused. Keep it under 100 words.

Original: {{product_description}}

Rewritten version:
Versiunea few-shot (mai bună pentru consecvența vocii brandului):

Rewrite product descriptions to be engaging and benefit-focused. Match this style:

Original: "Stainless steel water bottle. 24oz capacity. Keeps drinks cold for 24 hours."
Rewritten: "Stay hydrated all day with our sleek 24oz steel bottle. Your morning coffee stays hot through your commute. Your afternoon water stays ice-cold at the gym. One bottle, endless possibilities."

Original: "Wireless earbuds. 8-hour battery. Noise cancelling."
Rewritten: "Eight hours of your favorite podcasts, uninterrupted. Our wireless earbuds block out the noise so you can focus on what matters — whether that's deep work, your workout playlist, or finally finishing that audiobook."

Original: {{product_description}}
Rewritten:
Versiunea few-shot îl învață pe model un stil concret de copywriting — orientat pe beneficii, conversațional, cu cazuri de utilizare specifice. Zero-shot îți va da o rescriere, dar nu neapărat vocea ta.

Sarcina 3: Structurarea unui raport de bug

Versiunea zero-shot:

Convert this bug report into a structured format with: Summary, Steps to Reproduce, Expected Behavior, and Actual Behavior.

Bug report: {{bug_report}}
Versiunea few-shot (mai bună pentru formatare consecventă):

Convert bug reports into structured format.

Input: "The app crashes when I try to upload a PDF. I was on the dashboard, clicked upload, selected a 5MB PDF, and it just closed. Should show the file in my uploads but instead the whole app dies."

Output:
**Summary:** App crashes when uploading PDF files
**Steps to Reproduce:**
1. Navigate to dashboard
2. Click upload button
3. Select a PDF file (tested with 5MB file)
**Expected:** File appears in uploads section
**Actual:** Application crashes/closes unexpectedly

---

Input: {{bug_report}}

Output:
Pentru documentația tehnică, consecvența contează. Versiunea few-shot asigură că fiecare raport de bug urmează aceeași structură, cu același nivel de detaliu.

Cadru rapid de decizie

Când te uiți la o sarcină nouă, parcurge aceste întrebări:
1. Sarcina este directă și bine definită? → Pornește cu zero-shot 2. Ai nevoie de un format anume pe care modelul s-ar putea să nu-l ghicească? → Folosește few-shot 3. Sarcina implică raționament în mai mulți pași? → Încearcă mai întâi zero-shot chain-of-thought 4. Ai nevoie de o voce de brand sau de o terminologie de domeniu consecventă? → Folosește few-shot, cu exemple în acea voce 5. Zero-shot ți-a dat 80% din ce-ți trebuie? → Păstrează-l. Perfecțiunea nu merită de trei ori mai multe tokenuri.
Scopul nu este să folosești cea mai sofisticată tehnică, ci să obții rezultate bune eficient. Zero-shot este abordarea implicită. Adaugă complexitate doar când metodele mai simple nu sunt suficiente.

Cum aplici în practică

Cea mai bună cale să interiorizezi toate astea este să experimentezi. Ia o sarcină pe care o faci frecvent — rezumarea de rapoarte, redactarea de e-mailuri, încadrarea feedbackului — și încearcă ambele abordări. Observă unde se împotmolește zero-shot. Observă unde few-shot face o diferență reală.
Odată ce găsești prompturi care funcționează, salvează-le într-un loc unde le poți regăsi cu adevărat. Dacă îți construiești o colecție de prompturi cu exemple și variabile, PromptNest este o aplicație nativă pentru Mac ($19.99 plată unică pe Mac App Store, fără abonament, fără cont, rulează local) care le păstrează organizate, ușor de căutat și accesibile printr-o scurtătură de tastatură din orice aplicație. Gata cu scotocitul prin notițe împrăștiate după acel prompt few-shot perfect pe care l-ai scris acum trei săptămâni.
Începe simplu. Adaugă complexitate când e nevoie. Salvează ce funcționează. Asta e toată strategia.