Torna al blog

Prompting few-shot vs zero-shot: quando usare l'uno o l'altro

Una guida pratica per scegliere l'approccio di prompting giusto per il tuo compito, con esempi pronti da copiare e un semplice schema decisionale.

Prompting few-shot vs zero-shot: quando usare l'uno o l'altro
Incolli un prompt in ChatGPT. Il risultato è... accettabile. Ma hai visto che altri ottengono risultati nettamente migliori aggiungendo "esempi" ai loro prompt. Dovresti farlo anche tu? Quanti esempi servono? E fa davvero la differenza per il tuo compito specifico?
Sono domande che ricorrono di continuo, e la terminologia non aiuta. "Zero-shot", "few-shot", "one-shot": sembrano termini da fotografia, non indicazioni pratiche. Questa guida supera il gergo e ti offre un quadro chiaro per decidere quale approccio usare, oltre a prompt completi che puoi copiare e provare subito.

Cosa significa davvero prompting zero-shot

Il prompting zero-shot consiste nell'assegnare un compito all'IA senza mostrarle alcun esempio di ciò che desideri. Descrivi quello che ti serve e il modello capisce come svolgerlo basandosi sul suo addestramento.
Ecco un prompt zero-shot per riassumere una riunione:

Riassumi i seguenti appunti di riunione in 3-5 punti elenco che coprano le principali decisioni prese.

Appunti della riunione:
{{meeting_notes}}
Tutto qui. Niente esempi di riassunti "buoni", nessun input e output di esempio. Ti affidi al modello perché capisca che aspetto ha un riassunto e cosa significa "decisioni principali". Per molti compiti funziona sorprendentemente bene.

Cosa significa davvero prompting few-shot

Il prompting few-shot consiste nell'inserire 2-5 esempi nel prompt che mostrano lo schema che vuoi far seguire all'IA. In pratica stai dicendo "ecco come voglio che gestisca questo" prima di assegnarle il compito vero e proprio.
Ecco lo stesso compito di riassunto della riunione, ma con esempi:

Riassumi gli appunti della riunione in 3-5 punti elenco che coprano le decisioni principali.

Esempio 1:
Input: "Il team ha discusso gli obiettivi del Q3. Sara ha proposto di aumentare l'obiettivo di vendita del 15%. Marco non era d'accordo, suggeriva che il 10% fosse più realistico vista la pipeline attuale. Il team ha votato e si è accordato sul 12%. Si è anche deciso di rimandare il restyling del sito al Q4."
Output:
- Concordato un aumento del 12% sull'obiettivo di vendita per il Q3 (compromesso tra le proposte del 15% e del 10%)
- Restyling del sito rimandato al Q4

Esempio 2:
Input: "Riunione di revisione del budget. La spesa attuale supera la previsione dell'8%. Il CFO ha raccomandato di tagliare il budget viaggi del 50% e di congelare le nuove assunzioni per 60 giorni. Il CEO ha approvato entrambe le misure con effetto immediato."
Output:
- Tagliato il budget viaggi del 50% (con effetto immediato)
- Approvato un blocco delle assunzioni di 60 giorni
- Risposta a uno sforamento di budget dell'8%

Ora riassumi questo:
{{meeting_notes}}
Nota la differenza. Gli esempi mostrano al modello esattamente quale formato vuoi (punti elenco con il contesto tra parentesi), il livello di dettaglio da includere e come gestire più decisioni. Il modello impara le tue preferenze nel contesto, senza alcun fine-tuning.

Le differenze chiave a colpo d'occhio

Ecco come si confrontano i due approcci sui fattori che contano di più:
  • Velocità: lo zero-shot è più veloce. Meno token da elaborare significa risposte più rapide.
  • Costo: lo zero-shot costa meno. Si paga per token e gli esempi pesano.
  • Sforzo di setup: lo zero-shot non ne richiede quasi nessuno. Il few-shot richiede di trovare o creare esempi efficaci.
  • Accuratezza su compiti semplici: simile. I modelli moderni gestiscono bene le richieste lineari in entrambi i casi.
  • Accuratezza su compiti complessi o personalizzati: di solito vince il few-shot. Quando servono formattazioni specifiche o terminologia di settore, gli esempi fanno una differenza misurabile.
Il compromesso è chiaro: lo zero-shot è più semplice ed economico, ma il few-shot ti dà più controllo sull'output. La domanda è quando vale la pena pagare quel controllo in più.

Quando lo zero-shot funziona meglio

Il prompting zero-shot dà il meglio quando il compito è qualcosa che il modello già "capisce" dal suo addestramento. Rientrano in questa categoria:
Domande di cultura generale: chiedere spiegazioni, definizioni o informazioni fattuali. Il modello sa che aspetto ha una buona spiegazione.

Brainstorming creativo: generare idee, scrivere bozze iniziali o proporre alternative. Qui vuoi varietà, non aderenza a uno schema specifico.

Riassunti standard: condensare articoli, email o documenti quando non ti serve un formato preciso.

Traduzione: convertire testo tra lingue su cui il modello è stato addestrato.

Classificazione semplice: smistare elementi in categorie comuni (positivo/negativo, urgente/non urgente) quando le categorie si spiegano da sole.
Una buona regola pratica: se riesci a descrivere ciò che vuoi in linguaggio naturale e una persona lo capirebbe senza vedere esempi, probabilmente lo zero-shot funzionerà.
Diagramma di flusso che illustra il processo decisionale: parti dallo zero-shot, valuta i risultati, aggiungi esempi solo se necessario
Diagramma di flusso che illustra il processo decisionale: parti dallo zero-shot, valuta i risultati, aggiungi esempi solo se necessario

Quando il few-shot vale i token in più

Il prompting few-shot si ripaga quando l'output deve seguire schemi che il modello non può dedurre dalle sole istruzioni:
Formattazione personalizzata: quando ti serve un output con una struttura specifica — JSON con campi precisi, tabelle con colonne esatte, punti elenco con uno stile particolare. Gli esempi mostrano il formato meglio di quanto le descrizioni possano spiegarlo.

Le tue categorie di classificazione: se stai smistando email dei clienti in categorie come "domanda-fatturazione", "richiesta-funzionalità", "segnalazione-bug" e "richiesta-generica", mostrare esempi di ciascuna aiuta il modello a capire le tue definizioni.

Tono o voce del brand: vuoi che l'IA scriva come i contenuti già esistenti della tua azienda? Mostrale 2-3 esempi di quella voce. Istruzioni come "scrivi con un tono professionale ma amichevole" sono vaghe; gli esempi sono concreti.

Terminologia di dominio: se il tuo settore usa gergo o abbreviazioni che hanno significati diversi altrove, gli esempi insegnano al modello il tuo contesto.

Casi limite e sfumature: rilevamento di sarcasmo, ironia o distinzioni sottili che mettono in difficoltà gli approcci zero-shot. La ricerca mostra che il prompting few-shot migliora notevolmente la gestione dei casi limite di analisi del sentiment come la negazione e il sarcasmo.
Uno studio ha rilevato che, per la classificazione del sentiment su Twitter, il prompting few-shot con appena 20-50 esempi si avvicinava alle prestazioni di modelli sottoposti a fine-tuning su oltre 10.000 esempi. Ecco la forza di esempi ben scelti.
Se ti ritrovi a costruire una libreria di prompt few-shot per compiti diversi, uno strumento come PromptNest ti aiuta a salvarli con variabili come {{meeting_notes}} già integrate: riempi gli spazi quando li copi e il prompt completo è pronto da incollare.

Il flusso "parti da zero, evolvi se serve"

Ecco l'approccio pratico che fa risparmiare tempo e token:
Passo 1: prova prima lo zero-shot. Scrivi un prompt chiaro che descrive ciò che vuoi. Sii specifico sul compito, ma non includere ancora esempi.

Passo 2: valuta il risultato. Ti dà ciò che ti serve? Se sì, hai finito. Se no, individua cosa non va: è il formato? Il tono? Mancano dettagli? Ha frainteso del tutto il compito?

Passo 3: aggiungi esempi mirati. Crea 2-3 esempi che dimostrino in modo specifico ciò che il modello ha sbagliato. Se il formato era fuori posto, mostra il formato corretto. Se il tono era sbagliato, mostra quello giusto.
Questo flusso conta perché non stai tirando a indovinare se servono esempi: stai rispondendo a lacune reali. A volte basta aggiungere "Ragioniamo passo per passo" a un prompt zero-shot per risolvere problemi di ragionamento senza alcun esempio. La ricerca conferma che la chain-of-thought zero-shot spesso supera il few-shot nei compiti di ragionamento.

Quanti esempi servono davvero?

La ricerca indica con costanza un punto ottimale di 2-5 esempi per la maggior parte dei compiti. Ecco cosa mostrano i dati:
- I primi 2-3 esempi danno la spinta maggiore all'accuratezza - I rendimenti calano nettamente dopo 4-5 esempi - Più esempi possono addirittura peggiorare le prestazioni introducendo schemi contraddittori - La qualità degli esempi conta più della quantità: tre ottimi esempi battono dieci mediocri
C'è anche un aspetto importante sull'ordine degli esempi: alcuni studi mostrano che la sequenza degli esempi influenza i risultati e che l'ordine ottimale può fare la differenza tra prestazioni buone e scarse. Se il tuo prompt few-shot non sta funzionando, prova a riordinare gli esempi prima di aggiungerne altri.
Illustrazione che mostra schede di esempio aggiunte a un prompt, con rendimenti decrescenti dopo i primi
Illustrazione che mostra schede di esempio aggiunte a un prompt, con rendimenti decrescenti dopo i primi
Per la maggior parte dei casi, parti con 2 esempi. Se l'accuratezza non è quella che ti serve, aggiungine un terzo che copra una variante diversa. Raramente ne servono più di 4.

Chain-of-thought: la via di mezzo per il ragionamento

C'è una terza opzione che funziona particolarmente bene per matematica, logica e problemi a più passaggi: il prompting chain-of-thought. Invece di mostrare esempi input-output, chiedi al modello di "ragionare passo per passo".
Una chain-of-thought zero-shot ha questo aspetto:

Un negozio ha 45 mele. Ne vende 12 al mattino e riceve una consegna di altre 30. Poi ne vende 18 nel pomeriggio. Quante mele ha alla chiusura?

Ragioniamo passo per passo.
Quella semplice frase — "Ragioniamo passo per passo" — spinge il modello a esporre il proprio ragionamento invece di saltare direttamente alla risposta. Per il ragionamento complesso, spesso batte sia gli approcci zero-shot sia quelli few-shot.
Una ricerca recente di arXiv ha rilevato che, per modelli forti come GPT-4 e Claude, la chain-of-thought zero-shot supera frequentemente il prompting few-shot nei compiti di ragionamento. Gli esempi possono finire per limitare il pensiero del modello invece di aiutarlo.
Usa la chain-of-thought quando:
  • Il compito richiede più passaggi logici
  • Hai bisogno che il modello spieghi il ragionamento (utile per individuare errori)
  • Sono coinvolti matematica, logica di programmazione o problemi analitici
  • Vuoi verificare il metodo del modello, non solo la sua risposta

Esempi di prompt completi pronti da copiare

Mettiamo i tre approcci a confronto su compiti reali. Tutti i prompt sono testati con GPT-4 e Claude e pronti all'uso.

Compito 1: classificazione del tono delle email

Versione zero-shot:

Classifica il tono di questa email del cliente come: frustrato, soddisfatto, neutro o urgente.

Email:
{{email_text}}

Tono:
Versione few-shot (migliore per i casi limite):

Classifica il tono delle email dei clienti come: frustrato, soddisfatto, neutro o urgente.

Email: "Aspetto il mio ordine da 3 settimane. È ridicolo. Voglio un rimborso SUBITO."
Tono: frustrato

Email: "Volevo solo dire grazie: il prodotto è arrivato in anticipo e funziona benissimo!"
Tono: soddisfatto

Email: "Salve, potete confermarmi che il mio ordine è stato spedito? Ordine #12345."
Tono: neutro

Email: "Il nostro sistema è fermo e ci serve il pezzo di ricambio OGGI o perdiamo il contratto."
Tono: urgente

Email: {{email_text}}
Tono:
La versione few-shot aiuta il modello a capire le tue definizioni specifiche. "Urgente" e "frustrato" possono confondersi: gli esempi rendono chiari i tuoi confini.

Compito 2: riscrittura della descrizione di prodotto

Versione zero-shot:

Riscrivi questa descrizione di prodotto in modo più coinvolgente e orientato ai benefici. Mantienila sotto le 100 parole.

Originale: {{product_description}}

Versione riscritta:
Versione few-shot (migliore per la coerenza della voce del brand):

Riscrivi le descrizioni di prodotto in modo coinvolgente e orientato ai benefici. Allinea questo stile:

Originale: "Borraccia in acciaio inox. Capacità di 24oz. Mantiene le bevande fredde per 24 ore."
Riscritta: "Mantieni l'idratazione tutto il giorno con la nostra elegante borraccia in acciaio da 24oz. Il caffè del mattino resta caldo lungo tutto il tragitto. L'acqua del pomeriggio resta ghiacciata in palestra. Una sola borraccia, infinite possibilità."

Originale: "Auricolari wireless. Batteria da 8 ore. Cancellazione del rumore."
Riscritta: "Otto ore dei tuoi podcast preferiti, senza interruzioni. I nostri auricolari wireless eliminano il rumore così puoi concentrarti su ciò che conta — che si tratti di lavoro profondo, della tua playlist da palestra o di finire finalmente quell'audiolibro."

Originale: {{product_description}}
Riscritta:
La versione few-shot insegna uno stile di copywriting preciso: orientato ai benefici, colloquiale, con casi d'uso concreti. Lo zero-shot ti darebbe una riscrittura, ma non necessariamente la tua voce.

Compito 3: strutturare una segnalazione di bug

Versione zero-shot:

Converti questa segnalazione di bug in un formato strutturato con: Riepilogo, Passaggi per riprodurre, Comportamento atteso e Comportamento effettivo.

Segnalazione di bug: {{bug_report}}
Versione few-shot (migliore per una formattazione coerente):

Converti le segnalazioni di bug in un formato strutturato.

Input: "L'app crasha quando provo a caricare un PDF. Ero sulla dashboard, ho cliccato su carica, selezionato un PDF da 5MB e si è semplicemente chiusa. Dovrebbe mostrare il file nei miei caricamenti, invece tutta l'app muore."

Output:
**Riepilogo:** L'app crasha durante il caricamento di file PDF
**Passaggi per riprodurre:**
1. Vai alla dashboard
2. Clicca sul pulsante carica
3. Seleziona un file PDF (testato con un file da 5MB)
**Atteso:** il file appare nella sezione dei caricamenti
**Effettivo:** l'applicazione crasha o si chiude in modo imprevisto

---

Input: {{bug_report}}

Output:
Per la documentazione tecnica la coerenza è fondamentale. La versione few-shot fa in modo che ogni segnalazione di bug segua la stessa struttura con lo stesso livello di dettaglio.

Schema decisionale rapido

Quando ti trovi davanti a un nuovo compito, scorri queste domande:
1. Il compito è lineare e ben definito? → Parti con lo zero-shot 2. Hai bisogno di un formato specifico che il modello potrebbe non indovinare? → Usa il few-shot 3. Il compito richiede ragionamento a più passaggi? → Prova prima la chain-of-thought zero-shot 4. Servono coerenza nella voce del brand o terminologia di dominio? → Usa il few-shot con esempi in quella voce 5. Lo zero-shot ti ha dato l'80% di ciò che ti serve? → Tienilo. La perfezione non vale 3 volte i token.
L'obiettivo non è usare la tecnica più sofisticata: è ottenere buoni risultati in modo efficiente. Lo zero-shot è il default. Aggiungi complessità solo quando gli approcci più semplici non bastano.

Mettilo in pratica

Il modo migliore per interiorizzarlo è sperimentare. Prendi un compito che svolgi spesso — riassumere report, scrivere email, categorizzare feedback — e prova entrambi gli approcci. Nota dove lo zero-shot non basta. Nota dove il few-shot fa davvero la differenza.
Una volta trovati i prompt che funzionano, salvali in un posto in cui poi li ritrovi davvero. Se stai costruendo una raccolta di prompt con esempi e variabili, PromptNest è un'app nativa per Mac ($19.99 una tantum sul Mac App Store, senza abbonamenti né account, gira in locale) che li tiene in ordine, ricercabili e raggiungibili con una scorciatoia da tastiera da qualsiasi app. Niente più caccia tra appunti sparsi per quel prompt few-shot perfetto che avevi scritto tre settimane fa.
Parti semplice. Aggiungi complessità quando serve. Salva ciò che funziona. Tutta qui la strategia.