Prompting few-shot vs. zero-shot: cando usar cada un
Unha guía práctica para escoller o enfoque de prompting axeitado para a túa tarefa, con exemplos listos para copiar e un sinxelo marco de decisión.
Pegas un prompt en ChatGPT. O resultado é... aceptable. Pero viches que outras persoas obteñen resultados moito mellores engadindo "exemplos" aos seus prompts. Deberías facelo ti tamén? Cantos exemplos? Importa de verdade para a túa tarefa concreta?
Estas preguntas xorden constantemente, e a terminoloxía non axuda. "Zero-shot", "few-shot", "one-shot" — soan a termos de fotografía, non a consellos prácticos. Esta guía corta a maraña do argot e dáche un marco claro para decidir que enfoque usar, ademais de prompts completos que podes copiar e probar ti mesmo.
Que significa realmente o prompting zero-shot
O prompting zero-shot consiste en darlle á IA unha tarefa sen mostrarlle ningún exemplo do que queres. Describes o que precisas, e o modelo descobre como facelo a partir do seu adestramento.
Aquí tes un prompt zero-shot para resumir unha reunión:
Resume as seguintes notas dunha reunión en 3-5 puntos que cubran as decisións principais tomadas.
Notas da reunión:
{{meeting_notes}}
Iso é todo. Sen exemplos de "bos" resumos, sen mostras de entradas e saídas. Estás confiando en que o modelo entenda o que é un resumo e que significa "decisións principais". Para moitas tarefas, isto funciona sorprendentemente ben.
Que significa realmente o prompting few-shot
O prompting few-shot consiste en incluír 2-5 exemplos no teu prompt que demostren o patrón que queres que a IA siga. Estás dicindo basicamente "así é como quero que manexes isto" antes de darlle a tarefa real.
Aquí tes a mesma tarefa de resumo de reunión, pero con exemplos:
Resume as notas da reunión en 3-5 puntos que cubran as decisións principais.
Exemplo 1:
Entrada: "O equipo discutiu os obxectivos do Q3. Sarah propuxo aumentar o obxectivo de vendas un 15%. Mark non estivo de acordo, suxeriu que o 10% era máis realista dado o pipeline actual. O equipo votou e acordou un 12%. Tamén decidiron pospor o redeseño da web ata o Q4."
Saída:
- Acordo dun aumento do 12% no obxectivo de vendas para o Q3 (acordo entre as propostas do 15% e do 10%)
- Redeseño da web pospostо ao Q4
Exemplo 2:
Entrada: "Reunión de revisión do orzamento. O gasto actual está un 8% por riba da previsión. O CFO recomendou recortar o orzamento de viaxes nun 50% e conxelar as novas contratacións durante 60 días. O CEO aprobou ambas as medidas con efecto inmediato."
Saída:
- Recorte do 50% no orzamento de viaxes (con efecto inmediato)
- Conxelación de contratacións durante 60 días aprobada
- Resposta ao desvío do 8% no orzamento
Agora resume isto:
{{meeting_notes}}
Fíxate na diferenza. Os exemplos amósanlle ao modelo exactamente que formato queres (puntos con contexto entre parénteses), que nivel de detalle incluír e como manexar varias decisións. O modelo aprende as túas preferencias no contexto — sen necesidade de fine-tuning.
As diferenzas clave dunha ollada
Así é como se comparan os dous enfoques nos factores que máis importan:
Velocidade: Zero-shot é máis rápido. Menos tokens para procesar significa respostas máis áxiles.
Custo: Zero-shot é máis barato. Pagas por token, e os exemplos súmanse rápido.
Esforzo de configuración: Zero-shot apenas require ningún. Few-shot esixe atopar ou crear bos exemplos.
Precisión en tarefas sinxelas: Máis ou menos a mesma. Os modelos modernos manexan ben as peticións directas en calquera caso.
Precisión en tarefas complexas ou personalizadas: Few-shot adoita gañar. Cando precisas un formato específico ou terminoloxía especializada, os exemplos marcan unha diferenza medible.
A compensación é clara: zero-shot é máis sinxelo e barato, pero few-shot dáche máis control sobre a saída. A pregunta é cando paga a pena ese control extra.
Cando funciona mellor zero-shot
O prompting zero-shot brilla cando a tarefa é algo que o modelo xa "comprende" do seu adestramento. Isto inclúe:
Preguntas de coñecemento xeral: Pedir explicacións, definicións ou información factual. O modelo sabe como é unha boa explicación.
Brainstorming creativo: Xerar ideas, escribir primeiros borradores ou propor opcións. Aquí queres variedade, non que se cinga a un patrón concreto.
Resumos estándar: Condensar artigos, correos ou documentos cando non precisas un formato específico.
Tradución: Converter texto entre idiomas cos que o modelo foi adestrado.
Clasificación sinxela: Ordenar elementos en categorías comúns (positivo/negativo, urxente/non urxente) cando as categorías son evidentes.
Unha boa regra xeral: se podes describir o que queres en linguaxe sinxela e unha persoa entendíao sen ver exemplos, zero-shot probablemente funcionará.
Diagrama de fluxo que amosa o proceso de decisión: comezar con zero-shot, avaliar resultados e engadir exemplos só se é preciso
Cando paga a pena gastar tokens en few-shot
O prompting few-shot xustifica o seu custo cando a saída debe seguir patróns que o modelo non pode inferir só a partir das instrucións:
Formatos personalizados: Cando precisas saídas cunha estrutura concreta — JSON con campos determinados, táboas con columnas exactas, listas cun estilo concreto. Os exemplos amosan o formato mellor que o describen as descricións.
As túas categorías de clasificación: Se ordenas correos de clientes en categorías como "consulta-facturación", "solicitude-función", "informe-erro" e "consulta-xeral", mostrar exemplos de cada unha axuda ao modelo a entender as túas definicións.
Voz de marca ou ton específicos: Queres que a IA escriba como o contido existente da túa empresa? Móstralle 2-3 exemplos desa voz. Instrucións como "escribe nun ton profesional pero próximo" son vagas; os exemplos son concretos.
Terminoloxía específica do dominio: Se o teu sector usa argot ou abreviaturas con significados diferentes noutros contextos, os exemplos ensínanlle ao modelo o teu marco.
Casos límite e matices: Detección de sarcasmo, ironía ou distincións sutís que despistan os enfoques zero-shot. A investigación amosa que o prompting few-shot mellora moito o tratamento de casos límite de sentimento como a negación e o sarcasmo.
Un estudo descubriu que para a clasificación de sentimento en Twitter, o prompting few-shot con só 20-50 exemplos achegouse ao rendemento de modelos aféctos en máis de 10.000 exemplos. Esa é a forza das demostracións ben elixidas.
Se te ves construíndo unha biblioteca de prompts few-shot para distintas tarefas, unha ferramenta como PromptNest axúdache a gardalos con variables como {{meeting_notes}} xa integradas — enches os ocos cando copias e o prompt completo queda listo para pegar.
O fluxo "empeza en cero, sobe se fai falla"
Este é o enfoque práctico que aforra tempo e tokens:
Paso 1: Proba primeiro zero-shot. Escribe un prompt claro que describa o que queres. Sé específico coa tarefa, pero non incluas exemplos aínda.
Paso 2: Avalía a saída. Dáche o que precisas? Se si, xa rematas. Se non, identifica que vai mal — é o formato? O ton? Faltan detalles? Está malinterpretando a tarefa por completo?
Paso 3: Engade exemplos dirixidos. Crea 2-3 exemplos que demostren especificamente aquilo no que o modelo se equivocou. Se o formato fallou, mostra o formato correcto. Se o ton non era o axeitado, mostra o ton correcto.
Este fluxo importa porque non estás adiviñando se precisas exemplos — estás respondendo a fallos reais. Ás veces engadir "Pensemos paso a paso" a un prompt zero-shot arranxa problemas de razoamento sen necesidade de exemplos. A investigación confirma que o chain-of-thought zero-shot adoita superar o few-shot en tarefas de razoamento.
Cantos exemplos precisas de verdade?
A investigación apunta de forma consistente a un punto óptimo de 2-5 exemplos para a maioría das tarefas. Isto é o que mostran os datos:
- Os primeiros 2-3 exemplos achegan o maior salto de precisión
- Os retornos diminúen drasticamente despois de 4-5 exemplos
- Máis exemplos poden mesmo prexudicar o rendemento ao introducir patróns contraditorios
- A calidade dos exemplos importa máis que a cantidade — tres exemplos excelentes superan dez mediocres
Hai tamén un descubrimento importante sobre a orde dos exemplos: os estudos amosan que a secuencia dos exemplos afecta os resultados, e a orde óptima ás veces marca a diferenza entre un bo e un mal rendemento. Se o teu prompt few-shot non funciona ben, proba a reordenar os exemplos antes de engadir máis.
Ilustración que amosa tarxetas de exemplos engadíndose a un prompt, con retornos decrecentes despois dos primeiros
Para a maioría dos casos, comeza con 2 exemplos. Se a precisión non chega ao nivel que precisas, engade un terceiro que cubra unha variación distinta. Raramente necesitarás máis de 4.
Chain-of-thought: o termo medio para o razoamento
Hai unha terceira opción que funciona especialmente ben para matemáticas, lóxica e problemas de varios pasos: o prompting chain-of-thought. En vez de mostrar exemplos de entrada-saída, pídeslle ao modelo que "pense paso a paso".
O chain-of-thought zero-shot ten esta pinta:
Unha tenda ten 45 mazás. Venden 12 pola mañá e reciben unha remesa de 30 máis. Logo venden 18 pola tarde. Cantas mazás teñen ao pechar?
Resolvámolo paso a paso.
Esa simple frase — "Resolvámolo paso a paso" — fai que o modelo amose o seu razoamento en vez de saltar directamente á resposta. Para razoamentos complexos, isto adoita superar tanto zero-shot como few-shot.
Unha investigación recente de arXiv descubriu que para modelos potentes como GPT-4 e Claude, o chain-of-thought zero-shot supera con frecuencia o prompting few-shot en tarefas de razoamento. Os exemplos poden, de feito, limitar o pensamento do modelo en lugar de axudalo.
Usa chain-of-thought cando:
A tarefa require varios pasos lóxicos
Precisas que o modelo explique o seu razoamento (útil para detectar erros)
Hai matemáticas, lóxica de programación ou problemas analíticos
Queres verificar o enfoque do modelo, non só a súa resposta
Exemplos completos de prompts que podes copiar
Vexamos os tres enfoques un ao lado do outro para tarefas reais. Todos os prompts están probados con GPT-4 e Claude e listos para usar.
Tarefa 1: clasificación do ton dun correo
Versión zero-shot:
Clasifica o ton deste correo de cliente como: frustrado, satisfeito, neutral ou urxente.
Correo:
{{email_text}}
Ton:
Versión few-shot (mellor para casos límite):
Clasifica o ton de correos de clientes como: frustrado, satisfeito, neutral ou urxente.
Correo: "Levo 3 semanas esperando o meu pedido. Isto é ridículo. Quero un reembolso XA."
Ton: frustrado
Correo: "Só quería darvos as grazas — o produto chegou antes do previsto e funciona xenial!"
Ton: satisfeito
Correo: "Ola, podedes confirmar se o meu pedido foi enviado? Pedido #12345."
Ton: neutral
Correo: "O noso sistema está caído e necesitamos a peza de recambio HOXE ou perdemos o contrato."
Ton: urxente
Correo: {{email_text}}
Ton:
A versión few-shot axuda ao modelo a entender as túas definicións concretas. "Urxente" e "frustrado" poden ser ambiguos — os exemplos deixan claros os teus límites.
Tarefa 2: reescritura dunha descrición de produto
Versión zero-shot:
Reescribe esta descrición de produto para que sexa máis atractiva e centrada nos beneficios. Mantela por debaixo das 100 palabras.
Original: {{product_description}}
Versión reescrita:
Versión few-shot (mellor para a coherencia da voz de marca):
Reescribe descricións de produto para que sexan atractivas e centradas nos beneficios. Adapta este estilo:
Original: "Botella de auga de aceiro inoxidable. Capacidade de 24oz. Mantén as bebidas frías durante 24 horas."
Reescrita: "Mantente hidratado todo o día coa nosa elegante botella de aceiro de 24oz. O teu café da mañá segue quente durante o traxecto. A túa auga da tarde mantense xelada no ximnasio. Unha botella, infinitas posibilidades."
Original: "Auriculares sen fíos. 8 horas de batería. Cancelación de ruído."
Reescrita: "Oito horas dos teus podcasts favoritos, sen interrupcións. Os nosos auriculares sen fíos bloquean o ruído para que poidas concentrarte no que importa — sexa o traballo profundo, a túa lista de música no ximnasio ou rematar por fin ese audiolibro."
Original: {{product_description}}
Reescrita:
A versión few-shot ensina un estilo de copywriting concreto — guiado polos beneficios, conversacional, con casos de uso específicos. Zero-shot daríache unha reescritura, pero non necesariamente a túa voz.
Tarefa 3: estruturar un informe de erros
Versión zero-shot:
Converte este informe de erro nun formato estruturado con: Resumo, Pasos para reproducir, Comportamento esperado e Comportamento real.
Informe de erro: {{bug_report}}
Versión few-shot (mellor para un formato consistente):
Converte informes de erros a formato estruturado.
Entrada: "A app crashea cando intento subir un PDF. Estaba no panel, premín subir, escollín un PDF de 5 MB e simplemente pechouse. Debería mostrar o ficheiro nas miñas subidas, pero, no canto diso, a app enteira morre."
Saída:
**Resumo:** A app crashea ao subir ficheiros PDF
**Pasos para reproducir:**
1. Ir ao panel
2. Premer o botón de subir
3. Seleccionar un PDF (probado cun ficheiro de 5 MB)
**Esperado:** O ficheiro aparece na sección de subidas
**Real:** A aplicación crashea ou péchase de forma inesperada
---
Entrada: {{bug_report}}
Saída:
Para a documentación técnica, a coherencia importa. A versión few-shot garante que cada informe de erro siga a mesma estrutura co mesmo nivel de detalle.
Marco rápido de decisión
Cando teñas diante unha tarefa nova, repasa estas preguntas:
1. A tarefa é directa e está ben definida? → Comeza con zero-shot
2. Precisas un formato específico que o modelo pode non adiviñar? → Usa few-shot
3. A tarefa implica un razoamento de varios pasos? → Proba primeiro chain-of-thought zero-shot
4. Necesitas unha voz de marca ou terminoloxía consistentes? → Usa few-shot con exemplos nesa voz
5. Zero-shot deuche o 80% do que precisas? → Quédao. A perfección non paga 3 veces máis tokens.
O obxectivo non é usar a técnica máis sofisticada — é obter bos resultados de forma eficiente. Zero-shot é o predeterminado. Engade complexidade só cando os enfoques máis sinxelos non chegan.
Poñelo en práctica
A mellor maneira de interiorizar isto é experimentar. Colle unha tarefa que fagas habitualmente — resumir informes, redactar correos, categorizar comentarios — e proba os dous enfoques. Fíxate onde se queda curto zero-shot. Fíxate onde few-shot marca unha diferenza real.
Cando atopes prompts que funcionen, gárdaos nalgún sitio onde os poidas atopar despois. Se estás a construír unha colección de prompts con exemplos e variables, PromptNest é unha aplicación nativa para Mac ($19.99 pago único na Mac App Store, sen subscrición, sen conta, execución local) que os mantén organizados, faciles de buscar e accesibles cun atallo de teclado dende calquera aplicación. Non tes que volver a buscar entre notas espalladas ese prompt few-shot perfecto que escribiches hai tres semanas.
Empeza simple. Engade complexidade cando faga falla. Garda o que funcione. Esa é toda a estratexia.