Prompting few-shot vs. zero-shot: cuándo usar cada uno
Guía práctica para elegir el enfoque de prompting adecuado para tu tarea, con ejemplos listos para copiar y un marco de decisión sencillo.
Pegas un prompt en ChatGPT. El resultado es… correcto. Pero has visto a otras personas obtener resultados mucho mejores añadiendo «ejemplos» a sus prompts. ¿Deberías hacerlo tú también? ¿Cuántos ejemplos? ¿Realmente importa para tu caso concreto?
Estas preguntas surgen continuamente, y la terminología no ayuda. «Zero-shot», «few-shot», «one-shot»: parecen términos de fotografía más que consejos prácticos. Esta guía deja a un lado la jerga y te da un marco claro para decidir qué enfoque usar, además de prompts completos que puedes copiar y probar tú mismo.
Qué significa realmente el prompting zero-shot
Prompting zero-shot significa darle a la IA una tarea sin mostrarle ningún ejemplo de lo que quieres. Describes lo que necesitas y el modelo se las arregla con lo aprendido durante su entrenamiento.
Aquí tienes un prompt zero-shot para resumir una reunión:
Summarize the following meeting notes into 3-5 bullet points covering the key decisions made.
Meeting notes:
{{meeting_notes}}
Eso es todo. Sin ejemplos de resúmenes «buenos», sin entradas y salidas de muestra. Confías en que el modelo entienda qué pinta tiene un resumen y qué significan «decisiones clave». Para muchas tareas, esto funciona sorprendentemente bien.
Qué significa realmente el prompting few-shot
Prompting few-shot significa incluir entre 2 y 5 ejemplos en tu prompt que muestren el patrón que quieres que la IA siga. En esencia, le estás diciendo «así es como quiero que manejes esto» antes de plantearle la tarea real.
Esta es la misma tarea de resumir una reunión, pero con ejemplos:
Summarize meeting notes into 3-5 bullet points covering key decisions.
Example 1:
Input: "Team discussed Q3 targets. Sarah proposed increasing the sales goal by 15%. Mark disagreed, suggested 10% was more realistic given current pipeline. Team voted and agreed on 12%. Also decided to postpone the website redesign until Q4."
Output:
- Agreed on 12% sales goal increase for Q3 (compromise between 15% and 10% proposals)
- Postponed website redesign to Q4
Example 2:
Input: "Budget review meeting. Current spending is 8% over forecast. CFO recommended cutting travel budget by 50% and freezing new hires for 60 days. CEO approved both measures effective immediately."
Output:
- Cut travel budget by 50% (effective immediately)
- 60-day hiring freeze approved
- Response to 8% budget overrun
Now summarize this:
{{meeting_notes}}
Fíjate en la diferencia. Los ejemplos le muestran al modelo exactamente qué formato quieres (viñetas con contexto entre paréntesis), qué nivel de detalle incluir y cómo manejar varias decisiones. El modelo aprende tus preferencias en contexto, sin necesidad de fine-tuning.
Las diferencias clave de un vistazo
Así se comparan los dos enfoques en los factores que más importan:
Velocidad: zero-shot es más rápido. Menos tokens que procesar significan respuestas más ágiles.
Coste: zero-shot es más barato. Pagas por token, y los ejemplos suman.
Esfuerzo de configuración: zero-shot apenas requiere ninguno. Few-shot exige encontrar o crear buenos ejemplos.
Precisión en tareas sencillas: parecida. Los modelos actuales manejan bien las peticiones directas con cualquiera de los dos enfoques.
Precisión en tareas complejas o personalizadas: suele ganar few-shot. Cuando necesitas un formato concreto o terminología de tu sector, los ejemplos marcan una diferencia medible.
El equilibrio está claro: zero-shot es más simple y barato, pero few-shot te da más control sobre el resultado. La pregunta es cuándo merece la pena ese control extra.
Cuándo funciona mejor zero-shot
El prompting zero-shot brilla cuando la tarea es algo que el modelo ya «entiende» por su entrenamiento. Eso incluye:
Preguntas de conocimiento general: pedir explicaciones, definiciones o información factual. El modelo sabe cómo es una buena explicación.
Brainstorming creativo: generar ideas, escribir primeros borradores o proponer opciones. Aquí quieres variedad, no que se ciña a un patrón concreto.
Resumen estándar: condensar artículos, correos o documentos cuando no necesitas un formato específico.
Traducción: convertir texto entre idiomas con los que el modelo se entrenó.
Clasificación sencilla: ordenar elementos en categorías comunes (positivo/negativo, urgente/no urgente) cuando las categorías se explican por sí solas.
Una buena regla práctica: si puedes describir lo que quieres en lenguaje llano y una persona lo entendería sin ver ejemplos, zero-shot probablemente funcione.
Diagrama de flujo que muestra el proceso de decisión: empezar con zero-shot, evaluar resultados y añadir ejemplos solo si hace falta
Cuándo few-shot compensa los tokens extra
El prompting few-shot se gana su sitio cuando la salida tiene que seguir patrones que el modelo no puede deducir solo de las instrucciones:
Formatos personalizados: cuando necesitas salidas con una estructura concreta, como JSON con campos específicos, tablas con columnas exactas o viñetas con un estilo determinado. Los ejemplos muestran el formato mejor que cualquier descripción.
Tus categorías de clasificación: si estás ordenando correos de clientes en categorías como «consulta-de-facturación», «petición-de-función», «reporte-de-bug» y «consulta-general», mostrar ejemplos de cada una ayuda al modelo a entender tus definiciones.
Voz de marca o tono: ¿quieres que la IA escriba como el contenido existente de tu empresa? Enséñale 2 o 3 ejemplos de esa voz. Instrucciones como «escribe en un tono profesional pero cercano» son vagas; los ejemplos son concretos.
Terminología de un dominio específico: si tu sector usa jerga o abreviaturas con significados distintos en otros contextos, los ejemplos le enseñan al modelo tu contexto.
Casos límite y matices: detección de sarcasmo, ironía o distinciones sutiles que hacen tropezar a los enfoques zero-shot. La investigación demuestra que el prompting few-shot mejora notablemente el manejo de casos límite de análisis de sentimiento como la negación y el sarcasmo.
Un estudio comprobó que, para clasificación de sentimiento en Twitter, el prompting few-shot con apenas 20-50 ejemplos se acercaba al rendimiento de modelos ajustados con más de 10.000 ejemplos. Esa es la fuerza de unas demostraciones bien elegidas.
Si te ves construyendo una biblioteca de prompts few-shot para distintas tareas, una herramienta como PromptNest te permite guardarlos con variables como {{meeting_notes}} ya integradas: rellenas los huecos al copiar y el prompt completo queda listo para pegar.
El flujo de trabajo «empieza con zero, escala si hace falta»
Este es el enfoque práctico que te ahorra tiempo y tokens:
Paso 1: prueba primero con zero-shot. Escribe un prompt claro que describa lo que quieres. Sé específico con la tarea, pero aún no incluyas ejemplos.
Paso 2: evalúa el resultado. ¿Te da lo que necesitas? Si sí, ya está. Si no, identifica qué falla: ¿el formato? ¿el tono? ¿faltan detalles? ¿no entiende la tarea?
Paso 3: añade ejemplos puntuales. Crea 2 o 3 ejemplos que demuestren justo lo que el modelo hizo mal. Si el formato no encajaba, enséñale el correcto. Si el tono fallaba, enséñale el adecuado.
Este flujo importa porque no estás adivinando si necesitas ejemplos, sino respondiendo a carencias reales. A veces, añadir «pensemos paso a paso» a un prompt zero-shot soluciona los problemas de razonamiento sin necesidad de ejemplos. La investigación confirma que el zero-shot chain-of-thought a menudo supera al few-shot en tareas de razonamiento.
¿Cuántos ejemplos necesitas en realidad?
La investigación apunta de forma constante a un punto óptimo de 2 a 5 ejemplos para la mayoría de tareas. Esto es lo que muestran los datos:
- Los primeros 2-3 ejemplos aportan el mayor salto en precisión
- Los rendimientos caen con fuerza a partir de 4-5 ejemplos
- Más ejemplos pueden incluso empeorar el rendimiento al introducir patrones contradictorios
- La calidad de los ejemplos importa más que la cantidad: tres ejemplos excelentes ganan a diez mediocres
También hay un hallazgo importante sobre el orden de los ejemplos: varios estudios demuestran que la secuencia de tus ejemplos afecta a los resultados, y un orden óptimo puede marcar la diferencia entre un buen rendimiento y uno mediocre. Si tu prompt few-shot no acaba de funcionar, prueba a reordenar los ejemplos antes de añadir más.
Ilustración que muestra tarjetas de ejemplo añadiéndose a un prompt, con rendimientos decrecientes después de los primeros
Para la mayoría de casos, empieza con 2 ejemplos. Si la precisión no llega a donde necesitas, añade un tercero que cubra una variación distinta. Pocas veces necesitarás más de 4.
Chain-of-thought: el término medio para el razonamiento
Hay una tercera opción que funciona especialmente bien en problemas de matemáticas, lógica y varios pasos: el prompting chain-of-thought. En lugar de mostrar ejemplos de entrada y salida, le pides al modelo que «piense paso a paso».
Un chain-of-thought zero-shot tiene esta pinta:
A store has 45 apples. They sell 12 in the morning and receive a shipment of 30 more. Then they sell 18 in the afternoon. How many apples do they have at closing?
Let's work through this step by step.
Esa frase tan simple, «Let's work through this step by step», hace que el modelo muestre su razonamiento en lugar de saltar directamente a la respuesta. Para razonamientos complejos, este enfoque suele superar tanto al zero-shot como al few-shot.
Una investigación reciente de arXiv descubrió que, en modelos potentes como GPT-4 y Claude, el chain-of-thought zero-shot supera con frecuencia al few-shot en tareas de razonamiento. Los ejemplos pueden, de hecho, limitar el pensamiento del modelo en lugar de ayudarlo.
Usa chain-of-thought cuando:
La tarea requiere varios pasos lógicos
Necesitas que el modelo explique su razonamiento (útil para detectar errores)
Hay matemáticas, lógica de programación o problemas analíticos de por medio
Quieres verificar el planteamiento del modelo, no solo su respuesta
Ejemplos completos de prompts que puedes copiar
Veamos los tres enfoques aplicados a tareas reales. Todos los prompts están probados con GPT-4 y Claude, y listos para usar.
Tarea 1: clasificar el tono de un correo
Versión zero-shot:
Classify the tone of this customer email as: frustrated, satisfied, neutral, or urgent.
Email:
{{email_text}}
Tone:
Versión few-shot (mejor para casos límite):
Classify customer email tone as: frustrated, satisfied, neutral, or urgent.
Email: "I've been waiting 3 weeks for my order. This is ridiculous. I want a refund NOW."
Tone: frustrated
Email: "Just wanted to say thanks — the product arrived early and works great!"
Tone: satisfied
Email: "Hi, can you confirm my order shipped? Order #12345."
Tone: neutral
Email: "Our system is down and we need the replacement part TODAY or we lose the contract."
Tone: urgent
Email: {{email_text}}
Tone:
La versión few-shot ayuda al modelo a entender tus definiciones concretas. «Urgente» frente a «frustrado» puede ser ambiguo: los ejemplos dejan claros los límites.
Tarea 2: reescribir descripciones de producto
Versión zero-shot:
Rewrite this product description to be more engaging and benefit-focused. Keep it under 100 words.
Original: {{product_description}}
Rewritten version:
Versión few-shot (mejor para mantener la voz de marca):
Rewrite product descriptions to be engaging and benefit-focused. Match this style:
Original: "Stainless steel water bottle. 24oz capacity. Keeps drinks cold for 24 hours."
Rewritten: "Stay hydrated all day with our sleek 24oz steel bottle. Your morning coffee stays hot through your commute. Your afternoon water stays ice-cold at the gym. One bottle, endless possibilities."
Original: "Wireless earbuds. 8-hour battery. Noise cancelling."
Rewritten: "Eight hours of your favorite podcasts, uninterrupted. Our wireless earbuds block out the noise so you can focus on what matters — whether that's deep work, your workout playlist, or finally finishing that audiobook."
Original: {{product_description}}
Rewritten:
La versión few-shot enseña un estilo de copywriting concreto: orientado a beneficios, conversacional, con casos de uso específicos. Zero-shot te daría una reescritura, pero no necesariamente tu voz.
Tarea 3: estructurar reportes de bugs
Versión zero-shot:
Convert this bug report into a structured format with: Summary, Steps to Reproduce, Expected Behavior, and Actual Behavior.
Bug report: {{bug_report}}
Versión few-shot (mejor para un formato consistente):
Convert bug reports into structured format.
Input: "The app crashes when I try to upload a PDF. I was on the dashboard, clicked upload, selected a 5MB PDF, and it just closed. Should show the file in my uploads but instead the whole app dies."
Output:
**Summary:** App crashes when uploading PDF files
**Steps to Reproduce:**
1. Navigate to dashboard
2. Click upload button
3. Select a PDF file (tested with 5MB file)
**Expected:** File appears in uploads section
**Actual:** Application crashes/closes unexpectedly
---
Input: {{bug_report}}
Output:
En la documentación técnica, la consistencia importa. La versión few-shot asegura que cada reporte de bug siga la misma estructura con el mismo nivel de detalle.
Marco de decisión rápido
Cuando te enfrentes a una tarea nueva, repasa estas preguntas:
1. ¿La tarea es directa y está bien definida? → Empieza con zero-shot
2. ¿Necesitas un formato específico que el modelo quizá no adivine? → Usa few-shot
3. ¿La tarea implica un razonamiento de varios pasos? → Prueba primero zero-shot chain-of-thought
4. ¿Necesitas una voz de marca consistente o terminología de un dominio? → Usa few-shot con ejemplos en esa voz
5. ¿Zero-shot te dio el 80 % de lo que necesitas? → Quédate con él. La perfección no compensa triplicar los tokens.
El objetivo no es usar la técnica más sofisticada, sino obtener buenos resultados con eficiencia. Zero-shot es la opción por defecto. Añade complejidad solo cuando los enfoques más simples se queden cortos.
Cómo llevarlo a la práctica
La mejor forma de interiorizarlo es experimentar. Coge una tarea que hagas a menudo (resumir informes, redactar correos, categorizar feedback) y prueba ambos enfoques. Fíjate en dónde se queda corto zero-shot. Fíjate en dónde few-shot marca una diferencia real.
Cuando encuentres prompts que funcionen, guárdalos en un sitio donde puedas volver a encontrarlos. Si estás creando una colección de prompts con ejemplos y variables, PromptNest es una app nativa para Mac ($19.99 de pago único en el Mac App Store, sin suscripción, sin cuenta, todo local) que los mantiene organizados, buscables y accesibles con un atajo de teclado desde cualquier app. Se acabó rebuscar en notas dispersas ese prompt few-shot perfecto que escribiste hace tres semanas.
Empieza simple. Añade complejidad cuando haga falta. Guarda lo que funciona. Esa es toda la estrategia.