Volver al blog

Cómo iterar sobre prompts de IA: un sistema sencillo de pruebas

Deja de adivinar por qué fallan tus prompts. Un ciclo de 4 pasos para probar y mejorar prompts que de verdad da mejores resultados.

Cómo iterar sobre prompts de IA: un sistema sencillo de pruebas
Escribiste un prompt. La respuesta estaba mal. Así que lo reescribiste. Sigue mal, pero mal de otra forma. Cambiaste un par de palabras, regeneraste, conseguiste algo más cerca de lo que querías… y luego perdiste la pista de qué habías cambiado. Treinta minutos después, has vuelto al punto de partida sin saber qué versión era realmente mejor.
Este enfoque de "regenerar y cruzar los dedos" es como la mayoría de la gente usa la IA. Y es por eso por lo que la mayoría sigue frustrada. Según un estudio de Workday, alrededor del 37 % del tiempo que ahorran los empleados gracias a la IA se pierde en rehacer trabajo: corregir errores, verificar respuestas y reescribir contenido que no daba en el clavo.
La diferencia entre los retoques al azar y la iteración sistemática no es el esfuerzo, sino el método. Cuando pruebas, evalúas y documentas tus cambios, dejas de repetir los mismos errores. Aprendes qué funciona de verdad para tu caso concreto. Y construyes prompts que dan buenos resultados de forma fiable, en lugar de acertar de chiripa de vez en cuando.

Por qué los retoques al azar no funcionan

Hay un motivo por el que iterar sobre un prompt se siente como apostar. Cuando cambias tres cosas a la vez y la salida mejora, no sabes qué cambio fue el que ayudó. Cuando reescribes de memoria en lugar de comparar versiones, no detectas patrones. Cuando borras tus intentos anteriores, pierdes los datos que te dirían qué funciona.
Una investigación de MIT Sloan descubrió que solo la mitad de la mejora de rendimiento de los modelos de IA avanzados viene del propio modelo. La otra mitad viene de cómo los usuarios adaptan sus prompts. En otras palabras, tu habilidad para escribir prompts importa tanto como las capacidades de la IA.
Pero esa habilidad no es magia. Es reconocimiento de patrones que se construye con práctica estructurada. Necesitas ver qué cambios producen qué resultados, y para eso hace falta un sistema.

El ciclo de iteración en 4 pasos

Una iteración eficaz sobre prompts sigue un bucle muy simple:
  1. Prueba — Ejecuta tu prompt y guarda la respuesta completa
  2. Evalúa — Compara el resultado con tu objetivo concreto
  3. Refina — Haz un cambio puntual en función de qué falla
  4. Documenta — Anota qué cambiaste y qué pasó
No es complicado. Pero hacer los cuatro pasos —sobre todo el último— es lo que separa a quien va mejorando de forma constante de quien sigue peleándose una y otra vez con los mismos problemas.
Diagrama circular que muestra los cuatro pasos de la iteración de un prompt: Probar, Evaluar, Refinar, Documentar
Diagrama circular que muestra los cuatro pasos de la iteración de un prompt: Probar, Evaluar, Refinar, Documentar

Paso 1: Ejecuta tu prompt y guárdalo todo

Empieza con el prompt que tengas. No le des demasiadas vueltas a la primera versión: vas a mejorarla de todas formas. El objetivo es tener una línea base contra la que medir.
Cuando ejecutes el prompt, guarda tanto el prompt como la respuesta completa. No solo lo bueno. Ni un resumen. Todo. Necesitas la imagen entera para diagnosticar problemas.
Si estás probando en ChatGPT o Claude, copia toda la conversación en una nota o documento antes de tocar nada. En cuanto regeneras o editas, el original desaparece.

Paso 2: Evalúa contra tu objetivo real

Aquí es donde la mayoría se equivoca. Miran la respuesta y piensan "esto no acaba de estar bien", y se ponen a reescribir al instante. Esa insatisfacción difusa no te dice qué hay que arreglar.
En su lugar, usa lo que yo llamo el Test del bolígrafo rojo. Repasa la respuesta y marca problemas concretos:
  • ¿El tono está mal? ¿Dónde exactamente?
  • ¿Falta información? ¿Cuál en concreto?
  • ¿Es demasiado largo? ¿Qué partes son relleno?
  • ¿Entendió mal la tarea? ¿De qué manera?
  • ¿El formato está mal? ¿Cuál debería ser?
Anota tu evaluación. "Demasiado formal en el segundo párrafo, falta la restricción de presupuesto, ha incluido contexto irrelevante sobre la historia de la empresa". Ahora ya sabes exactamente qué arreglar.

Paso 3: Cambia una cosa cada vez

Esta es la disciplina más difícil de mantener y la más importante. Cuando cambias varias cosas a la vez, no puedes saber cuál ha funcionado. La investigación sobre tests A/B es muy clara: aislar una sola variable es fundamental, y probar varios cambios a la vez impide atribuir los resultados.
Elige el problema más importante de tu evaluación y aborda solo ese. Algunos arreglos habituales:
  • Añade contexto: dale a la IA la información que necesita para entender tu situación
  • Añade restricciones: especifica longitud, formato, tono o qué dejar fuera
  • Añade ejemplos: muestra cómo es una buena respuesta (esto se llama few-shot prompting)
  • Aclara la tarea: reescribe las instrucciones vagas para que sean concretas
  • Asigna un rol: dile a la IA quién se supone que es (consulta role prompting)
Haz tu único cambio, vuelve a ejecutar el prompt y compara. ¿Ha ayudado? ¿Ha creado un problema nuevo? Lo sabrás, porque solo cambiaste una cosa.

Paso 4: Documenta qué cambiaste

Este paso parece opcional. No lo es. Sin documentación, repetirás experimentos fallidos, olvidarás técnicas que funcionaban y perderás tus mejores prompts en el historial del chat.
Tu documentación no tiene por qué ser elaborada. Un registro sencillo basta:
  • Versión: v1, v2, v3…
  • Qué cambió: "Añadida restricción de 200 palabras"
  • Resultado: "Ahora la longitud es correcta, pero ha perdido el tono conversacional"
  • Conservar o descartar: conservar la restricción, arreglar el tono en la siguiente iteración
Con el tiempo, ese registro se convierte en tu manual personal. Empezarás a ver patrones: quizá añadir ejemplos siempre te ayuda en tareas de redacción, o quizá especificar el formato desde el principio produce una estructura mejor. Esos aprendizajes se acumulan.
Si estás iterando sobre prompts que vas a usar muchas veces, una herramienta como PromptNest te permite adjuntar notas directamente a cada prompt. Puedes registrar qué has probado, qué funcionó y por qué, sin tener que mantener un documento aparte.

Ejemplo real: iterar un prompt de resumen de reuniones

Veamos un ciclo de iteración real. Imagina que necesitas convertir las notas de una reunión en una lista de tareas para tu equipo.
Versión 1:

Summarize these meeting notes.

{{meeting_notes}}
Resultado: un resumen genérico que entierra las tareas en párrafos de contexto. Demasiado largo, y encima tienes que ir a cazar lo que de verdad hay que hacer.
Evaluación: falta una salida estructurada. No hay tareas claras. Incluye un repaso innecesario.
Cambio: añadir restricciones de formato.
Versión 2:

Extract action items from these meeting notes. Format as a bulleted list with the owner's name in brackets after each item.

{{meeting_notes}}
Resultado: una lista limpia con viñetas de tareas y sus responsables. Pero algunas tareas son vagas ("hacer seguimiento de lo que comentamos") y faltan las fechas límite.
Evaluación: buen formato, pero las tareas no son concretas y no tienen plazos.
Cambio: añadir requisitos de concreción y plazos.
Comparación de antes y después que muestra cómo un prompt vago se transforma en un prompt concreto y estructurado
Comparación de antes y después que muestra cómo un prompt vago se transforma en un prompt concreto y estructurado
Versión 3:

Extract action items from these meeting notes.

For each action item, include:
- What specifically needs to be done (not vague references)
- Who owns it [in brackets]
- Deadline if mentioned, or "No deadline specified"

If an action item is unclear in the notes, flag it with "[NEEDS CLARIFICATION]" so I can follow up.

{{meeting_notes}}
Resultado: tareas concretas, responsables claros, fechas límite cuando están disponibles y avisos en lo que sea ambiguo. Esto sí es usable.
Tres iteraciones. Cada una abordó un problema concreto detectado en la evaluación. El prompt final es muchísimo mejor que el primero, y sabes exactamente por qué.

Cuándo dejar de iterar

La iteración tiene rendimientos decrecientes. Llega un punto en el que estás puliendo algo que ya está suficientemente bien. Estas son señales de que conviene parar:
La salida cumple tus requisitos. No es perfecta: cumple los requisitos. Si hace lo que necesitas, dalo por bueno.
Los cambios están empeorando las cosas. A veces te chocas con un máximo local. Si tus tres últimos cambios han bajado la calidad, vuelve a tu mejor versión y dalo por terminado.
Estás optimizando para casos extremos. Si el prompt funciona el 90 % de las veces y llevas horas con el 10 % restante, plantéate si merece la pena ese tiempo.
El problema es la tarea, no el prompt. Hay tareas que, simplemente, son difíciles para la IA actual. Si ya has probado todos los enfoques razonables, puede que estés pidiéndole a la IA algo que todavía no sabe hacer de forma fiable.

Construye un sistema, no solo prompts

El verdadero valor de iterar de forma sistemática no es ningún prompt mejorado en concreto. Es la habilidad que desarrollas y la biblioteca que construyes.
Cada prompt que iteras te enseña algo sobre cómo responde la IA a las instrucciones. Con el tiempo, empezarás a sacar mejores primeros borradores porque ya has interiorizado lo que funciona. Reconocerás los patrones de fallo habituales al instante. Tendrás una colección de prompts probados que podrás adaptar a tareas nuevas.
Esa colección importa. Los mejores prompt engineers no empiezan desde cero cada vez: mantienen bibliotecas de prompts probados que pueden modificar y reutilizar. Según una encuesta de Rev.com, los usuarios que encuentran útiles las sugerencias de prompts tienen un 280 % más de probabilidades de obtener respuestas satisfactorias en menos de dos minutos que quienes no las encuentran útiles.
Si estás acumulando prompts que merece la pena conservar, PromptNest les da un sitio en condiciones: organizados por proyecto, con búsqueda y accesibles desde cualquier app con un atajo de teclado. Puedes guardar tus prompts ya iterados con variables como {{meeting_notes}} integradas, rellenar los huecos cuando los necesites y saltarte el proceso de iteración por completo, porque ya hiciste el trabajo.
Empieza con el ciclo de 4 pasos en tu próximo prompt. Prueba, evalúa, refina, documenta. Al principio cuesta un poco más. Pero cada hora que inviertas en iterar es una hora que ahorrarás —muchas veces multiplicada— cuando tus prompts funcionen de verdad.