Volver al blog

Chain-of-thought: haz que la IA razone paso a paso

Aprende la técnica de prompting que llevó la precisión de la IA del 18% al 79% en problemas de razonamiento, con ejemplos listos para copiar y pegar.

Chain-of-thought: haz que la IA razone paso a paso
Le hiciste a ChatGPT una pregunta que pedía pensar un poco: comparar dos opciones, analizar una decisión o resolver un problema con varios pasos. La IA respondió al instante, con total seguridad. Único detalle: la respuesta era completamente errónea.
Pasa más de lo que crees. Los asistentes de IA están entrenados para soltar respuestas que suenan creíbles, no para razonar de verdad. Cuando lanzas una pregunta compleja sin más, la IA suele saltarse la parte de pensar y va directa a una conclusión, a veces equivocándose de forma estrepitosa mientras suena absolutamente convencida.
Hay una solución. En 2022, investigadores de Google descubrieron que añadir una sola frase al prompt — "Pensemos paso a paso" — subió la precisión en problemas de matemáticas del 17,7% al 78,7%. No es una errata. Una frase hizo que la IA acertara cuatro veces más.
Esta técnica se llama chain-of-thought prompting (o prompting de cadena de pensamiento) y funciona porque obliga a la IA a mostrar su razonamiento en lugar de saltar directa a una conclusión. Vamos a ver cómo aplicarla en tareas reales, no solo en problemas de mates.

Qué es el chain-of-thought prompting

El chain-of-thought (CoT) prompting es exactamente lo que parece: le pides a la IA que explique su razonamiento paso a paso antes de dar la respuesta final. En vez de "¿Cuál es la respuesta?", preguntas "Explícame tu razonamiento y luego dame la respuesta".
Imagínalo como pedirle a un compañero que te enseñe cómo llegó a esa conclusión. Si alguien te suelta una recomendación sin más, no sabes si la pensó de verdad o si fue una corazonada. Pero si te lleva por su razonamiento — "valoré X, descarté Y por Z y eso me llevó a esta conclusión" — puedes detectar cualquier fallo en su lógica.
Con la IA pasa lo mismo. Cuando la obligas a articular los pasos intermedios, ocurren dos cosas:
  1. La IA detecta sus propios errores mientras razona
  2. Tú ves exactamente dónde se torció la lógica si la respuesta no encaja

Por qué la IA se salta pasos (y se equivoca)

Aquí va algo que mucha gente no sabe: los modelos de IA no "piensan" como las personas. Comparan patrones contra miles de millones de ejemplos de texto para predecir qué palabras vienen a continuación. Cuando lanzas una pregunta directa, saltan a la respuesta más probable estadísticamente.
Para preguntas sencillas, esto basta. "¿Cuál es la capital de Francia?" no pide razonamiento: la IA ha visto esa pregunta junto a su respuesta millones de veces.
Pero en cuanto entra lógica de verdad — comparar opciones, analizar pros y contras, resolver problemas con varios pasos — el truco del patrón se desmorona. La IA elige una respuesta que suena bien sin hacer el trabajo de comprobar si es correcta.
El chain-of-thought prompting interrumpe ese atajo. Al pedirle a la IA que razone en voz alta, la fuerzas a generar los pasos intermedios, y esos pasos limitan la respuesta final. Es más difícil llegar a una conclusión equivocada cuando tienes que enseñar el camino que te llevó hasta ahí.
Comparativa entre una IA que salta directa a la respuesta y una IA que razona paso a paso antes de contestar
Comparativa entre una IA que salta directa a la respuesta y una IA que razona paso a paso antes de contestar

La forma más simple de usar chain-of-thought

La versión fácil no requiere ninguna preparación. Solo añade una de estas frases al final de tu prompt:
  • "Pensemos paso a paso."
  • "Explícame tu razonamiento."
  • "Razona antes de darme la respuesta final."
  • "Desglosa esto paso a paso."
Los investigadores comprobaron que "Pensemos paso a paso" funcionaba mejor en sus pruebas, aunque un estudio posterior encontró una variante todavía más efectiva: "Resolvamos esto paso a paso para asegurarnos de tener la respuesta correcta".
Así se ve en la práctica. Imagina que estás decidiendo si aceptar una oferta de trabajo.
Sin chain-of-thought:

¿Debería aceptar una oferta de trabajo que paga un 20% más pero implica mudarme a una ciudad con un coste de vida un 40% mayor?


La IA puede soltarte un "sí" o un "no" rápido basado en una comparación superficial de patrones.
Con chain-of-thought:

¿Debería aceptar una oferta de trabajo que paga un 20% más pero implica mudarme a una ciudad con un coste de vida un 40% mayor?

Pensemos esto paso a paso, valorando las implicaciones financieras, los factores de calidad de vida y el impacto en la carrera antes de llegar a una conclusión.


Ahora la IA desglosará cada factor, hará las cuentas para ver si un 20% más de salario cubre un 40% más de gastos, valorará qué ganas y qué pierdes y te dará una recomendación razonada.

Few-shot CoT: enséñale a la IA cómo razonar

Al método de "Pensemos paso a paso" se le llama zero-shot CoT porque no le muestras ningún ejemplo. Funciona en muchos casos, pero en tareas complejas o muy específicas puedes mejorar los resultados todavía más enseñándole el patrón de razonamiento que quieres.
Eso es el few-shot CoT: añades uno o dos ejemplos resueltos que muestran a la IA cómo razonar ante problemas parecidos.
Aquí tienes una plantilla para analizar decisiones de negocio:

Necesito ayuda evaluando opciones. Así quiero que razones cada una:

Ejemplo:
Pregunta: ¿Deberíamos pasar de facturación mensual a anual?

Paso 1 - Identificar los factores clave: previsibilidad del cash flow, riesgo de churn, psicología de precios.

Paso 2 - Analizar cada factor:
- Cash flow: la facturación anual nos da los ingresos por adelantado y mejora la previsibilidad
- Churn: los clientes que pagan anualmente tienen menos churn
- Precios: podemos ofrecer un descuento por plan anual sin perder dinero

Paso 3 - Ponderar pros y contras: el principal inconveniente es que añade fricción a los nuevos registros.

Paso 4 - Conclusión: sí, pero ofrecer ambas opciones con un 15% de descuento en la anual.

Ahora aplica esta misma estructura de razonamiento a mi pregunta:
{{question}}
El ejemplo no tiene que coincidir con tu pregunta exacta: solo debe enseñar la estructura de razonamiento que buscas. La IA adaptará el patrón a tu caso concreto.

Cuándo ayuda de verdad chain-of-thought (y cuándo no)

El CoT prompting no es la solución mágica para cualquier interacción con IA. Un estudio de Wharton descubrió que, aunque mejora el rendimiento en problemas difíciles, puede empeorar la precisión en los fáciles al añadir complejidad innecesaria.
Usa chain-of-thought cuando:
  • Compares varias opciones o ponderes pros y contras
  • La tarea pida razonamiento o cálculos en varios pasos
  • Tengas que diagnosticar o resolver un problema
  • La respuesta requiera analizar causa y efecto
  • Quieras entender el razonamiento de la IA, no solo la respuesta
Sáltate chain-of-thought cuando:
  • Pidas datos o definiciones simples
  • Necesites resultados creativos como ideas o redacción
  • Quieras un resumen o una traducción
  • La rapidez importe más que la precisión
  • La tarea no implique razonamiento lógico
Otro detalle: el CoT prompting es menos efectivo en modelos pequeños. La investigación original de Google mostró que las mejoras notables solo aparecían en modelos con 100.000 millones de parámetros o más. Con herramientas actuales como ChatGPT-4, Claude o Gemini estás en el rango correcto. Si usas modelos más pequeños o antiguos, los resultados pueden variar.

5 prompts CoT listos para usar en el trabajo

Aquí van prompts para copiar y pegar que puedes empezar a usar hoy. Cada uno trae la estructura de chain-of-thought ya integrada.

1. Análisis de decisiones

Ayúdame a decidir: {{decision_to_make}}

Razónalo paso a paso:
1. Lista los factores clave que debería tener en cuenta
2. Analiza cómo se comporta cada opción frente a esos factores
3. Identifica los riesgos y compromisos principales
4. Dame tu recomendación con el razonamiento que la respalda

Sé concreto y usa mi situación real, no consejos genéricos.

2. Comparativa de pros y contras

Compara estas opciones: {{option_1}} vs {{option_2}}

Razona de forma sistemática:
1. Primero, identifica los 5 criterios que más importan en este tipo de decisión
2. Evalúa cada opción frente a cada criterio
3. Señala si hay algún dealbreaker o requisito imprescindible
4. Pondera los compromisos generales
5. Dame una recomendación clara

No te limites a listar pros y contras: razona qué factores pesan más y por qué.

3. Análisis de causa raíz

Ayúdame a entender por qué está pasando esto: {{problem_description}}

Usa este proceso de razonamiento:
1. Aclara qué está pasando de verdad frente a qué debería estar pasando
2. Lista todas las causas posibles (incluso las poco probables)
3. Para cada causa, indica qué evidencia la confirmaría o la descartaría
4. Con la información disponible, identifica la causa raíz más probable
5. Sugiere cómo verificarla y qué hacer al respecto

4. Planificación paso a paso

Necesito {{goal}}.

Desglósalo en pasos:
1. Primero, identifica qué tiene que pasar antes de cualquier otra cosa (requisitos previos)
2. Luego define las fases o hitos principales
3. Para cada fase, lista las acciones concretas que hacen falta
4. Marca las dependencias (qué tiene que ocurrir antes de que pueda empezar otra cosa)
5. Señala posibles bloqueos y cómo afrontarlos

Sé concreto: dame pasos accionables, no consejos vagos.

5. Análisis de preguntas complejas

{{complex_question}}

Antes de responder, trabajemos esto con calma:
1. Desglosa qué está pidiendo realmente la pregunta
2. Identifica los supuestos que lleva implícitos
3. Considera los factores clave que afectan a la respuesta
4. Razona cada factor
5. Luego dame tu respuesta con el razonamiento que la sostiene

Si hay incertidumbre real, reconócela en vez de fingir seguridad.
Estos prompts siguen el mismo patrón: dices qué necesitas y describes de forma explícita el proceso de razonamiento que quieres que siga la IA. La estructura la guía por un análisis a fondo en lugar de dejar que salte a conclusiones.
Plantilla de prompt con variables que se personalizan para distintas tareas
Plantilla de prompt con variables que se personalizan para distintas tareas
Si te ves reutilizando estos prompts — cambiando decisiones, problemas o preguntas distintas cada vez — una herramienta como PromptNest te permite guardarlos con los {{variables}} ya colocados. Cuando necesitas uno, rellenas los huecos y copias el prompt completo.

Solución de problemas: cuando el razonamiento se tuerce

A veces usarás chain-of-thought y la IA mostrará sus pasos, pero aun así llegará a una conclusión equivocada. Aquí va cómo gestionarlo.
El razonamiento parece correcto pero la conclusión está mal. La IA puede haber partido de un supuesto erróneo. Pregunta: "¿Qué supuestos estás haciendo? Lístalos de forma explícita". Muchas veces el fallo está en una premisa no dicha, no en la lógica.
La IA se ha saltado factores importantes. Responde con: "No has tenido en cuenta {{factor}}. ¿Cómo cambia eso tu análisis?" La IA incorporará la nueva información y a menudo revisará su conclusión.
El razonamiento es circular o vago. Pide más concreción: "En el paso 2 dices que 'esto podría ser arriesgado'. ¿A qué riesgos concretos te refieres y cómo los cuantificarías?" Forzar detalles concretos saca a la luz el pensamiento difuso.
Sospechas que la IA va sobrada de confianza. Prueba: "Hazme de abogado del diablo. ¿Cuál es el argumento más sólido en contra de esta conclusión?" Suele revelar puntos débiles que la IA pasó por alto la primera vez.
El sentido del chain-of-thought prompting no es solo conseguir mejores respuestas: es hacer visible el razonamiento de la IA para que tú puedas detectar y corregir errores. Trata la primera respuesta como un punto de partida, no como una respuesta final.

Empieza a usar chain-of-thought hoy mismo

No hace falta memorizar técnicas ni seguir frameworks complicados. Recuerda la idea central: cuando necesites que la IA piense en lugar de adivinar, pídele que muestre su trabajo.
Empieza con una tarea para la que ya uses IA con frecuencia, algo que implique análisis, comparación o diagnóstico. Añade "Pensemos esto paso a paso" y mira cómo cambia la respuesta. En cuanto notes la diferencia, irás detectando solo cuándo merece la pena usarlo.
Si quieres montar una biblioteca de prompts de razonamiento como los de arriba, puedes guardarlos donde te apañes mejor: una app de notas, un documento, lo que ya uses. O, si prefieres algo hecho a medida, PromptNest es una app nativa para Mac ($19.99 pago único en la Mac App Store, sin suscripción, sin cuenta, todo local) que mantiene tus prompts organizados y con variables integradas. Sea cual sea la opción, lo importante es tener tus mejores prompts a mano cuando los necesitas, no enterrados en chats antiguos.
La diferencia entre una IA que te ayuda a pensar y una IA que solo suena segura suele estar en cuatro palabras: "Pensemos esto paso a paso".