Цепочка рассуждений: как заставить ИИ думать пошагово
Разбираем простой приём промптинга, который поднял точность ИИ с 18% до 79% на задачах с рассуждениями — с готовыми промптами для рабочих задач.
Ты задал ChatGPT вопрос, где нужно было подумать — сравнить два варианта, разобрать решение или пройти задачу в несколько шагов. ИИ мгновенно выдал уверенный ответ. Одна загвоздка: ответ был полностью мимо.
Такое случается чаще, чем кажется. ИИ-ассистенты обучены выдавать правдоподобные ответы, а не на самом деле рассуждать над задачей. Когда ты задаёшь сложный вопрос обычным способом, модель часто пропускает этап размышления и сразу прыгает к ответу — иногда промахиваясь по-крупному, при этом звуча абсолютно уверенно.
Способ исправить это есть. В 2022 году исследователи из Google обнаружили: если добавить к промпту одну фразу — «Давай подумаем шаг за шагом» — точность на математических задачах подскакивает с 17,7% до 78,7%. Это не опечатка. Одно предложение делает ИИ в четыре раза точнее.
Этот приём называется цепочкой рассуждений (chain-of-thought prompting), и работает он потому, что заставляет ИИ показывать ход мысли, а не прыгать к выводам. Дальше — как применять его в реальных задачах, а не только в школьной математике.
Что такое цепочка рассуждений
Цепочка рассуждений (CoT) — это ровно то, что звучит: ты просишь ИИ объяснить ход мысли по шагам, а уже потом дать финальный ответ. Вместо «Какой ответ?» ты говоришь «Проведи меня по своим рассуждениям, а потом дай ответ».
Представь, что ты просишь коллегу показать, как он пришёл к выводу. Если человек выдаёт рекомендацию без объяснений, не понятно — он реально всё обдумал или просто угадал. А вот когда он рассказывает: «Я учёл X, отбросил Y из-за Z и поэтому пришёл к такому выводу» — ты сразу видишь, где в логике могут быть дыры.
С ИИ работает тот же принцип. Когда ты заставляешь модель проговаривать промежуточные шаги, происходят две вещи:
ИИ ловит свои ошибки прямо по ходу рассуждения
Если ответ всё-таки кривой, ты видишь, где именно сломалась логика
Почему ИИ срезает углы (и ошибается)
Вот что многие не понимают: языковые модели на самом деле не «думают» в человеческом смысле. Они подбирают шаблоны по миллиардам текстовых примеров и предсказывают, какие слова должны идти дальше. Если ты задаёшь прямой вопрос — модель прыгает к самому статистически вероятному ответу.
Для простых вопросов это нормально работает. «Какая столица Франции?» — здесь рассуждать не надо: модель видела эту пару «вопрос–ответ» миллионы раз.
Но как только нужна настоящая логика — сравнить варианты, взвесить компромиссы, решить задачу в несколько шагов — подход через шаблоны рассыпается. Модель выбирает ответ, который звучит правильно, но не делает работу, чтобы проверить, что он действительно правильный.
Цепочка рассуждений ломает этот срез. Когда ты просишь модель рассуждать вслух, она вынуждена выдавать промежуточные шаги — а они уже задают рамки финальному ответу. Сложнее прийти к неверному выводу, когда нужно показать путь, который к нему привёл.
Сравнение: ИИ сразу прыгает к ответу против ИИ, который сначала рассуждает по шагам
Самый простой способ применить цепочку рассуждений
Самый простой вариант не требует никакой подготовки. Просто добавь к промпту одну из этих фраз:
«Давай подумаем шаг за шагом.»
«Проведи меня по своим рассуждениям.»
«Сначала объясни ход мысли, потом дай финальный ответ.»
«Разложи это по шагам.»
В исходном исследовании лучшим оказался вариант «Давай подумаем шаг за шагом», но более позднее исследование нашло формулировку ещё точнее: «Давай разберём это шаг за шагом, чтобы убедиться, что ответ верный».
Вот как это выглядит на практике. Допустим, ты решаешь, принимать ли оффер.
Без цепочки рассуждений:
Стоит ли мне принять оффер с зарплатой на 20% выше, если для этого нужно переехать в город, где стоимость жизни выше на 40%?
Модель, скорее всего, выдаст быстрое «да» или «нет» по поверхностному совпадению шаблонов.
С цепочкой рассуждений:
Стоит ли мне принять оффер с зарплатой на 20% выше, если для этого нужно переехать в город, где стоимость жизни выше на 40%?
Давай разберём шаг за шагом: сначала финансовая часть, потом качество жизни, потом влияние на карьеру, и только после этого вывод.
Теперь ИИ разложит каждый фактор, посчитает, перекрывает ли прибавка в 20% рост расходов на 40%, прикинет, что ты выигрываешь и теряешь, и выдаст обоснованную рекомендацию.
Few-shot CoT: показываем ИИ, как именно рассуждать
Подход «Давай подумаем шаг за шагом» называется zero-shot CoT — потому что ты не приводишь никаких примеров. Для большинства задач этого хватает, но если работа сложная или узкоспециальная, можно получить ещё более точный результат, если сначала продемонстрировать модели нужный паттерн рассуждения.
Это и есть few-shot CoT — ты включаешь в промпт один-два разобранных примера, которые показывают, как именно нужно рассуждать в похожих задачах.
Вот шаблон для разбора бизнес-решений:
Помоги мне оценить варианты. Вот как я хочу, чтобы ты рассуждал по каждому из них:
Пример:
Вопрос: Стоит ли нам перейти с помесячной оплаты на годовую?
Шаг 1 — Ключевые факторы: предсказуемость денежного потока, риск оттока клиентов, психология цены.
Шаг 2 — Разбор каждого фактора:
- Денежный поток: годовая оплата даёт выручку сразу, прогнозы становятся точнее
- Отток: клиенты на годовых тарифах уходят реже
- Цена: можно дать скидку на год, не теряя в марже
Шаг 3 — Компромиссы: главный минус — выше барьер для новых регистраций.
Шаг 4 — Вывод: да, но оставить оба варианта, годовой — со скидкой 15%.
Теперь применяй ту же структуру рассуждения к моему вопросу:
{{question}}
Пример не обязан совпадать с твоим вопросом по теме — он нужен только чтобы показать, какую структуру рассуждения ты ждёшь. Модель сама адаптирует паттерн под твою конкретную задачу.
Когда цепочка рассуждений реально помогает (а когда — нет)
CoT — не волшебная таблетка под любой запрос к ИИ. Исследование Wharton показало: на сложных задачах метод повышает качество ответов, но на простых может, наоборот, ухудшить точность — добавляя ненужный слой сложности.
Используй цепочку рассуждений, когда:
Ты сравниваешь несколько вариантов или взвешиваешь компромиссы
Задача требует пошаговой логики или вычислений
Нужно найти причину или диагностировать проблему
Ответ строится на анализе причин и следствий
Тебе важно понять, как ИИ пришёл к выводу, а не только сам вывод
Не используй её, когда:
Ты спрашиваешь простой факт или определение
Тебе нужен творческий результат — брейншторм или текст
Ты просишь резюме или перевод
Скорость важнее точности
В задаче нет логических рассуждений
Ещё одна важная оговорка: на маленьких моделях CoT почти не даёт прироста. Оригинальное исследование Google показало, что заметный эффект появляется только у моделей со 100+ миллиардами параметров. Современные потребительские ИИ — ChatGPT-4, Claude, Gemini — попадают в нужный диапазон. Но если ты используешь старую или небольшую модель, эффект может быть слабее.
5 готовых CoT-промптов для реальной работы
Дальше — промпты, которые можно скопировать и сразу пускать в дело. В каждом цепочка рассуждений уже встроена.
1. Анализ решения
Помоги мне определиться: {{decision_to_make}}
Пройди задачу шаг за шагом:
1. Перечисли ключевые факторы, которые стоит учесть
2. Разбери, как каждый вариант смотрится по этим факторам
3. Назови основные риски и компромиссы
4. Дай рекомендацию с обоснованием
Опирайся на мою конкретную ситуацию, а не на общие советы.
2. Сравнение «за и против»
Сравни варианты: {{option_1}} и {{option_2}}
Пройди по задаче системно:
1. Сначала выдели 5 критериев, которые важнее всего для такого типа решений
2. Оцени каждый вариант по каждому критерию
3. Отметь, есть ли стоп-факторы или обязательные условия
4. Взвесь компромиссы
5. Дай чёткую рекомендацию
Не ограничивайся списком плюсов и минусов — рассуждай, какие факторы важнее и почему.
3. Поиск корневой причины
Помоги разобраться, почему происходит: {{problem_description}}
Используй такой ход рассуждения:
1. Уточни, что происходит на самом деле и что должно происходить
2. Перечисли все возможные причины (даже маловероятные)
3. По каждой причине прикинь, какие данные подтвердили бы её или исключили
4. На основе доступной информации назови наиболее вероятную корневую причину
5. Подскажи, как это проверить и что с этим делать
4. Пошаговое планирование
Мне нужно: {{goal}}.
Разложи это по шагам:
1. Сначала — что должно случиться раньше всего остального (предусловия)
2. Потом — основные этапы или вехи
3. По каждому этапу — конкретные действия
4. Отметь зависимости (что должно произойти, прежде чем стартует следующее)
5. Назови возможные блокеры и как их обходить
Будь конкретным — мне нужны действия, а не общие советы.
5. Разбор сложного вопроса
{{complex_question}}
Прежде чем отвечать, давай аккуратно разберём:
1. Что вопрос на самом деле спрашивает
2. Какие допущения в нём уже зашиты
3. Какие ключевые факторы влияют на ответ
4. Рассуди по каждому фактору
5. После этого дай ответ с подкрепляющим рассуждением
Если есть реальная неопределённость — признай её, а не делай вид, что всё понятно.
Все эти промпты построены по одному принципу: сначала ты говоришь, что тебе нужно, а потом явно описываешь, как именно ИИ должен рассуждать. Структура ведёт модель через нормальный анализ, а не позволяет ей сразу прыгнуть к выводам.
Карточка шаблона промпта с переменными, которые подставляются под разные задачи
Если ты замечаешь, что используешь такие промпты регулярно — подставляя то одно решение, то другую проблему, то новый вопрос — приложение вроде PromptNest даёт сохранять их с уже встроенными {{variables}}. Когда понадобится — просто заполняешь поля и копируешь готовый промпт.
Что делать, если рассуждение пошло не туда
Иногда ты применяешь CoT, ИИ показывает все шаги... и всё равно приходит не к тому выводу. Вот как с этим работать.
Рассуждение выглядит нормально, но вывод неверный. Скорее всего, модель стартанула с ошибочного допущения. Спроси: «Какие допущения ты сейчас делаешь? Перечисли их явно». Часто ошибка не в логике, а в незаявленной предпосылке.
ИИ упустил важные факторы. Ответь: «Ты не учёл {{factor}}. Как это меняет твой анализ?» Модель добавит новую информацию и обычно пересматривает вывод.
Рассуждение размытое или ходит по кругу. Требуй конкретики: «На втором шаге ты написал: „это может быть рискованно“. Какие именно риски ты имеешь в виду и как их измерить?» Когда ты заставляешь модель спускаться к деталям, размытое мышление сразу всплывает.
Ты подозреваешь, что ИИ слишком уверен в себе. Попробуй: «Сыграй адвоката дьявола. Какой самый сильный аргумент против этого вывода?» Это часто вытаскивает на поверхность слабые места, которые модель проскочила.
Смысл цепочки рассуждений не только в том, чтобы получать более точные ответы, — а в том, чтобы видеть рассуждение модели и ловить ошибки. Воспринимай первый ответ как стартовую точку, а не как финал.
Как начать использовать цепочку рассуждений уже сегодня
Не нужно зубрить техники или продираться через сложные фреймворки. Запомни главное: когда тебе нужно, чтобы ИИ думал, а не угадывал — попроси его показать ход мысли.
Возьми одну задачу, в которой ты регулярно используешь ИИ, — что-то с анализом, сравнением или диагностикой. Добавь в конце «Давай разберём это шаг за шагом» и посмотри, как поменяется ответ. Один раз увидишь разницу — и сам начнёшь чувствовать, когда приём пора включать.
Если хочешь собрать собственную библиотеку промптов с рассуждениями вроде тех, что выше, — храни их где удобно: в заметках, в документе, где угодно. А если нужен инструмент под задачу — PromptNest — это нативное Mac-приложение ($19.99 единоразово на Mac App Store, без подписки, без аккаунта, всё работает локально), которое держит твои промпты в порядке и сразу с переменными. Вариант любой — главное, чтобы лучшие промпты были под рукой, а не похоронены в старых чатах.
Разница между ИИ, который реально помогает думать, и ИИ, который просто звучит уверенно, часто упирается в шесть слов: «Давай разберём это шаг за шагом».