ブログ一覧へ戻る

答えに飛びつくAIと、ステップを踏んで推論してから答えるAIを並べて比較した図

プロンプトテンプレートのカードに変数のプレースホルダーがあり、用途ごとに書き換えられている様子
Chain-of-Thought(思考の連鎖)でAIに段階的に考えさせる
ChatGPTやClaudeの推論精度が17.7%から78.7%に跳ね上がった有名なテクニック。日々の業務にそのまま使えるコピペ用プロンプトとあわせて解説します。

ちょっと考えないと答えが出ない質問——選択肢の比較、判断材料の整理、何段階か論理を積み上げる問題——をChatGPTに投げたら、迷う素振りもなく即答が返ってきた。しかも自信満々。よく読むと、まったく見当違いだった。そんな経験はありませんか。
これは思った以上によく起こります。AIアシスタントは「もっともらしい文章を生成する」ように訓練されていて、「腰を据えて推論する」ようには作られていません。複雑な質問を普通の聞き方で渡すと、思考プロセスをすっ飛ばして最終回答に直行することがよくあります。堂々とした口調で、見事に間違える、というわけです。
これを直す方法があります。2022年、Googleの研究者たちが、プロンプトに「Let's think step by step(ステップバイステップで考えよう)」と一文添えるだけで、算数の文章題の正答率が17.7%から78.7%まで跳ね上がることを発見しました。誤植ではありません。たった一文で、AIの正解率が4倍以上になったのです。
このテクニックがChain-of-Thought(思考の連鎖、略してCoT)プロンプティングです。AIに結論へ飛びつかせず、過程を書き出させる——たったそれだけで効きます。本記事では、数学のテストではなく日常の仕事でどう使えばいいのかを整理します。
Chain-of-Thoughtプロンプティングとは
Chain-of-Thought(CoT)プロンプティングは、その名のとおりです。最終回答を出す前に、考えた筋道を順番に説明させる。「答えは何ですか?」ではなく、「考え方を順番に説明してから、最後に答えてください」と聞くわけです。
同僚に「途中の式も見せて」と頼むイメージに近い。理由なしで結論だけ渡されると、本当に考えたのか勘で言っているのか判断できません。逆に「Xを検討して、Zの理由でYを除外し、結果としてこの結論になりました」と筋道を見せてもらえれば、論理に穴がないかチェックできます。
AIにも同じ理屈が当てはまります。途中のステップを言葉にさせると、二つのことが同時に起きます。
- AIが推論の途中で自分のミスに気づく
- 答えが外れていたとき、どこで論理が狂ったのかが見える
AIがステップを飛ばす理由
意外と知られていない事実があります。AIモデルは人間のように「考えて」いるわけではありません。膨大なテキストとパターン照合をして、次に来るべき単語を確率的に予測しているだけです。素直な質問を渡されると、統計的にもっとも出現しそうな答えへ一直線に飛びます。
単純な質問ならそれで十分です。「フランスの首都は?」には推論はいりません。AIはこの質問と「パリ」というペアを、何百万回も学習データの中で見ています。
ところが本気で論理が必要な質問——選択肢の比較、トレードオフの分析、複数ステップの問題——になると、パターン照合だけでは破綻します。AIは「正しそうに聞こえる答え」を選び、それが本当に正しいかどうかは確かめません。
Chain-of-Thoughtプロンプティングは、この近道をふさぐ仕掛けです。声に出して推論させると、AIは中間ステップを書き出さざるを得なくなります。そのステップが、最終回答の取りうる範囲を縛ります。たどってきた道筋を見せながら、間違った結論に着地するのは意外と難しいのです。

もっとも手軽なCoTの使い方
もっとも簡単なやり方は、準備ゼロです。プロンプトの末尾に次のいずれかを添えるだけ。
- 「ステップバイステップで考えてください。」
- 「考えた筋道を順番に説明してください。」
- 「最終回答の前に、思考過程を書き出してください。」
- 「この問題を一段ずつ分解してください。」
研究では「Let's think step by step」がもっとも結果が良かったと報告されていますが、後続の研究ではさらに上回るフレーズが見つかっています。「Let's work this out in a step by step way to be sure we have the right answer.(正しい答えにたどり着くため、一歩ずつ順を追って考えていきましょう。)」がそれです。
実際の使い方を見てみます。たとえば、転職オファーを受けるかどうか迷っているとしましょう。
CoTなしの場合:
AIは表面的なパターン照合だけで、「はい」か「いいえ」をサクッと返してきます。
給料が20%上がるけれど、生活費が40%高い都市への引っ越しが条件のオファーを受けるべきですか?
AIは表面的なパターン照合だけで、「はい」か「いいえ」をサクッと返してきます。
CoTありの場合:
ここまで指示すると、AIは要素ごとに分解し、20%の昇給で40%のコスト増を吸収できるか試算し、得られるもの・失うものを並べたうえで、根拠つきの推奨を返してきます。
給料が20%上がるけれど、生活費が40%高い都市への引っ越しが条件のオファーを受けるべきですか?
結論を出す前に、金銭面、生活の質、キャリアへの影響の順にステップバイステップで考えてください。
ここまで指示すると、AIは要素ごとに分解し、20%の昇給で40%のコスト増を吸収できるか試算し、得られるもの・失うものを並べたうえで、根拠つきの推奨を返してきます。
Few-shot CoT:考え方そのものを見せる
「ステップバイステップで考えて」式のCoTは、お手本となる例を一切見せていないのでzero-shot CoTと呼ばれます。多くの場面で十分に使えますが、複雑な業務や専門性の高い課題では、欲しい推論パターンを実際に示してあげると、結果がさらに伸びます。
これがfew-shot CoTです。1〜2件の解き方サンプルをプロンプトに含めて、似た問題をどう推論してほしいかをAIに直接見せます。
ビジネス上の判断を整理するためのテンプレートを示します。
いくつかの選択肢を評価してほしい。各選択肢を以下の手順で考えてほしい。
例:
質問:請求サイクルを月次から年次に切り替えるべきか?
ステップ1 - 主要な観点を洗い出す:キャッシュフローの予測しやすさ、解約リスク、価格心理。
ステップ2 - 観点ごとに分析する:
- キャッシュフロー:年次は売上を前倒しで受け取れるので予測精度が上がる
- 解約リスク:年次払いの顧客は解約率が低い
- 価格:年次プランに割引を載せても利益は守れる
ステップ3 - トレードオフを比較する:主な弱みは新規申込の心理的ハードルが上がる点。
ステップ4 - 結論:実施する。ただし月次・年次の両方を提示し、年次は15%割引を付ける。
この推論構造をそのまま使って、私の質問に答えてほしい:
{{question}}
例のテーマがこちらの質問と一致している必要はありません。欲しいのは「推論の構造」を見せることだけ。AIはそのパターンを、こちらの個別状況に合わせて自分で適用してくれます。
CoTが効くとき、効かないとき
CoTプロンプティングはあらゆる場面に効く魔法ではありません。ウォートン校の研究では、難問では精度が上がる一方、簡単な問題では余計な複雑さを持ち込んで逆に正答率を下げることもある、と報告されています。
CoTを使うべき場面:
- 複数の選択肢を比較する/トレードオフを評価する
- 多段階の推論や計算が必要なタスク
- 問題のトラブルシューティングや原因切り分け
- 因果関係の分析が必要な質問
- 答えそのものより、AIの推論過程を確認したい場面
CoTを避けたほうがいい場面:
- 単純な事実確認や用語の定義を聞くとき
- ブレストや文章執筆のような創作系の出力
- 要約や翻訳をしてほしいとき
- 精度より速度が優先されるとき
- そもそも論理的な推論を必要としないタスク
もう一つ補足を。CoTプロンプティングは、小さなモデルだと効果が薄まります。Googleの最初の論文では、目に見えて効果が出るのは1000億パラメータ級以上のモデルだったと報告されています。ChatGPT-4、Claude、Geminiといった現在のコンシューマー向けAIなら問題ない範囲ですが、古めのモデルや小型モデルを使っているなら、結果は安定しないかもしれません。
そのまま使えるCoTプロンプト5選
ここからはコピペで使える実用プロンプトです。どれも思考の連鎖の構造を最初から組み込んであります。
1. 意思決定の整理
判断を手伝ってほしい:{{decision_to_make}}
以下のステップで進めて:
1. 検討すべき主要な観点を列挙
2. 各選択肢が観点ごとにどう評価されるかを分析
3. 主なリスクとトレードオフを指摘
4. 推奨案と、その根拠を提示
一般論ではなく、私の状況に即して具体的に書いて。
2. メリット・デメリット比較
次の選択肢を比較してほしい:{{option_1}} vs {{option_2}}
以下の流れで体系的に検討して:
1. この種の判断でもっとも重要な5つの基準を洗い出す
2. 各選択肢を、その5つの基準で評価する
3. 譲れない条件や絶対NGがあれば指摘する
4. 全体のトレードオフを比較する
5. 明確な推奨案を出す
単にメリット・デメリットを並べるのではなく、どの観点を重く見るか、その理由まで踏み込んで考えて。
3. 原因分析
なぜこれが起きているのかを一緒に考えてほしい:{{problem_description}}
次の手順で分析して:
1. 「実際に起きていること」と「本来あるべき状態」を切り分ける
2. 考えうる原因を、可能性が低そうなものまで含めてリストアップ
3. それぞれの原因について、何が裏付け/反証になるかを示す
4. 手元の情報から、もっとも可能性が高い根本原因を特定する
5. その仮説を検証する方法と、当面の対応策を提案する
4. ステップに分解した計画
次のことを実現したい:{{goal}}
手順に分解してほしい:
1. まず、何より先に終わらせるべき前提条件を洗い出す
2. 大きなフェーズやマイルストーンを並べる
3. 各フェーズで具体的に必要なアクションを書く
4. 依存関係(先に終わっていないと次に進めない作業)を明示する
5. 詰まりそうなポイントと、その対処法を添える
抽象論ではなく、すぐ動ける粒度で書いて。
5. 複雑な問いの分解
{{complex_question}}
答える前に、慎重に整理してほしい:
1. この問いが本当に何を聞いているのかを言い直す
2. 質問に組み込まれている前提や思い込みを洗い出す
3. 答えに影響する主要な要素を挙げる
4. それぞれの要素について筋道立てて検討する
5. 最後に、根拠を添えて答えを出す
本当に不確かな点があるなら、確信のあるふりをせず、不確かだと正直に書いて。
どのプロンプトも構造は同じです。何が必要かを述べたあと、AIに踏んでほしい思考の手順を明示する。これだけで、AIは結論に飛びつかず、ひととおり整理してから答えを返してくれます。

こうしたプロンプトを毎回使い回すなら——意思決定や問題、質問だけ差し替えながら何度も呼び出すなら——PromptNestのようなツールに、
{{変数}}入りのまま保存しておくと楽です。必要なときに呼び出して、空欄を埋めるだけで完成形のプロンプトをコピーできます。推論が外れたときのトラブルシューティング
CoTプロンプティングを使ったのに、AIがちゃんとステップを書き出したうえで間違った結論に至る——そんなときの立て直し方を整理しておきます。
推論は妥当そうなのに結論がずれている。 出発点の前提が間違っている可能性が高いです。「ここで置いている前提を、すべて明示的にリストアップしてください」と聞いてみてください。論理そのものではなく、口に出していない仮定が原因のことがよくあります。
重要な要素が抜け落ちている。 こう返せばOKです。「{{factor}}を考慮していませんでした。これを踏まえると分析はどう変わりますか?」AIは新情報を取り込み、結論を見直してくれます。
推論が堂々巡りや抽象論で止まっている。 具体性を要求しましょう。「ステップ2で『これはリスクがあり得る』と書いていますが、具体的にどんなリスクで、どう定量化できますか?」具体に踏み込ませると、ぼんやりした思考があぶり出されます。
AIが過剰に自信ありげに見える。 こう投げてみてください。「悪魔の代弁者になってください。この結論にもっとも強く反論するなら、どんな論を立てますか?」最初の回答ですり抜けていた弱点が、ここで一気に出てきます。
CoTプロンプティングの本当の価値は、答えの精度を上げること以上に、AIの推論過程を可視化して、こちらが間違いを見つけて直せるようにすることにあります。最初の回答は出発点であって、決定版ではないと思って扱ってください。
今日からCoTを使い始める
テクニックを丸暗記したり、複雑なフレームワークに従ったりする必要はありません。覚えておくべきは一点だけ。AIに「当てずっぽう」ではなく本当に考えてほしいときは、過程を書き出させる。これだけです。
普段AIに頼んでいるタスクのうち、分析や比較、原因切り分けが絡むものを一つ選んでください。そこに「ステップバイステップで考えてから答えてください」と一文足してみる。回答の質が変わるのを目の当たりにすると、いつ使えばいいのかが自然に身につきます。
推論用プロンプトをライブラリとして溜めていきたいなら、保存場所はメモアプリでもドキュメントでも、すでに使っているもので構いません。専用のものが欲しい場合は、PromptNestという選択肢もあります。Mac App Storeで$19.99の買い切り(サブスクなし、アカウント不要、すべてローカル動作)のネイティブMacアプリで、変数つきのままプロンプトを整理しておけます。どちらにしても要点は同じです。とっておきのプロンプトは、過去のチャット履歴の奥に埋めず、必要な瞬間にすぐ取り出せる場所に置く。
考えるのを助けてくれるAIと、自信ありげに喋るだけのAI。その差は、たいてい一行で決まります。「ステップバイステップで考えてから答えてください。」