Balik sa Blog

Chain-of-Thought Prompting: Pag-isipin ang AI Step by Step

Alamin ang simpleng prompting technique na nagpa-akyat ng AI accuracy mula 18% papuntang 79% sa reasoning tasks — may copy-paste examples para sa trabaho.

Chain-of-Thought Prompting: Pag-isipin ang AI Step by Step
May tinanong ka sa ChatGPT na kailangan ng kaunting pag-iisip — baka pagkukumpara ng dalawang opsyon, pag-aanalisa ng desisyon, o paglutas ng multi-step na problema. Agad-agad na may sagot ang AI, mukhang sigurado pa. Kaso lang: mali pala ng husto.
Mas madalas mangyari 'to kaysa sa akala mo. Ang mga AI assistants ay tinuruan na gumawa ng mga sagot na mukhang kapani-paniwala — hindi na sila mag-isip nang malalim. Pag tinanong mo ng komplikadong bagay sa karaniwang paraan, madalas linaktawan ng AI ang pag-iisip at diretso na sa sagot — minsan mali nang mali, pero sigurado pa rin sa boses.
May solusyon. Noong 2022, nadiskubre ng mga researchers sa Google na ang pagdagdag lang ng isang phrase sa prompt — "Let's think step by step" — ay nagpa-akyat sa accuracy ng math problems mula 17.7% papuntang 78.7%. Hindi typo 'yan. Isang pangungusap lang, apat na beses na mas tama ang AI.
Ang technique na 'to ay tinatawag na chain-of-thought prompting, at gumagana siya kasi pinipilit niyang ipakita ng AI ang reasoning niya sa halip na magkonklusyon agad. Ganito gamitin para sa totoong tasks — hindi lang para sa math problems.

Ano ang chain-of-thought prompting?

Ang chain-of-thought (CoT) prompting ay literal na 'yong pakahulugan: hinihingi mo sa AI na ipaliwanag ang reasoning niya hakbang-hakbang bago mag-final answer. Sa halip na "Ano ang sagot?", ang tinatanong mo ay "Ipakita mo muna ang pag-iisip mo, tapos saka mo ibigay ang sagot."
Parang hinihingian mo ng "show your work" 'yong katrabaho mo. Pag may nagrekomenda sa'yo nang walang paliwanag, hindi mo ma-tell kung talagang inisip niya o nahulaan lang. Pero kung idedetalye niya 'yong dinaanan ng utak niya — "tiningnan ko ang X, tinanggal ko ang Y dahil sa Z, kaya nakarating ako sa konklusyon na ito" — kita mo agad kung saan may butas ang lohika.
Ganoon din sa AI. Pag pinilit mong i-articulate ang intermediate steps, dalawang bagay ang nangyayari:
  1. Nahuhuli ng AI ang sariling pagkakamali habang nag-iisip
  2. Kita mo agad kung saan nagkamali ang lohika kapag mali ang sagot

Bakit nilalaktawan ng AI ang mga steps (at nagkakamali)

Eto ang isang bagay na hindi alam ng karamihan: ang AI models ay hindi talaga "nag-iisip" gaya ng tao. Pattern-matching ang ginagawa nila sa bilyun-bilyong text examples para hulaan kung anong susunod na salita. Pag tinanong mo ng diretso, pumupunta sila sa pinakamadalas na sagot ayon sa estadistika.
Para sa simpleng tanong, ayos lang 'yon. Ang "Ano ang kabisera ng France?" ay hindi nangangailangan ng reasoning — milyon-milyong beses na nakita ng AI 'yang tanong na 'yan kasabay ng sagot.
Pero pag may totoong lohika nang involved — pagkukumpara ng opsyon, pag-analyze ng tradeoffs, paglutas ng multi-step na problema — bumibigay 'yong pattern-matching approach. Kumukuha ang AI ng sagot na parang tama nang hindi nito kino-verify kung talagang tama.
Ang chain-of-thought prompting ay sumasagabal sa shortcut na 'yan. Pag pinapa-reason mo nang malakas ang AI, pinipilit mong gawin niya 'yong intermediate steps — at 'yong mga steps na 'yon ang nag-co-constrain kung anong puwedeng maging final answer. Mas mahirap mag-mali kapag kailangan mong ipakita ang dinaanan.
Paghahambing kung paano dumiretso ng sagot ang AI versus AI na nagre-reason sa bawat hakbang bago sumagot
Paghahambing kung paano dumiretso ng sagot ang AI versus AI na nagre-reason sa bawat hakbang bago sumagot

Pinakasimpleng paraan para gamitin ang chain-of-thought

Walang setup ang pinakamadaling paraan. Idagdag mo lang ang isa sa mga phrase na ito sa dulo ng prompt mo:
  • "Let's think step by step."
  • "Walk me through your reasoning."
  • "Explain your thinking before giving a final answer."
  • "Break this down step by step."
Nadiskubre ng mga researchers na "Let's think step by step" ang pinakamabisa sa tests nila, kahit na may follow-up research na nakahanap ng mas mahusay pang phrase: "Let's work this out in a step by step way to be sure we have the right answer."
Eto ang itsura niya sa totoong gamit. Sabihin nating nagdedesisyon ka kung tatanggapin mo ang isang job offer.
Walang chain-of-thought:

Should I accept a job offer that pays 20% more but requires relocating to a city with 40% higher cost of living?


Maaaring magbigay agad ang AI ng "yes" o "no" base sa mababaw na pattern matching.
May chain-of-thought:

Should I accept a job offer that pays 20% more but requires relocating to a city with 40% higher cost of living?

Let's think through this step by step, considering the financial implications, quality of life factors, and career impact before reaching a conclusion.


Ngayon, pagsasama-samahin ng AI ang bawat factor, gagawin niya ang math kung kayang sakupin ng 20% sahod ang 40% na mas mataas na gastos, titingnan kung anong panalo o talo, at bibigyan ka ng sagot na may matibay na rason.

Few-shot CoT: Ipakita sa AI kung paano mag-isip

Ang "Let's think step by step" approach ay tinatawag na zero-shot CoT dahil wala kang ibinibigay na example. Mahusay siya sa karamihan ng sitwasyon, pero para sa komplikado o specialized na tasks, mas magaganda ang resulta kapag ipinapakita mo mismo ang reasoning pattern na gusto mo.
Tinatawag itong few-shot CoT — naglalagay ka ng isa o dalawang example na nagpapakita sa AI kung paano mag-reason sa katulad na problema.
Eto ang template para sa pag-evaluate ng business decisions:

I need help evaluating options. Here's how I'd like you to reason through each one:

Example:
Question: Should we switch from monthly to annual billing?

Step 1 - Identify the key factors: Cash flow predictability, customer churn risk, pricing psychology.

Step 2 - Analyze each factor:
- Cash flow: Annual billing gives us revenue upfront, improving predictability
- Churn risk: Customers who pay annually have lower churn rates
- Pricing: We can offer a discount for annual plans without losing money

Step 3 - Weigh tradeoffs: The main downside is higher friction for new signups.

Step 4 - Conclusion: Yes, but offer both options with annual at a 15% discount.

Now apply this same reasoning structure to my question:
{{question}}
Hindi kailangang tugma sa eksaktong tanong mo ang example — basta ipakita lang nito ang istraktura ng reasoning na gusto mo. I-a-adapt naman ng AI ang pattern sa specific na sitwasyon mo.

Kailan talaga nakakatulong ang chain-of-thought (at kailan hindi)

Hindi magic fix ang CoT prompting para sa bawat AI interaction. May research mula sa Wharton na nagsasabing kahit nakakatulong ito sa mahihirap na problema, puwede pa nga itong makapinsala sa accuracy ng madadaling tanong dahil dinadagdagan nito ng kumplikasyon.
Gamitin ang chain-of-thought kapag:
  • Nagkukumpara ka ng maraming opsyon o nagti-timbang ng tradeoffs
  • May multi-step reasoning o calculations ang task
  • Kailangan mong i-troubleshoot o i-diagnose ang isang problema
  • Kailangang i-analyze ang cause-and-effect ng sagot
  • Gusto mong maintindihan ang reasoning ng AI, hindi lang ang sagot
Laktawan ang chain-of-thought kapag:
  • Humihingi ka ng simpleng katotohanan o depinisyon
  • Kailangan mo ng creative output gaya ng brainstorming o writing
  • Gusto mo ng summary o translation
  • Mas mahalaga ang bilis kaysa accuracy
  • Walang logical reasoning sa task
Isa pang dapat tandaan: hindi gaanong epektibo ang CoT prompting sa mas maliliit na AI models. Nakita sa orihinal na Google research na nagkakaroon lang ng makabuluhang improvement sa mga model na may 100+ billion parameters. Sa kasalukuyang consumer AI tools tulad ng ChatGPT-4, Claude, at Gemini, nasa tamang range ka. Pero kung mas luma o maliit na model ang gamit mo, baka iba ang resulta.

5 ready-to-use CoT prompts para sa totoong trabaho

Eto ang mga copy-paste na prompts na puwede mo nang gamitin ngayon. Bawat isa ay may built-in na chain-of-thought structure.

1. Decision analysis

Help me decide: {{decision_to_make}}

Walk through this step by step:
1. List the key factors I should consider
2. Analyze how each option performs on these factors
3. Identify the main risks and tradeoffs
4. Give me your recommendation with reasoning

Be specific and use my actual situation, not generic advice.

2. Pros and cons comparison

Compare these options: {{option_1}} vs {{option_2}}

Think through this systematically:
1. First, identify 5 criteria that matter most for this type of decision
2. Evaluate each option against each criterion
3. Note any dealbreakers or must-haves
4. Weigh the overall tradeoffs
5. Give me a clear recommendation

Don't just list pros and cons — actually reason through which factors matter more and why.

3. Root cause analysis

Help me figure out why this is happening: {{problem_description}}

Use this reasoning process:
1. Clarify what's actually happening vs what should be happening
2. List all possible causes (even unlikely ones)
3. For each cause, consider what evidence would confirm or rule it out
4. Based on the information available, identify the most likely root cause
5. Suggest how to verify this and what to do about it

4. Step-by-step planning

I need to {{goal}}.

Break this down into steps:
1. First, identify what needs to happen before anything else (prerequisites)
2. Then map out the main phases or milestones
3. For each phase, list the specific actions required
4. Flag any dependencies (what has to happen before something else can start)
5. Note potential blockers and how to handle them

Be concrete — give me actionable steps, not vague advice.

5. Komplikadong question analysis

{{complex_question}}

Before answering, let's work through this carefully:
1. Break down what this question is really asking
2. Identify any assumptions built into the question
3. Consider the key factors that affect the answer
4. Reason through each factor
5. Then give me your answer with the reasoning that supports it

If there's genuine uncertainty, acknowledge it rather than pretending to be certain.
Iisang pattern ang sinusunod ng mga prompts na ito: sabihin mo kung ano ang kailangan mo, tapos i-spell out mo nang maliwanag ang reasoning process na gusto mong sundin ng AI. Ang istraktura ang gumagabay sa AI sa masusing analysis sa halip na hayaan itong magkonklusyon agad.
Prompt template card na may variable placeholders na kino-customize para sa iba't ibang gawain
Prompt template card na may variable placeholders na kino-customize para sa iba't ibang gawain
Pag napansin mong paulit-ulit mong ginagamit ang mga prompts na 'to — pinapalitan lang ang desisyon, problema, o tanong sa bawat gamit — may tools tulad ng PromptNest na pwedeng pag-save-han nito kasama na ang {{variables}}. Pag kailangan mo, punan mo lang ang blanko at i-copy ang buong prompt.

Troubleshooting: Pag mali ang reasoning

Minsan gagamitin mo ang chain-of-thought prompting at ipapakita naman ng AI ang steps niya... pero mali pa rin ang konklusyon. Eto ang gawin.
Mukhang tama ang reasoning pero mali ang konklusyon. Baka nagsimula ang AI sa maling assumption. Itanong mo: "What assumptions are you making here? List them explicitly." Madalas, nasa hindi sinabi-sabing premise ang error, hindi sa lohika mismo.
May importanteng factor na nilaktawan ang AI. Sumagot ka ng: "You didn't consider {{factor}}. How does that change your analysis?" Ipapasok ng AI ang bagong info at madalas iba na ang konklusyon.
Paikot-ikot o malabo ang reasoning. Humingi ka ng mas detalyadong sagot: "In step 2, you said 'this could be risky.' What specific risks are you referring to, and how would you quantify them?" Pinipilit ng konkretong detalye na lumabas ang malalabo na pag-iisip.
Pakiramdam mo masyadong sigurado ang AI. Subukan mo: "Play devil's advocate. What's the strongest argument against this conclusion?" Madalas itong nagbubunyag ng mga kahinaang nilampasan ng AI sa unang sagot.
Hindi lang naman pampaganda ng sagot ang chain-of-thought prompting — para itong gawin mong nakikita ang reasoning ng AI para mahuli at maitama mo ang mga error. Ituring mong panimula lang ang unang sagot, hindi pinal.

Simulan na ang chain-of-thought ngayon

Hindi mo kailangang isaulo ang mga technique o sundin ang komplikadong framework. Tandaan mo lang ang core idea: pag kailangan mong mag-isip talaga ang AI sa halip na manghula, hilingin mong ipakita nito ang dinaanan ng utak.
Magsimula ka sa isang task na regular mong ginagamitan ng AI — kahit ano basta may analysis, paghahambing, o troubleshooting. Idagdag mo ang "Let's think through this step by step" at tingnan kung paano nagbago ang sagot. Pag nakita mo ang pinagkaiba, mararamdaman mo kung kailan dapat gamitin.
Kung gusto mong magtayo ng library ng reasoning prompts gaya ng nasa itaas, kahit saan mo puwedeng i-save — note app, doc, kung anong gamit mo na. O kung gusto mo ng purpose-built, ang PromptNest ay native Mac app ($19.99 one-time sa Mac App Store, walang subscription, walang account, locally tumatakbo) na nag-oorganize ng prompts mo kasama na ang variables. Kahit alin, ang importante ay handa ang pinakamagagandang prompts mo pag kailangan mo — hindi nakabaon sa lumang chat history.
Ang pinagkaiba ng AI na nakakatulong mag-isip sa AI na mukha lang siguradong-sigurado ay madalas nasa anim na salita: "Let's think through this step by step."