Chain-of-Thought Prompting: Bikin AI Berpikir Bertahap
Pelajari teknik prompt sederhana yang menaikkan akurasi AI dari 18% jadi 79% pada soal penalaran — lengkap dengan contoh siap salin untuk pekerjaan harian.
Kamu nanya ChatGPT soal yang butuh dipikir dulu — mungkin membandingkan dua opsi, menganalisis sebuah keputusan, atau menyelesaikan masalah berlapis. AI menjawab seketika dengan nada penuh percaya diri. Sayangnya, jawabannya salah total.
Ini lebih sering terjadi dari yang kamu kira. Asisten AI dilatih untuk menghasilkan jawaban yang terdengar masuk akal, bukan untuk benar-benar bernalar. Saat kamu melempar pertanyaan rumit dengan cara biasa, AI sering melompati bagian berpikirnya dan langsung kasih jawaban — kadang meleset jauh tapi terdengar amat yakin.
Untungnya, ada solusinya. Pada 2022, peneliti di Google menemukan bahwa menambahkan satu kalimat ke prompt — "Mari kita pikirkan langkah demi langkah" — meningkatkan akurasi soal matematika dari 17,7% jadi 78,7%. Itu bukan typo. Satu kalimat membuat AI empat kali lebih akurat.
Teknik ini disebut chain-of-thought prompting, dan berhasil karena memaksa AI menunjukkan proses berpikirnya alih-alih buru-buru ke kesimpulan. Berikut cara memakainya untuk tugas nyata — bukan cuma soal matematika.
Apa itu chain-of-thought prompting?
Chain-of-thought (CoT) prompting persis seperti namanya: kamu minta AI menjelaskan alur penalarannya langkah demi langkah sebelum memberi jawaban akhir. Daripada bertanya "Apa jawabannya?", kamu bilang "Tunjukkan dulu cara berpikirmu, baru kasih jawabannya."
Bayangin kamu minta rekan kerja menunjukkan caranya mengerjakan sesuatu. Kalau dia kasih rekomendasi tanpa penjelasan, kamu nggak tahu apakah dia benar-benar mikir atau cuma nebak. Tapi kalau dia mengurai jalan pikirannya — "Saya pertimbangkan X, coret Y karena Z, jadi sampailah ke kesimpulan ini" — kamu bisa langsung melihat lubang dalam logikanya.
Prinsip yang sama berlaku untuk AI. Saat kamu memaksa AI mengartikulasikan langkah perantara, dua hal terjadi:
AI menangkap kesalahannya sendiri di tengah penalaran
Kamu bisa lihat persis di titik mana logikanya melenceng kalau jawabannya keliru
Kenapa AI suka melompati langkah (dan jadi salah)
Ini hal yang sering nggak disadari: model AI nggak benar-benar "berpikir" seperti manusia. Mereka mencocokkan pola dari miliaran contoh teks untuk memprediksi kata berikutnya yang paling mungkin. Saat kamu kasih pertanyaan langsung, mereka langsung lompat ke jawaban yang secara statistik paling sering muncul.
Untuk pertanyaan sederhana, ini cukup. "Apa ibu kota Prancis?" tidak butuh penalaran — AI sudah melihat pasangan pertanyaan dan jawaban ini jutaan kali.
Tapi untuk apa pun yang butuh logika sungguhan — membandingkan opsi, menimbang trade-off, memecahkan soal berlapis — pendekatan pencocokan pola ini ambruk. AI memilih jawaban yang terdengar benar tanpa benar-benar memverifikasi apakah itu memang benar.
Chain-of-thought prompting memutus jalan pintas itu. Dengan meminta AI menjabarkan penalarannya, kamu memaksanya menghasilkan langkah-langkah perantara — dan langkah-langkah itu membatasi jawaban akhir yang mungkin. Susah sampai ke kesimpulan yang salah kalau kamu harus menunjukkan jalannya.
Perbandingan AI yang langsung melompat ke jawaban dengan AI yang menjabarkan langkah penalaran sebelum menjawab
Cara paling sederhana memakai chain-of-thought
Versi paling gampang nggak butuh persiapan apa-apa. Cukup tambahkan salah satu frasa ini di akhir prompt-mu:
"Mari kita pikirkan langkah demi langkah."
"Tunjukkan dulu alur penalaranmu."
"Jelaskan cara berpikirmu sebelum kasih jawaban akhir."
"Uraikan ini langkah demi langkah."
Para peneliti menemukan "Mari kita pikirkan langkah demi langkah" paling jago di pengujian mereka, walau riset lanjutan menemukan kalimat yang lebih ampuh: "Mari kita selesaikan ini secara bertahap supaya kita yakin jawabannya benar."
Begini bentuknya dalam praktik. Anggap kamu lagi mempertimbangkan tawaran kerja baru.
Tanpa chain-of-thought:
Apakah saya sebaiknya menerima tawaran kerja yang gajinya 20% lebih tinggi tapi mengharuskan pindah ke kota dengan biaya hidup 40% lebih mahal?
AI mungkin langsung kasih "ya" atau "tidak" yang dangkal berdasarkan pencocokan pola permukaan.
Dengan chain-of-thought:
Apakah saya sebaiknya menerima tawaran kerja yang gajinya 20% lebih tinggi tapi mengharuskan pindah ke kota dengan biaya hidup 40% lebih mahal?
Mari kita pikirkan ini langkah demi langkah, dengan mempertimbangkan dampak finansial, kualitas hidup, dan dampak karier sebelum sampai ke kesimpulan.
Sekarang AI akan mengurai tiap faktor, menghitung apakah kenaikan gaji 20% sanggup menutup kenaikan biaya 40%, mempertimbangkan apa yang kamu dapat dan korbankan, lalu memberi rekomendasi yang berdasar.
Few-shot CoT: tunjukkan AI cara berpikirnya
Pendekatan "Mari kita pikirkan langkah demi langkah" ini disebut zero-shot CoT karena kamu nggak kasih contoh. Cara ini cukup ampuh untuk banyak situasi, tapi untuk tugas yang kompleks atau spesialis, hasil lebih bagus didapat kalau kamu mendemonstrasikan pola penalaran yang kamu mau.
Ini disebut few-shot CoT — kamu sertakan satu atau dua contoh yang sudah dikerjakan untuk menunjukkan ke AI persis bagaimana harus bernalar lewat masalah serupa.
Berikut template untuk menganalisis keputusan bisnis:
Saya butuh bantuan mengevaluasi opsi. Beginilah cara saya ingin Anda bernalar untuk tiap opsi:
Contoh:
Pertanyaan: Apakah kami sebaiknya pindah dari penagihan bulanan ke tahunan?
Langkah 1 - Kenali faktor kunci: Prediktabilitas arus kas, risiko churn pelanggan, psikologi harga.
Langkah 2 - Analisis tiap faktor:
- Arus kas: Penagihan tahunan kasih pendapatan di muka, prediktabilitas naik
- Risiko churn: Pelanggan yang bayar tahunan punya tingkat churn lebih rendah
- Harga: Kami bisa kasih diskon untuk paket tahunan tanpa rugi
Langkah 3 - Timbang trade-off: Kelemahan utamanya adalah friksi lebih tinggi untuk pendaftar baru.
Langkah 4 - Kesimpulan: Ya, tapi tawarkan kedua opsi dengan diskon 15% untuk paket tahunan.
Sekarang terapkan struktur penalaran yang sama untuk pertanyaan saya:
{{question}}
Contohnya nggak harus persis sama dengan pertanyaanmu — yang penting menunjukkan struktur penalaran yang kamu mau. AI akan menyesuaikan polanya untuk situasimu.
Kapan chain-of-thought benar-benar membantu (dan kapan tidak)
CoT prompting bukan obat ajaib untuk tiap interaksi dengan AI. Riset dari Wharton menemukan walau teknik ini meningkatkan kinerja pada soal sulit, ia justru bisa menurunkan akurasi pada soal mudah karena memperkenalkan kerumitan yang nggak perlu.
Pakai chain-of-thought saat:
Kamu membandingkan beberapa opsi atau menimbang trade-off
Tugasnya melibatkan penalaran atau perhitungan berlapis
Kamu butuh menelusuri atau mendiagnosis sebuah masalah
Jawabannya butuh analisis sebab dan akibat
Kamu mau memahami penalaran AI, bukan sekadar dapat jawaban
Lewati chain-of-thought saat:
Kamu nanya fakta atau definisi sederhana
Kamu butuh output kreatif seperti brainstorming atau menulis
Kamu mau ringkasan atau terjemahan
Kecepatan lebih penting daripada akurasi
Tugasnya nggak melibatkan penalaran logis
Yang juga perlu dicatat: CoT prompting kurang efektif di model AI yang lebih kecil. Riset asli Google menemukan peningkatan yang berarti baru muncul di model dengan 100+ miliar parameter. Dengan tool AI konsumen sekarang seperti ChatGPT-4, Claude, dan Gemini, kamu sudah ada di ranah yang tepat. Tapi kalau kamu pakai model yang lebih lama atau kecil, hasilnya bisa beda.
5 prompt CoT siap pakai untuk kerja nyata
Berikut prompt siap salin yang bisa langsung kamu pakai hari ini. Tiap prompt sudah memuat struktur chain-of-thought di dalamnya.
1. Analisis keputusan
Bantu saya memutuskan: {{decision_to_make}}
Uraikan ini langkah demi langkah:
1. Sebutkan faktor kunci yang perlu saya pertimbangkan
2. Analisis bagaimana tiap opsi menjawab faktor-faktor itu
3. Identifikasi risiko utama dan trade-off-nya
4. Beri rekomendasi Anda lengkap dengan alasannya
Gunakan situasi saya yang sebenarnya, bukan saran generik.
2. Perbandingan plus dan minus
Bandingkan opsi-opsi ini: {{option_1}} vs {{option_2}}
Pikirkan ini secara sistematis:
1. Pertama, sebutkan 5 kriteria yang paling penting untuk keputusan jenis ini
2. Evaluasi tiap opsi terhadap tiap kriteria
3. Catat kalau ada hal yang jadi pemecah kesepakatan atau wajib
4. Timbang trade-off keseluruhan
5. Beri rekomendasi yang jelas
Jangan cuma daftarin plus dan minus — tunjukkan faktor mana yang lebih berbobot dan kenapa.
3. Analisis akar masalah
Bantu saya cari tahu kenapa ini terjadi: {{problem_description}}
Gunakan proses penalaran ini:
1. Perjelas apa yang sebenarnya terjadi vs apa yang seharusnya terjadi
2. Sebutkan semua kemungkinan penyebab (termasuk yang nggak biasa)
3. Untuk tiap penyebab, pikirkan bukti apa yang akan mengonfirmasi atau mengeliminasinya
4. Berdasarkan informasi yang ada, identifikasi akar penyebab paling mungkin
5. Sarankan cara memverifikasinya dan apa yang harus dilakukan
4. Perencanaan langkah demi langkah
Saya perlu {{goal}}.
Uraikan ini ke dalam langkah-langkah:
1. Pertama, sebutkan apa yang harus terjadi sebelum semuanya (prasyarat)
2. Lalu petakan fase atau tonggak utamanya
3. Untuk tiap fase, sebutkan tindakan spesifik yang dibutuhkan
4. Tandai dependensi (apa yang harus selesai sebelum sesuatu yang lain bisa dimulai)
5. Catat kemungkinan penghambat dan cara menanganinya
Konkret saja — kasih saya langkah yang bisa dieksekusi, bukan saran ngambang.
5. Analisis pertanyaan kompleks
{{complex_question}}
Sebelum menjawab, mari kita kerjakan ini dengan cermat:
1. Pecah dulu apa yang sebenarnya ditanyakan
2. Identifikasi asumsi-asumsi yang melekat di pertanyaan ini
3. Pertimbangkan faktor kunci yang memengaruhi jawaban
4. Bernalar lewat tiap faktor
5. Baru beri jawaban Anda lengkap dengan penalaran yang mendukungnya
Kalau memang ada ketidakpastian nyata, akui saja daripada pura-pura yakin.
Semua prompt ini mengikuti pola yang sama: nyatakan apa yang kamu butuhkan, lalu jelaskan secara eksplisit proses penalaran yang kamu mau diikuti AI. Strukturnya menuntun AI lewat analisis menyeluruh alih-alih membiarkannya melompat ke kesimpulan.
Kartu template prompt dengan placeholder variabel yang sedang disesuaikan untuk tugas yang berbeda
Kalau kamu sering memakai ulang prompt-prompt ini — tukar keputusan, masalah, atau pertanyaannya tiap kali — alat seperti PromptNest memungkinkan kamu menyimpannya lengkap dengan {{variables}} sudah di tempatnya. Saat butuh, tinggal isi bagian kosongnya dan salin prompt utuhnya.
Troubleshooting: saat penalarannya melenceng
Kadang kamu sudah pakai chain-of-thought prompting dan AI menunjukkan langkah-langkahnya... tapi kesimpulannya masih meleset. Begini cara menanganinya.
Penalarannya kelihatan oke tapi kesimpulannya salah. AI mungkin berangkat dari asumsi yang keliru. Tanyakan: "Asumsi apa yang Anda pakai di sini? Sebutkan satu per satu." Sering kali kesalahannya ada di premis yang nggak diucapkan, bukan di logikanya.
AI melewatkan faktor penting. Balas dengan: "Anda belum mempertimbangkan {{factor}}. Bagaimana hal itu mengubah analisis Anda?" AI akan memasukkan informasi baru itu dan sering kali merevisi kesimpulannya.
Penalarannya muter atau ngambang. Minta lebih spesifik: "Di langkah 2, Anda bilang 'ini bisa berisiko'. Risiko spesifik apa yang Anda maksud, dan bagaimana cara mengukurnya?" Memaksa detail konkret membongkar pemikiran yang masih kabur.
Kamu curiga AI terlalu pede. Coba: "Coba jadi devil's advocate. Apa argumen terkuat yang melawan kesimpulan ini?" Cara ini sering memunculkan kelemahan yang AI sapu di putaran pertama.
Inti chain-of-thought prompting bukan cuma soal dapat jawaban yang lebih baik — tapi membuat penalaran AI terlihat supaya kamu bisa menangkap dan memperbaiki kesalahannya. Anggap respons pertama sebagai titik awal, bukan jawaban final.
Mulai pakai chain-of-thought hari ini
Kamu nggak perlu menghafal teknik atau mengikuti kerangka rumit. Cukup ingat ide intinya: saat kamu butuh AI benar-benar berpikir alih-alih nebak, minta dia menunjukkan caranya.
Mulai dari satu tugas yang biasa kamu serahkan ke AI — sesuatu yang melibatkan analisis, perbandingan, atau penelusuran masalah. Tambahkan "Mari kita pikirkan ini langkah demi langkah" dan lihat bagaimana respons berubah. Begitu kamu lihat bedanya, kamu akan mulai sadar kapan teknik ini perlu dipakai.
Kalau kamu mau membangun pustaka prompt penalaran seperti yang di atas, kamu bisa menyimpannya di mana saja — aplikasi catatan, dokumen, atau tool yang sudah kamu pakai. Atau kalau kamu lebih suka yang dirancang khusus untuk itu, PromptNest adalah aplikasi Mac native ($19.99 sekali bayar di Mac App Store, tanpa langganan, tanpa akun, jalan lokal di komputermu) yang merapikan prompt-mu lengkap dengan variabel siap pakai. Apa pun pilihannya, intinya adalah punya prompt terbaikmu siap saat dibutuhkan — bukan terkubur di riwayat chat lama.
Beda antara AI yang membantu kamu berpikir dengan AI yang cuma terdengar yakin sering bermuara ke enam kata: "Mari kita pikirkan langkah demi langkah."