Rantaian pemikiran: buat AI fikir langkah demi langkah
Teknik prompting ringkas yang menaikkan ketepatan AI daripada 18% kepada 79% pada tugas penaakulan — lengkap dengan contoh siap salin untuk kerja harian.
Anda tanya ChatGPT satu soalan yang memerlukan sedikit pemikiran — mungkin membandingkan dua pilihan, menilai sesuatu keputusan, atau menyelesaikan masalah berbilang langkah. AI menjawab serta-merta dengan nada penuh yakin. Cuma satu masalah: jawapannya salah sama sekali.
Hal ini lebih kerap berlaku daripada yang anda sangka. Pembantu AI dilatih untuk menghasilkan jawapan yang kedengaran munasabah, bukan untuk benar-benar menaakul sesuatu masalah. Bila anda tanya soalan kompleks dengan cara biasa, AI selalunya melangkau bahagian berfikir dan terus melompat ke jawapan — kadang-kadang silap dengan cara yang teruk sekali, sambil bunyi macam betul-betul yakin.
Teknik ini dipanggil prompting rantaian pemikiran (chain-of-thought prompting), dan ia berkesan kerana ia memaksa AI menunjukkan kerjanya, bukan terus melompat ke kesimpulan. Berikut cara guna untuk tugas sebenar — bukan sekadar soalan matematik.
Apa itu prompting rantaian pemikiran?
Prompting rantaian pemikiran (CoT) memang seperti namanya: anda minta AI menerangkan penaakulannya langkah demi langkah sebelum memberi jawapan akhir. Daripada bertanya "Apa jawapannya?" anda tanya "Tunjukkan cara anda berfikir, kemudian beri saya jawapannya."
Anggaplah ia seperti meminta rakan sekerja menunjukkan kerjanya. Kalau seseorang beri cadangan tanpa penjelasan, anda tak dapat tahu sama ada dia sebenarnya berfikir atau cuma teka. Tapi kalau dia bawa anda melalui logiknya — "saya pertimbangkan X, ketepikan Y kerana Z, jadi saya sampai pada kesimpulan ini" — anda boleh kesan kalau ada cacat dalam logiknya.
Prinsip yang sama terpakai pada AI. Bila anda paksa ia menyatakan langkah-langkah perantara, dua perkara berlaku:
AI menangkap kesilapannya sendiri di tengah-tengah penaakulan
Anda boleh nampak betul-betul di mana logiknya tergelincir kalau jawapannya tersasar
Kenapa AI langkau langkah (dan jadi salah)
Inilah yang ramai orang tak sedar: model AI sebenarnya tak "berfikir" macam manusia. Ia padan corak terhadap berbilion contoh teks untuk meramal perkataan apa yang patut datang seterusnya. Bila anda tanya soalan langsung, ia melompat kepada jawapan yang paling mungkin secara statistik.
Untuk soalan mudah, ini berkesan. "Apakah ibu kota Perancis?" tak perlukan penaakulan — AI sudah lihat soalan dan jawapan ini berpasangan berjuta-juta kali.
Tapi untuk apa-apa yang memerlukan logik sebenar — membandingkan pilihan, menimbang tradeoff, menyelesaikan masalah berbilang langkah — pendekatan padan corak ini hancur. AI pilih jawapan yang bunyinya betul tanpa buat kerja untuk sahkan ia memang betul.
Prompting rantaian pemikiran mengganggu jalan pintas ini. Dengan minta AI menaakul dengan kuat, anda paksa ia menjana langkah-langkah perantara — dan langkah-langkah itu mengikat apa yang boleh jadi jawapan akhir. Lebih sukar untuk sampai ke kesimpulan salah bila anda kena tunjuk laluan yang membawa ke situ.
Perbandingan antara AI yang melompat terus ke jawapan dengan AI yang menaakul langkah demi langkah sebelum menjawab
Cara paling ringkas guna rantaian pemikiran
Versi paling mudah tak perlukan apa-apa persediaan. Tambah saja salah satu ayat ini di hujung prompt anda:
"Mari kita fikir langkah demi langkah."
"Tunjukkan cara anda menaakul."
"Terangkan pemikiran anda sebelum beri jawapan akhir."
"Pecahkan ini langkah demi langkah."
Penyelidik mendapati "Mari kita fikir langkah demi langkah" memberi keputusan terbaik dalam ujian mereka, walaupun kajian susulan menemui frasa yang lagi bagus: "Mari kita selesaikan ini langkah demi langkah untuk pastikan kita dapat jawapan yang betul."
Beginilah rupanya dalam praktik. Katakanlah anda sedang menimbang sama ada untuk terima tawaran kerja.
Tanpa rantaian pemikiran:
Patutkah saya terima tawaran kerja yang gajinya 20% lebih tinggi tetapi kena pindah ke bandar dengan kos sara hidup 40% lebih tinggi?
AI mungkin beri "ya" atau "tidak" pantas berdasarkan padanan corak permukaan.
Dengan rantaian pemikiran:
Patutkah saya terima tawaran kerja yang gajinya 20% lebih tinggi tetapi kena pindah ke bandar dengan kos sara hidup 40% lebih tinggi?
Mari kita fikirkan ini langkah demi langkah, ambil kira implikasi kewangan, faktor kualiti hidup, dan kesan kerjaya sebelum buat kesimpulan.
Sekarang AI akan pecahkan setiap faktor, kira sama ada gaji 20% lebih tinggi dapat tampung kos 40% lebih tinggi, pertimbang apa yang anda mungkin dapat atau hilang, dan beri cadangan yang ada asasnya.
Few-shot CoT: tunjukkan cara berfikir kepada AI
Pendekatan "Mari kita fikir langkah demi langkah" dipanggil zero-shot CoT kerana anda tak tunjukkan apa-apa contoh. Ia berfungsi dengan baik dalam banyak situasi, tapi untuk tugas yang kompleks atau khusus, anda boleh dapat hasil lebih bagus dengan menunjukkan corak penaakulan yang anda mahu.
Ini dipanggil few-shot CoT — anda sertakan satu atau dua contoh terurai yang menunjukkan AI tepat-tepat cara menaakul masalah serupa.
Berikut templat untuk menilai keputusan perniagaan:
Saya perlukan bantuan menilai pilihan. Beginilah cara saya mahu awak menaakul setiap satu:
Contoh:
Soalan: Patutkah kami tukar daripada bil bulanan kepada bil tahunan?
Langkah 1 - Kenal pasti faktor utama: Kebolehramalan aliran tunai, risiko churn pelanggan, psikologi harga.
Langkah 2 - Analisis setiap faktor:
- Aliran tunai: Bil tahunan beri kami pendapatan di hadapan, tingkatkan kebolehramalan
- Risiko churn: Pelanggan yang bayar tahunan ada kadar churn lebih rendah
- Harga: Kami boleh tawarkan diskaun untuk pelan tahunan tanpa rugi
Langkah 3 - Timbang tradeoff: Kelemahan utama ialah geseran lebih tinggi untuk pendaftaran baharu.
Langkah 4 - Kesimpulan: Ya, tapi tawarkan kedua-dua pilihan dengan diskaun 15% untuk tahunan.
Sekarang gunakan struktur penaakulan yang sama untuk soalan saya:
{{question}}
Contoh tak perlu sepadan dengan soalan tepat anda — ia cuma perlu tunjukkan struktur penaakulan yang anda mahu. AI akan adaptasi corak itu kepada situasi spesifik anda.
Bila rantaian pemikiran benar-benar membantu (dan bila tidak)
Prompting CoT bukan penyelesaian ajaib untuk setiap interaksi AI. Kajian dari Wharton mendapati walaupun ia meningkatkan prestasi pada masalah sukar, ia sebenarnya boleh jejaskan ketepatan pada masalah mudah dengan menambah kerumitan yang tak perlu.
Guna rantaian pemikiran apabila:
Anda membandingkan pelbagai pilihan atau menimbang tradeoff
Tugas melibatkan penaakulan atau pengiraan berbilang langkah
Anda perlu menyelesaikan atau mendiagnosis sesuatu masalah
Jawapan memerlukan analisis sebab dan akibat
Anda mahu faham penaakulan AI, bukan sekadar dapat jawapan
Langkau rantaian pemikiran apabila:
Anda tanya fakta ringkas atau definisi
Anda perlukan output kreatif seperti brainstorming atau penulisan
Anda mahu ringkasan atau terjemahan
Kelajuan lebih penting daripada ketepatan
Tugas tak melibatkan penaakulan logik
Satu lagi yang patut diingat: prompting CoT kurang berkesan dengan model AI yang lebih kecil. Kajian asal Google mendapati bahawa peningkatan bermakna hanya muncul dalam model dengan 100+ bilion parameter. Dengan alat AI pengguna semasa seperti ChatGPT-4, Claude, dan Gemini, anda berada dalam julat yang betul. Tapi kalau anda guna model yang lebih lama atau lebih kecil, hasilnya mungkin berbeza.
5 prompt CoT siap pakai untuk kerja sebenar
Berikut prompt siap salin yang anda boleh mula guna hari ini. Setiap satu sudah ada struktur rantaian pemikiran terbina dalamnya.
1. Analisis keputusan
Bantu saya buat keputusan: {{decision_to_make}}
Fikirkan ini langkah demi langkah:
1. Senaraikan faktor utama yang patut saya pertimbang
2. Analisis bagaimana setiap pilihan menonjol pada faktor-faktor ini
3. Kenal pasti risiko utama dan tradeoff
4. Beri saya cadangan awak dengan alasannya
Jadi spesifik dan guna situasi sebenar saya, bukan nasihat umum.
2. Perbandingan pro dan kontra
Bandingkan pilihan-pilihan ini: {{option_1}} lawan {{option_2}}
Fikirkan ini secara sistematik:
1. Pertama, kenal pasti 5 kriteria yang paling penting untuk jenis keputusan ini
2. Nilai setiap pilihan terhadap setiap kriteria
3. Catat apa-apa dealbreaker atau syarat wajib
4. Timbang tradeoff keseluruhan
5. Beri saya cadangan yang jelas
Jangan sekadar senaraikan pro dan kontra — benar-benar fikirkan faktor mana lebih penting dan kenapa.
3. Analisis punca akar
Bantu saya cari kenapa benda ini berlaku: {{problem_description}}
Guna proses penaakulan ini:
1. Jelaskan apa yang sebenarnya berlaku berbanding apa yang sepatutnya berlaku
2. Senaraikan semua kemungkinan punca (termasuk yang tak mungkin sekalipun)
3. Untuk setiap punca, fikirkan bukti apa yang akan sahkan atau ketepikannya
4. Berdasarkan maklumat yang ada, kenal pasti punca akar yang paling mungkin
5. Cadangkan cara untuk sahkan ini dan apa yang patut dibuat
4. Perancangan langkah demi langkah
Saya perlu {{goal}}.
Pecahkan ini kepada langkah-langkah:
1. Pertama, kenal pasti apa yang perlu berlaku sebelum apa-apa yang lain (prasyarat)
2. Kemudian petakan fasa atau pencapaian utama
3. Untuk setiap fasa, senaraikan tindakan spesifik yang diperlukan
4. Tandakan apa-apa kebergantungan (apa yang kena berlaku sebelum benda lain boleh mula)
5. Catat halangan berpotensi dan cara menanganinya
Jadi konkrit — beri saya langkah yang boleh diambil tindakan, bukan nasihat kabur.
5. Analisis soalan kompleks
{{complex_question}}
Sebelum menjawab, mari kita kerja melalui ini dengan teliti:
1. Pecahkan apa yang soalan ini sebenarnya tanya
2. Kenal pasti apa-apa andaian yang terbina dalam soalan
3. Pertimbang faktor utama yang mempengaruhi jawapan
4. Taakul setiap faktor
5. Kemudian beri saya jawapan awak dengan penaakulan yang menyokongnya
Kalau ada ketidakpastian sebenar, akui ia daripada berlagak yakin.
Prompt-prompt ini ikut corak yang sama: nyatakan apa yang anda perlu, kemudian terangkan secara jelas proses penaakulan yang anda mahu AI ikut. Struktur itu memandu AI melalui analisis menyeluruh, bukan biar ia melompat ke kesimpulan.
Kad templat prompt dengan ruang pengganti pemboleh ubah yang sedang disesuaikan untuk pelbagai tugas
Kalau anda mendapati diri anda guna prompt ini berulang kali — tukar keputusan, masalah, atau soalan yang berbeza setiap kali — alat seperti PromptNest membolehkan anda simpan prompt itu dengan {{variables}} sudah berada di tempatnya. Bila anda perlukannya, isi tempat kosong dan salin prompt yang lengkap.
Penyelesaian masalah: bila penaakulan tersasar
Kadang-kadang anda guna prompting rantaian pemikiran dan AI akan tunjukkan langkah-langkahnya... tapi tetap sampai pada kesimpulan salah. Berikut cara menanganinya.
Penaakulan nampak okey tapi kesimpulan salah. AI mungkin bermula dari andaian yang silap. Tanya: "Apa andaian yang awak buat di sini? Senaraikan secara jelas." Selalunya kesilapan ada pada premis yang tak diucapkan, bukan pada logik itu sendiri.
AI langkau faktor penting. Balas dengan: "Awak tak pertimbang {{factor}}. Bagaimana itu mengubah analisis awak?" AI akan masukkan maklumat baharu itu dan selalunya semak semula kesimpulannya.
Penaakulannya berputar atau kabur. Minta lebih spesifik: "Dalam langkah 2, awak kata 'ini boleh berisiko.' Risiko spesifik apa yang awak maksudkan, dan bagaimana awak akan mengukurnya?" Memaksa butiran konkrit mendedahkan pemikiran yang kabur.
Anda syak AI terlalu yakin. Cuba: "Berlakon sebagai pencabar. Apa hujah paling kuat menentang kesimpulan ini?" Ini selalunya mendedahkan kelemahan yang AI lepaskan pandang kali pertama.
Tujuan prompting rantaian pemikiran bukan sekadar untuk dapat jawapan lebih bagus — ia untuk jadikan penaakulan AI nampak supaya anda boleh kesan dan betulkan kesilapan. Anggap respons pertama sebagai titik mula, bukan jawapan akhir.
Mula guna rantaian pemikiran hari ini
Anda tak perlu hafal teknik atau ikut kerangka rumit. Cukup ingat idea teras: bila anda perlukan AI benar-benar berfikir dan bukan teka, minta ia tunjukkan kerjanya.
Mula dengan satu tugas yang anda kerap guna AI — sesuatu yang melibatkan analisis, perbandingan, atau penyelesaian masalah. Tambah "Mari kita fikirkan ini langkah demi langkah" dan lihat bagaimana respons berubah. Sekali anda nampak perbezaannya, anda akan mula kenal pasti bila patut guna teknik ini.
Kalau anda mahu bina perpustakaan prompt penaakulan macam yang di atas, anda boleh simpan di mana-mana — apl nota, dokumen, apa-apa yang anda guna sekarang. Atau kalau anda lebih suka sesuatu yang dibina khas untuk tujuan ini, PromptNest ialah apl Mac asli ($19.99 bayar sekali di Mac App Store, tanpa langganan, tanpa akaun, jalan secara tempatan) yang mengemas prompt anda kemas dengan pemboleh ubah terbina dalam. Apa cara pun, kuncinya ialah ada prompt terbaik anda sedia bila diperlukan — bukan terkambus dalam sejarah perbualan lama.
Perbezaan antara AI yang membantu anda berfikir dengan AI yang sekadar bunyi yakin selalunya bergantung pada lapan perkataan: "Mari kita fikirkan ini langkah demi langkah."