กลับไปที่บล็อก

เปรียบเทียบ AI ที่กระโดดไปตอบทันที กับ AI ที่คิดทีละขั้นตอนก่อนตอบ

การ์ดเทมเพลต Prompt ที่มีตัวแปรให้กรอกตามแต่ละงาน
Chain-of-Thought Prompting: ให้ AI คิดทีละขั้นตอน
เทคนิค Prompt ง่าย ๆ ที่ดันความแม่นยำของ AI จาก 18% ไปถึง 79% ในงานที่ต้องใช้เหตุผล พร้อมตัวอย่างคัดลอกไปใช้ได้กับงานประจำวัน

คุณเคยถาม ChatGPT ด้วยคำถามที่ต้องคิดสักหน่อยไหม อาจจะเป็นการเปรียบเทียบสองทางเลือก วิเคราะห์การตัดสินใจ หรือแก้โจทย์หลายขั้น AI ตอบกลับมาแทบจะทันทีด้วยคำตอบที่ฟังดูมั่นใจ ปัญหาเดียวคือมันผิดสนิท
เรื่องแบบนี้เกิดขึ้นบ่อยกว่าที่คิด ผู้ช่วย AI ถูกฝึกมาให้สร้างคำตอบที่ฟังดูสมเหตุสมผล ไม่ได้ถูกฝึกให้ใช้เหตุผลแก้ปัญหาจริง ๆ พอคุณถามคำถามซับซ้อนแบบตรง ๆ AI มักจะข้ามขั้นตอนการคิดแล้วกระโดดไปที่คำตอบเลย บางครั้งก็ผิดแบบสุดโต่งทั้งที่พูดด้วยน้ำเสียงมั่นใจสุด ๆ
มีวิธีแก้อยู่ ในปี 2022 นักวิจัยที่ Google ค้นพบว่าการเติมประโยคเดียวเข้าไปใน Prompt อย่าง "Let's think step by step" (มาคิดทีละขั้นตอนกัน) ช่วยให้ความแม่นยำในการแก้โจทย์เลขเพิ่มจาก 17.7% เป็น 78.7% ไม่ได้พิมพ์ผิดแต่อย่างใด ประโยคเดียวทำให้ AI แม่นยำขึ้นสี่เท่า
เทคนิคนี้เรียกว่า Chain-of-Thought Prompting หรือการให้ AI คิดทีละขั้นตอน มันได้ผลเพราะบังคับให้ AI "แสดงวิธีคิด" แทนที่จะกระโดดไปสรุปเลย บทความนี้จะสอนวิธีใช้กับงานจริง ไม่ใช่แค่โจทย์เลข
Chain-of-Thought Prompting คืออะไร
Chain-of-Thought (CoT) Prompting คือสิ่งที่ชื่อบอกตรง ๆ คุณขอให้ AI อธิบายวิธีคิดทีละขั้นก่อนตอบ แทนที่จะถามว่า "คำตอบคืออะไร" คุณถามว่า "ช่วยอธิบายวิธีคิดให้ฟังก่อน แล้วค่อยตอบ"
ลองนึกภาพการขอให้เพื่อนร่วมงานแสดงวิธีคิด ถ้าใครสักคนให้คำแนะนำมาโดยไม่อธิบายเหตุผล คุณก็ไม่รู้ว่าเขาคิดมาดีแล้วจริง ๆ หรือเดามั่ว แต่ถ้าเขาเล่าวิธีคิดให้ฟัง เช่น "ผมพิจารณา X แล้วตัด Y ออกเพราะ Z สุดท้ายเลยได้ข้อสรุปนี้" คุณก็จะเห็นจุดอ่อนในตรรกะของเขาได้ทันที
หลักการเดียวกันใช้ได้กับ AI พอคุณบังคับให้มันพูดขั้นตอนกลางออกมา จะเกิดสองอย่าง:
- AI จับความผิดพลาดของตัวเองได้ระหว่างคิด
- คุณเห็นชัดว่าตรรกะพลาดตรงไหนถ้าคำตอบไม่ถูก
ทำไม AI ถึงข้ามขั้นตอนแล้วตอบผิด
เรื่องที่หลายคนยังไม่รู้คือโมเดล AI ไม่ได้ "คิด" แบบที่มนุษย์คิด มันคือการจับคู่แพทเทิร์นจากข้อความนับพันล้านชิ้นเพื่อทำนายว่าคำต่อไปควรเป็นอะไร พอคุณถามคำถามตรง ๆ มันจะกระโดดไปที่คำตอบที่มีความน่าจะเป็นทางสถิติสูงที่สุด
สำหรับคำถามง่าย ๆ วิธีนี้ก็ใช้ได้ดี "เมืองหลวงของฝรั่งเศสคืออะไร" ไม่ต้องใช้เหตุผลอะไร AI เคยเห็นคำถามและคำตอบคู่นี้นับล้านครั้งแล้ว
แต่กับงานที่ต้องใช้ตรรกะจริง ๆ เช่น เปรียบเทียบทางเลือก ชั่งน้ำหนักข้อแลกเปลี่ยน หรือแก้โจทย์หลายขั้น วิธีจับคู่แพทเทิร์นจะพังทันที AI เลือกคำตอบที่ ฟังดูถูก โดยไม่ได้ตรวจสอบว่ามัน ถูกจริงหรือเปล่า
Chain-of-Thought Prompting จะเข้าไปขัดทางลัดนั้น พอคุณขอให้ AI ใช้เหตุผลออกเสียง คุณก็บังคับให้มันสร้างขั้นตอนกลาง ๆ ขึ้นมา และขั้นตอนเหล่านั้นจะคุมไม่ให้คำตอบสุดท้ายหลุดทางได้ง่าย ๆ มันยากกว่าที่จะไปถึงข้อสรุปที่ผิด ในเมื่อต้องโชว์เส้นทางที่พามาถึงตรงนั้น

วิธีใช้ Chain-of-Thought ที่ง่ายที่สุด
เวอร์ชันที่ง่ายสุดไม่ต้องเตรียมอะไรเลย แค่เติมประโยคใดประโยคหนึ่งต่อท้าย Prompt ของคุณ:
- "มาคิดทีละขั้นตอนกัน"
- "ช่วยอธิบายวิธีคิดให้ฟังหน่อย"
- "อธิบายกระบวนการคิดก่อนให้คำตอบสุดท้าย"
- "แตกเรื่องนี้ออกเป็นขั้น ๆ"
นักวิจัยพบว่า "Let's think step by step" ใช้ได้ผลดีที่สุดในการทดสอบ แม้ งานวิจัยต่อยอดในภายหลัง จะค้นพบประโยคที่ดียิ่งกว่า: "Let's work this out in a step by step way to be sure we have the right answer."
ลองดูว่ามันใช้ได้จริงยังไง สมมติคุณกำลังตัดสินใจว่าจะรับข้อเสนองานใหม่หรือเปล่า
ถ้าไม่ใช้ Chain-of-Thought:
AI อาจจะตอบ "ควร" หรือ "ไม่ควร" สั้น ๆ จากการจับแพทเทิร์นแบบผิวเผิน
ผมควรรับข้อเสนองานที่จ่ายเพิ่ม 20% แต่ต้องย้ายไปอยู่เมืองที่ค่าครองชีพสูงกว่าเดิม 40% ไหม
AI อาจจะตอบ "ควร" หรือ "ไม่ควร" สั้น ๆ จากการจับแพทเทิร์นแบบผิวเผิน
ถ้าใช้ Chain-of-Thought:
คราวนี้ AI จะแยกแต่ละปัจจัยออกมา คำนวณว่าเงินเดือนที่เพิ่ม 20% ครอบคลุมค่าใช้จ่ายที่สูงขึ้น 40% หรือเปล่า ชั่งน้ำหนักว่าคุณได้อะไรเสียอะไร แล้วให้คำแนะนำที่มีเหตุผลรองรับ
ผมควรรับข้อเสนองานที่จ่ายเพิ่ม 20% แต่ต้องย้ายไปอยู่เมืองที่ค่าครองชีพสูงกว่าเดิม 40% ไหม
ลองคิดเรื่องนี้ทีละขั้นตอน โดยพิจารณาผลกระทบทางการเงิน คุณภาพชีวิต และผลต่อเส้นทางอาชีพ ก่อนจะสรุป
คราวนี้ AI จะแยกแต่ละปัจจัยออกมา คำนวณว่าเงินเดือนที่เพิ่ม 20% ครอบคลุมค่าใช้จ่ายที่สูงขึ้น 40% หรือเปล่า ชั่งน้ำหนักว่าคุณได้อะไรเสียอะไร แล้วให้คำแนะนำที่มีเหตุผลรองรับ
Few-Shot CoT: สอน AI ให้คิดตามแบบที่คุณต้องการ
วิธี "มาคิดทีละขั้นตอนกัน" เรียกว่า zero-shot CoT เพราะคุณไม่ได้ให้ตัวอย่างเลย มันใช้ได้ดีในหลายสถานการณ์ แต่สำหรับงานซับซ้อนหรืองานเฉพาะทาง คุณจะได้ผลลัพธ์ที่ดีกว่าด้วยการสาธิตแพทเทิร์นการคิดที่อยากได้
วิธีนี้เรียกว่า few-shot CoT คุณใส่ตัวอย่างการคิดแก้ปัญหาคล้าย ๆ กันสักหนึ่งหรือสองตัวอย่าง เพื่อแสดงให้ AI เห็นชัด ๆ ว่าควรใช้เหตุผลยังไง
นี่คือเทมเพลตสำหรับวิเคราะห์การตัดสินใจทางธุรกิจ:
ผมต้องการความช่วยเหลือในการประเมินทางเลือก ผมอยากให้คุณคิดตามรูปแบบนี้:
ตัวอย่าง:
คำถาม: เราควรเปลี่ยนจากการเก็บเงินรายเดือนเป็นรายปีไหม
ขั้นตอนที่ 1 - ระบุปัจจัยสำคัญ: ความสามารถในการคาดการณ์กระแสเงินสด ความเสี่ยงที่ลูกค้าจะเลิกใช้ จิตวิทยาการตั้งราคา
ขั้นตอนที่ 2 - วิเคราะห์แต่ละปัจจัย:
- กระแสเงินสด: เก็บรายปีได้เงินก้อนล่วงหน้า ทำให้คาดการณ์ง่ายขึ้น
- ความเสี่ยงเลิกใช้: ลูกค้าที่จ่ายรายปีมีอัตราเลิกใช้ต่ำกว่า
- การตั้งราคา: เสนอส่วนลดให้แผนรายปีได้โดยไม่ขาดทุน
ขั้นตอนที่ 3 - ชั่งน้ำหนักข้อแลกเปลี่ยน: ข้อเสียหลักคือการสมัครใหม่จะมีอุปสรรคสูงขึ้น
ขั้นตอนที่ 4 - ข้อสรุป: ใช่ แต่เสนอทั้งสองแบบ และให้รายปีลด 15%
ทีนี้ใช้โครงสร้างการคิดเดียวกันกับคำถามของผม:
{{question}}
ตัวอย่างไม่จำเป็นต้องตรงกับคำถามของคุณเป๊ะ ๆ แค่แสดงโครงสร้างการคิดที่คุณอยากได้ก็พอ AI จะปรับแพทเทิร์นให้เข้ากับสถานการณ์เฉพาะของคุณเอง
Chain-of-Thought ใช้แล้วได้ผลตอนไหน และตอนไหนที่ไม่ช่วย
CoT Prompting ไม่ใช่ยาวิเศษสำหรับทุกการใช้งาน งานวิจัยจาก Wharton พบว่ามันช่วยเพิ่มประสิทธิภาพในโจทย์ยาก แต่กลับทำให้ความแม่นยำในโจทย์ง่าย ๆ แย่ลงได้ เพราะใส่ความซับซ้อนเข้าไปเกินจำเป็น
ใช้ Chain-of-Thought เมื่อ:
- คุณกำลังเปรียบเทียบหลายทางเลือกหรือชั่งน้ำหนักข้อแลกเปลี่ยน
- งานต้องใช้เหตุผลหรือคำนวณหลายขั้น
- คุณต้องไล่หาสาเหตุหรือวินิจฉัยปัญหา
- คำตอบต้องอาศัยการวิเคราะห์เหตุและผล
- คุณอยากเข้าใจวิธีคิดของ AI ไม่ใช่แค่อยากได้คำตอบ
ข้าม Chain-of-Thought เมื่อ:
- ถามแค่ข้อเท็จจริงหรือคำจำกัดความง่าย ๆ
- ต้องการงานเชิงสร้างสรรค์ เช่น คิดไอเดียหรืองานเขียน
- อยากได้แค่สรุปหรือแปลภาษา
- ความเร็วสำคัญกว่าความแม่นยำ
- งานนั้นไม่ได้ต้องการเหตุผลเชิงตรรกะ
อีกเรื่องที่ควรรู้: CoT Prompting ได้ผลน้อยลงกับโมเดล AI ขนาดเล็ก งานวิจัยต้นฉบับของ Google พบว่าการพัฒนาที่เห็นผลชัดเริ่มเกิดในโมเดลที่มีพารามิเตอร์ตั้งแต่ 100 พันล้านขึ้นไป เครื่องมือ AI ระดับผู้บริโภคในปัจจุบันอย่าง ChatGPT-4, Claude หรือ Gemini อยู่ในช่วงที่เหมาะแล้ว แต่ถ้าคุณใช้โมเดลเก่าหรือเล็กกว่านั้น ผลลัพธ์ก็อาจต่างไป
5 Prompt CoT พร้อมใช้สำหรับงานจริง
นี่คือ Prompt ที่คัดลอกไปวางแล้วใช้ได้เลยตั้งแต่วันนี้ แต่ละอันมีโครงสร้าง Chain-of-Thought ฝังอยู่ในตัว
1. วิเคราะห์การตัดสินใจ
ช่วยตัดสินใจเรื่องนี้ให้หน่อย: {{decision_to_make}}
คิดทีละขั้นตอนตามนี้:
1. ระบุปัจจัยสำคัญที่ผมควรพิจารณา
2. วิเคราะห์ว่าแต่ละทางเลือกทำได้ดีแค่ไหนในแต่ละปัจจัย
3. ชี้ความเสี่ยงและข้อแลกเปลี่ยนหลัก
4. ให้คำแนะนำพร้อมเหตุผล
ให้เจาะจงและใช้สถานการณ์จริงของผม ไม่ใช่คำแนะนำกว้าง ๆ
2. เปรียบเทียบข้อดีข้อเสีย
เปรียบเทียบทางเลือกพวกนี้: {{option_1}} กับ {{option_2}}
คิดอย่างเป็นระบบ:
1. ก่อนอื่น ระบุเกณฑ์ 5 ข้อที่สำคัญที่สุดสำหรับการตัดสินใจแบบนี้
2. ประเมินแต่ละทางเลือกตามเกณฑ์เหล่านั้น
3. ระบุเงื่อนไขที่รับไม่ได้หรือสิ่งที่ต้องมี
4. ชั่งน้ำหนักข้อแลกเปลี่ยนโดยรวม
5. ให้คำแนะนำที่ชัดเจน
ไม่ใช่แค่ลิสต์ข้อดีข้อเสียมาเฉย ๆ แต่ให้ใช้เหตุผลจริงว่าปัจจัยไหนสำคัญกว่าและเพราะอะไร
3. หาสาเหตุที่แท้จริง
ช่วยหาว่าทำไมเรื่องนี้ถึงเกิดขึ้น: {{problem_description}}
ใช้กระบวนการคิดนี้:
1. ทำให้ชัดว่าตอนนี้เกิดอะไรขึ้นจริง ๆ เทียบกับสิ่งที่ควรเกิด
2. ลิสต์สาเหตุที่เป็นไปได้ทั้งหมด แม้แต่อันที่ดูไม่น่าใช่
3. สำหรับแต่ละสาเหตุ พิจารณาว่าต้องเห็นหลักฐานอะไรถึงจะยืนยันหรือตัดทิ้ง
4. จากข้อมูลที่มี ระบุสาเหตุที่แท้จริงที่น่าจะเป็นที่สุด
5. แนะนำวิธีตรวจสอบและสิ่งที่ควรทำต่อ
4. วางแผนทีละขั้น
ผมต้อง {{goal}}
แตกออกเป็นขั้น ๆ:
1. ก่อนอื่น ระบุสิ่งที่ต้องเกิดก่อนทำอย่างอื่น (เงื่อนไขเบื้องต้น)
2. จากนั้นวางเฟสหรือไมล์สโตนหลัก ๆ
3. แต่ละเฟสมีการกระทำเฉพาะอะไรบ้าง
4. ระบุสิ่งที่ต้องพึ่งพากัน (อะไรต้องเกิดก่อนถึงจะเริ่มอย่างอื่นได้)
5. ชี้อุปสรรคที่อาจเจอและวิธีรับมือ
ให้เป็นรูปธรรม บอกขั้นตอนที่ลงมือทำได้จริง ไม่ใช่คำแนะนำลอย ๆ
5. วิเคราะห์คำถามซับซ้อน
{{complex_question}}
ก่อนตอบ ลองคิดเรื่องนี้ให้ละเอียด:
1. แตกดูว่าคำถามนี้ถามอะไรกันแน่
2. ระบุข้อสมมติที่ฝังอยู่ในคำถาม
3. พิจารณาปัจจัยสำคัญที่กระทบคำตอบ
4. ใช้เหตุผลกับแต่ละปัจจัย
5. แล้วค่อยให้คำตอบพร้อมเหตุผลรองรับ
ถ้ายังมีความไม่แน่นอนอยู่จริง ๆ ก็ยอมรับตรง ๆ ดีกว่าทำเป็นมั่นใจ
Prompt พวกนี้ใช้แพทเทิร์นเดียวกัน คือบอกสิ่งที่ต้องการ แล้วระบุชัด ๆ ว่าอยากให้ AI คิดตามกระบวนการแบบไหน โครงสร้างนี้พา AI ผ่านการวิเคราะห์อย่างถี่ถ้วนแทนที่จะปล่อยให้กระโดดไปสรุปเอง

ถ้าคุณพบว่าตัวเองหยิบ Prompt พวกนี้กลับมาใช้บ่อย ๆ เปลี่ยนแค่การตัดสินใจ ปัญหา หรือคำถามไปเรื่อย ๆ เครื่องมืออย่าง PromptNest ช่วยให้คุณบันทึก Prompt พร้อม
{{variables}} ติดมาในตัวได้เลย เวลาจะใช้ก็แค่กรอกช่องว่างแล้วคัดลอก Prompt ฉบับสมบูรณ์ออกไปวิธีแก้: เมื่อการคิดของ AI ออกนอกลู่
บางครั้งคุณใช้ Chain-of-Thought แล้ว AI ก็แสดงขั้นตอนออกมาให้ดู แต่ดันไปถึงข้อสรุปที่ผิดอยู่ดี นี่คือวิธีรับมือ
เหตุผลดูโอเคแต่ข้อสรุปผิด AI อาจตั้งต้นจากข้อสมมติที่ผิด ลองถาม: "คุณตั้งสมมติฐานอะไรอยู่บ้าง ลิสต์มาให้ครบ" บ่อยครั้งที่ความผิดพลาดอยู่ในสมมติฐานที่ไม่ได้พูดออกมา ไม่ใช่ตัวตรรกะเอง
AI ข้ามปัจจัยสำคัญไป ตอบกลับด้วย: "คุณยังไม่ได้พิจารณา {{factor}} เรื่องนี้เปลี่ยนการวิเคราะห์ของคุณยังไง" AI จะรับข้อมูลใหม่เข้าไปและมักทบทวนข้อสรุปเดิม
เหตุผลวนเป็นวงกลมหรือคลุมเครือ ขอความเฉพาะเจาะจงเพิ่ม: "ในขั้นตอนที่ 2 คุณบอกว่า 'อาจจะเสี่ยง' ความเสี่ยงเฉพาะคืออะไร จะวัดมันยังไง" การบังคับให้พูดรายละเอียดที่จับต้องได้จะเปิดเผยการคิดที่ไม่ชัด
สงสัยว่า AI มั่นใจเกินไป ลอง: "ลองเล่นบทผู้คัดค้านดู ข้อโต้แย้งที่หนักแน่นที่สุดต่อข้อสรุปนี้คืออะไร" วิธีนี้มักดึงจุดอ่อนที่ AI มองข้ามไปในรอบแรกออกมาให้เห็น
Chain-of-Thought Prompting ไม่ได้มีไว้แค่เพื่อให้ได้คำตอบที่ดีขึ้น แต่เพื่อทำให้กระบวนการคิดของ AI มองเห็นได้ คุณจะได้จับและแก้จุดผิดเอง คิดซะว่าคำตอบแรกเป็นจุดเริ่ม ไม่ใช่คำตอบสุดท้าย
เริ่มใช้ Chain-of-Thought ได้ตั้งแต่วันนี้
คุณไม่ต้องท่องจำเทคนิคหรือทำตามเฟรมเวิร์กซับซ้อนอะไร แค่จำหลักการนี้ไว้: เวลาที่อยากให้ AI คิด จริง ๆ แทนที่จะเดา ก็ขอให้มันแสดงวิธีคิดออกมา
เริ่มจากงานหนึ่งที่คุณใช้ AI ช่วยเป็นประจำ เป็นงานที่ต้องวิเคราะห์ เปรียบเทียบ หรือไล่หาสาเหตุ ลองเติม "มาคิดเรื่องนี้ทีละขั้นตอนกัน" แล้วดูว่าคำตอบเปลี่ยนไปยังไง พอเห็นความต่างแล้วคุณจะเริ่มจับสังเกตเองได้ว่าควรใช้ตอนไหน
ถ้าอยากสะสมคลัง Prompt สำหรับการคิดวิเคราะห์แบบที่เห็นในบทความนี้ จะเก็บไว้ที่ไหนก็ได้ จะเป็นแอปโน้ต ไฟล์เอกสาร หรืออะไรที่คุณใช้อยู่แล้วก็ได้ หรือถ้าอยากได้เครื่องมือที่ออกแบบมาเพื่อสิ่งนี้โดยเฉพาะ PromptNest เป็นแอป Mac ที่ติดตั้งบนเครื่อง (จ่ายครั้งเดียว $19.99 บน Mac App Store ไม่มีค่าสมาชิก ไม่ต้องสมัครบัญชี ทำงานในเครื่อง) ที่เก็บ Prompt ของคุณให้เป็นระเบียบพร้อมระบบตัวแปรในตัว ไม่ว่าทางไหน ประเด็นสำคัญคือมี Prompt ที่ดีที่สุดของคุณพร้อมใช้เมื่อต้องการ ไม่ใช่ฝังอยู่ในประวัติแชตเก่า ๆ
ความต่างระหว่าง AI ที่ช่วยให้คุณคิด กับ AI ที่แค่พูดให้ฟังดูมั่นใจ มักอยู่ที่ประโยคเดียว: "มาคิดเรื่องนี้ทีละขั้นตอนกัน"