Few-Shot lwn. Zero-Shot Prompting: Bila Patut Guna Setiap Satu
Panduan praktikal untuk memilih pendekatan prompting yang tepat untuk tugas anda, lengkap dengan contoh salin-tampal dan rangka kerja keputusan yang ringkas.
Anda tampal satu prompt ke dalam ChatGPT. Hasilnya... okey sahaja. Tetapi anda pernah lihat orang lain dapat hasil yang jauh lebih baik dengan menambah "contoh" pada prompt mereka. Patutkah anda buat begitu? Berapa banyak contoh diperlukan? Adakah ia benar-benar penting untuk tugas khusus anda?
Soalan-soalan ini sentiasa muncul, dan istilah-istilahnya pun tidak banyak membantu. "Zero-shot," "few-shot," "one-shot" — bunyinya macam istilah fotografi, bukan panduan praktikal. Panduan ini menyingkap jargon tersebut dan memberi anda rangka kerja yang jelas untuk memutuskan pendekatan mana yang patut digunakan, lengkap dengan prompt-prompt sedia yang boleh anda salin dan uji sendiri.
Apa sebenarnya zero-shot prompting
Zero-shot prompting bermaksud memberi AI satu tugas tanpa menunjukkan sebarang contoh hasil yang anda mahu. Anda terangkan apa yang anda perlukan, dan model akan tentukan cara untuk melakukannya berdasarkan latihan yang telah diterimanya.
Berikut ialah prompt zero-shot untuk meringkaskan nota mesyuarat:
Summarize the following meeting notes into 3-5 bullet points covering the key decisions made.
Meeting notes:
{{meeting_notes}}
Itu sahaja. Tiada contoh ringkasan yang "baik," tiada sampel input dan output. Anda berharap model itu memahami apa rupa ringkasan dan apa maksud "keputusan utama." Untuk banyak tugas, pendekatan ini berkesan dengan agak baik.
Apa sebenarnya few-shot prompting
Few-shot prompting bermaksud memasukkan 2-5 contoh dalam prompt anda yang menunjukkan corak yang anda mahu AI ikut. Anda pada dasarnya berkata "beginilah saya mahu awak kendalikan ini" sebelum memberikan tugas sebenar.
Berikut tugas ringkasan mesyuarat yang sama, tetapi dengan contoh:
Summarize meeting notes into 3-5 bullet points covering key decisions.
Example 1:
Input: "Team discussed Q3 targets. Sarah proposed increasing the sales goal by 15%. Mark disagreed, suggested 10% was more realistic given current pipeline. Team voted and agreed on 12%. Also decided to postpone the website redesign until Q4."
Output:
- Agreed on 12% sales goal increase for Q3 (compromise between 15% and 10% proposals)
- Postponed website redesign to Q4
Example 2:
Input: "Budget review meeting. Current spending is 8% over forecast. CFO recommended cutting travel budget by 50% and freezing new hires for 60 days. CEO approved both measures effective immediately."
Output:
- Cut travel budget by 50% (effective immediately)
- 60-day hiring freeze approved
- Response to 8% budget overrun
Now summarize this:
{{meeting_notes}}
Perhatikan perbezaannya. Contoh-contoh tersebut menunjukkan kepada model dengan tepat format yang anda mahu (poin berbutir dengan konteks dalam kurungan), tahap perincian yang perlu dimasukkan, dan cara mengendalikan beberapa keputusan. Model belajar keutamaan anda dalam konteks — tanpa perlu fine-tuning.
Perbezaan utama secara ringkas
Berikut perbandingan kedua-dua pendekatan ini berdasarkan faktor-faktor yang paling penting:
Kelajuan: Zero-shot lebih pantas. Lebih sedikit token untuk diproses bermakna respons lebih cepat.
Kos: Zero-shot lebih murah. Anda bayar setiap token, dan contoh-contoh akan menambah kos.
Usaha persediaan: Zero-shot hampir tidak memerlukan usaha. Few-shot memerlukan anda mencari atau menyediakan contoh yang baik.
Ketepatan untuk tugas mudah: Lebih kurang sama. Model moden mengendalikan permintaan yang langsung dengan baik dalam kedua-dua cara.
Ketepatan untuk tugas kompleks atau khusus: Few-shot biasanya menang. Bila anda perlukan format khusus atau istilah khusus domain, contoh memberi perbezaan yang ketara.
Pertukarannya jelas: zero-shot lebih ringkas dan murah, tetapi few-shot memberi anda lebih kawalan ke atas output. Persoalannya bila kawalan tambahan itu berbaloi.
Bila zero-shot paling berkesan
Zero-shot prompting menyerlah bila tugas itu sesuatu yang model sudah "faham" daripada latihannya. Itu termasuk:
Soalan pengetahuan umum: Meminta penjelasan, takrifan, atau maklumat fakta. Model tahu apa rupa penjelasan yang baik.
Sumbangsaran kreatif: Menjana idea, menulis draf pertama, atau mencadangkan pilihan. Anda mahukan kepelbagaian di sini, bukan kepatuhan kepada corak tertentu.
Ringkasan standard: Memadatkan artikel, e-mel, atau dokumen apabila anda tidak memerlukan format khusus.
Terjemahan: Menukar teks antara bahasa yang model telah dilatih.
Pengelasan ringkas: Menyusun item ke dalam kategori biasa (positif/negatif, mendesak/tidak mendesak) apabila kategori itu jelas dengan sendirinya.
Petua mudah: jika anda boleh menerangkan apa yang anda mahu dalam bahasa biasa dan manusia akan faham tanpa melihat contoh, zero-shot mungkin sudah memadai.
Carta alir menunjukkan proses keputusan: mulakan dengan zero-shot, nilai hasilnya, tambah contoh hanya jika perlu
Bila few-shot berbaloi dengan token tambahan
Few-shot prompting berbaloi apabila output perlu mengikut corak yang model tidak boleh agak daripada arahan sahaja:
Format khusus: Bila anda perlukan output dalam struktur tertentu — JSON dengan medan-medan tertentu, jadual dengan lajur yang tepat, poin berbutir dengan gaya tertentu. Contoh menunjukkan format dengan lebih jelas berbanding penerangan.
Kategori pengelasan anda sendiri: Jika anda menyusun e-mel pelanggan ke dalam kategori seperti "billing-question," "feature-request," "bug-report," dan "general-inquiry," menunjukkan contoh setiap satu membantu model memahami takrifan anda.
Padanan suara atau nada jenama: Mahu AI menulis seperti kandungan sedia ada syarikat anda? Tunjukkan 2-3 contoh suara tersebut. Arahan seperti "tulis dalam nada profesional tetapi mesra" terlalu kabur; contoh lebih khusus.
Istilah khusus domain: Jika industri anda menggunakan jargon atau singkatan yang mempunyai maksud berbeza di tempat lain, contoh mengajar model konteks anda.
Kes tepi dan nuansa: Mengesan sindiran, ironi, atau perbezaan halus yang menyukarkan pendekatan zero-shot. Kajian menunjukkan few-shot prompting meningkatkan dengan ketara pengendalian kes tepi sentimen seperti negasi dan sindiran.
Satu kajian mendapati bahawa untuk pengelasan sentimen Twitter, few-shot prompting dengan hanya 20-50 contoh hampir menyamai prestasi model yang fine-tuned dengan 10,000+ contoh. Itulah kuasa demonstrasi yang dipilih dengan baik.
Jika anda mendapati diri anda sedang membina koleksi prompt few-shot untuk pelbagai tugas, alat seperti PromptNest membantu anda menyimpannya dengan pemboleh ubah seperti {{meeting_notes}} terbina dalam — isi ruangan kosong semasa anda menyalin, dan prompt lengkap sudah sedia untuk ditampal.
Aliran kerja "mula dengan zero, naik taraf bila perlu"
Berikut pendekatan praktikal yang menjimatkan masa dan token:
Langkah 1: Cuba zero-shot dahulu. Tulis prompt yang jelas menerangkan apa yang anda mahu. Spesifik tentang tugas tersebut, tetapi jangan masukkan contoh dahulu.
Langkah 2: Nilai outputnya. Adakah ia memberi apa yang anda perlukan? Jika ya, anda sudah selesai. Jika tidak, kenal pasti apa yang salah — formatnya? Nadanya? Butiran yang terlepas? Salah faham tugas keseluruhannya?
Langkah 3: Tambah contoh yang disasarkan. Cipta 2-3 contoh yang khusus menunjukkan perkara yang model salah. Jika formatnya tersasar, tunjukkan format yang betul. Jika nadanya salah, tunjukkan nada yang betul.
Aliran kerja ini penting kerana anda bukan meneka sama ada anda perlukan contoh — anda bertindak balas terhadap jurang sebenar. Kadangkala menambah "Let's think step by step" pada prompt zero-shot membaiki isu penaakulan tanpa perlukan contoh langsung. Kajian mengesahkan bahawa zero-shot chain-of-thought sering mengatasi few-shot untuk tugas penaakulan.
Berapa banyak contoh sebenarnya yang anda perlukan
Kajian secara konsisten menunjukkan tahap optimum di 2-5 contoh untuk kebanyakan tugas. Berikut apa yang data tunjukkan:
- Dua atau tiga contoh pertama memberikan peningkatan ketepatan terbesar
- Pulangan berkurangan dengan tajam selepas 4-5 contoh
- Lebih banyak contoh boleh sebenarnya menjejaskan prestasi dengan memperkenalkan corak yang bercanggah
- Kualiti contoh lebih penting daripada kuantiti — tiga contoh yang sangat baik mengatasi sepuluh contoh yang sederhana
Terdapat juga penemuan penting tentang susunan contoh: kajian menunjukkan bahawa urutan contoh anda mempengaruhi hasil, dengan susunan optimum kadangkala menjadi penentu antara prestasi yang baik dan yang lemah. Jika prompt few-shot anda tidak berkesan, cuba susun semula contoh sebelum menambah lagi.
Ilustrasi menunjukkan kad-kad contoh sedang ditambahkan kepada prompt, dengan pulangan yang berkurangan selepas beberapa yang pertama
Untuk kebanyakan kes penggunaan, mulakan dengan 2 contoh. Jika ketepatan tidak mencapai tahap yang anda perlukan, tambah contoh ketiga yang merangkumi variasi berbeza. Jarang sekali anda akan memerlukan lebih daripada 4.
Chain-of-thought: jalan tengah untuk penaakulan
Ada pilihan ketiga yang berfungsi dengan sangat baik untuk matematik, logik, dan masalah berbilang langkah: chain-of-thought prompting. Daripada menunjukkan contoh input-output, anda meminta model "berfikir langkah demi langkah."
Zero-shot chain-of-thought kelihatan begini:
A store has 45 apples. They sell 12 in the morning and receive a shipment of 30 more. Then they sell 18 in the afternoon. How many apples do they have at closing?
Let's work through this step by step.
Frasa ringkas itu — "Let's work through this step by step" — mendorong model untuk menunjukkan penaakulannya dan bukannya melompat terus kepada jawapan. Untuk penaakulan kompleks, ini sering mengatasi kedua-dua pendekatan zero-shot dan few-shot.
Kajian terkini daripada arXiv mendapati bahawa untuk model yang kuat seperti GPT-4 dan Claude, zero-shot chain-of-thought kerap mengatasi few-shot prompting pada tugas penaakulan. Contoh-contoh sebenarnya boleh mengehadkan pemikiran model dan bukannya membantunya.
Gunakan chain-of-thought apabila:
Tugas memerlukan beberapa langkah logik
Anda perlukan model menerangkan penaakulannya (berguna untuk mengesan kesilapan)
Matematik, logik pengaturcaraan, atau masalah analitikal terlibat
Anda mahu sahkan pendekatan model, bukan hanya jawapannya
Contoh prompt lengkap yang boleh anda salin
Mari kita lihat ketiga-tiga pendekatan secara berdampingan untuk tugas sebenar. Semua prompt telah diuji dengan GPT-4 dan Claude dan sedia untuk digunakan.
Tugas 1: Pengelasan nada e-mel
Versi zero-shot:
Classify the tone of this customer email as: frustrated, satisfied, neutral, or urgent.
Email:
{{email_text}}
Tone:
Versi few-shot (lebih baik untuk kes tepi):
Classify customer email tone as: frustrated, satisfied, neutral, or urgent.
Email: "I've been waiting 3 weeks for my order. This is ridiculous. I want a refund NOW."
Tone: frustrated
Email: "Just wanted to say thanks — the product arrived early and works great!"
Tone: satisfied
Email: "Hi, can you confirm my order shipped? Order #12345."
Tone: neutral
Email: "Our system is down and we need the replacement part TODAY or we lose the contract."
Tone: urgent
Email: {{email_text}}
Tone:
Versi few-shot membantu model memahami takrifan khusus anda. "Mendesak" lawan "kecewa" boleh menjadi kabur — contoh menjelaskan sempadan anda.
Tugas 2: Tulis semula penerangan produk
Versi zero-shot:
Rewrite this product description to be more engaging and benefit-focused. Keep it under 100 words.
Original: {{product_description}}
Rewritten version:
Versi few-shot (lebih baik untuk konsistensi suara jenama):
Rewrite product descriptions to be engaging and benefit-focused. Match this style:
Original: "Stainless steel water bottle. 24oz capacity. Keeps drinks cold for 24 hours."
Rewritten: "Stay hydrated all day with our sleek 24oz steel bottle. Your morning coffee stays hot through your commute. Your afternoon water stays ice-cold at the gym. One bottle, endless possibilities."
Original: "Wireless earbuds. 8-hour battery. Noise cancelling."
Rewritten: "Eight hours of your favorite podcasts, uninterrupted. Our wireless earbuds block out the noise so you can focus on what matters — whether that's deep work, your workout playlist, or finally finishing that audiobook."
Original: {{product_description}}
Rewritten:
Versi few-shot mengajar gaya copywriting tertentu — berfokus kepada manfaat, bersifat perbualan, dengan kes penggunaan yang khusus. Zero-shot akan beri anda suatu penulisan semula, tetapi tidak semestinya suara anda sendiri.
Tugas 3: Penstrukturan laporan pepijat
Versi zero-shot:
Convert this bug report into a structured format with: Summary, Steps to Reproduce, Expected Behavior, and Actual Behavior.
Bug report: {{bug_report}}
Versi few-shot (lebih baik untuk format yang konsisten):
Convert bug reports into structured format.
Input: "The app crashes when I try to upload a PDF. I was on the dashboard, clicked upload, selected a 5MB PDF, and it just closed. Should show the file in my uploads but instead the whole app dies."
Output:
**Summary:** App crashes when uploading PDF files
**Steps to Reproduce:**
1. Navigate to dashboard
2. Click upload button
3. Select a PDF file (tested with 5MB file)
**Expected:** File appears in uploads section
**Actual:** Application crashes/closes unexpectedly
---
Input: {{bug_report}}
Output:
Untuk dokumentasi teknikal, konsistensi adalah penting. Versi few-shot memastikan setiap laporan pepijat mengikut struktur yang sama dengan tahap perincian yang sama.
Rangka kerja keputusan pantas
Apabila anda berdepan tugas baharu, lalui soalan-soalan ini:
1. Adakah tugas itu langsung dan jelas takrifannya? → Mulakan dengan zero-shot
2. Anda perlukan format khusus yang model mungkin tidak akan teka? → Gunakan few-shot
3. Adakah tugas melibatkan penaakulan berbilang langkah? → Cuba zero-shot chain-of-thought dahulu
4. Anda perlukan suara jenama atau istilah domain yang konsisten? → Gunakan few-shot dengan contoh dalam suara tersebut
5. Zero-shot beri anda 80% daripada apa yang anda perlukan? → Kekalkan. Kesempurnaan tidak berbaloi 3x ganda token.
Matlamatnya bukan untuk gunakan teknik paling canggih — sebaliknya untuk dapatkan hasil yang baik dengan cekap. Zero-shot adalah pilihan asas. Tambah kerumitan hanya apabila pendekatan yang lebih ringkas tidak mencukupi.
Mempraktikkannya
Cara terbaik untuk menyerap semua ini ialah dengan mencuba sendiri. Ambil tugas yang anda lakukan secara berkala — meringkaskan laporan, menulis e-mel, mengkategorikan maklum balas — dan cuba kedua-dua pendekatan. Perhatikan di mana zero-shot tidak mencukupi. Perhatikan di mana few-shot membuat perbezaan yang sebenar.
Setelah anda jumpa prompt yang berkesan, simpan ia di tempat yang anda boleh cari semula. Jika anda sedang membina koleksi prompt dengan contoh dan pemboleh ubah, PromptNest ialah aplikasi Mac asli ($19.99 bayaran sekali sahaja di Mac App Store, tiada langganan, tiada akaun, berjalan secara tempatan) yang menyimpannya dengan teratur, mudah dicari, dan boleh diakses dengan pintasan papan kekunci dari mana-mana aplikasi. Tidak perlu lagi menyelongkar nota yang berselerak untuk mencari prompt few-shot sempurna yang anda tulis tiga minggu lepas.
Mulakan dengan ringkas. Tambah kerumitan apabila perlu. Simpan apa yang berkesan. Itulah keseluruhan strateginya.