Kembali ke Blog

Few-Shot vs. Zero-Shot Prompting: Kapan Menggunakan Masing-Masing

Panduan praktis untuk memilih pendekatan prompting yang tepat untuk tugas Anda, lengkap dengan contoh siap salin-tempel dan kerangka keputusan sederhana.

Few-Shot vs. Zero-Shot Prompting: Kapan Menggunakan Masing-Masing
Anda menempelkan sebuah prompt ke ChatGPT. Hasilnya... lumayan. Tapi Anda pernah melihat orang lain mendapatkan hasil yang jauh lebih baik dengan menambahkan "contoh" ke prompt mereka. Apakah Anda juga harus melakukannya? Berapa banyak contoh yang perlu disertakan? Apakah hal itu benar-benar berpengaruh untuk tugas Anda?
Pertanyaan-pertanyaan ini terus muncul, dan istilahnya pun tidak membantu. "Zero-shot," "few-shot," "one-shot" — istilah-istilah ini terdengar seperti istilah fotografi, bukan panduan praktis. Panduan ini akan menerobos jargon tersebut dan memberi Anda kerangka yang jelas untuk memutuskan pendekatan mana yang harus dipakai, lengkap dengan prompt utuh yang bisa Anda salin dan uji sendiri.

Apa sebenarnya arti zero-shot prompting

Zero-shot prompting berarti memberi AI sebuah tugas tanpa menunjukkan satu pun contoh hasil yang Anda inginkan. Anda mendeskripsikan apa yang dibutuhkan, dan model mencari cara mengerjakannya berdasarkan pelatihannya.
Berikut contoh prompt zero-shot untuk meringkas notulensi rapat:

Ringkas notulensi rapat berikut menjadi 3-5 poin yang mencakup keputusan-keputusan penting yang diambil.

Notulensi rapat:
{{meeting_notes}}
Hanya itu. Tidak ada contoh ringkasan yang "bagus", tidak ada sampel input maupun output. Anda mempercayakan model untuk memahami seperti apa bentuk ringkasan dan apa arti "keputusan penting". Untuk banyak tugas, cara ini bekerja dengan sangat baik.

Apa sebenarnya arti few-shot prompting

Few-shot prompting berarti menyertakan 2-5 contoh dalam prompt yang menunjukkan pola yang ingin Anda ikuti oleh AI. Pada dasarnya Anda berkata "begini cara saya ingin Anda menanganinya" sebelum memberi tugas yang sebenarnya.
Berikut tugas peringkasan rapat yang sama, namun dengan contoh:

Ringkas notulensi rapat menjadi 3-5 poin yang mencakup keputusan-keputusan penting.

Contoh 1:
Input: "Tim membahas target Q3. Sarah mengusulkan kenaikan target penjualan 15%. Mark tidak setuju, ia menyarankan 10% lebih realistis mengingat pipeline saat ini. Tim memungut suara dan sepakat di angka 12%. Selain itu diputuskan menunda redesain situs web hingga Q4."
Output:
- Sepakat menaikkan target penjualan Q3 sebesar 12% (kompromi antara usulan 15% dan 10%)
- Redesain situs web ditunda ke Q4

Contoh 2:
Input: "Rapat tinjauan anggaran. Pengeluaran saat ini 8% di atas perkiraan. CFO merekomendasikan pemangkasan anggaran perjalanan sebesar 50% dan pembekuan rekrutmen baru selama 60 hari. CEO menyetujui kedua langkah tersebut berlaku segera."
Output:
- Anggaran perjalanan dipangkas 50% (berlaku segera)
- Pembekuan rekrutmen 60 hari disetujui
- Respons atas pembengkakan anggaran sebesar 8%

Sekarang ringkas yang ini:
{{meeting_notes}}
Perhatikan perbedaannya. Contoh-contoh tersebut menunjukkan kepada model persis format yang Anda inginkan (poin-poin dengan konteks dalam tanda kurung), tingkat detail yang perlu disertakan, dan cara menangani beberapa keputusan sekaligus. Model belajar preferensi Anda di dalam konteks — tanpa perlu fine-tuning.

Perbedaan utama dalam sekilas pandang

Berikut perbandingan kedua pendekatan pada faktor-faktor yang paling penting:
  • Kecepatan: Zero-shot lebih cepat. Token yang diproses lebih sedikit, sehingga respons lebih cepat.
  • Biaya: Zero-shot lebih murah. Anda membayar per token, dan contoh-contoh akan menambah biaya.
  • Usaha persiapan: Zero-shot hampir tidak butuh usaha. Few-shot menuntut Anda mencari atau membuat contoh yang baik.
  • Akurasi pada tugas sederhana: Kurang lebih sama. Model modern menangani permintaan langsung dengan baik dengan cara apa pun.
  • Akurasi pada tugas kompleks/khusus: Few-shot biasanya unggul. Saat Anda butuh format spesifik atau terminologi domain, contoh memberi perbedaan yang terukur.
Kompromi-nya jelas: zero-shot lebih sederhana dan murah, sedangkan few-shot memberi Anda kendali lebih atas hasil. Pertanyaannya adalah kapan kendali tambahan itu sepadan.

Kapan zero-shot bekerja paling baik

Zero-shot prompting bersinar saat tugasnya adalah sesuatu yang sudah "dipahami" model dari pelatihannya. Itu termasuk:
Pertanyaan pengetahuan umum: Meminta penjelasan, definisi, atau informasi faktual. Model tahu seperti apa penjelasan yang baik.

Brainstorming kreatif: Menghasilkan ide, menulis draf pertama, atau memunculkan opsi. Di sini Anda menginginkan variasi, bukan kepatuhan pada pola tertentu.

Peringkasan standar: Meringkas artikel, email, atau dokumen ketika Anda tidak butuh format khusus.

Penerjemahan: Mengonversi teks antar-bahasa yang dilatihkan ke model.

Klasifikasi sederhana: Memilah item ke kategori umum (positif/negatif, mendesak/tidak mendesak) ketika kategorinya jelas dengan sendirinya.
Aturan praktis yang baik: jika Anda bisa menjelaskan kebutuhan dalam bahasa biasa dan seorang manusia akan paham tanpa melihat contoh, zero-shot kemungkinan besar akan berhasil.
Diagram alur yang menunjukkan proses pengambilan keputusan: mulai dengan zero-shot, evaluasi hasilnya, tambahkan contoh hanya jika diperlukan
Diagram alur yang menunjukkan proses pengambilan keputusan: mulai dengan zero-shot, evaluasi hasilnya, tambahkan contoh hanya jika diperlukan

Kapan few-shot sepadan dengan token tambahannya

Few-shot prompting layak dipakai saat output harus mengikuti pola yang tidak bisa disimpulkan model hanya dari instruksi:
Format khusus: Saat output harus dalam struktur tertentu — JSON dengan field khusus, tabel dengan kolom yang persis, poin-poin dengan gaya tertentu. Contoh menunjukkan format jauh lebih baik daripada deskripsi menjelaskannya.

Kategori klasifikasi milik Anda: Jika Anda memilah email pelanggan ke kategori seperti "pertanyaan-tagihan", "permintaan-fitur", "laporan-bug", dan "pertanyaan-umum", menampilkan contoh setiap kategori membantu model memahami definisi Anda.

Penyesuaian suara merek atau nada: Ingin AI menulis seperti konten yang sudah ada di perusahaan Anda? Tunjukkan padanya 2-3 contoh suara tersebut. Instruksi seperti "tulis dengan nada profesional namun bersahabat" itu samar; contoh itu spesifik.

Terminologi spesifik domain: Jika industri Anda memakai jargon atau singkatan yang berarti lain di tempat lain, contoh mengajarkan konteks Anda kepada model.

Edge case dan nuansa: Deteksi sarkasme, ironi, atau perbedaan halus yang membuat pendekatan zero-shot tersandung. Riset menunjukkan few-shot prompting secara signifikan memperbaiki penanganan edge case sentimen seperti negasi dan sarkasme.
Sebuah studi menemukan bahwa untuk klasifikasi sentimen di Twitter, few-shot prompting hanya dengan 20-50 contoh sudah mendekati performa model yang di-fine-tune dengan 10.000+ contoh. Itulah kekuatan demonstrasi yang dipilih dengan cermat.
Jika Anda mendapati diri sedang membangun pustaka prompt few-shot untuk berbagai tugas, alat seperti PromptNest membantu Anda menyimpannya beserta variabel seperti {{meeting_notes}} yang sudah terpasang — isi bagian kosongnya saat Anda menyalin, lalu prompt utuh siap untuk ditempel.

Alur kerja "mulai dari zero, naikkan jika perlu"

Berikut pendekatan praktis yang menghemat waktu sekaligus token:
Langkah 1: Coba zero-shot dulu. Tulis prompt yang jelas yang menggambarkan apa yang Anda inginkan. Sebutkan tugasnya secara spesifik, tapi belum perlu menyertakan contoh.

Langkah 2: Evaluasi hasilnya. Apakah ia memberi yang Anda butuhkan? Jika ya, selesai. Jika tidak, identifikasi apa yang salah — apakah formatnya? Nadanya? Ada detail yang hilang? Atau salah memahami tugas seluruhnya?

Langkah 3: Tambahkan contoh yang ditargetkan. Buat 2-3 contoh yang khusus mendemonstrasikan hal yang dilakukan keliru oleh model. Jika formatnya meleset, tunjukkan format yang benar. Jika nadanya keliru, tunjukkan nada yang tepat.
Alur kerja ini penting karena Anda tidak menebak-nebak apakah butuh contoh — Anda merespons celah yang sebenarnya muncul. Kadang menambahkan "Mari kita berpikir langkah demi langkah" pada prompt zero-shot sudah memperbaiki masalah penalaran tanpa perlu contoh sama sekali. Riset memastikan bahwa zero-shot chain-of-thought sering mengungguli few-shot untuk tugas penalaran.

Berapa banyak contoh yang sebenarnya Anda butuhkan

Riset secara konsisten menunjuk titik manis di 2-5 contoh untuk sebagian besar tugas. Inilah yang ditunjukkan datanya:
- 2-3 contoh pertama memberi peningkatan akurasi terbesar - Pengembalian menurun tajam setelah 4-5 contoh - Lebih banyak contoh justru bisa menurunkan performa karena memunculkan pola yang bertabrakan - Kualitas contoh lebih penting dibanding kuantitas — tiga contoh hebat mengalahkan sepuluh contoh biasa-biasa saja
Ada juga temuan penting tentang urutan contoh: sejumlah studi menunjukkan bahwa urutan contoh memengaruhi hasil, dengan urutan optimal kadang menjadi penentu antara performa baik dan buruk. Jika prompt few-shot Anda kurang berfungsi, coba ubah urutan contoh sebelum menambahkan lagi.
Ilustrasi yang menunjukkan kartu contoh ditambahkan ke sebuah prompt, dengan pengembalian yang menurun setelah beberapa contoh pertama
Ilustrasi yang menunjukkan kartu contoh ditambahkan ke sebuah prompt, dengan pengembalian yang menurun setelah beberapa contoh pertama
Untuk sebagian besar kasus pemakaian, mulailah dengan 2 contoh. Jika akurasi belum sesuai kebutuhan, tambahkan contoh ketiga yang mencakup variasi berbeda. Jarang sekali Anda butuh lebih dari 4.

Chain-of-thought: jalan tengah untuk penalaran

Ada opsi ketiga yang bekerja sangat baik untuk matematika, logika, dan masalah multilangkah: chain-of-thought prompting. Alih-alih memperlihatkan contoh input-output, Anda meminta model untuk "berpikir langkah demi langkah".
Zero-shot chain-of-thought tampak seperti ini:

Sebuah toko memiliki 45 apel. Mereka menjual 12 apel di pagi hari dan menerima kiriman 30 apel lagi. Lalu mereka menjual 18 apel di sore hari. Berapa apel yang tersisa saat tutup?

Mari kita kerjakan ini langkah demi langkah.
Frasa sederhana itu — "Mari kita kerjakan ini langkah demi langkah" — memicu model untuk menampilkan penalarannya alih-alih langsung melompat ke jawaban. Untuk penalaran kompleks, cara ini sering mengalahkan pendekatan zero-shot maupun few-shot.
Riset terbaru dari arXiv menemukan bahwa untuk model kuat seperti GPT-4 dan Claude, zero-shot chain-of-thought kerap mengungguli few-shot prompting pada tugas penalaran. Contoh-contoh justru bisa membatasi alur pikir model alih-alih membantunya.
Gunakan chain-of-thought saat:
  • Tugas memerlukan beberapa langkah logis
  • Anda butuh model menjelaskan penalarannya (berguna untuk menangkap kekeliruan)
  • Matematika, logika kode, atau masalah analitis terlibat
  • Anda ingin memverifikasi pendekatan model, bukan hanya jawabannya

Contoh prompt utuh yang bisa Anda salin

Mari kita lihat ketiga pendekatan secara berdampingan untuk tugas-tugas nyata. Semua prompt sudah diuji dengan GPT-4 dan Claude serta siap dipakai.

Tugas 1: klasifikasi nada email

Versi zero-shot:

Klasifikasikan nada email pelanggan ini sebagai: kesal, puas, netral, atau mendesak.

Email:
{{email_text}}

Nada:
Versi few-shot (lebih baik untuk edge case):

Klasifikasikan nada email pelanggan sebagai: kesal, puas, netral, atau mendesak.

Email: "Saya sudah menunggu pesanan saya selama 3 minggu. Ini keterlaluan. Saya minta uang saya kembali SEKARANG."
Nada: kesal

Email: "Sekadar ingin berterima kasih — produknya tiba lebih awal dan berfungsi dengan baik!"
Nada: puas

Email: "Halo, bisa konfirmasi apakah pesanan saya sudah dikirim? Pesanan #12345."
Nada: netral

Email: "Sistem kami mati dan kami butuh suku cadang penggantinya HARI INI atau kami kehilangan kontrak."
Nada: mendesak

Email: {{email_text}}
Nada:
Versi few-shot membantu model memahami definisi spesifik Anda. "Mendesak" lawan "kesal" bisa rancu — contoh memperjelas batas yang Anda inginkan.

Tugas 2: menulis ulang deskripsi produk

Versi zero-shot:

Tulis ulang deskripsi produk ini agar lebih menarik dan berfokus pada manfaat. Jaga panjangnya di bawah 100 kata.

Asli: {{product_description}}

Versi yang ditulis ulang:
Versi few-shot (lebih baik untuk konsistensi suara merek):

Tulis ulang deskripsi produk agar menarik dan berfokus pada manfaat. Sesuaikan dengan gaya berikut:

Asli: "Botol minum baja antikarat. Kapasitas 24oz. Menjaga minuman tetap dingin selama 24 jam."
Ditulis ulang: "Tetap terhidrasi sepanjang hari dengan botol baja 24oz kami yang ramping. Kopi pagi Anda tetap hangat selama perjalanan ke kantor. Air sore Anda tetap dingin di gym. Satu botol, tak terbatas kemungkinannya."

Asli: "Earbud nirkabel. Baterai 8 jam. Peredam bising."
Ditulis ulang: "Delapan jam podcast favorit Anda, tanpa terputus. Earbud nirkabel kami menutup kebisingan agar Anda bisa fokus pada hal yang penting — entah itu kerja mendalam, playlist olahraga, atau akhirnya menamatkan audiobook itu."

Asli: {{product_description}}
Ditulis ulang:
Versi few-shot mengajarkan gaya copywriting tertentu — berorientasi manfaat, percakapan, dengan kasus pemakaian yang konkret. Zero-shot akan memberi Anda sebuah tulisan ulang, tetapi belum tentu suara Anda.

Tugas 3: menstrukturkan laporan bug

Versi zero-shot:

Konversikan laporan bug ini menjadi format terstruktur dengan: Ringkasan, Langkah Reproduksi, Perilaku yang Diharapkan, dan Perilaku Sebenarnya.

Laporan bug: {{bug_report}}
Versi few-shot (lebih baik untuk konsistensi format):

Konversikan laporan bug menjadi format terstruktur.

Input: "Aplikasi macet ketika saya mencoba mengunggah PDF. Saya berada di dasbor, mengeklik unggah, memilih PDF berukuran 5MB, lalu aplikasi langsung tertutup. Seharusnya menampilkan file di unggahan saya tetapi malah seluruh aplikasi mati."

Output:
**Ringkasan:** Aplikasi macet saat mengunggah file PDF
**Langkah Reproduksi:**
1. Buka dasbor
2. Klik tombol unggah
3. Pilih file PDF (diuji dengan file 5MB)
**Diharapkan:** File muncul di bagian unggahan
**Sebenarnya:** Aplikasi macet/tertutup tanpa diduga

---

Input: {{bug_report}}

Output:
Untuk dokumentasi teknis, konsistensi itu penting. Versi few-shot memastikan setiap laporan bug mengikuti struktur yang sama dengan tingkat detail yang sama.

Kerangka keputusan singkat

Saat Anda menatap tugas baru, jalankan pertanyaan-pertanyaan berikut:
1. Apakah tugasnya lugas dan terdefinisi dengan baik? → Mulai dengan zero-shot 2. Apakah Anda butuh format spesifik yang mungkin tidak ditebak model? → Pakai few-shot 3. Apakah tugas melibatkan penalaran multilangkah? → Coba zero-shot chain-of-thought dulu 4. Apakah Anda butuh suara merek atau terminologi domain yang konsisten? → Pakai few-shot dengan contoh dalam suara tersebut 5. Apakah zero-shot sudah memberi 80% dari yang Anda butuhkan? → Pertahankan. Kesempurnaan tidak sepadan dengan biaya 3x lipat token.
Tujuannya bukan memakai teknik paling mewah — tujuannya adalah memperoleh hasil yang baik secara efisien. Zero-shot itu bawaan default. Tambahkan kerumitan hanya ketika pendekatan yang lebih sederhana belum cukup.

Mempraktikkannya

Cara terbaik untuk menyerap semua ini adalah bereksperimen. Ambil tugas yang Anda lakukan rutin — meringkas laporan, menyusun email, mengelompokkan masukan — dan coba kedua pendekatan. Cermati di mana zero-shot kurang memuaskan. Cermati di mana few-shot benar-benar membuat perbedaan.
Setelah Anda menemukan prompt yang berhasil, simpan di tempat yang benar-benar bisa Anda temukan lagi. Jika Anda sedang membangun koleksi prompt dengan contoh dan variabel, PromptNest adalah aplikasi Mac native ($19.99 sekali bayar di Mac App Store, tanpa langganan, tanpa akun, berjalan secara lokal) yang menjaga semuanya tertata, mudah dicari, dan bisa diakses lewat pintasan keyboard dari aplikasi mana pun. Tidak perlu lagi mengaduk-aduk catatan tercerai-berai untuk mencari prompt few-shot sempurna yang Anda tulis tiga minggu lalu.
Mulai sederhana. Tambahkan kerumitan saat dibutuhkan. Simpan apa yang berhasil. Itulah inti seluruh strateginya.