Voltar para o Blog

Few-shot vs. zero-shot prompting: quando usar cada um

Um guia prático para escolher a abordagem certa de prompt para sua tarefa, com exemplos prontos para copiar e um framework de decisão simples.

Few-shot vs. zero-shot prompting: quando usar cada um
Você cola um prompt no ChatGPT. O resultado é... ok. Mas você já viu pessoas obterem resultados muito melhores adicionando "exemplos" aos prompts delas. Você deveria estar fazendo isso? Quantos exemplos? Será que isso faz diferença no seu caso?
Essas perguntas aparecem o tempo todo, e a terminologia não ajuda. "Zero-shot", "few-shot", "one-shot" — soam mais como termos de fotografia do que como orientações práticas. Este guia corta o jargão e oferece um framework claro para decidir qual abordagem usar, além de prompts completos que você pode copiar e testar agora mesmo.

O que zero-shot prompting realmente significa

Zero-shot prompting significa dar uma tarefa à IA sem mostrar nenhum exemplo do que você quer. Você descreve o que precisa, e o modelo descobre como fazer isso com base no treinamento dele.
Aqui está um prompt zero-shot para resumir uma reunião:

Resuma as seguintes anotações de reunião em 3 a 5 tópicos, cobrindo as principais decisões tomadas.

Anotações da reunião:
{{meeting_notes}}
Só isso. Nenhum exemplo de "bom" resumo, nenhuma amostra de entrada e saída. Você está confiando que o modelo entende o que é um resumo e o que significa "principais decisões". Para muitas tarefas, isso funciona surpreendentemente bem.

O que few-shot prompting realmente significa

Few-shot prompting significa incluir 2 a 5 exemplos no prompt que demonstrem o padrão que você quer que a IA siga. Você está basicamente dizendo "é assim que quero que você lide com isso" antes de passar a tarefa de verdade.
Aqui está a mesma tarefa de resumo de reunião, mas com exemplos:

Resuma anotações de reunião em 3 a 5 tópicos cobrindo decisões importantes.

Exemplo 1:
Entrada: "O time discutiu as metas do Q3. Sarah propôs aumentar a meta de vendas em 15%. Mark discordou e sugeriu que 10% era mais realista dado o pipeline atual. O time votou e fechou em 12%. Também decidiram adiar a reformulação do site para o Q4."
Saída:
- Acordado aumento de 12% na meta de vendas do Q3 (meio-termo entre 15% e 10%)
- Reformulação do site adiada para o Q4

Exemplo 2:
Entrada: "Reunião de revisão orçamentária. Gastos atuais estão 8% acima do previsto. CFO recomendou cortar 50% do orçamento de viagens e congelar novas contratações por 60 dias. CEO aprovou as duas medidas com efeito imediato."
Saída:
- Corte de 50% no orçamento de viagens (efeito imediato)
- Congelamento de contratações por 60 dias aprovado
- Resposta ao estouro de 8% no orçamento

Agora resuma isto:
{{meeting_notes}}
Repare na diferença. Os exemplos mostram ao modelo exatamente o formato que você quer (tópicos com contexto entre parênteses), o nível de detalhe e como tratar várias decisões. O modelo aprende suas preferências no contexto — sem precisar de fine-tuning.

As principais diferenças em uma olhada

Veja como as duas abordagens se comparam nos fatores que mais importam:
  • Velocidade: zero-shot é mais rápido. Menos tokens para processar significa respostas mais ágeis.
  • Custo: zero-shot é mais barato. Você paga por token, e os exemplos somam.
  • Esforço de configuração: zero-shot quase não exige nada. Few-shot exige encontrar ou criar bons exemplos.
  • Precisão em tarefas simples: mais ou menos a mesma. Modelos atuais lidam bem com pedidos diretos de qualquer jeito.
  • Precisão em tarefas complexas ou personalizadas: few-shot costuma vencer. Quando você precisa de formatação específica ou terminologia de domínio, exemplos fazem uma diferença mensurável.
O trade-off é claro: zero-shot é mais simples e barato, mas few-shot dá mais controle sobre a saída. A questão é quando esse controle extra vale a pena.

Quando zero-shot funciona melhor

Zero-shot prompting brilha quando a tarefa é algo que o modelo já "entende" pelo treinamento. Isso inclui:
Perguntas de conhecimento geral: pedir explicações, definições ou informações factuais. O modelo sabe como é uma boa explicação.

Brainstorming criativo: gerar ideias, escrever primeiros rascunhos ou levantar opções. Aqui você quer variedade, não adesão a um padrão específico.

Resumos comuns: condensar artigos, e-mails ou documentos quando você não precisa de um formato específico.

Tradução: converter texto entre idiomas com os quais o modelo foi treinado.

Classificação simples: separar itens em categorias comuns (positivo/negativo, urgente/não urgente) quando as categorias são autoexplicativas.
Uma boa regra prática: se você consegue descrever o que quer em linguagem natural e um humano entenderia sem ver exemplos, zero-shot provavelmente vai funcionar.
Fluxograma mostrando o processo de decisão: começar com zero-shot, avaliar os resultados e adicionar exemplos só se necessário
Fluxograma mostrando o processo de decisão: começar com zero-shot, avaliar os resultados e adicionar exemplos só se necessário

Quando few-shot vale os tokens extras

Few-shot prompting compensa quando a saída precisa seguir padrões que o modelo não consegue inferir só pelas instruções:
Formatação personalizada: quando você precisa de saídas em uma estrutura específica — JSON com campos específicos, tabelas com colunas exatas, tópicos em um certo estilo. Exemplos mostram o formato melhor do que descrições explicam.

Suas categorias de classificação: se você está separando e-mails de clientes em categorias como "dúvida-de-cobrança", "pedido-de-funcionalidade", "relato-de-bug" e "consulta-geral", mostrar exemplos de cada uma ajuda o modelo a entender suas definições.

Voz da marca ou tom: quer que a IA escreva como o conteúdo já existente da sua empresa? Mostre 2 ou 3 exemplos dessa voz. Instruções como "escreva em tom profissional, mas amigável" são vagas; exemplos são específicos.

Terminologia de domínio: se sua área usa jargões ou siglas que significam outra coisa fora dela, exemplos ensinam o contexto ao modelo.

Casos de borda e nuances: detecção de sarcasmo, ironia ou distinções sutis que confundem abordagens zero-shot. Pesquisas mostram que few-shot prompting melhora bastante o tratamento de casos de borda em análise de sentimento, como negação e sarcasmo.
Um estudo descobriu que, para classificação de sentimento no Twitter, few-shot prompting com apenas 20 a 50 exemplos chegou perto do desempenho de modelos treinados com fine-tuning em mais de 10.000 exemplos. Esse é o poder de demonstrações bem escolhidas.
Se você se vê montando uma biblioteca de prompts few-shot para tarefas diferentes, uma ferramenta como o PromptNest ajuda a salvá-los já com variáveis como {{meeting_notes}} embutidas — você preenche os espaços ao copiar, e o prompt completo já sai pronto para colar.

O fluxo "comece com zero, melhore se precisar"

Esta é a abordagem prática que economiza tempo e tokens:
Passo 1: tente zero-shot primeiro. Escreva um prompt claro descrevendo o que você quer. Seja específico sobre a tarefa, mas ainda não inclua exemplos.

Passo 2: avalie a saída. Ela entrega o que você precisa? Se sim, fim. Se não, identifique o que está errado — é o formato? O tom? Faltam detalhes? O modelo entendeu a tarefa errado?

Passo 3: adicione exemplos direcionados. Crie 2 ou 3 exemplos que demonstrem exatamente o que o modelo errou. Se o formato saiu errado, mostre o formato certo. Se o tom estava fora, mostre o tom certo.
Esse fluxo importa porque você não está chutando se precisa de exemplos — está respondendo a falhas reais. Às vezes, adicionar "vamos pensar passo a passo" a um prompt zero-shot resolve problemas de raciocínio sem precisar de exemplos. Pesquisas confirmam que zero-shot chain-of-thought costuma superar few-shot em tarefas de raciocínio.

Quantos exemplos você realmente precisa?

As pesquisas apontam consistentemente para um ponto ideal de 2 a 5 exemplos para a maioria das tarefas. Veja o que os dados mostram:
- Os primeiros 2 ou 3 exemplos dão o maior ganho de precisão - O retorno cai bruscamente depois de 4 ou 5 exemplos - Mais exemplos podem até piorar o desempenho ao introduzir padrões conflitantes - Qualidade dos exemplos importa mais do que quantidade — três exemplos excelentes superam dez medianos
Há também uma descoberta importante sobre a ordem dos exemplos: estudos mostram que a sequência dos seus exemplos afeta o resultado, e a ordenação certa pode fazer a diferença entre um desempenho bom e um ruim. Se seu prompt few-shot não está funcionando bem, tente reordenar os exemplos antes de adicionar mais.
Ilustração mostrando cards de exemplo sendo adicionados a um prompt, com retorno decrescente após os primeiros
Ilustração mostrando cards de exemplo sendo adicionados a um prompt, com retorno decrescente após os primeiros
Para a maioria dos casos, comece com 2 exemplos. Se a precisão não estiver onde você precisa, adicione um terceiro que cubra uma variação diferente. Raramente você vai precisar de mais de 4.

Chain-of-thought: o meio-termo para raciocínio

Existe uma terceira opção que funciona muito bem para matemática, lógica e problemas de várias etapas: chain-of-thought prompting. Em vez de mostrar exemplos de entrada e saída, você pede ao modelo para "pensar passo a passo".
Zero-shot chain-of-thought fica assim:

Uma loja tem 45 maçãs. Eles vendem 12 pela manhã e recebem um lote de mais 30. Depois vendem 18 à tarde. Quantas maçãs eles têm no fechamento?

Vamos resolver isso passo a passo.
Essa frase simples — "vamos resolver isso passo a passo" — faz o modelo mostrar o raciocínio em vez de pular direto para a resposta. Para raciocínio complexo, isso muitas vezes supera tanto zero-shot quanto few-shot.
Pesquisas recentes do arXiv mostram que, em modelos fortes como GPT-4 e Claude, zero-shot chain-of-thought frequentemente supera few-shot em tarefas de raciocínio. Os exemplos podem acabar restringindo o pensamento do modelo em vez de ajudá-lo.
Use chain-of-thought quando:
  • A tarefa exige várias etapas lógicas
  • Você precisa que o modelo explique o raciocínio (útil para encontrar erros)
  • Estão envolvidos matemática, lógica de código ou problemas analíticos
  • Você quer verificar a abordagem do modelo, não só a resposta

Exemplos completos de prompts para você copiar

Vamos ver as três abordagens lado a lado em tarefas reais. Todos os prompts foram testados com GPT-4 e Claude e estão prontos para usar.

Tarefa 1: classificação de tom de e-mail

Versão zero-shot:

Classifique o tom deste e-mail de cliente como: frustrado, satisfeito, neutro ou urgente.

E-mail:
{{email_text}}

Tom:
Versão few-shot (melhor para casos de borda):

Classifique o tom de e-mails de clientes como: frustrado, satisfeito, neutro ou urgente.

E-mail: "Estou esperando 3 semanas pelo meu pedido. Isso é ridículo. Quero o reembolso AGORA."
Tom: frustrado

E-mail: "Só queria agradecer — o produto chegou antes do prazo e funciona ótimo!"
Tom: satisfeito

E-mail: "Olá, vocês podem confirmar se meu pedido foi enviado? Pedido nº 12345."
Tom: neutro

E-mail: "Nosso sistema caiu e precisamos da peça de reposição HOJE ou perderemos o contrato."
Tom: urgente

E-mail: {{email_text}}
Tom:
A versão few-shot ajuda o modelo a entender suas definições específicas. "Urgente" e "frustrado" podem ser ambíguos — exemplos deixam suas fronteiras claras.

Tarefa 2: reescrita de descrição de produto

Versão zero-shot:

Reescreva esta descrição de produto para ficar mais envolvente e focada em benefícios. Mantenha em até 100 palavras.

Original: {{product_description}}

Versão reescrita:
Versão few-shot (melhor para consistência da voz da marca):

Reescreva descrições de produto para ficarem envolventes e focadas em benefícios. Siga este estilo:

Original: "Garrafa de água de aço inox. Capacidade de 700 ml. Mantém bebidas geladas por 24 horas."
Reescrita: "Mantenha-se hidratado o dia todo com nossa elegante garrafa de aço inox de 700 ml. Seu café da manhã continua quente até o trabalho. Sua água da tarde fica gelada na academia. Uma garrafa, infinitas possibilidades."

Original: "Fones sem fio. Bateria de 8 horas. Cancelamento de ruído."
Reescrita: "Oito horas dos seus podcasts favoritos sem interrupção. Nossos fones sem fio bloqueiam o barulho para você focar no que importa — seja trabalho profundo, sua playlist de treino ou aquele audiolivro que você quer terminar."

Original: {{product_description}}
Reescrita:
A versão few-shot ensina um estilo de copy específico — focado em benefícios, conversacional, com casos de uso concretos. Zero-shot daria uma reescrita, mas não necessariamente na sua voz.

Tarefa 3: estruturação de relato de bug

Versão zero-shot:

Converta este relato de bug em um formato estruturado com: Resumo, Passos para Reproduzir, Comportamento Esperado e Comportamento Real.

Relato de bug: {{bug_report}}
Versão few-shot (melhor para formatação consistente):

Converta relatos de bug em formato estruturado.

Entrada: "O app trava quando tento fazer upload de um PDF. Eu estava no dashboard, cliquei em upload, selecionei um PDF de 5 MB e o app simplesmente fechou. Deveria mostrar o arquivo nos meus uploads, mas o app inteiro morre."

Saída:
**Resumo:** o app trava ao fazer upload de arquivos PDF
**Passos para reproduzir:**
1. Acessar o dashboard
2. Clicar no botão de upload
3. Selecionar um arquivo PDF (testado com arquivo de 5 MB)
**Esperado:** arquivo aparece na seção de uploads
**Real:** aplicativo trava/fecha inesperadamente

---

Entrada: {{bug_report}}

Saída:
Em documentação técnica, consistência importa. A versão few-shot garante que todo relato de bug siga a mesma estrutura, com o mesmo nível de detalhe.

Framework rápido de decisão

Quando estiver diante de uma nova tarefa, passe por estas perguntas:
1. A tarefa é direta e bem definida? → comece com zero-shot 2. Você precisa de um formato específico que o modelo talvez não adivinhe? → use few-shot 3. A tarefa envolve raciocínio em várias etapas? → tente primeiro zero-shot chain-of-thought 4. Você precisa de voz de marca consistente ou terminologia de domínio? → use few-shot com exemplos nessa voz 5. Zero-shot já entrega 80% do que você precisa? → fique com ele. Perfeição não vale 3x mais tokens.
O objetivo não é usar a técnica mais sofisticada — é obter bons resultados de forma eficiente. Zero-shot é o padrão. Adicione complexidade só quando abordagens mais simples não derem conta.

Colocando em prática

A melhor forma de internalizar isso é experimentando. Pegue uma tarefa que você faz com frequência — resumir relatórios, redigir e-mails, categorizar feedbacks — e teste as duas abordagens. Repare onde zero-shot falha. Repare onde few-shot faz diferença real.
Quando encontrar prompts que funcionam, salve em algum lugar onde realmente consiga achá-los depois. Se você está montando uma coleção de prompts com exemplos e variáveis, o PromptNest é um app nativo para Mac ($19.99 pagamento único na Mac App Store, sem assinatura, sem conta, roda localmente) que mantém tudo organizado, pesquisável e acessível por um atalho de teclado em qualquer app. Chega de caçar em anotações espalhadas aquele prompt few-shot perfeito que você escreveu há três semanas.
Comece simples. Adicione complexidade quando for preciso. Salve o que funciona. Essa é a estratégia inteira.