- Published on
Como escrever prompts melhores para o Claude
- Authors

- Name
- ThePromptEra Editorial
Como escrever prompts melhores para o Claude (que realmente funcionam)
Tem uma coisa que a maioria das pessoas faz errado com o Claude: usa ele como se fosse Google. Digita uma pergunta curta, espera uma resposta, fica desapontada com o resultado genérico. O problema não é o modelo. É o modelo mental de quem está usando. O Claude é um modelo de raciocínio. Ele responde a contexto, restrições e enquadramento de formas que um buscador jamais responderia. Dê mais estrutura, receba mais resultado útil. Este artigo cobre as quatro coisas que mais movem o ponteiro: enquadramento de papel e contexto, definição de restrições, pedidos de raciocínio explícito, e os erros que estragam silenciosamente cada resposta que você recebe.
Enquadramento de papel muda o output do Claude mais do que qualquer outra técnica isolada
Quando você começa um prompt com um papel, não é brincadeira de RPG. Você está ativando um registro específico de linguagem, um conjunto de prioridades e um público implícito. "Explique isso" e "Explique isso como um gestor de tecnologia sênior apresentando para um CFO sem formação técnica" produzem outputs genuinamente diferentes.
Exemplo concreto. Pergunte ao Claude: "O que é RAG?" Você recebe uma definição de manual. Pergunte assim: "Você é um arquiteto de soluções. Explique RAG para um diretor de marketing que quer saber se vale o custo de engenharia." Agora você recebe tradeoffs, enquadramento de negócio e estrutura de recomendação.
Minha leitura é que a instrução de papel funciona porque força o modelo a colapsar ambiguidade cedo. O Claude não precisa adivinhar quem você é, o que você já sabe ou qual formato vai te servir. Você disse.
O papel não precisa ser elaborado. Uma frase é suficiente. "Você é um editor cético revisando isso em busca de falhas lógicas" vai gerar um feedback diferente de "revise isso." Especificidade importa mais do que extensão. E não enterre o papel no final de um prompt longo. Coloque primeiro, antes de qualquer instrução de tarefa, para que ele enquadre tudo que vem depois.
Restrições cortam ruído mais rápido do que adicionar instruções
A maioria das pessoas tenta melhorar os outputs adicionando mais instruções. Isso frequentemente piora as coisas. O Claude, como a maioria dos grandes modelos de linguagem, vai tentar satisfazer cada instrução que você der, incluindo as vagas. Instruções vagas produzem outputs vagos.
Restrições funcionam de forma diferente. Elas dizem ao Claude o que não fazer, o que costuma ser mais preciso do que dizer o que fazer.
Restrições úteis parecem com isso: "Não use bullet points. Máximo de 150 palavras. Sem frases evasivas como 'depende' ou 'há vários fatores'. Me dê uma resposta direta." Essa estrutura de prompt é muito mais eficaz do que "escreva um resumo conciso e direto."
Nos nossos testes, adicionar um limite de palavras por si só já aperta significativamente as respostas do Claude. Não porque o modelo fica preguiçoso com mais espaço, mas porque a restrição força priorização. Sem limite, o Claude otimiza para completude. Com limite, otimiza para relevância.
Um conjunto prático de restrições que vale usar com frequência:
- Restrições de formato: "apenas prosa corrida", "apenas lista numerada", "um parágrafo"
- Restrições de tom: "sem qualificadores", "escreva para alguém cético", "sem entusiasmo, só fatos"
- Restrições de escopo: "foque apenas em X", "ignore Y", "não sugira ferramentas adicionais"
Acho que restrições são subutilizadas porque parecem limitantes do ponto de vista de quem escreve. Na prática, elas são libertadoras para o modelo.
Chain-of-thought funciona no Claude, mas só quando a tarefa realmente exige raciocínio
Chain-of-thought prompting significa pedir ao Claude que mostre seu raciocínio antes de dar uma resposta. A formulação clássica é alguma variação de "pense passo a passo." Esta técnica é verificada para melhorar desempenho em tarefas de raciocínio em múltiplas etapas, problemas matemáticos e inferência lógica. Não é mágica e não ajuda em tarefas que não envolvem cadeias de raciocínio.
Para o Claude especificamente, algumas formulações que funcionam bem: "Antes de responder, liste as considerações principais" ou "Me explique seu raciocínio e depois dê sua recomendação final." Essas formulações tendem a produzir outputs mais defensáveis do que pedir a resposta diretamente.
Onde isso importa na prática: tarefas de diagnóstico, decisões estratégicas e qualquer situação em que você suspeita que a resposta tem tradeoffs que o Claude pode suavizar numa resposta direta. Se você perguntar "devo usar banco de dados vetorial ou fine-tuning para o meu caso", uma resposta direta será superficial. Peça ao Claude para raciocinar sobre os tradeoffs primeiro e você recebe algo que pode usar de verdade.
Uma coisa que a maioria das pessoas ignora: chain-of-thought também torna os erros do Claude mais visíveis. Quando ele mostra o raciocínio, você consegue identificar onde errou. Uma resposta errada mas confiante é mais difícil de pegar do que uma cadeia de raciocínio visível com um passo falho. Esse é um motivo prático para usar a técnica mesmo quando você já tem uma ideia da resposta provável.
3 erros que degradam silenciosamente cada prompt que você escreve para o Claude
Fazer múltiplas perguntas em um único prompt. O Claude vai responder todas, de forma breve e superficial. Se você tem três perguntas, mande três prompts. Ou priorize explicitamente: "Responda apenas a primeira pergunta em detalhes. Ignore as outras por enquanto."
Ser educado em vez de preciso. "Você poderia talvez me ajudar com..." não acrescenta nada. O Claude não responde a gentilezas sociais. Responde a clareza. "Escreva X no formato Y para o público Z" supera "eu queria saber se você poderia me ajudar a escrever algo."
Não dizer ao Claude o que você vai fazer com o output. Este é o sinal de contexto mais subestimado. "Preciso disso para uma apresentação no conselho da empresa" produz output diferente de "preciso disso para uma mensagem no Slack para meu time." O mesmo pedido, restrições implícitas diferentes. O Claude vai inferir o registro certo, o tamanho e o tom quando você diz onde o output vai parar.
Um quarto erro que vale nomear: assumir que a primeira resposta é a resposta final. O Claude melhora significativamente com acompanhamento. "Torne o segundo parágrafo mais concreto" ou "corte 40% sem perder o argumento principal" são prompts legítimos. Usar o Claude como ferramenta de uma só tacada desperdiça a maior parte do que ele é capaz de fazer.
FAQ
O tamanho do prompt importa? Prompts mais longos nem sempre parecem funcionar melhor.
Prompts mais longos ajudam apenas quando o tamanho extra é contexto ou restrições, não repetição. Repetir seu pedido de formas diferentes não melhora o output. Adicionar o público, o formato, o limite de palavras e o que evitar, sim. Extensão é bem-vinda. Enchimento não.
Devo usar system prompts ou colocar tudo na mensagem do usuário?
Se você usa o Claude via API ou uma ferramenta que expõe system prompts, use-os para enquadramento de papel persistente e restrições fixas. É mais limpo e confiável do que repetir tudo toda vez. Se você usa o Claude.ai diretamente, coloque tudo na sua primeira mensagem. O efeito é parecido, embora system prompts sejam processados com prioridade levemente maior em termos de seguimento de instruções, com base em como o treinamento do Claude os trata, segundo informações públicas da Anthropic.
O Claude responde melhor a prompts educados ou a comandos diretos?
A Anthropic declarou publicamente que o Claude é treinado para ser útil independentemente do tom. Minha leitura é que a diretividade ajuda não porque o Claude responde a assertividade, mas porque prompts diretos tendem a ser mais específicos. "Escreva uma descrição de produto de 200 palavras para X" supera "você poderia escrever uma descrição de produto para X?" não por causa do tom, mas porque um tem uma restrição e o outro não tem.
O que fazer agora
Pegue um prompt que você usa regularmente, algo que já mandou mais de cinco vezes. Aplique três mudanças: adicione um papel na primeira frase, adicione pelo menos uma restrição concreta (limite de palavras,