Engenharia de Prompt

Voltar para Glossário de IA

Última atualização: 13 de Junho de 2025

Engenharia de Prompt (Prompt Engineering) é a disciplina e a prática de projetar, refinar e otimizar as instruções de entrada – chamadas "prompts" – fornecidas a Modelos de Linguagem Grandes (LLMs) e outras formas de Inteligência Artificial Generativa para obter os resultados desejados e de alta qualidade. É uma combinação de arte, ciência e experimentação.

Com o advento de LLMs poderosos como GPT, Claude e Gemini, a forma como interagimos com a IA mudou. Em vez de programar explicitamente, muitas vezes "guiamos" esses modelos através de prompts bem elaborados. A qualidade da saída do modelo é altamente dependente da qualidade do prompt de entrada.

Objetivos da Engenharia de Prompt:

  • Clareza e Especificidade: Garantir que o prompt seja claro, conciso e específico sobre a tarefa que o modelo deve realizar.
  • Contexto Relevante: Fornecer ao modelo informações de contexto suficientes para que ele entenda a tarefa e produza uma resposta relevante.
  • Formato da Saída: Instruir o modelo sobre o formato desejado da saída (ex: lista, parágrafos, código JSON, tabela).
  • Controle do Tom e Estilo: Guiar o modelo para adotar um tom específico (formal, informal, engraçado) ou um estilo de escrita particular.
  • Mitigação de Vieses e Alucinações: Formular prompts que ajudem a reduzir a probabilidade de o modelo gerar respostas enviesadas, incorretas ou sem sentido (alucinações).
  • Eficiência: Obter o resultado desejado com o mínimo de iterações ou com prompts mais curtos (o que pode ser importante para custos de API).

Técnicas Comuns de Engenharia de Prompt:

  • Zero-shot Prompting: Dar ao modelo uma instrução direta sem exemplos.
  • Few-shot Prompting: Fornecer alguns exemplos (shots) da tarefa desejada no prompt para guiar o modelo.
  • Chain-of-Thought (CoT) Prompting: Incentivar o modelo a "pensar passo a passo", mostrando exemplos onde o raciocínio intermediário é explicitado antes da resposta final.
  • Role Playing: Instruir o modelo a assumir uma persona específica (ex: "Você é um especialista em marketing...").
  • Uso de Delimitadores: Usar caracteres especiais (como aspas triplas ou tags XML) para separar diferentes partes do prompt, como instruções e o texto a ser processado. Isso ajuda o modelo a entender claramente o que é instrução e o que é dado.
  • Few-shot Chain-of-Thought (Few-shot CoT): Combina Few-shot Prompting com Chain-of-Thought, mostrando exemplos com raciocínio passo a passo.
  • Self-Consistency: Gerar múltiplas cadeias de pensamento para o mesmo prompt e escolher a resposta mais comum entre elas para melhorar a precisão.