
Aprende técnicas avançadas como Chain-of-Thought, Few-Shot Learning e Tree of Thoughts para maximizar os resultados com LLMs.
Já alguma vez pediste algo ao ChatGPT e ficaste desiludido com a resposta? O problema provavelmente não foi da IA - foi da forma como lhe pediste. Prompt Engineering é a arte de falar com a IA da maneira certa para obter exatamente o que queres. Pensa assim: a IA é como um estagiário brilhante mas extremamente literal. Se lhe deres instruções vagas, terás resultados vagos. Se lhe deres instruções claras e estruturadas, terás resultados espetaculares. Neste artigo, vais aprender 10 técnicas que os profissionais usam para tirar o máximo partido dos modelos de linguagem.
Vamos lá com um exemplo simples. Imagina que vais a um restaurante e pedes "comida". O empregado não sabe se queres peixe ou carne, se és alérgico a algo, se preferes algo leve ou pesado. Mas se disseres "quero um prato de bacalhau à Brás, sem azeitonas, com uma salada de acompanhamento", ele sabe exatamente o que trazer. Um prompt é simplesmente a instrução que dás à IA - e quanto mais específica e estruturada for, melhor será o resultado.
Os modelos de linguagem (como o ChatGPT, Claude ou Gemini) são como bibliotecas gigantes que leram quase tudo o que existe na internet. Eles sabem muito, mas precisam que lhes digas o que queres, como queres, e em que formato. As 10 técnicas que vão seguir são formas comprovadas de comunicar eficazmente com estas IAs.
Sabes quando um professor te pedia para "mostrar o raciocínio" numa prova de matemática? Cometias menos erros porque eras forçado a pensar em cada etapa. O mesmo acontece com a IA: quando lhe pedes para "pensar passo a passo", ela decompõe o problema em partes menores e chega a respostas muito mais precisas.
Esta técnica é incrivelmente simples mas poderosa. Estudos da Google DeepMind demonstraram que simplesmente adicionar "pensa passo a passo" ao prompt melhora a precisão em problemas de raciocínio em mais de 40%. Funciona porque o modelo é forçado a explicitar cada etapa do raciocínio em vez de "saltar" diretamente para a resposta (onde frequentemente erra).
# Prompt SEM Chain-of-Thought (frequentemente errado):
"Uma loja tem 150 artigos. Vendeu 40% na segunda-feira
e 30% do restante na terça. Quantos restam?"
# Prompt COM Chain-of-Thought (preciso):
"Uma loja tem 150 artigos. Vendeu 40% na segunda-feira
e 30% do restante na terça. Quantos restam?
Resolve passo a passo:
1. Calcula quantos foram vendidos na segunda
2. Calcula quantos restavam após segunda
3. Calcula quantos foram vendidos na terça
4. Calcula o total final
Mostra cada cálculo antes da resposta final."Pensa nisto: se pedires a alguém para arrumar a tua cozinha dizendo apenas "arruma", o resultado pode não ser o que esperas. Mas se mostrares uma foto de como queres que fique, a pessoa replica o padrão perfeitamente. O Few-Shot Learning funciona da mesma forma: em vez de explicares abstratamente o que queres, mostras exemplos concretos do resultado desejado e o modelo replica o padrão.
Na prática, fornecer 2 a 5 exemplos antes do pedido principal é suficiente. A IA analisa o padrão dos exemplos (formato, estilo, tipo de informação) e aplica-o ao novo caso. É uma das técnicas mais fiáveis porque reduz ambiguidade: a IA não tem de "adivinhar" o que queres.
Extrai as entidades nomeadas e classifica-as.
Exemplos:
Texto: "A Microsoft anunciou em Seattle um investimento de 5 mil milhões."
Resultado:
- Microsoft → ORGANIZAÇÃO
- Seattle → LOCAL
- 5 mil milhões → VALOR_MONETÁRIO
Texto: "O Pedro viajou para Tóquio em março para a conferência da Sony."
Resultado:
- Pedro → PESSOA
- Tóquio → LOCAL
- março → DATA
- Sony → ORGANIZAÇÃO
Agora extrai deste texto:
"A Fundação Gulbenkian inaugurou em Lisboa uma exposição
sobre Leonardo da Vinci com um orçamento de 2 milhões de euros."Quando precisas de escolher uma casa para comprar, não visitas apenas uma e decides logo. O normal é visitar 3 ou 4, comparar os prós e contras, e só depois decidir. A técnica Tree of Thoughts segue essa mesma lógica: em vez de a IA seguir um único raciocínio até ao fim (como no Chain-of-Thought), pedes-lhe para explorar vários caminhos diferentes em simultâneo, avaliar cada um e escolher o melhor.
É como pedir a três consultores diferentes para analisar o mesmo problema - cada um com a sua perspetiva - e depois reunir as melhores ideias. Esta técnica é particularmente útil para decisões complexas onde não há uma resposta óbvia, como escolhas de arquitetura de software, estratégias de negócio ou problemas que envolvem múltiplos trade-offs.
Analisa esta decisão usando Tree of Thoughts.
Explora 3 abordagens antes de recomendar.
Decisão: "Devemos migrar o monólito para microserviços?"
Para cada abordagem:
1. Descreve a estratégia
2. Lista prós e contras
3. Estima esforço e risco (baixo/médio/alto)
4. Atribui pontuação de 1 a 10
Abordagens:
- A: Migração completa e imediata
- B: Migração gradual (Strangler Fig Pattern)
- C: Manter o monólito e otimizar
Após avaliar as três, recomenda a melhor com justificação.Se perguntares "como resolver uma dor de costas?" a três pessoas diferentes - um amigo casual, um fisioterapeuta e um cirurgião ortopédico - cada um vai responder com um nível de detalhe e perspetiva completamente diferente. O Role Playing funciona da mesma forma: quando dizes à IA "age como um especialista sénior em X", ela ativa o vocabulário, a profundidade e o estilo de comunicação adequados a essa persona.
É como dar um figurino a um ator: com a roupa certa, ele entra no papel automaticamente. Na prática, um prompt com role playing produz respostas significativamente melhoresdo que um prompt genérico. Experimenta pedir ao ChatGPT para "revisar código" vs. pedir-lhe para "agir como um engenheiro sénior com 15 anos de experiência a fazer code review" - a diferença é enorme.
# System prompt para revisor de código sénior:
"És um engenheiro de software sénior com 15 anos de experiência
em Python, especializado em clean code e design patterns.
Ao revisar código:
1. Avalia legibilidade, manutenção e performance
2. Identifica code smells e anti-patterns
3. Sugere melhorias com código exemplo
4. Classifica severidade: 🔴 Crítico | 🟡 Importante | 🟢 Sugestão
5. Dá nota geral de 1 a 10
Sê direto mas construtivo."
# User prompt:
"Revê esta função:
def process(d):
r = []
for i in d:
if i['status'] == 'active' and i['age'] > 18:
r.append({'name': i['name'], 'email': i['email']})
return r"Numa fábrica de automóveis, nenhum trabalhador constrói o carro sozinho do início ao fim. Há uma linha de montagem: um instala o motor, outro pinta a carroçaria, outro coloca os estofos. O Prompt Chaining aplica a mesma lógica à IA: em vez de pedir tudo num único prompt gigante, divides a tarefa em etapas sequenciais, onde o resultado de cada etapa alimenta a seguinte.
Porquê? Porque os LLMs, tal como as pessoas, cometem mais erros quando tentam fazer tudo de uma vez. Se pedires "analisa os requisitos, desenha a arquitetura, escreve o código e faz os testes" num só prompt, a qualidade de cada parte será medíocre. Mas se fizeres um prompt para cada etapa, cada resposta será muito mais focada e precisa. É como a diferença entre pedir a alguém para "limpar a casa toda" vs. dar instruções quarto a quarto.
# Etapa 1: Análise de requisitos
Prompt 1: "Analisa estes requisitos e extrai user stories:
[requisitos]. Formato: Como [persona], quero [ação] para [benefício]."
# Etapa 2: Arquitetura (usa output do prompt 1)
Prompt 2: "Com base nestas user stories: [output 1],
sugere a arquitetura: stack, componentes e modelo de dados."
# Etapa 3: Implementação (usa output do prompt 2)
Prompt 3: "Com base nesta arquitetura: [output 2],
implementa o endpoint principal em Python com FastAPI.
Inclui validação, error handling e testes."
# Etapa 4: Revisão (usa output do prompt 3)
Prompt 4: "Revê este código: [output 3].
Verifica: segurança, performance e boas práticas.""The hottest new programming language is English. Prompt engineering is becoming as important as traditional software engineering."
Quando vais ao médico e recebes um diagnóstico que te preocupa, o que fazes? Pedes uma segunda opinião a outro médico. Se os dois concordam, ficas mais confiante. A técnica de Self-Consistency faz exatamente isto com a IA: pedes-lhe para gerar várias respostas independentes ao mesmo problema, cada uma com um raciocínio diferente, e depois comparas os resultados.
Se as três respostas chegam à mesma conclusão por caminhos diferentes, podes confiar muito mais no resultado. Se divergem, sabes que o problema é ambíguo e precisas de refinar a pergunta. É especialmente útil para problemas técnicos, cálculos e análises onde a precisão é crítica.
Gera 3 respostas independentes com raciocínios diferentes:
Questão: "Qual é a complexidade do quicksort no pior caso?"
Resposta 1: [raciocina pela estrutura recursiva]
Resposta 2: [raciocina pela escolha do pivot]
Resposta 3: [raciocina por exemplos concretos]
Compara as 3 e fornece resposta final consolidada.Pensa num detetive a investigar um crime. Ele não resolve tudo de uma vez. Alterna entre pensar ("o suspeito tinha motivo, preciso verificar o álibi"), agir ("vou interrogar a testemunha") e observar o resultado ("a testemunha confirmou que ele não estava lá"). Este ciclo repete-se até chegar à solução.
A técnica ReAct (Reasoning + Acting) ensina a IA a funcionar exatamente como este detetive: em vez de "disparar" uma resposta imediata, o modelo alterna entre pensar sobre o que sabe, decidir que ação tomar e analisar o resultado antes de avançar. Esta é a base de todos os agentes de IA autónomos que estão a revolucionar o mercado em 2026 - desde assistentes de pesquisa até ferramentas de programação como o Cursor e o Claude Code.
Responde usando o padrão ReAct (Pensamento → Ação → Observação):
Questão: "Compara a receita da Apple vs Microsoft no último trimestre."
Pensamento 1: Preciso dos dados financeiros de ambas.
Ação 1: [Pesquisar] "Apple Q4 2025 revenue"
Observação 1: Apple reportou $95.4 mil milhões.
Pensamento 2: Agora preciso dos dados da Microsoft.
Ação 2: [Pesquisar] "Microsoft Q4 2025 revenue"
Observação 2: Microsoft reportou $65.6 mil milhões.
Pensamento 3: Tenho ambos os valores. Posso comparar.
Resposta Final: [Síntese com dados de ambas as fontes]Dica: O padrão ReAct é a base de frameworks como o LangChain e os Assistants da OpenAI. Dominar este padrão é essencial para construir agentes de IA autónomos.
Se pedires a 100 pessoas para descreverem a experiência num hotel em texto livre, vais ter 100 respostas completamente diferentes - umas longas, outras curtas, umas sobre o quarto, outras sobre o restaurante. Impossível comparar ou analisar automaticamente. Mas se lhes deres um formulário com campos específicos (limpeza: 1-5, localização: 1-5, comentário: máx. 50 palavras), todas as respostas vêm no mesmo formato e podes facilmente processá-las.
O Structured Output faz exatamente isto com a IA: em vez de a deixar responder em texto livre, pedes-lhe para responder num formato estruturado como JSON (uma espécie de "formulário" para computadores). Isto é essencial quando queres integrar a IA num programa de software - o código precisa de dados organizados, não de parágrafos de texto.
Analisa esta review e extrai informação estruturada.
Review: "Comprei este portátil há 2 meses. O ecrã é fantástico
e a bateria dura o dia todo. No entanto, o teclado poderia ser
melhor e aquece bastante durante jogos. Bom custo-benefício por 899€."
Responde EXCLUSIVAMENTE em JSON válido:
{
"sentimento_geral": "positivo|negativo|misto",
"pontuacao": 1-10,
"pontos_positivos": ["..."],
"pontos_negativos": ["..."],
"preco_mencionado": number | null,
"tempo_uso": "string | null",
"recomendaria": true | false,
"resumo_uma_frase": "string"
}Já alguma vez escreveste um email importante, releste antes de enviar e pensaste "espera, isto pode ser mal interpretado"? Essa releitura crítica melhora drasticamente a qualidade do que comunicas. A técnica de Auto-Crítica faz a IA passar pelo mesmo processo: primeiro responde, depois revê a sua própria respostacom critérios específicos (precisão, equilíbrio, completude) e gera uma versão melhorada.
É como ter um editor que revê cada texto que escreves antes de publicar. Na prática, a qualidade de uma resposta com auto-crítica é significativamente superior porque o modelo identifica as suas próprias fraquezas e corrige-as. Esta técnica é a base do que a Anthropic (criadora do Claude) chama de "Constitutional AI" - IA que se auto-regula.
Responde em duas etapas:
Pergunta: "Vantagens e desvantagens de NoSQL vs SQL para e-commerce."
ETAPA 1 - Resposta Inicial:
[Dá a tua melhor resposta]
ETAPA 2 - Auto-Crítica e Revisão:
Revê com estes critérios:
1. Precisão técnica: há afirmações incorretas?
2. Equilíbrio: favoreci uma tecnologia?
3. Contexto: considerei o caso de e-commerce?
4. Completude: faltam pontos importantes?
Gera uma VERSÃO MELHORADA que corrija as falhas.Queres aprender a pescar mas não sabes que isco usar, que anzol escolher ou onde ir. Em vez de tentares sozinho, pedes a um pescador experiente para te ensinar a técnica certa. O Meta-Prompting segue esta lógica: em vez de tentares escrever o prompt perfeito sozinho, pedes à própria IA para te criar o prompt ideal para o teu objetivo.
É a técnica mais "meta" de todas: usar a IA para otimizar a forma como comunicas com a IA. Funciona surpreendentemente bem porque o modelo sabe que tipo de instruções produzem os melhores resultados. É como pedir a um chef para te escrever a receita perfeita - ele sabe melhor do que ninguém o que funciona. Na prática, isto poupa-te horas de tentativa e erro.
És um especialista em prompt engineering. A minha tarefa é:
OBJETIVO: Criar um chatbot de suporte ao cliente para uma loja
online de eletrónica em Portugal.
Gera o system prompt ideal incluindo:
1. Persona e tom de comunicação
2. Regras e limites
3. Formato de resposta padrão
4. Exemplos de interações (few-shot)
5. Instruções para escalar para humano
6. Tratamento de reclamações
Otimiza para:
- Conciso mas completo
- Robusto contra prompt injection
- Culturalmente adequado para clientes portuguesesAtenção ao prompt injection: Quando crias prompts para sistemas em produção, considera que utilizadores maliciosos podem tentar manipular o sistema. Usa instruções claras sobre o que o modelo deve e não deve fazer.
Vamos juntar várias técnicas num exemplo real. Este script Python utiliza Role Playing + Few-Shot + Structured Output + CoT para analisar feedback de clientes.
import openai
import json
import os
client = openai.OpenAI(api_key=os.environ["OPENAI_API_KEY"])
def analisar_feedback(feedbacks: list[str]) -> list[dict]:
"""Analisa feedback de clientes com múltiplas técnicas."""
system_prompt = """És um analista de experiência do cliente
com 10 anos de experiência em e-commerce.
Regras:
- Classifica sentimento: positivo, negativo ou misto
- Identifica temas: entrega, produto, suporte, preço
- Atribui urgência: baixa, média, alta, crítica
- Sugere ação concreta para cada feedback
- Responde SEMPRE em JSON válido"""
resultados = []
for feedback in feedbacks:
response = client.chat.completions.create(
model="gpt-4o",
response_format={"type": "json_object"},
messages=[
{"role": "system", "content": system_prompt},
{"role": "user", "content": f"""Analisa passo a passo:
1. Identifica o sentimento geral
2. Extrai os temas mencionados
3. Avalia a urgência
4. Sugere uma ação
Feedback: "{feedback}"
Responde em JSON."""}
],
temperature=0.3
)
resultado = json.loads(response.choices[0].message.content)
resultados.append(resultado)
return resultados
# Utilização
feedbacks = [
"Encomendei um portátil e veio com o ecrã partido!",
"Serviço impecável, recebi tudo em 2 dias.",
"O preço era bom mas o produto não corresponde à descrição.",
]
for i, r in enumerate(analisar_feedback(feedbacks)):
print(f"Feedback {i+1}: {json.dumps(r, indent=2, ensure_ascii=False)}")Queres dominar Prompt Engineering na prática? O nosso curso inclui workshops com todas estas técnicas, exercícios com cenários reais e acesso a templates prontos a usar.
Líder em cibersegurança e especialista em aplicações práticas de IA.
Seguir no LinkedInExplora o nosso curso relacionado e leva as tuas competências ao próximo nível.
Ver CursosRecebe artigos como este diretamente no teu email. Sem spam.

Um guia completo para iniciantes que querem começar a aprender Machine Learning. Descobre os conceitos fundamentais e os melhores recursos.

Uma comparação detalhada entre as duas ferramentas de programação assistida por IA mais populares do momento.

Análise do mercado de IA em Portugal, as empresas que estão a contratar e as competências mais procuradas.