Buscar

ENGENHARIA DE PROMPT

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Engenharia de Prompt com 
ChatGPT

Instrutor: Marcelo de Almeida Viana
2024

v2.0

15/01/2024

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

Larissa de Oliveira Figueira

Revisão

Editoração

Marcelo de Almeida Viana

Marcelo de Almeida Viana

Conteúdo

José Augusto de Lima Prestes

Coordenação-Geral

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

Especialista de Projetos na Facti - Fundação de Apoio à Capacitação em 
Tecnologia da Informação. Tem experiência na área de Inteligência Artificial, 
Engenharia Biomédica, Engenharia Elétrica e Eletrônica, atuando principalmente 
nos seguintes temas: programação de algoritmos de Inteligência Artificial, 
projetos e soluções de produtos ou serviços para saúde. 

Também atuou como professor universitário e é membro do Comitê Brasileiro 
Odonto-Médico-Hospitalar da ABNT/CB-026, relacionado a projetos de normas 
técnicas.

Como formação acadêmica é Doutor em Engenharia Elétrica (UNICAMP, 2019), 
Especialista em Gerenciamento de Projetos (SENAC-SP, 2020), Mestre em 
Engenharia Elétrica (UNICAMP, 2011) e Engenheiro Elétrico pela PUC-MG (2007).

Acesse aqui o perfil público do instrutor.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
https://www.linkedin.com/in/marcelo-a-viana
Larissa de Oliveira Figueira possui mestrado em Física Aplicada pela 
Universidade Estadual Paulista e adquiriu vasta experiência em Inteligência 
Artificial, otimização, robótica educacional e tecnologias educacionais ao longo 
de sua carreira. Desempenhou diferentes papéis, incluindo o de docente no 
Ensino Superior e gestora educacional, o que lhe proporcionou uma visão 
abrangente das necessidades e demandas no campo da tecnologia. 

Larissa também se destaca pelo seu envolvimento na capacitação de 
educadores no âmbito tecnológico.

Atualmente, ela faz parte da equipe de capacitação da Facti, onde 
compartilha seus conhecimentos e auxilia profissionais a ingressarem ou se 
consolidarem no promissor campo da tecnologia. 

Com base em sua experiência, ela busca desenvolver habilidades e 
capacidades nos profissionais, capacitando-os a enfrentar os desafios e 
aproveitar as oportunidades do mundo tecnológico. 

Acesse aqui o perfil público do instrutor.

Machine Learning e No Code: uma abordagem acessível para o aprendizado de máquina

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
https://www.linkedin.com/in/larissa-oliveira-604124ba
Machine Learning e No Code: uma abordagem acessível para o aprendizado de máquina

José Augusto de Lima Prestes está desde abril de 2018 como Gerente de 
Governança e Compliance da Facti. Nesta função, tem a responsabilidade de 
gerenciar o trabalho de todas as áreas técnicas e administrativas da instituição. 
Adicionalmente, ocupa, desde agosto de 2020, a função de Encarregado pelo 
Tratamento de Dados Pessoais da organização. 

Ele também ocupa o papel de gerente de diferentes projetos de Pesquisa, 
Desenvolvimento e Inovação em TICs, atuando em escopos diversos que vão do 
desenvolvimento de software para a gestão de políticas públicas à capacitação 
de pessoas para lidarem com os desafios da Indústria 4.0.

Na sua produção técnico-científica, teve participação em artigos, capítulos de 
livros, pedidos de patente e programa de computador. Foi membro do 
Laboratório de Estudos sobre a Organização da Pesquisa e da Inovação 
(Lab-GEOPI) da Unicamp e participou do Projeto HEIP-link da Universidade de 
Alicante (Espanha), parte do Programa Erasmus Mundus da União Europeia.

Os seus atuais tópicos de interesse abrangem Ética e Filosofia da Tecnologia, 
Inovação Responsável, Inteligência Artificial, Neurodireitos, Privacidade Mental e 
Robótica. O perfil público está disponível aqui. 

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
https://www.linkedin.com/in/jalprestes
Engenharia de Prompt com ChatGPT

SUMÁRIO

1. Introdução 05



2. Etapa Inspirar 06

2.1. Inspiração 06

2.2. Estudo de caso 07



3. Etapa Conceitualizar 08

3.1. Engenharia de Prompt 08

3.2. Modelo de Linguagem de Grande Escala 12

3.3. Entendendo o ChatGPT e suas funcionalidades 17

3.4. Técnicas de Engenharia de Prompt do ChatGPT 26



4. Etapa Consolidar 50

4.1. Estudo de Caso 50

4.2. Infraestrutura necessária para solução do Estudo de Caso 52

4.3. Proposta de solução do Estudo de Caso 57 



5. Etapa Avaliar 58



Referências 59
 Do
cu
m
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

1. INTRODUÇÃO

Ao longo deste curso, abordaremos os pontos mais importantes para 
compreender o que é a engenharia de prompt, como um conceito que vem se 
tornando essencial no campo da Inteligência Artificial (IA), no qual desempenha 
um papel crucial na interação com modelos de linguagem, como o GPT-3 e o 
GPT-4 utilizados pelo ChatGPT. 

Esta área envolve a formulação cuidadosa de instruções ou perguntas para 
direcionar o comportamento do modelo para obter as respostas desejadas. A 
arte da engenharia de prompt reside na capacidade de criar entradas de texto 
que sejam claras, precisas e eficazes em orientar o modelo a produzir saídas 
relevantes. Isso é fundamental para tirar o máximo proveito desses modelos em 
uma variedade de aplicações, desde geração de texto até a resolução de 
problemas complexos.

Uma abordagem eficaz da engenharia de prompt leva em consideração a 
compreensão do modelo, suas limitações e as nuances da linguagem. Ela exige 
a formulação de perguntas ou comandos de uma forma que forneça contexto 
suficiente para o modelo entender a tarefa e evitar ambiguidades. Além disso, a 
engenharia de prompt pode ser utilizada para mitigar vieses e garantir respostas 
éticas e imparciais. À medida que a IA continua a evoluir, a engenharia de 
prompt desempenha um papel cada vez mais significativo na interação 
homem-máquina, moldando o potencial da IA para resolver problemas e 
melhorar nossa compreensão do mundo.

7

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N.
Engenharia de Prompt com ChatGPT

8

2. INSPIRAR

2.1. Inspiração

O que você entende de Inteligência Artificial? 

E de engenharia de prompt? 

Quais são as tendências de Inteligência Artificial para os próximos anos?



Antes de iniciar a Etapa de Conceitualização do conteúdo, acesse a aba 
“Atividades”, seção “Etapa Inspirar”, na plataforma do Google Sala de Aula 
para executar as atividades previstas.

Inicie acessando a atividade e assista aos vídeos de inspiração para 
começar a se ambientar ao conteúdo que será abordado durante o curso. Em 
seguida, acesse o formulário sobre engenharia de prompt para registrar suas 
respostas baseadas em seu conhecimento, com insights e opiniões acerca das 
questões apresentadas. Ouça também o podcast com uma discussão sobre 
engenharia de prompt.

Será preciso se cadastrar na ferramenta a ser utilizada no curso, a 
plataforma do ChatGPT da OpenAI. Consulte o item 4.2 Infraestrutura para 
solução do Estudo de Caso deste material e siga o tutorial para o cadastro.

Para finalizar esta etapa, responda ao estudo de caso que será apresentado 
na próxima seção.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

9

2.1. Estudo de caso: melhoria do 
sistema de recomendação de filmes 
com IA

Considere-se como um desenvolvedor de software na equipe de inovação da 
Netflix, responsável por otimizar o sistema de recomendação de filmes e séries 
da plataforma. Recentemente, a Netflix implementou um novo recurso: um 
chatbot de IA integrado à plataforma para oferecer sugestões personalizadas 
aos usuários. No entanto, após alguns meses, a equipe percebeu que muitos 
usuários estão insatisfeitos com as recomendações, relatando que elas não 
refletem seus interesses e preferências reais.

Análises iniciais indicam que o chatbot tem falhado inúmeras vezes em 
entender as nuances das preferências dos usuários, resultando em sugestões 
que não se alinham com os gostos pessoais. Parece haver uma desconexão 
entre como os usuários expressam suas preferências e como o chatbot 
interpreta essas informações. 

No papel de um aluno de engenharia de prompt, você foi convidado a 
colaborar com a equipe da Netflix para resolver esse desafio: um chatbot de IA 
que não consegue captar as preferências dos usuários para recomendar 
filmes e séries. Sem conhecimento prévio, como abordaria a situação para 
entender e melhorar a forma como o chatbot interpreta e responde às 
preferências dos usuários? Considere as possíveis lacunas na comunicação entre 
o chatbot e os usuários e pense em estratégias iniciais que poderiam ser 
adotadas para começar a resolver esse problema. Registre a resposta na 
atividade Apresentação da solução inicial, no Google Sala de Aula.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

10

3. CONCEITUALIZAR

3.1. Engenharia de Prompt

O termo "engenharia" em engenharia de prompt é usado de forma 
metafórica para descrever o processo sistemático, criativo e, às vezes, complexo 
de projetar os prompts, que se dá a um modelo de linguagem. Da mesma forma 
que a engenharia tradicional envolve a aplicação de conhecimentos técnicos 
para construir estruturas ou sistemas, a engenharia de prompt envolve a 
aplicação de conhecimentos sobre como os modelos de linguagem funcionam 
para criar prompts que geram os resultados desejados.

Assim como a engenharia convencional requer um entendimento profundo 
de princípios científicos e matemáticos, a engenharia de prompt exige um 
conhecimento sobre o funcionamento interno dos modelos de linguagem, como 
eles realizam o Processamento de Linguagem Natural (PLN) e como diferentes 
tipos de prompts podem influenciar suas respostas. Por esta razão, exige-se um 
cuidado na escolha de palavras e estruturas para que o prompt comunique a 
intenção com precisão para que se otimize a formulação da melhor resposta 
possível de um modelo de linguagem.

Um modelo de linguagem é um tipo de IA que foi treinado para entender, 
prever e gerar linguagem humana. Esses modelos são baseados em técnicas de 
Aprendizado de Máquina (Machine Learning) e Aprendizado Profundo (Deep 
Learning), e são treinados usando grandes quantidades de texto.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

11

O princípio fundamental de um modelo de linguagem é a previsão de texto, 
ou seja, dado um fragmento de texto como entrada, o modelo tenta prever qual 
palavra ou sequência de palavras que virá a seguir. Para isso, o modelo aprende 
padrões de linguagem, como gramática, uso de palavras, estilo, nuances e até 
mesmo alguns conhecimentos do mundo real, a partir dos dados nos quais foi 
treinado. Os modelos de linguagem podem ser utilizados para uma grande 
variedade de tarefas, incluindo, mas não limitado a (FINGER, 2021):

➔ Geração de texto: podem escrever artigos, histórias, códigos de 
programação, poemas, mantendo coerência e relevância ao tópico;

➔ Tradução de linguagem: traduz texto de uma língua para outra;

➔ Sumarização de texto: resumir textos longos em versões mais curtas, 
mantendo os pontos principais;

➔ Resposta a perguntas: respondem à perguntas feitas em linguagem 
natural, fornecendo informações precisas ou explicativas;

➔ Assistência virtual: auxiliam em tarefas como agendar reuniões, 
responder e-mails e oferecer suporte ao cliente;

➔ Análise de sentimentos: avaliam textos e determinam o sentimento por 
trás deles, como positivo, negativo ou neutro.



Um exemplo bem conhecido de modelo de linguagem é a família de 
modelos GPT (Generative Pretrained Transformer), desenvolvida pela OpenAI, 
incluindo o GPT-2, GPT-3 e a versão mais recente, o GPT-4. Estes modelos são 
chamados de "Transformers" devido ao tipo de arquitetura de rede neural que 
utilizam, que é muito eficaz em tarefas de PLN, devido à sua capacidade de lidar 
com sequências de dados, como texto, de maneira eficiente e eficaz. Os termos 
"Generative" (Gerativo) e "Pretrained" (Pré-treinado) fazem parte da descrição da 

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

12

classe dos modelos de linguagem (DSA, 2023b).

Um modelo generativo não apenas gera novos conteúdos, mas entende, 
classifica informações ou prevê sequências de dados que não viu antes. No 
contexto da linguagem, isso significa que pode compor texto em prosa, poesia, 
diálogo, código de programação e até mesmo emular estilos de escrita 
específicos. Isso é diferente dos modelos discriminativos, que são projetados 
para reconhecer ou diferenciar entre diferentes tipos de dados, mas não para 
gerar novos conteúdos (DSA, 2023b).

Já o pré-treinamento serve para dar ao modelo um entendimento 
abrangente da língua, de modo que ele não precisa ser treinado do zero paracada tarefa específica, ajustando os pesos da rede neural com base em textos 
extensos que cobrem uma ampla variedade de tópicos, gêneros e estilos. Isso 
torna o modelo muito mais versátil e pronto para ser adaptado a tarefas 
específicas por meio de um processo chamado "fine-tuning" (ajuste fino), em que 
o modelo é posteriormente treinado (geralmente por um período mais curto) 
em um conjunto de dados mais específico ou para uma tarefa particular.

Diante deste contexto, a engenharia de prompt surgiu como uma resposta à 
necessidade de se comunicar efetivamente com modelos de linguagem e vem 
se tornando uma técnica fundamental no campo da IA, desempenhando um 
papel crucial nesta interação. Ela envolve a criação estratégica de instruções ou 
perguntas, chamadas "prompts", para direcionar o comportamento do modelo 
em obter respostas específicas, isto é, são instruções ou estímulos textuais que 
orientam a IA sobre o tipo de resposta ou ação que se espera dela.

Os prompts são, portanto, a forma de comunicação principal entre o usuário 
e a IA e desempenham um papel crucial na determinação de como o modelo de 
linguagem responderá.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

13

Um prompt pode variar desde uma simples pergunta até uma instrução 
complexa que requer que a IA execute uma série de tarefas ou considere um 
contexto extenso antes de responder.

Os engenheiros de prompt devem criar instruções que forneçam contexto 
suficiente para que o modelo compreenda a tarefa, mas sem introduzir 
ambiguidades. Isso requer um profundo entendimento do modelo em uso, 
incluindo suas capacidades e limitações. A escolha das palavras, o formato da 
pergunta e a estrutura da instrução desempenham um papel fundamental na 
eficácia do prompt. Por exemplo, ao solicitar uma tradução, um prompt pode ser 
formulado de maneira a especificar o idioma de origem e de destino, 
fornecendo um contexto claro para o modelo.

À medida que a IA continua a evoluir, a engenharia de prompt se torna uma 
habilidade essencial para aproveitar o potencial dos modelos de linguagem. Ela 
permite que os usuários controlem o comportamento do modelo e o direcionam 
para atender a uma ampla gama de necessidades. No entanto, a engenharia de 
prompt não é uma tarefa simples e requer conhecimento especializado para ser 
executada com eficácia. À medida que a IA desempenha um papel cada vez mais 
central em nossa sociedade, a capacidade de formular prompts eficazes se torna 
uma habilidade valiosa e necessária.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

14

3.2. Modelo de Linguagem de Grande 
Escala

Os Modelos de Linguagem de Grande Escala (LLMs, do inglês "Large 
Language Models") são sistemas de IA projetados para entender, gerar e interagir 
com texto humano em um nível avançado. Eles são treinados em extensos 
conjuntos de dados compostos por uma vasta gama de textos, permitindo-lhes 
capturar uma ampla variedade de nuances linguísticas, estilos de escrita e 
informações.

Os LLMs como o GPT-3 ou GPT-4 são enormes em termos de número de 
parâmetros. Um parâmetro é um elemento da rede neural que a máquina 
aprende a partir de dados, ou seja, é uma parte do modelo que ajuda a 
determinar a saída dada à uma entrada específica, pois indica a complexidade 
do modelo e sua capacidade potencial de aprender e generalizar a partir de 
dados. Com bilhões ou mesmo trilhões de parâmetros, os LLMs podem 
armazenar uma quantidade significativa de informações e aprender padrões 
complexos. Estas são estimativas da quantidade de parâmetros para as versões 
conhecidas da família GPT:

● GPT (original): a primeira versão do GPT, lançada em junho de 2018, 
tinha 117 milhões de parâmetros;

● GPT-2: lançado em fevereiro de 2019, o GPT-2 veio em quatro versões 
com diferentes quantidades de parâmetros. A maior versão do GPT-2 
tinha 1,5 bilhão de parâmetros;

● GPT-3: lançado em junho de 2020, marcou um grande salto em tamanho 
e capacidade, contando com 175 bilhões de parâmetros;

● GPT-4: lançado em março de 2023, estima-se, não oficialmente, que a 
versão possui cerca de 100 trilhões de parâmetros.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

15

Os parâmetros dos LLMs são treinados usando técnicas de Aprendizado de 
Máquina, especificamente o modelo de Aprendizado Supervisionado, em que é 
alimentado com grandes quantidades de texto e as saídas desejadas (DSA, 
2023a). Por meio de um processo iterativo chamado backpropagation¹, o modelo 
ajusta seus parâmetros para minimizar a diferença entre suas previsões e as 
saídas reais. No entanto, o GPT pode envolver uma combinação de métodos de 
treinamento, conforme os modelos (GUO et al., 2023):



● Aprendizagem Supervisionada (AS) e LLMs



Os LLMs, como o GPT-3, são predominantemente produtos do AS. Durante o 
pré-treinamento, o GPT é exposto a um grande conjunto de dados de texto que 
inclui pares de entradas (por exemplo, um prompt de texto) e saídas esperadas 
(a continuação apropriada do texto). O modelo aprende a prever a próxima 
palavra em uma sequência, tentando corresponder suas previsões às saídas 
reais nos dados de treinamento. Este processo é claramente um exemplo de AS, 
em que o modelo é "supervisionado" ou guiado para produzir o resultado 
correto com base nos exemplos fornecidos e essa técnica foi fundamental para 
o desenvolvimento de LLMs, pois permite que eles gerem texto que é não 
apenas gramaticalmente correto, mas também contextualmente relevante.

¹ Backpropagation refere-se a um método utilizado durante o treinamento de redes neurais profundas em que o erro é calculado na 
saída e distribuído de volta pela rede, permitindo que o algoritmo ajuste os pesos dos parâmetros para minimizar a diferença entre 
as previsões do modelo e as saídas reais. É um componente crítico no AS para otimizar o desempenho do modelo.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

16

● Aprendizagem Não Supervisionada (ANS)

Embora o termo "não supervisionado" possa ser às vezes mencionado em 
discussões sobre modelos de linguagem devido à maneira como eles aprendem 
a capturar representações de linguagem de grandes conjuntos de dados sem 
anotações específicas de tarefas, no contexto técnico de Aprendizado de 
Máquina, o treinamento do GPT não é um exemplo de aprendizagem não 
supervisionada, pois ela envolve encontrar padrões em um conjunto de dados 
sem rótulos pré-fornecidos, o que não é o caso do modelo GPT. No entanto, 
durante o pré-treinamento, os LLMs podem usar autoencoders para aprender 
representações densas de texto sem anotações específicas, o que ajuda a 
entender melhor a semântica e a sintaxe da linguagem humana.



● Aprendizadopor Reforço (AR)

Quando se trata de refinar os LLMs para tarefas específicas ou melhorar 
suas interações com os usuários, é utilizada a técnica conhecida como 
Aprendizado por Reforço com Humanos no Loop (Reinforcement Learning from 
Human Feedback - RLHF), que foi usada em algumas iterações de modelos de 
linguagem como o GPT-3 para refinar ainda mais seus comportamentos e 
permitem que os LLMs ajustem suas respostas com base nas preferências de 
feedbacks sobre as saídas do modelo, sendo ajustado para maximizar o 
feedback positivo, como uma forma de AR. No entanto, isso geralmente ocorre 
após o estágio inicial da AS.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

17

Assim, o campo do Aprendizado de Máquina oferece uma variedade de 
métodos que permitem que as máquinas aprendam a partir de dados a 
melhorarem suas tarefas ao longo do tempo. Estes três modelos têm 
contribuído de maneiras distintas para o avanço dos LLMs, como o notável 
GPT-3, que utiliza a arquitetura de rede neural Transformer, que é singularmente 
adequada para tarefas de NLP devido ao seu mecanismo de atenção (BROWN et 
al., 2020).

O Transformer abandona a recorrência em favor de atenções globais que 
processam palavras em paralelo, proporcionando uma compreensão mais eficaz 
do contexto em sequências de texto. Esta arquitetura é não só altamente 
paralelizável, o que reduz os tempos de treinamento, mas também é 
excepcionalmente boa em capturar dependências de longo alcance no texto, um 
desafio histórico no NLP, como encontrado em abordagens anteriores, como as 
redes neurais recorrentes (RNNs) e as Long Short-Term Memory Networks (LSTMs).

Outra característica chave dos Transformers é o mecanismo de self-attention, 
que permite que o modelo avalie a importância de cada parte da entrada (por 
exemplo, palavras em uma frase) em relação a todas as outras partes. O 
mecanismo também permite que o modelo avalie todas as partes da entrada ao 
mesmo tempo e determine quais partes são mais relevantes entre si. Isso é 
especialmente útil para entender o contexto e a relação entre palavras em uma 
sentença ou documento, independentemente da distância entre elas no texto 
(BROWN et al., 2020).

Os LLMs são efetivamente construídos em cima e ao redor da arquitetura 
Transformer e são, portanto, a base para o GPT e muitos outros modelos de 
linguagem de última geração, pois fornece um equilíbrio entre capacidade de 
generalização e especialização para uma ampla gama de tarefas de NLP.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

18

3.2.1. Limitações dos LLMs

Os LLMs são marcos notáveis no campo da IA. No entanto, esses sistemas 
ainda estão longe da perfeição e enfrentam uma série de desafios significativos 
(DSA, 2023a):

➔ Desafios de contextualização e precisão: enquanto os LLMs podem 
captar certo contexto para informar suas respostas, eles nem sempre 
são precisos. Muitas vezes, podem interpretar mal o contexto ou 
fornecer respostas que são inapropriadas ou incorretas, particularmente 
quando confrontados com perguntas que caem fora do domínio de seu 
treinamento.



➔ Questões de viés e equidade: os LLMs têm potencial para continuar e 
até mesmo intensificar os vieses encontrados nos dados com os quais 
foram treinados. Isso pode incluir preconceitos relacionados a gênero, 
raça, localização geográfica e cultura, bem como inclinações políticas.



➔ Entendimento de senso comum: o senso comum, embora intrínseco 
aos humanos que o adquirem ao longo da vida, é um conceito esquivo 
para os LLMs. Eles carecem da experiência vivencial e só podem simular 
a compreensão com base nos dados fornecidos durante o treinamento, 
o que não substitui uma verdadeira percepção do mundo.



➔ Interpretabilidade dos modelos: a complexidade e o tamanho extenso 
dos LLMs muitas vezes tornam obscuro o processo pelo qual eles 
chegam a determinadas conclusões ou respostas.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

19

Um LLM reflete a qualidade dos dados que recebe. A precisão não é 
garantida e pode não ser uma maneira adequada de expressar essa restrição. 
Em essência, os LLMs atingem um nível de desempenho condizente com a 
qualidade e a integralidade dos dados de treinamento fornecidos.

3.3. Entendendo o ChatGPT e suas 
funcionalidades



Ao apresentar estes os conceitos, é útil recordar que um chatbot funciona 
como um robô de conversação. Na prática, quase todas as empresas que 
interagem com clientes ou parceiros recorrem a algum tipo de chatbot em seu 
serviço de atendimento. Esta abordagem traz benefícios como a otimização do 
tempo e dos recursos, proporcionando um atendimento direcionado para 
solucionar problemas específicos ou fornecer informações detalhadas sobre um 
tema particular. 

A experiência com chatbots tradicionais (sem IA) revela que eles têm suas 
restrições. Frequentemente, se o usuário apresenta uma questão que desvia do 
roteiro programado, o chatbot falha em fornecer uma resposta satisfatória, o 
que pode gerar frustração e insatisfação no cliente ou parceiro que procurava 
assistência (JIMENEZ, 2023).

Nesse contexto, a implementação de um chatbot com IA torna-se essencial e 
desafiadora. O ChatGPT, por exemplo, oferece uma experiência de diálogo 
similar a um chatbot convencional, mas supera as limitações de um roteiro de 
atendimento pré-definido, permitindo uma interação mais fluida e adaptativa 
(JIMENEZ, 2023).

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

20

O ChatGPT é treinado para entender e gerar texto natural, permitindo que ele 
participe de conversas, responda perguntas e até crie conteúdo em diversos 
formatos. Sua aplicação abrange desde responder a consultas simples até 
auxiliar em tarefas mais complexas como programação, redação criativa e 
aprendizado de idiomas.

O sucesso e a eficácia do ChatGPT estão enraizados na quantidade de dados em 
que foi treinado e na sua capacidade de aprender padrões de linguagem. No 
entanto, o modelo não é perfeito e ele pode gerar respostas imprecisas ou 
tendenciosas, refletindo limitações nos dados de treinamento e na 
compreensão atual da IA sobre contextos humanos complexos (FERNANDES, 
2023).

Para usuários que interagem com o ChatGPT, o entendimento desses pontos é 
crucial. Saber como formular perguntas ou instruções (conhecido como 
"engenharia de prompt") pode significativamente influenciar a qualidade das 
respostas recebidas. Por exemplo, perguntas claras, específicas e bem 
estruturadas tendem a resultar em respostas mais precisas e úteis.

Além disso, é importante para os usuários reconhecer as limitações dos 
modelos de linguagem, como o do ChatGPT. Enquanto o modelo pode fornecerinformações úteis e insights, suas respostas devem ser avaliadas criticamente, 
especialmente em tópicos complexos ou sensíveis. O modelo, por exemplo, 
pode não estar atualizado com as informações mais recentes ou pode não 
compreender completamente nuances culturais ou contextuais.

Ao empregar o ChatGPT, é crucial estar ciente das restrições de caracteres 
que variam conforme a versão do modelo em uso. Por exemplo, na versão 
GPT-3, o limite é de 4.096 tokens, enquanto na versão GPT-4, esse limite é 
estendido para 8.192 tokens abrangendo tanto a entrada quanto a saída de 
caracteres. 

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

21

Para otimizar a eficácia do modelo, é essencial formular prompts que sejam 
concisos e objetivos. Isso assegura que a resposta gerada seja completa e não 
seja abruptamente cortada antes de atingir uma conclusão satisfatória 
(JIMENEZ, 2023).

Os "tokens" em modelos como o ChatGPT são uma unidade fundamental de 
processamento de texto. Ao contrário da contagem tradicional de caracteres ou 
palavras, um token pode representar uma palavra inteira, uma parte de uma 
palavra ou mesmo símbolos de pontuação. Por exemplo, a palavra 
"incompreensível" pode ser dividida em vários tokens, como "in", "compreen", 
"sível", dependendo de como o modelo foi treinado para segmentar o texto. 
Portanto, a compreensão de como os tokens funcionam e como são contados é 
vital para usar modelos como o ChatGPT de maneira eficaz, garantindo uma 
comunicação clara e recebendo respostas completas e relevantes. Veja alguns 
fatores importantes sobre os tokens (JIMENEZ, 2023):

➔ Limites de processamento: devido às restrições computacionais, os 
modelos de linguagem como o ChatGPT têm um limite máximo de 
tokens que podem processar em uma única solicitação. Isso afeta o 
quanto de texto pode ser considerado e gerado de uma vez;

➔ Eficiência do prompt: saber como os tokens são contados ajuda na 
formulação de prompts eficientes. Um entendimento claro pode levar a 
uma comunicação mais eficaz, garantindo que a informação mais 
relevante seja incluída sem exceder o limite do modelo.

➔ Qualidade da resposta: quando um prompt é muito longo e excede o 
limite de tokens, o modelo pode não conseguir processar todas as 
informações ou gerar uma resposta completa. Isso pode resultar em 
respostas truncadas ou incompletas;

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

22

➔ Adaptação para diferentes versões: como diferentes versões do 
modelo têm diferentes limites de tokens, compreender esses limites 
pode ajudar os usuários a adaptar seus prompts de acordo com a versão 
que estão utilizando;

➔ Variação na granularidade: tokens podem variar em tamanho. Em 
inglês, frequentemente correspondem a palavras inteiras, mas em 
idiomas com palavras mais longas ou em casos de palavras complexas 
em inglês, podem representar partes de palavras. Essa granularidade 
afeta a maneira como o modelo processa e gera linguagem;

➔ Subtokens em diversos idiomas: em idiomas com estruturas 
morfológicas complexas, como o turco ou o finlandês, ou em idiomas 
que não usam espaços, como o chinês e o japonês, os subtokens² se 
tornam mais frequentes. Isso influencia como o modelo lida com 
diferentes idiomas.

➔ Influência na compreensão do contexto: o número de tokens que um 
modelo pode processar simultaneamente (conhecido como 
'comprimento do contexto') tem um impacto direto na sua habilidade de 
entender e manter o contexto em uma conversa ou texto;

➔ Limites e desempenho: modelos com capacidade de processar mais 
tokens geralmente podem gerar e compreender textos mais longos, o 
que é crucial para tarefas como resumir documentos extensos ou 
manter conversas complexas;

➔ Treinamento e ajuste fino: a forma como os tokens são definidos e 
utilizados é um aspecto crucial no treinamento de modelos de 
linguagem. O processo de “tokenização” impacta tanto a eficiência do 
treinamento quanto a qualidade do modelo final;

² Subtokens são divisões menores de palavras ou caracteres usadas em modelos de linguagem para representar e processar idiomas 
com estruturas complexas ou sem espaços claros. Eles ajudam o modelo a entender e gerar linguagem de maneira mais eficiente ao 
lidar com variações linguísticas e morfológicas.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

23

➔ Customização de “tokenização”: em aplicações especializadas, a 
tokenização pode ser adaptada para melhor atender às necessidades 
específicas do domínio. Por exemplo, em contextos médicos ou técnicos, 
a “tokenização” pode ser ajustada para lidar melhor com terminologias 
específicas;

➔ Considerações de armazenamento e processamento: embora 
modelos com maiores limites de tokens possam ser mais poderosos, eles 
também requerem mais recursos de computação e armazenamento, 
tanto para treinamento quanto para inferência (geração de respostas);

➔ “Tokenização” como processo preliminar: antes de um texto ser 
processado por um modelo de linguagem, ele passa por um processo de 
“tokenização”, que é uma etapa essencial para transformar o texto bruto 
em uma forma que o modelo pode entender.



Entender esses aspectos dos tokens ajuda a ter uma visão mais completa 
não só de como interagir mais eficientemente com modelos como o ChatGPT, 
mas, também, de como esses modelos funcionam e são treinados. Isso é 
fundamental para qualquer pessoa que trabalhe com PLN em um nível técnico 
ou que busque otimizar o uso de tais tecnologias.

Os tokens, portanto, desempenham um papel central nas funcionalidades 
do ChatGPT, agindo como a espinha dorsal para a interpretação e geração de 
linguagem. Estas funcionalidades são possíveis graças a sua base na arquitetura 
Transformer, que lhe confere uma compreensão e geração de linguagem natural 
de alto nível.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

24

 As principais funcionalidades do ChatGPT incluem:



➔ Geração de texto: pode criar texto coerente e contextualmente 
relevante em vários formatos, incluindo respostas a perguntas, ensaios, 
histórias, poemas e até códigos de programação;

➔ Conversação e diálogo: é capaz de conduzir conversas interativas, 
respondendo a perguntas e seguindo o fluxo de um diálogo de maneira 
natural e fluída;

➔ Resposta a perguntas: pode fornecer respostas informativas e 
detalhadas a uma ampla gama de perguntas, abrangendo diversos 
tópicos;

➔ Tradução de idiomas: embora não seja sua principal função, o ChatGPT 
pode realizar traduções de textos entre vários idiomas;

➔ Sumarização: é capaz de resumir textos longos, destacando os pontos 
principais de forma concisa;

➔ Assistência em tarefas: pode auxiliar em tarefas específicascomo 
programação, oferecendo sugestões de códigos, correções e 
explicações;

➔ Geração de conteúdo criativo: pode ser usado para gerar ideias 
criativas, como conceitos para histórias, roteiros, marketing e conteúdo 
de blogs;

➔ Aprendizado e educação: serve como uma ferramenta de aprendizado, 
explicando conceitos complexos e ajudando com material educacional;

➔ Jogos de palavras e atividades lúdicas: capaz de participar de jogos 
baseados em linguagem e outras atividades interativas;

➔ Análise de sentimentos: pode avaliar o texto para determinar o tom 
emocional, embora esta não seja sua função principal e possa ser menos 
precisa do que sistemas especializados.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

25

Apesar dessas funcionalidades, o ChatGPT tem limitações, incluindo a 
possibilidade de gerar informações imprecisas, falta de consciência de eventos 
atuais (dependendo de quando foi treinado pela última vez) e a reprodução de 
vieses presentes em seus dados de treinamento. É importante abordar as 
respostas do ChatGPT com um olhar crítico e considerar sua utilização como 
uma de várias ferramentas em um conjunto mais amplo de recursos.



3.3.1. Implicações éticas e responsabilidades

Na engenharia de prompts é fundamental considerar as implicações éticas e 
assumir as responsabilidades pelo impacto das interações produzidas.

É imperativo que os prompts sejam cuidadosamente elaborados para 
prevenir a inclusão de viés ou discriminação, considerando tanto a linguagem 
empregada quanto as respostas que são geradas. É vital assegurar que os 
prompts sejam justos e equânimes, tratando todos os usuários com igualdade e 
sem reforçar preconceitos ou estereótipos (LIMA, 2023). Além disso, é 
importante estar atento à sensibilidade cultural e contextual nas interações, 
garantindo que a comunicação seja apropriada e respeitosa para com a 
diversidade dos usuários. Esta abordagem não apenas fomenta uma 
experiência mais inclusiva e representativa, mas também reflete uma prática 
responsável e ética no uso de tecnologias de IA.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

26

Há também outras considerações importantes que devem ser consideradas 
ao projetar e utilizar prompts em tecnologia (LIMA, 2023):

➔ Viés nos dados de treinamento: a qualidade e a natureza dos dados 
usados para treinar modelos de linguagem podem incorporar vieses 
existentes. Se os dados de treinamento incluem linguagem ou conceitos 
discriminatórios, o modelo pode aprender e perpetuar esses mesmos 
vieses; 

➔ Transparência e accountability: desenvolvedores e usuários dos 
modelos devem manter uma postura de transparência e 
responsabilidade. Isso significa reconhecer as limitações dos modelos e 
estar aberto a feedback, especialmente de comunidades 
sub-representadas ou afetadas por vieses; 

➔ Monitoramento contínuo: o monitoramento e a revisão contínuos dos 
prompts e das respostas do modelo são necessários para identificar e 
corrigir vieses, o que é especialmente importante à medida que o 
modelo continua aprendendo e se adaptando com base em novas 
interações; 

➔ Educação e conscientização: promover a educação e a conscientização 
sobre vieses em IA entre desenvolvedores, usuários e partes 
interessadas é fundamental, incluindo treinamento em ética de IA e 
sensibilidade cultural; 

➔ Legislação e políticas: estar em conformidade com leis e regulamentos 
locais e internacionais relacionados a privacidade, discriminação e 
direitos humanos é crucial, o que envolve estar atento às políticas 
internas de ética e diversidade da organização.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

27

Um outro importante fator ao projetar prompts, é essencial evitar qualquer 
intenção de manipular ou persuadir os usuários de forma subliminar ou 
explícita. As interações devem ser construídas com base na transparência e na 
ética, assegurando que os usuários mantenham total autonomia sobre suas 
decisões. Isso envolve evitar técnicas que possam levar à tomada de decisão 
coercitiva ou influenciada de forma oculta. Além disso, é fundamental informar 
os usuários sobre a natureza e o funcionamento dos modelos de IA, para que 
possam entender melhor as respostas e recomendações geradas, o que inclui 
clarificar que, embora o modelo possa fornecer informações ou sugestões, a 
decisão final sempre pertence ao usuário, respeitando sua capacidade de 
julgamento independente. Ademais, deve-se prestar atenção especial para não 
criar dependência tecnológica ou emocional nos usuários, promovendo um uso 
consciente e equilibrado da tecnologia (LIMA, 2023).

Os responsáveis pela criação de prompts no contexto de modelos de 
linguagem como o ChatGPT carregam o peso significativo de assegurar que os 
resultados produzidos sejam não apenas confiáveis e precisos, mas, também, 
úteis e seguros, implicando em uma vigilância constante e uma ação proativa 
para monitorar, identificar e corrigir potenciais erros ou falhas no sistema. Tal 
responsabilidade estende-se à prevenção de efeitos adversos que possam 
impactar negativamente os usuários, evitando assim consequências 
indesejadas. Além disso, é vital implementar mecanismos de feedback que 
permitam a detecção e a correção rápida de problemas, bem como a atualização 
contínua do sistema para aprimorar sua precisão e confiabilidade (SOUZA, 
2023). 

Os desenvolvedores devem também estar cientes das implicações éticas e 
legais associadas à geração de conteúdo por IA, garantindo que os prompts e as 
respostas geradas estejam em conformidade com padrões éticos e 
regulamentações pertinentes.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

28

I sso inclui a sensibilidade a questões de privacidade, consentimento e uso 
justo de dados, assegurando que os direitos e a dignidade dos usuários sejam 
sempre respeitados, estabelecendo políticas claras para o uso de dados 
pessoais, a fim de garantir que as informações sejam tratadas de maneira 
confidencial (SOUZA, 2023).

 Compreender e enfrentar as questões éticas e de privacidade é crucial para 
maximizar os benefícios e minimizar os riscos associados à IA. É fundamental 
que desenvolvedores, provedores de tecnologia, usuários e reguladores 
colaborem ativamente para assegurar um uso responsável e ético da IA. 
Trabalhando em conjunto, pode-se criar um ecossistema de IA que não apenas 
avança tecnologicamente, mas também respeita e protege os valores humanos 
fundamentais.

3.4. Técnicas de Engenharia de 
Prompt do ChatGPT



Embora o uso do ChatGPT possa parecer simples à primeira vista, apenas 
digitando uma pergunta (prompt) e aguardando por uma resposta, a qualidade 
das perguntas é crucial.Prompts muito abertos, imprecisos ou mal otimizados 
podem levar a respostas genéricas, pouco úteis ou até mesmo incorretas. Um 
prompt "fraco" ou genérico tende a produzir resultados menos específicos e 
mais padronizados.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

29

O prompt funciona como uma linha de comando essencial para interagir 
com sistemas de IA, como o ChatGPT. A forma como o prompt é estruturado é 
fundamental para assegurar que as solicitações sejam compreendidas e 
efetivamente processadas pelos sistemas de IA. Na composição do prompt, 
encontra-se comandos, argumentos e opções. O comando define a ação 
específica que o usuário deseja executar, enquanto os argumentos fornecem 
detalhes adicionais necessários para a execução do comando. Já as opções 
permitem a personalização do comportamento do comando, oferecendo 
flexibilidade adicional na interação com o sistema de IA (SOUZA, 2023).

Assim, a engenharia de prompt é essencialmente sobre formular comandos 
precisos e bem pensados, visando obter respostas mais acertadas e 
informativas. A eficácia em receber respostas inteligentes e úteis do ChatGPT 
depende integralmente da habilidade do usuário em elaborar, planejar e enviar 
prompts bem estruturados ao sistema de chatbot ( JIMENEZ, 2023). 

A compreensão da estrutura do prompt é importante porque permite ao 
usuário fazer solicitações precisas aos sistemas de IA. Se o usuário não fornecer 
os argumentos ou opções apropriados no prompt, o sistema de IA pode falhar 
em executar a ação desejada ou pode gerar resultados que não correspondam 
às expectativas. Isso ocorre porque a IA depende de instruções claras e 
específicas para processar solicitações de forma eficaz. Além disso, um 
entendimento profundo da estrutura do prompt é fundamental para que o 
usuário possa explorar todas as funcionalidades oferecidas pelo sistema de IA, 
melhorando não apenas a eficiência, mas também a precisão das respostas 
geradas (SOUZA, 2023).

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

30

 Compreender a lógica e os parâmetros que guiam a IA permite aos usuários 
criar interações mais sofisticadas e adaptadas às suas necessidades específicas, 
além de possibilitar a identificação e correção mais rápidas de possíveis falhas 
na comunicação. Assim, o conhecimento detalhado sobre a engenharia de 
prompt torna-se uma habilidade valiosa na era da tecnologia avançada, 
habilitando os usuários a interagir de maneira mais produtiva e criativa com 
sistemas baseados em IA.

Veja a seguir alguns aspectos importantes a serem levados em conta para 
otimizar as respostas do ChatGPT (JIMENEZ, 2023):



1. Evite generalidades - seja sempre claro, preciso, direto e específico 
ao formular sua pergunta



Ao utilizar qualquer tipo de prompt, é fundamental que seus comandos 
sejam claros, objetivos e específicos. A precisão e a riqueza de detalhes no 
seu comando influenciam diretamente a qualidade das respostas geradas. 
Ao formular seu prompt, inclua detalhes como o propósito específico da sua 
solicitação, o público-alvo em questão e quaisquer limitações ou parâmetros 
relevantes, como orçamento disponível ou prazos. Além disso, forneça um 
contexto claro e abrangente - explique ao sistema de IA suas expectativas, 
necessidades e qualquer informação de fundo que possa ajudar a gerar 
uma resposta mais precisa e útil. Essa abordagem detalhada e 
contextualizada não apenas melhora a precisão da resposta, mas também 
ajuda o sistema de IA a compreender melhor a complexidade e a nuance da 
sua solicitação, resultando em uma interação mais eficiente e produtiva.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

31

Imagine um cenário em que um desenvolvedor de software está 
trabalhando em um projeto de aplicativo móvel. Ele está utilizando o 
ChatGPT para obter assistência sobre aspectos específicos de programação 
e melhores práticas. A eficácia das suas interações com o ChatGPT depende 
fortemente de como formulará as perguntas.



Prompt ruim: "Como programar em Java?"

Problema com o prompt: Esta pergunta é extremamente genérica e não 
fornece informações suficientes sobre o que é preciso especificamente. 
Programar em Java pode abranger uma vasta gama de tópicos, desde conceitos 
básicos até aspectos avançados.



Prompt correto: "Preciso de ajuda para otimizar uma consulta SQL, em Java, 
para um aplicativo móvel que lida com um grande volume de dados. Como 
posso melhorar a eficiência da minha consulta para reduzir o tempo de resposta 
no meu aplicativo?"



Melhoria no prompt: Este prompt é claro e específico. Ele fornece detalhes 
sobre o contexto (desenvolvimento de um aplicativo móvel), o problema 
específico (otimização de consulta SQL) e o objetivo desejado (reduzir o tempo 
de resposta). Isso permite que o ChatGPT forneça uma resposta focada e útil 
para a sua questão específica.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

32

2. Contextualização - sempre que iniciar um prompt, forneça um 
CONTEXTO para orientar a IA

Incorporar um contexto adequado no prompt pode melhorar 
significativamente a relevância e precisão das respostas. Isso é 
especialmente importante em conversas sequenciais onde cada interação se 
baseia na anterior.

O ChatGPT, assim como outros chatbots avançados baseados em IA, 
opera com um vasto banco de dados que cobre uma ampla gama de tópicos 
em variados contextos. Ao incluir um contexto apropriado em no prompt, 
facilita para o ChatGPT compreender o propósito específico da sua 
pergunta, permitindo que ele direcione suas respostas de maneira mais 
precisa e relevante. Isso significa integrar ao seu pedido informações 
pertinentes, detalhes especializados ou aspectos particulares que deseja 
explorar. Fornecer um contexto claro não apenas evita respostas vagas ou 
genéricas, mas também ajuda a prevenir mal-entendidos. 

Na ausência de um contexto suficiente, o ChatGPT pode acabar fazendo 
suposições equivocadas ou produzindo respostas que não alinham com o 
que realmente busca. Portanto, detalhar o cenário, as condições específicas 
e as nuances do seu tópico de interesse é crucial para otimizar a utilidade 
das respostas fornecidas pelo ChatGPT, especialmente em consultas 
complexas ou técnicas.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

33

Suponha que um profissional de segurança cibernética está buscandoaconselhamento do ChatGPT sobre como reforçar a segurança de uma rede 
empresarial. Para obter respostas mais precisas e úteis do ChatGPT, é 
crucial fornecer um contexto detalhado na formulação do seu prompt.



Prompt ruim: "Como melhorar a segurança de rede?"

Problema com o prompt: Esta pergunta é muito ampla e não fornece 
informações específicas sobre o tipo de rede, os desafios enfrentados ou as 
políticas de segurança existentes. Sem esse contexto, a IA pode fornecer uma 
resposta genérica que pode não ser totalmente aplicável à sua situação.



Prompt correto: "Estou trabalhando em um ambiente de rede corporativa 
com acesso frequente à Internet e múltiplos endpoints. Recentemente, 
enfrentamos tentativas de phishing e ataques DDoS (Distributed Denial of Service - 
ataque distribuído de negação de serviço). Que medidas específicas de 
segurança posso implementar para proteger melhor nossa rede contra esses 
tipos de ameaças?"



Melhoria no prompt: Este prompt fornece um contexto claro - uma rede 
corporativa com desafios específicos (phishing e ataques DDoS). Isso permite 
que o ChatGPT forneça conselhos mais direcionados e aplicáveis sobre medidas 
de segurança específicas para esse tipo de ambiente e ameaças.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

34

3. Evite prompts abertos ou amplos demais

Evite prompts abertos ou demasiadamente amplos, pois estes podem 
resultar em diálogos desordenados ou desfocados. Em vez disso, esforce-se 
para ser o mais específico possível ao formular seus prompts, estabelecendo 
claramente o propósito e o foco da conversa. 

Prompts bem definidos e direcionados são cruciais para ajudar o 
ChatGPT a compreender a intenção do usuário, possibilitando que ele 
forneça respostas precisas e pertinentes. Ao detalhar o contexto, as 
expectativas e as necessidades específicas dentro do seu prompt, facilita 
para o sistema de IA identificar a informação mais relevante e adequada à 
sua solicitação. Isso não apenas melhora a qualidade da interação, mas 
também economiza tempo, evitando a necessidade de esclarecimentos ou 
ajustes adicionais. 

Portanto, um bom prompt deve ser pensado não apenas em termos de 
especificidade, mas também de clareza e relevância, alinhando a sua 
pergunta com o objetivo específico da consulta.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

35

Imagine agora que um desenvolvedor está trabalhando em um 
aplicativo móvel que utiliza a realidade aumentada (RA). Ele está usando o 
ChatGPT para obter orientações específicas sobre a integração de recursos 
de RA em seu aplicativo. Para garantir que receba as informações mais 
relevantes e úteis, é essencial evitar prompts abertos ou demasiadamente 
amplos.



Prompt ruim: "Como faço um aplicativo?"

Problema com o prompt: Esta pergunta é extremamente ampla e não 
especifica o tipo de aplicativo, as funcionalidades desejadas ou o contexto de 
desenvolvimento. O ChatGPT pode responder com informações muito básicas e 
gerais sobre o desenvolvimento de aplicativos, que podem não ser úteis para o 
seu projeto específico.



Prompt correto: "Estou desenvolvendo um aplicativo móvel de RA para 
Android que visa a educação em História. Que bibliotecas de RA recomendaria 
para integrar recursos interativos que permitem aos usuários visualizar 
reconstruções históricas em 3D em locais reais?"



Melhoria no prompt: Este prompt é específico e direcionado. Ele fornece 
informações sobre o tipo de aplicativo (RA para educação em História), a 
plataforma (Android) e o tipo de funcionalidade desejada (visualização de 
reconstruções históricas em 3D). Isso permite que o ChatGPT forneça 
recomendações específicas e úteis que são diretamente relevantes para o seu 
projeto.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

36

4. Use perguntas de acompanhamento - avalie e faça ajustes contínuos

Utilize perguntas de acompanhamento de forma estratégica para 
encorajar o ChatGPT a fornecer explicações mais detalhadas ou aprofundar 
em tópicos específicos. Essas perguntas adicionais podem ser cruciais para 
esclarecer dúvidas, explorar aspectos adicionais de um tópico ou obter 
informações mais precisas. 

Além disso, é vital avaliar constantemente a eficácia dos seus prompts 
iniciais e estar preparado para adaptá-los conforme as respostas que 
recebe. Esta abordagem iterativa promove uma interação mais dinâmica e 
produtiva com o sistema de IA, permitindo ajustes finos que refinam a 
qualidade e relevância das respostas. Por exemplo, se a resposta inicial do 
ChatGPT não aborda completamente sua consulta, uma pergunta de 
acompanhamento pode direcionar o foco da conversa para áreas específicas 
que necessitam de mais detalhamento. Isso não só melhora a sua 
compreensão do assunto em discussão, mas também ajuda a aprimorar 
suas habilidades de formulação de prompts, resultando em uma 
comunicação mais eficiente e frutífera com a IA.

Adicionalmente, considerar o feedback dos usuários finais pode ser 
extremamente benéfico. As opiniões e experiências dos usuários oferecem 
insights valiosos, que podem ser usados para refinar ainda mais os prompts e 
melhorar a interação global com o sistema. A incorporação deste feedback 
ajuda a garantir que o sistema permaneça relevante, útil e intuitivo para os 
usuários, contribuindo para uma experiência mais positiva e eficiente.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

37

Imagine que um cientista de dados em uma empresa de tecnologia está 
trabalhando no desenvolvimento de algoritmos de IA para análise de 
grandes conjuntos de dados no setor de varejo. Ele está utilizando o 
ChatGPT para obter insights sobre técnicas avançadas de análise de dados e 
Machine Learning. Para garantir respostas úteis e precisas do ChatGPT, é 
essencial não apenas formular bem os prompts iniciais, mas, também, 
utilizar perguntas de acompanhamento para refinar e ajustar as 
informações recebidas.



Prompt ruim: "Como faço análise de dados?"

Problema com o prompt: Este prompt é muito genérico e não especifica o 
tipo de análise, os dados em questão ou o objetivo da análise. O ChatGPT pode 
fornecer uma resposta básica e ampla que pode não ser útil para sua 
necessidade específica.



Prompt correto: "Quais são as melhores práticas para aplicar análise 
preditiva em grandes conjuntos de dados no setor de varejo?"



Feedback/Acompanhamento: "Baseado na sua resposta, como posso lidar 
com o problema de overfitting em modelos preditivos para previsão de 
tendências de compra dos consumidores?"

Melhoria no prompt: o prompt inicial é específico, abordando um setor e um 
tipo de análise. A pergunta de acompanhamento baseia-se naresposta inicial 
para explorar um aspecto técnico específico (overfitting), proporcionando uma 
oportunidade para o ChatGPT oferecer informações mais profundas e 
detalhadas.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

38

5. Uso estratégico de argumentos e opções

A seleção cuidadosa de argumentos e opções é essencial para maximizar 
tanto a eficiência quanto a eficácia de um prompt. Isso envolve escolher 
palavras-chave relevantes, aplicar filtros apropriados ou definir parâmetros 
que direcionam o sistema de IA a fornecer um tipo específico de resposta 
que procura. Complementando, a escolha do tempo verbal também 
desempenha um papel crucial: utilize verbos no presente para questões 
sobre informações atuais e no passado para referências históricas. As 
palavras-chave devem ser precisas e pertinentes ao tópico, garantindo foco 
e relevância na interação.

Para otimizar ainda mais seus prompts, comece a pergunta com um 
verbo, seguido dos detalhes necessários, criando um contexto claro e 
específico para a situação. Ao usar verbos para indicar comandos, estará 
fornecendo direções mais claras ao ChatGPT, o que aumenta a 
probabilidade de receber respostas relevantes e úteis para suas 
necessidades.

Além disso, um prompt eficaz deve direcionar claramente o usuário para 
a ação ou resposta desejada. Utilize instruções explícitas e verbos de ação 
específicos para guiar o usuário sobre o que fazer em seguida. Evite 
enunciados vagos ou ambíguos que possam resultar em mal-entendidos ou 
interpretações errôneas. Isso é especialmente importante em interfaces de 
usuário onde a clareza na comunicação pode impactar significativamente a 
experiência do usuário e a eficácia da interação.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

39

Um gerente de projetos em uma empresa de desenvolvimento de 
software está trabalhando em um projeto complexo que envolve várias 
tecnologias e metodologias. Ele está utilizando o ChatGPT para obter 
orientações sobre as melhores práticas de gerenciamento de projetos em 
ambientes ágeis. Para maximizar a eficiência de suas interações com o 
ChatGPT, é essencial aplicar um uso estratégico de argumentos e opções 
nos seus prompts.



Prompt ruim: "Como gerenciar projetos?"

Problema com o prompt: Este prompt é muito vago e não especifica o tipo 
de projeto, a metodologia de gerenciamento ou os desafios específicos 
enfrentados. O ChatGPT pode fornecer uma resposta genérica que pode não ser 
aplicável ao seu projeto de software.



Prompt correto: "Quais são as estratégias eficazes para gerenciar projetos 
de software ágeis que envolvem equipes distribuídas globalmente, 
considerando a comunicação e a colaboração entre diferentes fusos horários?"



Melhoria no prompt: Este prompt é específico e inclui vários argumentos 
importantes: o tipo de projeto de software (metodologia ágil), a configuração da 
equipe (distribuída globalmente) e os desafios específicos (comunicação e 
colaboração entre fusos horários). Isso permite que o ChatGPT forneça 
recomendações focadas e relevantes para o seu cenário específico.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

40

6. Uso de tonalidade e temperamento na escrita

O tom e a escolha de palavras na conversa são fundamentais para 
manter uma interação tanto respeitosa quanto profissional. É essencial 
evitar uma linguagem demasiadamente informal que possa comprometer a 
eficácia da comunicação. No uso do ChatGPT, a aplicação de diferentes 
temperamentos ou tons na escrita pode afetar consideravelmente a 
natureza das respostas e a dinâmica da interação com o modelo. O 
temperamento diz respeito ao modo como a linguagem é utilizada, 
abrangendo o estilo ou a atitude refletida nas respostas. Variações no tom 
de escrita podem ser adaptadas de acordo com o contexto específico, o 
propósito da conversa e as preferências individuais do usuário.

Diversos temperamentos podem ser empregados no ChatGPT, incluindo, 
mas não se limitando a, formal, amigável, autoritário, humorístico e neutro. 
Cada um desses estilos possui características únicas, podendo criar 
atmosferas distintas na conversa, como contextos profissionais ou 
acadêmicos podem exigir um tom mais formal para assegurar seriedade e 
credibilidade, enquanto situações mais informais e descontraídas podem se 
beneficiar de um estilo amigável para estabelecer uma conexão mais 
próxima com o usuário.

Além da escolha do temperamento, a tonalidade da escrita também 
pode ser ajustada em termos de assertividade, empatia e capacidade de 
persuasão. Estes elementos são fundamentais para moldar a maneira como 
as informações são apresentadas e podem influenciar significativamente a 
reação emocional e a percepção dos usuários em relação às respostas 
fornecidas.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

41

Você trabalha no suporte técnico de uma empresa de software, lidando 
com clientes que têm variados níveis de conhecimento técnico. Você está 
utilizando o ChatGPT para gerar respostas a perguntas frequentes dos 
clientes. Neste cenário, é vital escolher a tonalidade e o temperamento 
adequados na escrita para comunicar-se de forma eficaz com os diferentes 
tipos de clientes.



Prompt ruim: "Meu software não funciona. O que devo fazer?"

Problema com o prompt: Este prompt é vago e usa uma linguagem casual, o 
que pode não ser adequado para um contexto de suporte técnico onde precisão 
e clareza são essenciais. Falta contexto e detalhes específicos sobre o problema.



Prompt correto: "Sou um usuário iniciante e estou tendo dificuldades para 
iniciar o software XYZ após a instalação. Aparece uma mensagem de erro sobre 
uma falha de configuração. Qual é o procedimento recomendado para 
solucionar esse problema?"



Melhoria no prompt: Este prompt é claro e oferece um contexto específico, 
incluindo o nível de conhecimento do usuário (iniciante) e a natureza exata do 
problema (mensagem de erro após a instalação). O tom é formal e educado, 
adequado para um ambiente de suporte técnico e a pergunta é direcionada 
para uma solução específica, o que facilita uma resposta mais precisa e útil do 
ChatGPT.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

42

7. Assumindo papéis - personagens e especialidades

Ao interagir com o ChatGPT, pode ser muito eficaz indicar que ele 
assuma um "papel" específico na descrição doprompt. Ao fornecer um 
contexto adicional que sugere uma persona particular, direciona o chatbot a 
adotar características, comportamentos e habilidades típicas de pessoas em 
determinadas profissões ou situações. Ao fazer isso, não estará apenas 
personalizando a interação, mas também orientando o chatbot a acessar e 
aplicar padrões estatísticos e comportamentais que são comuns a um nicho, 
grupo ou personalidade específica na sua base de dados.

Por exemplo, pode pedir ao ChatGPT para responder como um 
professor experiente, um técnico de TI ou um especialista em saúde, 
dependendo do contexto da sua pergunta. Ao adotar essas personas, o 
ChatGPT pode fornecer respostas que refletem o tipo de linguagem, o nível 
de detalhamento e a abordagem que seriam esperados desses profissionais.

É importante lembrar, no entanto, que o ChatGPT não pode replicar 
perfeitamente esses estilos ou o conhecimento profundo de um especialista 
real. Embora possa se aproximar desses estilos em termos de tom e 
conteúdo quando solicitado, suas respostas são limitadas pela natureza e 
pela qualidade dos dados em que foi treinado. Portanto, embora a 
personalização do prompt possa melhorar a relevância e o direcionamento 
das respostas, é sempre essencial avaliar e complementar essas 
informações com conhecimento e insights humanos.
 D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

43

Suponha que um consultor de marketing digital está buscando 
aprimorar suas estratégias para clientes em diferentes setores e decide 
usar o ChatGPT para obter insights e conselhos específicos, simulando a 
interação com especialistas em várias áreas do marketing digital.



Prompt ruim: "Como posso melhorar o marketing digital?"

Problema com o prompt: Este prompt é extremamente genérico e não 
especifica qual aspecto do marketing digital deseja melhorar. Sem um foco 
claro, o ChatGPT pode fornecer uma resposta ampla e pouco útil.



Prompt correto: "Assuma o papel de um especialista em SEO com foco em 
e-commerce. Quais são as três principais estratégias de SEO que recomendaria 
para melhorar o ranking de uma loja online de telefonia?"



Melhoria no prompt: Ao pedir ao ChatGPT para assumir o papel de um 
especialista específico em SEO para e-commerce, o prompt se torna mais 
direcionado. Isso encoraja o sistema a fornecer respostas que refletem o 
conhecimento e as práticas recomendadas específicas para otimização de 
mecanismos de busca no setor de e-commerce de informática.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

44

8. Reaproveite parâmetros da conversa

É essencial manter um registro contínuo das suas interações com o 
ChatGPT. Ao compreender e utilizar os comandos de forma efetiva, pode 
aumentar progressivamente a utilidade do chatbot. Em vez de abordá-lo 
como uma simples ferramenta de busca, iniciando uma nova consulta a 
cada interação, o ideal é manter e desenvolver tópicos de conversas ao 
longo do tempo. Cada interação, refinamento de dados e detalhes 
adicionados a uma conversa específica enriquecem o contexto disponível 
para o chatbot, aprimorando a sua capacidade de fornecer respostas cada 
vez mais relevantes e precisas.

É importante compreender que o chatbot se aprimore e "treine" 
continuamente. Portanto, ao retomar uma conversa anterior sobre um 
tópico já abordado, o ChatGPT pode utilizar as informações previamente 
discutidas para fornecer respostas mais precisas e contextualizadas. Por 
exemplo, se treinou o ChatGPT em uma conversa específica para discutir as 
características e vantagens de um produto, essa informação permanece útil 
para consultas futuras dentro da mesma conversa.

Se decidir iniciar uma nova conversa, ao invés de continuar a anterior, 
será necessário reabastecer o prompt com o contexto e os refinamentos de 
resposta previamente estabelecidos. Isso equivale a começar do zero, 
ignorando toda a história e o desenvolvimento de conversas anteriores. Em 
tais casos, o chatbot agirá como se fosse a primeira vez que está abordando 
o assunto, perdendo a vantagem do contexto acumulado e das nuances já 
estabelecidas na conversa anterior.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

45

Imagine que um desenvolvedor de software está trabalhando em um 
aplicativo de saúde que rastreia e analisa a dieta e a atividade física dos 
usuários. Ele está utilizando o ChatGPT para obter informações sobre 
integração de dados de saúde, privacidade do usuário e melhores práticas 
de UX/UI para aplicativos de saúde.



Prompt ruim: "Como fazer um aplicativo?"

Problema com o prompt: Este prompt é extremamente genérico e não se 
baseia em interações anteriores. Falta especificidade sobre o tipo de aplicativo 
ou as informações que precisa.



Prompt correto: "Na nossa última conversa, discutimos sobre a integração 
de dados de atividade física no aplicativo de saúde. Com base nisso, quais 
seriam as melhores práticas para garantir a privacidade dos dados dos usuários 
ao implementar essa funcionalidade?"



Melhoria no prompt: Este prompt é eficaz, pois se baseia em informações de 
conversas anteriores, permitindo que o ChatGPT utilize o contexto já 
estabelecido para fornecer uma resposta mais direcionada e profunda. Ao fazer 
referência a discussões anteriores, ajuda o chatbot a entender melhor a 
continuidade da sua necessidade e a fornecer informações mais relevantes 
sobre a privacidade dos dados em aplicativos de saúde.

D
oc
um
en
to
 a
ss
in
ad
o 
el
et
ro
ni
ca
m
en
te
. V
er
ifi
ca
çã
o 
no
 s
ite
 h
ttp
s:
//p
91
.fa
ct
i.c
om
.b
r/
pa
e/
va
lid
ac
ao
.h
tm
l, 
in
fo
rm
an
do
 o
 c
ód
ig
o 
ve
rif
ic
ad
or
 P
A
E
2-
58
82
-5
75
5-
89
14
-1
56
4-
95
95
 
e 
o 
có
di
go
 C
R
C
 D
R
JI
JX
E
N
.
Engenharia de Prompt com ChatGPT

46

9. Educação e sensibilidade ética e cultural

A educação dos usuários em como interagir eficientemente com 
sistemas de IA é um aspecto crucial, principalmente para aqueles que são 
novatos no campo da tecnologia ou que estão se aventurando pela primeira 
vez com modelos de linguagem avançados. Esta educação pode incluir 
orientações sobre como formular prompts de maneira eficaz, entendendo a 
importância de ser específico, claro e contextualizado nas suas solicitações.

Além da competência técnica, a sensibilidade a questões éticas e 
culturais na formulação de prompts é igualmente importante. Isso envolve 
escolher palavras e tons que sejam respeitosos e considerados, evitando 
linguagem que possa ser ofensiva, insensível ou que perpetue estereótipos 
e vieses. A sensibilidade cultural é particularmente vital em um ambiente 
globalizado, em que os sistemas de IA podem interagir com uma ampla 
gama de usuários de diferentes culturas e contextos. Prompts que levam em 
consideração a diversidade cultural e as normas éticas podem não apenas 
evitar mal-entendidos, mas também promover uma interação mais inclusiva 
e respeitosa.

Uma abordagem bem-sucedida na criação de prompts eficientes

Continue navegando