Buscar

Saiba Mais Videoaulas sobre a Evolução das Buscas Online

Prévia do material em texto

ENGENHARIA DE PROMPT: O TEMPERO DO CHATGPT
Por: Milton Stiilpen e William Colen
Extrair o melhor resultado da inteligência artificial para cada perfil de negócio 
não deixou de depender de profissionais qualificados, como os engenheiros 
de prompt, ainda mais com a chegada do GPT-4
Quando o assunto é inteligência artificial (IA), o ChatGPT é o protagonista da vez. O 
aplicativo, que ressignificou a interação a partir de diálogos naturais e convincentes 
sobre vários campos de conhecimento humano, tem sido apontado como a solução 
para qualquer desafio, sobretudo no universo dos negócios. A boa notícia é que a IA 
pode, de fato, solucionar questões complexas e estratégicas nesse universo 
corporativo, porém, ao contrário do sentimento que se cria de facilidade extrema, o 
caminho não é instantâneo, nem está ao alcance das mãos em uma prateleira.
Para extrair o máximo da IA e escapar dos resultados que tragam riscos para a 
empresa e para o consumidor, é preciso adicionar um componente fundamental: a 
prompt engineering ou engenharia de prompt. Ela é a responsável por ajustar os 
temperos da inteligência artificial e torná-la mais saborosa para o perfil de cada 
negócio.
A engenharia de prompt, também conhecida como machine teaching, não é 
exatamente uma novidade, trata-se de um conceito que vem evoluindo com a 
inteligência artificial nas últimas décadas, principalmente no âmbito do 
processamento de linguagem natural (NLP).
O engenheiro de prompt é como um chef experiente, que tem habilidades 
específicas para combinar ingredientes de uma receita que parece trivial. Assim, ele 
entrega a melhor experiência possível para agradar paladares mais refinados: qual é 
o objetivo da sua empresa e como o ChatGPT pode impactar positivamente no seu 
negócio e na rotina de seu público?
Na prática, a engenharia de prompt é responsável por encadear técnicas e 
processos pré, pós ou "dentro" de um briefing de interação com uma aplicação 
estilo ChatGPT a fim de criar uma solução robusta. Um prato refinado. Nos últimos 
dois anos, essa profissão, se assim podemos chamar, avançou com os modelos 
multitarefas com uso de conjunto de processos NLP.
Esses avanços se refletem nos modelos GPT-2 e GPT-3, que são a base do ChatGPT. 
O GPT-3 (ou terceira versão do transformador generativo pré-treinado) é large
language models (LLM), um modelo de IA criado a partir de redes neurais artificiais, 
ou seja, um método de aprendizagem de máquina e treinado com uma enorme 
quantidade de dados.
Para além destes modelos, em março deste ano, tivemos mais uma evolução do 
GPT realizado por parte da OpenAI. Chegamos ao GPT-4, que utiliza a abordagem 
de aprendizado profundo (ou deep learning), mas também o aprendizado por 
reforço e promete revolucionar a maneira como as pessoas interagem com a 
tecnologia, uma vez que pode entender e gerar respostas para textos e imagens, e 
em testes acadêmicos e profissionais, ele teve um desempenho comparável ao de 
um humano.
De maneira resumida, o GPT-4 é um modelo de linguagem natural avançado que 
aprende com muitos dados e ajuda de especialistas de diferentes áreas, 
possibilitando que ele gere respostas precisas e seguras.
No universo da IA, os LLMs já atuam há alguns anos, com sistemas de tradução, 
correção gramatical e até mesmo completes mais potentes. Esses e outros casos de 
uso mais famosos ainda vivem em um nível de “assistente de escrita”, por isso, é 
preciso extrair os resultados mais adequados a cada nova demanda. Para se ter 
uma ideia da dimensão desses avanços, o tamanho dos LLMs tem aumentado dez 
vezes a cada ano.
Estado da arte em IA
Essa expansão acelerada deixa os LLMs mais complexos, o que os torna mais 
poderosos. Seu uso pode ser até fácil, mas os riscos são altos. Os modelos de 
linguagens grandes incorporaram recursos extraordinários para aplicações NLP, no 
entanto, seu desempenho está diretamente ligado à qualidade do prompt aplicado 
para orientar esse modelo.
Por enquanto, os prompts mais eficazes ainda são produzidos pela mente humana. 
Não é à toa que os engenheiros de prompt têm despontado como profissionais 
mais cobiçados do mercado de tecnologia. São os engenheiros de prompt que 
conseguem orientar o melhor comportamento dos LLMs, gerando respostas 
apropriadas.
Os engenheiros de prompt têm a capacidade de orquestrar múltiplos prompts, 
fontes de dados e recursos computacionais, extraindo o melhor da IA para cada tipo 
de negócio. Esses profissionais entregam as habilidades necessárias para refinar a 
solução, de acordo com a necessidade de cada modelo de negócio.
A engenharia de prompt também abraça o benefício de atuar em tempo real, 
alterando os prompts. Por esse motivo, as empresas que trabalham com IA têm 
investido em equipes especializadas em engenharia de prompt. São os humanos 
que estão nos bastidores das soluções mais sofisticadas de IA.
Na jornada da IA, os desafios são contínuos. O surgimento do ChatGPT não encerra 
capítulos, pelo contrário, descortina novas equações. Quando se fala em GPT-3, o 
pulo do gato está em descobrir o caminho para desenvolver soluções em cima 
dessa tecnologia, com requintes de programação que extraiam o melhor da IA para 
o negócio. E quando falamos do GPT-4 é uma conquista tecnológica emocionante, 
com o potencial de impactar vários setores.
Estabelecer uma conversa diária com a IA é fundamental em qualquer tipo de 
negócio, mas a base desse diálogo precisa ser bem sedimentada. Se isso não 
acontecer, os resultados serão medianos ou ineficazes. O alicerce do sucesso na 
estratégia do ChatGPT é o prompt. Sem ele, a experiência com a IA não será ruim, 
mas estará longe do estado da arte.
Link: https://www.mitsloanreview.com.br/post/engenharia-de-prompt-o-tempero-
do-chatgpt
https://www.mitsloanreview.com.br/post/engenharia-de-prompt-o-tempero-do-chatgpt
https://www.mitsloanreview.com.br/post/engenharia-de-prompt-o-tempero-do-chatgpt
	Slide 1
	Slide 2
	Slide 3

Continue navegando