Baixe o app para aproveitar ainda mais
Prévia do material em texto
Engenharia de Prompt com ChatGPT Instrutor: Marcelo de Almeida Viana 2024 v2.0 15/01/2024 D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT Larissa de Oliveira Figueira Revisão Editoração Marcelo de Almeida Viana Marcelo de Almeida Viana Conteúdo José Augusto de Lima Prestes Coordenação-Geral D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT Especialista de Projetos na Facti - Fundação de Apoio à Capacitação em Tecnologia da Informação. Tem experiência na área de Inteligência Artificial, Engenharia Biomédica, Engenharia Elétrica e Eletrônica, atuando principalmente nos seguintes temas: programação de algoritmos de Inteligência Artificial, projetos e soluções de produtos ou serviços para saúde. Também atuou como professor universitário e é membro do Comitê Brasileiro Odonto-Médico-Hospitalar da ABNT/CB-026, relacionado a projetos de normas técnicas. Como formação acadêmica é Doutor em Engenharia Elétrica (UNICAMP, 2019), Especialista em Gerenciamento de Projetos (SENAC-SP, 2020), Mestre em Engenharia Elétrica (UNICAMP, 2011) e Engenheiro Elétrico pela PUC-MG (2007). Acesse aqui o perfil público do instrutor. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . https://www.linkedin.com/in/marcelo-a-viana Larissa de Oliveira Figueira possui mestrado em Física Aplicada pela Universidade Estadual Paulista e adquiriu vasta experiência em Inteligência Artificial, otimização, robótica educacional e tecnologias educacionais ao longo de sua carreira. Desempenhou diferentes papéis, incluindo o de docente no Ensino Superior e gestora educacional, o que lhe proporcionou uma visão abrangente das necessidades e demandas no campo da tecnologia. Larissa também se destaca pelo seu envolvimento na capacitação de educadores no âmbito tecnológico. Atualmente, ela faz parte da equipe de capacitação da Facti, onde compartilha seus conhecimentos e auxilia profissionais a ingressarem ou se consolidarem no promissor campo da tecnologia. Com base em sua experiência, ela busca desenvolver habilidades e capacidades nos profissionais, capacitando-os a enfrentar os desafios e aproveitar as oportunidades do mundo tecnológico. Acesse aqui o perfil público do instrutor. Machine Learning e No Code: uma abordagem acessível para o aprendizado de máquina D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . https://www.linkedin.com/in/larissa-oliveira-604124ba Machine Learning e No Code: uma abordagem acessível para o aprendizado de máquina José Augusto de Lima Prestes está desde abril de 2018 como Gerente de Governança e Compliance da Facti. Nesta função, tem a responsabilidade de gerenciar o trabalho de todas as áreas técnicas e administrativas da instituição. Adicionalmente, ocupa, desde agosto de 2020, a função de Encarregado pelo Tratamento de Dados Pessoais da organização. Ele também ocupa o papel de gerente de diferentes projetos de Pesquisa, Desenvolvimento e Inovação em TICs, atuando em escopos diversos que vão do desenvolvimento de software para a gestão de políticas públicas à capacitação de pessoas para lidarem com os desafios da Indústria 4.0. Na sua produção técnico-científica, teve participação em artigos, capítulos de livros, pedidos de patente e programa de computador. Foi membro do Laboratório de Estudos sobre a Organização da Pesquisa e da Inovação (Lab-GEOPI) da Unicamp e participou do Projeto HEIP-link da Universidade de Alicante (Espanha), parte do Programa Erasmus Mundus da União Europeia. Os seus atuais tópicos de interesse abrangem Ética e Filosofia da Tecnologia, Inovação Responsável, Inteligência Artificial, Neurodireitos, Privacidade Mental e Robótica. O perfil público está disponível aqui. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . https://www.linkedin.com/in/jalprestes Engenharia de Prompt com ChatGPT SUMÁRIO 1. Introdução 05 2. Etapa Inspirar 06 2.1. Inspiração 06 2.2. Estudo de caso 07 3. Etapa Conceitualizar 08 3.1. Engenharia de Prompt 08 3.2. Modelo de Linguagem de Grande Escala 12 3.3. Entendendo o ChatGPT e suas funcionalidades 17 3.4. Técnicas de Engenharia de Prompt do ChatGPT 26 4. Etapa Consolidar 50 4.1. Estudo de Caso 50 4.2. Infraestrutura necessária para solução do Estudo de Caso 52 4.3. Proposta de solução do Estudo de Caso 57 5. Etapa Avaliar 58 Referências 59 Do cu m en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 1. INTRODUÇÃO Ao longo deste curso, abordaremos os pontos mais importantes para compreender o que é a engenharia de prompt, como um conceito que vem se tornando essencial no campo da Inteligência Artificial (IA), no qual desempenha um papel crucial na interação com modelos de linguagem, como o GPT-3 e o GPT-4 utilizados pelo ChatGPT. Esta área envolve a formulação cuidadosa de instruções ou perguntas para direcionar o comportamento do modelo para obter as respostas desejadas. A arte da engenharia de prompt reside na capacidade de criar entradas de texto que sejam claras, precisas e eficazes em orientar o modelo a produzir saídas relevantes. Isso é fundamental para tirar o máximo proveito desses modelos em uma variedade de aplicações, desde geração de texto até a resolução de problemas complexos. Uma abordagem eficaz da engenharia de prompt leva em consideração a compreensão do modelo, suas limitações e as nuances da linguagem. Ela exige a formulação de perguntas ou comandos de uma forma que forneça contexto suficiente para o modelo entender a tarefa e evitar ambiguidades. Além disso, a engenharia de prompt pode ser utilizada para mitigar vieses e garantir respostas éticas e imparciais. À medida que a IA continua a evoluir, a engenharia de prompt desempenha um papel cada vez mais significativo na interação homem-máquina, moldando o potencial da IA para resolver problemas e melhorar nossa compreensão do mundo. 7 D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N. Engenharia de Prompt com ChatGPT 8 2. INSPIRAR 2.1. Inspiração O que você entende de Inteligência Artificial? E de engenharia de prompt? Quais são as tendências de Inteligência Artificial para os próximos anos? Antes de iniciar a Etapa de Conceitualização do conteúdo, acesse a aba “Atividades”, seção “Etapa Inspirar”, na plataforma do Google Sala de Aula para executar as atividades previstas. Inicie acessando a atividade e assista aos vídeos de inspiração para começar a se ambientar ao conteúdo que será abordado durante o curso. Em seguida, acesse o formulário sobre engenharia de prompt para registrar suas respostas baseadas em seu conhecimento, com insights e opiniões acerca das questões apresentadas. Ouça também o podcast com uma discussão sobre engenharia de prompt. Será preciso se cadastrar na ferramenta a ser utilizada no curso, a plataforma do ChatGPT da OpenAI. Consulte o item 4.2 Infraestrutura para solução do Estudo de Caso deste material e siga o tutorial para o cadastro. Para finalizar esta etapa, responda ao estudo de caso que será apresentado na próxima seção. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 9 2.1. Estudo de caso: melhoria do sistema de recomendação de filmes com IA Considere-se como um desenvolvedor de software na equipe de inovação da Netflix, responsável por otimizar o sistema de recomendação de filmes e séries da plataforma. Recentemente, a Netflix implementou um novo recurso: um chatbot de IA integrado à plataforma para oferecer sugestões personalizadas aos usuários. No entanto, após alguns meses, a equipe percebeu que muitos usuários estão insatisfeitos com as recomendações, relatando que elas não refletem seus interesses e preferências reais. Análises iniciais indicam que o chatbot tem falhado inúmeras vezes em entender as nuances das preferências dos usuários, resultando em sugestões que não se alinham com os gostos pessoais. Parece haver uma desconexão entre como os usuários expressam suas preferências e como o chatbot interpreta essas informações. No papel de um aluno de engenharia de prompt, você foi convidado a colaborar com a equipe da Netflix para resolver esse desafio: um chatbot de IA que não consegue captar as preferências dos usuários para recomendar filmes e séries. Sem conhecimento prévio, como abordaria a situação para entender e melhorar a forma como o chatbot interpreta e responde às preferências dos usuários? Considere as possíveis lacunas na comunicação entre o chatbot e os usuários e pense em estratégias iniciais que poderiam ser adotadas para começar a resolver esse problema. Registre a resposta na atividade Apresentação da solução inicial, no Google Sala de Aula. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 10 3. CONCEITUALIZAR 3.1. Engenharia de Prompt O termo "engenharia" em engenharia de prompt é usado de forma metafórica para descrever o processo sistemático, criativo e, às vezes, complexo de projetar os prompts, que se dá a um modelo de linguagem. Da mesma forma que a engenharia tradicional envolve a aplicação de conhecimentos técnicos para construir estruturas ou sistemas, a engenharia de prompt envolve a aplicação de conhecimentos sobre como os modelos de linguagem funcionam para criar prompts que geram os resultados desejados. Assim como a engenharia convencional requer um entendimento profundo de princípios científicos e matemáticos, a engenharia de prompt exige um conhecimento sobre o funcionamento interno dos modelos de linguagem, como eles realizam o Processamento de Linguagem Natural (PLN) e como diferentes tipos de prompts podem influenciar suas respostas. Por esta razão, exige-se um cuidado na escolha de palavras e estruturas para que o prompt comunique a intenção com precisão para que se otimize a formulação da melhor resposta possível de um modelo de linguagem. Um modelo de linguagem é um tipo de IA que foi treinado para entender, prever e gerar linguagem humana. Esses modelos são baseados em técnicas de Aprendizado de Máquina (Machine Learning) e Aprendizado Profundo (Deep Learning), e são treinados usando grandes quantidades de texto. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 11 O princípio fundamental de um modelo de linguagem é a previsão de texto, ou seja, dado um fragmento de texto como entrada, o modelo tenta prever qual palavra ou sequência de palavras que virá a seguir. Para isso, o modelo aprende padrões de linguagem, como gramática, uso de palavras, estilo, nuances e até mesmo alguns conhecimentos do mundo real, a partir dos dados nos quais foi treinado. Os modelos de linguagem podem ser utilizados para uma grande variedade de tarefas, incluindo, mas não limitado a (FINGER, 2021): ➔ Geração de texto: podem escrever artigos, histórias, códigos de programação, poemas, mantendo coerência e relevância ao tópico; ➔ Tradução de linguagem: traduz texto de uma língua para outra; ➔ Sumarização de texto: resumir textos longos em versões mais curtas, mantendo os pontos principais; ➔ Resposta a perguntas: respondem à perguntas feitas em linguagem natural, fornecendo informações precisas ou explicativas; ➔ Assistência virtual: auxiliam em tarefas como agendar reuniões, responder e-mails e oferecer suporte ao cliente; ➔ Análise de sentimentos: avaliam textos e determinam o sentimento por trás deles, como positivo, negativo ou neutro. Um exemplo bem conhecido de modelo de linguagem é a família de modelos GPT (Generative Pretrained Transformer), desenvolvida pela OpenAI, incluindo o GPT-2, GPT-3 e a versão mais recente, o GPT-4. Estes modelos são chamados de "Transformers" devido ao tipo de arquitetura de rede neural que utilizam, que é muito eficaz em tarefas de PLN, devido à sua capacidade de lidar com sequências de dados, como texto, de maneira eficiente e eficaz. Os termos "Generative" (Gerativo) e "Pretrained" (Pré-treinado) fazem parte da descrição da D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 12 classe dos modelos de linguagem (DSA, 2023b). Um modelo generativo não apenas gera novos conteúdos, mas entende, classifica informações ou prevê sequências de dados que não viu antes. No contexto da linguagem, isso significa que pode compor texto em prosa, poesia, diálogo, código de programação e até mesmo emular estilos de escrita específicos. Isso é diferente dos modelos discriminativos, que são projetados para reconhecer ou diferenciar entre diferentes tipos de dados, mas não para gerar novos conteúdos (DSA, 2023b). Já o pré-treinamento serve para dar ao modelo um entendimento abrangente da língua, de modo que ele não precisa ser treinado do zero paracada tarefa específica, ajustando os pesos da rede neural com base em textos extensos que cobrem uma ampla variedade de tópicos, gêneros e estilos. Isso torna o modelo muito mais versátil e pronto para ser adaptado a tarefas específicas por meio de um processo chamado "fine-tuning" (ajuste fino), em que o modelo é posteriormente treinado (geralmente por um período mais curto) em um conjunto de dados mais específico ou para uma tarefa particular. Diante deste contexto, a engenharia de prompt surgiu como uma resposta à necessidade de se comunicar efetivamente com modelos de linguagem e vem se tornando uma técnica fundamental no campo da IA, desempenhando um papel crucial nesta interação. Ela envolve a criação estratégica de instruções ou perguntas, chamadas "prompts", para direcionar o comportamento do modelo em obter respostas específicas, isto é, são instruções ou estímulos textuais que orientam a IA sobre o tipo de resposta ou ação que se espera dela. Os prompts são, portanto, a forma de comunicação principal entre o usuário e a IA e desempenham um papel crucial na determinação de como o modelo de linguagem responderá. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 13 Um prompt pode variar desde uma simples pergunta até uma instrução complexa que requer que a IA execute uma série de tarefas ou considere um contexto extenso antes de responder. Os engenheiros de prompt devem criar instruções que forneçam contexto suficiente para que o modelo compreenda a tarefa, mas sem introduzir ambiguidades. Isso requer um profundo entendimento do modelo em uso, incluindo suas capacidades e limitações. A escolha das palavras, o formato da pergunta e a estrutura da instrução desempenham um papel fundamental na eficácia do prompt. Por exemplo, ao solicitar uma tradução, um prompt pode ser formulado de maneira a especificar o idioma de origem e de destino, fornecendo um contexto claro para o modelo. À medida que a IA continua a evoluir, a engenharia de prompt se torna uma habilidade essencial para aproveitar o potencial dos modelos de linguagem. Ela permite que os usuários controlem o comportamento do modelo e o direcionam para atender a uma ampla gama de necessidades. No entanto, a engenharia de prompt não é uma tarefa simples e requer conhecimento especializado para ser executada com eficácia. À medida que a IA desempenha um papel cada vez mais central em nossa sociedade, a capacidade de formular prompts eficazes se torna uma habilidade valiosa e necessária. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 14 3.2. Modelo de Linguagem de Grande Escala Os Modelos de Linguagem de Grande Escala (LLMs, do inglês "Large Language Models") são sistemas de IA projetados para entender, gerar e interagir com texto humano em um nível avançado. Eles são treinados em extensos conjuntos de dados compostos por uma vasta gama de textos, permitindo-lhes capturar uma ampla variedade de nuances linguísticas, estilos de escrita e informações. Os LLMs como o GPT-3 ou GPT-4 são enormes em termos de número de parâmetros. Um parâmetro é um elemento da rede neural que a máquina aprende a partir de dados, ou seja, é uma parte do modelo que ajuda a determinar a saída dada à uma entrada específica, pois indica a complexidade do modelo e sua capacidade potencial de aprender e generalizar a partir de dados. Com bilhões ou mesmo trilhões de parâmetros, os LLMs podem armazenar uma quantidade significativa de informações e aprender padrões complexos. Estas são estimativas da quantidade de parâmetros para as versões conhecidas da família GPT: ● GPT (original): a primeira versão do GPT, lançada em junho de 2018, tinha 117 milhões de parâmetros; ● GPT-2: lançado em fevereiro de 2019, o GPT-2 veio em quatro versões com diferentes quantidades de parâmetros. A maior versão do GPT-2 tinha 1,5 bilhão de parâmetros; ● GPT-3: lançado em junho de 2020, marcou um grande salto em tamanho e capacidade, contando com 175 bilhões de parâmetros; ● GPT-4: lançado em março de 2023, estima-se, não oficialmente, que a versão possui cerca de 100 trilhões de parâmetros. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 15 Os parâmetros dos LLMs são treinados usando técnicas de Aprendizado de Máquina, especificamente o modelo de Aprendizado Supervisionado, em que é alimentado com grandes quantidades de texto e as saídas desejadas (DSA, 2023a). Por meio de um processo iterativo chamado backpropagation¹, o modelo ajusta seus parâmetros para minimizar a diferença entre suas previsões e as saídas reais. No entanto, o GPT pode envolver uma combinação de métodos de treinamento, conforme os modelos (GUO et al., 2023): ● Aprendizagem Supervisionada (AS) e LLMs Os LLMs, como o GPT-3, são predominantemente produtos do AS. Durante o pré-treinamento, o GPT é exposto a um grande conjunto de dados de texto que inclui pares de entradas (por exemplo, um prompt de texto) e saídas esperadas (a continuação apropriada do texto). O modelo aprende a prever a próxima palavra em uma sequência, tentando corresponder suas previsões às saídas reais nos dados de treinamento. Este processo é claramente um exemplo de AS, em que o modelo é "supervisionado" ou guiado para produzir o resultado correto com base nos exemplos fornecidos e essa técnica foi fundamental para o desenvolvimento de LLMs, pois permite que eles gerem texto que é não apenas gramaticalmente correto, mas também contextualmente relevante. ¹ Backpropagation refere-se a um método utilizado durante o treinamento de redes neurais profundas em que o erro é calculado na saída e distribuído de volta pela rede, permitindo que o algoritmo ajuste os pesos dos parâmetros para minimizar a diferença entre as previsões do modelo e as saídas reais. É um componente crítico no AS para otimizar o desempenho do modelo. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 16 ● Aprendizagem Não Supervisionada (ANS) Embora o termo "não supervisionado" possa ser às vezes mencionado em discussões sobre modelos de linguagem devido à maneira como eles aprendem a capturar representações de linguagem de grandes conjuntos de dados sem anotações específicas de tarefas, no contexto técnico de Aprendizado de Máquina, o treinamento do GPT não é um exemplo de aprendizagem não supervisionada, pois ela envolve encontrar padrões em um conjunto de dados sem rótulos pré-fornecidos, o que não é o caso do modelo GPT. No entanto, durante o pré-treinamento, os LLMs podem usar autoencoders para aprender representações densas de texto sem anotações específicas, o que ajuda a entender melhor a semântica e a sintaxe da linguagem humana. ● Aprendizadopor Reforço (AR) Quando se trata de refinar os LLMs para tarefas específicas ou melhorar suas interações com os usuários, é utilizada a técnica conhecida como Aprendizado por Reforço com Humanos no Loop (Reinforcement Learning from Human Feedback - RLHF), que foi usada em algumas iterações de modelos de linguagem como o GPT-3 para refinar ainda mais seus comportamentos e permitem que os LLMs ajustem suas respostas com base nas preferências de feedbacks sobre as saídas do modelo, sendo ajustado para maximizar o feedback positivo, como uma forma de AR. No entanto, isso geralmente ocorre após o estágio inicial da AS. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 17 Assim, o campo do Aprendizado de Máquina oferece uma variedade de métodos que permitem que as máquinas aprendam a partir de dados a melhorarem suas tarefas ao longo do tempo. Estes três modelos têm contribuído de maneiras distintas para o avanço dos LLMs, como o notável GPT-3, que utiliza a arquitetura de rede neural Transformer, que é singularmente adequada para tarefas de NLP devido ao seu mecanismo de atenção (BROWN et al., 2020). O Transformer abandona a recorrência em favor de atenções globais que processam palavras em paralelo, proporcionando uma compreensão mais eficaz do contexto em sequências de texto. Esta arquitetura é não só altamente paralelizável, o que reduz os tempos de treinamento, mas também é excepcionalmente boa em capturar dependências de longo alcance no texto, um desafio histórico no NLP, como encontrado em abordagens anteriores, como as redes neurais recorrentes (RNNs) e as Long Short-Term Memory Networks (LSTMs). Outra característica chave dos Transformers é o mecanismo de self-attention, que permite que o modelo avalie a importância de cada parte da entrada (por exemplo, palavras em uma frase) em relação a todas as outras partes. O mecanismo também permite que o modelo avalie todas as partes da entrada ao mesmo tempo e determine quais partes são mais relevantes entre si. Isso é especialmente útil para entender o contexto e a relação entre palavras em uma sentença ou documento, independentemente da distância entre elas no texto (BROWN et al., 2020). Os LLMs são efetivamente construídos em cima e ao redor da arquitetura Transformer e são, portanto, a base para o GPT e muitos outros modelos de linguagem de última geração, pois fornece um equilíbrio entre capacidade de generalização e especialização para uma ampla gama de tarefas de NLP. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 18 3.2.1. Limitações dos LLMs Os LLMs são marcos notáveis no campo da IA. No entanto, esses sistemas ainda estão longe da perfeição e enfrentam uma série de desafios significativos (DSA, 2023a): ➔ Desafios de contextualização e precisão: enquanto os LLMs podem captar certo contexto para informar suas respostas, eles nem sempre são precisos. Muitas vezes, podem interpretar mal o contexto ou fornecer respostas que são inapropriadas ou incorretas, particularmente quando confrontados com perguntas que caem fora do domínio de seu treinamento. ➔ Questões de viés e equidade: os LLMs têm potencial para continuar e até mesmo intensificar os vieses encontrados nos dados com os quais foram treinados. Isso pode incluir preconceitos relacionados a gênero, raça, localização geográfica e cultura, bem como inclinações políticas. ➔ Entendimento de senso comum: o senso comum, embora intrínseco aos humanos que o adquirem ao longo da vida, é um conceito esquivo para os LLMs. Eles carecem da experiência vivencial e só podem simular a compreensão com base nos dados fornecidos durante o treinamento, o que não substitui uma verdadeira percepção do mundo. ➔ Interpretabilidade dos modelos: a complexidade e o tamanho extenso dos LLMs muitas vezes tornam obscuro o processo pelo qual eles chegam a determinadas conclusões ou respostas. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 19 Um LLM reflete a qualidade dos dados que recebe. A precisão não é garantida e pode não ser uma maneira adequada de expressar essa restrição. Em essência, os LLMs atingem um nível de desempenho condizente com a qualidade e a integralidade dos dados de treinamento fornecidos. 3.3. Entendendo o ChatGPT e suas funcionalidades Ao apresentar estes os conceitos, é útil recordar que um chatbot funciona como um robô de conversação. Na prática, quase todas as empresas que interagem com clientes ou parceiros recorrem a algum tipo de chatbot em seu serviço de atendimento. Esta abordagem traz benefícios como a otimização do tempo e dos recursos, proporcionando um atendimento direcionado para solucionar problemas específicos ou fornecer informações detalhadas sobre um tema particular. A experiência com chatbots tradicionais (sem IA) revela que eles têm suas restrições. Frequentemente, se o usuário apresenta uma questão que desvia do roteiro programado, o chatbot falha em fornecer uma resposta satisfatória, o que pode gerar frustração e insatisfação no cliente ou parceiro que procurava assistência (JIMENEZ, 2023). Nesse contexto, a implementação de um chatbot com IA torna-se essencial e desafiadora. O ChatGPT, por exemplo, oferece uma experiência de diálogo similar a um chatbot convencional, mas supera as limitações de um roteiro de atendimento pré-definido, permitindo uma interação mais fluida e adaptativa (JIMENEZ, 2023). D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 20 O ChatGPT é treinado para entender e gerar texto natural, permitindo que ele participe de conversas, responda perguntas e até crie conteúdo em diversos formatos. Sua aplicação abrange desde responder a consultas simples até auxiliar em tarefas mais complexas como programação, redação criativa e aprendizado de idiomas. O sucesso e a eficácia do ChatGPT estão enraizados na quantidade de dados em que foi treinado e na sua capacidade de aprender padrões de linguagem. No entanto, o modelo não é perfeito e ele pode gerar respostas imprecisas ou tendenciosas, refletindo limitações nos dados de treinamento e na compreensão atual da IA sobre contextos humanos complexos (FERNANDES, 2023). Para usuários que interagem com o ChatGPT, o entendimento desses pontos é crucial. Saber como formular perguntas ou instruções (conhecido como "engenharia de prompt") pode significativamente influenciar a qualidade das respostas recebidas. Por exemplo, perguntas claras, específicas e bem estruturadas tendem a resultar em respostas mais precisas e úteis. Além disso, é importante para os usuários reconhecer as limitações dos modelos de linguagem, como o do ChatGPT. Enquanto o modelo pode fornecerinformações úteis e insights, suas respostas devem ser avaliadas criticamente, especialmente em tópicos complexos ou sensíveis. O modelo, por exemplo, pode não estar atualizado com as informações mais recentes ou pode não compreender completamente nuances culturais ou contextuais. Ao empregar o ChatGPT, é crucial estar ciente das restrições de caracteres que variam conforme a versão do modelo em uso. Por exemplo, na versão GPT-3, o limite é de 4.096 tokens, enquanto na versão GPT-4, esse limite é estendido para 8.192 tokens abrangendo tanto a entrada quanto a saída de caracteres. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 21 Para otimizar a eficácia do modelo, é essencial formular prompts que sejam concisos e objetivos. Isso assegura que a resposta gerada seja completa e não seja abruptamente cortada antes de atingir uma conclusão satisfatória (JIMENEZ, 2023). Os "tokens" em modelos como o ChatGPT são uma unidade fundamental de processamento de texto. Ao contrário da contagem tradicional de caracteres ou palavras, um token pode representar uma palavra inteira, uma parte de uma palavra ou mesmo símbolos de pontuação. Por exemplo, a palavra "incompreensível" pode ser dividida em vários tokens, como "in", "compreen", "sível", dependendo de como o modelo foi treinado para segmentar o texto. Portanto, a compreensão de como os tokens funcionam e como são contados é vital para usar modelos como o ChatGPT de maneira eficaz, garantindo uma comunicação clara e recebendo respostas completas e relevantes. Veja alguns fatores importantes sobre os tokens (JIMENEZ, 2023): ➔ Limites de processamento: devido às restrições computacionais, os modelos de linguagem como o ChatGPT têm um limite máximo de tokens que podem processar em uma única solicitação. Isso afeta o quanto de texto pode ser considerado e gerado de uma vez; ➔ Eficiência do prompt: saber como os tokens são contados ajuda na formulação de prompts eficientes. Um entendimento claro pode levar a uma comunicação mais eficaz, garantindo que a informação mais relevante seja incluída sem exceder o limite do modelo. ➔ Qualidade da resposta: quando um prompt é muito longo e excede o limite de tokens, o modelo pode não conseguir processar todas as informações ou gerar uma resposta completa. Isso pode resultar em respostas truncadas ou incompletas; D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 22 ➔ Adaptação para diferentes versões: como diferentes versões do modelo têm diferentes limites de tokens, compreender esses limites pode ajudar os usuários a adaptar seus prompts de acordo com a versão que estão utilizando; ➔ Variação na granularidade: tokens podem variar em tamanho. Em inglês, frequentemente correspondem a palavras inteiras, mas em idiomas com palavras mais longas ou em casos de palavras complexas em inglês, podem representar partes de palavras. Essa granularidade afeta a maneira como o modelo processa e gera linguagem; ➔ Subtokens em diversos idiomas: em idiomas com estruturas morfológicas complexas, como o turco ou o finlandês, ou em idiomas que não usam espaços, como o chinês e o japonês, os subtokens² se tornam mais frequentes. Isso influencia como o modelo lida com diferentes idiomas. ➔ Influência na compreensão do contexto: o número de tokens que um modelo pode processar simultaneamente (conhecido como 'comprimento do contexto') tem um impacto direto na sua habilidade de entender e manter o contexto em uma conversa ou texto; ➔ Limites e desempenho: modelos com capacidade de processar mais tokens geralmente podem gerar e compreender textos mais longos, o que é crucial para tarefas como resumir documentos extensos ou manter conversas complexas; ➔ Treinamento e ajuste fino: a forma como os tokens são definidos e utilizados é um aspecto crucial no treinamento de modelos de linguagem. O processo de “tokenização” impacta tanto a eficiência do treinamento quanto a qualidade do modelo final; ² Subtokens são divisões menores de palavras ou caracteres usadas em modelos de linguagem para representar e processar idiomas com estruturas complexas ou sem espaços claros. Eles ajudam o modelo a entender e gerar linguagem de maneira mais eficiente ao lidar com variações linguísticas e morfológicas. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 23 ➔ Customização de “tokenização”: em aplicações especializadas, a tokenização pode ser adaptada para melhor atender às necessidades específicas do domínio. Por exemplo, em contextos médicos ou técnicos, a “tokenização” pode ser ajustada para lidar melhor com terminologias específicas; ➔ Considerações de armazenamento e processamento: embora modelos com maiores limites de tokens possam ser mais poderosos, eles também requerem mais recursos de computação e armazenamento, tanto para treinamento quanto para inferência (geração de respostas); ➔ “Tokenização” como processo preliminar: antes de um texto ser processado por um modelo de linguagem, ele passa por um processo de “tokenização”, que é uma etapa essencial para transformar o texto bruto em uma forma que o modelo pode entender. Entender esses aspectos dos tokens ajuda a ter uma visão mais completa não só de como interagir mais eficientemente com modelos como o ChatGPT, mas, também, de como esses modelos funcionam e são treinados. Isso é fundamental para qualquer pessoa que trabalhe com PLN em um nível técnico ou que busque otimizar o uso de tais tecnologias. Os tokens, portanto, desempenham um papel central nas funcionalidades do ChatGPT, agindo como a espinha dorsal para a interpretação e geração de linguagem. Estas funcionalidades são possíveis graças a sua base na arquitetura Transformer, que lhe confere uma compreensão e geração de linguagem natural de alto nível. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 24 As principais funcionalidades do ChatGPT incluem: ➔ Geração de texto: pode criar texto coerente e contextualmente relevante em vários formatos, incluindo respostas a perguntas, ensaios, histórias, poemas e até códigos de programação; ➔ Conversação e diálogo: é capaz de conduzir conversas interativas, respondendo a perguntas e seguindo o fluxo de um diálogo de maneira natural e fluída; ➔ Resposta a perguntas: pode fornecer respostas informativas e detalhadas a uma ampla gama de perguntas, abrangendo diversos tópicos; ➔ Tradução de idiomas: embora não seja sua principal função, o ChatGPT pode realizar traduções de textos entre vários idiomas; ➔ Sumarização: é capaz de resumir textos longos, destacando os pontos principais de forma concisa; ➔ Assistência em tarefas: pode auxiliar em tarefas específicascomo programação, oferecendo sugestões de códigos, correções e explicações; ➔ Geração de conteúdo criativo: pode ser usado para gerar ideias criativas, como conceitos para histórias, roteiros, marketing e conteúdo de blogs; ➔ Aprendizado e educação: serve como uma ferramenta de aprendizado, explicando conceitos complexos e ajudando com material educacional; ➔ Jogos de palavras e atividades lúdicas: capaz de participar de jogos baseados em linguagem e outras atividades interativas; ➔ Análise de sentimentos: pode avaliar o texto para determinar o tom emocional, embora esta não seja sua função principal e possa ser menos precisa do que sistemas especializados. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 25 Apesar dessas funcionalidades, o ChatGPT tem limitações, incluindo a possibilidade de gerar informações imprecisas, falta de consciência de eventos atuais (dependendo de quando foi treinado pela última vez) e a reprodução de vieses presentes em seus dados de treinamento. É importante abordar as respostas do ChatGPT com um olhar crítico e considerar sua utilização como uma de várias ferramentas em um conjunto mais amplo de recursos. 3.3.1. Implicações éticas e responsabilidades Na engenharia de prompts é fundamental considerar as implicações éticas e assumir as responsabilidades pelo impacto das interações produzidas. É imperativo que os prompts sejam cuidadosamente elaborados para prevenir a inclusão de viés ou discriminação, considerando tanto a linguagem empregada quanto as respostas que são geradas. É vital assegurar que os prompts sejam justos e equânimes, tratando todos os usuários com igualdade e sem reforçar preconceitos ou estereótipos (LIMA, 2023). Além disso, é importante estar atento à sensibilidade cultural e contextual nas interações, garantindo que a comunicação seja apropriada e respeitosa para com a diversidade dos usuários. Esta abordagem não apenas fomenta uma experiência mais inclusiva e representativa, mas também reflete uma prática responsável e ética no uso de tecnologias de IA. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 26 Há também outras considerações importantes que devem ser consideradas ao projetar e utilizar prompts em tecnologia (LIMA, 2023): ➔ Viés nos dados de treinamento: a qualidade e a natureza dos dados usados para treinar modelos de linguagem podem incorporar vieses existentes. Se os dados de treinamento incluem linguagem ou conceitos discriminatórios, o modelo pode aprender e perpetuar esses mesmos vieses; ➔ Transparência e accountability: desenvolvedores e usuários dos modelos devem manter uma postura de transparência e responsabilidade. Isso significa reconhecer as limitações dos modelos e estar aberto a feedback, especialmente de comunidades sub-representadas ou afetadas por vieses; ➔ Monitoramento contínuo: o monitoramento e a revisão contínuos dos prompts e das respostas do modelo são necessários para identificar e corrigir vieses, o que é especialmente importante à medida que o modelo continua aprendendo e se adaptando com base em novas interações; ➔ Educação e conscientização: promover a educação e a conscientização sobre vieses em IA entre desenvolvedores, usuários e partes interessadas é fundamental, incluindo treinamento em ética de IA e sensibilidade cultural; ➔ Legislação e políticas: estar em conformidade com leis e regulamentos locais e internacionais relacionados a privacidade, discriminação e direitos humanos é crucial, o que envolve estar atento às políticas internas de ética e diversidade da organização. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 27 Um outro importante fator ao projetar prompts, é essencial evitar qualquer intenção de manipular ou persuadir os usuários de forma subliminar ou explícita. As interações devem ser construídas com base na transparência e na ética, assegurando que os usuários mantenham total autonomia sobre suas decisões. Isso envolve evitar técnicas que possam levar à tomada de decisão coercitiva ou influenciada de forma oculta. Além disso, é fundamental informar os usuários sobre a natureza e o funcionamento dos modelos de IA, para que possam entender melhor as respostas e recomendações geradas, o que inclui clarificar que, embora o modelo possa fornecer informações ou sugestões, a decisão final sempre pertence ao usuário, respeitando sua capacidade de julgamento independente. Ademais, deve-se prestar atenção especial para não criar dependência tecnológica ou emocional nos usuários, promovendo um uso consciente e equilibrado da tecnologia (LIMA, 2023). Os responsáveis pela criação de prompts no contexto de modelos de linguagem como o ChatGPT carregam o peso significativo de assegurar que os resultados produzidos sejam não apenas confiáveis e precisos, mas, também, úteis e seguros, implicando em uma vigilância constante e uma ação proativa para monitorar, identificar e corrigir potenciais erros ou falhas no sistema. Tal responsabilidade estende-se à prevenção de efeitos adversos que possam impactar negativamente os usuários, evitando assim consequências indesejadas. Além disso, é vital implementar mecanismos de feedback que permitam a detecção e a correção rápida de problemas, bem como a atualização contínua do sistema para aprimorar sua precisão e confiabilidade (SOUZA, 2023). Os desenvolvedores devem também estar cientes das implicações éticas e legais associadas à geração de conteúdo por IA, garantindo que os prompts e as respostas geradas estejam em conformidade com padrões éticos e regulamentações pertinentes. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 28 I sso inclui a sensibilidade a questões de privacidade, consentimento e uso justo de dados, assegurando que os direitos e a dignidade dos usuários sejam sempre respeitados, estabelecendo políticas claras para o uso de dados pessoais, a fim de garantir que as informações sejam tratadas de maneira confidencial (SOUZA, 2023). Compreender e enfrentar as questões éticas e de privacidade é crucial para maximizar os benefícios e minimizar os riscos associados à IA. É fundamental que desenvolvedores, provedores de tecnologia, usuários e reguladores colaborem ativamente para assegurar um uso responsável e ético da IA. Trabalhando em conjunto, pode-se criar um ecossistema de IA que não apenas avança tecnologicamente, mas também respeita e protege os valores humanos fundamentais. 3.4. Técnicas de Engenharia de Prompt do ChatGPT Embora o uso do ChatGPT possa parecer simples à primeira vista, apenas digitando uma pergunta (prompt) e aguardando por uma resposta, a qualidade das perguntas é crucial.Prompts muito abertos, imprecisos ou mal otimizados podem levar a respostas genéricas, pouco úteis ou até mesmo incorretas. Um prompt "fraco" ou genérico tende a produzir resultados menos específicos e mais padronizados. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 29 O prompt funciona como uma linha de comando essencial para interagir com sistemas de IA, como o ChatGPT. A forma como o prompt é estruturado é fundamental para assegurar que as solicitações sejam compreendidas e efetivamente processadas pelos sistemas de IA. Na composição do prompt, encontra-se comandos, argumentos e opções. O comando define a ação específica que o usuário deseja executar, enquanto os argumentos fornecem detalhes adicionais necessários para a execução do comando. Já as opções permitem a personalização do comportamento do comando, oferecendo flexibilidade adicional na interação com o sistema de IA (SOUZA, 2023). Assim, a engenharia de prompt é essencialmente sobre formular comandos precisos e bem pensados, visando obter respostas mais acertadas e informativas. A eficácia em receber respostas inteligentes e úteis do ChatGPT depende integralmente da habilidade do usuário em elaborar, planejar e enviar prompts bem estruturados ao sistema de chatbot ( JIMENEZ, 2023). A compreensão da estrutura do prompt é importante porque permite ao usuário fazer solicitações precisas aos sistemas de IA. Se o usuário não fornecer os argumentos ou opções apropriados no prompt, o sistema de IA pode falhar em executar a ação desejada ou pode gerar resultados que não correspondam às expectativas. Isso ocorre porque a IA depende de instruções claras e específicas para processar solicitações de forma eficaz. Além disso, um entendimento profundo da estrutura do prompt é fundamental para que o usuário possa explorar todas as funcionalidades oferecidas pelo sistema de IA, melhorando não apenas a eficiência, mas também a precisão das respostas geradas (SOUZA, 2023). D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 30 Compreender a lógica e os parâmetros que guiam a IA permite aos usuários criar interações mais sofisticadas e adaptadas às suas necessidades específicas, além de possibilitar a identificação e correção mais rápidas de possíveis falhas na comunicação. Assim, o conhecimento detalhado sobre a engenharia de prompt torna-se uma habilidade valiosa na era da tecnologia avançada, habilitando os usuários a interagir de maneira mais produtiva e criativa com sistemas baseados em IA. Veja a seguir alguns aspectos importantes a serem levados em conta para otimizar as respostas do ChatGPT (JIMENEZ, 2023): 1. Evite generalidades - seja sempre claro, preciso, direto e específico ao formular sua pergunta Ao utilizar qualquer tipo de prompt, é fundamental que seus comandos sejam claros, objetivos e específicos. A precisão e a riqueza de detalhes no seu comando influenciam diretamente a qualidade das respostas geradas. Ao formular seu prompt, inclua detalhes como o propósito específico da sua solicitação, o público-alvo em questão e quaisquer limitações ou parâmetros relevantes, como orçamento disponível ou prazos. Além disso, forneça um contexto claro e abrangente - explique ao sistema de IA suas expectativas, necessidades e qualquer informação de fundo que possa ajudar a gerar uma resposta mais precisa e útil. Essa abordagem detalhada e contextualizada não apenas melhora a precisão da resposta, mas também ajuda o sistema de IA a compreender melhor a complexidade e a nuance da sua solicitação, resultando em uma interação mais eficiente e produtiva. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 31 Imagine um cenário em que um desenvolvedor de software está trabalhando em um projeto de aplicativo móvel. Ele está utilizando o ChatGPT para obter assistência sobre aspectos específicos de programação e melhores práticas. A eficácia das suas interações com o ChatGPT depende fortemente de como formulará as perguntas. Prompt ruim: "Como programar em Java?" Problema com o prompt: Esta pergunta é extremamente genérica e não fornece informações suficientes sobre o que é preciso especificamente. Programar em Java pode abranger uma vasta gama de tópicos, desde conceitos básicos até aspectos avançados. Prompt correto: "Preciso de ajuda para otimizar uma consulta SQL, em Java, para um aplicativo móvel que lida com um grande volume de dados. Como posso melhorar a eficiência da minha consulta para reduzir o tempo de resposta no meu aplicativo?" Melhoria no prompt: Este prompt é claro e específico. Ele fornece detalhes sobre o contexto (desenvolvimento de um aplicativo móvel), o problema específico (otimização de consulta SQL) e o objetivo desejado (reduzir o tempo de resposta). Isso permite que o ChatGPT forneça uma resposta focada e útil para a sua questão específica. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 32 2. Contextualização - sempre que iniciar um prompt, forneça um CONTEXTO para orientar a IA Incorporar um contexto adequado no prompt pode melhorar significativamente a relevância e precisão das respostas. Isso é especialmente importante em conversas sequenciais onde cada interação se baseia na anterior. O ChatGPT, assim como outros chatbots avançados baseados em IA, opera com um vasto banco de dados que cobre uma ampla gama de tópicos em variados contextos. Ao incluir um contexto apropriado em no prompt, facilita para o ChatGPT compreender o propósito específico da sua pergunta, permitindo que ele direcione suas respostas de maneira mais precisa e relevante. Isso significa integrar ao seu pedido informações pertinentes, detalhes especializados ou aspectos particulares que deseja explorar. Fornecer um contexto claro não apenas evita respostas vagas ou genéricas, mas também ajuda a prevenir mal-entendidos. Na ausência de um contexto suficiente, o ChatGPT pode acabar fazendo suposições equivocadas ou produzindo respostas que não alinham com o que realmente busca. Portanto, detalhar o cenário, as condições específicas e as nuances do seu tópico de interesse é crucial para otimizar a utilidade das respostas fornecidas pelo ChatGPT, especialmente em consultas complexas ou técnicas. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 33 Suponha que um profissional de segurança cibernética está buscandoaconselhamento do ChatGPT sobre como reforçar a segurança de uma rede empresarial. Para obter respostas mais precisas e úteis do ChatGPT, é crucial fornecer um contexto detalhado na formulação do seu prompt. Prompt ruim: "Como melhorar a segurança de rede?" Problema com o prompt: Esta pergunta é muito ampla e não fornece informações específicas sobre o tipo de rede, os desafios enfrentados ou as políticas de segurança existentes. Sem esse contexto, a IA pode fornecer uma resposta genérica que pode não ser totalmente aplicável à sua situação. Prompt correto: "Estou trabalhando em um ambiente de rede corporativa com acesso frequente à Internet e múltiplos endpoints. Recentemente, enfrentamos tentativas de phishing e ataques DDoS (Distributed Denial of Service - ataque distribuído de negação de serviço). Que medidas específicas de segurança posso implementar para proteger melhor nossa rede contra esses tipos de ameaças?" Melhoria no prompt: Este prompt fornece um contexto claro - uma rede corporativa com desafios específicos (phishing e ataques DDoS). Isso permite que o ChatGPT forneça conselhos mais direcionados e aplicáveis sobre medidas de segurança específicas para esse tipo de ambiente e ameaças. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 34 3. Evite prompts abertos ou amplos demais Evite prompts abertos ou demasiadamente amplos, pois estes podem resultar em diálogos desordenados ou desfocados. Em vez disso, esforce-se para ser o mais específico possível ao formular seus prompts, estabelecendo claramente o propósito e o foco da conversa. Prompts bem definidos e direcionados são cruciais para ajudar o ChatGPT a compreender a intenção do usuário, possibilitando que ele forneça respostas precisas e pertinentes. Ao detalhar o contexto, as expectativas e as necessidades específicas dentro do seu prompt, facilita para o sistema de IA identificar a informação mais relevante e adequada à sua solicitação. Isso não apenas melhora a qualidade da interação, mas também economiza tempo, evitando a necessidade de esclarecimentos ou ajustes adicionais. Portanto, um bom prompt deve ser pensado não apenas em termos de especificidade, mas também de clareza e relevância, alinhando a sua pergunta com o objetivo específico da consulta. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 35 Imagine agora que um desenvolvedor está trabalhando em um aplicativo móvel que utiliza a realidade aumentada (RA). Ele está usando o ChatGPT para obter orientações específicas sobre a integração de recursos de RA em seu aplicativo. Para garantir que receba as informações mais relevantes e úteis, é essencial evitar prompts abertos ou demasiadamente amplos. Prompt ruim: "Como faço um aplicativo?" Problema com o prompt: Esta pergunta é extremamente ampla e não especifica o tipo de aplicativo, as funcionalidades desejadas ou o contexto de desenvolvimento. O ChatGPT pode responder com informações muito básicas e gerais sobre o desenvolvimento de aplicativos, que podem não ser úteis para o seu projeto específico. Prompt correto: "Estou desenvolvendo um aplicativo móvel de RA para Android que visa a educação em História. Que bibliotecas de RA recomendaria para integrar recursos interativos que permitem aos usuários visualizar reconstruções históricas em 3D em locais reais?" Melhoria no prompt: Este prompt é específico e direcionado. Ele fornece informações sobre o tipo de aplicativo (RA para educação em História), a plataforma (Android) e o tipo de funcionalidade desejada (visualização de reconstruções históricas em 3D). Isso permite que o ChatGPT forneça recomendações específicas e úteis que são diretamente relevantes para o seu projeto. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 36 4. Use perguntas de acompanhamento - avalie e faça ajustes contínuos Utilize perguntas de acompanhamento de forma estratégica para encorajar o ChatGPT a fornecer explicações mais detalhadas ou aprofundar em tópicos específicos. Essas perguntas adicionais podem ser cruciais para esclarecer dúvidas, explorar aspectos adicionais de um tópico ou obter informações mais precisas. Além disso, é vital avaliar constantemente a eficácia dos seus prompts iniciais e estar preparado para adaptá-los conforme as respostas que recebe. Esta abordagem iterativa promove uma interação mais dinâmica e produtiva com o sistema de IA, permitindo ajustes finos que refinam a qualidade e relevância das respostas. Por exemplo, se a resposta inicial do ChatGPT não aborda completamente sua consulta, uma pergunta de acompanhamento pode direcionar o foco da conversa para áreas específicas que necessitam de mais detalhamento. Isso não só melhora a sua compreensão do assunto em discussão, mas também ajuda a aprimorar suas habilidades de formulação de prompts, resultando em uma comunicação mais eficiente e frutífera com a IA. Adicionalmente, considerar o feedback dos usuários finais pode ser extremamente benéfico. As opiniões e experiências dos usuários oferecem insights valiosos, que podem ser usados para refinar ainda mais os prompts e melhorar a interação global com o sistema. A incorporação deste feedback ajuda a garantir que o sistema permaneça relevante, útil e intuitivo para os usuários, contribuindo para uma experiência mais positiva e eficiente. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 37 Imagine que um cientista de dados em uma empresa de tecnologia está trabalhando no desenvolvimento de algoritmos de IA para análise de grandes conjuntos de dados no setor de varejo. Ele está utilizando o ChatGPT para obter insights sobre técnicas avançadas de análise de dados e Machine Learning. Para garantir respostas úteis e precisas do ChatGPT, é essencial não apenas formular bem os prompts iniciais, mas, também, utilizar perguntas de acompanhamento para refinar e ajustar as informações recebidas. Prompt ruim: "Como faço análise de dados?" Problema com o prompt: Este prompt é muito genérico e não especifica o tipo de análise, os dados em questão ou o objetivo da análise. O ChatGPT pode fornecer uma resposta básica e ampla que pode não ser útil para sua necessidade específica. Prompt correto: "Quais são as melhores práticas para aplicar análise preditiva em grandes conjuntos de dados no setor de varejo?" Feedback/Acompanhamento: "Baseado na sua resposta, como posso lidar com o problema de overfitting em modelos preditivos para previsão de tendências de compra dos consumidores?" Melhoria no prompt: o prompt inicial é específico, abordando um setor e um tipo de análise. A pergunta de acompanhamento baseia-se naresposta inicial para explorar um aspecto técnico específico (overfitting), proporcionando uma oportunidade para o ChatGPT oferecer informações mais profundas e detalhadas. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 38 5. Uso estratégico de argumentos e opções A seleção cuidadosa de argumentos e opções é essencial para maximizar tanto a eficiência quanto a eficácia de um prompt. Isso envolve escolher palavras-chave relevantes, aplicar filtros apropriados ou definir parâmetros que direcionam o sistema de IA a fornecer um tipo específico de resposta que procura. Complementando, a escolha do tempo verbal também desempenha um papel crucial: utilize verbos no presente para questões sobre informações atuais e no passado para referências históricas. As palavras-chave devem ser precisas e pertinentes ao tópico, garantindo foco e relevância na interação. Para otimizar ainda mais seus prompts, comece a pergunta com um verbo, seguido dos detalhes necessários, criando um contexto claro e específico para a situação. Ao usar verbos para indicar comandos, estará fornecendo direções mais claras ao ChatGPT, o que aumenta a probabilidade de receber respostas relevantes e úteis para suas necessidades. Além disso, um prompt eficaz deve direcionar claramente o usuário para a ação ou resposta desejada. Utilize instruções explícitas e verbos de ação específicos para guiar o usuário sobre o que fazer em seguida. Evite enunciados vagos ou ambíguos que possam resultar em mal-entendidos ou interpretações errôneas. Isso é especialmente importante em interfaces de usuário onde a clareza na comunicação pode impactar significativamente a experiência do usuário e a eficácia da interação. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 39 Um gerente de projetos em uma empresa de desenvolvimento de software está trabalhando em um projeto complexo que envolve várias tecnologias e metodologias. Ele está utilizando o ChatGPT para obter orientações sobre as melhores práticas de gerenciamento de projetos em ambientes ágeis. Para maximizar a eficiência de suas interações com o ChatGPT, é essencial aplicar um uso estratégico de argumentos e opções nos seus prompts. Prompt ruim: "Como gerenciar projetos?" Problema com o prompt: Este prompt é muito vago e não especifica o tipo de projeto, a metodologia de gerenciamento ou os desafios específicos enfrentados. O ChatGPT pode fornecer uma resposta genérica que pode não ser aplicável ao seu projeto de software. Prompt correto: "Quais são as estratégias eficazes para gerenciar projetos de software ágeis que envolvem equipes distribuídas globalmente, considerando a comunicação e a colaboração entre diferentes fusos horários?" Melhoria no prompt: Este prompt é específico e inclui vários argumentos importantes: o tipo de projeto de software (metodologia ágil), a configuração da equipe (distribuída globalmente) e os desafios específicos (comunicação e colaboração entre fusos horários). Isso permite que o ChatGPT forneça recomendações focadas e relevantes para o seu cenário específico. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 40 6. Uso de tonalidade e temperamento na escrita O tom e a escolha de palavras na conversa são fundamentais para manter uma interação tanto respeitosa quanto profissional. É essencial evitar uma linguagem demasiadamente informal que possa comprometer a eficácia da comunicação. No uso do ChatGPT, a aplicação de diferentes temperamentos ou tons na escrita pode afetar consideravelmente a natureza das respostas e a dinâmica da interação com o modelo. O temperamento diz respeito ao modo como a linguagem é utilizada, abrangendo o estilo ou a atitude refletida nas respostas. Variações no tom de escrita podem ser adaptadas de acordo com o contexto específico, o propósito da conversa e as preferências individuais do usuário. Diversos temperamentos podem ser empregados no ChatGPT, incluindo, mas não se limitando a, formal, amigável, autoritário, humorístico e neutro. Cada um desses estilos possui características únicas, podendo criar atmosferas distintas na conversa, como contextos profissionais ou acadêmicos podem exigir um tom mais formal para assegurar seriedade e credibilidade, enquanto situações mais informais e descontraídas podem se beneficiar de um estilo amigável para estabelecer uma conexão mais próxima com o usuário. Além da escolha do temperamento, a tonalidade da escrita também pode ser ajustada em termos de assertividade, empatia e capacidade de persuasão. Estes elementos são fundamentais para moldar a maneira como as informações são apresentadas e podem influenciar significativamente a reação emocional e a percepção dos usuários em relação às respostas fornecidas. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 41 Você trabalha no suporte técnico de uma empresa de software, lidando com clientes que têm variados níveis de conhecimento técnico. Você está utilizando o ChatGPT para gerar respostas a perguntas frequentes dos clientes. Neste cenário, é vital escolher a tonalidade e o temperamento adequados na escrita para comunicar-se de forma eficaz com os diferentes tipos de clientes. Prompt ruim: "Meu software não funciona. O que devo fazer?" Problema com o prompt: Este prompt é vago e usa uma linguagem casual, o que pode não ser adequado para um contexto de suporte técnico onde precisão e clareza são essenciais. Falta contexto e detalhes específicos sobre o problema. Prompt correto: "Sou um usuário iniciante e estou tendo dificuldades para iniciar o software XYZ após a instalação. Aparece uma mensagem de erro sobre uma falha de configuração. Qual é o procedimento recomendado para solucionar esse problema?" Melhoria no prompt: Este prompt é claro e oferece um contexto específico, incluindo o nível de conhecimento do usuário (iniciante) e a natureza exata do problema (mensagem de erro após a instalação). O tom é formal e educado, adequado para um ambiente de suporte técnico e a pergunta é direcionada para uma solução específica, o que facilita uma resposta mais precisa e útil do ChatGPT. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 42 7. Assumindo papéis - personagens e especialidades Ao interagir com o ChatGPT, pode ser muito eficaz indicar que ele assuma um "papel" específico na descrição doprompt. Ao fornecer um contexto adicional que sugere uma persona particular, direciona o chatbot a adotar características, comportamentos e habilidades típicas de pessoas em determinadas profissões ou situações. Ao fazer isso, não estará apenas personalizando a interação, mas também orientando o chatbot a acessar e aplicar padrões estatísticos e comportamentais que são comuns a um nicho, grupo ou personalidade específica na sua base de dados. Por exemplo, pode pedir ao ChatGPT para responder como um professor experiente, um técnico de TI ou um especialista em saúde, dependendo do contexto da sua pergunta. Ao adotar essas personas, o ChatGPT pode fornecer respostas que refletem o tipo de linguagem, o nível de detalhamento e a abordagem que seriam esperados desses profissionais. É importante lembrar, no entanto, que o ChatGPT não pode replicar perfeitamente esses estilos ou o conhecimento profundo de um especialista real. Embora possa se aproximar desses estilos em termos de tom e conteúdo quando solicitado, suas respostas são limitadas pela natureza e pela qualidade dos dados em que foi treinado. Portanto, embora a personalização do prompt possa melhorar a relevância e o direcionamento das respostas, é sempre essencial avaliar e complementar essas informações com conhecimento e insights humanos. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 43 Suponha que um consultor de marketing digital está buscando aprimorar suas estratégias para clientes em diferentes setores e decide usar o ChatGPT para obter insights e conselhos específicos, simulando a interação com especialistas em várias áreas do marketing digital. Prompt ruim: "Como posso melhorar o marketing digital?" Problema com o prompt: Este prompt é extremamente genérico e não especifica qual aspecto do marketing digital deseja melhorar. Sem um foco claro, o ChatGPT pode fornecer uma resposta ampla e pouco útil. Prompt correto: "Assuma o papel de um especialista em SEO com foco em e-commerce. Quais são as três principais estratégias de SEO que recomendaria para melhorar o ranking de uma loja online de telefonia?" Melhoria no prompt: Ao pedir ao ChatGPT para assumir o papel de um especialista específico em SEO para e-commerce, o prompt se torna mais direcionado. Isso encoraja o sistema a fornecer respostas que refletem o conhecimento e as práticas recomendadas específicas para otimização de mecanismos de busca no setor de e-commerce de informática. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 44 8. Reaproveite parâmetros da conversa É essencial manter um registro contínuo das suas interações com o ChatGPT. Ao compreender e utilizar os comandos de forma efetiva, pode aumentar progressivamente a utilidade do chatbot. Em vez de abordá-lo como uma simples ferramenta de busca, iniciando uma nova consulta a cada interação, o ideal é manter e desenvolver tópicos de conversas ao longo do tempo. Cada interação, refinamento de dados e detalhes adicionados a uma conversa específica enriquecem o contexto disponível para o chatbot, aprimorando a sua capacidade de fornecer respostas cada vez mais relevantes e precisas. É importante compreender que o chatbot se aprimore e "treine" continuamente. Portanto, ao retomar uma conversa anterior sobre um tópico já abordado, o ChatGPT pode utilizar as informações previamente discutidas para fornecer respostas mais precisas e contextualizadas. Por exemplo, se treinou o ChatGPT em uma conversa específica para discutir as características e vantagens de um produto, essa informação permanece útil para consultas futuras dentro da mesma conversa. Se decidir iniciar uma nova conversa, ao invés de continuar a anterior, será necessário reabastecer o prompt com o contexto e os refinamentos de resposta previamente estabelecidos. Isso equivale a começar do zero, ignorando toda a história e o desenvolvimento de conversas anteriores. Em tais casos, o chatbot agirá como se fosse a primeira vez que está abordando o assunto, perdendo a vantagem do contexto acumulado e das nuances já estabelecidas na conversa anterior. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 45 Imagine que um desenvolvedor de software está trabalhando em um aplicativo de saúde que rastreia e analisa a dieta e a atividade física dos usuários. Ele está utilizando o ChatGPT para obter informações sobre integração de dados de saúde, privacidade do usuário e melhores práticas de UX/UI para aplicativos de saúde. Prompt ruim: "Como fazer um aplicativo?" Problema com o prompt: Este prompt é extremamente genérico e não se baseia em interações anteriores. Falta especificidade sobre o tipo de aplicativo ou as informações que precisa. Prompt correto: "Na nossa última conversa, discutimos sobre a integração de dados de atividade física no aplicativo de saúde. Com base nisso, quais seriam as melhores práticas para garantir a privacidade dos dados dos usuários ao implementar essa funcionalidade?" Melhoria no prompt: Este prompt é eficaz, pois se baseia em informações de conversas anteriores, permitindo que o ChatGPT utilize o contexto já estabelecido para fornecer uma resposta mais direcionada e profunda. Ao fazer referência a discussões anteriores, ajuda o chatbot a entender melhor a continuidade da sua necessidade e a fornecer informações mais relevantes sobre a privacidade dos dados em aplicativos de saúde. D oc um en to a ss in ad o el et ro ni ca m en te . V er ifi ca çã o no s ite h ttp s: //p 91 .fa ct i.c om .b r/ pa e/ va lid ac ao .h tm l, in fo rm an do o c ód ig o ve rif ic ad or P A E 2- 58 82 -5 75 5- 89 14 -1 56 4- 95 95 e o có di go C R C D R JI JX E N . Engenharia de Prompt com ChatGPT 46 9. Educação e sensibilidade ética e cultural A educação dos usuários em como interagir eficientemente com sistemas de IA é um aspecto crucial, principalmente para aqueles que são novatos no campo da tecnologia ou que estão se aventurando pela primeira vez com modelos de linguagem avançados. Esta educação pode incluir orientações sobre como formular prompts de maneira eficaz, entendendo a importância de ser específico, claro e contextualizado nas suas solicitações. Além da competência técnica, a sensibilidade a questões éticas e culturais na formulação de prompts é igualmente importante. Isso envolve escolher palavras e tons que sejam respeitosos e considerados, evitando linguagem que possa ser ofensiva, insensível ou que perpetue estereótipos e vieses. A sensibilidade cultural é particularmente vital em um ambiente globalizado, em que os sistemas de IA podem interagir com uma ampla gama de usuários de diferentes culturas e contextos. Prompts que levam em consideração a diversidade cultural e as normas éticas podem não apenas evitar mal-entendidos, mas também promover uma interação mais inclusiva e respeitosa. Uma abordagem bem-sucedida na criação de prompts eficientes
Compartilhar