As IAs generativas, como o ChatGPT, revolucionaram a forma como lidamos com texto, ideias, automação e criatividade. No entanto, sua atuação é puramente baseada em predição estatística: elas não têm consciência, valores, julgamento ético ou senso crítico. Isso significa que toda responsabilidade sobre o que se pede, como se pede e o que se faz com a resposta continua sendo exclusivamente humana.
É papel do usuário guiar, revisar, refinar e refletir sobre as respostas geradas. Se a pergunta for enviesada, a resposta também será. Se a pergunta for mal formulada, a resposta será rasa. A IA não corrige seu raciocínio — ela replica padrões.
Com base nisso, qual das alternativas abaixo expressa corretamente a responsabilidade do ser humano ao usar Modelos de Linguagem de Grande Escala (LLMs)?
Selecione a resposta:
Ed
há 2 meses
A alternativa que expressa corretamente a responsabilidade do ser humano ao usar Modelos de Linguagem de Grande Escala (LLMs) é: c) Cabe ao ser humano revisar criticamente o conteúdo gerado, evitando reforço de viéses e assegurando o uso ético da resposta. Essa opção destaca a importância da supervisão humana na utilização de IAs generativas, enfatizando que a responsabilidade ética e a crítica são fundamentais para garantir um uso adequado e consciente das respostas geradas.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade