Buscar

O ChatGPT leu quase toda a internet Isso não resolve seus problemas de diversidade

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1/2
O ChatGPT leu quase toda a internet. Isso não resolve seus
problemas de diversidade
Os modelos atuais de IA exibiram alguma forma de raciocínio de senso comum. Se você perguntar à versão mais
recente do ChatGPT sobre a torta de lama de uma criança e um adulto, ela pode diferenciar corretamente entre
sobremesa e um rosto cheio de sujeira com base no contexto. Mas está longe de ser perfeito.
Os modelos de linguagem AI estão crescendo. O atual favorito é o ChatGPT, que pode fazer tudo, desde fazer um
exame de bar, até criar uma política de RH, escrever um roteiro de filme.
Mas ele e outros modelos ainda não podem raciocinar como um ser humano. Nesta sessão de perguntas e
respostas, Dr. Vered Shwartz (ela), professor assistente do departamento de ciência da computação da UBC, e o
estudante de mestrado Mehar Bhatia (ela) explicam por que o raciocínio pode ser o próximo passo na IA – e por que
é importante treinar esses modelos usando diversos conjuntos de dados de diferentes culturas.
O que é “racional” para a IA?
Shwartz: Grandes modelos de linguagem como o ChatGPT aprendem lendo milhões de documentos,
essencialmente toda a internet, e reconhecendo padrões para produzir informações. Isso significa que eles só
podem fornecer informações sobre as coisas que estão documentadas na internet. Os seres humanos, por outro
lado, são capazes de usar o raciocínio. Usamos a lógica e o bom senso para descobrir significado além do que é
explicitamente dito.
Bhatia: Aprendemos habilidades de raciocínio desde o nascimento. Por exemplo, sabemos não ligar o liquidificador
às 2 da manhã porque vai acordar todos. Nós não somos ensinados isso, mas é algo que você entende com base
2/2
na situação, seu ambiente e seu entorno. No futuro próximo, os modelos de IA lidarão com muitas de nossas tarefas.
Não podemos codificar todas as regras de senso comum nesses robôs, então queremos que eles entendam a coisa
certa a fazer em um contexto específico.
Shwartz: Arraste o raciocínio de senso comum para modelos atuais como o ChatGPT os ajudaria a fornecer
respostas mais precisas e, assim, criar ferramentas mais poderosas para os humanos usarem. Os modelos atuais
de IA exibiram alguma forma de raciocínio de senso comum. Por exemplo, se você perguntar à versão mais recente
do ChatGPT sobre a torta de lama de uma criança e um adulto, ela pode diferenciar corretamente entre sobremesa
e um rosto cheio de sujeira com base no contexto.
Onde os modelos de linguagem AI falham?
Shwartz: O raciocínio de senso comum nos modelos de IA está longe de ser perfeito. Só chegaremos tão longe
treinando grandes quantidades de dados. Os seres humanos ainda precisarão intervir e treinar os modelos, inclusive
fornecendo os dados corretos.
Por exemplo, sabemos que o texto em inglês na web é em grande parte da América do Norte, de modo que os
modelos de língua inglesa, que são os mais comumente usados, tendem a ter um viés norte-americano e correm o
risco de não saber sobre conceitos de outras culturas ou de perpetuar estereótipos. Em um artigo recente,
descobrimos que o treinamento de um modelo de raciocínio de senso comum sobre dados de diferentes culturas,
incluindo índia, Nigéria e Coréia do Sul, resultou em respostas mais precisas e culturalmente informadas.
Bhatia: Um exemplo incluiu mostrar ao modelo uma imagem de uma mulher na Somália recebendo uma tatuagem
de henna e perguntar por que ela pode querer isso. Quando treinada com dados culturalmente diversos, a modelo
sugeriu corretamente que ela estava prestes a se casar, enquanto anteriormente havia dito que queria comprar
henna.
Shwartz: Também encontramos exemplos de ChatGPT sem consciência cultural. Quando dada uma situação
hipotética em que um casal derrubou quatro por cento em um restaurante na Espanha, a modelo sugeriu que eles
podem ter ficado insatisfeitos com o serviço. Isso pressupõe que a cultura de gorjeta norte-americana se aplica na
Espanha quando, na verdade, a gorjeta não é comum no país e uma gorjeta de 4% provavelmente significava um
serviço excepcional.
Por que precisamos garantir que a IA seja mais inclusiva?
Shwartz: Modelos de linguagem são onipresentes. Se esses modelos assumirem o conjunto de valores e normas
associados à cultura ocidental ou norte-americana, suas informações para e sobre pessoas de outras culturas
podem ser imprecisas e discriminatórias. Outra preocupação é que pessoas de diversas origens usando produtos
alimentados por modelos ingleses teriam que adaptar suas entradas às normas norte-americanas ou então elas
poderiam obter desempenho abaixo do ideal.
Bhatia: Queremos que essas ferramentas para todos lá fora usem, não apenas um grupo de pessoas. O Canadá é
um país culturalmente diverso e precisamos garantir que as ferramentas de IA que alimentam nossas vidas não
estejam refletindo apenas uma cultura e suas normas. Nossa pesquisa em andamento visa promover a inclusão, a
diversidade e a sensibilidade cultural no desenvolvimento e implantação de tecnologias de IA.
https://aclanthology.org/2023.emnlp-main.496/

Continue navegando