Baixe o app para aproveitar ainda mais
Prévia do material em texto
1/2 O ChatGPT leu quase toda a internet. Isso não resolve seus problemas de diversidade Os modelos atuais de IA exibiram alguma forma de raciocínio de senso comum. Se você perguntar à versão mais recente do ChatGPT sobre a torta de lama de uma criança e um adulto, ela pode diferenciar corretamente entre sobremesa e um rosto cheio de sujeira com base no contexto. Mas está longe de ser perfeito. Os modelos de linguagem AI estão crescendo. O atual favorito é o ChatGPT, que pode fazer tudo, desde fazer um exame de bar, até criar uma política de RH, escrever um roteiro de filme. Mas ele e outros modelos ainda não podem raciocinar como um ser humano. Nesta sessão de perguntas e respostas, Dr. Vered Shwartz (ela), professor assistente do departamento de ciência da computação da UBC, e o estudante de mestrado Mehar Bhatia (ela) explicam por que o raciocínio pode ser o próximo passo na IA – e por que é importante treinar esses modelos usando diversos conjuntos de dados de diferentes culturas. O que é “racional” para a IA? Shwartz: Grandes modelos de linguagem como o ChatGPT aprendem lendo milhões de documentos, essencialmente toda a internet, e reconhecendo padrões para produzir informações. Isso significa que eles só podem fornecer informações sobre as coisas que estão documentadas na internet. Os seres humanos, por outro lado, são capazes de usar o raciocínio. Usamos a lógica e o bom senso para descobrir significado além do que é explicitamente dito. Bhatia: Aprendemos habilidades de raciocínio desde o nascimento. Por exemplo, sabemos não ligar o liquidificador às 2 da manhã porque vai acordar todos. Nós não somos ensinados isso, mas é algo que você entende com base 2/2 na situação, seu ambiente e seu entorno. No futuro próximo, os modelos de IA lidarão com muitas de nossas tarefas. Não podemos codificar todas as regras de senso comum nesses robôs, então queremos que eles entendam a coisa certa a fazer em um contexto específico. Shwartz: Arraste o raciocínio de senso comum para modelos atuais como o ChatGPT os ajudaria a fornecer respostas mais precisas e, assim, criar ferramentas mais poderosas para os humanos usarem. Os modelos atuais de IA exibiram alguma forma de raciocínio de senso comum. Por exemplo, se você perguntar à versão mais recente do ChatGPT sobre a torta de lama de uma criança e um adulto, ela pode diferenciar corretamente entre sobremesa e um rosto cheio de sujeira com base no contexto. Onde os modelos de linguagem AI falham? Shwartz: O raciocínio de senso comum nos modelos de IA está longe de ser perfeito. Só chegaremos tão longe treinando grandes quantidades de dados. Os seres humanos ainda precisarão intervir e treinar os modelos, inclusive fornecendo os dados corretos. Por exemplo, sabemos que o texto em inglês na web é em grande parte da América do Norte, de modo que os modelos de língua inglesa, que são os mais comumente usados, tendem a ter um viés norte-americano e correm o risco de não saber sobre conceitos de outras culturas ou de perpetuar estereótipos. Em um artigo recente, descobrimos que o treinamento de um modelo de raciocínio de senso comum sobre dados de diferentes culturas, incluindo índia, Nigéria e Coréia do Sul, resultou em respostas mais precisas e culturalmente informadas. Bhatia: Um exemplo incluiu mostrar ao modelo uma imagem de uma mulher na Somália recebendo uma tatuagem de henna e perguntar por que ela pode querer isso. Quando treinada com dados culturalmente diversos, a modelo sugeriu corretamente que ela estava prestes a se casar, enquanto anteriormente havia dito que queria comprar henna. Shwartz: Também encontramos exemplos de ChatGPT sem consciência cultural. Quando dada uma situação hipotética em que um casal derrubou quatro por cento em um restaurante na Espanha, a modelo sugeriu que eles podem ter ficado insatisfeitos com o serviço. Isso pressupõe que a cultura de gorjeta norte-americana se aplica na Espanha quando, na verdade, a gorjeta não é comum no país e uma gorjeta de 4% provavelmente significava um serviço excepcional. Por que precisamos garantir que a IA seja mais inclusiva? Shwartz: Modelos de linguagem são onipresentes. Se esses modelos assumirem o conjunto de valores e normas associados à cultura ocidental ou norte-americana, suas informações para e sobre pessoas de outras culturas podem ser imprecisas e discriminatórias. Outra preocupação é que pessoas de diversas origens usando produtos alimentados por modelos ingleses teriam que adaptar suas entradas às normas norte-americanas ou então elas poderiam obter desempenho abaixo do ideal. Bhatia: Queremos que essas ferramentas para todos lá fora usem, não apenas um grupo de pessoas. O Canadá é um país culturalmente diverso e precisamos garantir que as ferramentas de IA que alimentam nossas vidas não estejam refletindo apenas uma cultura e suas normas. Nossa pesquisa em andamento visa promover a inclusão, a diversidade e a sensibilidade cultural no desenvolvimento e implantação de tecnologias de IA. https://aclanthology.org/2023.emnlp-main.496/
Compartilhar