Buscar

Paradoxos da inteligência artificial

Prévia do material em texto

PARADOXOS DA INTELIGÊNCIA ARTIFICIAL
Diego Alves da Silva[footnoteRef:1] [1: Graduado em Letras: Português e Inglês; Graduado em Engenharia de Controle e Automação; Pós graduado em Libras LIBRAS e Pós graduado em Psicopedagogia Institucional e Clínica.] 
Setembro/2020
A essa altura do campeonato todo mundo já ouviu alguém falar da palavra algoritmo. É comum essa palavra aparecer em vários ambientes aos quais frequentamos, seja falando de filmes de ficção, seja falando de temas mais complexos; e há que se considerar aqui que cada vez mais se vai perceber uma presença ainda maior até alcançar todas as áreas do fazer humano, ele está presente nas redes sociais, ferramentas de internet, automação e cada vez ganha mais espaço nos processos de tomada de decisões por gestores dos mais diversos campos em vários lugares do mundo.
Mesmo com a fama cada vez maior, poucas pessoas, ainda que em escolas de computação ou matemática conseguem entender o que afinal é o algoritmo. Segundo definições do dicionário de Oxford: “conjunto das regras e procedimentos lógicos perfeitamente definidos que levam à solução de um problema em um número finito de etapas.” Trata-se de uma função matemática escrita para analisar valores ou dados obtidos. 
Quando se traz o estudo do algoritmo para o campo de observação do machine learning, há que se imaginar um algoritmo não apenas capaz de calcular, mas de aprender também com os cálculos que fez, e com os resultados obtidos. Trata-se de um aprendizado adquirido a partir da observação de sequência de dados de bilhões de interações, orientado a Inteligência Artificial (IA) em seu padrão de comportamento. Constroem-se expressões matemáticas capazes de considerar um número infinito de linhas e colunas de uma matriz indicando um resultado, uma probabilidade, por meio de análise computacional estatística sofisticada, com cálculos que seriam impossíveis de serem feitos por seres humanos.
 Sabe-se que o estudo da estatística é um conhecimento matemático que há muito tempo recebe a atenção de estudiosos e já é dominado pelo homem, e que esse conhecimento é o que é utilizado para elaborar algoritmos que buscam padrões de comportamento. Quando se refere a algoritmo de machine learning, esse algoritmo busca, dentro de uma análise estatística matricial, os padrões em dados e aprende com eles. Em matemática, uma matriz representa os dados de uma tabela. Elas variam de tamanho indo de uma única coluna até um número infinito de colunas, assim como de uma linha até um número infinito de linhas, podendo, portanto, trazer em si um número infinito de informações.
Por meio de algoritmos de machine learning, a máquina é capaz de reconhecer, identificar e apontar semelhanças. Os dados obtidos dos cruzamentos das linhas com as colunas, são comparados com todos os múltiplos dados disponíveis, assim como com as demais colunas e linhas. A análise estatística, carregada no código de programação matricial, permite dizer qual a probabilidade de um determinado conjunto de dados dessa matriz ser possivelmente compatível com outra linha de dado da matriz. 
O processo de machine learning não acontece simplesmente identificando similaridade, segue-se ainda o processo de verificação, quando ele começa a testar as possíveis ações e decisões baseadas apenas nos modelos os quais ele pode se apropriar. Novas interações são formadas pela IA, porém, a partir do resultado obtido com cada proposta elaborada pela IA para interagir, ela, num processo contínuo de verificação e agrupamento, começa a eliminar possibilidades que não deram certo de seu arcabouço de opções, tornando-se cada vez mais próximo daquelas combinações que tem efeito desejado para o algoritmo.
Em estatística, traduz-se esse efeito desejado em um número que vai de 0 a 1. Para os casos em que ele está acima de 0,5, tem-se a probabilidade positiva de que a combinação proposta para interação poder ter o efeito desejado. Quanto mais próximo de 1 maior a probabilidade, para casos menores do que 0,5 considera-se que ela não tem probabilidade de se encaixar naquele padrão definido e quanto mais próximo de zero menor essa chance.
Pela lógica matemática que segue o algoritmo, única lógica que conhece, ele vai observar melhores bilhões de dados em uma matriz, vai identificar a presença de padrões, vai classificá-los pela probabilidade de que eles possam pertencer ao mesmo grupo baseando-se nos dados de interações que ele já tem. Mas, mesmo sendo uma análise sofisticada baseada em dados que resulta no machine learning ele não é capaz de ter certeza de que aquela associação apontada como padrão pode significar uma relação válida. A IA simplesmente indica similaridades as quais foi programada para identificar e estabelece os grupos. Se a IA consegue estabelecer relações entre dados, estabelecendo os grupos, isso não indica necessariamente uma relação significativa, essa análise depende de quais indicadores foram programados para serem lido pelo algoritmo.
 Uma vez lida pelo algoritmo, ele vai se tornando, por meio das técnicas de machine learning cada vez mais sofisticado e cada vez mais entendedor das variações as quais ele conseguiu identificar os padrões nos comportamentos analisados. Ele vai saber cada vez mais as informações adequadas para responder às interações, e a cada interação, inadequada ou adequada, vai se tornando um exímio usuário. Entretanto observa-se que ao analisar dados de fala utilizando análise computacional da linguagem natural percebe-se que um algoritmo absorve milhões e milhões e milhões de interações e utiliza todas elas para construir o modelo padrão de interação que possa satisfazer o usuário. Por mais que essas alterações sejam também personalizadas a nível do usuário é impossível imaginar o algoritmo dando conta de todos os aspectos da interação humana, uma vez que essa interação não pode se comprimir a uma expressão matemática. 
A análise do algoritmo vai promover a busca constante por um padrão de informações que vai levar a uma curva de comportamento, e, também vai identificar pontos fora dessa curva de comportamento. Pela natureza estatística do algoritmo, ele vai trabalhar a fim de interagir com aqueles que estão fora da curva, buscando os aproximar sempre de seu modelo localizado dentro da curva. Para sugerir correções com os modelos fora dessa curva sua tendência é que os pontos fora da curva com o tempo de uso de contato / contato tendam a voltar para a curva. Logo, cabe-se pensar ainda mais como uma padronização, uma massificação do comportamento linguístico. 
Quando se pensa na análise desse comportamento emotivo vale a mesma coisa, um algoritmo é capaz de promover um agrupamento de milhares de interações baseando-se em similaridade, entretanto ele não é capaz de dizer se essas relações encontradas a partir da análise de dados linguísticos trata se de emoções específicas a serem indicadas. É preciso que haja uma construção de um algoritmo baseado em indicadores específicos dos aspectos emocionais, e isso no máximo permitirá aos pesquisadores identificar os padrões.
Prever ações para aqueles que estão fora da curva utilizando os dados obtidos a partir daqueles que estão dentro dos padrões de comportamento pode gerar também uma massificação do comportamento psicológico coletivo gerando riscos para a saúde psicológica coletiva de uma população. As diversidades de cada um, os conflitos internos, na forma como cada um vive com suas respectivas personalidades e experienciam o mundo não podem ser tratadas maciçamente, muito menos controladas a partir de dados obtidos por um algoritmo uma vez que são decisões muito importantes sobre a vida do ser humano e referem-se a espaços específicos onde eu talvez o algoritmo não deva chegar.

Continue navegando