Prévia do material em texto
1 *Pós-Graduanda no MBA em Propaganda, Marketing e Comunicação Integrada da Universidade Estácio de Sá, formada em Tecnologia de Marketing pela Universidade Regional de Blumenau. E-mail lu.marqueslima@gmail.com. Como o marketing pode driblar o racismo algorítmico: um estudo sobre os vieses racistas nas redes sociais Luiza Marques Lima* Resumo Os algoritmos são a base da sociedade moderna: estão presentes nas redes sociais, nas câmeras, celulares nas automações da sua casa, em todas as redes sociais, na televisão, em sistemas simples e complexos. Atuam na formação de opiniões públicas, geram alterações no espaço e no tempo e influenciam desde comportamentos inofensivos, até os mais perigosos. Atualmente, o aprendizado de máquina não mais se limita à ação humana, pois por meio dos seus conjuntos de dados e combinações, aprimora-se de forma ininterrupta. Porém, esse deve ser um ponto de atenção, pois num mundo onde o capitalismo coleta e armazena dados de forma desenfreada, muitas vezes os algoritmos são utilizados de maneira errônea e tendenciosa e podem apresentar padrões algorítmicos enviesados, que são capazes de reproduzir a discriminação algorítmica. Nesse contexto, as problemáticas condutoras da presente pesquisa são: como ocorre a discriminação algorítmica nas redes sociais? Como profissionais do marketing podem driblar o racismo algorítmico? O que fazer para torná-lo não discriminatório? Para responder aos questionamentos, utiliza-se metodologia qualitativa, de caráter dedutivo, sendo consolidado por pesquisa bibliográfica aliada à documental. Por meio da investigação qualitativa, documental e bibliográfica, será testada a hipótese de que profissionais de marketing possuem o poder de mudar a forma como o algoritmo aprende, alterando consequentemente, o alcance, remuneração e mudando de fato, o viés racistas e discriminatório que hoje se encontra nas redes sociais. Palavras-chave: Racismo algorítmico; Viés racista, Redes Sociais, Marketing. Introdução Os algoritmos estão cada vez mais presentes no dia a dia das pessoas. O marketing é uma das áreas que mais se utiliza deles para criação de campanhas e aumento de vendas, por exemplo. Ao invés de implementar rotinas e treinamentos à mão, a máquina hoje é treinada com uma grande quantidade de dados e algoritmos, dando a ela a habilidade de captar, aprender e executar tarefas de maneira autônoma. Os algoritmos fazem parte do que chamamos de inteligência artificial e apresentam grande sucesso e alto desempenho, principalmente para detectar padrões e prever resultados. Porém, seu uso desenfreado e sem uma legislação que o regulamente, pode causar problemas à sociedade, devido a grande probabilidade de enviesamento, o que gera algoritmos que discriminam pessoas e vivências, de forma geral. 2 Fazendo um recorte, as principais questões apontadas por este artigo são: como ocorre a discriminação algorítmica nas redes sociais? Como profissionais do marketing podem driblar o racismo algorítmico? O que fazer para torná-lo não discriminatório? Para responder aos questionamentos, utiliza-se metodologia qualitativa, de caráter dedutivo, sendo consolidado por pesquisa bibliográfica aliada à documental. A hipótese a ser testada é de que profissionais de marketing possuem o poder de mudar a forma como o algoritmo aprende, alterando consequentemente, o alcance, remuneração e mudando de fato, os vieses racistas e/ou discriminatórios (machistas, sexistas) que hoje se encontram nas redes sociais. Para solucionar o problema, esta grande área demanda de transparência e trabalho mútuo entre empresas de tecnologia e profissionais da área, para a criação de um ambiente online saudável e soluções que não sejam excludentes. 1 Como os algoritmos funcionam e sua relação com a publicidade 1.1 Compreendendo o funcionamento de um algoritmo O conceito de algoritmo é bastante antigo e embora seja vinculado atualmente à Tecnologia da Informação, ele é mais abrangente e existe independente de qualquer linguagem de programação. O termo “algoritmo”, pode ser entendido como uma sequência de raciocínios, instruções ou operações para alcançar um objetivo. Para tanto, é necessário que seus passos sejam operados sistematicamente e de maneira finita. Num sentido amplo, podemos falar de algoritmos como “(...) estruturas codificadas para a transformação de uma entrada de dados, numa desejável saída, baseada em cálculos específicos” (Gillispie, 2014, p.167). Basicamente, um algoritmo é uma programação projetada para seguir uma sequência específica e resolver determinados problemas, da maneira que foi programado e de forma automática. Algoritmos não trabalham de maneira isolada e segundo Silveira (2019), “Os algoritmos nunca estão sós. Fazem parte de uma rede de actantes”, ou seja, para compreender o funcionamento de um algoritmo, devemos pensar que eles fazem parte de uma cadeia que é alimentada a partir de dados, formando um sistema algorítmico. Esse tipo de sistema pode ou não seguir regras de como executar ações, a partir de informações que recebem, bem como realizar combinações e correlações de dados, criando operações com regras que antes não haviam sido fixadas, gerando o que chamamos de inteligência artificial. 3 Pode-se considerar como inteligência artificial: “(...) a confecção de máquinas com capacidade de aprender sendo estas programadas previamente, fazendo uso de algoritmos bem elaborados e complexos que proporcionem a tomada de decisões, especulações e até interações baseadas nos dados fornecidos.” (DAMACENO; VASCONCELOS 2018, p. 12). A inteligência artificial se utiliza modelos computacionais, para traçar previsões sobre uma determinada variável. Seu objetivo é aprender continuamente com os novos dados a fim de melhorar suas previsões. Seu sistema é capaz de absorver, analisar e organizar dados para identificar padrões, objetos, pessoas etc. Segundo Gunning e Aha (2019), a inteligência artificial envolve modelos de redes neurais artificiais, bem como modelos gráficos, de aprendizagem profunda, probabilísticos entres outros. Por isso também, a inteligência artificial apresenta grande sucesso e alto desempenho, principalmente para detectar padrões e prever resultados. Ao invés de implementar rotinas e treinamentos à mão, a máquina é treinada com uma grande quantidade de dados e algoritmos, dando a ela a habilidade de captar, aprender e executar tarefas de maneira autônoma. A inteligência artificial pode ser subdividida e abarca os conceitos de machine learning e deep learning. O processo de aprendizagem computacional é chamado de machine learning. Já deep learning, é o que chamamos de aprendizagem profunda. Esses tipos de sistemas de inteligência artificial apresentam grande sucesso em áreas como robótica, diagnósticos, biometria, mineração de dados etc., pois são capazes de ter esse processo de aprendizagem. Deep learning, é uma sub-área da aprendizagem de máquina. Ela é formada por algoritmos complexos, englobados numa rede parecida com nossos neurônios. Essas redes são alimentadas com uma grande quantidade de informações. Esse tipo de aprendizagem é capaz de realizar atividades complexas e extremamente avançadas, sem a interferência humana, como a classificação e reconhecimento de imagens, por exemplo. Atualmente, o aprendizado de máquina não mais se limita à ação humana, pois por meio dos seus conjuntos de dados e combinações, aprimora-se de forma ininterrupta. Porém, esse deve ser um ponto de atenção. No mundo capitalista onde a coleta e armazenamento de dados é realizada de forma desenfreada, a fim de alimentar um sistema opressor, a inteligência artificial, muitas vezes é utilizada de maneira errônea e tendenciosa. 4 Os algoritmos estão tão presentes no nosso dia a dia, que muitas vezes podem parecer invisíveis.Porém, eles atuam na formação de opiniões públicas, geram alterações no espaço e no tempo. Estão presentes no seu celular, nas automações da sua casa, em todas as redes sociais, na televisão, nas câmeras, em sistemas simples e complexos. Eles podem ajudar a definir qual tipo de anúncio você verá, qual vaga de trabalho será direcionada a você, qual filme você assistirá, ou qual tratamento receberá em determinado ambiente, além de influenciar a disputa de preferências políticas, por exemplo. Ou seja: eles podem e influenciam desde comportamentos inofensivos, até os mais perigosos. Shoshana Zuboff (2019), psicóloga social e professora da Harvard Business School nos chama atenção para o fato de que em nenhum outro momento da história, as empresas privadas tiveram à disposição uma arquitetura capaz de acumular tantos dados sobre os indivíduos e populações. Dito isso, a autora ressalta o termo “capitalismo de vigilância”, que nada mais é do que o acesso a sistemas digitais que observam nossos comportamentos e atividades e monitoram nossas personalidades e vulnerabilidades, para alimentar a inteligência artificial e moldar mercados, não só na esfera online, como também, no mundo real. Pasquale (2015), nos alerta para o fato de que a opacidade e a falta de transparência no tratamento dos algoritmos, são resultado de ações deliberadas dos agentes econômicos e estatais a quem a ausência de controle se aproveita. Assim, cria-se um ambiente que permite que o sistema avalie, ranqueie e decida sobre a vida das pessoas em segredo. Na sua visão, isso compromete todo o potencial que a internet nos dá de liberdade e distribuição de informação, colocando em risco, direitos individuais e até os econômicos, fazendo ainda, com que os grandes agentes, acumulem ainda mais riqueza e não sejam monitorados e nem punidos. A falta de transparência dos algoritmos, pode também reforçar estereótipos sexistas, racistas, misóginos, culminando em resultados discriminatórios, como será detalhado adiante. 1.2 Como funcionam os algoritmos nas redes sociais A estrutura de “redes sociais” é muito anterior ao contexto tecnológico e digital e é explicada no trabalho de Simmel (1955), que argumenta que a sociedade resulta de uma série de relações, que podem ser simétricas, assimétricas, com ou sem reciprocidade e não fruto apenas de uma agregação de indivíduos. Amaral (2016), afirma que a realidade social só pode compreendida através do coletivo e nunca de forma singular e que o coletivo partilha de laços sociais como valores e crenças. 5 Considerando o panorama digital, Recuero (2009, p.94) afirma que: “a expressão das redes sociais na internet, pode ser resultado do tipo de uso que atores sociais fazem de suas ferramentas”. Confirmando esta visão, podemos citar que: “As redes sociais na internet são um avanço das antigas comunidades virtuais, ou seja, caracterizam-se por pessoas interagindo em determinada ambiência com interesses comuns, compartilhando objetivos, ações, ideias.” (SCHWINGEL, 2012, p. 105). Recuero (2009) e Amaral (2016) reforçam que as redes sociais são compostas por redes emergentes que possuem interações sociais mútuas, como conversação, por exemplo, ou podem também ser redes de afiliação em que as pessoas se associam, gerando interações sociais reativas. O conceito de redes sociais, no contexto digital só decorre da tecnologia. Podemos afirmar que: “O surgimento e uso crescente das chamadas mídias sociais fazem com que qualquer cidadão capaz de interagir com as ferramentas disponíveis na web possa produzir, utilizar, comentar e compartilhar informações. E aqui cabe às organizações buscar novos formatos e estratégias para manter e ampliar a comunicação e o relacionamento com seus públicos.” (SAAD, 2009, p. 163). Castells (2003), afirma que o surgimento da internet representa um passo considerável para a sociedade, pois seus usuários compartilham de conteúdos que contribuem para a formação de relações comerciais, formação cultural e manifestações sociais e constitui também, grupos em função desses interesses específicos e comuns. Muito se discute e demoniza a presença dos algoritmos de inteligência artificial nas redes sociais, porém, é inegável que eles operam no ambiente online. As críticas devem-se aos fatores já comentados anteriormente, como os vieses que eles apresentam e às suas limitações e vulnerabilidades de aprendizado. Kosinski, Stillwell e Graepel (2013, p. 5805) afirmam que: “A previsibilidade de atributos individuais a partir de registros digitais de comportamento pode ter implicações negativas consideráveis, porque pode ser facilmente aplicada a um grande número de pessoas sem obter seu consentimento e sem que elas percebam. Empresas, instituições governamentais ou até mesmo seus amigos do Facebook podem usar software para inferir atributos como inteligência, orientação sexual ou visões políticas que um indivíduo pode não ter pretendido compartilhar. Pode-se imaginar situações em que tais previsões, mesmo que incorretas, possam representar uma ameaça ao bem-estar, liberdade ou até mesmo à vida de um indivíduo”. 6 A esta altura, devemos reforçar que a tecnologia não é neutra. Segundo Feenberg (2010, p.69), “a tecnologia é uma das maiores fontes de poder nas sociedades modernas”. Partindo dessa afirmativa, o autor nos mostra que as decisões que afetam nosso dia a dia são controladas e obscurecidas pelos “senhores dos sistemas técnicos”, que detém o controle dos rumos da tecnologia e de técnicas que são abraçadas e utilizadas pela sociedade moderna. Ou seja, existem consequências sobre os rumos que tomamos nos meios digitais e os algoritmos são grandes responsáveis e determinantes para tais consequências. Feenberg (2010) ainda critica as visões instrumental, neutra e deterministas da tecnologia, afirmando que avanços tecnológicos estão claramente atrelados à expansão do sistema capitalista, contrariando as primeiras teorias que sugeriam que as redes sociais eram “neutras” e que os algoritmos apenas automatizavam as operações para distribuição de conteúdo. (Bozdag, 2013). Ou seja, nas redes sociais, os algoritmos possuem o poder de manipular dados, que são denominados big data, e que existem em larga escala e personalizar entregas com base no que os usuários utilizam, precisam e conhecem, para aumentar o poder do capital e claro, estão disponíveis e à serviço de quem possui recursos financeiros para tal. Podemos confirmar essa visão com a seguinte citação: “A fonte desse poder é, no fundo, o big data, ou seja, a capacidade das megaempresas digitais de armazenar e analisar dados comportamentais cada vez mais íntimos dos usuários, traçando perfis que são de grande valor para entidades comerciais, campanhas políticas, governos ou qualquer um que deseje monitorar, monetizar, controlar e prever o comportamento humano.” (PASQUALE, 2017, p.18). Dessa maneira, com o big data, empresas e governos são capazes de agrupar conteúdos semelhantes com base em semântica e interações anteriores e com outros propósitos previamente programados e aprendidos pelo sistema, para realizar entregas hiper personalizadas. Esse comportamento da máquina pode gerar “bolhas” que podem ser extremamente prejudiciais, pois confirmam somente aquilo que o usuário deseja ver e/ou acreditar. Bakir e McStay (2018) chamam isso de “viés de confirmação”, ou seja, a tendência de os usuários de redes validarem informações que confirmem apenas suas crenças pré-existentes, limitando a visão por outros pontos de vista. Confirmamos assim, a existência de vieses antiéticos nas redes, bem como a opacidade e falta de transparência e controle dos processos algorítmicos. 7 1.3 Como os algoritmos incorporam vieses racistas e seus impactos na publicidade Os algoritmos já foram classificados como “neutros e objetivos”,porém, eles podem facilmente fortalecer desigualdades, pois são codificados e treinados para reconhecer e reproduzir padrões. Devemos nos atentar que os algoritmos são reflexos da sociedade em que vivemos, ou seja, pessoas enviesadas, também criam algoritmos enviesados e como o aprendizado de máquina é constante, caso o algoritmo seja contaminado, ele acabará replicando o que foi aprendido. A discriminação algorítmica começa quando os bancos de dados não são ensinados ou alimentados da maneira correta e/ou neutra. Esses bancos de dados também podem ser contaminados por vieses discriminatórios. Segundo Moreira (2017), entende-se por discriminação quando alguém trata outro indivíduo de forma arbitrária e intencionada, normalmente motivada por estigmas sociais. Normalmente esse tratamento afirma uma suposta inferioridade de determinado grupo, mantendo privilégios de membros de segmentos majoritários. Podemos afirmar que a discriminação algorítmica é: “a discriminação baseada no tratamento automatizado de dados pessoais (data-based discrimination): o processo de tomada de decisão por algoritmos que resulta em um tratamento injusto para os afetados”. (SCHIPPERS, 2018, p. 21). Podemos citar casos famosos, de como o algoritmo nas redes sociais impacta e muito a vida de pessoas negras. No Instagram, por exemplo, o alcance para pessoas negras é muito menor nas publicações, do que para pessoas brancas. Um caso que ficou famoso, aconteceu no ano de 2020, onde a plataforma Zoom, usada para realizar videochamadas, foi utilizada por dois professores, um branco e outro negro. A plataforma possui uma funcionalidade para desfoque de plano de fundo, focando apenas no rosto do usuário, porém, quando o professor negro utilizou tal funcionalidade, teve a “cabeça cortada”, enquanto o outro professor, branco, aparecia normalmente na tela. O algoritmo da ferramenta não reconhecia o rosto negro e o classificava como parte do cenário. O professor branco, indignado com a situação resolveu twittar sobre o ocorrido, colocando duas imagens: uma com o fundo desfocado e o professor com a “cabeça cortada” e outra com ele e o outro professor, aparecendo normalmente. Fazendo isso, percebeu que o foco no Twitter para demonstrar uma imagem, também ia para o rosto branco. O Twitter possui uma ferramenta de corte de imagens e priorizava a rosto branco em detrimento do rosto negro. Ou seja, ele se deparou com o racismo algorítmico em duas plataformas diferentes. (Gizmodo, 2020). 8 Segundo Diakopoulos (2014) existe hoje um movimento para que os algoritmos apresentem maior transparência em seus códigos. Porém, como citado anteriormente, o sistema capitalista apenas capta dados para usar a seu favor, muitas vezes sem se preocupar com a causalidade de seus atos. Devemos lembrar também, que hoje ainda não existem leis regulatórias que monitorem adequadamente como os algoritmos funcionam em sua totalidade, fortalecendo assim, comportamentos discriminatórios. Embora muitas vezes, desprovidos de um nível de consciência, programadores e profissionais do marketing e publicidade, têm uma parcela de culpa, quando falamos de algoritmos enviesados, pelo simples fato de não se atentarem com a inclusão de pessoas negras – ou de outras raças e culturas – para que a máquina aprenda. Outro grande problema existente, é a discriminação no mundo real, que é replicada por outras pessoas nas redes e que fazem com que a inteligência artificial também replique esse comportamento danoso. Se formos pensar no marketing e publicidade de maneira geral, será facilmente constatada que a publicidade ainda reforça muitos preconceitos e estereótipos. Além de lidar com o preconceito racial e desigualdade fora das redes sociais, as pessoas negras ainda têm de lidar com atos discriminatórios no ambiente virtual. Este impacto vai muito além das telas, pois traz danos à sociedade de uma maneira muito agressiva e massiva. Os algoritmos na publicidade, quando pensados pelo viés racial podem diminuir o alcance e entrega, podem alterar cores e formatos físicos por meio de filtros e não englobar as diversidades étnicas existentes, além de não remunerar igualmente pessoas negras. Se fizermos esse recorte por gênero, essas desigualdades tornam-se ainda piores. Isso mais uma vez reforça o quanto a tecnologia não é baseada em neutralidade e o quanto nossa sociedade replica comportamentos excludentes. Feenberg (2010) defende que o controle e a produção tecnológica sejam mais democráticos, pois o ambiente virtual, advindo da tecnologia é um ambiente possível para diversos tipos de disputas, incluindo as de ordem culturais, sociais e econômicas, nas quais os sujeitos interagem de forma direta e elaboram novas formas de vida. O autor aponta que a tecnologia pode ser utilizada como instrumento de dominação, mas também pode trazer impactos positivos à sociedade, desde que redesenhado e reformado, e não seja somente visto sob a ótica do capitalismo e do eurocentrismo. Sabemos que o marketing e a publicidade visam aumentar os lucros das empresas, mas também devem exercer um papel social, de se posicionar contra atitudes discriminatórias e de educar o mercado, principalmente o tecnológico. 9 1.3.1 A receita do viés preconceituoso Há alguns fatores que comprovadamente podem ser considerados para que o viés preconceituoso se concretize. Ao utilizar a inteligência artificial, corremos o risco de perpetuar comportamentos prejudiciais, por considerarmos a tecnologia como “neutra”. Mas, como já sabemos os sistemas algorítmicos são alimentados por dados e quem faz essa seleção de dados, são humanos, que podem ou não, ser movidos por vieses preconceituosos. Segundo Tunes (2019) o professor de Ética e Política e Ciências de dados, Solon Barocas, da Universidade Cornell nos Estados Unidos, detalha algumas maneiras pelos quais os algoritmos se estabelecem de maneira preconceituosa. Podemos citar por exemplo, a definição de público-alvo, escolha das amostras, coleta de dados, modelos simplistas e correlações distorcidas. No caso do público-alvo, a máquina precisa saber quais informações buscar e a quem destinar. Pode-se fazer filtros de localização, por exemplo, ou até o que chamamos de “call to action” para determinados públicos, a fim de capturar a atenção dos mesmos. No caso da escolha das amostras, o viés acontece quando os algoritmos são alimentados com dados tendenciosos. Podemos citar como exemplo um caso de um hospital que classificava candidatos a uma determinada vaga, mas se baseava em admissões anteriores e excluía ou diminuía mulheres e minorias raciais, ou seja, o processo refletiu um comportamento anterior que era excludente e preconceituoso. (Revista Pesquisa FAPESP, 2019). A coleta de dados pode tornar-se enviesada quando exclui pessoas que não têm acesso às redes, por exemplo, de participar ativamente do meio digital, tomando como base e como “correto”, somente dados das pessoas que possuem esse acesso. Os modelos simplistas são aqueles que têm uma base de corte de dados alta e não considera outros fatores. Podemos tomar como exemplo, um sistema de seleção de vagas de emprego que aceita somente pessoas formada em universidades de alto nível, mas que possuem mensalidades inacessíveis para a maioria da população. Muito provavelmente, esse sistema replicará um comportamento discriminatório, pois nem todas as pessoas podem cursar faculdades com mensalidades altas. As correlações distorcidas podem ocorrer advindas de cruzamentos de dados que excluem determinadas regiões e/ou classifiquem de maneira errônea algum desses dados, contaminando toda uma base de dados. 10 2 Como o marketing pode driblar o viés racista nas redes sociais Ainda não existe uma fórmula mágica para que o marketing reverta as situações preconceituosas nas redes sociais, porém, a áreapossui grande responsabilidade na maneira como expõe empresas, pessoas, produtos e serviços no meio digital. Vale lembrar que as máquinas não possuem o discernimento que nós humanos temos quanto à moral e ética. Então cabe aos profissionais e a área, trabalhar e cobrar leis que regulamentem o uso de dados, além de monitorar a performance dos algoritmos e como elas se comportam no ambiente digital. É importante ressaltar que sempre há maneiras de corrigir os sistemas algorítmicos, pois se eles são alimentados com dados, podemos inserir novos dados, que não sejam discriminatórios, racistas ou excludentes. As empresas também têm papel fundamental na mudança de atitude dos algoritmos. O Google por exemplo já modificou alguns mecanismos para que algumas palavras não estivessem relacionadas à pornografia e outros significados sexistas ou racistas. O Spotify dá destaque a autores e criadores dentro da plataforma. Esses são pequenos passos, mas que resultam de uma urgência dentro da tecnologia. Sabemos que a probabilidade de mudança real é praticamente inviável no meio tecnológico a não ser que seja realmente regulamentada. A Lei Geral de Proteção de Dados no Brasil, entrou em vigor no mês de agosto de 2021 e pode ser utilizada a favor nesse caso. Sabemos que a tecnologia e as leis muitas vezes não caminham nos mesmos passos, e que a tecnologia avança mais rapidamente do que as leis, porém, já é uma tentativa de tratar os dados pessoais dos usuários da internet, tentando implementar um processo um pouco mais transparente. Segundo Mendes e Fonseca (2020) as legislações que tratam sobre a proteção de dados pessoais, como a Lei Geral de Proteção de Dados (LGPD), não apenas tratam de privacidade, mas de direitos e liberdades fundamentais. Stefano Rodotà (2008, p. 142), afirma: “Para as tecnologias da informação e da comunicação também é preciso questionar se tudo o que é tecnicamente possível é socialmente e politicamente aceitável, eticamente admissível, juridicamente lícito.”. Embora essa seja uma demanda crescente, argumentos apresentados pelo Google apontam que se divulgados, seus algoritmos podem colocar em risco a arquitetura informacional e que podem resultar em um colapso. (LOBE, 2018). 11 A pesquisadora Nina da Hora afirma: “(...) não existe pensar solução tecnológica sem pensar as consequências para a sociedade e sem a participação da sociedade. Não existe inteligência artificial inclusiva se ela não reconhece uma raça ou se ela só direciona determinadas ações para um gênero. É realmente injusto que as empresas criem e disponibilizem ferramentas sem saber as reais consequências e pensar nas prevenções.” (HORA, MIT Tech Review Blog, 2021). Não podemos mais deixar que as predições movidas pelos algoritmos influenciem o trabalho da área de marketing e o planejamento de mídia. Se pensarmos em segmentações, há algumas que são baseadas em dados e outras em comportamentos do usuário. Nos casos de predições, a chance de equívocos é muito maior. Esse tipo de segmentação entende esses dados e os agrupa, buscando padrões, que muitas vezes podem ser errôneos. É função dos profissionais da área repensar seus processos e rever padrões, principalmente os eurocêntricos, que invibilizam outras etnias. Precisamos de profissionais mais diversos e atuações mais diversas na tecnologia. Somente mudaremos essa realidade quando dermos mais foco ao consumidor final, em detrimento de quem realiza e aprova os investimentos na publicidade. Para isso, devemos pensar em toda a jornada do consumidor, entender realmente o perfil de personas que consomem as marcas e como essas utilizam a internet e o meio digital. É importante frisar que as campanhas em si também deverão mudar. Hoje ainda vemos muito mais pessoas brancas nas criações e peças de design do que pessoas de outras etnias. O ideal é que se estude todas as possibilidades e todas as alternativas para driblar a discriminação algorítmica, evitando a exclusão de grupos, indo além do comportamento da compra. As empresas também devem repensar seus parceiros comerciais, exigindo práticas mais rígidas para tal. Podem ser demandados esforços coletivos para a promoção de transparências nas redes e plataformas e, a codificação não discriminatória. Conforme falado, grupos mais representativos, que vão além de homens brancos programando, podem ajudar na identificação de vieses que discriminam minorias e maior equidade no ambiente online e offline. Sendo assim, podemos afirmar que: “O impacto negativo da falta de representatividade dos dados é evidente, e gera um distanciamento, por parte do processo automatizado, da igualdade de gênero que deve ser perseguida. Na verdade, a discussão da representatividade abrange questão muito maior, que envolve todos os grupos marginalizados, principalmente aqueles que ainda não foram atingidos pelo desenvolvimento tecnológico.” (LINDOSO, 2019, p. 62). 12 Dados por si só não agregam relevância a negócios. Para que eles tenham valor, é preciso realizar um minucioso processo de análise, quantificação, tratamento e armazenamento dos mesmos, para que de fato, gerem conteúdos e insights que façam sentido para as companhias. Aos profissionais de comunicação, flexibilidade, criatividade e posicionamento e conhecimento de causa para os processos comunicacionais. Conclusão A discriminação algorítmica hoje, atinge a sociedade de forma homogênea. Vivemos numa era onde os dados têm papel fundamental para a decisão de compra, formação de opinião, social e cultural, apoiados principalmente, pelo sistema capitalista. Nele, tudo pode ser comprado, monitorado e utilizado, desde que faça os lucros aumentarem. Porém, por outro lado, como profissionais de marketing, publicidade e tecnologia, temos a obrigação moral de assegurar que estamos realizando nosso trabalho de forma ética e justa, que valorize os indivíduos da sociedade de forma singular e não os coloque na posição de meras mercadorias. Sabemos que é difícil interromper ou parar o desenvolvimento da tecnologia, porém, não podemos negar que o uso desenfreado de dados pode causar danos sociais irreversíveis. Temos nas mãos ferramentas e informações o suficiente para executar um trabalho de forma correta, que abranja o maior número possível de pessoas e que respeite a diversidade. Empresas, mercado e legislação devem executar um trabalho em conjunto para que haja uma dinâmica que realmente tenha impacto nesse sentido. A iniciativa coletiva é a maior arma para que a realidade possa ser mudada. Combater vieses discriminatórios não é função de uma pessoa e sim de plataformas, de empresas, de governos. Ora, sim, cabe a nós fazermos nossa parte, mas também cobrar do meio em que vivemos para reafirmarmos o bem e valor social e mantermos o equilíbrio, respeitando a privacidade, os direitos humanos e a liberdade. 13 Referências AMARAL, Inês. Redes Sociais: Sociabilidades emergentes. Covilhã: Editora LabCom, 2016. BAKIR, Vian; MCSTAY, Andrew. Fake news and the economy of emotions: Problems, causes, solutions. Digital journalism, v.6, n.2, p. 154-175, 2018. BOZDAG, Engin. Bias in algorithmic filtering and personalization. Ethics and information technology, 15(3), 209-227, 2013. BOSTROM, Nick. Dinosaurs, dodos, humans? World Economic Forum. Global Agenda. Oxford: WEF, 2006. p. 230-1. Disponível em: <https://nickbostrom.com/papers/globalagenda.pdf> Acesso em: 12/07/2021. CASTELLS, Manuel. A galáxia da internet: reflexões sobre a internet, os negócios e a sociedade. Rio de Janeiro: Jorge Zahar Ed., 2003. DA HORA, Nina. Blog: Coded Bias: linguagem acessível para entender vieses em algoritmos. Rio de Janeiro, 30 de abril 2021. Disponível em: <https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/>. Acesso em: 22/08/2021. DAMACENO, Siuari; VASCONCELOS, Rafael; Inteligência artificial: Uma breve abordagem sobre seu conceito real e o conhecimento popular. Ciências exatas e tecnológicas, v. 5, n.1, p. 11-16, 2018. Disponível em: <https://periodicos.set.edu.br/cadernoexatas/article/view/5729/2966>. Acesso em: 20/07/2021. DIAKOPOULOS, Nicholas. Accountability in algorithmic decision making. Communications of the ACM, v. 59, n. 2, p. 56-62, 2016. FEENBERG, Andrew (1995). Racionalização Subversiva: Tecnologia, Poder e Democracia. In: NEDER, Ricardo T. (org.) A teoria crítica de Andrew Feenberg: racionalização democrática, poder e tecnologia/ Ricardo T. Neder (org.). –- Brasília: Observatório do Movimento pela Tecnologia Social na América Latina / CDS / UnB / Capes, pp. 67-95, 2010. GILLESPIE, Tarleton.; The relevance of algorithms. Media Technologies: Essays on communication, materiality, and society. Cambridge, 2014. Disponível em: <https://edisciplinas.usp.br/pluginfile.php/4873100/mod_folder/content/0/Gillespie- Media%20Technologies%282014%29.pdf>. Acesso em 20/07/2021. GIZMODO. Usuários acusam Twitter de racismo após algoritmo de fotos priorizar brancos a negros. 2020 Disponível em: https://gizmodo.uol.com.br/twitter-algoritmo-fotos- racismo/. Acesso em: 27/07/2021. GUNNING, David; AHA, David; Explainable artificial intelligence (xai) Program. AI Magazine, v. 40, n. 2, p. 44-58, 2019. Disponível em: <https://ojs.aaai.org/index.php/aimagazine/article/view/2850/3419>. Acesso em: 20/07/2021. https://nickbostrom.com/papers/globalagenda.pdf https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/ https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/ 14 KOSINSKI, Michal; STILLWELL, David; GRAEPEL, Thore. Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, v. 110, n. 15, 2013. LINDOSO, Maria Cristine Branco. Discriminação de gênero em processos decisórios automatizados. Dissertação - Faculdade de Direito, Universidade de Brasília. Brasília. 2019. Disponível em: <https://repositorio.unb.br/bitstream/10482/38524/1/2019_MariaCristineBrancoLindoso.pdf.> Acesso em: 27/07/2021. LOBE, Adrian. Wenn Programmierer mächtiger als Politiker werden. Süddeutsche Zeitung, 2018. Disponível em: <https://www.sueddeutsche.de/digital/digitalisierung- unddemokratie-hey-mark-zuckerberg-meine-demokratie-ist-nicht-dein-labor-1.4049824>. Acesso em: 27/07/2021. MENDES, Laura Schertel; FONSECA, Gabriel Campos Soares da. STF reconhece direito fundamental à proteção de dados: Comentários sobre o referendo da Medida Cautelar nas ADIs 6387, 6388, 6389, 6390 e 6393. Revista de Direito do Consumidor, vol. 130/2020, p. 471 - 478, 2020. PASQUALE, Frank. A Esfera pública automatizada. Revista Eletrônica do Programa de Mestrado em Comunicação da Faculdade Cásper Líbero. Ano XX. Número 39. Jan/Ago. 2017. Disponível em: <https://casperlibero.edu.br/wp-content/uploads/2017/10/A-Esfera- públicaautomatizada.pdf>. Acesso em: 27/06/2021. PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015. RECUERO, Raquel. Redes sociais na Internet. Porto Alegre, Sulina: Editora Meridional, 2009. SAAD, Beth. Estratégias 2.0 para mídia digital: internet, informação e comunicação. São Paulo: Editora Senac, 2003. SILVEIRA, Sergio; SILVA, Tarcízio. Controvérsias sobre Danos Algorítmicos: discursos corporativos sobre discriminação codificada. REVISTA OBSERVATÓRIO, v. 6, p. 1-16, 2020. Disponível em: <https://sistemas.uft.edu.br/periodicos/index.php/observatorio/article/view/11069/17889>. Acesso em: 20/07/2021. SCHWINGEL, Carla. Mídias digitais: produção de conteúdo para web. São Paulo: Paulinas, 2012. SHIPPERS, Laurianne-Marie. Algoritmos que discriminam: uma análise jurídica da discriminação no âmbito das decisões automatizadas e seus mitigadores. Monografia - Escola de Direito de São Paulo, Fundação Getúlio Vargas. São Paulo, 57 p. 2018. Disponível em: <http://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/29878/Algoritmos%20que% 20discriminam%20-%20Laurianne-Marie%20Schippers.pdf?sequence=1&isAllowed=y>. Acesso em: 12/08/2021. https://sistemas.uft.edu.br/periodicos/index.php/observatorio/article/view/11069/17889 15 SIMMEL, George. Conflict and the web of group-affiliations. New York, NY: Free Press, 1955. TUNEL, Suzes. Algoritmos parciais: Como a inteligência artificial absorve padrões discriminatórios e o que a ciência pode fazer para evitar essas distorções. Revista Pesquisa FAPESP, São Paulo, 2019. Disponível em: <https://revistapesquisa.fapesp.br/algoritmos- parciais/>. Acesso em: 13/08/2021. ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. Public Affairs, 2019. https://revistapesquisa.fapesp.br/algoritmos-parciais/