Buscar

Artigo_LuizaMarquesLima

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 15 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 15 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 15 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1 
 
*Pós-Graduanda no MBA em Propaganda, Marketing e Comunicação Integrada da Universidade Estácio de Sá, 
formada em Tecnologia de Marketing pela Universidade Regional de Blumenau. E-mail 
lu.marqueslima@gmail.com. 
Como o marketing pode driblar o racismo algorítmico: um estudo sobre os vieses racistas 
nas redes sociais 
 
 
Luiza Marques Lima* 
 
 
Resumo 
Os algoritmos são a base da sociedade moderna: estão presentes nas redes sociais, nas câmeras, 
celulares nas automações da sua casa, em todas as redes sociais, na televisão, em sistemas 
simples e complexos. Atuam na formação de opiniões públicas, geram alterações no espaço e 
no tempo e influenciam desde comportamentos inofensivos, até os mais perigosos. Atualmente, 
o aprendizado de máquina não mais se limita à ação humana, pois por meio dos seus conjuntos 
de dados e combinações, aprimora-se de forma ininterrupta. Porém, esse deve ser um ponto de 
atenção, pois num mundo onde o capitalismo coleta e armazena dados de forma desenfreada, 
muitas vezes os algoritmos são utilizados de maneira errônea e tendenciosa e podem apresentar 
padrões algorítmicos enviesados, que são capazes de reproduzir a discriminação algorítmica. 
Nesse contexto, as problemáticas condutoras da presente pesquisa são: como ocorre a 
discriminação algorítmica nas redes sociais? Como profissionais do marketing podem driblar o 
racismo algorítmico? O que fazer para torná-lo não discriminatório? Para responder aos 
questionamentos, utiliza-se metodologia qualitativa, de caráter dedutivo, sendo consolidado por 
pesquisa bibliográfica aliada à documental. Por meio da investigação qualitativa, documental e 
bibliográfica, será testada a hipótese de que profissionais de marketing possuem o poder de 
mudar a forma como o algoritmo aprende, alterando consequentemente, o alcance, remuneração 
e mudando de fato, o viés racistas e discriminatório que hoje se encontra nas redes sociais. 
 
Palavras-chave: Racismo algorítmico; Viés racista, Redes Sociais, Marketing. 
 
Introdução 
Os algoritmos estão cada vez mais presentes no dia a dia das pessoas. O marketing é 
uma das áreas que mais se utiliza deles para criação de campanhas e aumento de vendas, por 
exemplo. Ao invés de implementar rotinas e treinamentos à mão, a máquina hoje é treinada 
com uma grande quantidade de dados e algoritmos, dando a ela a habilidade de captar, aprender 
e executar tarefas de maneira autônoma. Os algoritmos fazem parte do que chamamos de 
inteligência artificial e apresentam grande sucesso e alto desempenho, principalmente para 
detectar padrões e prever resultados. 
 Porém, seu uso desenfreado e sem uma legislação que o regulamente, pode causar 
problemas à sociedade, devido a grande probabilidade de enviesamento, o que gera algoritmos 
que discriminam pessoas e vivências, de forma geral. 
2 
 
 
Fazendo um recorte, as principais questões apontadas por este artigo são: como ocorre 
a discriminação algorítmica nas redes sociais? Como profissionais do marketing podem driblar 
o racismo algorítmico? O que fazer para torná-lo não discriminatório? Para responder aos 
questionamentos, utiliza-se metodologia qualitativa, de caráter dedutivo, sendo consolidado por 
pesquisa bibliográfica aliada à documental. 
A hipótese a ser testada é de que profissionais de marketing possuem o poder de mudar 
a forma como o algoritmo aprende, alterando consequentemente, o alcance, remuneração e 
mudando de fato, os vieses racistas e/ou discriminatórios (machistas, sexistas) que hoje se 
encontram nas redes sociais. 
Para solucionar o problema, esta grande área demanda de transparência e trabalho mútuo 
entre empresas de tecnologia e profissionais da área, para a criação de um ambiente online 
saudável e soluções que não sejam excludentes. 
 
1 Como os algoritmos funcionam e sua relação com a publicidade 
1.1 Compreendendo o funcionamento de um algoritmo 
O conceito de algoritmo é bastante antigo e embora seja vinculado atualmente à 
Tecnologia da Informação, ele é mais abrangente e existe independente de qualquer linguagem 
de programação. O termo “algoritmo”, pode ser entendido como uma sequência de raciocínios, 
instruções ou operações para alcançar um objetivo. Para tanto, é necessário que seus passos 
sejam operados sistematicamente e de maneira finita. 
Num sentido amplo, podemos falar de algoritmos como “(...) estruturas codificadas para 
a transformação de uma entrada de dados, numa desejável saída, baseada em cálculos 
específicos” (Gillispie, 2014, p.167). 
Basicamente, um algoritmo é uma programação projetada para seguir uma sequência 
específica e resolver determinados problemas, da maneira que foi programado e de forma 
automática. 
Algoritmos não trabalham de maneira isolada e segundo Silveira (2019), “Os algoritmos 
nunca estão sós. Fazem parte de uma rede de actantes”, ou seja, para compreender o 
funcionamento de um algoritmo, devemos pensar que eles fazem parte de uma cadeia que é 
alimentada a partir de dados, formando um sistema algorítmico. 
Esse tipo de sistema pode ou não seguir regras de como executar ações, a partir de 
informações que recebem, bem como realizar combinações e correlações de dados, criando 
operações com regras que antes não haviam sido fixadas, gerando o que chamamos de 
inteligência artificial. 
3 
 
 
Pode-se considerar como inteligência artificial: 
“(...) a confecção de máquinas com capacidade de aprender sendo estas 
programadas previamente, fazendo uso de algoritmos bem elaborados e 
complexos que proporcionem a tomada de decisões, especulações e até 
interações baseadas nos dados fornecidos.” (DAMACENO; 
VASCONCELOS 2018, p. 12). 
 
A inteligência artificial se utiliza modelos computacionais, para traçar previsões sobre 
uma determinada variável. Seu objetivo é aprender continuamente com os novos dados a fim 
de melhorar suas previsões. Seu sistema é capaz de absorver, analisar e organizar dados para 
identificar padrões, objetos, pessoas etc. 
Segundo Gunning e Aha (2019), a inteligência artificial envolve modelos de redes 
neurais artificiais, bem como modelos gráficos, de aprendizagem profunda, probabilísticos 
entres outros. Por isso também, a inteligência artificial apresenta grande sucesso e alto 
desempenho, principalmente para detectar padrões e prever resultados. Ao invés de 
implementar rotinas e treinamentos à mão, a máquina é treinada com uma grande quantidade 
de dados e algoritmos, dando a ela a habilidade de captar, aprender e executar tarefas de maneira 
autônoma. 
A inteligência artificial pode ser subdividida e abarca os conceitos de machine learning 
e deep learning. O processo de aprendizagem computacional é chamado de machine learning. 
Já deep learning, é o que chamamos de aprendizagem profunda. 
Esses tipos de sistemas de inteligência artificial apresentam grande sucesso em áreas 
como robótica, diagnósticos, biometria, mineração de dados etc., pois são capazes de ter esse 
processo de aprendizagem. 
Deep learning, é uma sub-área da aprendizagem de máquina. Ela é formada por 
algoritmos complexos, englobados numa rede parecida com nossos neurônios. Essas redes são 
alimentadas com uma grande quantidade de informações. Esse tipo de aprendizagem é capaz 
de realizar atividades complexas e extremamente avançadas, sem a interferência humana, como 
a classificação e reconhecimento de imagens, por exemplo. 
Atualmente, o aprendizado de máquina não mais se limita à ação humana, pois por meio 
dos seus conjuntos de dados e combinações, aprimora-se de forma ininterrupta. Porém, esse 
deve ser um ponto de atenção. 
No mundo capitalista onde a coleta e armazenamento de dados é realizada de forma 
desenfreada, a fim de alimentar um sistema opressor, a inteligência artificial, muitas vezes é 
utilizada de maneira errônea e tendenciosa. 
4 
 
 
Os algoritmos estão tão presentes no nosso dia a dia, que muitas vezes podem parecer 
invisíveis.Porém, eles atuam na formação de opiniões públicas, geram alterações no espaço e 
no tempo. Estão presentes no seu celular, nas automações da sua casa, em todas as redes sociais, 
na televisão, nas câmeras, em sistemas simples e complexos. Eles podem ajudar a definir qual 
tipo de anúncio você verá, qual vaga de trabalho será direcionada a você, qual filme você 
assistirá, ou qual tratamento receberá em determinado ambiente, além de influenciar a disputa 
de preferências políticas, por exemplo. Ou seja: eles podem e influenciam desde 
comportamentos inofensivos, até os mais perigosos. 
Shoshana Zuboff (2019), psicóloga social e professora da Harvard Business School nos 
chama atenção para o fato de que em nenhum outro momento da história, as empresas privadas 
tiveram à disposição uma arquitetura capaz de acumular tantos dados sobre os indivíduos e 
populações. Dito isso, a autora ressalta o termo “capitalismo de vigilância”, que nada mais é do 
que o acesso a sistemas digitais que observam nossos comportamentos e atividades e monitoram 
nossas personalidades e vulnerabilidades, para alimentar a inteligência artificial e moldar 
mercados, não só na esfera online, como também, no mundo real. 
Pasquale (2015), nos alerta para o fato de que a opacidade e a falta de transparência no 
tratamento dos algoritmos, são resultado de ações deliberadas dos agentes econômicos e estatais 
a quem a ausência de controle se aproveita. Assim, cria-se um ambiente que permite que o 
sistema avalie, ranqueie e decida sobre a vida das pessoas em segredo. Na sua visão, isso 
compromete todo o potencial que a internet nos dá de liberdade e distribuição de informação, 
colocando em risco, direitos individuais e até os econômicos, fazendo ainda, com que os 
grandes agentes, acumulem ainda mais riqueza e não sejam monitorados e nem punidos. 
A falta de transparência dos algoritmos, pode também reforçar estereótipos sexistas, 
racistas, misóginos, culminando em resultados discriminatórios, como será detalhado adiante. 
 
1.2 Como funcionam os algoritmos nas redes sociais 
A estrutura de “redes sociais” é muito anterior ao contexto tecnológico e digital e é 
explicada no trabalho de Simmel (1955), que argumenta que a sociedade resulta de uma série 
de relações, que podem ser simétricas, assimétricas, com ou sem reciprocidade e não fruto 
apenas de uma agregação de indivíduos. 
Amaral (2016), afirma que a realidade social só pode compreendida através do coletivo 
e nunca de forma singular e que o coletivo partilha de laços sociais como valores e crenças. 
5 
 
 
Considerando o panorama digital, Recuero (2009, p.94) afirma que: “a expressão das 
redes sociais na internet, pode ser resultado do tipo de uso que atores sociais fazem de suas 
ferramentas”. 
Confirmando esta visão, podemos citar que: 
“As redes sociais na internet são um avanço das antigas comunidades virtuais, 
ou seja, caracterizam-se por pessoas interagindo em determinada ambiência 
com interesses comuns, compartilhando objetivos, ações, ideias.” 
(SCHWINGEL, 2012, p. 105). 
 
Recuero (2009) e Amaral (2016) reforçam que as redes sociais são compostas por redes 
emergentes que possuem interações sociais mútuas, como conversação, por exemplo, ou podem 
também ser redes de afiliação em que as pessoas se associam, gerando interações sociais 
reativas. 
O conceito de redes sociais, no contexto digital só decorre da tecnologia. Podemos 
afirmar que: 
“O surgimento e uso crescente das chamadas mídias sociais fazem com que 
qualquer cidadão capaz de interagir com as ferramentas disponíveis na web 
possa produzir, utilizar, comentar e compartilhar informações. E aqui cabe às 
organizações buscar novos formatos e estratégias para manter e ampliar a 
comunicação e o relacionamento com seus públicos.” (SAAD, 2009, p. 163). 
 
Castells (2003), afirma que o surgimento da internet representa um passo considerável 
para a sociedade, pois seus usuários compartilham de conteúdos que contribuem para a 
formação de relações comerciais, formação cultural e manifestações sociais e constitui também, 
grupos em função desses interesses específicos e comuns. 
Muito se discute e demoniza a presença dos algoritmos de inteligência artificial nas 
redes sociais, porém, é inegável que eles operam no ambiente online. As críticas devem-se aos 
fatores já comentados anteriormente, como os vieses que eles apresentam e às suas limitações 
e vulnerabilidades de aprendizado. 
Kosinski, Stillwell e Graepel (2013, p. 5805) afirmam que: 
“A previsibilidade de atributos individuais a partir de registros digitais de 
comportamento pode ter implicações negativas consideráveis, porque pode ser 
facilmente aplicada a um grande número de pessoas sem obter seu 
consentimento e sem que elas percebam. Empresas, instituições 
governamentais ou até mesmo seus amigos do Facebook podem usar software 
para inferir atributos como inteligência, orientação sexual ou visões políticas 
que um indivíduo pode não ter pretendido compartilhar. Pode-se imaginar 
situações em que tais previsões, mesmo que incorretas, possam representar 
uma ameaça ao bem-estar, liberdade ou até mesmo à vida de um indivíduo”. 
 
6 
 
 
A esta altura, devemos reforçar que a tecnologia não é neutra. Segundo Feenberg (2010, 
p.69), “a tecnologia é uma das maiores fontes de poder nas sociedades modernas”. 
Partindo dessa afirmativa, o autor nos mostra que as decisões que afetam nosso dia a dia 
são controladas e obscurecidas pelos “senhores dos sistemas técnicos”, que detém o controle 
dos rumos da tecnologia e de técnicas que são abraçadas e utilizadas pela sociedade moderna. 
Ou seja, existem consequências sobre os rumos que tomamos nos meios digitais e os algoritmos 
são grandes responsáveis e determinantes para tais consequências. 
Feenberg (2010) ainda critica as visões instrumental, neutra e deterministas da 
tecnologia, afirmando que avanços tecnológicos estão claramente atrelados à expansão do 
sistema capitalista, contrariando as primeiras teorias que sugeriam que as redes sociais eram 
“neutras” e que os algoritmos apenas automatizavam as operações para distribuição de 
conteúdo. (Bozdag, 2013). 
Ou seja, nas redes sociais, os algoritmos possuem o poder de manipular dados, que são 
denominados big data, e que existem em larga escala e personalizar entregas com base no que 
os usuários utilizam, precisam e conhecem, para aumentar o poder do capital e claro, estão 
disponíveis e à serviço de quem possui recursos financeiros para tal. 
Podemos confirmar essa visão com a seguinte citação: 
“A fonte desse poder é, no fundo, o big data, ou seja, a capacidade das 
megaempresas digitais de armazenar e analisar dados comportamentais cada 
vez mais íntimos dos usuários, traçando perfis que são de grande valor para 
entidades comerciais, campanhas políticas, governos ou qualquer um que 
deseje monitorar, monetizar, controlar e prever o comportamento humano.” 
(PASQUALE, 2017, p.18). 
 
Dessa maneira, com o big data, empresas e governos são capazes de agrupar conteúdos 
semelhantes com base em semântica e interações anteriores e com outros propósitos 
previamente programados e aprendidos pelo sistema, para realizar entregas hiper 
personalizadas. Esse comportamento da máquina pode gerar “bolhas” que podem ser 
extremamente prejudiciais, pois confirmam somente aquilo que o usuário deseja ver e/ou 
acreditar. 
Bakir e McStay (2018) chamam isso de “viés de confirmação”, ou seja, a tendência de 
os usuários de redes validarem informações que confirmem apenas suas crenças pré-existentes, 
limitando a visão por outros pontos de vista. 
Confirmamos assim, a existência de vieses antiéticos nas redes, bem como a opacidade 
e falta de transparência e controle dos processos algorítmicos. 
 
7 
 
 
1.3 Como os algoritmos incorporam vieses racistas e seus impactos na publicidade 
Os algoritmos já foram classificados como “neutros e objetivos”,porém, eles podem 
facilmente fortalecer desigualdades, pois são codificados e treinados para reconhecer e 
reproduzir padrões. 
Devemos nos atentar que os algoritmos são reflexos da sociedade em que vivemos, ou 
seja, pessoas enviesadas, também criam algoritmos enviesados e como o aprendizado de 
máquina é constante, caso o algoritmo seja contaminado, ele acabará replicando o que foi 
aprendido. 
A discriminação algorítmica começa quando os bancos de dados não são ensinados ou 
alimentados da maneira correta e/ou neutra. Esses bancos de dados também podem ser 
contaminados por vieses discriminatórios. 
Segundo Moreira (2017), entende-se por discriminação quando alguém trata outro 
indivíduo de forma arbitrária e intencionada, normalmente motivada por estigmas sociais. 
Normalmente esse tratamento afirma uma suposta inferioridade de determinado grupo, 
mantendo privilégios de membros de segmentos majoritários. 
Podemos afirmar que a discriminação algorítmica é: “a discriminação baseada no 
tratamento automatizado de dados pessoais (data-based discrimination): o processo de tomada 
de decisão por algoritmos que resulta em um tratamento injusto para os afetados”. 
(SCHIPPERS, 2018, p. 21). 
Podemos citar casos famosos, de como o algoritmo nas redes sociais impacta e muito a 
vida de pessoas negras. No Instagram, por exemplo, o alcance para pessoas negras é muito 
menor nas publicações, do que para pessoas brancas. 
Um caso que ficou famoso, aconteceu no ano de 2020, onde a plataforma Zoom, usada 
para realizar videochamadas, foi utilizada por dois professores, um branco e outro negro. 
A plataforma possui uma funcionalidade para desfoque de plano de fundo, focando 
apenas no rosto do usuário, porém, quando o professor negro utilizou tal funcionalidade, teve a 
“cabeça cortada”, enquanto o outro professor, branco, aparecia normalmente na tela. O 
algoritmo da ferramenta não reconhecia o rosto negro e o classificava como parte do cenário. 
O professor branco, indignado com a situação resolveu twittar sobre o ocorrido, colocando duas 
imagens: uma com o fundo desfocado e o professor com a “cabeça cortada” e outra com ele e 
o outro professor, aparecendo normalmente. Fazendo isso, percebeu que o foco no Twitter para 
demonstrar uma imagem, também ia para o rosto branco. O Twitter possui uma ferramenta de 
corte de imagens e priorizava a rosto branco em detrimento do rosto negro. Ou seja, ele se 
deparou com o racismo algorítmico em duas plataformas diferentes. (Gizmodo, 2020). 
8 
 
 
Segundo Diakopoulos (2014) existe hoje um movimento para que os algoritmos 
apresentem maior transparência em seus códigos. Porém, como citado anteriormente, o sistema 
capitalista apenas capta dados para usar a seu favor, muitas vezes sem se preocupar com a 
causalidade de seus atos. Devemos lembrar também, que hoje ainda não existem leis 
regulatórias que monitorem adequadamente como os algoritmos funcionam em sua totalidade, 
fortalecendo assim, comportamentos discriminatórios. 
Embora muitas vezes, desprovidos de um nível de consciência, programadores e 
profissionais do marketing e publicidade, têm uma parcela de culpa, quando falamos de 
algoritmos enviesados, pelo simples fato de não se atentarem com a inclusão de pessoas negras 
– ou de outras raças e culturas – para que a máquina aprenda. Outro grande problema existente, 
é a discriminação no mundo real, que é replicada por outras pessoas nas redes e que fazem com 
que a inteligência artificial também replique esse comportamento danoso. 
Se formos pensar no marketing e publicidade de maneira geral, será facilmente 
constatada que a publicidade ainda reforça muitos preconceitos e estereótipos. Além de lidar 
com o preconceito racial e desigualdade fora das redes sociais, as pessoas negras ainda têm de 
lidar com atos discriminatórios no ambiente virtual. Este impacto vai muito além das telas, pois 
traz danos à sociedade de uma maneira muito agressiva e massiva. 
Os algoritmos na publicidade, quando pensados pelo viés racial podem diminuir o 
alcance e entrega, podem alterar cores e formatos físicos por meio de filtros e não englobar as 
diversidades étnicas existentes, além de não remunerar igualmente pessoas negras. Se fizermos 
esse recorte por gênero, essas desigualdades tornam-se ainda piores. Isso mais uma vez reforça 
o quanto a tecnologia não é baseada em neutralidade e o quanto nossa sociedade replica 
comportamentos excludentes. 
Feenberg (2010) defende que o controle e a produção tecnológica sejam mais 
democráticos, pois o ambiente virtual, advindo da tecnologia é um ambiente possível para 
diversos tipos de disputas, incluindo as de ordem culturais, sociais e econômicas, nas quais os 
sujeitos interagem de forma direta e elaboram novas formas de vida. O autor aponta que a 
tecnologia pode ser utilizada como instrumento de dominação, mas também pode trazer 
impactos positivos à sociedade, desde que redesenhado e reformado, e não seja somente visto 
sob a ótica do capitalismo e do eurocentrismo. 
Sabemos que o marketing e a publicidade visam aumentar os lucros das empresas, mas 
também devem exercer um papel social, de se posicionar contra atitudes discriminatórias e de 
educar o mercado, principalmente o tecnológico. 
 
9 
 
 
1.3.1 A receita do viés preconceituoso 
Há alguns fatores que comprovadamente podem ser considerados para que o viés 
preconceituoso se concretize. 
Ao utilizar a inteligência artificial, corremos o risco de perpetuar comportamentos 
prejudiciais, por considerarmos a tecnologia como “neutra”. Mas, como já sabemos os sistemas 
algorítmicos são alimentados por dados e quem faz essa seleção de dados, são humanos, que 
podem ou não, ser movidos por vieses preconceituosos. 
Segundo Tunes (2019) o professor de Ética e Política e Ciências de dados, Solon 
Barocas, da Universidade Cornell nos Estados Unidos, detalha algumas maneiras pelos quais 
os algoritmos se estabelecem de maneira preconceituosa. Podemos citar por exemplo, a 
definição de público-alvo, escolha das amostras, coleta de dados, modelos simplistas e 
correlações distorcidas. 
No caso do público-alvo, a máquina precisa saber quais informações buscar e a quem 
destinar. Pode-se fazer filtros de localização, por exemplo, ou até o que chamamos de “call to 
action” para determinados públicos, a fim de capturar a atenção dos mesmos. 
No caso da escolha das amostras, o viés acontece quando os algoritmos são alimentados 
com dados tendenciosos. 
Podemos citar como exemplo um caso de um hospital que classificava candidatos a uma 
determinada vaga, mas se baseava em admissões anteriores e excluía ou diminuía mulheres e 
minorias raciais, ou seja, o processo refletiu um comportamento anterior que era excludente e 
preconceituoso. (Revista Pesquisa FAPESP, 2019). 
A coleta de dados pode tornar-se enviesada quando exclui pessoas que não têm acesso 
às redes, por exemplo, de participar ativamente do meio digital, tomando como base e como 
“correto”, somente dados das pessoas que possuem esse acesso. 
Os modelos simplistas são aqueles que têm uma base de corte de dados alta e não 
considera outros fatores. Podemos tomar como exemplo, um sistema de seleção de vagas de 
emprego que aceita somente pessoas formada em universidades de alto nível, mas que possuem 
mensalidades inacessíveis para a maioria da população. Muito provavelmente, esse sistema 
replicará um comportamento discriminatório, pois nem todas as pessoas podem cursar 
faculdades com mensalidades altas. 
As correlações distorcidas podem ocorrer advindas de cruzamentos de dados que excluem 
determinadas regiões e/ou classifiquem de maneira errônea algum desses dados, contaminando 
toda uma base de dados. 
 
10 
 
 
2 Como o marketing pode driblar o viés racista nas redes sociais 
Ainda não existe uma fórmula mágica para que o marketing reverta as situações 
preconceituosas nas redes sociais, porém, a áreapossui grande responsabilidade na maneira 
como expõe empresas, pessoas, produtos e serviços no meio digital. 
Vale lembrar que as máquinas não possuem o discernimento que nós humanos temos 
quanto à moral e ética. Então cabe aos profissionais e a área, trabalhar e cobrar leis que 
regulamentem o uso de dados, além de monitorar a performance dos algoritmos e como elas se 
comportam no ambiente digital. 
É importante ressaltar que sempre há maneiras de corrigir os sistemas algorítmicos, pois 
se eles são alimentados com dados, podemos inserir novos dados, que não sejam 
discriminatórios, racistas ou excludentes. 
As empresas também têm papel fundamental na mudança de atitude dos algoritmos. O 
Google por exemplo já modificou alguns mecanismos para que algumas palavras não 
estivessem relacionadas à pornografia e outros significados sexistas ou racistas. O Spotify dá 
destaque a autores e criadores dentro da plataforma. Esses são pequenos passos, mas que 
resultam de uma urgência dentro da tecnologia. 
Sabemos que a probabilidade de mudança real é praticamente inviável no meio 
tecnológico a não ser que seja realmente regulamentada. 
A Lei Geral de Proteção de Dados no Brasil, entrou em vigor no mês de agosto de 2021 
e pode ser utilizada a favor nesse caso. Sabemos que a tecnologia e as leis muitas vezes não 
caminham nos mesmos passos, e que a tecnologia avança mais rapidamente do que as leis, 
porém, já é uma tentativa de tratar os dados pessoais dos usuários da internet, tentando 
implementar um processo um pouco mais transparente. 
Segundo Mendes e Fonseca (2020) as legislações que tratam sobre a proteção de dados 
pessoais, como a Lei Geral de Proteção de Dados (LGPD), não apenas tratam de privacidade, 
mas de direitos e liberdades fundamentais. 
Stefano Rodotà (2008, p. 142), afirma: “Para as tecnologias da informação e da 
comunicação também é preciso questionar se tudo o que é tecnicamente possível é socialmente 
e politicamente aceitável, eticamente admissível, juridicamente lícito.”. 
Embora essa seja uma demanda crescente, argumentos apresentados pelo Google 
apontam que se divulgados, seus algoritmos podem colocar em risco a arquitetura 
informacional e que podem resultar em um colapso. (LOBE, 2018). 
 
 
11 
 
 
A pesquisadora Nina da Hora afirma: 
“(...) não existe pensar solução tecnológica sem pensar as 
consequências para a sociedade e sem a participação da sociedade. Não existe 
inteligência artificial inclusiva se ela não reconhece uma raça ou se ela só 
direciona determinadas ações para um gênero. É realmente injusto que as 
empresas criem e disponibilizem ferramentas sem saber as reais 
consequências e pensar nas prevenções.” (HORA, MIT Tech Review Blog, 
2021). 
 
Não podemos mais deixar que as predições movidas pelos algoritmos influenciem o 
trabalho da área de marketing e o planejamento de mídia. Se pensarmos em segmentações, há 
algumas que são baseadas em dados e outras em comportamentos do usuário. 
Nos casos de predições, a chance de equívocos é muito maior. Esse tipo de segmentação 
entende esses dados e os agrupa, buscando padrões, que muitas vezes podem ser errôneos. 
É função dos profissionais da área repensar seus processos e rever padrões, 
principalmente os eurocêntricos, que invibilizam outras etnias. Precisamos de profissionais 
mais diversos e atuações mais diversas na tecnologia. 
Somente mudaremos essa realidade quando dermos mais foco ao consumidor final, em 
detrimento de quem realiza e aprova os investimentos na publicidade. Para isso, devemos 
pensar em toda a jornada do consumidor, entender realmente o perfil de personas que 
consomem as marcas e como essas utilizam a internet e o meio digital. É importante frisar que 
as campanhas em si também deverão mudar. Hoje ainda vemos muito mais pessoas brancas nas 
criações e peças de design do que pessoas de outras etnias. 
O ideal é que se estude todas as possibilidades e todas as alternativas para driblar a 
discriminação algorítmica, evitando a exclusão de grupos, indo além do comportamento da 
compra. As empresas também devem repensar seus parceiros comerciais, exigindo práticas 
mais rígidas para tal. 
Podem ser demandados esforços coletivos para a promoção de transparências nas redes 
e plataformas e, a codificação não discriminatória. Conforme falado, grupos mais 
representativos, que vão além de homens brancos programando, podem ajudar na identificação 
de vieses que discriminam minorias e maior equidade no ambiente online e offline. Sendo assim, 
podemos afirmar que: 
“O impacto negativo da falta de representatividade dos dados é evidente, e 
gera um distanciamento, por parte do processo automatizado, da igualdade de 
gênero que deve ser perseguida. Na verdade, a discussão da representatividade 
abrange questão muito maior, que envolve todos os grupos marginalizados, 
principalmente aqueles que ainda não foram atingidos pelo desenvolvimento 
tecnológico.” (LINDOSO, 2019, p. 62). 
 
12 
 
 
Dados por si só não agregam relevância a negócios. Para que eles tenham valor, é 
preciso realizar um minucioso processo de análise, quantificação, tratamento e armazenamento 
dos mesmos, para que de fato, gerem conteúdos e insights que façam sentido para as 
companhias. 
Aos profissionais de comunicação, flexibilidade, criatividade e posicionamento e 
conhecimento de causa para os processos comunicacionais. 
 
Conclusão 
A discriminação algorítmica hoje, atinge a sociedade de forma homogênea. Vivemos 
numa era onde os dados têm papel fundamental para a decisão de compra, formação de opinião, 
social e cultural, apoiados principalmente, pelo sistema capitalista. 
Nele, tudo pode ser comprado, monitorado e utilizado, desde que faça os lucros 
aumentarem. Porém, por outro lado, como profissionais de marketing, publicidade e tecnologia, 
temos a obrigação moral de assegurar que estamos realizando nosso trabalho de forma ética e 
justa, que valorize os indivíduos da sociedade de forma singular e não os coloque na posição 
de meras mercadorias. 
Sabemos que é difícil interromper ou parar o desenvolvimento da tecnologia, porém, 
não podemos negar que o uso desenfreado de dados pode causar danos sociais irreversíveis. 
Temos nas mãos ferramentas e informações o suficiente para executar um trabalho de forma 
correta, que abranja o maior número possível de pessoas e que respeite a diversidade. 
Empresas, mercado e legislação devem executar um trabalho em conjunto para que haja 
uma dinâmica que realmente tenha impacto nesse sentido. 
A iniciativa coletiva é a maior arma para que a realidade possa ser mudada. 
Combater vieses discriminatórios não é função de uma pessoa e sim de plataformas, de 
empresas, de governos. Ora, sim, cabe a nós fazermos nossa parte, mas também cobrar do meio 
em que vivemos para reafirmarmos o bem e valor social e mantermos o equilíbrio, respeitando 
a privacidade, os direitos humanos e a liberdade. 
 
 
 
 
 
 
 
13 
 
 
Referências 
 
AMARAL, Inês. Redes Sociais: Sociabilidades emergentes. Covilhã: Editora LabCom, 2016. 
 
BAKIR, Vian; MCSTAY, Andrew. Fake news and the economy of emotions: Problems, 
causes, solutions. Digital journalism, v.6, n.2, p. 154-175, 2018. 
 
BOZDAG, Engin. Bias in algorithmic filtering and personalization. Ethics and information 
technology, 15(3), 209-227, 2013. 
 
BOSTROM, Nick. Dinosaurs, dodos, humans? World Economic Forum. Global Agenda. 
Oxford: WEF, 2006. p. 230-1. Disponível em: 
<https://nickbostrom.com/papers/globalagenda.pdf> Acesso em: 12/07/2021. 
 
CASTELLS, Manuel. A galáxia da internet: reflexões sobre a internet, os negócios e a 
sociedade. Rio de Janeiro: Jorge Zahar Ed., 2003. 
 
DA HORA, Nina. Blog: Coded Bias: linguagem acessível para entender vieses em 
algoritmos. Rio de Janeiro, 30 de abril 2021. Disponível em: 
<https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/>. Acesso em: 22/08/2021. 
 
DAMACENO, Siuari; VASCONCELOS, Rafael; Inteligência artificial: Uma breve 
abordagem sobre seu conceito real e o conhecimento popular. Ciências exatas e 
tecnológicas, v. 5, n.1, p. 11-16, 2018. Disponível em: 
<https://periodicos.set.edu.br/cadernoexatas/article/view/5729/2966>. Acesso em: 20/07/2021. 
 
DIAKOPOULOS, Nicholas. Accountability in algorithmic decision making. 
Communications of the ACM, v. 59, n. 2, p. 56-62, 2016. 
 
FEENBERG, Andrew (1995). Racionalização Subversiva: Tecnologia, Poder e 
Democracia. In: NEDER, Ricardo T. (org.) A teoria crítica de Andrew Feenberg: 
racionalização democrática, poder e tecnologia/ Ricardo T. Neder (org.). –- Brasília: 
Observatório do Movimento pela Tecnologia Social na América Latina / CDS / UnB / Capes, 
pp. 67-95, 2010. 
 
GILLESPIE, Tarleton.; The relevance of algorithms. Media Technologies: Essays on 
communication, materiality, and society. Cambridge, 2014. Disponível em: 
<https://edisciplinas.usp.br/pluginfile.php/4873100/mod_folder/content/0/Gillespie-
Media%20Technologies%282014%29.pdf>. Acesso em 20/07/2021. 
 
GIZMODO. Usuários acusam Twitter de racismo após algoritmo de fotos priorizar 
brancos a negros. 2020 Disponível em: https://gizmodo.uol.com.br/twitter-algoritmo-fotos-
racismo/. Acesso em: 27/07/2021. 
 
GUNNING, David; AHA, David; Explainable artificial intelligence (xai) Program. AI 
Magazine, v. 40, n. 2, p. 44-58, 2019. Disponível em: 
<https://ojs.aaai.org/index.php/aimagazine/article/view/2850/3419>. Acesso em: 20/07/2021. 
 
https://nickbostrom.com/papers/globalagenda.pdf
https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/
https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/
14 
 
 
KOSINSKI, Michal; STILLWELL, David; GRAEPEL, Thore. Private traits and attributes 
are predictable from digital records of human behavior. Proceedings of the National 
Academy of Sciences, v. 110, n. 15, 2013. 
 
LINDOSO, Maria Cristine Branco. Discriminação de gênero em processos decisórios 
automatizados. Dissertação - Faculdade de Direito, Universidade de Brasília. Brasília. 2019. 
Disponível em: 
<https://repositorio.unb.br/bitstream/10482/38524/1/2019_MariaCristineBrancoLindoso.pdf.> 
Acesso em: 27/07/2021. 
 
LOBE, Adrian. Wenn Programmierer mächtiger als Politiker werden. Süddeutsche 
Zeitung, 2018. Disponível em: <https://www.sueddeutsche.de/digital/digitalisierung-
unddemokratie-hey-mark-zuckerberg-meine-demokratie-ist-nicht-dein-labor-1.4049824>. 
Acesso em: 27/07/2021. 
 
MENDES, Laura Schertel; FONSECA, Gabriel Campos Soares da. STF reconhece direito 
fundamental à proteção de dados: Comentários sobre o referendo da Medida Cautelar nas 
ADIs 6387, 6388, 6389, 6390 e 6393. Revista de Direito do Consumidor, vol. 130/2020, p. 471 
- 478, 2020. 
 
PASQUALE, Frank. A Esfera pública automatizada. Revista Eletrônica do Programa de 
Mestrado em Comunicação da Faculdade Cásper Líbero. Ano XX. Número 39. Jan/Ago. 2017. 
Disponível em: <https://casperlibero.edu.br/wp-content/uploads/2017/10/A-Esfera-
públicaautomatizada.pdf>. Acesso em: 27/06/2021. 
 
PASQUALE, Frank. The black box society: the secret algorithms that control money and 
information. Cambridge: Harvard University Press, 2015. 
 
RECUERO, Raquel. Redes sociais na Internet. Porto Alegre, Sulina: Editora Meridional, 
2009. 
 
SAAD, Beth. Estratégias 2.0 para mídia digital: internet, informação e comunicação. São 
Paulo: Editora Senac, 2003. 
 
SILVEIRA, Sergio; SILVA, Tarcízio. Controvérsias sobre Danos Algorítmicos: discursos 
corporativos sobre discriminação codificada. REVISTA OBSERVATÓRIO, v. 6, p. 1-16, 
2020. Disponível em: 
<https://sistemas.uft.edu.br/periodicos/index.php/observatorio/article/view/11069/17889>. 
Acesso em: 20/07/2021. 
 
SCHWINGEL, Carla. Mídias digitais: produção de conteúdo para web. São Paulo: Paulinas, 
2012. 
 
SHIPPERS, Laurianne-Marie. Algoritmos que discriminam: uma análise jurídica da 
discriminação no âmbito das decisões automatizadas e seus mitigadores. Monografia - 
Escola de Direito de São Paulo, Fundação Getúlio Vargas. São Paulo, 57 p. 2018. Disponível 
em: 
<http://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/29878/Algoritmos%20que% 
20discriminam%20-%20Laurianne-Marie%20Schippers.pdf?sequence=1&isAllowed=y>. 
Acesso em: 12/08/2021. 
https://sistemas.uft.edu.br/periodicos/index.php/observatorio/article/view/11069/17889
15 
 
 
 
SIMMEL, George. Conflict and the web of group-affiliations. New York, NY: Free Press, 
1955. 
 
TUNEL, Suzes. Algoritmos parciais: Como a inteligência artificial absorve padrões 
discriminatórios e o que a ciência pode fazer para evitar essas distorções. Revista Pesquisa 
FAPESP, São Paulo, 2019. Disponível em: <https://revistapesquisa.fapesp.br/algoritmos-
parciais/>. Acesso em: 13/08/2021. 
 
ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future 
at the New Frontier of Power. Public Affairs, 2019. 
 
 
 
https://revistapesquisa.fapesp.br/algoritmos-parciais/

Mais conteúdos dessa disciplina