Buscar

Relatório Discriminação Algoritmica

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 14 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 14 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 14 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE FEDERAL DO PARÁ
INSTITUTO DE TECNOLOGIA
FACULDADE DE ENGENHARIA DA COMPUTAÇÃO E TELECOMUNICAÇÕES
COMUNICAÇÃO E SOCIEDADE
DISCRIMINAÇÃO ALGORÍTMICA
EZEQUIEL DE CARVALHO ASSIS - 201807040011
HERMIL GLAUBER MARGALHO DAX REIS - 201807040024
BELÉM, PA
2021
OBJETIVO
O relatório visa conceituar e desenvolver uma análise a acerca da questão
relacionada a discriminação algoritmica, com intuito de ponderar esse assunto e
esclarecer a real importância da discriminação no âmbito de decisões e práticas
no que diz respeito ao desenvolvimento de algorítmos.
Ademais, expor os riscos e malefícios da utilização de alguns sistemas de
algoritmos construídos a partir de viés ideológicos, religiosos ou políticos. Abordar
como essas decisões computacionais podem prejudicar a utilização de
tecnologias, a acessibilidade cotidiana e os benefícios esperados por essas
ferramentas. Além disso, discutir como essa prática ocasiona a exclusão,
segregação e crescimento de práticas discriminatórias.
Por fim, através de conclusões, complementar o que deve ser feito para que
a utilização dessas tecnologias possam beneficiar a todos de forma transparente,
segura e respeitando direitos fundamentais.
Palavras-chave
Discriminação Algoritimica, proteção de dados, profiling, decisões
computacionais, Big Data.
INTRODUÇÃO
Para desenvolver e debater a questão relacionada à problemática referida, é
necessário discutir os conceitos de algoritmo e discriminação algoritmica, com a
finalidade de esclarecer a importância de tais temas no contexto tecnológico atual, e
observar quais os impactos desses conteúdos no âmbito individual e coletivo.
Dessa forma, algoritmos seriam determinados número de ações ou receitas
utilizadas para executar tarefas, julgar decisões e solucionar problemas. Por outro
lado, o conceito de descriminação algorítmica está relacionado ao desenvolvimento
de algoritmos, utilização de bancos de dados e outras técnicas de forma
inadequada.
Essas inadequações dizem respeito ao uso impróprio de conceitos não
éticos, onde essas ferramentas podem posteriormente apresentar na sua tomada de
decisões comportamentos discriminatórios. Desse modo, é nítido e indispensável
reconhecer a relevância do desenvolvimento de algoritmos relacionados a
processos decisórios e seus impactos na sociedade e adequar seu uso a uma
política social.
1. Definição de algoritmo
“Algoritmo é um procedimento sistemático que produz - em um número finito
de etapas - a resposta a uma pergunta ou a solução de um problema.”
(BRITANNICA, 1998). Diariamente pessoas criam algoritmos para terem auxílio em
uma determinada tarefa, esses algoritmos podem não ser tão precisos nas etapas
para alcançar um objetivo, mas um ser humano é capaz de compreender
determinadas imprecisões e completar suas tarefas. Entretanto, um computador não
é capaz de tomar decisões baseadas em situações imprecisas, a menos que essas
incertezas sejam explicitadas à ele. De acordo com Cormen:
Você pode ser capaz de tolerar quando um algoritmo é descrito de maneira
imprecisa, mas um computador, não. [...] Assim, um algoritmo computacional
consiste em uma série de etapas para completar uma tarefa que é descrita de
maneira precisa o bastante para que um computador possa realizá-la. (Cormen,
2013, p. 1)
Um algoritmo pode ser desenvolvido de várias formas, um manual de
instruções, uma receita de bolo, o passo-a-passo para a instalação de um
programa, todos são exemplos de algoritmos que podem ser escritos em qualquer
língua (inglês, português, francês, …) de modo que o resultado pode variar de
acordo com as variáveis de entrada ou até mesmo não alcançar um resultado se
não seguir os passos corretamente, por exemplo, se a pessoa usar sal ao invés de
açúcar (input) na receita de bolo, o sabor do bolo (output) será completamente
diferente.
Um algoritmo computacional segue os mesmos princípios, podendo ser
escrito em diferentes linguagens (C++, Python, assembly, …), porém de forma mais
complexa. Os dados de entrada podem variar e consequentemente os resultados
também.
2. Discriminação
Na plataforma online Dicio, podemos encontrar o seguinte significado da
palavra “discriminação”:
- Ação de discriminar, de segregar alguém, tratando essa pessoa de maneira
diferente e parcial, por motivos de diferenças sexuais, raciais, religiosas; ato
de tratar de forma injusta: discriminação racial.
- Capacidade de distinguir ou estabelecer diferenças; discernimento.
- Ação ou efeito de discriminar, distinguir ou diferenciar.
- Ação de afastar, segregar ou apartar.
Antes de abordar o tópico principal dessa discussão (discriminação no
sentido pejorativo), é importante deixar claro que a palavra “discriminação” não está
associada apenas ao ato de segregar alguem por questões sexuais, religiosas,
entre outros. A palavra “discriminação” pode ser empregada em outras situações
como distinguir e consequentemente classificar um determinado objeto de qualquer
natureza sem necessariamente inferiorizar ou tratar de forma injusta tal distinção.
A discriminação de raça, cor, etnia, religião ou procedência nacional é
cosiderado crime na lei brasileira, tanto para quem comete de forma direta, quanto
para quem incita a discriminação.
DISCUSSÃO
Para esclarecer a discriminação alogritmica e como é recorrente nos
sistemas algoritmicos atuais , é necesário estabelecer alguns conceitos e temas
relevantes . Assim podemos afirmar que a recorrente discriminação algoritmica
está diretamente ligada ao conceito de viés algorítmico, potencial discriminatório
em práticas de profiling criminal e os resultados de buscas em algoritmos de
pequisas(Google, Bing, Yahoo!) que se inserem no contexto atual do big data.
Estabelecer tais conceitos, é necessário para entender como se comportam
os resultados provenientes do desenvolvimento desses algoritmos de cunho
discriminatório.
1. Viés Algorítmico
Segundo o site wikipédia, em teoria o viés algorítmico está diretamente
relacionado ao desenvolvimento de algoritmos. Ao desenvolver esses sistemas,
essas tecnologias são programadas para terem o que chamamos de tecnologia
artificial. Com o intuito de tomarem decisões por meio de processos de
aprendizagem, através de uma grande quantidade de dados.
Esses processos de aprendizagem, chamados de Machine Learning, são
métodos de análise de dados, que consistem em aprender dados, identificar
padrões e tomar decisões com o mínimo de intervenção humana.
São necessários para que esse sistema aprimore seu conhecimento sobre as
decisões a serem tomadas. Todo seu processo de aprendizagem e funções de
decisão, baseiam-se na sua criação, ou seja, todas as decisões são escolhidas
no seu desenvolvimento e naquilo que seu criador julgar como sendo corretas.
Porém, o problema pode ocorrer quando esses processos de aprimoramento
são relacionados a pessoas, crenças ou culturas. Nesse caso, o sistema pode se
comportar com o viés discriminatório por meio do processo de aprendizagem de
máquina e nas suas funções de decisão. Resultando em um viés algorítmico.
Tipos de vieses Algorítmicos, segundo o site Wikipédia, que ocorrem com maior
frequência:
1. Viés racial
2. Viés relacionado ao gênero
3. Viés relacionado à nacionalidade
4. Viés relacionado à orientação sexual
5. Viés relacionado à deficiência física ou mental
6. Viés relacionado à idade
2. Profiling Criminal
Os algoritmos baseados em profiling criminal, consistem em análises
comportamentais com objetivo de auxiliar investigações criminais, estabelecendo
padrões por meio de características de indivíduos. Criando um padrão de
suspeitos, esses sistemas diminuem a lista de possíveis suspeitos. Porém, nem
todos os casos de ocorrências de análise através de profiling criminal são
adequados, existem casos em que esses algoritmos podem comportar-se com
viés discriminatório, prejudicando pessoas no âmbito criminal.
Casos reais de discriminação algoritmica são recorrentes, e a incriminação
de umapessoa inocente é uma possibilidade. A ocorrência de falha no
reconhecimento facial em câmeras digitais e Webcams em contextos
investigativos também é comum, e em alguns casos esses sistemas podem
falhar. Identificam na análise de base de dados, pessoas negras como possíveis
criminosos, por outro lado, identificam pessoas brancas como possíveis vítimas
de um crime.
Essas análises decorrem de diferentes abordagens específicas para tomar
decisões, contudo, a possibilidade de haver discriminação alogritmica é real.
“Em outras palavras, ao ser construída em cima de um banco de dados que
reflete uma sociedade injusta, a inteligência artificial acaba tomando também
decisões discriminatórias…”(UOL, 2018).
Trazendo um caso real de profiling criminal. O software Correctional Offender
Management Profiling for Alternative Sanctions (COMPAS) foi desenvolvido com
o propósito de gerenciar penitenciárias, fazendo triagem da saúde mental dos
detentos e outras funcionalidades, porém o COMPAS passou a ser amplamente
utilizado para avaliar o potencial risco de reincidência. Em 2016 a Suprema Corte
de Wisconsin (EUA), permitiu que as avaliações de risco do COMPAS podem ser
usadas pelos juízes para auxiliar na decisão da sentença. Um caso que ganhou
bastante destaque foi a condenação de Eric Loomis, condenado a seis anos de
prisão em agosto de 2013, onde sua sentença foi calculada com a ajuda do
algoritmo COMPAS.
Em 2016, o advogado de Eric argumentou perante a Suprema Corte de
Wisconsin, que a ferramenta algorítmica não deveria ser utilizada na decisão de
uma sentença assim como na decisão do tamanho da pena de um suspeito. A
justiça concluiu que não houve erro na condenação de Eric, mas enfatizou que a
defesa poderia refutar os resultados apresentados, desde que fossem
apresentadas provas de erros cometidos na decisão. No caso do COMPAS, uma
refutação se torna inviável, visto que o software é propriedade de uma empresa,
portanto sendo um segredo comercial.
4. A Discriminação Algoritmica nos mecanismos tecnológicos
É conclusivo que os algoritmos são reflexos da sociedade, e são carregados
de conjunto de tarefas provenientes do seu criador. Porém, indiretamente
também sofrem influência por parte dos usuários.
O processo de Machine Learning, influencia no resultado de buscas em sites
de pesquisa como o Google. Visto que o algoritmo se comporta de acordo com o
seu processo de aprendizagem. E é talvez nesse, que é nrecorrente os casos de
discriminação.
A maioria das buscas relacionadas à pobreza e violência em sites de
pesquisa, são associadas a pessoas negras e em poucos casos a pessoas
brancas. De forma análoga, pesquisas como “cabelo feio”, são diretamente
associadas a pessoas negras, enquanto pesquisas como “cabelo bonito” são
relacionadas a pessoas brancas. Isso ratifica a questão da discriminação
algoritima nesse mecanismo, e demonstra a relevância no contexto atual.
Outros assuntos relevantes também são inseridos neste cenário, e que
fazem parte da tedenciosidade de alguns algoritmos. Os anúncios de emprego
podem ser utilizados para exemplificar, e validam o julgamento. No Facebook por
exemplo, pesquisas mostraram que em anúncios de emprego de maior relevância
como médicos e advogados, esses anúncios em grande parte dos casos são
sugeridos apenas para pessoas brancas e ficam“ocultos” de outros grupos. Por
outro lado, anúncios de emprego como porteiro e faxineira, são sugeridos para
pessoas negras.
6. Big Data
A realidade atual no qual se insere a discriminação alogritimica, é o que
chamamos de Big Data, onde os algoritmos são estruturados apartir de um
conjunto de dados. Big Data define-se em como os dados chegam ao seu
destino, com maior volume e maior variedade de informações, ou seja, um
conjunto de dados mais complexos de fontes de informações diversas.
Esses conjuntos de dados são muito complexos, por isso é necessário um
software capaz de gerenciar esses dados. Esse método está relacionado com a
forma como esses algoritmos se comportam diante de decisões baseadas no seu
processo de aprendizagem de máquina.
Portanto, o objetivo principal é desenvolver sistemas de algoritmos com
arquiteturas mais complexas baseados na estrutura de Big Data, e que não
infrinjam questões éticas.
7. Discriminação por generalização
A discriminação acaba sendo algo corriqueiro no cotidiano quando aplicadas
decisões baseadas em generalizações estatisticas, levando a distinção de uma
pessoa não por suas caracteristicas individuais, mas pelas caracteristicas do grupo
no qual ela pertence. Vale citar um dos tipos de discriminações algorítmicas
descritas por Mendes e Mattiuzzo (2019):
Discriminação por generalização - [...] embora o algoritmo esteja correto e as
informações também, ainda assim o resultado será uma generalização incorreta, na
medida em que mesmo um resultado estatisticamente relevante apresentará um
percentual de pessoas que não se encaixam perfeitamente naquela média.. Isso se
dá pela própria natureza de qualquer exercício probabilístico.
RESULTADOS
Com base nos conceitos estabelecidos sobre os assuntos relacionados á
respeito da discriminação alogritimca, obtemos resultados e métodos para enfrentar
a discriminação por parte de algoritmos, a fim de garantir o uso eficiente desses
sistemas, assegurando comportamentos voltados para politicas sociais e questões
éticas.
1. Governança Algorítmica
Para lidar com essa questão, é necessário esclarecer o conceito de
Governança Algorítmica. Governança algorítmica está relacionada a questões de
regulamentação e políticas públicas para enfrentar a discriminação, tendo como
objetivo encontrar soluções que ofereçam transparência e uma visão geral a
respeito dessas soluções.
Este conceito visa debater a real necessidade de regulamentação e controle
de algoritmos, em que grupos responsáveis possam reger processos decisórios no
desenvolvimento de algoritmos.
A instituição Fairness, Accountability and Transparency in Machine Learning
Organization (FAT-ML em inglês) atua na intervenção e regulamentação de
algoritmos, e organizou uma lista com conceitos-chave que precisam ser
observados pelo governo, autoridade e o setor privado. Sendo eles:
responsabilidade, explicabilidade, precisão, auditabilidade e justiça.
Esses conceitos são focados nas soluções mais comumente discutidas, e
baseados nas discordâncias a respeito dessas propostas.
- Responsabilidade
Sob o ponto de vista da instituição FAT-ML, no desenvolvimento de algoritmos,
a possibilidade de ocorrerem falhas nesses sistemas e que seu processo de
decisão seja equivocado é real. Logo, pessoas podem ser afetadas por esses
processos, e esse princípio oferece alternativas para uma possível reparação
de danos. Concentrando-se em conscientizar criadores e usuários das
possíveis consequências de seu uso, possibilitando que indivíduos afetados
pelas ações de algoritmos sejam ressarcidos pelos danos causados.
- Explicabilidade
O conceito de explicabilidade está relacionado às justificativas para um
determinado resultado, e não somente uma descrição para o processo
decisório proposto. Em outras palavras, explicações e argumentos
compreensíveis para os usuários, de como é executado um processo por parte
dos algoritmos para chegar a uma determinada conclusão. Vale ressaltar, que
para esse caso a explicabilidade não é o mesmo que transparência. A
explicabildade se aplica somente a entender os processos de um algoritmo
para tomar uma certa decisão, enquanto a transparência se resume em
conhecer todos os passos para o algoritmo tomar uma decisão.
- Precisão
O princípio de precisão é a capacidade de desenvolver algoritmos com
porcentagem de erros mínimos, e que através do processo de aprendizagem
aprimore este percentual. Os erros e equívocos precisam ser identificados,
registrados e comparados, com o objetivo de compreender essas fontes a fim
de atenuar essas falhas.
- Auditabilidade
A auditabilidade infere a possibilidadede que um terceiro indivíduo seja
responsável por avaliar os métodos e processos utilizados pelo algoritmo para
obter uma determinada conclusão. No meio tecnológico ainda há muitas
controvérsias a respeito desse princípio, em como iria ocorrer essa divulgação
e se realmente seria conveniente utilizar essa ideia.
- Justiça
A ideia por trás desse conceito é de que as decisões de algoritmos não
podem contar resultados discriminatórios. No entanto, identificar quais
resultados são discriminatórios e quais não são, torna-se uma tarefa árdua e
desafiadora. E nesse ponto existem discordâncias significativas, o que leva
esse princípio a ter um requisito específico de validação e experimentação. No
qual influencia na realização de testes para avaliar se os conteúdos geram
danos discriminatórios.
3. Algorithmic Justice League (AJL)
Fundada em 2016, AJL é uma fundação responsável por segurança digitais e
com a finalidade de censurar o viés algorítmico. “A fim de conscientizar sobre as
implicações sociais da inteligência artificial por meio da arte e da
pesquisa”.(WIKIPÉDIA, 2021)
Segundo o Wikipédia, essa organização é estruturada em 3 medidas
utilizadas para combater as questões discriminatórias.
1. Identificar o viés algorítmico ao desenvolver ferramentas para o teste de
viés em algoritmos de aprendizagem de máquina.
2. Mitigar o viés algorítmico ao desenvolver métodos para inclusão em
amplo espectro durante o design, desenvolvimento, teste e distribuição de
softwares.
3. Chamar atenção através de materiais publicitários sobre o problema do
viés algorítmico, o impacto causado por ele nos indivíduos afetados e outras
informações importantes sobre este tema
8. LGPD e a Discriminação Algorítmica
A Lei Geral de Proteção de Dados (LGPD) vem atuando para mitigar o uso
indevido de dados pessoais, formalizando e impondo regras ao longo de todo o ciclo
de vida dos dados. Em relação a discriminação algoritmica, a LGPD, nº 13.709, Art.
6º, inciso IX, deixa explícito em um dos seus princípios para o tratamento de dados
“não discriminação: impossibilidade de realização do tratamento para fins
discriminatórios ilícitos ou abusivos” (BRASIL, 2018).
Um dos objetivos da lei é deixar transparente todo o tratamento de dados do
titular, desde a coleta até a finalidade dos dados. Portanto com as normas
estabelecidas pela LGPD, a governança algorítmica e a criação de instituições como
a FAT-ML, os sistemas algorítmicos terão mais transparência em seus critérios de
decisões.
CONCLUSÃO
Entendemos que, independentemente da solução concreta a ser adotada,
seja ela a transparência, o desenvolvimento de ferramentas ou uma combinação
dos diversos mecanismos apresentados, o caminho a ser trilhado deve sempre o
papel humano no processo de automação. Isso não quer dizer apenas a
possibilidade de revisão de decisões automatizadas por pessoas naturais, mas
também a centralidade do elemento humano em todo o processo de desenho dos
mecanismos.
Evidente que a centralidade humana também precisa estar refletida no
processo de revisão de decisões automatizadas. Essa preocupação deve se
apresentar tanto no momento de teste do sistema, portanto, antes que ele
efetivamente seja utilizado para decidir concretamente a respeito de situações reais,
a fim de que sejam observados os reais impactos dos resultados nas pessoas que
serão objetos do sistema, quanto na análise de decisões tomadas e posteriormente
questionadas por indivíduos que se sentiram por elas prejudicados
Com isso em mente, entendemos que qualquer debate sobre discriminação
algorítmica deve se centrar na seguinte ideia de que os valores que orientam a
sociedade e o direito não podem ser deixados de lado quando falamos em
automação e inteligência artificial. O desafio, portanto, é imaginar formas de traduzir
para sistemas aquilo que vem sendo construído nas ciências humanas há milênios.
A tarefa é certamente complexa e, por isso mesmo, tão relevante.
REFERÊNCIAS
CORMEN, T. H. Algorithms Unlocked. MIT Press, 2013.
The Editors of Encyclopaedia Britannica. Algorithm. Britannica, 1998.
disponível em: https://www.britannica.com/science/algorithm. Acesso em: 26
ago. 2021.
RIBEIRO; NEVES. Dicio: dicionário online de português, c2021. disponível
em: https://www.dicio.com.br/discriminacao/. Acesso em: 27 ago. 2021.
BARBOSA. Jota, 2021. disponível em:
jota.info/coberturas-especiais/inova-e-acao/inteligencia-artificial-e-discriminaca
o-algoritmica-10012021. Acesso em: 26 ago. 2021.
BABO. AB2L: Associação Brasileira de Lawtechs & Legaltechs, 2020.
Disponível em:
https://ab2l.org.br/discriminacao-algoritmica-origens-conceitos-e-perspectivas-r
egulatorias-parte-2/. Acesso em: 26 ago. 2021.
FRAZÃO. Genjurídico: Discriminação algorítmica, 2020. Disponível em:
genjuridico.com.br/2021/06/21/discriminacao-algoritmica/. Acesso em: 26 ago.
2021.
Wikipédia, a enciclopédia livre, 2021. Disponível em:
https://pt.wikipedia.org/wiki/Discrimina%C3%A7%C3%A3o_algor%C3%ADtmic
a. Acesso em: 29 ago. 2021.
VICENTE. UOL: TILT, 2018. Disponível em:
https://www.uol.com.br/tilt/noticias/redacao/2018/04/24/preconceito-das-maquin
as-como-algoritmos-tomam-decisoes-discriminatorias.htm. Acesso em: 27 ago.
2021.
AFONSO DA SILVA, V. A constitucionalização do direito: direitos fundamentais
e relações entre particulares. São Paulo: Malheiros, 2005. ARROW, K. The
theory of discrimination. In: ASHENFELTER, O.; REES, A. (Ed.). Discrimination
in Labor Markets. Princeton: Princeton University Press, 1973
MAYBIN. BBC News: Brasil, 2016. Disponível em:
https://www.bbc.com/portuguese/brasil-37677421. Acesso em: 29 ago. 2021.
Wikipédia, a enciclopédia livre, 2017. Disponível em:
https://pt.wikipedia.org/wiki/Caso_Eric_L._Loomis. Acesso em: 29 ago. 2021.
https://www.britannica.com/science/algorithm
https://www.dicio.com.br/discriminacao/
http://jota.info/coberturas-especiais/inova-e-acao/inteligencia-artificial-e-discriminacao-algoritmica-10012021
http://jota.info/coberturas-especiais/inova-e-acao/inteligencia-artificial-e-discriminacao-algoritmica-10012021
https://ab2l.org.br/discriminacao-algoritmica-origens-conceitos-e-perspectivas-regulatorias-parte-2/
https://ab2l.org.br/discriminacao-algoritmica-origens-conceitos-e-perspectivas-regulatorias-parte-2/
http://genjuridico.com.br/2021/06/21/discriminacao-algoritmica/
https://pt.wikipedia.org/wiki/Discrimina%C3%A7%C3%A3o_algor%C3%ADtmica
https://pt.wikipedia.org/wiki/Discrimina%C3%A7%C3%A3o_algor%C3%ADtmica
https://www.uol.com.br/tilt/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm
https://www.uol.com.br/tilt/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm
https://www.bbc.com/portuguese/brasil-37677421
https://pt.wikipedia.org/wiki/Caso_Eric_L._Loomis
ANGWIN; LARSON. Machine Bias. Propublica, New York. 23, mai. de 2016.
Disponível em:
<https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sente
ncing>. Acesso em: 29 ago. 2021.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Outros materiais