Buscar

SEMINÁRIO 1 TEXTO 1 Privacidade e liberdade de expressão na era da inteligência artificial

Prévia do material em texto

22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 1/31
Página 1
Privacidade e liberdade de expressão na era da inteligência artificial
Privacidade e liberdade de expressão
Na era da inteligência artificial
Abril de 2018
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 2/31
29/01
Página 2
Privacidade e liberdade de expressão na era da inteligência artificial
Sobre nós
ARTICLE 19 é uma organização global de direitos humanos, que trabalha em todo o mundo para
proteger e promover o direito à liberdade de expressão e informação ('liberdade
de expressão '). Fundada em 1987, com escritório internacional em Londres, ARTIGO
19 monitora ameaças à liberdade de expressão em diferentes regiões do mundo, e
desenvolve estratégias de longo prazo para enfrentá-los.
A ARTIGO 19 está ativamente engajada na promoção de ações justas, responsáveis e transparentes
Artificial Intelligence (AI), e investiga o impacto dos direitos humanos de algoritmos
tomada de decisões por meio de pesquisa e engajamento de políticas. Nosso trabalho em IA e
a liberdade de expressão, até agora, inclui um resumo de política sobre algoritmos e
tomada de decisão, várias submissões à AI e iniciativa de ética do Instituto de
Engenharia Elétrica e Eletrônica (IEEE), uma apresentação recente à UK House
of Lords Select Committee on AI, co-presidindo vários grupos de trabalho do IEEE
iniciativa, adesão à Partnership on AI (PAI) e orientação sobre o desenvolvimento
de IA para gerenciamento de rede na Internet Engineering Task Force (IETF).
A Privacy International é uma organização não governamental sem fins lucrativos com sede em
Londres, que se dedica a defender o direito à privacidade em todo o mundo. Estabelecida em
1990, a Privacy International realiza pesquisas e investigações no governo
vigilância e exploração de dados no setor privado com foco no
tecnologias que viabilizam essas práticas. Para garantir o respeito universal pelo direito de
privacidade, a Privacy International defende forte apoio nacional, regional e internacional
leis que protegem a privacidade em todo o mundo. Litigou ou interveio em casos
implicando o direito à privacidade nos tribunais dos Estados Unidos, Reino Unido e Europa,
incluindo o Tribunal Europeu dos Direitos do Homem e o Tribunal de Justiça Europeu.
Nosso trabalho sobre IA e privacidade até agora inclui uma submissão à IA e à ética
iniciativa do Instituto de Engenharia Elétrica e Eletrônica (IEEE), um recente
submissão e prova oral ao Comitê de IA da Câmara dos Lordes do Reino Unido,
bem como vários envios sobre criação de perfil e tomada de decisão automatizada para o
Grupo de Trabalho do Artigo 29 - um órgão consultivo constituído por um representante do
autoridade de proteção de dados de cada Estado-Membro da UE, a European Data Protection
Supervisor e a Comissão Europeia que está elaborando orientações para o Conselho Geral da UE
Regulamento de Proteção de Dados.
user
Realce
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 3/31
Página 3
Privacidade e liberdade de expressão na era da inteligência artificial
29/01
Conteúdo
Sumário executivo
Introdução
O que é Inteligência Artificial?
IA e o direito à liberdade de expressão
Estabelecendo o Nexus
Mapeando a Paisagem
Direito Internacional dos Direitos Humanos
Estruturas Nacionais
Normas Técnicas
Autorregulação por empresas
Desafios
IA e privacidade
Estabelecendo o Nexus
Mapeando a Paisagem
Direito Internacional dos Direitos Humanos
Proteção de dados
Regulamento Setorial de Privacidade
Códigos Éticos e Padrões da Indústria
Desafios
Conclusões e Recomendações
02
04
06
08
08
11
11
12
12
14
15
17
17
20
20
21
23
24
26
28
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 4/31
Página 4
Privacidade e liberdade de expressão na era da inteligência artificial
29/02
Sumário executivo
A Inteligência Artificial (IA) faz parte de nossas vidas diárias. Esta tecnologia molda como as pessoas
acessar informações, interagir com dispositivos, compartilhar informações pessoais e até
compreender línguas estrangeiras. Também transforma a forma como os indivíduos e grupos podem
ser rastreada e identificada, e altera drasticamente os tipos de informação que podem ser
coletou sobre as pessoas a partir de seus dados.
A IA tem o potencial de revolucionar as sociedades de maneiras positivas. No entanto, como com qualquer
avanço científico ou tecnológico, existe um risco real de que o uso de novas ferramentas
por estados ou empresas terá um impacto negativo sobre os direitos humanos.
Embora a IA tenha impacto sobre uma infinidade de direitos, a ARTIGO 19 e a Privacidade Internacional são
particularmente preocupado com o impacto que terá sobre o direito à privacidade e o
direito à liberdade de expressão e informação.
Este artigo de escopo concentra-se em aplicações de 'inteligência artificial estreita': em
em particular, o aprendizado de máquina e suas implicações para os direitos humanos.
O objetivo do artigo é quádruplo:
1 Apresentar as principais definições técnicas para esclarecer o debate;
2 Examine as principais maneiras pelas quais a IA impacta o direito à liberdade de expressão e
o direito à privacidade e delinear os principais desafios;
3 - Revise o cenário atual de governança de IA, incluindo vários
estruturas jurídicas, técnicas e corporativas e iniciativas de IA lideradas pela indústria que
são relevantes para a liberdade de expressão e privacidade; e
4 - Fornece sugestões iniciais para soluções baseadas em direitos que podem ser buscadas por
organizações da sociedade civil e outras partes interessadas em atividades de defesa de IA.
Acreditamos que as respostas de política e tecnologia nesta área devem:
• Garantir a proteção dos direitos humanos, em particular o direito à liberdade de
expressão e direito à privacidade;
• Garantir a responsabilidade e transparência da IA;
Página 5
Privacidade e liberdade de expressão na era da inteligência artificial
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 5/31
29/03
• Incentivar os governos a revisar a adequação de qualquer legislação e política
estruturas e regulamentos sobre IA no que diz respeito à proteção da liberdade de
expressão e privacidade;
• Ser informado por uma compreensão holística do impacto da tecnologia: caso
estudos e pesquisas empíricas sobre o impacto da IA nos direitos humanos devem ser
coletado; e
• Ser desenvolvido em colaboração com uma ampla gama de partes interessadas, incluindo
sociedade civil e redes de especialistas.
Página 6
Privacidade e liberdade de expressão na era da inteligência artificial
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 6/31
29/04
Introdução
Inteligência Artificial (IA) e suas aplicações fazem parte da vida cotidiana: desde a curadoria
feeds de mídia social para mediar o fluxo de tráfego nas cidades, e de carros autônomos para
dispositivos de consumo conectados, como assistentes inteligentes, filtros de spam, reconhecimento de voz
sistemas e motores de busca.
O repentino aumento dessas aplicações é recente, mas o estudo e desenvolvimento de
AI tem mais de meio século: o termo foi cunhado em 1956, embora o conceito vá
ainda mais longe, ao final do século XVIII. O momento atual é alimentado pela disponibilidade
de grandes quantidades de dados, poder computacional acessível e acessível, continuou
desenvolvimento de métodos estatísticos e o fato de que a tecnologiaagora está incorporada
no tecido da sociedade. Contamos com ele de mais maneiras do que a maioria tem consciência. 1
Se implementada de forma responsável, a IA pode beneficiar a sociedade. No entanto, como é o caso com
maioria das tecnologias emergentes, há um risco real de que o uso comercial e estatal tenha um
impacto prejudicial sobre os direitos humanos. Em particular, as aplicações dessas tecnologias
frequentemente dependem da geração, coleta, processamento e compartilhamento de grandes quantidades
de dados, tanto sobre o comportamento individual quanto coletivo. Esses dados podem ser usados para
traçar o perfil dos indivíduos e prever o comportamento futuro Embora alguns desses usos, como spam
filtros ou itens sugeridos para compras online, podem parecer benignos, outros podem ter
repercussões mais sérias e podem até representar ameaças sem precedentes à direita
à privacidade e o direito à liberdade de expressão e informação ('liberdade de
expressão'). 2 O uso de IA também pode impactar o exercício de uma série de outros direitos,
incluindo o direito a um recurso efetivo, o direito a um julgamento justo e o direito a
livre de discriminação.
A ameaça representada pela IA, portanto, não assume a forma de uma máquina superinteligente
dominando a humanidade: em vez disso, os principais problemas com IA podem ser encontrados em seu atual
uso diário. 3 Este artigo de escopo se concentra em aplicações de 'artificial estreito
inteligência ', em particular o aprendizado de máquina, e suas implicações para os direitos humanos.
Cath, C., Wachter, S., Mittelstadt, B. et al., 'Artificial Intelligence and the' Good Society ':
The US, EU, and UK Approach ', Science and Engineering Ethics, 2017, p. 1 - 24.
Veja, por exemplo, V. Dodd, Polícia do Met para usar software de reconhecimento facial em Notting Hill
carnaval, The Guardian, 5 de agosto de 2017; disponível em: https://www.theguardian.com/uk-
noticias / 2017 / ago / 05 / met-policial-reconhecimento-facial-software-notting-hill-carnival .
ARTIGO 19, Submissão ao Comitê Seleto de Inteligência Artificial da Câmara dos Lordes, 6
Setembro de 2017, disponível em: https://www.article19.org/wp-content/uploads/2017/10/ARTICLE-
19-Evidence-to-the-House-of-Lords-Select-Committee-AI.pdf .
1
2
3
Página 7
Privacidade e liberdade de expressão na era da inteligência artificial
O direito à liberdade de expressão e o direito à privacidade reforçam-se mutuamente -
ainda mais na era digital. 4 A privacidade é um pré-requisito para o exercício da liberdade
de expressão: sem ela, os indivíduos não têm espaço para pensar, falar e desenvolver sua
voz. Sem liberdade de expressão, os indivíduos seriam incapazes de desenvolver sua
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/uk-news/2017/aug/05/met-police-facial-recognition-software-notting-hill-carnival
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/uk-news/2017/aug/05/met-police-facial-recognition-software-notting-hill-carnival
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/10/ARTICLE-19-Evidence-to-the-House-of-Lords-Select-Committee-AI.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/10/ARTICLE-19-Evidence-to-the-House-of-Lords-Select-Committee-AI.pdf
user
Realce
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 7/31
29/05
senso próprio.
Ambos os direitos são, portanto, fundamentos essenciais para uma política aberta e democrática
sociedades e entre as condições básicas para o progresso, bem como para cada indivíduo
auto-realização. Para que a democracia, a responsabilidade e a boa governança prosperem, a liberdade
expressão deve ser respeitada e protegida. O mesmo é verdade para o direito de
privacidade, que é um poderoso baluarte contra o poder estatal e corporativo.
Enquanto muitos falam sobre a necessidade de pensar cuidadosamente sobre a incorporação da IA
aplicações nos 'sistemas críticos de segurança' das sociedades - como redes de eletricidade e água
suprimentos - é importante centrar novamente o debate mais amplo sobre o uso de IA em humanos
contextos críticos de direitos '.
É imperativo que os formuladores de políticas, reguladores, empresas, sociedade civil e outros
as partes interessadas que trabalham com o direito à privacidade e a liberdade de expressão compreendem
as implicações, riscos e potencial da IA.
Neste documento de escopo, a ARTIGO 19 e a Privacidade Internacional pretendem contribuir para tal
compreensão. Primeiro, apresentamos as principais definições técnicas para esclarecer o debate e
examinar as principais maneiras pelas quais a IA impacta o direito à liberdade de expressão e o direito
à privacidade, e destacamos os principais desafios. Em seguida, revisamos o panorama atual de
Governança de IA, incluindo várias estruturas jurídicas, técnicas e corporativas existentes
e iniciativas de IA lideradas pela indústria relevantes para a liberdade de expressão e privacidade. Finalmente,
também fornecemos sugestões iniciais para soluções baseadas em direitos que podem ser buscadas por
organizações da sociedade civil e outras partes interessadas em atividades de defesa de IA.
ARTIGO 19, Os Princípios Globais sobre Proteção da Liberdade de Expressão e Privacidade, 2017,
disponível em http://article19.shorthand.com /.
4
Página 8
Privacidade e liberdade de expressão na era da inteligência artificial
O que é Inteligência Artificial?
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://article19.shorthand.com/
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 8/31
29/06
O termo 'IA' é usado para se referir a uma ampla gama de aplicações e técnicas,
em diferentes níveis de complexidade, autonomia e abstração. Este amplo uso
engloba o aprendizado de máquina (que faz inferências, previsões e decisões
sobre indivíduos), algoritmos de IA específicos de domínio, totalmente autônomos e conectados
objetos e até mesmo a ideia futurística de uma 'singularidade' de IA.
Essa falta de clareza na definição é um desafio: diferentes tipos de sistemas de IA aumentam
questões éticas e regulatórias específicas.
Do ponto de vista conceitual, é importante considerar os seguintes conceitos-chave
em debates relacionados à IA:
G. Kasparov, Learning to Love Intelligent Machine, The Wall Street Journal, 14 de abril de 2017,
disponível em: https://www.wsj.com/articles/learning-to-love-intelligent-machines-1492174086 .
C. Metz, 'What the AI behind Alpha Go pode nos ensinar sobre ser humano', Wired, 19 de maio de 2017,
disponível em: https://www.wired.com/2016/05/google-alpha-go-ai/ .
L. Floridi, Devemos ter medo da IA ?, Aeon, 9 de maio de 2016, disponível em: https://aeon.co/
essays / true-ai-is-both-logically-possible-and-totalmente-implausible .
T. Gillespie, A relevância dos algoritmos, tecnologias de mídia: ensaios sobre comunicação,
materialidade e sociedade, MIT Press, 2014, p. 167
5
6
7
8
A inteligência artificial estreita é a capacidade das máquinas de se assemelharem
capacidades humanas em domínios estreitos, com diferentes graus de técnica
sofisticação e autonomia. Os exemplos incluem: chatbots que auxiliam por
responder a perguntas específicas; Deep Blue, um computador para jogar xadrez desenvolvido
pela IBM, que venceu o campeão mundial de xadrez Garry Kasparov em maio
1997; 5 ou o sistema de computador que derrotou o mestre reinante do
Jogo de tabuleiro chinês Go em maio de 2017. 6
A inteligência geral artificial é abrangente, e ainda não alcançada,
objetivo de um sistema que exibe inteligência em vários domínios, com o
capacidade de aprender novas habilidades, e que imitam ou até superama inteligência humana.
É teorizado que a criação de inteligência artificial geral pode levar a
a 'singularidade', ou um período de crescimento tecnológico descontrolado que profundamente
muda a civilização humana. Isso ainda está, pelo menos, décadas de distância, se não
totalmente implausível. 7
Algoritmo pode se referir a qualquer instrução, como código de computador, que realiza
um conjunto de comandos: isso é essencial para a maneira como os computadores processam dados. Para o
para fins deste artigo, refere-se a 'procedimentos codificados para transformar a entrada
dados na saída desejada, com base em cálculos específicos. ' 8
Página 9
Privacidade e liberdade de expressão na era da inteligência artificial
A tomada de decisão automatizada 'geralmente envolve coleta de dados em grande escala
por vários sensores, processamento de dados por algoritmos e, posteriormente, automático
desempenho.' 9 É um meio eficiente de gerenciar, organizar e analisar
grandes quantidades de dados e estruturação da tomada de decisões de acordo. Pode ou
pode não contar com IA, com vários graus de envolvimento humano. 10 pode fazer
decisões, ou geram conhecimento ou informação, que molda significativamente ou
influencia o exercício dos direitos humanos.
O aprendizado de máquina é uma técnica popular no campo da IA que tem
ganhou destaque nos últimos anos. Muitas vezes usa algoritmos treinados
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wsj.com/articles/learning-to-love-intelligent-machines-1492174086
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wired.com/2016/05/google-alpha-go-ai/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 9/31
29/07
M. Perel & N. Elkin-Koren, Responsabilidade na aplicação algorítmica de direitos autorais, Stanford
Technology Law Review, 2016.
O grau de envolvimento humano que torna uma decisão automatizada está sujeito a debate:
O Artigo 22 do Regulamento Geral Europeu de Proteção de Dados, por exemplo, abrange apenas
decisões automatizadas que são "baseadas exclusivamente" no processamento automatizado, o que deixa espaço para
interpretação. O atual projeto de diretrizes do Grupo de Trabalho do Artigo 29, por exemplo,
argumenta que a intervenção humana tem que ser significativa e não pode ser apenas um gesto simbólico.
Ver Artigo 29 Data Protection Working Party, (2017), Guidelines on Automated individual
tomada de decisão e definição de perfis para efeitos do Regulamento 2016/679.
H. Surden, 'Machine Learning and the Law', 89 Washington Law Review 87, 2014, p. 89-90.
A. Munoz, Machine Learning and Optimization, New York University, disponível em: https: //
cims.nyu.edu/~munoz/files/ml_optimization.pdf .
NG Andrew, Machine Learning, Coursera, disponível em: https://www.youtube.com/
assistir? v = PPLop4L2eGk & list = PLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN .
SJ Russell e P. Norvig, Artificial Intelligence: A Modern Approach, Third Edition,
Pearson, 2015, p. 846.
9
10
11
12
13
14
com grandes quantidades de dados para melhorar o desempenho de um sistema em uma tarefa
hora extra. 11 As tarefas tendem a envolver a tomada de decisões ou o reconhecimento
padrões, com muitas saídas possíveis em uma variedade de domínios e
formulários. Arthur Samuel, que cunhou o termo, referiu-se a máquina
programas de aprendizagem como aqueles que têm 'a capacidade de aprender sem
sendo explicitamente programado. ' 12 Muitas das tecnologias comumente
referidos como IA hoje são, estritamente falando, máquinas
sistemas de aprendizagem.
Máquina de aprendizagem supervisionada, não supervisionada e reforçada
a aprendizagem é geralmente classificada nesses três tipos. Supervisionado
o aprendizado de máquina constitui a maioria dos aplicativos de IA atualmente. Procura
para ensinar o computador a prever uma saída, assumindo que a entrada
os dados são rotulados corretamente. O aprendizado de máquina supervisionado pode ser
usado para prever uma saída de valor contínuo por meio de regressão, ou um
saída com valor discreto por meio da classificação. 13 aprendizado não supervisionado,
por outro lado, depende do programa de computador para encontrar a estrutura
dentro dos dados, com base em recursos específicos. Aprendizagem reforçada é a
terceiro tipo, em que o programa é colocado em um ambiente e deve
aprender como se comportar com sucesso dentro desse ambiente, com base em
feedback de sucessos e fracassos. 14
Página 10
Privacidade e liberdade de expressão na era da inteligência artificial
IA e o direito à liberdade de expressão
Estabelecendo o Nexus
A IA impactará significativamente o direito à liberdade de expressão. 15 É aplicado em um
grande número de situações que influenciam como os indivíduos acessam e encontram informações
conectados. Cada vez mais, intermediários online, como plataformas de mídia social e pesquisa
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://cims.nyu.edu/~munoz/files/ml_optimization.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://cims.nyu.edu/~munoz/files/ml_optimization.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.youtube.com/watch%3Fv%3DPPLop4L2eGk%26list%3DPLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.youtube.com/watch%3Fv%3DPPLop4L2eGk%26list%3DPLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN
user
Realce
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 10/31
29/08
motores, usam sistemas de IA para controlar as informações com as quais os usuários se envolvem em opacos e
caminhos inescrutáveis. 16 Embora alguns usos, por exemplo, filtros de spam ou itens sugeridos para
compras online, podem parecer inofensivas, outras podem ter repercussões mais graves.
A vigilância acionada por IA apresenta uma repercussão séria. O penetrante
e a natureza invisível dos sistemas de IA, juntamente com sua capacidade de identificar e rastrear
comportamento, pode ter um efeito inibidor significativo sobre a liberdade de expressão. este
pode ocorrer por meio de autocensura, comportamento alterado em espaços públicos e
comunicações privadas semelhantes. O surgimento de técnicas como videovigilância facial
reconhecimento, análise de comportamento, etc., por autoridades públicas e empresas privadas
entravam a liberdade de expressão e também infringem a própria essência do direito à privacidade. 17
A vigilância em massa, em particular, é uma interferência desproporcional com a privacidade e o
liberdade de expressão, enquanto a vigilância direcionada só pode ser justificada quando é
prescrito por lei, necessário para atingir um objetivo legítimo e proporcional ao objetivo
perseguida. 18
Além disso, os dados gerados e usados por intermediários online em sistemas de IA são
outra preocupação. Para aproveitar os recursos da IA, grandes quantidades de dados são
gerados e coletados. Isso é preocupante porque os conjuntos de dados são frequentemente construídos através de
métodos problemáticos de coleta, levando-os a conter preconceitos que refletem
padrões de estereótipos sociais. 19 Mesmo quando este não é o caso, as amostras de dados podem
não ser representativo da população em geral. Em qualquer situação, os dados podem levar a IA
aplicações para impactar negativamente a liberdade de expressão.
L. Rainie & J. Anderson, Code-Dependent: Pros and Contras of the Algorithm Age, Pew Research
Center, fevereirode 2017, disponível em: http://pewrsr.ch/2BpdxYx .
J. Balkin, Free Speech in the Algorithmic Society: Big Data, Private Governance e
Novo regulamento da fala na escola, 2017, disponível em: https://papers.ssrn.com/sol3/papers.
cfm? abstract_id = 3038939 .
ARTIGO 19, Princípios globais sobre proteção da liberdade de expressão e privacidade,
op.cit.
Princípios internacionais sobre a aplicação dos direitos humanos às comunicações
Vigilância (“Princípios necessários e proporcionais”), disponível em: https: //
neededandproportionate.org/principles .
R. Calo, Artificial Intelligence Policy: A Primer and Roadmap, 2017, disponível em: https: //
ssrn.com/abstract=3015350 ou http://dx.doi.org/10.2139/ssrn.3015350.
15
16
17
18
19
Página 11
Privacidade e liberdade de expressão na era da inteligência artificial
Por exemplo, se os sistemas de moderação de conteúdo de IA não são treinados em gírias ou não
o uso padrão de certa expressão frequentemente usada por grupos minoritários pode potencialmente
levar esses sistemas a censurar o discurso legítimo.
Além da vigilância, é difícil fornecer uma visão abrangente das maneiras
em que a IA impacta o direito à liberdade de expressão: seus efeitos são setoriais e
específico do contexto. AI levanta questões diferentes dependendo de sua aplicação, ou seja, online
moderação de conteúdo em plataformas de mídia social ou para casas inteligentes. Nesta fase,
A ARTIGO 19 considera a importância da IA através das lentes de nossos cinco principais
áreas de trabalho e destaca as seguintes questões: 20
Digital: a tecnologia molda como as pessoas exercem seu direito à liberdade de
expressão, como eles acessam informações e como eles interagem online. AI
impacta como os indivíduos podem acessar informações e se expressar no
Internet, inclusive por meio de mecanismos de pesquisa e mídias sociais. Também afeta o
funcionamento técnico fundamental da própria Internet com o uso crescente de
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://pewrsr.ch/2BpdxYx
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3038939
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3038939
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://necessaryandproportionate.org/principles
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://necessaryandproportionate.org/principles
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ssrn.com/abstract%3D3015350
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ssrn.com/abstract%3D3015350
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://dx.doi.org/10.2139/ssrn.3015350
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 11/31
29/09
ARTIGO 19, The Expression Agenda Report 2016-2017, disponível em: https: //www.article19.
org / wp-content / uploads / 2017/12 / Expression-Agenda-Report-2017-for-web-_30.11.17.pdf .
R. Brauneis & E. Goodman, Algorithmic Transparency for the Smart City, Yale Journal of Law &
Tecnologia, Artigo de Pesquisa de Direito Público da Escola de Direito da GWU, 2 de agosto de 2017, disponível em: https: //
papers.ssrn.com/sol3/papers.cfm?abstract_id=3012499 .
C. Cath et al., Media Development in the Digital Age: Five Ways to Engage in Internet
Governance, 2017, disponível em: https://www.cima.ned.org/publication/media-development-
digital-age-five-way-engaje-internet-governança /.
20
21
22
IA em redes de Internet. Organismos de definição de padrões técnicos, como o Institute for
Engenheiros elétricos e eletrônicos (IEEE) também estão atualmente no processo de
desenvolver padrões para sistemas de IA éticos e seguros.
Espaço Cívico: Espaço Cívico é o lugar físico e legal onde os indivíduos
realizar seus direitos. Este espaço é cada vez mais impactado por várias IA
aplicativos, de algoritmos de feed de notícias a dispositivos conectados em cidades inteligentes.
Com base nessas aplicações, os sistemas de IA em breve moldarão a tomada de decisões
sistemas e espaços onde as pessoas e comunidades se organizam, se associam e
reunir, das casas às cidades. 21
Mídia: O pluralismo da mídia e a liberdade da mídia são essenciais para proteger e
promovendo a liberdade de expressão e o interesse público de uma forma cada vez mais
cenário de mídia globalizado, digitalizado e convergente. Existe o perigo de que um
número limitado de empresas digitais se tornará o canal central para a mídia
conteúdo online. Este é particularmente o caso se as empresas usam sistemas opacos de IA
que classificam as informações, seja em sites de notícias ou por filtragem de e-mail, de acordo com
indicadores que muitas vezes permanecem desconhecidos para os usuários. 22
Transparência: Transparência e acesso à informação - tanto do público quanto
órgãos privados - são cruciais para garantir a governança democrática. Cada vez mais,
as decisões sobre o acesso à informação, tradicionalmente feitas por humanos, agora são
impulsionado por aplicativos de IA. Esses sistemas têm a capacidade de excluir seletivamente
Página 12
Privacidade e liberdade de expressão na era da inteligência artificial
ou enfatizar informações críticas, 23 e pode permitir que governos implantem IA
sistemas sem transparência. 24
Proteção: Aqueles na linha de frente da defesa da liberdade de expressão e
as informações devem ser apoiadas por um quadro jurídico forte e capacitador para
liberdade de expressão, mecanismos eficazes de proteção do direito de
liberdade de expressão, devido processo legal e redes ativas de instituições
e ativistas. Várias aplicações de IA são problemáticas, em particular para
vigilância e censura, ou visando aqueles que exercem sua liberdade de
expressão de uma forma que é controversa na visão dos governos e
outras instituições e corporações poderosas. 25
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/12/Expression-Agenda-Report-2017-for-web-_30.11.17.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/12/Expression-Agenda-Report-2017-for-web-_30.11.17.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3012499
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3012499
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.cima.ned.org/publication/media-development-digital-age-five-ways-engage-internet-governance/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.cima.ned.org/publication/media-development-digital-age-five-ways-engage-internet-governance/
user
Realce
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 12/31
29/10
Por exemplo, estudos recentes mostram que a IA tem o potencial de privilegiar a propaganda
de empregos bem remunerados para homens em vez de anúncios para mulheres. Veja, por exemplo, M. Day, How
O mecanismo de pesquisa do LinkedIn pode refletir um preconceito de gênero, The Seattle Times, 31 de agosto de 2016,
disponível em: https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-
may-reflect-a-bias /.
AI NOW, AI Now 2017 Report, 2017, disponível em: https://ainowinstitute.org/AI_Now_2017_
Report.pdf .
Veja, J. Liu, 'In your Face: China's all-see state', BBC, 10 de dezembro de 2017, disponível em
http://www.bbc.co.uk/news/av/world-asia-china-42248056/in-your-face-china-s-all-seeing-state .
Veja também a rede de vigilânciaCCTV da China levou apenas 7 minutos para capturar o repórter da BBC,
Tech Crunch, 13 de dezembro de 2017, disponível em https://techcrunch.com/2017/12/13/china-cctv-bbc-
repórter /.
23
24
25
Página 13
Privacidade e liberdade de expressão na era da inteligência artificial
Mapeando a Paisagem
Direito Internacional dos Direitos Humanos
O direito à liberdade de expressão é garantido no Artigo 19 da Universal
Declaração dos Direitos Humanos (UDHR) 26 e o Pacto Internacional sobre Assuntos Civis e
Direitos Políticos (ICCPR), 27 bem como em tratados regionais de direitos humanos. 28
Embora o direito à liberdade de expressão seja um direito fundamental, não é garantido
em termos absolutos. De acordo com as normas internacionais, em particular o Artigo 19, parágrafo 3 da
PIDCP, as restrições ao direito à liberdade de expressão devem ser estrita e restrita
adaptados e não podem comprometer o direito em si. O método de determinação
se uma restrição é estritamente adaptada é frequentemente articulado como um teste de três partes.
As restrições devem: (i) ser previstas em lei; (ii) perseguir um objetivo legítimo; e (iii) conformar
aos rigorosos testes de necessidade e proporcionalidade. 29
Não existem padrões internacionais que lidem explicitamente com IA e o direito
à liberdade de expressão. No entanto, existe um corpo de normas internacionais que
são relevantes para o uso de IA, especialmente em relação a intermediários online. 30 para
exemplo, os estados não devem impor uma obrigação geral aos intermediários de monitorar
as informações que eles transmitem, armazenam, automatizam ou usam de outra forma , 31 e os usuários
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ainowinstitute.org/AI_Now_2017_Report.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ainowinstitute.org/AI_Now_2017_Report.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.bbc.co.uk/news/av/world-asia-china-42248056/in-your-face-china-s-all-seeing-state
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://techcrunch.com/2017/12/13/china-cctv-bbc-reporter/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://techcrunch.com/2017/12/13/china-cctv-bbc-reporter/
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 13/31
29/11
deve ter a oportunidade de desafiar o bloqueio e a filtragem de conteúdo. 32
Em nível regional, alguns aspectos das aplicações de IA foram abordados no
Novo Regulamento Geral de Proteção de Dados da União Europeia (GDPR), embora o
GA Res. 217 (III) A, UDHR, art. 19 (10 de dezembro de 1948). O artigo 19 da UDHR declara: “Todos
tem direito à liberdade de opinião e expressão; este direito inclui a liberdade de segurar
opiniões sem interferência e buscar, receber e transmitir informações e ideias por meio
qualquer mídia e independentemente de fronteiras. ”
Para a interpretação do Artigo 19 do PIDCP, consulte o Comentário Geral No 34, CCPR / C / GC / 3.
Artigo 9 da Carta Africana dos Direitos Humanos e dos Povos, Artigo 13 da Carta Americana
Convenção sobre Direitos Humanos, Artigo 10 da Convenção Europeia sobre Direitos Humanos e
Artigo 11.º da Carta dos Direitos Fundamentais da UE.
Comentário Geral nº 34, CCPR / C / GC / 3, par. 21, 22.
Ver, em particular o Relatório do Relator Especial do Conselho de Direitos Humanos sobre o
promoção e proteção do direito à liberdade de opinião e expressão, 16 de maio de 2011,
parágrafo 47, disponível em: http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.
HRC.17.27_en.pdf ; Regulamento (UE) 2016/679, 27 de abril de 2016 sobre a proteção de pessoas singulares
no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados,
e que revoga a Diretiva 95/46 / CE (Regulamento Geral sobre a Proteção de Dados), 2016 JO (L 119) 1.
Diretiva 2000/31 / EC de 8 de junho de 2000 sobre certos aspectos jurídicos dos serviços da sociedade da informação,
em particular o comércio electrónico, no mercado interno (directiva sobre o comércio electrónico).
Recomendação CM / Rec (2008) 6 do Comitê de Ministros aos Estados Membros sobre medidas
promover e respeitar a liberdade de expressão e informação em relação à internet
filtros, s1.
26
27
28
29
30
31
32
Página 14
Privacidade e liberdade de expressão na era da inteligência artificial
detalhes de sua relação com o direito de acesso à informação e expressão permanecem
para discussão. Analisamos essa discussão 33 em detalhes em um estágio posterior deste artigo.
Estruturas Nacionais
Em níveis nacionais, as aplicações de IA existentes são reguladas por estruturas tradicionais de
legislação, incluindo liberdade de expressão, proteção de dados, proteção ao consumidor,
mídia e direito da concorrência, juntamente com regulamentos e padrões setoriais.
Embora essas estruturas cubram alguns aspectos da aplicação de IA, a questão permanece
se essas leis são adequadas para abordar as inúmeras maneiras pelas quais a IA impactará
liberdade de expressão.
Em resposta a algumas das questões específicas levantadas pelo uso de sistemas de IA, alguns
países como Japão 34 e Alemanha 35 desenvolveram novas estruturas aplicáveis
para questões específicas de IA. Estes exibem uma tendência crescente dos governos de publicar
diretrizes não vinculativas e estruturas éticas para IA, e até mesmo criar consultoria
redes sobre ética e IA. 36
Daqui para frente, os governos devem lidar com como as leis existentes podem ser aplicadas a
AI, e também identificar as áreas, setores e casos de uso onde a regulamentação específica é
necessário. Enquanto propostas para reguladores nacionais de IA estão sendo feitas por especialistas em
várias jurisdições, 37 estas ainda não foram adotadas. 38
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 14/31
29/12
Normas Técnicas
O reconhecimento de que os direitos humanos devem formar a base das normas técnicas e
protocolos e o papel que tais padrões e protocolos desempenham no exercício da vida humana
Ministério da Economia, Comércio e Indústria do Japão, Estratégia de Robôs do Japão foi compilada ', 23
Janeiro de 2015, disponível em: http://www.meti.go.jp/english/press/2015/0123_01.html . Veja também
Política de robôs do Japão e zona especial para regulamentação de robôs de última geração, Robolaw
Ásia, disponível em: https://pkurobotlaw.wordpress.com/2015/06/22/japans-robot-policy-and-
a-zona-especial-para-a-regulação-robôs da próxima geração .
B. Bergan, Alemanha Elabora as primeiras diretrizes éticas do mundo para carros autônomos, futurismo,
25 de agosto de 2017, disponível em: https://futurism.com/germany-drafts-worlds-first-ethical-
diretrizes-para-carros-autodirigidos /.
L. Kelion, UK PM Seeks 'safe and ética' artificial intelligence, BBC, 24 de janeiro de 2018,
disponível em: http://www.bbc.co.uk/news/technology-42810678 .
Veja, por exemplo: I. Amostra, watchdog AI necessário para regular a tomada de decisão automatizada,
dizem os especialistas, The Guardian, 27 de janeiro de 2017. Veja também chamadas semelhantes nos EUA: R. Calo,
O caso de uma Comissão Federal de Robótica, BrookingsInstitution Center for Technology
Inovação, 1 de setembro de 2014, disponível em: https://ssrn.com/abstract=2529151 ; O. Bracha
e F. Pasquale, Federal Search Commission? Acesso, justiça e responsabilidade na lei
of Search, 93 Cornell L. Rev. 1149, 2008, disponível em: http://scholarship.law.cornell.edu/
clr / vol93 / iss6 / 11 .
Mais recentemente, no Reino Unido. M. Burgess, O Relatório do Governo sobre IA não
Recomendar Regulamentação, Wired, 14 de outubro de 2017, disponível em: http://www.wired.co.uk/
artigo / ai-report-uk-government-money .
34
35
36
37
38
Página 15
Privacidade e liberdade de expressão na era da inteligência artificial
direitos é cada vez mais comum. 39 No entanto, ainda está para ser visto o que este
concretamente significa para IA.
Apesar deste maior reconhecimento, os direitos humanos não são explicitamente mencionados no
processos de política de muitas organizações técnicas ou comerciais. Esses atores são rápidos
tornando-se os portais e facilitadores do exercício da liberdade de expressão,
uma vez que eles desenvolvem a maioria dos sistemas de IA.
Em resposta às questões éticas e legais colocadas pela IA, várias iniciativas da indústria
foram iniciados. Os dois mais proeminentes são:
É louvável que essas iniciativas estejam colocando esforços e recursos em
facilitando uma discussão interdisciplinar e, às vezes, com várias partes interessadas. Ético
códigos e padrões da indústria podem ser uma importante ferramenta de conformidade 40 , ou ajudar
organizações para ir além da conformidade. Também é crucial garantir que o técnico
Iniciativa Global sobre Ética de Sistemas Autônomos e Inteligentes da
Instituto de Engenheiros Elétricos e Eletrônicos (IEEE). Esta iniciativa se concentra em
desenvolvimento de padrões técnicos que incorporam a ética em sistemas de IA. A iniciativa
também visa aumentar a conscientização da comunidade de IA sobre a importância de
priorizando considerações éticas no desenvolvimento de tecnologia.
A Parceria em Inteligência Artificial para Beneficiar Pessoas e a Sociedade,
originalmente estabelecido pela Microsoft, Google, Amazon, Facebook e IBM para
'estudar e formular as melhores práticas em tecnologias de IA, para promover o público
compreensão da IA, e servir como uma plataforma aberta para discussão e
engajamento sobre IA e suas influências nas pessoas e na sociedade. '
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.meti.go.jp/english/press/2015/0123_01.html
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://pkurobotlaw.wordpress.com/2015/06/22/japans-robot-policy-and-the-special-zone-for-regulating-next-generation-robots
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://pkurobotlaw.wordpress.com/2015/06/22/japans-robot-policy-and-the-special-zone-for-regulating-next-generation-robots
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://futurism.com/germany-drafts-worlds-first-ethical-guidelines-for-self-driving-cars/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://futurism.com/germany-drafts-worlds-first-ethical-guidelines-for-self-driving-cars/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.bbc.co.uk/news/technology-42810678
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ssrn.com/abstract%3D2529151
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://scholarship.law.cornell.edu/clr/vol93/iss6/11
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://scholarship.law.cornell.edu/clr/vol93/iss6/11
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.wired.co.uk/article/ai-report-uk-government-money
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.wired.co.uk/article/ai-report-uk-government-money
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 15/31
13/29
padrões e diretrizes do setor atendem aos padrões internacionais de direitos humanos sobre
liberdade de expressão, são responsáveis e estão sujeitos ao escrutínio público. Contudo,
sem um forte apoio institucional, esses códigos não podem funcionar de forma eficaz, e
pode até ser contraproducente. 41 Em tudo isso, é crucial reconhecer que o ser humano
direitos devem ser o piso e não o teto, e que uma série de
os princípios mínimos podem servir de orientação. 42
Relator especial da ONU sobre liberdade de expressão, Relatório ao Conselho de Direitos Humanos sobre
Liberdade de expressão, estados e setor privado na era digital, 2013, disponível
de: http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/Privatesectorinthedigitalage.aspx .
Comissário de informações do Reino Unido, documento de discussão Big Data, inteligência artificial, máquina
aprendizagem e proteção de dados, disponível em: https://ico.org.uk/media/for-organisations/
documentos / 2013559 / big-data-ai-ml-and-data-protection.pdf .
P. Boddington, Rumo a um Código de Ética para Inteligência Artificial, Springer International
Publicação, 2017.
Veja os Princípios Orientadores sobre Empresas e Direitos Humanos; a Iniciativa de Rede Global
Princípios sobre liberdade de expressão e privacidade; o setor de TIC da Comissão Europeia
Guia de Implementação dos Princípios Orientadores da ONU sobre Negócios e Direitos Humanos; e a
Princípios orientadores do diálogo da indústria de telecomunicações. Isso encoraja as empresas a
comprometer-se a proteger os direitos humanos, realizar a devida diligência para garantir os direitos humanos positivos
impacto de seu trabalho e remediar os impactos adversos de seu trabalho sobre os direitos humanos.
39
40
41
42
Página 16
Privacidade e liberdade de expressão na era da inteligência artificial
Autorregulação por empresas
No nível de empresas individuais, o provável impacto da IA na liberdade de expressão
pode ser entendido examinando seus Termos de Serviço. Pesquisas indicam que
as empresas dependem cada vez mais de sistemas de IA para fazer cumprir seus Termos de Serviço:
por exemplo, as plataformas atualmente implantam filtragem e bloqueio automatizados em resposta
ao 'extremismo violento' online. 43
Crescente pressão sobre as empresas por parte dos governos para policiar "prejudiciais" ou ilegais
conteúdo pode levar ao desenvolvimento de sistemas mais sofisticados, capazes
de identificar e remover grandes quantidades de conteúdo com limitado, ou nenhum, humano
intervenção.
Essa pressão também incentiva as empresas a pecar por excesso de cautela quando
trata de conteúdo em suas plataformas, o que significa que suas limitações e restrições
sobre a liberdade de expressão (em particular no caso de plataformas de mídia social e
sistemas de pagamento eletrônico 44 ) às vezes estão fora do âmbito internacional-
reconheceram limitações legítimas à liberdade de expressão. 45
Por medo de remoção de conteúdo, os próprios criadores de conteúdo erram no sentido de
cautela na expressão, autocensura e criação de um "efeito inibidor" na liberdade
de expressão. 46
A falta de transparência sobre os sistemas de IA usados pelas empresas é um problema neste
contexto. Isso é agravado pela falta de mecanismos claros de reclamação para lidar
com remoção inadequada ou zelosa de conteúdo. Capacidade de desafio dos usuários
essas decisões perante os tribunais nacionais também são extremamente limitadas, o que
mina o direito das partes afetadas de buscar soluções. 47
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/Privatesectorinthedigitalage.aspx
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdfuser
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 16/31
14/29
Veja, por exemplo, S. Frenkel, Inside the Obama Administration's Attempt to Bring Tech
Empresas na luta contra o ISIS, BuzzFeed, 26 de fevereiro de 2016, disponível em: https: //
www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-
compa? utm_term = .eoN44ER6aM # .xoaJJExkQ8 . Observe também que as remoções envolvem interação humana em
vários níveis. Por exemplo, as solicitações de retirada originam-se de escrutínio público, enquanto
os sistemas de filtragem são amplamente automatizados com a entrada humana apenas nos estágios finais da revisão.
Veja, por exemplo, EFF, Free Speech Coalition Calls on PayPal to Back Off Misguided Book
Política de censura, março de 2012, disponível em: https://www.eff.org/deeplinks/2012/03/free-
speech-coalition-callspaypal-back-misguided-book-censorship-policy ; ou PayPal chove
Regretsy's Secret Santa Campaign Over Use Of Wrong Button, Consumerist, dezembro de 2011.
Por exemplo, consulte KM Hovland & D. Seetharaman, Facebook Backs Down on Censoring 'Napalm
Girl 'Photo, The Wall Street Journal, 9 de setembro de 2016, disponível em: https://www.wsj.com/
articles / norway-accuses-facebook-of-censorship-over-delete-photo-of-napalm-girl-1473428032 .
ARTIGO 19, Intermediários da Internet: Dilema de Responsabilidade, disponível em https: // www.
article19.org/data/files/Intermediaries_ENGLISH.pdf .
Em particular, a base legal para qualquer contestação judicial é o direito contratual, onde o padrão
é geralmente a falta de justiça dos termos contratuais, ou seja, um limite muito alto para
consumidores. Além disso, os Termos de Uso das plataformas de mídia social geralmente contêm jurisdição
cláusulas que obrigam os usuários a usar os tribunais da Califórnia em vez dos tribunais de seu lugar
de residência.
43
44
45
46
47
Página 17
Privacidade e liberdade de expressão na era da inteligência artificial
Desafios
Embora resistamos à tendência de interpretar a IA como fundamentalmente diferente das anteriores
tecnologias, que têm estado na vanguarda dos debates políticos nos últimos anos,
são vários desafios únicos que a IA representa para a liberdade de expressão. Eles podem
ser classificado da seguinte forma:
Falta de respeito pelo estado de direito: iniciativas atuais da indústria em torno da IA
são estritamente focados no desenvolvimento de padrões técnicos, éticos
estruturas e conceitos como justiça, transparência e responsabilidade.
No entanto, essas estruturas devem ser executáveis e cumprir com as
Estado de Direito. Grande parte do trabalho realizado atualmente nesta área carece
tais mecanismos de aplicação, sejam auto-impostos ou por meio de
regulação, limitação de impacto.
Falta de transparência: muitas empresas que desenvolvem sistemas críticos de IA o fazem
de maneiras não transparentes e inescrutáveis. Como a maioria da IA é desenvolvida ou
pertencente à indústria, envolvida de forma crítica com o impacto da liberdade de expressão
dessas tecnologias é cada vez mais difícil para os atores da sociedade civil por causa de
regras de segredos comerciais e altas barreiras à transparência em torno da aplicação e
desenvolvimento, bem como a complexidade inerente a esses sistemas.
Falta de responsabilidade: A natureza oculta dos sistemas de IA torna difícil
estudar ou analisar o impacto da IA no direito à liberdade de expressão, a menos que
ocorre um dano tangível. Por exemplo, traçar o perfil de pessoas que participam de protestos
se tornará cada vez mais fácil, mesmo se eles cobrirem seus rostos. Nem sempre é
claro quando algoritmos de aprendizado de máquina estão sendo usados, portanto, danos decorrentes de
o uso de IA são difíceis de detectar. Mesmo quando um dano potencial é encontrado, pode ser
difícil garantir a responsabilização por violações dos responsáveis.
Percepção pública e o papel da mídia: muito do discurso popular
em torno da IA concentra-se nos perigos da inteligência geral da IA, em vez de
implicações atuais, práticas e realistas dos sistemas de IA. Este discurso tem
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-compa%3Futm_term%3D.eoN44ER6aM%23.xoaJJExkQ8#.xoaJJExkQ8
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-compa%3Futm_term%3D.eoN44ER6aM%23.xoaJJExkQ8#.xoaJJExkQ8
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-compa%3Futm_term%3D.eoN44ER6aM%23.xoaJJExkQ8#.xoaJJExkQ8
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.eff.org/deeplinks/2012/03/free-speech-coalition-callspaypal-back-misguided-book-censorship-policy
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.eff.org/deeplinks/2012/03/free-speech-coalition-callspaypal-back-misguided-book-censorship-policy
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wsj.com/articles/norway-accuses-facebook-of-censorship-over-deleted-photo-of-napalm-girl-1473428032
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wsj.com/articles/norway-accuses-facebook-of-censorship-over-deleted-photo-of-napalm-girl-1473428032
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/data/files/Intermediaries_ENGLISH.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/data/files/Intermediaries_ENGLISH.pdf
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 17/31
15/29
um impacto real. Ele desvia a atenção e o financiamento dos problemas atuais
em torno da liberdade de expressão e privacidade para favorecer hipotéticos
cenários distópicos. A mídia tem um papel a desempenhar para garantir que a cobertura de
AI está focada nas questões em questão.
Coleta e uso de dados: várias preocupações com a liberdade de expressão derivam de
a forma como os dados são coletados e usados em sistemas de IA. Compreender como os dados usam
Em particular, a base legal para qualquer contestação judicial é o direito contratual, onde o padrão
é geralmente a falta de justiça dos termos contratuais, ou seja, um limite muito alto para
consumidores. Além disso, os Termos de Uso das plataformas de mídia social geralmente contêm jurisdição
cláusulas que obrigam os usuários a usar os tribunais da Califórnia em vez dos tribunais de seu lugar
de residência.
S. Walker, aplicativo de reconhecimento facial que está tomando conta da Rússia pode acabar com o anonimato público,
The Guardian, 17 de maio de 2016, disponível em: https://www.theguardian.com/technology/2016/
maio / 17 / findface-face-recognition-app-end-public-anonymity-vkontakte .
47
48
Página 18
Privacidade e liberdade de expressão na era da inteligência artificial
e a qualidade influencia os sistemas de IA é particularmente pertinente para os defensores da linha de frente
de direitos humanos, e comunidades vulneráveis ou minoritárias que estarão abaixo ou
deturpado em conjuntos de dados. 49
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/technology/2016/may/17/findface-face-recognition-app-end-public-anonymity-vkontakte
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/technology/2016/may/17/findface-face-recognition-app-end-public-anonymity-vkontakte
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f18/31
16/29
J. Angwin, et al., Machine Bias, ProPublica, 23 de maio de 2016, disponível em https: // www.
propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing .
49
Página 19
Privacidade e liberdade de expressão na era da inteligência artificial
IA e privacidade
Estabelecendo o Nexus
As implicações de privacidade da IA resultam de sua capacidade de reconhecer padrões e
cada vez mais, "extraia o íntimo do disponível". 50 Essa habilidade depende do
processamento de grandes quantidades de dados.
Diferentes aplicações e usos de IA podem afetar o direito à privacidade de maneiras diferentes:
Cada uma dessas novas interferências com a privacidade são significativas: a privacidade é indispensável
para o exercício de uma série de direitos humanos, como liberdade de expressão, liberdade
de associação, além de ser fundamental para o exercício da autonomia pessoal
e liberdade de escolha , 51 bem como normas sociais mais amplas. 52
J. Angwin, et al., Machine Bias, ProPublica, 23 de maio de 2016, disponível em https: // www.49
Produtos de consumo baseados em IA e sistemas autônomos são frequentemente equipados
com sensores que geram e coletam grandes quantidades de dados sem o
conhecimento ou consentimento de quem está próximo;
Métodos de IA estão sendo usados para identificar pessoas que desejam permanecer anônimas;
Métodos de IA estão sendo usados para inferir e gerar informações confidenciais sobre
pessoas com seus dados não confidenciais;
Métodos de IA estão sendo usados para traçar perfis de pessoas com base em dados em escala populacional;
e
Métodos de IA estão sendo usados para tomar decisões importantes usando esses dados,
alguns dos quais afetam profundamente a vida das pessoas.
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
user
Realce
user
Realce
user
Realce
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 19/31
17/29
propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing .
Calo, Artificial Intelligence Policy, op.cit.
T. Payton e T. Claypoole, Privacidade na era do Big Data: Reconhecendo ameaças, defesa
seus direitos e protegendo sua família, Rowman & Littlefield, 2014.
RCPost,., 'Os fundamentos sociais da privacidade: Comunidade e si mesmo no direito comum
delito ', California Law Review, 1989, pp. 957-1010. Resumindo o Post, ver T. Doyle, 2012; DJ
Solove, Nothing to Hide: The False Tradeoff entre Privacidade e Segurança, Universidade de Yale
Press, 2011: 'Como argumentou o teórico jurídico Robert Post, a privacidade não é apenas um conjunto de
restrições às regras e normas da sociedade. Em vez disso, a privacidade constitui uma tentativa da sociedade de
promover a civilidade. A sociedade protege a privacidade como meio de garantir a ordem na comunidade.
Privacidade não é a trombeta do indivíduo contra os interesses da sociedade, mas o
proteção do indivíduo com base nas próprias normas e valores da sociedade. '
50
51
52
Página 20
Privacidade e liberdade de expressão na era da inteligência artificial
Um estudo de 2015 por pesquisadores do Instituto Francês de Pesquisa em Ciência da Computação
mostraram que 75% dos usuários de telefones celulares podem ser reidentificados em um conjunto de dados usando a máquina
métodos de aprendizagem e apenas dois aplicativos de smartphone, com a probabilidade aumentando para 95% se quatro
aplicativos são usados. Veja JP Achara ,, G. Acs e C. Castelluccia, 'On the unicity of smartphone
aplicações 'no 14º Workshop ACM sobre Privacidade na Sociedade Eletrônica, outubro de 2015,
pp. 27-36, disponível em https://arxiv.org/pdf/1507.07851v2.pdf .
Walker, 'App de reconhecimento de rosto', op.cit.
53
Exploração de dados: produtos de consumo, de eletrodomésticos inteligentes a
carros conectados e aplicativos de telefone são geralmente desenvolvidos para exploração de dados.
Os consumidores são comumente confrontados com uma assimetria informativa quanto ao que
tipos e quantos dados seus dispositivos, redes e plataformas geram,
processo ou compartilhamento. À medida que trazemos dispositivos cada vez mais inteligentes e conectados para nossos
casas, locais de trabalho, espaços públicos e até mesmo nossos corpos, educando o público
sobre tal exploração de dados torna-se cada vez mais premente.
Identificação e rastreamento: os aplicativos de IA podem ser usados para identificar e
assim, rastreia indivíduos em diferentes dispositivos, em suas casas, no trabalho,
e em espaços públicos. Por exemplo, embora os dados pessoais sejam rotineiramente (pseudo-)
anonimizada dentro de conjuntos de dados, a IA pode ser empregada para desanonimar este
dados, desafiando a distinção entre dados pessoais e não pessoais,
no qual se baseia a regulamentação atual de proteção de dados. 53 Reconhecimento facial
é outro meio pelo qual os indivíduos podem ser rastreados e identificados, que
tem o potencial de transformar as expectativas de anonimato no espaço público.
Os sistemas de aprendizado de máquina foram capazes de identificar cerca de 69% de
manifestantes usando bonés e lenços para cobrir seus rostos. 54 No contexto de
aplicação da lei, o reconhecimento facial pode permitir que a polícia identifique indivíduos
sem causa provável, suspeita razoável, ou qualquer outro padrão legal que
pode ser necessário para a aplicação da lei obter identificação por
meios tradicionais. 55
Inferência e previsão de informações: usando métodos de aprendizado de máquina,
informações altamente confidenciais podem ser inferidas ou previstas a partir de informações não confidenciais
formas de dados. Os estados emocionais das pessoas, por exemplo, confiança, nervosismo,
tristeza e cansaço podem ser previstos a partir de padrões de digitação em um computador
teclado. 56 Quando dados pessoais confidenciais, como informações sobre saúde,
sexualidade, etnia ou crenças políticas podem ser previstas a partir de dados não relacionados (ou seja,
registros de atividades, métricas de telefone, dados de localização ou curtidas de mídia social), como perfis
representa desafios significativos à privacidade e pode resultar em discriminação.
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://arxiv.org/pdf/1507.07851v2.pdf
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 20/31
18/29
Centro de Informações de Privacidade Eletrônica (EPIC) e 45 organizações, Carta aos Senadores
Grassley e Leahy e os representantes Goodlatte, Chaffetz, Conyers e Cummings a respeito
o uso de reconhecimento facial e proposta do FBI para isentar a próxima geração do Bureau
Identification Database from Privacy Act Obligations, 2016, disponível em: https: // epic.
org / privacy / fbi / NGI-Congressional-Oversight-Letter.pdf .
C. Epp, M. Lippold & RL Mandryk, Identifying emocional states using keystroke dynamics 'in
Proceedings of the SIGCHI Conference on Human Factors in Computing Systems., Maio de 2011, pp.
715-724, disponível em http://hci.usask.ca/uploads/203-p715-epp.pdf .
54
55
56
Página 21
Privacidade e liberdade de expressão na era da inteligência artificial
P. Tucker, Refugiado ou Terrorista? A IBM acha que seu software tem a resposta, Defense One, 2757
Criação de perfil para classificar, pontuar, categorizar, avaliar e classificar os indivíduose
grupos: aplicativos baseados em IA são usados para classificar, pontuar, categorizar,
avaliar e classificar as pessoas, muitas vezes sem seu conhecimento ou consentimento, e
frequentemente sem a capacidade de desafiar os resultados ou eficácia de
esses processos. Em 2016, por exemplo, a IBM promoveu o uso de IA para separar
refugiados 'genuínos' de outros tipos de migrantes. 57 O aprendizado de máquina também funciona
um papel crescente nos sistemas de pontuação que moldam o acesso ao crédito, emprego,
habitação ou serviços sociais.
Tomada de decisão: os sistemas de IA podem ser usados para tomar ou informar decisões sobre
pessoas ou seus ambientes, potencialmente com base em perfis. Um ambiente
que conhece suas preferências e se adapta de acordo com interesses presumidos
levanta questões importantes sobre privacidade, autonomia e a ética de tais
adaptações. Personalização, não só de informação, mas também de nossa percepção
do mundo, se tornará cada vez mais importante à medida que avançamos em direção
espaços conectados como cidades inteligentes 58 ou realidade aumentada e virtual (AR e VR).
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://epic.org/privacy/fbi/NGI-Congressional-Oversight-Letter.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://epic.org/privacy/fbi/NGI-Congressional-Oversight-Letter.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://hci.usask.ca/uploads/203-p715-epp.pdf
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 21/31
19/29
Janeiro de 2016, disponível em http://www.defenseone.com/technology/2016/01/refugee-or-terrorist-
ibm-pensa-seu-software-tem-resposta / 125484 /.
Privacy International, 'Smart Cities: Utopian Vision, Dystopian Reality', outubro de 2017,
disponível em https://privacyinternational.org/sites/default/files/2017-12/Smart%20Cities-
Utopian% 20Vision% 2C% 20Dystopian% 20Reality.pdf .
58
Página 22
Privacidade e liberdade de expressão na era da inteligência artificial
Mapeando a Paisagem
Os debates sobre políticas de IA e privacidade são complicados pelo fato de que
discursos sobre políticas usam o termo para se referir a uma ampla gama de aplicações, usos e
métodos. Onde a IA é discutida de uma forma tão ampla, há uma tendência de assumir
que a tecnologia apresenta desafios que são tão radicalmente novos que todas as leis existentes,
regulamentos e padrões não são mais aplicáveis ou apropriados. O 'outro lado' de
esse discurso é exigir regulação da própria tecnologia, independentemente de como e
onde é aplicado.
Para evitar sucumbir a qualquer uma dessas falácias, é necessário examinar como
discursos, como legislação de direitos humanos, proteção de dados, regulamentação setorial de privacidade,
e ética em pesquisa, relaciona-se a diferentes aplicações e métodos de IA.
Abaixo, explicamos como vários desses frameworks existentes se aplicam e onde eles
faltar. Também discutimos várias iniciativas específicas de IA que têm uma privacidade explícita
foco, alguns setoriais, outros mais gerais.
Direito Internacional dos Direitos Humanos
O direito internacional dos direitos humanos reconhece o direito fundamental à privacidade. Artigo 12
da Declaração Universal dos Direitos Humanos (UDHR), por exemplo, proclama que
“[N] ninguém estará sujeito a interferência arbitrária em sua privacidade, família, casa ou
correspondência…. Toda pessoa tem direito à proteção da lei contra tais
interferência ou ataques. ” 59
O direito internacional dos direitos humanos exige que qualquer interferência no direito de
privacidade não deve apenas estar de acordo com a lei 60, mas também deve ser necessária e
proporcionado. 61 Na medida em que os estados desenvolvem ou usam IA de maneira que interfira
GA Res. 217 (III) A, UDHR, art. 12 (10 de dezembro de 1948)
Ver Artigo 17 (1), PIDCP; Artigo 11, CADH (“2. Ninguém pode ser objeto de arbitragem ou
interferência abusiva em sua vida privada, sua família, sua casa ou sua correspondência
.. 3. Toda pessoa tem direito à proteção da lei contra tais interferências. . .
. ”); Artigo 8 (2) da Convenção Europeia dos Direitos do Homem (“CEDH”) (“Não haverá
interferência de uma autoridade pública no exercício do [direito ao respeito pelo privado
e vida familiar] exceto nos casos em que esteja de acordo com a lei ... ”); veja também UN Human
Comitê de Direitos, Comentário Geral No. 16 (Artigo 17 PIDCP), 8 de abril de 1988, para 3, disponível
em http://tbinternet.ohchr.org/Treaties/CCPR/Shared%20Documents/1_Global/INT_CCPR_GEC_6624_E .
doc (observando que “[o] termo 'ilegal' significa que nenhuma interferência pode ocorrer, exceto
nos casos previstos em lei ”e que“ [i] interferência autorizada pelos Estados só pode tomar
lugar com base na lei, que por sua vez deve cumprir as disposições, finalidades e objetivos
do Pacto ”); Princípio 1, Princípios Internacionais sobre a Aplicação dos Direitos Humanos
para Vigilância de Comunicações ("Princípios Necessários e Proporcionais"), disponível em
https://necessaryandproportionate.org/principles . Os princípios necessários e proporcionais
aplicar o direito internacional dos direitos humanos à vigilância digital moderna. Eles foram elaborados em
2013 por uma coalizão internacional da sociedade civil, especialistas em privacidade e tecnologia e
59
60
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.defenseone.com/technology/2016/01/refugee-or-terrorist-ibm-thinks-its-software-has-answer/125484/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.defenseone.com/technology/2016/01/refugee-or-terrorist-ibm-thinks-its-software-has-answer/125484/
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://privacyinternational.org/sites/default/files/2017-12/Smart%2520Cities-Utopian%2520Vision%252C%2520Dystopian%2520Reality.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://privacyinternational.org/sites/default/files/2017-12/Smart%2520Cities-Utopian%2520Vision%252C%2520Dystopian%2520Reality.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://tbinternet.ohchr.org/Treaties/CCPR/Shared%2520Documents/1_Global/INT_CCPR_GEC_6624_E
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://necessaryandproportionate.org/principles
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 22/31
20/29
foi endossado por mais de 600 organizações em todo o mundo.
Página 23
Privacidade e liberdade de expressão na era da inteligência artificial
21/29
Ver Comitê de Direitos Humanos da ONU, Toonen v. Austrália, Comm. No. 488/1992, UN Doc.
CCPR / C / 50 / D / 488/1992 (31 de março de 1994), para. 8.3 ("[Qualquer] interferência com a privacidade deve ser
proporcionais ao fim pretendido e necessárias nas circunstâncias de cada caso. ”);
Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos, O Direito à Privacidade no Digital
Idade, UN Doc. A / HRC / 27/37 (30 de junho de 2014), par. 23, disponível em https: // documents-dds-ny.
un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf?OpenElement (“Estas fontes oficiais
[Comentários Gerais do HRC 16, 27, 29, 31 e 34 e os Princípios de Siracusa] apontam para o
princípios abrangentes de legalidade, necessidade e proporcionalidade ... ”); Direitos Humanos da ONU
Resolução do Conselho sobre o Direito à Privacidade na Era Digital, Doc. ONU. A / HRC / 34/7, 23
Março de 2017, par. 2 disponível em https://documents-ddsny.un.org/doc/UNDOC/GEN/G17/086/31/
PDF / G1708631.pdf? OpenElement (“Relembrando [ing] que os Estados devem garantir que qualquer interferência
com o direito à privacidade é consistente com os princípios da legalidade, necessidade e
proporcionalidade").
Resolução do Conselho de DireitosHumanos da ONU sobre o Direito à Privacidade na Era Digital, Doc. Da ONU.
A / HRC / 34 / L, 7, 23 de março de 2017, parágrafo 2.
Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos, Relatório sobre criptografia, anonimato e
a estrutura dos direitos humanos, UN Doc. A / HRC / 29/32 (22 de maio de 2015), disponível em http: // www.
ohchr.org/EN/Issues/FreedomOpinion/Pages/CallForSubmission.aspx .
61
62
63
com o direito à privacidade, esse uso deve estar sujeito ao teste de legalidade de três partes,
necessidade e proporcionalidade.
O direito internacional dos direitos humanos exige que qualquer interferência no direito de
privacidade não deve apenas estar de acordo com a lei 60, mas também deve ser necessária e
proporcionado. 61 Na medida em que os estados desenvolvem ou usam IA de maneira que interfira
com o direito à privacidade, esse uso deve estar sujeito ao teste de legalidade de três partes,
necessidade e proporcionalidade.
Defensores e autoridades que usam a estrutura internacional de direitos humanos são
cada vez mais reconhecendo e reconhecendo o impacto que novas formas de dados
processamento têm sobre os direitos fundamentais, incluindo o direito à privacidade. Com respeito
para o perfil, por exemplo, que pode envolver o uso de métodos de IA para derivar, inferir ou
prever informações sobre indivíduos com o propósito de avaliar ou avaliar alguns
aspecto sobre eles, o Conselho de Direitos Humanos das Nações Unidas observou com preocupação em
Março de 2017 que 'o processamento automático de dados pessoais para perfis individuais pode
levar a discriminação ou decisões que de outra forma têm o potencial de afetar o
gozo dos direitos humanos, incluindo direitos econômicos, sociais e culturais. ' 62
As autoridades internacionais de direitos humanos também avançaram no sentido de reconhecer um direito
ao anonimato de acordo com os direitos à privacidade e à liberdade de opinião e expressão.
Isso tem implicações para a IA usada para identificar indivíduos online, em suas casas e em
espaços públicos. O Relator Especial da ONU sobre Liberdade de Expressão, por exemplo,
identificou repetidamente essa relação e enfatizou que a interferência do estado
com anonimato deve estar sujeito ao teste de três partes de legalidade, necessidade e
proporcionalidade, como qualquer outra interferência nesses direitos. 63
Proteção de dados
Estruturas de proteção de dados se aplicam à pesquisa, desenvolvimento e aplicação de IA para
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf%3FOpenElement
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf%3FOpenElement
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf%3FOpenElement
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-ddsny.un.org/doc/UNDOC/GEN/G17/086/31/PDF/G1708631.pdf%3FOpenElement
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-ddsny.un.org/doc/UNDOC/GEN/G17/086/31/PDF/G1708631.pdf%3FOpenElement
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/CallForSubmission.aspx
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/CallForSubmission.aspx
user
Realce
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial
https://translate.googleusercontent.com/translate_f 23/31
Página 24
Privacidade e liberdade de expressão na era da inteligência artificial
22/29
Veja, por exemplo, o Comissário de Informação do Reino Unido, artigo de discussão Big Data, artificial
inteligência, aprendizado de máquina e proteção de dados, disponíveis em https://ico.org.uk/media/
para organizações / documentos / 2013559 / big-data-ai-ml-and-data-protection.pdf ou o europeu
Documento da Sala do Supervisor de Proteção de Dados (EDPS) para a 38ª Conferência Internacional de
Comissários de Proteção e Privacidade de Dados, Inteligência Artificial, Robótica, Privacidade e
Proteção de dados, disponível em https://edps.europa.eu/sites/edp/files/publication/16-10-19_
marrakesh_ai_paper_en.pdf .
Artigo 5.º do Regulamento Geral de Proteção de Dados (GDPR) - (Regulamento (UE) 2016/679.
Artigos 13, 14 e 22 do RGPD.
O Artigo 22 do GDPR se aplica apenas a decisões "baseadas exclusivamente em processamento automatizado,
incluindo perfis, o que produz efeitos jurídicos a seu respeito ou de forma semelhante
o afeta significativamente ”.
Artigo 25 do GDPR.
Artigo 4.º, n.º 4, do RGPD.
Veja, por exemplo, R. Binns, 'Data protection impact assessments: a meta-Regulation approach'
Lei Internacional de Privacidade de Dados, 7 (1), 2017, pp 22-35; L. Edwards e M. Veale, 'Enslaving the
Algoritmo: de um 'direito a uma explicação' a um 'direito a melhores decisões'? ', Segurança IEEE
E privacidade, 2017.
64
65
66
67
68
69
70
na medida em que dados pessoais (conforme definido nas estruturas) estão envolvidos. 64 Assim, mesmo
sem referência explícita à IA, as estruturas de proteção de dados já regulam como
Os sistemas de IA podem processar dados pessoais. Estruturas regulatórias em todo o mundo são
diversos, mas todos são projetados para proteger os dados individuais e refletem a sensação de que tais
as proteções são um aspecto importante do direito à privacidade.
O Regulamento Geral de Proteção de Dados da UE (GDPR), que entra em vigor em 25 de maio
2018, requer uma base legal para o processamento de dados - e além dos princípios de
justiça, responsabilidade e transparência, inclui os princípios fundamentais de propósito
limitação e minimização de dados, 65 que têm implicações para o desenvolvimento, use
e aplicação de sistemas de IA.
O GDPR também limita o uso de tomada de decisão automatizada em certas circunstâncias,
e exige que os indivíduos recebam informações sobre a existência de
tomada de decisão automatizada, a lógica envolvida e o significado e previsto
consequências do processamento para o indivíduo. 66 A lei introduz uma visão geral
proibição (com exceções estreitas) de decisões exclusivamente automatizadas quando tais
as decisões têm efeitos jurídicos ou outros efeitos significativos. 67
Notavelmente, o GDPR também define perfis como o processamento automatizado de dados para
analisar ou fazer previsões sobre os indivíduos. 68 Esta definição reconhece que
dados pessoais podem ser produzidos por aplicativos de aprendizado de máquina e outras formas de
perfis. 69
Por fim, o GDPR introduz uma série de disposições que incentivam o design de menos
sistemas invasores de privacidade, alguns dos quais têm consequências de longo alcance para a IA. o
obrigação de incorporar a proteção de dados desde o projeto e, por padrão, procura integrar
princípios de proteção de dados na concepção das operações de processamento de dados. 70
Avaliações de impacto de privacidade de dados (DPIA) - ferramentas para que as organizações gerenciem a privacidade
riscos - serão obrigatórios para muitas IA invasoras de privacidade e aprendizado de máquina
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://edps.europa.eu/sites/edp/files/publication/16-10-19_marrakesh_ai_paper_en.pdf
https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://edps.europa.eu/sites/edp/files/publication/16-10-19_marrakesh_ai_paper_en.pdf
22/08/2020 Privacidade e liberdade de expressão

Continue navegando