Baixe o app para aproveitar ainda mais
Prévia do material em texto
22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 1/31 Página 1 Privacidade e liberdade de expressão na era da inteligência artificial Privacidade e liberdade de expressão Na era da inteligência artificial Abril de 2018 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 2/31 29/01 Página 2 Privacidade e liberdade de expressão na era da inteligência artificial Sobre nós ARTICLE 19 é uma organização global de direitos humanos, que trabalha em todo o mundo para proteger e promover o direito à liberdade de expressão e informação ('liberdade de expressão '). Fundada em 1987, com escritório internacional em Londres, ARTIGO 19 monitora ameaças à liberdade de expressão em diferentes regiões do mundo, e desenvolve estratégias de longo prazo para enfrentá-los. A ARTIGO 19 está ativamente engajada na promoção de ações justas, responsáveis e transparentes Artificial Intelligence (AI), e investiga o impacto dos direitos humanos de algoritmos tomada de decisões por meio de pesquisa e engajamento de políticas. Nosso trabalho em IA e a liberdade de expressão, até agora, inclui um resumo de política sobre algoritmos e tomada de decisão, várias submissões à AI e iniciativa de ética do Instituto de Engenharia Elétrica e Eletrônica (IEEE), uma apresentação recente à UK House of Lords Select Committee on AI, co-presidindo vários grupos de trabalho do IEEE iniciativa, adesão à Partnership on AI (PAI) e orientação sobre o desenvolvimento de IA para gerenciamento de rede na Internet Engineering Task Force (IETF). A Privacy International é uma organização não governamental sem fins lucrativos com sede em Londres, que se dedica a defender o direito à privacidade em todo o mundo. Estabelecida em 1990, a Privacy International realiza pesquisas e investigações no governo vigilância e exploração de dados no setor privado com foco no tecnologias que viabilizam essas práticas. Para garantir o respeito universal pelo direito de privacidade, a Privacy International defende forte apoio nacional, regional e internacional leis que protegem a privacidade em todo o mundo. Litigou ou interveio em casos implicando o direito à privacidade nos tribunais dos Estados Unidos, Reino Unido e Europa, incluindo o Tribunal Europeu dos Direitos do Homem e o Tribunal de Justiça Europeu. Nosso trabalho sobre IA e privacidade até agora inclui uma submissão à IA e à ética iniciativa do Instituto de Engenharia Elétrica e Eletrônica (IEEE), um recente submissão e prova oral ao Comitê de IA da Câmara dos Lordes do Reino Unido, bem como vários envios sobre criação de perfil e tomada de decisão automatizada para o Grupo de Trabalho do Artigo 29 - um órgão consultivo constituído por um representante do autoridade de proteção de dados de cada Estado-Membro da UE, a European Data Protection Supervisor e a Comissão Europeia que está elaborando orientações para o Conselho Geral da UE Regulamento de Proteção de Dados. user Realce user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 3/31 Página 3 Privacidade e liberdade de expressão na era da inteligência artificial 29/01 Conteúdo Sumário executivo Introdução O que é Inteligência Artificial? IA e o direito à liberdade de expressão Estabelecendo o Nexus Mapeando a Paisagem Direito Internacional dos Direitos Humanos Estruturas Nacionais Normas Técnicas Autorregulação por empresas Desafios IA e privacidade Estabelecendo o Nexus Mapeando a Paisagem Direito Internacional dos Direitos Humanos Proteção de dados Regulamento Setorial de Privacidade Códigos Éticos e Padrões da Indústria Desafios Conclusões e Recomendações 02 04 06 08 08 11 11 12 12 14 15 17 17 20 20 21 23 24 26 28 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 4/31 Página 4 Privacidade e liberdade de expressão na era da inteligência artificial 29/02 Sumário executivo A Inteligência Artificial (IA) faz parte de nossas vidas diárias. Esta tecnologia molda como as pessoas acessar informações, interagir com dispositivos, compartilhar informações pessoais e até compreender línguas estrangeiras. Também transforma a forma como os indivíduos e grupos podem ser rastreada e identificada, e altera drasticamente os tipos de informação que podem ser coletou sobre as pessoas a partir de seus dados. A IA tem o potencial de revolucionar as sociedades de maneiras positivas. No entanto, como com qualquer avanço científico ou tecnológico, existe um risco real de que o uso de novas ferramentas por estados ou empresas terá um impacto negativo sobre os direitos humanos. Embora a IA tenha impacto sobre uma infinidade de direitos, a ARTIGO 19 e a Privacidade Internacional são particularmente preocupado com o impacto que terá sobre o direito à privacidade e o direito à liberdade de expressão e informação. Este artigo de escopo concentra-se em aplicações de 'inteligência artificial estreita': em em particular, o aprendizado de máquina e suas implicações para os direitos humanos. O objetivo do artigo é quádruplo: 1 Apresentar as principais definições técnicas para esclarecer o debate; 2 Examine as principais maneiras pelas quais a IA impacta o direito à liberdade de expressão e o direito à privacidade e delinear os principais desafios; 3 - Revise o cenário atual de governança de IA, incluindo vários estruturas jurídicas, técnicas e corporativas e iniciativas de IA lideradas pela indústria que são relevantes para a liberdade de expressão e privacidade; e 4 - Fornece sugestões iniciais para soluções baseadas em direitos que podem ser buscadas por organizações da sociedade civil e outras partes interessadas em atividades de defesa de IA. Acreditamos que as respostas de política e tecnologia nesta área devem: • Garantir a proteção dos direitos humanos, em particular o direito à liberdade de expressão e direito à privacidade; • Garantir a responsabilidade e transparência da IA; Página 5 Privacidade e liberdade de expressão na era da inteligência artificial user Realce user Realce user Realce user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 5/31 29/03 • Incentivar os governos a revisar a adequação de qualquer legislação e política estruturas e regulamentos sobre IA no que diz respeito à proteção da liberdade de expressão e privacidade; • Ser informado por uma compreensão holística do impacto da tecnologia: caso estudos e pesquisas empíricas sobre o impacto da IA nos direitos humanos devem ser coletado; e • Ser desenvolvido em colaboração com uma ampla gama de partes interessadas, incluindo sociedade civil e redes de especialistas. Página 6 Privacidade e liberdade de expressão na era da inteligência artificial user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 6/31 29/04 Introdução Inteligência Artificial (IA) e suas aplicações fazem parte da vida cotidiana: desde a curadoria feeds de mídia social para mediar o fluxo de tráfego nas cidades, e de carros autônomos para dispositivos de consumo conectados, como assistentes inteligentes, filtros de spam, reconhecimento de voz sistemas e motores de busca. O repentino aumento dessas aplicações é recente, mas o estudo e desenvolvimento de AI tem mais de meio século: o termo foi cunhado em 1956, embora o conceito vá ainda mais longe, ao final do século XVIII. O momento atual é alimentado pela disponibilidade de grandes quantidades de dados, poder computacional acessível e acessível, continuou desenvolvimento de métodos estatísticos e o fato de que a tecnologiaagora está incorporada no tecido da sociedade. Contamos com ele de mais maneiras do que a maioria tem consciência. 1 Se implementada de forma responsável, a IA pode beneficiar a sociedade. No entanto, como é o caso com maioria das tecnologias emergentes, há um risco real de que o uso comercial e estatal tenha um impacto prejudicial sobre os direitos humanos. Em particular, as aplicações dessas tecnologias frequentemente dependem da geração, coleta, processamento e compartilhamento de grandes quantidades de dados, tanto sobre o comportamento individual quanto coletivo. Esses dados podem ser usados para traçar o perfil dos indivíduos e prever o comportamento futuro Embora alguns desses usos, como spam filtros ou itens sugeridos para compras online, podem parecer benignos, outros podem ter repercussões mais sérias e podem até representar ameaças sem precedentes à direita à privacidade e o direito à liberdade de expressão e informação ('liberdade de expressão'). 2 O uso de IA também pode impactar o exercício de uma série de outros direitos, incluindo o direito a um recurso efetivo, o direito a um julgamento justo e o direito a livre de discriminação. A ameaça representada pela IA, portanto, não assume a forma de uma máquina superinteligente dominando a humanidade: em vez disso, os principais problemas com IA podem ser encontrados em seu atual uso diário. 3 Este artigo de escopo se concentra em aplicações de 'artificial estreito inteligência ', em particular o aprendizado de máquina, e suas implicações para os direitos humanos. Cath, C., Wachter, S., Mittelstadt, B. et al., 'Artificial Intelligence and the' Good Society ': The US, EU, and UK Approach ', Science and Engineering Ethics, 2017, p. 1 - 24. Veja, por exemplo, V. Dodd, Polícia do Met para usar software de reconhecimento facial em Notting Hill carnaval, The Guardian, 5 de agosto de 2017; disponível em: https://www.theguardian.com/uk- noticias / 2017 / ago / 05 / met-policial-reconhecimento-facial-software-notting-hill-carnival . ARTIGO 19, Submissão ao Comitê Seleto de Inteligência Artificial da Câmara dos Lordes, 6 Setembro de 2017, disponível em: https://www.article19.org/wp-content/uploads/2017/10/ARTICLE- 19-Evidence-to-the-House-of-Lords-Select-Committee-AI.pdf . 1 2 3 Página 7 Privacidade e liberdade de expressão na era da inteligência artificial O direito à liberdade de expressão e o direito à privacidade reforçam-se mutuamente - ainda mais na era digital. 4 A privacidade é um pré-requisito para o exercício da liberdade de expressão: sem ela, os indivíduos não têm espaço para pensar, falar e desenvolver sua voz. Sem liberdade de expressão, os indivíduos seriam incapazes de desenvolver sua https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/uk-news/2017/aug/05/met-police-facial-recognition-software-notting-hill-carnival https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/uk-news/2017/aug/05/met-police-facial-recognition-software-notting-hill-carnival https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/10/ARTICLE-19-Evidence-to-the-House-of-Lords-Select-Committee-AI.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/10/ARTICLE-19-Evidence-to-the-House-of-Lords-Select-Committee-AI.pdf user Realce user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 7/31 29/05 senso próprio. Ambos os direitos são, portanto, fundamentos essenciais para uma política aberta e democrática sociedades e entre as condições básicas para o progresso, bem como para cada indivíduo auto-realização. Para que a democracia, a responsabilidade e a boa governança prosperem, a liberdade expressão deve ser respeitada e protegida. O mesmo é verdade para o direito de privacidade, que é um poderoso baluarte contra o poder estatal e corporativo. Enquanto muitos falam sobre a necessidade de pensar cuidadosamente sobre a incorporação da IA aplicações nos 'sistemas críticos de segurança' das sociedades - como redes de eletricidade e água suprimentos - é importante centrar novamente o debate mais amplo sobre o uso de IA em humanos contextos críticos de direitos '. É imperativo que os formuladores de políticas, reguladores, empresas, sociedade civil e outros as partes interessadas que trabalham com o direito à privacidade e a liberdade de expressão compreendem as implicações, riscos e potencial da IA. Neste documento de escopo, a ARTIGO 19 e a Privacidade Internacional pretendem contribuir para tal compreensão. Primeiro, apresentamos as principais definições técnicas para esclarecer o debate e examinar as principais maneiras pelas quais a IA impacta o direito à liberdade de expressão e o direito à privacidade, e destacamos os principais desafios. Em seguida, revisamos o panorama atual de Governança de IA, incluindo várias estruturas jurídicas, técnicas e corporativas existentes e iniciativas de IA lideradas pela indústria relevantes para a liberdade de expressão e privacidade. Finalmente, também fornecemos sugestões iniciais para soluções baseadas em direitos que podem ser buscadas por organizações da sociedade civil e outras partes interessadas em atividades de defesa de IA. ARTIGO 19, Os Princípios Globais sobre Proteção da Liberdade de Expressão e Privacidade, 2017, disponível em http://article19.shorthand.com /. 4 Página 8 Privacidade e liberdade de expressão na era da inteligência artificial O que é Inteligência Artificial? https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://article19.shorthand.com/ 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 8/31 29/06 O termo 'IA' é usado para se referir a uma ampla gama de aplicações e técnicas, em diferentes níveis de complexidade, autonomia e abstração. Este amplo uso engloba o aprendizado de máquina (que faz inferências, previsões e decisões sobre indivíduos), algoritmos de IA específicos de domínio, totalmente autônomos e conectados objetos e até mesmo a ideia futurística de uma 'singularidade' de IA. Essa falta de clareza na definição é um desafio: diferentes tipos de sistemas de IA aumentam questões éticas e regulatórias específicas. Do ponto de vista conceitual, é importante considerar os seguintes conceitos-chave em debates relacionados à IA: G. Kasparov, Learning to Love Intelligent Machine, The Wall Street Journal, 14 de abril de 2017, disponível em: https://www.wsj.com/articles/learning-to-love-intelligent-machines-1492174086 . C. Metz, 'What the AI behind Alpha Go pode nos ensinar sobre ser humano', Wired, 19 de maio de 2017, disponível em: https://www.wired.com/2016/05/google-alpha-go-ai/ . L. Floridi, Devemos ter medo da IA ?, Aeon, 9 de maio de 2016, disponível em: https://aeon.co/ essays / true-ai-is-both-logically-possible-and-totalmente-implausible . T. Gillespie, A relevância dos algoritmos, tecnologias de mídia: ensaios sobre comunicação, materialidade e sociedade, MIT Press, 2014, p. 167 5 6 7 8 A inteligência artificial estreita é a capacidade das máquinas de se assemelharem capacidades humanas em domínios estreitos, com diferentes graus de técnica sofisticação e autonomia. Os exemplos incluem: chatbots que auxiliam por responder a perguntas específicas; Deep Blue, um computador para jogar xadrez desenvolvido pela IBM, que venceu o campeão mundial de xadrez Garry Kasparov em maio 1997; 5 ou o sistema de computador que derrotou o mestre reinante do Jogo de tabuleiro chinês Go em maio de 2017. 6 A inteligência geral artificial é abrangente, e ainda não alcançada, objetivo de um sistema que exibe inteligência em vários domínios, com o capacidade de aprender novas habilidades, e que imitam ou até superama inteligência humana. É teorizado que a criação de inteligência artificial geral pode levar a a 'singularidade', ou um período de crescimento tecnológico descontrolado que profundamente muda a civilização humana. Isso ainda está, pelo menos, décadas de distância, se não totalmente implausível. 7 Algoritmo pode se referir a qualquer instrução, como código de computador, que realiza um conjunto de comandos: isso é essencial para a maneira como os computadores processam dados. Para o para fins deste artigo, refere-se a 'procedimentos codificados para transformar a entrada dados na saída desejada, com base em cálculos específicos. ' 8 Página 9 Privacidade e liberdade de expressão na era da inteligência artificial A tomada de decisão automatizada 'geralmente envolve coleta de dados em grande escala por vários sensores, processamento de dados por algoritmos e, posteriormente, automático desempenho.' 9 É um meio eficiente de gerenciar, organizar e analisar grandes quantidades de dados e estruturação da tomada de decisões de acordo. Pode ou pode não contar com IA, com vários graus de envolvimento humano. 10 pode fazer decisões, ou geram conhecimento ou informação, que molda significativamente ou influencia o exercício dos direitos humanos. O aprendizado de máquina é uma técnica popular no campo da IA que tem ganhou destaque nos últimos anos. Muitas vezes usa algoritmos treinados https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wsj.com/articles/learning-to-love-intelligent-machines-1492174086 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wired.com/2016/05/google-alpha-go-ai/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 9/31 29/07 M. Perel & N. Elkin-Koren, Responsabilidade na aplicação algorítmica de direitos autorais, Stanford Technology Law Review, 2016. O grau de envolvimento humano que torna uma decisão automatizada está sujeito a debate: O Artigo 22 do Regulamento Geral Europeu de Proteção de Dados, por exemplo, abrange apenas decisões automatizadas que são "baseadas exclusivamente" no processamento automatizado, o que deixa espaço para interpretação. O atual projeto de diretrizes do Grupo de Trabalho do Artigo 29, por exemplo, argumenta que a intervenção humana tem que ser significativa e não pode ser apenas um gesto simbólico. Ver Artigo 29 Data Protection Working Party, (2017), Guidelines on Automated individual tomada de decisão e definição de perfis para efeitos do Regulamento 2016/679. H. Surden, 'Machine Learning and the Law', 89 Washington Law Review 87, 2014, p. 89-90. A. Munoz, Machine Learning and Optimization, New York University, disponível em: https: // cims.nyu.edu/~munoz/files/ml_optimization.pdf . NG Andrew, Machine Learning, Coursera, disponível em: https://www.youtube.com/ assistir? v = PPLop4L2eGk & list = PLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN . SJ Russell e P. Norvig, Artificial Intelligence: A Modern Approach, Third Edition, Pearson, 2015, p. 846. 9 10 11 12 13 14 com grandes quantidades de dados para melhorar o desempenho de um sistema em uma tarefa hora extra. 11 As tarefas tendem a envolver a tomada de decisões ou o reconhecimento padrões, com muitas saídas possíveis em uma variedade de domínios e formulários. Arthur Samuel, que cunhou o termo, referiu-se a máquina programas de aprendizagem como aqueles que têm 'a capacidade de aprender sem sendo explicitamente programado. ' 12 Muitas das tecnologias comumente referidos como IA hoje são, estritamente falando, máquinas sistemas de aprendizagem. Máquina de aprendizagem supervisionada, não supervisionada e reforçada a aprendizagem é geralmente classificada nesses três tipos. Supervisionado o aprendizado de máquina constitui a maioria dos aplicativos de IA atualmente. Procura para ensinar o computador a prever uma saída, assumindo que a entrada os dados são rotulados corretamente. O aprendizado de máquina supervisionado pode ser usado para prever uma saída de valor contínuo por meio de regressão, ou um saída com valor discreto por meio da classificação. 13 aprendizado não supervisionado, por outro lado, depende do programa de computador para encontrar a estrutura dentro dos dados, com base em recursos específicos. Aprendizagem reforçada é a terceiro tipo, em que o programa é colocado em um ambiente e deve aprender como se comportar com sucesso dentro desse ambiente, com base em feedback de sucessos e fracassos. 14 Página 10 Privacidade e liberdade de expressão na era da inteligência artificial IA e o direito à liberdade de expressão Estabelecendo o Nexus A IA impactará significativamente o direito à liberdade de expressão. 15 É aplicado em um grande número de situações que influenciam como os indivíduos acessam e encontram informações conectados. Cada vez mais, intermediários online, como plataformas de mídia social e pesquisa https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://cims.nyu.edu/~munoz/files/ml_optimization.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://cims.nyu.edu/~munoz/files/ml_optimization.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.youtube.com/watch%3Fv%3DPPLop4L2eGk%26list%3DPLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.youtube.com/watch%3Fv%3DPPLop4L2eGk%26list%3DPLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN user Realce user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 10/31 29/08 motores, usam sistemas de IA para controlar as informações com as quais os usuários se envolvem em opacos e caminhos inescrutáveis. 16 Embora alguns usos, por exemplo, filtros de spam ou itens sugeridos para compras online, podem parecer inofensivas, outras podem ter repercussões mais graves. A vigilância acionada por IA apresenta uma repercussão séria. O penetrante e a natureza invisível dos sistemas de IA, juntamente com sua capacidade de identificar e rastrear comportamento, pode ter um efeito inibidor significativo sobre a liberdade de expressão. este pode ocorrer por meio de autocensura, comportamento alterado em espaços públicos e comunicações privadas semelhantes. O surgimento de técnicas como videovigilância facial reconhecimento, análise de comportamento, etc., por autoridades públicas e empresas privadas entravam a liberdade de expressão e também infringem a própria essência do direito à privacidade. 17 A vigilância em massa, em particular, é uma interferência desproporcional com a privacidade e o liberdade de expressão, enquanto a vigilância direcionada só pode ser justificada quando é prescrito por lei, necessário para atingir um objetivo legítimo e proporcional ao objetivo perseguida. 18 Além disso, os dados gerados e usados por intermediários online em sistemas de IA são outra preocupação. Para aproveitar os recursos da IA, grandes quantidades de dados são gerados e coletados. Isso é preocupante porque os conjuntos de dados são frequentemente construídos através de métodos problemáticos de coleta, levando-os a conter preconceitos que refletem padrões de estereótipos sociais. 19 Mesmo quando este não é o caso, as amostras de dados podem não ser representativo da população em geral. Em qualquer situação, os dados podem levar a IA aplicações para impactar negativamente a liberdade de expressão. L. Rainie & J. Anderson, Code-Dependent: Pros and Contras of the Algorithm Age, Pew Research Center, fevereirode 2017, disponível em: http://pewrsr.ch/2BpdxYx . J. Balkin, Free Speech in the Algorithmic Society: Big Data, Private Governance e Novo regulamento da fala na escola, 2017, disponível em: https://papers.ssrn.com/sol3/papers. cfm? abstract_id = 3038939 . ARTIGO 19, Princípios globais sobre proteção da liberdade de expressão e privacidade, op.cit. Princípios internacionais sobre a aplicação dos direitos humanos às comunicações Vigilância (“Princípios necessários e proporcionais”), disponível em: https: // neededandproportionate.org/principles . R. Calo, Artificial Intelligence Policy: A Primer and Roadmap, 2017, disponível em: https: // ssrn.com/abstract=3015350 ou http://dx.doi.org/10.2139/ssrn.3015350. 15 16 17 18 19 Página 11 Privacidade e liberdade de expressão na era da inteligência artificial Por exemplo, se os sistemas de moderação de conteúdo de IA não são treinados em gírias ou não o uso padrão de certa expressão frequentemente usada por grupos minoritários pode potencialmente levar esses sistemas a censurar o discurso legítimo. Além da vigilância, é difícil fornecer uma visão abrangente das maneiras em que a IA impacta o direito à liberdade de expressão: seus efeitos são setoriais e específico do contexto. AI levanta questões diferentes dependendo de sua aplicação, ou seja, online moderação de conteúdo em plataformas de mídia social ou para casas inteligentes. Nesta fase, A ARTIGO 19 considera a importância da IA através das lentes de nossos cinco principais áreas de trabalho e destaca as seguintes questões: 20 Digital: a tecnologia molda como as pessoas exercem seu direito à liberdade de expressão, como eles acessam informações e como eles interagem online. AI impacta como os indivíduos podem acessar informações e se expressar no Internet, inclusive por meio de mecanismos de pesquisa e mídias sociais. Também afeta o funcionamento técnico fundamental da própria Internet com o uso crescente de https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://pewrsr.ch/2BpdxYx https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3038939 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3038939 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://necessaryandproportionate.org/principles https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://necessaryandproportionate.org/principles https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ssrn.com/abstract%3D3015350 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ssrn.com/abstract%3D3015350 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://dx.doi.org/10.2139/ssrn.3015350 user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 11/31 29/09 ARTIGO 19, The Expression Agenda Report 2016-2017, disponível em: https: //www.article19. org / wp-content / uploads / 2017/12 / Expression-Agenda-Report-2017-for-web-_30.11.17.pdf . R. Brauneis & E. Goodman, Algorithmic Transparency for the Smart City, Yale Journal of Law & Tecnologia, Artigo de Pesquisa de Direito Público da Escola de Direito da GWU, 2 de agosto de 2017, disponível em: https: // papers.ssrn.com/sol3/papers.cfm?abstract_id=3012499 . C. Cath et al., Media Development in the Digital Age: Five Ways to Engage in Internet Governance, 2017, disponível em: https://www.cima.ned.org/publication/media-development- digital-age-five-way-engaje-internet-governança /. 20 21 22 IA em redes de Internet. Organismos de definição de padrões técnicos, como o Institute for Engenheiros elétricos e eletrônicos (IEEE) também estão atualmente no processo de desenvolver padrões para sistemas de IA éticos e seguros. Espaço Cívico: Espaço Cívico é o lugar físico e legal onde os indivíduos realizar seus direitos. Este espaço é cada vez mais impactado por várias IA aplicativos, de algoritmos de feed de notícias a dispositivos conectados em cidades inteligentes. Com base nessas aplicações, os sistemas de IA em breve moldarão a tomada de decisões sistemas e espaços onde as pessoas e comunidades se organizam, se associam e reunir, das casas às cidades. 21 Mídia: O pluralismo da mídia e a liberdade da mídia são essenciais para proteger e promovendo a liberdade de expressão e o interesse público de uma forma cada vez mais cenário de mídia globalizado, digitalizado e convergente. Existe o perigo de que um número limitado de empresas digitais se tornará o canal central para a mídia conteúdo online. Este é particularmente o caso se as empresas usam sistemas opacos de IA que classificam as informações, seja em sites de notícias ou por filtragem de e-mail, de acordo com indicadores que muitas vezes permanecem desconhecidos para os usuários. 22 Transparência: Transparência e acesso à informação - tanto do público quanto órgãos privados - são cruciais para garantir a governança democrática. Cada vez mais, as decisões sobre o acesso à informação, tradicionalmente feitas por humanos, agora são impulsionado por aplicativos de IA. Esses sistemas têm a capacidade de excluir seletivamente Página 12 Privacidade e liberdade de expressão na era da inteligência artificial ou enfatizar informações críticas, 23 e pode permitir que governos implantem IA sistemas sem transparência. 24 Proteção: Aqueles na linha de frente da defesa da liberdade de expressão e as informações devem ser apoiadas por um quadro jurídico forte e capacitador para liberdade de expressão, mecanismos eficazes de proteção do direito de liberdade de expressão, devido processo legal e redes ativas de instituições e ativistas. Várias aplicações de IA são problemáticas, em particular para vigilância e censura, ou visando aqueles que exercem sua liberdade de expressão de uma forma que é controversa na visão dos governos e outras instituições e corporações poderosas. 25 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/12/Expression-Agenda-Report-2017-for-web-_30.11.17.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/wp-content/uploads/2017/12/Expression-Agenda-Report-2017-for-web-_30.11.17.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3012499 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://papers.ssrn.com/sol3/papers.cfm%3Fabstract_id%3D3012499 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.cima.ned.org/publication/media-development-digital-age-five-ways-engage-internet-governance/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.cima.ned.org/publication/media-development-digital-age-five-ways-engage-internet-governance/ user Realce user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 12/31 29/10 Por exemplo, estudos recentes mostram que a IA tem o potencial de privilegiar a propaganda de empregos bem remunerados para homens em vez de anúncios para mulheres. Veja, por exemplo, M. Day, How O mecanismo de pesquisa do LinkedIn pode refletir um preconceito de gênero, The Seattle Times, 31 de agosto de 2016, disponível em: https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine- may-reflect-a-bias /. AI NOW, AI Now 2017 Report, 2017, disponível em: https://ainowinstitute.org/AI_Now_2017_ Report.pdf . Veja, J. Liu, 'In your Face: China's all-see state', BBC, 10 de dezembro de 2017, disponível em http://www.bbc.co.uk/news/av/world-asia-china-42248056/in-your-face-china-s-all-seeing-state . Veja também a rede de vigilânciaCCTV da China levou apenas 7 minutos para capturar o repórter da BBC, Tech Crunch, 13 de dezembro de 2017, disponível em https://techcrunch.com/2017/12/13/china-cctv-bbc- repórter /. 23 24 25 Página 13 Privacidade e liberdade de expressão na era da inteligência artificial Mapeando a Paisagem Direito Internacional dos Direitos Humanos O direito à liberdade de expressão é garantido no Artigo 19 da Universal Declaração dos Direitos Humanos (UDHR) 26 e o Pacto Internacional sobre Assuntos Civis e Direitos Políticos (ICCPR), 27 bem como em tratados regionais de direitos humanos. 28 Embora o direito à liberdade de expressão seja um direito fundamental, não é garantido em termos absolutos. De acordo com as normas internacionais, em particular o Artigo 19, parágrafo 3 da PIDCP, as restrições ao direito à liberdade de expressão devem ser estrita e restrita adaptados e não podem comprometer o direito em si. O método de determinação se uma restrição é estritamente adaptada é frequentemente articulado como um teste de três partes. As restrições devem: (i) ser previstas em lei; (ii) perseguir um objetivo legítimo; e (iii) conformar aos rigorosos testes de necessidade e proporcionalidade. 29 Não existem padrões internacionais que lidem explicitamente com IA e o direito à liberdade de expressão. No entanto, existe um corpo de normas internacionais que são relevantes para o uso de IA, especialmente em relação a intermediários online. 30 para exemplo, os estados não devem impor uma obrigação geral aos intermediários de monitorar as informações que eles transmitem, armazenam, automatizam ou usam de outra forma , 31 e os usuários https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ainowinstitute.org/AI_Now_2017_Report.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ainowinstitute.org/AI_Now_2017_Report.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.bbc.co.uk/news/av/world-asia-china-42248056/in-your-face-china-s-all-seeing-state https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://techcrunch.com/2017/12/13/china-cctv-bbc-reporter/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://techcrunch.com/2017/12/13/china-cctv-bbc-reporter/ user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 13/31 29/11 deve ter a oportunidade de desafiar o bloqueio e a filtragem de conteúdo. 32 Em nível regional, alguns aspectos das aplicações de IA foram abordados no Novo Regulamento Geral de Proteção de Dados da União Europeia (GDPR), embora o GA Res. 217 (III) A, UDHR, art. 19 (10 de dezembro de 1948). O artigo 19 da UDHR declara: “Todos tem direito à liberdade de opinião e expressão; este direito inclui a liberdade de segurar opiniões sem interferência e buscar, receber e transmitir informações e ideias por meio qualquer mídia e independentemente de fronteiras. ” Para a interpretação do Artigo 19 do PIDCP, consulte o Comentário Geral No 34, CCPR / C / GC / 3. Artigo 9 da Carta Africana dos Direitos Humanos e dos Povos, Artigo 13 da Carta Americana Convenção sobre Direitos Humanos, Artigo 10 da Convenção Europeia sobre Direitos Humanos e Artigo 11.º da Carta dos Direitos Fundamentais da UE. Comentário Geral nº 34, CCPR / C / GC / 3, par. 21, 22. Ver, em particular o Relatório do Relator Especial do Conselho de Direitos Humanos sobre o promoção e proteção do direito à liberdade de opinião e expressão, 16 de maio de 2011, parágrafo 47, disponível em: http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A. HRC.17.27_en.pdf ; Regulamento (UE) 2016/679, 27 de abril de 2016 sobre a proteção de pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados, e que revoga a Diretiva 95/46 / CE (Regulamento Geral sobre a Proteção de Dados), 2016 JO (L 119) 1. Diretiva 2000/31 / EC de 8 de junho de 2000 sobre certos aspectos jurídicos dos serviços da sociedade da informação, em particular o comércio electrónico, no mercado interno (directiva sobre o comércio electrónico). Recomendação CM / Rec (2008) 6 do Comitê de Ministros aos Estados Membros sobre medidas promover e respeitar a liberdade de expressão e informação em relação à internet filtros, s1. 26 27 28 29 30 31 32 Página 14 Privacidade e liberdade de expressão na era da inteligência artificial detalhes de sua relação com o direito de acesso à informação e expressão permanecem para discussão. Analisamos essa discussão 33 em detalhes em um estágio posterior deste artigo. Estruturas Nacionais Em níveis nacionais, as aplicações de IA existentes são reguladas por estruturas tradicionais de legislação, incluindo liberdade de expressão, proteção de dados, proteção ao consumidor, mídia e direito da concorrência, juntamente com regulamentos e padrões setoriais. Embora essas estruturas cubram alguns aspectos da aplicação de IA, a questão permanece se essas leis são adequadas para abordar as inúmeras maneiras pelas quais a IA impactará liberdade de expressão. Em resposta a algumas das questões específicas levantadas pelo uso de sistemas de IA, alguns países como Japão 34 e Alemanha 35 desenvolveram novas estruturas aplicáveis para questões específicas de IA. Estes exibem uma tendência crescente dos governos de publicar diretrizes não vinculativas e estruturas éticas para IA, e até mesmo criar consultoria redes sobre ética e IA. 36 Daqui para frente, os governos devem lidar com como as leis existentes podem ser aplicadas a AI, e também identificar as áreas, setores e casos de uso onde a regulamentação específica é necessário. Enquanto propostas para reguladores nacionais de IA estão sendo feitas por especialistas em várias jurisdições, 37 estas ainda não foram adotadas. 38 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 14/31 29/12 Normas Técnicas O reconhecimento de que os direitos humanos devem formar a base das normas técnicas e protocolos e o papel que tais padrões e protocolos desempenham no exercício da vida humana Ministério da Economia, Comércio e Indústria do Japão, Estratégia de Robôs do Japão foi compilada ', 23 Janeiro de 2015, disponível em: http://www.meti.go.jp/english/press/2015/0123_01.html . Veja também Política de robôs do Japão e zona especial para regulamentação de robôs de última geração, Robolaw Ásia, disponível em: https://pkurobotlaw.wordpress.com/2015/06/22/japans-robot-policy-and- a-zona-especial-para-a-regulação-robôs da próxima geração . B. Bergan, Alemanha Elabora as primeiras diretrizes éticas do mundo para carros autônomos, futurismo, 25 de agosto de 2017, disponível em: https://futurism.com/germany-drafts-worlds-first-ethical- diretrizes-para-carros-autodirigidos /. L. Kelion, UK PM Seeks 'safe and ética' artificial intelligence, BBC, 24 de janeiro de 2018, disponível em: http://www.bbc.co.uk/news/technology-42810678 . Veja, por exemplo: I. Amostra, watchdog AI necessário para regular a tomada de decisão automatizada, dizem os especialistas, The Guardian, 27 de janeiro de 2017. Veja também chamadas semelhantes nos EUA: R. Calo, O caso de uma Comissão Federal de Robótica, BrookingsInstitution Center for Technology Inovação, 1 de setembro de 2014, disponível em: https://ssrn.com/abstract=2529151 ; O. Bracha e F. Pasquale, Federal Search Commission? Acesso, justiça e responsabilidade na lei of Search, 93 Cornell L. Rev. 1149, 2008, disponível em: http://scholarship.law.cornell.edu/ clr / vol93 / iss6 / 11 . Mais recentemente, no Reino Unido. M. Burgess, O Relatório do Governo sobre IA não Recomendar Regulamentação, Wired, 14 de outubro de 2017, disponível em: http://www.wired.co.uk/ artigo / ai-report-uk-government-money . 34 35 36 37 38 Página 15 Privacidade e liberdade de expressão na era da inteligência artificial direitos é cada vez mais comum. 39 No entanto, ainda está para ser visto o que este concretamente significa para IA. Apesar deste maior reconhecimento, os direitos humanos não são explicitamente mencionados no processos de política de muitas organizações técnicas ou comerciais. Esses atores são rápidos tornando-se os portais e facilitadores do exercício da liberdade de expressão, uma vez que eles desenvolvem a maioria dos sistemas de IA. Em resposta às questões éticas e legais colocadas pela IA, várias iniciativas da indústria foram iniciados. Os dois mais proeminentes são: É louvável que essas iniciativas estejam colocando esforços e recursos em facilitando uma discussão interdisciplinar e, às vezes, com várias partes interessadas. Ético códigos e padrões da indústria podem ser uma importante ferramenta de conformidade 40 , ou ajudar organizações para ir além da conformidade. Também é crucial garantir que o técnico Iniciativa Global sobre Ética de Sistemas Autônomos e Inteligentes da Instituto de Engenheiros Elétricos e Eletrônicos (IEEE). Esta iniciativa se concentra em desenvolvimento de padrões técnicos que incorporam a ética em sistemas de IA. A iniciativa também visa aumentar a conscientização da comunidade de IA sobre a importância de priorizando considerações éticas no desenvolvimento de tecnologia. A Parceria em Inteligência Artificial para Beneficiar Pessoas e a Sociedade, originalmente estabelecido pela Microsoft, Google, Amazon, Facebook e IBM para 'estudar e formular as melhores práticas em tecnologias de IA, para promover o público compreensão da IA, e servir como uma plataforma aberta para discussão e engajamento sobre IA e suas influências nas pessoas e na sociedade. ' https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.meti.go.jp/english/press/2015/0123_01.html https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://pkurobotlaw.wordpress.com/2015/06/22/japans-robot-policy-and-the-special-zone-for-regulating-next-generation-robots https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://pkurobotlaw.wordpress.com/2015/06/22/japans-robot-policy-and-the-special-zone-for-regulating-next-generation-robots https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://futurism.com/germany-drafts-worlds-first-ethical-guidelines-for-self-driving-cars/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://futurism.com/germany-drafts-worlds-first-ethical-guidelines-for-self-driving-cars/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.bbc.co.uk/news/technology-42810678 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ssrn.com/abstract%3D2529151 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://scholarship.law.cornell.edu/clr/vol93/iss6/11 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://scholarship.law.cornell.edu/clr/vol93/iss6/11 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.wired.co.uk/article/ai-report-uk-government-money https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.wired.co.uk/article/ai-report-uk-government-money user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 15/31 13/29 padrões e diretrizes do setor atendem aos padrões internacionais de direitos humanos sobre liberdade de expressão, são responsáveis e estão sujeitos ao escrutínio público. Contudo, sem um forte apoio institucional, esses códigos não podem funcionar de forma eficaz, e pode até ser contraproducente. 41 Em tudo isso, é crucial reconhecer que o ser humano direitos devem ser o piso e não o teto, e que uma série de os princípios mínimos podem servir de orientação. 42 Relator especial da ONU sobre liberdade de expressão, Relatório ao Conselho de Direitos Humanos sobre Liberdade de expressão, estados e setor privado na era digital, 2013, disponível de: http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/Privatesectorinthedigitalage.aspx . Comissário de informações do Reino Unido, documento de discussão Big Data, inteligência artificial, máquina aprendizagem e proteção de dados, disponível em: https://ico.org.uk/media/for-organisations/ documentos / 2013559 / big-data-ai-ml-and-data-protection.pdf . P. Boddington, Rumo a um Código de Ética para Inteligência Artificial, Springer International Publicação, 2017. Veja os Princípios Orientadores sobre Empresas e Direitos Humanos; a Iniciativa de Rede Global Princípios sobre liberdade de expressão e privacidade; o setor de TIC da Comissão Europeia Guia de Implementação dos Princípios Orientadores da ONU sobre Negócios e Direitos Humanos; e a Princípios orientadores do diálogo da indústria de telecomunicações. Isso encoraja as empresas a comprometer-se a proteger os direitos humanos, realizar a devida diligência para garantir os direitos humanos positivos impacto de seu trabalho e remediar os impactos adversos de seu trabalho sobre os direitos humanos. 39 40 41 42 Página 16 Privacidade e liberdade de expressão na era da inteligência artificial Autorregulação por empresas No nível de empresas individuais, o provável impacto da IA na liberdade de expressão pode ser entendido examinando seus Termos de Serviço. Pesquisas indicam que as empresas dependem cada vez mais de sistemas de IA para fazer cumprir seus Termos de Serviço: por exemplo, as plataformas atualmente implantam filtragem e bloqueio automatizados em resposta ao 'extremismo violento' online. 43 Crescente pressão sobre as empresas por parte dos governos para policiar "prejudiciais" ou ilegais conteúdo pode levar ao desenvolvimento de sistemas mais sofisticados, capazes de identificar e remover grandes quantidades de conteúdo com limitado, ou nenhum, humano intervenção. Essa pressão também incentiva as empresas a pecar por excesso de cautela quando trata de conteúdo em suas plataformas, o que significa que suas limitações e restrições sobre a liberdade de expressão (em particular no caso de plataformas de mídia social e sistemas de pagamento eletrônico 44 ) às vezes estão fora do âmbito internacional- reconheceram limitações legítimas à liberdade de expressão. 45 Por medo de remoção de conteúdo, os próprios criadores de conteúdo erram no sentido de cautela na expressão, autocensura e criação de um "efeito inibidor" na liberdade de expressão. 46 A falta de transparência sobre os sistemas de IA usados pelas empresas é um problema neste contexto. Isso é agravado pela falta de mecanismos claros de reclamação para lidar com remoção inadequada ou zelosa de conteúdo. Capacidade de desafio dos usuários essas decisões perante os tribunais nacionais também são extremamente limitadas, o que mina o direito das partes afetadas de buscar soluções. 47 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/Privatesectorinthedigitalage.aspx https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdfuser Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 16/31 14/29 Veja, por exemplo, S. Frenkel, Inside the Obama Administration's Attempt to Bring Tech Empresas na luta contra o ISIS, BuzzFeed, 26 de fevereiro de 2016, disponível em: https: // www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech- compa? utm_term = .eoN44ER6aM # .xoaJJExkQ8 . Observe também que as remoções envolvem interação humana em vários níveis. Por exemplo, as solicitações de retirada originam-se de escrutínio público, enquanto os sistemas de filtragem são amplamente automatizados com a entrada humana apenas nos estágios finais da revisão. Veja, por exemplo, EFF, Free Speech Coalition Calls on PayPal to Back Off Misguided Book Política de censura, março de 2012, disponível em: https://www.eff.org/deeplinks/2012/03/free- speech-coalition-callspaypal-back-misguided-book-censorship-policy ; ou PayPal chove Regretsy's Secret Santa Campaign Over Use Of Wrong Button, Consumerist, dezembro de 2011. Por exemplo, consulte KM Hovland & D. Seetharaman, Facebook Backs Down on Censoring 'Napalm Girl 'Photo, The Wall Street Journal, 9 de setembro de 2016, disponível em: https://www.wsj.com/ articles / norway-accuses-facebook-of-censorship-over-delete-photo-of-napalm-girl-1473428032 . ARTIGO 19, Intermediários da Internet: Dilema de Responsabilidade, disponível em https: // www. article19.org/data/files/Intermediaries_ENGLISH.pdf . Em particular, a base legal para qualquer contestação judicial é o direito contratual, onde o padrão é geralmente a falta de justiça dos termos contratuais, ou seja, um limite muito alto para consumidores. Além disso, os Termos de Uso das plataformas de mídia social geralmente contêm jurisdição cláusulas que obrigam os usuários a usar os tribunais da Califórnia em vez dos tribunais de seu lugar de residência. 43 44 45 46 47 Página 17 Privacidade e liberdade de expressão na era da inteligência artificial Desafios Embora resistamos à tendência de interpretar a IA como fundamentalmente diferente das anteriores tecnologias, que têm estado na vanguarda dos debates políticos nos últimos anos, são vários desafios únicos que a IA representa para a liberdade de expressão. Eles podem ser classificado da seguinte forma: Falta de respeito pelo estado de direito: iniciativas atuais da indústria em torno da IA são estritamente focados no desenvolvimento de padrões técnicos, éticos estruturas e conceitos como justiça, transparência e responsabilidade. No entanto, essas estruturas devem ser executáveis e cumprir com as Estado de Direito. Grande parte do trabalho realizado atualmente nesta área carece tais mecanismos de aplicação, sejam auto-impostos ou por meio de regulação, limitação de impacto. Falta de transparência: muitas empresas que desenvolvem sistemas críticos de IA o fazem de maneiras não transparentes e inescrutáveis. Como a maioria da IA é desenvolvida ou pertencente à indústria, envolvida de forma crítica com o impacto da liberdade de expressão dessas tecnologias é cada vez mais difícil para os atores da sociedade civil por causa de regras de segredos comerciais e altas barreiras à transparência em torno da aplicação e desenvolvimento, bem como a complexidade inerente a esses sistemas. Falta de responsabilidade: A natureza oculta dos sistemas de IA torna difícil estudar ou analisar o impacto da IA no direito à liberdade de expressão, a menos que ocorre um dano tangível. Por exemplo, traçar o perfil de pessoas que participam de protestos se tornará cada vez mais fácil, mesmo se eles cobrirem seus rostos. Nem sempre é claro quando algoritmos de aprendizado de máquina estão sendo usados, portanto, danos decorrentes de o uso de IA são difíceis de detectar. Mesmo quando um dano potencial é encontrado, pode ser difícil garantir a responsabilização por violações dos responsáveis. Percepção pública e o papel da mídia: muito do discurso popular em torno da IA concentra-se nos perigos da inteligência geral da IA, em vez de implicações atuais, práticas e realistas dos sistemas de IA. Este discurso tem https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-compa%3Futm_term%3D.eoN44ER6aM%23.xoaJJExkQ8#.xoaJJExkQ8 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-compa%3Futm_term%3D.eoN44ER6aM%23.xoaJJExkQ8#.xoaJJExkQ8 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.buzzfeed.com/sheerafrenkel/inside-the-obama-administrations-attempt-to-bring-tech-compa%3Futm_term%3D.eoN44ER6aM%23.xoaJJExkQ8#.xoaJJExkQ8 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.eff.org/deeplinks/2012/03/free-speech-coalition-callspaypal-back-misguided-book-censorship-policy https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.eff.org/deeplinks/2012/03/free-speech-coalition-callspaypal-back-misguided-book-censorship-policy https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wsj.com/articles/norway-accuses-facebook-of-censorship-over-deleted-photo-of-napalm-girl-1473428032 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.wsj.com/articles/norway-accuses-facebook-of-censorship-over-deleted-photo-of-napalm-girl-1473428032 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/data/files/Intermediaries_ENGLISH.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.article19.org/data/files/Intermediaries_ENGLISH.pdf user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 17/31 15/29 um impacto real. Ele desvia a atenção e o financiamento dos problemas atuais em torno da liberdade de expressão e privacidade para favorecer hipotéticos cenários distópicos. A mídia tem um papel a desempenhar para garantir que a cobertura de AI está focada nas questões em questão. Coleta e uso de dados: várias preocupações com a liberdade de expressão derivam de a forma como os dados são coletados e usados em sistemas de IA. Compreender como os dados usam Em particular, a base legal para qualquer contestação judicial é o direito contratual, onde o padrão é geralmente a falta de justiça dos termos contratuais, ou seja, um limite muito alto para consumidores. Além disso, os Termos de Uso das plataformas de mídia social geralmente contêm jurisdição cláusulas que obrigam os usuários a usar os tribunais da Califórnia em vez dos tribunais de seu lugar de residência. S. Walker, aplicativo de reconhecimento facial que está tomando conta da Rússia pode acabar com o anonimato público, The Guardian, 17 de maio de 2016, disponível em: https://www.theguardian.com/technology/2016/ maio / 17 / findface-face-recognition-app-end-public-anonymity-vkontakte . 47 48 Página 18 Privacidade e liberdade de expressão na era da inteligência artificial e a qualidade influencia os sistemas de IA é particularmente pertinente para os defensores da linha de frente de direitos humanos, e comunidades vulneráveis ou minoritárias que estarão abaixo ou deturpado em conjuntos de dados. 49 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/technology/2016/may/17/findface-face-recognition-app-end-public-anonymity-vkontakte https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.theguardian.com/technology/2016/may/17/findface-face-recognition-app-end-public-anonymity-vkontakte 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f18/31 16/29 J. Angwin, et al., Machine Bias, ProPublica, 23 de maio de 2016, disponível em https: // www. propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing . 49 Página 19 Privacidade e liberdade de expressão na era da inteligência artificial IA e privacidade Estabelecendo o Nexus As implicações de privacidade da IA resultam de sua capacidade de reconhecer padrões e cada vez mais, "extraia o íntimo do disponível". 50 Essa habilidade depende do processamento de grandes quantidades de dados. Diferentes aplicações e usos de IA podem afetar o direito à privacidade de maneiras diferentes: Cada uma dessas novas interferências com a privacidade são significativas: a privacidade é indispensável para o exercício de uma série de direitos humanos, como liberdade de expressão, liberdade de associação, além de ser fundamental para o exercício da autonomia pessoal e liberdade de escolha , 51 bem como normas sociais mais amplas. 52 J. Angwin, et al., Machine Bias, ProPublica, 23 de maio de 2016, disponível em https: // www.49 Produtos de consumo baseados em IA e sistemas autônomos são frequentemente equipados com sensores que geram e coletam grandes quantidades de dados sem o conhecimento ou consentimento de quem está próximo; Métodos de IA estão sendo usados para identificar pessoas que desejam permanecer anônimas; Métodos de IA estão sendo usados para inferir e gerar informações confidenciais sobre pessoas com seus dados não confidenciais; Métodos de IA estão sendo usados para traçar perfis de pessoas com base em dados em escala populacional; e Métodos de IA estão sendo usados para tomar decisões importantes usando esses dados, alguns dos quais afetam profundamente a vida das pessoas. https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing user Realce user Realce user Realce user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 19/31 17/29 propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing . Calo, Artificial Intelligence Policy, op.cit. T. Payton e T. Claypoole, Privacidade na era do Big Data: Reconhecendo ameaças, defesa seus direitos e protegendo sua família, Rowman & Littlefield, 2014. RCPost,., 'Os fundamentos sociais da privacidade: Comunidade e si mesmo no direito comum delito ', California Law Review, 1989, pp. 957-1010. Resumindo o Post, ver T. Doyle, 2012; DJ Solove, Nothing to Hide: The False Tradeoff entre Privacidade e Segurança, Universidade de Yale Press, 2011: 'Como argumentou o teórico jurídico Robert Post, a privacidade não é apenas um conjunto de restrições às regras e normas da sociedade. Em vez disso, a privacidade constitui uma tentativa da sociedade de promover a civilidade. A sociedade protege a privacidade como meio de garantir a ordem na comunidade. Privacidade não é a trombeta do indivíduo contra os interesses da sociedade, mas o proteção do indivíduo com base nas próprias normas e valores da sociedade. ' 50 51 52 Página 20 Privacidade e liberdade de expressão na era da inteligência artificial Um estudo de 2015 por pesquisadores do Instituto Francês de Pesquisa em Ciência da Computação mostraram que 75% dos usuários de telefones celulares podem ser reidentificados em um conjunto de dados usando a máquina métodos de aprendizagem e apenas dois aplicativos de smartphone, com a probabilidade aumentando para 95% se quatro aplicativos são usados. Veja JP Achara ,, G. Acs e C. Castelluccia, 'On the unicity of smartphone aplicações 'no 14º Workshop ACM sobre Privacidade na Sociedade Eletrônica, outubro de 2015, pp. 27-36, disponível em https://arxiv.org/pdf/1507.07851v2.pdf . Walker, 'App de reconhecimento de rosto', op.cit. 53 Exploração de dados: produtos de consumo, de eletrodomésticos inteligentes a carros conectados e aplicativos de telefone são geralmente desenvolvidos para exploração de dados. Os consumidores são comumente confrontados com uma assimetria informativa quanto ao que tipos e quantos dados seus dispositivos, redes e plataformas geram, processo ou compartilhamento. À medida que trazemos dispositivos cada vez mais inteligentes e conectados para nossos casas, locais de trabalho, espaços públicos e até mesmo nossos corpos, educando o público sobre tal exploração de dados torna-se cada vez mais premente. Identificação e rastreamento: os aplicativos de IA podem ser usados para identificar e assim, rastreia indivíduos em diferentes dispositivos, em suas casas, no trabalho, e em espaços públicos. Por exemplo, embora os dados pessoais sejam rotineiramente (pseudo-) anonimizada dentro de conjuntos de dados, a IA pode ser empregada para desanonimar este dados, desafiando a distinção entre dados pessoais e não pessoais, no qual se baseia a regulamentação atual de proteção de dados. 53 Reconhecimento facial é outro meio pelo qual os indivíduos podem ser rastreados e identificados, que tem o potencial de transformar as expectativas de anonimato no espaço público. Os sistemas de aprendizado de máquina foram capazes de identificar cerca de 69% de manifestantes usando bonés e lenços para cobrir seus rostos. 54 No contexto de aplicação da lei, o reconhecimento facial pode permitir que a polícia identifique indivíduos sem causa provável, suspeita razoável, ou qualquer outro padrão legal que pode ser necessário para a aplicação da lei obter identificação por meios tradicionais. 55 Inferência e previsão de informações: usando métodos de aprendizado de máquina, informações altamente confidenciais podem ser inferidas ou previstas a partir de informações não confidenciais formas de dados. Os estados emocionais das pessoas, por exemplo, confiança, nervosismo, tristeza e cansaço podem ser previstos a partir de padrões de digitação em um computador teclado. 56 Quando dados pessoais confidenciais, como informações sobre saúde, sexualidade, etnia ou crenças políticas podem ser previstas a partir de dados não relacionados (ou seja, registros de atividades, métricas de telefone, dados de localização ou curtidas de mídia social), como perfis representa desafios significativos à privacidade e pode resultar em discriminação. https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://arxiv.org/pdf/1507.07851v2.pdf 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 20/31 18/29 Centro de Informações de Privacidade Eletrônica (EPIC) e 45 organizações, Carta aos Senadores Grassley e Leahy e os representantes Goodlatte, Chaffetz, Conyers e Cummings a respeito o uso de reconhecimento facial e proposta do FBI para isentar a próxima geração do Bureau Identification Database from Privacy Act Obligations, 2016, disponível em: https: // epic. org / privacy / fbi / NGI-Congressional-Oversight-Letter.pdf . C. Epp, M. Lippold & RL Mandryk, Identifying emocional states using keystroke dynamics 'in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems., Maio de 2011, pp. 715-724, disponível em http://hci.usask.ca/uploads/203-p715-epp.pdf . 54 55 56 Página 21 Privacidade e liberdade de expressão na era da inteligência artificial P. Tucker, Refugiado ou Terrorista? A IBM acha que seu software tem a resposta, Defense One, 2757 Criação de perfil para classificar, pontuar, categorizar, avaliar e classificar os indivíduose grupos: aplicativos baseados em IA são usados para classificar, pontuar, categorizar, avaliar e classificar as pessoas, muitas vezes sem seu conhecimento ou consentimento, e frequentemente sem a capacidade de desafiar os resultados ou eficácia de esses processos. Em 2016, por exemplo, a IBM promoveu o uso de IA para separar refugiados 'genuínos' de outros tipos de migrantes. 57 O aprendizado de máquina também funciona um papel crescente nos sistemas de pontuação que moldam o acesso ao crédito, emprego, habitação ou serviços sociais. Tomada de decisão: os sistemas de IA podem ser usados para tomar ou informar decisões sobre pessoas ou seus ambientes, potencialmente com base em perfis. Um ambiente que conhece suas preferências e se adapta de acordo com interesses presumidos levanta questões importantes sobre privacidade, autonomia e a ética de tais adaptações. Personalização, não só de informação, mas também de nossa percepção do mundo, se tornará cada vez mais importante à medida que avançamos em direção espaços conectados como cidades inteligentes 58 ou realidade aumentada e virtual (AR e VR). https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://epic.org/privacy/fbi/NGI-Congressional-Oversight-Letter.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://epic.org/privacy/fbi/NGI-Congressional-Oversight-Letter.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://hci.usask.ca/uploads/203-p715-epp.pdf 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 21/31 19/29 Janeiro de 2016, disponível em http://www.defenseone.com/technology/2016/01/refugee-or-terrorist- ibm-pensa-seu-software-tem-resposta / 125484 /. Privacy International, 'Smart Cities: Utopian Vision, Dystopian Reality', outubro de 2017, disponível em https://privacyinternational.org/sites/default/files/2017-12/Smart%20Cities- Utopian% 20Vision% 2C% 20Dystopian% 20Reality.pdf . 58 Página 22 Privacidade e liberdade de expressão na era da inteligência artificial Mapeando a Paisagem Os debates sobre políticas de IA e privacidade são complicados pelo fato de que discursos sobre políticas usam o termo para se referir a uma ampla gama de aplicações, usos e métodos. Onde a IA é discutida de uma forma tão ampla, há uma tendência de assumir que a tecnologia apresenta desafios que são tão radicalmente novos que todas as leis existentes, regulamentos e padrões não são mais aplicáveis ou apropriados. O 'outro lado' de esse discurso é exigir regulação da própria tecnologia, independentemente de como e onde é aplicado. Para evitar sucumbir a qualquer uma dessas falácias, é necessário examinar como discursos, como legislação de direitos humanos, proteção de dados, regulamentação setorial de privacidade, e ética em pesquisa, relaciona-se a diferentes aplicações e métodos de IA. Abaixo, explicamos como vários desses frameworks existentes se aplicam e onde eles faltar. Também discutimos várias iniciativas específicas de IA que têm uma privacidade explícita foco, alguns setoriais, outros mais gerais. Direito Internacional dos Direitos Humanos O direito internacional dos direitos humanos reconhece o direito fundamental à privacidade. Artigo 12 da Declaração Universal dos Direitos Humanos (UDHR), por exemplo, proclama que “[N] ninguém estará sujeito a interferência arbitrária em sua privacidade, família, casa ou correspondência…. Toda pessoa tem direito à proteção da lei contra tais interferência ou ataques. ” 59 O direito internacional dos direitos humanos exige que qualquer interferência no direito de privacidade não deve apenas estar de acordo com a lei 60, mas também deve ser necessária e proporcionado. 61 Na medida em que os estados desenvolvem ou usam IA de maneira que interfira GA Res. 217 (III) A, UDHR, art. 12 (10 de dezembro de 1948) Ver Artigo 17 (1), PIDCP; Artigo 11, CADH (“2. Ninguém pode ser objeto de arbitragem ou interferência abusiva em sua vida privada, sua família, sua casa ou sua correspondência .. 3. Toda pessoa tem direito à proteção da lei contra tais interferências. . . . ”); Artigo 8 (2) da Convenção Europeia dos Direitos do Homem (“CEDH”) (“Não haverá interferência de uma autoridade pública no exercício do [direito ao respeito pelo privado e vida familiar] exceto nos casos em que esteja de acordo com a lei ... ”); veja também UN Human Comitê de Direitos, Comentário Geral No. 16 (Artigo 17 PIDCP), 8 de abril de 1988, para 3, disponível em http://tbinternet.ohchr.org/Treaties/CCPR/Shared%20Documents/1_Global/INT_CCPR_GEC_6624_E . doc (observando que “[o] termo 'ilegal' significa que nenhuma interferência pode ocorrer, exceto nos casos previstos em lei ”e que“ [i] interferência autorizada pelos Estados só pode tomar lugar com base na lei, que por sua vez deve cumprir as disposições, finalidades e objetivos do Pacto ”); Princípio 1, Princípios Internacionais sobre a Aplicação dos Direitos Humanos para Vigilância de Comunicações ("Princípios Necessários e Proporcionais"), disponível em https://necessaryandproportionate.org/principles . Os princípios necessários e proporcionais aplicar o direito internacional dos direitos humanos à vigilância digital moderna. Eles foram elaborados em 2013 por uma coalizão internacional da sociedade civil, especialistas em privacidade e tecnologia e 59 60 https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.defenseone.com/technology/2016/01/refugee-or-terrorist-ibm-thinks-its-software-has-answer/125484/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.defenseone.com/technology/2016/01/refugee-or-terrorist-ibm-thinks-its-software-has-answer/125484/ https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://privacyinternational.org/sites/default/files/2017-12/Smart%2520Cities-Utopian%2520Vision%252C%2520Dystopian%2520Reality.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://privacyinternational.org/sites/default/files/2017-12/Smart%2520Cities-Utopian%2520Vision%252C%2520Dystopian%2520Reality.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://tbinternet.ohchr.org/Treaties/CCPR/Shared%2520Documents/1_Global/INT_CCPR_GEC_6624_E https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://necessaryandproportionate.org/principles user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 22/31 20/29 foi endossado por mais de 600 organizações em todo o mundo. Página 23 Privacidade e liberdade de expressão na era da inteligência artificial 21/29 Ver Comitê de Direitos Humanos da ONU, Toonen v. Austrália, Comm. No. 488/1992, UN Doc. CCPR / C / 50 / D / 488/1992 (31 de março de 1994), para. 8.3 ("[Qualquer] interferência com a privacidade deve ser proporcionais ao fim pretendido e necessárias nas circunstâncias de cada caso. ”); Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos, O Direito à Privacidade no Digital Idade, UN Doc. A / HRC / 27/37 (30 de junho de 2014), par. 23, disponível em https: // documents-dds-ny. un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf?OpenElement (“Estas fontes oficiais [Comentários Gerais do HRC 16, 27, 29, 31 e 34 e os Princípios de Siracusa] apontam para o princípios abrangentes de legalidade, necessidade e proporcionalidade ... ”); Direitos Humanos da ONU Resolução do Conselho sobre o Direito à Privacidade na Era Digital, Doc. ONU. A / HRC / 34/7, 23 Março de 2017, par. 2 disponível em https://documents-ddsny.un.org/doc/UNDOC/GEN/G17/086/31/ PDF / G1708631.pdf? OpenElement (“Relembrando [ing] que os Estados devem garantir que qualquer interferência com o direito à privacidade é consistente com os princípios da legalidade, necessidade e proporcionalidade"). Resolução do Conselho de DireitosHumanos da ONU sobre o Direito à Privacidade na Era Digital, Doc. Da ONU. A / HRC / 34 / L, 7, 23 de março de 2017, parágrafo 2. Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos, Relatório sobre criptografia, anonimato e a estrutura dos direitos humanos, UN Doc. A / HRC / 29/32 (22 de maio de 2015), disponível em http: // www. ohchr.org/EN/Issues/FreedomOpinion/Pages/CallForSubmission.aspx . 61 62 63 com o direito à privacidade, esse uso deve estar sujeito ao teste de legalidade de três partes, necessidade e proporcionalidade. O direito internacional dos direitos humanos exige que qualquer interferência no direito de privacidade não deve apenas estar de acordo com a lei 60, mas também deve ser necessária e proporcionado. 61 Na medida em que os estados desenvolvem ou usam IA de maneira que interfira com o direito à privacidade, esse uso deve estar sujeito ao teste de legalidade de três partes, necessidade e proporcionalidade. Defensores e autoridades que usam a estrutura internacional de direitos humanos são cada vez mais reconhecendo e reconhecendo o impacto que novas formas de dados processamento têm sobre os direitos fundamentais, incluindo o direito à privacidade. Com respeito para o perfil, por exemplo, que pode envolver o uso de métodos de IA para derivar, inferir ou prever informações sobre indivíduos com o propósito de avaliar ou avaliar alguns aspecto sobre eles, o Conselho de Direitos Humanos das Nações Unidas observou com preocupação em Março de 2017 que 'o processamento automático de dados pessoais para perfis individuais pode levar a discriminação ou decisões que de outra forma têm o potencial de afetar o gozo dos direitos humanos, incluindo direitos econômicos, sociais e culturais. ' 62 As autoridades internacionais de direitos humanos também avançaram no sentido de reconhecer um direito ao anonimato de acordo com os direitos à privacidade e à liberdade de opinião e expressão. Isso tem implicações para a IA usada para identificar indivíduos online, em suas casas e em espaços públicos. O Relator Especial da ONU sobre Liberdade de Expressão, por exemplo, identificou repetidamente essa relação e enfatizou que a interferência do estado com anonimato deve estar sujeito ao teste de três partes de legalidade, necessidade e proporcionalidade, como qualquer outra interferência nesses direitos. 63 Proteção de dados Estruturas de proteção de dados se aplicam à pesquisa, desenvolvimento e aplicação de IA para https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf%3FOpenElement https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf%3FOpenElement https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/088/54/PDF/G1408854.pdf%3FOpenElement https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-ddsny.un.org/doc/UNDOC/GEN/G17/086/31/PDF/G1708631.pdf%3FOpenElement https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://documents-ddsny.un.org/doc/UNDOC/GEN/G17/086/31/PDF/G1708631.pdf%3FOpenElement https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/CallForSubmission.aspx https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=http://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/CallForSubmission.aspx user Realce 22/08/2020 Privacidade e liberdade de expressão na era da inteligência artificial https://translate.googleusercontent.com/translate_f 23/31 Página 24 Privacidade e liberdade de expressão na era da inteligência artificial 22/29 Veja, por exemplo, o Comissário de Informação do Reino Unido, artigo de discussão Big Data, artificial inteligência, aprendizado de máquina e proteção de dados, disponíveis em https://ico.org.uk/media/ para organizações / documentos / 2013559 / big-data-ai-ml-and-data-protection.pdf ou o europeu Documento da Sala do Supervisor de Proteção de Dados (EDPS) para a 38ª Conferência Internacional de Comissários de Proteção e Privacidade de Dados, Inteligência Artificial, Robótica, Privacidade e Proteção de dados, disponível em https://edps.europa.eu/sites/edp/files/publication/16-10-19_ marrakesh_ai_paper_en.pdf . Artigo 5.º do Regulamento Geral de Proteção de Dados (GDPR) - (Regulamento (UE) 2016/679. Artigos 13, 14 e 22 do RGPD. O Artigo 22 do GDPR se aplica apenas a decisões "baseadas exclusivamente em processamento automatizado, incluindo perfis, o que produz efeitos jurídicos a seu respeito ou de forma semelhante o afeta significativamente ”. Artigo 25 do GDPR. Artigo 4.º, n.º 4, do RGPD. Veja, por exemplo, R. Binns, 'Data protection impact assessments: a meta-Regulation approach' Lei Internacional de Privacidade de Dados, 7 (1), 2017, pp 22-35; L. Edwards e M. Veale, 'Enslaving the Algoritmo: de um 'direito a uma explicação' a um 'direito a melhores decisões'? ', Segurança IEEE E privacidade, 2017. 64 65 66 67 68 69 70 na medida em que dados pessoais (conforme definido nas estruturas) estão envolvidos. 64 Assim, mesmo sem referência explícita à IA, as estruturas de proteção de dados já regulam como Os sistemas de IA podem processar dados pessoais. Estruturas regulatórias em todo o mundo são diversos, mas todos são projetados para proteger os dados individuais e refletem a sensação de que tais as proteções são um aspecto importante do direito à privacidade. O Regulamento Geral de Proteção de Dados da UE (GDPR), que entra em vigor em 25 de maio 2018, requer uma base legal para o processamento de dados - e além dos princípios de justiça, responsabilidade e transparência, inclui os princípios fundamentais de propósito limitação e minimização de dados, 65 que têm implicações para o desenvolvimento, use e aplicação de sistemas de IA. O GDPR também limita o uso de tomada de decisão automatizada em certas circunstâncias, e exige que os indivíduos recebam informações sobre a existência de tomada de decisão automatizada, a lógica envolvida e o significado e previsto consequências do processamento para o indivíduo. 66 A lei introduz uma visão geral proibição (com exceções estreitas) de decisões exclusivamente automatizadas quando tais as decisões têm efeitos jurídicos ou outros efeitos significativos. 67 Notavelmente, o GDPR também define perfis como o processamento automatizado de dados para analisar ou fazer previsões sobre os indivíduos. 68 Esta definição reconhece que dados pessoais podem ser produzidos por aplicativos de aprendizado de máquina e outras formas de perfis. 69 Por fim, o GDPR introduz uma série de disposições que incentivam o design de menos sistemas invasores de privacidade, alguns dos quais têm consequências de longo alcance para a IA. o obrigação de incorporar a proteção de dados desde o projeto e, por padrão, procura integrar princípios de proteção de dados na concepção das operações de processamento de dados. 70 Avaliações de impacto de privacidade de dados (DPIA) - ferramentas para que as organizações gerenciem a privacidade riscos - serão obrigatórios para muitas IA invasoras de privacidade e aprendizado de máquina https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://edps.europa.eu/sites/edp/files/publication/16-10-19_marrakesh_ai_paper_en.pdf https://translate.google.com/translate?hl=pt-BR&prev=_t&sl=en&tl=pt&u=https://edps.europa.eu/sites/edp/files/publication/16-10-19_marrakesh_ai_paper_en.pdf 22/08/2020 Privacidade e liberdade de expressão
Compartilhar