Buscar

Os desafios éticos da Inteligência Artificial e a necessidade de intervenção humanitária

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 4 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Proposta de Redação 
 
A partir da leitura dos textos motivadores e com base nos conhecimentos construídos 
ao longo de sua formação, redija texto dissertativo-argumentativo em modalidade 
escrita formal da língua portuguesa sobre o tema “Os impasses éticos e morais do uso 
de Inteligência Artificial”, apresentando proposta de intervenção que respeite os 
direitos humanos. Selecione, organize e relacione, de forma coerente e coesa, 
argumentos e fatos para defesa de seu ponto de vista. 
 
 
TEXTO I 
Quais são os desafios éticos da inteligência artificial 
Vivemos um tempo de rápidas mudanças tecnológicas, no qual quase todos os aspectos 
de nossas vidas dependem de dispositivos que computam e se conectam. O aumento 
exponencial resultante do uso de sistemas ciberfísicos transformou a indústria, o 
governo e o comércio. Além disso, a velocidade da inovação não mostra sinais de 
desaceleração, principalmente porque a revolução na inteligência artificial (IA) tenta 
transformar ainda mais a vida cotidiana por meio de ferramentas cada vez mais 
poderosas para análise, previsão, segurança e automação de dados. Como ondas 
passadas de extrema inovação, como é o caso, o debate sobre o uso ético e os controles 
de privacidade provavelmente proliferará. Até agora, a interseção entre IA e sociedade 
trouxe seu próprio conjunto único de desafios éticos, alguns dos quais foram 
antecipados e discutidos por muitos anos, enquanto outros estão apenas começando a 
vir à tona. Por exemplo, acadêmicos e autores de ficção científica há muito tempo 
ponderam as implicações éticas de máquinas hiperinteligentes, mas apenas 
recentemente vimos problemas do mundo real começarem a surgir, como o viés social 
nas ferramentas automatizadas de tomada de decisão ou as escolhas éticas feitas por 
carros autônomos. 
Riscos e dilemas éticos 
Nas últimas duas décadas, a comunidade de segurança se voltou cada vez mais para a 
IA e o poder do aprendizado de máquina (ML, na sigla em inglês) para colher muitos 
benefícios tecnológicos, mas esses avanços obrigaram os profissionais de segurança a 
navegarem por um número proporcional de riscos e dilemas éticos ao longo do caminho. 
Como líder no desenvolvimento de IA e ML para segurança cibernética, a BlackBerry 
Cylance está no centro do debate e é apaixonada por aprimorar o uso da IA para sempre. 
Desse ponto de vista, conseguimos acompanhar de perto a progressão técnica da IA 
enquanto observamos simultaneamente o impacto social mais amplo da IA da 
perspectiva de um profissional de risco. Acreditamos que a comunidade de segurança 
cibernética e os profissionais de IA têm a responsabilidade de avaliar continuamente as 
implicações humanas do uso da IA, tanto em geral quanto nos protocolos de segurança, 
e que, juntos, devemos encontrar maneiras de construir considerações éticas em todos 
os produtos e sistemas baseados em IA. Este artigo descreve algumas dessas dimensões 
éticas iniciais da IA e oferece orientação para nosso próprio trabalho e o de outros 
profissionais de IA. 
 
 
 
https://www.inova.jor.br/tag/inteligencia-artificial/
 
A ética das decisões baseadas em computador 
As maiores fontes de preocupação com o uso prático da IA estão relacionadas à 
possibilidade de as máquinas falharem nas tarefas das quais são encarregadas. As 
consequências do fracasso são triviais quando a tarefa é jogar xadrez, mas os riscos 
aumentam quando a IA é encarregada de, digamos, dirigir um carro ou pilotar um avião 
que transporta 500 passageiros. De certa forma, esses riscos de falha não são diferentes 
dos das tecnologias estabelecidas que dependem da tomada de decisão humana para 
operar. No entanto, a complexidade e a percepção de falta de transparência subjacentes 
às maneiras pelas quais a IA toma suas decisões aumentam as preocupações com os 
sistemas executados pela IA porque parecem mais difíceis de prever e entender. Além 
disso, o tempo relativamente curto em que essa tecnologia foi usada mais amplamente, 
somado à falta de entendimento do público sobre como, exatamente, esses sistemas 
movidos a IA operam, aumenta o fator medo. A novidade de um computador tomando 
decisões que podem ter consequências fatais assusta as pessoas e grande parte desse 
medo gira em torno de como esses sistemas equilibram preocupações éticas. Considere 
um exemplo do mundo real: a sociedade se acostumou a acidentes de carro resultantes 
de erro humano ou falhas mecânicas e, apesar das melhorias regulamentares e técnicas 
para reduzir o perigo inerente a acidentes de carro, agora os aceitamos sem questionar 
como parte do risco geral de dirigir. 
 
Disponível em: https://www.inova.jor.br/2020/04/15/quais-sao-os-desafios-eticos-da-
inteligencia-artificial/ (Adaptado) 
 
TEXTO II 
 
 
Disponível em: https://vidadesuporte.com.br/suporte-a-serie/preocupacao/ 
https://www.inova.jor.br/2020/04/15/quais-sao-os-desafios-eticos-da-inteligencia-artificial/
https://www.inova.jor.br/2020/04/15/quais-sao-os-desafios-eticos-da-inteligencia-artificial/
https://vidadesuporte.com.br/suporte-a-serie/preocupacao/
 
 
 
TEXTO III 
O perigo da inteligência artificial para a humanidade 
Uma criatura feita por humanos mas independente deles poderia tratar as pessoas de forma 
terrível – não como inimigas, mas como seres desprezíveis 
Na ficção científica, a inteligência artificial, ou I.A., tem alguns papéis recorrentes. 
Costuma brilhar como a antagonista que pretende exterminar a humanidade. Esse é o 
propósito da Skynet, a versão militar e maligna da internet, no filme O exterminador do 
futuro: gênesis, a estrear em 2015. Nos últimos meses, os perigos da I.A. vêm sendo 
discutidos mais seriamente, por gente brilhante como o astrofísico Stephen Hawking e 
o empresário Elon Musk, atuante nos setores de carros elétricos e exploração espacial. 
Poucos atentaram, porém, à ideia central do pensador que desencadeou a discussão. O 
filósofo sueco Nick Bostrom não teme que a I.A. deteste pessoas ou tente machucá-las. 
“Essas máquinas serão indiferentes a nós”, afirma. 
Formas de I.A. indiferentes à humanidade ou com estratégias incompreensíveis por nós 
poderiam causar destruição física e caos social ao controlar bancos de dados, mercados 
financeiros, infraestrutura, redes de distribuição e sistemas de armamentos. Bostrom, 
pesquisador na Universidade de Oxford, no Reino Unido, dirige o Instituto para o Futuro 
da Humanidade. Pesquisa riscos existenciais à vida humana, como a colisão 
de asteroides com a Terra. O surgimento da I.A. e seus perigos ocupam seu livro mais 
recente, Superintelligence (Superinteligência, ainda sem previsão de lançamento no 
Brasil). Bostrom alerta para o advento de sistemas não só inteligentes, mas capazes de 
se autoaprimorar. Um computador assim poderia se reprogramar para elevar sua própria 
capacidade. Mais poderoso, poderia fazer isso de novo, e de novo. Desenvolveria, assim, 
capacidades de observação, aprendizado e planejamento muito superiores à humana. 
Bostrom chama esse fenômeno de superinteligência e conclui que ele é o principal risco 
existencial visível no futuro da humanidade. “Não devemos acreditar que o cérebro 
humano poderá competir com isso”, diz. 
O filósofo acredita que o surgimento de tecnologia assim não é questão de “se”, e sim 
de “quando”. Em 2012 e 2013, ele fez um levantamento de opinião a respeito com 170 
especialistas. Na média, eles estimaram em 50% a chance de surgir, até 2050, uma I.A. 
capaz de assumir a maior parte das profissões humanas e em 90% a chance de isso 
ocorrer até 2075. Mais da metade dos entrevistados previu que a superinteligência 
emergiria até 30 anos depois e que haverá 33% de chance de ela ser algo “ruim” ou 
“extremamente ruim”. 
As preocupações se amparam na aceleração da evolução na área. Bart Selman, 
matemático da Universidade Cornell, estuda I.A. desde os anos 1980 e se impressiona 
com os avanços dos últimos cinco anos.Carros autônomos, software de tradução 
simultânea e de reconhecimento de imagem usam avanços obtidos com I.A. Conforme 
surgem aplicações comerciais, mais dinheiro flui para esse tipo de pesquisa, o que a 
acelera. Novas fronteiras de estudo, como as redes neurais artificiais e os chips 
neuromórficos, abrem frentes promissoras na tentativa de reproduzir o jeito humano de 
pensar. 
 
Nada garante, porém, que uma superinteligência – uma inteligência capaz de aprimorar 
a si mesma – continuará a pensar imitando o jeito humano, ou de forma que seja 
previsível ou compreensível por nós. Diante dessa possibilidade, homens inteligentes 
reagiram com superlativos. Musk comparou o ato de criar I.A. com invocar o demônio. 
Hawking afirmou que o advento da I.A. será o maior evento da história humana. 
“Infelizmente, poderia também ser o último, a não ser que aprendamos a evitar os riscos”, 
disse. O astrofísico tocou no ponto certo. Nenhum dos estudiosos imagina interromper 
o avanço científico. Eles apenas ponderam que, antes de criar I.A., precisaremos criar 
regras para que seja seguro usá-la – ou conviver com ela. 
 
Disponível em: https://epoca.globo.com/ideias/noticia/2015/04/o-perigo-da-inteligencia-
artificial-para-humanidade.html 
https://epoca.globo.com/ideias/noticia/2015/04/o-perigo-da-inteligencia-artificial-para-humanidade.html
https://epoca.globo.com/ideias/noticia/2015/04/o-perigo-da-inteligencia-artificial-para-humanidade.html

Continue navegando