Buscar

Inteligencia artificial

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66742 
Inteligencia artificial: repensando a mediação1 
 
Artificial intelligence: rethinking mediation 
 
DOI:10.34117/bjdv6n9-202 
 
Recebimento dos originais: 14/08/2020 
Aceitação para publicação: 10/09/2020 
 
Dora Kaufman 
Professora do TIDD PUC/SP. Pós-Doutora pela COPPE/UFRJ e pelo TIDD PUC/SP. 
Pós-Doutoranda na Filosofia USP. Doutora em Comunicação pela ECA-USP. 
 Mestre em Comunicação e Semiótica PUC/SP. Economista PUC/RJ. 
E-mail: dkaufman@usp.br; dkaufman@pucsp.br 
 
 
RESUMO 
Cunhado em 1956 por John McCarthy, o termo “Inteligência Artificial” (IA) deu início a um 
campo de conhecimento associado com linguagem e inteligência, raciocínio, aprendizagem e 
resolução de problemas. O avanço recente (Deep Learning) permite às máquinas executar tarefas 
tradicionalmente desempenhadas pelos seres humanos e outras que superam a capacidade humana. 
Estabelece-se uma matriz de inputs que introduz inéditas formas de mediação. Os algoritmos 
interferem diretamente nos processos cognitivos, na interação nas redes sociais, e na redistribuição 
de funções e de poder entre os agentes. 
 
Palavras-Chave: Inteligência Artificial. Algoritmos. Mediação. Comunicação ecológica. 
 
ABSTRACT 
Coined in 1956 by John McCarthy, the term "Artificial Intelligence" (AI) has initiated a field of 
knowledge associated with language and intelligence, reasoning, learning and problem solving. 
The recent breakthrough (Deep Learning) allows machines to perform tasks traditionally 
performed by humans and others that surpass human capacity. It sets up an array of inputs that 
introduces new ways of mediation. The algorithms directly interfere in cognitive processes, in the 
interaction on social networks, and the redistribution of functions and power among the agents. 
 
Keywords: Artificial Intelligence. Algoritms. Mediation. Ecological communication. 
 
 
1 COMUNICAÇÃO ECOLÓGICA, DO BÓSON DE HIGGS ÀS REDES SOCIAIS 
DIGITAIS 
 Em julho de 2012, a mídia internacional noticiou amplamente a “descoberta” do “Bóson 
de Higgs” pelo CERN (Conceil Européen pour la Recherche Nucléaire), após mais de 40 anos de 
investigações, confirmando a existência do chamado “campo de Higgs” e validando as teorias do 
campo da física de partículas. O ponto de partida é o reconhecimento de que a massa do elétron 
 
1 Artigo apresentado ao Eixo Temático 15 – Inteligência artificial, hibridização homem-dispositivos, trans-
humanismo, wearables do X Simpósio Nacional da ABCiber. 
mailto:dkaufman@usp.br
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66743 
não é uma propriedade intrínseca, mas algo que se forma em sua interação com as chamadas 
Partículas de Higgs. “Os elétrons parecem ganhar massa por estarem se movendo não pelo espaço 
vazio, mas por uma lama de partículas de Higgs. Ele fica mais pesado porque, quando é empurrado, 
também são empurradas todas as partículas de Higgs que estão ao redor” (Smolin, 2004, p. 66). 
Há uma referência explícita à ideia relacional e de interdependência: "o fato de o elétron ter ou 
não massa depende de sua interação com as partículas de Higgs, o que por sua vez depende da 
condição de o mundo conter o gás de partículas de Higgs, que por sua vez decorre das condições 
globais de temperatura do universo" (Kaufman, 2017, p.27). A evidência básica, presente na física 
desde o início do século XX, é que a vida neste planeta é um sistema interconectado e 
interdependente. 
 Esse paradigma, dentre outros das ciências da natureza, influenciou as ciências sociais e 
está na base da ideia ecológica da comunicação, em que a comunicação não é mais percebida como 
um fluxo de informações. Di Felice (2017b) propõe substituir o termo media, “que exprime 
inevitavelmente uma relação de instrumentalidade, pela expressão ‘forma formante’ ou por 
‘condição habitativa’, capaz de projetar-nos em uma dimensão ecológica e não mais funcionalista 
dos processos de interação e comunicação” (pp. 39-40). Segundo ele (Di Felice, 2009, 2012, 2017a, 
2017b), nas conexões das redes digitais - indivíduo, mídia, informação, território, dispositivos, 
banco de dados, etc. - as relações entre os atores não são realidades distintas. "Observa-se uma 
interdependência e uma indistinção entre cada um dos autores, numa condição habitativa que 
redefine cada entidade a partir de sua conexão com as demais entidades” (Di Felice apud Kaufman, 
2017, p.53). 
 O avanço recente da Inteligência Artificial (IA), particularmente o processo de aprendizado 
profundo (Deep Learning), agrega novos elementos à essa ecologia de interação e comunicação 
ao permitir às máquinas executar tarefas tradicionalmente desempenhadas pelos seres humanos 
(reconhecimento visual, tomada de decisão, reconhecimento de voz, tradução) e outras que 
superam a capacidade humana (manipular e processar grandes bases de dados, denominado em 
inglês de Big Data). Estabelece-se uma matriz de inputs que introduz inéditas formas de 
mediação.“Hoje nós não estamos mais numa interação entre humano e técnica […] Estamos 
falando de interações entre inteligências2” (Di Felice, 2017a, p. 133). 
 
2 Definição de Inteligência (referência): "Individuals differ from one another in their ability to understand complex ideas, to adapt 
effectively to the environment, to learn from experience, to engage in various forms of reasoning, to overcome obstacles by taking 
thought. Although these individual differences can be substantial, they are never entirely consistent: A given person's intellectual 
performance will vary on different occasions, in different domains, as judged by different criteria. Concepts of "intelligence" are 
attempts to clarify and organize this complex set of phenomena. Although considerable clarity has been achieved in some areas, 
no such conceptualization has yet answered all the important questions and none commands universal assent”. Intelligence: Knowns 
and Unknowns, https://www.mensa.ch/sites/default/files/Intelligence_Neisser1996. 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66744 
 Um dos primeiros a prever a possibilidade da IA foi o matemático britânico Alan Turing3. 
Seu artigo "Computing Machinery and Intelligence", de 1950, descreve o teste “The Imitation 
Game”, concebido para responder a pergunta "Can Machines Think?”. Para Turing era claro que 
não se tratava de um “pensamento” propriamente, contudo, ele acreditava na possibilidade de 
construir uma máquina apta a "jogar o jogo” de forma satisfatória. Essa máquina seria um tipo 
particular, denominado por ele de "computador eletrônico” ou "computador digital”, destinada a 
realizar qualquer operação passível de ser processada por um “computador humano” (TURING, 
1950). Surgiram várias objeções, contestadas por Turing no mesmo artigo, agrupadas em nove 
categorias. Destacamos a quarta objeção “O Argumento da Consciência”, sugerido por Geoffrey 
Jefferson em 1949, impondo condições prévias para a existência de um máquina inteligente: 
 
Não até que uma máquina possa escrever um soneto ou compor um concerto por 
causa de pensamentos e emoções sentidas, e não por causa de símbolos, poderemos 
concordar que essa máquina é igual ao cérebro - isto é, não só escreve, mas sabe o 
que escreveu. Nenhum mecanismo pode sentir (e não apenas um sinal artificial, um 
dispositivo simples) prazer em seu sucesso, queixa quando suas válvulas se fundem, 
seja aquecido por lisonjas, seja miserável por seus erros, fique encantado pelo sexo, 
fique bravo ou deprimido quando não pode obter o que quer (Jefferson apud Turing, 
1950, p.445). 
 
 Quase setenta anos depois, a AIestá compondo música, escrevendo soneto, pintando 
quadro, criando arte, embora não por causa de pensamentos e emoções sentidas como vaticinou 
Jefferson (retornaremos à Turing, o que desejamos pontuar aqui é o seu papel como precursor das 
máquinas inteligentes). Definir pensamento, emoção, sentimento, bem como consciência, não é 
uma tarefa simples nem consensual. Na conferência Ethics of Artificial Intelligence, em 2016, na 
Universidade de Nova York, perante o argumento de distinção entre humano e artificial atribuído 
à consciência por alguns filósofos, o Prêmio Nobel de Economia Daniel Kahneman, psicólogo de 
formação, contra-argumentou: “Sobre o que afinal vocês estão falando? como podem considerar 
consciência ou ausência de consciência, se não avançamos em nada sobre o entendimento do que 
seja consciência?”. Circunscrito a temática do artigo responder à essas questões não é essencial; o 
propósito é descrever e refletir sobre os impactos das tecnologias de IA na mediação, tomando 
como exemplo os algoritmos da rede social Facebook. Antes, porém, uma breve introdução ao 
campo da IA. 
 
3 Alan Mathison Turing (1912-1954) foi influente no desenvolvimento da ciência da computação e na formalização 
do conceito de algoritmo e computação, importante na criação do computador moderno. Turing foi o responsável pela 
“quebra do código” alemão (Enigma) na Segunda Guerra Mundial. 
https://pt.wikipedia.org/wiki/Ci%25C3%25AAncia_da_computa%25C3%25A7%25C3%25A3o
https://pt.wikipedia.org/wiki/Algoritmo
https://pt.wikipedia.org/wiki/Computador
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66745 
2 CONTEXTUALIZANDO O CAMPO DA INTELIGÊNCIA ARTIFICIAL (IA)4 
 O termo apareceu pela primeira vez no título do evento Dartmouth Summer Research 
Project on Artificial Intelligence (Projeto de Pesquisa de Verão de Dartmouth sobre Inteligência 
Artificial), realizado no Dartmouth College em Hanover, New Hamshire, EUA, no verão de 1956, 
com o apoio da Fundação Rockefeller. Liderado por eminentes pesquisadores – Claude Shannon, 
Nathaniel Rochester, Marvin Minsky e John McCarthy -, o evento reuniu um grupo de dez 
cientistas na crença de que trabalhando juntos por dois meses conquistariam avanços significativos; 
a determinação era descobrir como fazer com que as máquinas usem linguagem, abstrações de 
forma e conceito, e resolvam tipos de problemas do domínio humano. O seminário não levou a 
nenhuma nova descoberta, mas deu início a um campo de conhecimento associado com linguagem 
e inteligência, raciocínio, aprendizagem e resolução de problemas (Russell; Norvig, 2009). 
 A IA propicia a simbiose entre o humano e a máquina ao acoplar sistemas inteligentes 
artificiais ao corpo humano (prótese cerebral, braço biônico, células artificiais, joelho inteligente 
e similares), e a interação entre o homem e a máquina como duas entidades distintas conectadas 
(homem-aplicativos, homem-algoritmos de IA). Tema de pesquisa em diversas áreas - computação, 
linguística, filosofia, matemática, neurociência, entre outras -, a diversidade de subcampos e 
atividades, pesquisas e experimentações, dificulta descrever o “estado-da-arte” atual da IA. Os 
estágios de desenvolvimento bem como as expectativas variam entre os campos e suas aplicações, 
que incluem os veículos autônomos, reconhecimento de voz, games, robótica, tradução de 
linguagem natural, diagnósticos médicos, assim por diante. Atualmente, os sistemas inteligentes 
permeiam praticamente todas as áreas de conhecimento. 
 
Por milhares de anos, tentamos entender como pensamos; isto é, como um mero 
punhado de matéria pode perceber, compreender, prever e manipular um 
mundo muito maior e mais complicado do que ele mesmo. O campo da 
inteligência artificial, ou IA, vai ainda mais longe: tenta não apenas 
compreender, mas também construir entidades inteligentes (Russsell; Norvig, 
2009, p. 1). 
 
 Existem inúmeras definições de IA, reflexo das especificidades intrínsecas a cada campo 
de conhecimento. Russell e Norvig (2009) listam oito delas agrupadas em duas dimensões: (a) as 
relativas à pensamento, processos e raciocínio e (b) as relativas à comportamento. 
 
 
4 O conhecimento e informações da autora sobre IA têm origem (a) na leitura de extensa bibliografia, (b) em cursos, 
simpósios, e conferências no Brasil e no exterior e (c) nas interações da autora com o cientista da computação Davi 
Geiger, Courant Institute / NYU. 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66746 
Historicamente, todas as quatro abordagens de IA tem seguidores, cada 
uma por pessoas diferentes com métodos diferentes. Uma abordagem centrada 
no ser humano, em parte, está associada a ciência empírica, envolvendo 
observações e hipóteses sobre o comportamento humano. Uma abordagem 
racionalista, envolve uma combinação de matemática e engenharia. Os vários 
grupos tem tanto depreciado quanto ajudado uns aos outros. (Ibidem, p. 2) 
 
 Duas definições generalistas servem ao propósito do artigo. A primeira de John McCarthy 
“É a ciência e a engenharia de fazer máquinas inteligentes, especialmente programas de 
computador inteligentes”5 e a segunda de Russell e Norvig "O estudo e concepção de agentes 
inteligentes, onde um agente inteligente é um sistema que percebe seu ambiente e realiza ações 
que maximizam suas chances de sucesso” (Russell; Norvig, 2009 - p.27). 
 Russell e Norvig (2009)6 aventam duas perguntas filosóficas: (a) pode a máquina atuar de 
forma inteligente? e (b) pode a máquina realmente pensar? Retomando ao “Teste de Turing”, seu 
objetivo era a máquina “convencer” o interrogador de que ela era um ser humano. A dinâmica do 
teste consistia em colocar um observador numa sala se comunicando por meio de teletipo7 com 
um computador em uma segunda sala e com um humano em uma terceira sala, por um período 
específico; o computador é inteligente se e somente se o observador não for capaz de perceber a 
diferença entre o computador e o humano. Não ficam claras algumas variáveis do teste, tais como 
o tempo de duração, as qualificações dos interrogadores e quais tópicos podem ser abordados 
(conteúdo das perguntas). Entre os questionamentos, evidenciam-se (a) o fato dos envolvidos 
serem alunos universitários, aumentando a probabilidade de respostas corretas, e (b) o fato de 
Turing nunca ter mencionado a necessidade de prover a máquina de memória, de criar um perfil, 
de capacitá-la a responder às perguntas. Reduzindo, em parte, suas ambições, Turing chega a 
propor substituir a pergunta “As máquinas podem pensar?” por “Pode um computador grande e 
rápido de uso geral ser programado para jogar o Jogo de Imitação?” (Mcdermott, 2014). 
 O filósofo Ned Block (2009) aponta algumas idiossincrasias do teste. A primeira está no 
fato da decisão derivar do comportamento discriminatório de um observador humano: os 
resultados são função do seu conhecimento e formação, ou seja, se o observador for um especialista 
em IA a probabilidade dele identificar corretamente a máquina é significativamente maior do que 
 
5 Q. What is artificial intelligence? A. It is the science and engineering of making intelligent machines, especially 
intelligent computer programs” Disponível em http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html; 
último acesso em 29/jan/2018. 
6 Publicado originalmente em 1994 e seguido de várias novas edições, adotado nas universidades americanas como o 
livro de referência sobre IA. 
7 Aparelho telegráfico, transmite diretamente um texto por meio de um teclado datilográfico, registrando a mensagem, 
no posto receptor, sob a forma de letras impressas. 
http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html
Brazilian Journal of Development 
 
 Braz.J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66747 
de um leigo. Ademais, substituir o conceito de inteligência pelo conceito de “passar no teste de 
Turing” parece a Block destituído de sentido. 
 
Se o propósito da substituição é prático, o teste de Turing não é um grande sucesso. 
Se alguém quiser saber se uma máquina joga bem xadrez ou diagnostica pneumonia 
corretamente ou se é capaz de planejar estratégia numa partida de futebol, o melhor é 
observar os resultados da máquina em ação, e não submetê-la ao teste de Turing. (Idem, 
p. 378) 
 
 O foco no desempenho e não na competência seria outra falha: “É claro que o desempenho 
é uma prova da competência, mas o núcleo de nossa compreensão da mente reside na competência 
mental, não no desempenho comportamental” (Block, 2009, p. 384). 
 
O que temos discutido até agora é o primeiro tipo de definição de inteligência, a 
definição da palavra, não a coisa em si. A definição de Turing não é o resultado de 
uma investigação empírica sobre os componentes da inteligência do tipo que levou à 
definição de água como H2O. […] Uma maneira completamente diferente de proceder 
é investigar a própria inteligência como os físico-químicos investigam a água (Idem, 
p. 384) 
 
 Para Block (2009), na abordagem computacional, a discussão restringe-se a um aspecto da 
mente, a inteligência. “Para os nossos propósitos, podemos pensar a inteligência como uma 
capacidade para atender a várias atividades inteligentes, tais como a resolução de problemas de 
matemática, decidir ir ou não para a pós-graduação e descobrir como é feito o spaghetti” (p. 392). 
 Os questionamentos ao Teste de Turing são pertinentes, vários elementos não são 
devidamente esclarecidos e o teste carece de rigor científico. No entanto, ele preserva seu mérito 
na medida em que introduz os meandros do campo da IA. As nove objeções e as réplicas de Turing 
(1950) ainda fazem sentido no estágio atual de desenvolvimento da IA. 
 A seguir alguns conceitos - chave que facilitam o entendimento posterior da relação da IA 
com a mediação na comunicação e nas redes sociais. 
 
a) Máquinas inteligentes vs Cérebro 
 As chamadas redes neurais (deep learning), que é a base de grande parte das aplicações 
atuais de IA, são inspiradas no funcionamento do cérebro dos animais. Elas não reproduzem seu 
funcionamento, cuja complexidade, e ainda relativamente pouco entendimento, inviabiliza 
qualquer tentativa nessa direção. O cérebro é composto de neurônios, que por sua vez são formados 
por dendritos que se conectam por meio de sinapses: cada vez que os dendritos dos neurônios se 
encontram provocam uma sinapse (conexão). Nessa configuração dos sistemas de IA, considerada 
a segunda fase da IA e denominada Conexionista, os neurônios artificiais se interconectam gerando 
ciclos de feedback de aprendizado. Por longo tempo essa abordagem não obteve sucesso em 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66748 
cumprir sua promessa inicial, limitada pelas restrições dos sistemas computacionais (velocidade 
de processamento) e da reduzida quantidade de dados rotulados (as redes sociais se tornaram uma 
fonte de geração desses dados, além de plataformas especificamente criadas com essa finalidade 
como a image.net). 
 No cérebro, as informações circulam por vários layers (camadas), cada uma 
desempenhando uma função específica na decodificação do significado da informação. No 
processo da visão humana, por exemplo, a retina, um censor de luz, representa o primeiro layer. 
A retina é impactada por feixes de luz, que são as primeiras informações originadas no exterior. O 
mesmo se passa no ouvido com relação ao som, no olfato com relação ao cheiro, e no tato com 
relação a sensibilidade. São informações elétricas e químicas, posteriormente enviadas para o 
cérebro. O aparelho perceptivo da visão é o único dos sentidos em que o primeiro layer contém 
neurônios (logo, já é cérebro). Não por coincidência é o mais sofisticado, correspondendo a 1/3 do 
cérebro, ou seja, esta parcela do cérebro é dedicada à visão (a segunda atividade predominante no 
cérebro são os movimentos do corpo humano). A luz inicialmente encontra o censor da retina, que 
é o primeiro layer, em seguida segue para um novo layer, neste caso localizado na parte de trás do 
cérebro, chamada de V1, continua se deslocando entre vários layers, até retomar para a parte 
frontal do cérebro (vision path way). O cérebro tem 10 áreas, e cada área cerca de 140 milhões de 
neurônios. 
 Fazendo um paralelo entre a visão humana e a câmara fotográfica, a nossa retina 
corresponde ao sensor de imagem da câmara. Em ambos, o que desencadeia o processo é a 
incidência de luz. O input da luz se transforma num número. Como isso é possível? A luz é 
composta de fótons, então importa calcular quantos fótons “caíram" na minha retina por unidade 
de tempo. Simplificando, o que permite diferenciar um objeto de outro é o exatamente o número 
de fótons que sensibilizam a retina. Se todos os inputs viram números, temos um conjunto de 
números no primeiro layer. O processo é semelhante no cérebro e nos sistemas inteligentes. Cada 
unidade (unit), ou neurônio artificial, tem a decisão em relação ao que ela envia adiante para outro 
layer (ou não envia), observando-se que o que sai não necessariamente é igual ao que entrou no 
layer anterior significando certo grau de autonomia. 
 Cada unit recebe informações (inputs) de muitas units do layer anterior. No estado de 
evolução atual da IA, o operador humano arbitra o número de layers. No futuro, existe forte 
indicação neste sentido, os sistemas vão construir outros sistemas inteligentes (sem arbitragem 
humana). O que define um sistema inteligente, dentre outros fatores, são dois componentes: o valor 
de cada conexão e a arquitetura, traduzido no número de layers. A figura abaixo ilustra uma 
http://image.net/
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66749 
arquitetura típica, com a delimitação de responsabilidades entre duas CPUs (Central Processing 
Unit): 
 
Fonte: 4824-imagenet-classification-with-deep-convolutional-neural-networks, p.5. 
 
b) Machine Learning 
 Subcampo da IA, dá aos "computadores a capacidade de aprender sem serem 
explicitamente programados. Arthur Lee Samuel, um pioneiro norte-americano no campo de jogos 
de computador e inteligência artificial, cunhou o termo “Machine Learning" em 1959 (enquanto 
funcionário da IBM). Evoluindo a partir do estudo do reconhecimento de padrões e da teoria de 
aprendizagem computacional na IA, o Machine Learning explora o estudo e a construção de 
algoritmos que podem aprender e fazer previsões sobre dados - esses algoritmos seguem instruções 
estritamente estáticas ao fazer previsões ou decisões baseadas em dados, através da construção de 
um modelo a partir de entradas de amostra. O aprendizado de máquina é empregado em uma 
variedade de tarefas. 
 A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender 
a jogar um jogo. O processo é distinto da tradicional “programação”. Para fazer uma máquina 
“aprender” algo, é possível utilizar diversas técnicas baseadas em princípios lógicos e matemáticos, 
mais ou menos complexos. O objetivo é fazer com que um sistema apreenda informações dadas e 
execute uma tarefa visando o melhor resultado, sem depender de interferência humana. É um 
método usado para conceber modelos e algoritmos complexos que se prestam à previsão. Esses 
modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros e analistas 
produzam decisões e resultados confiáveis e replicáveis, e revelem "idéias ocultas” (tendências) 
em relacionamentos históricos contidosnos dados. 
 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66750 
c) Deep Learning 
 Na década de 1980, inspirados no cérebro humano, cientistas da computação criaram um 
subcampo da ML (Machine Learning) propondo um processo de aprendizado com base nas redes 
neurais, com resultados mais concretos nesta década. O pioneiro foi Geoffrey Hinton, com a ideia 
de "Neural Networks" em artigo publicado na Revista Nature de 19868. Começou a florescer na 
década de 1990, em função a) da crescente disponibilidade de grande quantidade de dados (Big 
Data), e b) da maior capacidade computacional. O foco são problemas solucionáveis de natureza 
prática, relacionados a uma tarefa concreta. "As redes profundas ainda funcionam em domínios 
relativamente restritos, mas estamos vendo resultados mais impressionantes todos os dias à medida 
que as redes aumentam e são treinadas com mais dados” (ALPAYDIN, 2016, p.109). 
 O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar 
gradualmente os parâmetros da rede até obter os resultados requeridos, denominado 
"aprendizagem supervisionada”: são fornecidos os resultados desejados (output) e, por “tentativa 
e erro” (processo das máquinas não inteiramente conhecido/dominado pelos humanos) chega-se 
ao resultado - meta. 
Uma vez que temos dados - e hoje em dia temos dados "grandes" - uma computação 
suficiente disponível - e agora temos centros de dados com milhares de processadores 
- apenas esperamos e deixamos o algoritmo de aprendizagem descobrir tudo o que é 
necessário por si só. […] Descobrir essas representações abstratas é útil não só para a 
previsão, mas também porque a abstração permite uma melhor descrição e 
compreensão do problema (ALPAYDIN, 2016, p.108). 
 
 A rede geralmente tem entre 10-30 layers empilhados de neurônios artificiais. Num 
reconhecimento de imagem, por exemplo, o primeiro layer procura bordas ou cantos; os layers 
intermediários interpretam as características básicas para procurar formas ou componentes gerais; 
e os últimos layers envolvem interpretações completas. Na identificação de fotos nas redes sociais, 
a máquina percebe padrões e “aprende” a identificar rostos, tal como alguém que olha o álbum de 
fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O 
reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-
sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária 
(assistentes virtuais como Siri, Alexa, Google Now, bots). Na cognição, onde estão os sistemas de 
resolução de problemas, ocorreram igualmente importantes avanços. 
 
8 “Learning representations by back-propagating errors”, David E.Rumelhart, Geofrrey E. Hinton & Ronald J. 
Williams, Nature, Vol. 323, October, 1986. Disponível em 
https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf. Acesso em 29/jan/2018. 
https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66751 
 No senso comum, a IA está associado aos filmes de ficção científica com os robôs, em 
geral, ameaçando a espécie humana, previsão que nem de perto tangência o estágio atual de 
desenvolvimento dessas tecnologias. A robótica, inclusive, é apenas um dos campos de aplicação 
da IA, e o mercado já disponibiliza “robôs do bem” (ainda que com baixo grau de autonomia). Na 
maior conferência de tecnologia da Ásia, Rise, em Hong Kong, na edição de julho/2017, a Ubtech 
Robotics apresentou o Alpha 2 como o primeiro humanoide para a família, capaz de lembrar 
compromissos, fazer pequenos reparos, cozinhar, configurar alarmes, lembrar horários de 
medicamentos, fazer ligações telefônicas, checar mensagens de voz, ler e enviar textos e emails. 
Seu antecessor, o Alpha 1 pode ser comprado na Internet por R$ 1.541,45. Com funcionalidades 
mais sofisticadas, o humanoide Sophia participou como palestrante na Rise sobre o tema “o papel 
dos robôs no futuro da humanidade”. Produzido pela Hanson Robotics, Sophia incorpora a beleza 
clássica de Audrey Hepburn, foi capa de revista feminina, cantou em concerto, e debateu em fóruns 
de negócios. 
 
d) Algoritmos 
 Algoritmo é um conjunto de instruções matemáticas, uma seqüência de tarefas para 
alcançar um resultado esperado em um tempo limitado. Os Algoritmos antecedem os 
computadores – o termo remonta ao século IX ligado ao matemático al-Khwãrizmi, cujo livro 
ensinava técnicas matemáticas a serem equacionadas manualmente. “Algorismus" era 
originalmente o processo de calcular algarismos hindo-arábicos. Ed Finn (2017) define um 
Algoritmo como “qualquer conjunto de instruções matemáticas para manipular dados ou 
raciocínio através de um problema” (p.17) ou, numa definição pragmática, “os algoritmos são 
adequados para um propósito, iluminando caminhos entre problemas e soluções” (p.18). Brian 
Christian e Tom Griffiths (2016) extrapolam o conceito para além do âmbito da matemática : 
“Quando você cozinha pão a partir de uma receita, você está seguindo um algoritmo, o mesmo 
quando você tricota uma peça com base num determinado padrão. […] Algoritmo faz parte da 
tecnologia humana desde a Idade da Pedra” (p.4). De forma mais pragmática, o Google define 
Algoritmo como “processos e fórmulas computacionais que levam suas perguntas e as convertem 
em respostas” (Algorithms - Inside Search - Google). Seja como for, o Algoritmo é um conceito 
fundamental na ciência da computação (e em nossas vidas). 
 O Algoritmo é a matemática da IA. Ao combinar múltiplas formas de cálculos estatísticos 
na análise de dados, permite desde compreender o comportamento dos usuários das redes sociais, 
ou até mesmo identificar “suspeitos” a serem eliminados por Drones militares, passando por 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66752 
determinar o grau de periculosidade de criminosos e consequentemente a pena do condenado 
(Compas - Correctional Offender Management Profiling for Alternative Sanctions). Os 
Algoritmos de IA interferem nos processos de contratação de empréstimo bancário e de 
profissionais, nos diagnósticos médicos, e estão substituindo os humanos em inúmeras tarefas, 
mecânicas e cognitivas. 
 
3 OS ALGORITMOS DE IA ALTERAM A MEDIAÇÃO (INTERAÇÃO E 
COMUNICAÇÃO) 
 Como enfatiza Fernanda Bruno (2003) “seja pelo corpo, pelas capacidades cognitivas, 
pelas estruturas simbólicas, pelos intermediários humanos ou pela tecnologia, nossa experiência 
do mundo se dá por mediações” (p. 2). A crença nos primórdios da Internet de um local sem centro 
de decisão, sem controle, sem filtragem ou seleção das informações, ou seja, sem mediadores, não 
parece coerente nem com a diversidade das interfaces digitais nem com a expansão contínua dos 
algoritmos. As características das redes digitais - descentralizada, promotora da autonomia 
individual e da redistribuição do poder, transparente, etc. - de certa forma induz a essa percepção 
equivocada, mas como argumenta Bruno (2003) 
 
A transparência da informação que vigora na Internet implica não uma 
supressão dos mediadores, mas uma mudança na sua ‘natureza’ e no seu 
modo de atuação. Talvez possamos afirmar que a Internet elimina ou 
transforma os mediadores tradicionais – jornalistas ou homens de 
comunicação em geral, políticos, Estado, produtores culturais (editores, 
marchands, críticos de arte, indústria fonográfica etc) – mas não implica a 
supressão da mediação ela mesma (pp.4-5). 
 
 A mediação não está confinada a comunicação e formas relacionadas de mídia, mas 
permeia toda atividade humana e não-humana. Neste sentido,Grusin (2015) propõe repensar o 
conceito de mediação, e introduz a ideia de “Mediação Radical” em que a mediação não se interpõe 
entre um sujeito e um objeto preexistentes, mas traduz ou gera experiências, e não ocorre 
exclusivamente entre humanos. 
 
Como a transação e outros dados são agora coletados, minados e analisados 
em quase tudo o que os humanos e os não-humanos fazem, a mediação de 
dados molda todos os tipos de ação institucional. E como os defensores da 
internet das coisas trabalham para um mundo no qual todos os seres 
humanos e não-humanos estejam interligados e mediados, a ligação da 
mediação com a comunicação, tão essencial nos séculos XIX e XX e ainda 
relevante, precisam ser desfeitas ou abertas para que a mediação possa ser 
vista como um processo mais fundamental do que qualquer mídia ou 
comunicação jamais poderia sugerir ou pretender (Grusin, 2015, p.138). 
 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66753 
 O tema da mediação é complexo e objeto de múltiplas abordagens (Simondon, Hegel, 
Adorno, Benjamin, Peirce, McLuhan, Callon, Latour, Martin-Barbero, Santaella, Di Felice). O 
foco do artigo não é o conceito de mediação; apenas como tentativa de fortalecer os argumentos 
antes de entrar no tema - descrever e refletir sobre a complexidade adquirida com a inclusão dos 
algoritmos de IA - pontuamos duas contribuições (a) a introdução dos atores “não-humanos” ou 
mediação técnica e (b) indivisibilidade dos atores no contexto das redes digitais. 
 Na década de 1980, um grupo de franceses liderados por Michael Callon e Bruno Latour 
introduziu novos elementos na mediação consolidados na Teoria Ator-Rede (TAR), como 
mediação técnica e a agência não - humana (Latour, 2012). No texto On Technical Mediano: 
Philosophy, Sociology, Genealogy, Latour (1994) propõe quatro definições para mediação, sendo 
a mediação técnica o tema da “Mediação como Caixas Pretas Reversíveis”. Latour indaga por que 
é tão difícil mensurar, qualquer que seja a precisão, o papel da mediação técnica. A resposta estaria 
no fato de que a ação que está se tentando medir está sujeita a uma “caixa-preta”, a qual torna 
totalmente opaca a produção conjunta dos atores. Qualquer objeto é uma “caixa preta”, que contém 
diversos outros objetos e distintas montagens. Numa situação normal, esses objetos permanecem 
“silenciosos”, invisíveis, transparentes, mas isso não significa que não exista movimento, que eles 
não estejam mediando ações. Os algoritmos de Inteligência Artificial, ao “filtrar" o fluxo de 
informações, interferem na mediação entre os usuários da web como agentes “silenciosos” e 
invisíveis, coerente com o conceito de “Mediação Técnica” de Latour. 
 No âmbito das redes digitais, Di Felice (2009) enfatiza a mudança dos contextos de 
sociabilidade no século XXI que se manifestam em ambientes híbridos, no interior dos quais os 
atores são indivisíveis. As redes digitais alteraram não somente a estrutura física e arquitetônica, 
mas o próprio significado de habitar. Para ele, a digitalização é um "processo de conexão que faz 
com que uma matéria, sem perder a própria substância, sem perder a própria característica, adquira 
pelo processo de digitalização um conjunto de outras possibilidades e de performances que 
inevitavelmente vão alterar a própria substância material originária (Di Felice, 2017, p.140). 
 Os Agentes Inteligentes, por exemplo, em simbiose com os humanos e outros atores, agem 
como facilitadores ou mediadores da comunicação digital. “São seres eletrônicos indispensáveis 
ao funcionamento da sociedade em tempo real” (Santaella, 2010b, p.108). Denominados 
inicialmente de “Knowbots” (robôs do saber), “buscam informações em centenas de bases de 
dados, sites, bibliotecas, revistas, jornais do ciberespaço, de acordo com instruções baseadas nos 
centros de interesse de indivíduos ou grupos” (Bruno, 2003, p.6). Essa mediação foi antecipada 
em meados dos anos 1990 por Nicholas Negroponte (1995) como “aquilo que chamamos de 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66754 
interfaces baseadas em agentes é o que vai emergir como maneira predominante de computadores 
e pessoas comunicarem-se uns com os outros” (p.101). 
 No século XXI, interagimos no cotidiano com dispositivos mediados pela IA 9 , 
precisamente pelos algoritmos de IA que são utilizados em distintos processos. Os chamados 
“hyper-parameters” são variáveis que determinam a estrutura da rede e a forma como a rede foi 
treinada e, em geral, são definidas por especialistas; existem os parâmetros estimados pelo 
processo de Deep Learning, para citar duas configurações possíveis. Parte do sucesso da Netflix, 
por exemplo, está em seu sistema de personalização, em que algoritmos analisam as preferências 
do usuário - na verdade, de grupos de usuários com preferências semelhantes na chamada 
clusterização - e, com base nelas, sugerem filmes e séries. Acessamos sistemas inteligentes para 
programar o itinerário com o Waze, pesquisar no Google e receber do Spotify recomendações de 
músicas. A Siri, da Apple, o Google Now e a Cortana, da Microsoft, são assistentes pessoais 
digitais inteligentes que nos ajudam a localizar informações úteis com acesso por meio de voz. A 
mediação comunicacional extrapola os “suportes” tradicionais, contemplando, dentre outros, os 
eletrodomésticos: o conceito de "geladeira inteligente" é de "family hub", ou seja, a geladeira ser 
um centralizador de informações da família, com recursos simples como uma tela para fixar 
anotações e fotos, aos mais sofisticados como a visualização no smartphone do seu interior. 
 A título de ilustração, vejamos como os algoritmos de IA da rede social Facebook 
transformam a mediação entre seus usuários. 
 
4 MEDIAÇÃO DOS ALGORITMOS DO FACEBOOK 
 O Facebook AI Research (FAIR), criado em 2013, dedica-se ao desenvolvimento do campo 
da IA visando criar tecnologias que promovam novas possibilidades de comunicação (mediações). 
O espectro das pesquisas abrange variados tópicos - tais como teoria, algoritmos, aplicativos, infra-
estrutura de software e de hardware - e são compartilhados em publicações, software aberto, 
eventos e fóruns acadêmicos. As tecnologias de IA estão presentes em distintos produtos e 
iniciativas do Facebook, vamos nos ater aos impactos na mediação com os usuários no conteúdo 
publicado no “Feed de Notícias”. 
 O Facebook utiliza algoritmos de IA no gerenciamento do que deve ou não ser mostrado 
na timeline (ou Feed de Notícias) de seus usuários, ou seja, o que é publicado em primeiro plano 
na tela principal do usuário. São disponibilizados diariamente cerca de 2 mil itens para cada 
 
9 Propositalmente, substituímos o termo “máquina” por “dispositivo”, pela forte associação/conteúdo do primeiro as 
“máquinas mecânicas”. 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66755 
usuário (mensagens, imagens, vídeos etc.). Dentre esse conjunto de informações, os algoritmos do 
Facebook identificam as preferências e interesses do usuário e selecionam de 100 a 150 itens a 
serem exibidos no Feed de notícias desse usuário, com a intenção de facilitar sua experiência. A 
seleção assertiva de “conteúdos relevantes” é processada por meio dos algoritmos de IA 
manipulando um conjunto de dados gerados das interações do usuário na sua rede de 
relacionamento, tais como seus “Likes”, suas publicações (posts), as publicações comentadas e o 
conteúdo dos comentários, as publicações compartilhadas, as fotos publicadas e compartilhadas, 
as conexões prioritárias, o tempo de permanência em determinado tipo de postagem, em suma, 
todos os rastros da atividade do usuáriona rede social. Com os dados coletados, os algoritmos 
buscam combinações e intersecções com base em quatro macro fatores: (a) quem postou, 
considerando o nível de interação entre os usuários, (b) quando postou (quanto mais recente maior 
a chance de aparecer no Feed de notícias), (c) tipo de conteúdo, com base na pesquisa de suas 
preferências e interesses, e (d) engajamento com o post, sua e de sua rede. Em paralelo, o Facebook 
segue um procedimento de categorização, conferindo prioridade a (a) amigos e família, (b) 
postagens informativas, (c) entretenimento, (d) convergências de opiniões e ideias, e (e) 
autenticação (elimina os spam, boatos, etc.). Periodicamente, são implementadas alterações, em 
geral, testadas em regiões pré-selecionadas (função das características do novo produto/sistemática) 
e anunciadas previamente10. 
 Em janeiro de 2018, o Facebook anunciou uma mudança na classificação das mensagens 
no Feed de notícias, motivado, em parte, pela proliferação das Notícias Falsas (Fake News) que 
tiveram grande impacto nas eleições americanas de 2016, e, prioritariamente, para atender ao 
interesse de seus usuários. Pesquisas da própria rede social (complementadas por pesquisas 
externas), indicaram que os usuários preferem (“se sentem melhor”) interagir com conteúdos 
publicados por amigos e familiares11. Os algoritmos passaram a privilegiar as publicações de 
amigos e familiares em detrimento de publicações jornalísticas, de empresas e vídeos virais, ou 
seja, promover conteúdo originado de "interações significativas” e reduzir o "conteúdo passivo”. 
 
Uma das principais razões pelas quais as pessoas vêm ao Facebook é ver o que está 
acontecendo em seus News Feeds. Nosso objetivo com News Feed sempre foi mostrar 
às pessoas as coisas que eles querem ver. Quando as pessoas vêem conteúdo que é 
relevante para eles, tornam-se mais propensas a se envolver com News Feed. […] 
Como parte de uma pesquisa em andamento, perguntamos à centenas de milhares de 
pessoas como se sentem sobre o conteúdo em seus News Feeds. As pessoas nos 
 
10 Para acompanhar as mudanças e comunicados do Facebook: https://br.newsroom.fb.com. 
11 Pesquisa interna: grupo focal, 24 horas observando dois grupos de usuários, um concentrado em publicações de amigos/família 
e outro, publicações em geral. Fonte: entrevista no Facebook Brasil, janeiro/2018. 
https://br.newsroom.fb.com/
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66756 
disseram que queriam ver mais histórias de amigos e páginas sobre as quais eles se 
preocupavam e menos conteúdo promocional.12 
 
 
 O risco é privar os usuários de conteúdo jornalístico de qualidade (além de impactar os 
sites de notícias cuja audiência é maximizadas pelas redes sociais digitais13). 
 A principal crítica a esse sistema inteligente do Facebook (ou qualquer rede social digital) 
é a formação de “bolhas”, ao promover a homogeneização das relações sociais. Wendy Hui Kyong 
Chun14 introduz o conceito de “Homofilia” (gostar dos iguais) associado aos algoritmos das mídias 
sociais como criadores de "clusters", ou seja, mantém as pessoas em círculos sociais fechados, 
formado por iguais (pensamento, vivência, histórico, etc.). Trata-se de um tema polêmico, pode-
se considerar o sentido de causa-efeito inverso: os algoritmos “entregam" o que os usuários 
desejam e, em geral, eles preferem se relacionar com seus iguais (fenômeno que antecede as 
tecnologias digitais, parte constitutiva da natureza humana, e mesmo dos animais). O fato 
observável é que os amigos “conservadores" tendem a desaparecer do Feed de Notícias de um 
usuário progressista (e vice-versa): os algoritmos do Facebook privilegiam os posts que recebem 
mais “likes”e/ou são mais comentados e compartilhados. 
 Os contra-argumentos do Facebook15 são: 
a) As mudanças são sempre implementadas com transparência e responsabilidade, antecedidas de 
pesquisas sobre os desejos e as expectativas dos usuários, e anunciadas previamente. O foco é 
sempre o usuário (“consumer-driven”); 
b) O Facebook tem compromisso permanente com a diversificação das informações, pontos de 
vista, visões, que circulam em sua plataforma; 
c) Os usuários da plataforma têm relativo controle sobre seu Feed de Notícias, por meio de ajustes 
tais como “See First”, que decide quem e/ou que será privilegiado na seleção. 
 
 
12 Fonte: https://www.facebook.com/business/news/update-to-facebook-news-feed. 
13 Pesquisa do Pew Research Center, apurou que 67% dos americanos em 2017 acessaram notícias por meio das mídias 
digitais, incluindo os usuários maiores de 50 anos. 
14 Palestra proferida no Festival Transmediale, Berlim, fevereiro/2017. 
15 Fonte: entrevista da autora com equipe do Facebook Brasil, janeiro/2018. 
https://www.facebook.com/business/news/update-to-facebook-news-feed
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66757 
 
 
 
 
 
 
 
 
 
 
 
4 CONSIDERAÇÕES FINAIS 
 O dilema conveniência versus privacidade permeia os debates entre especialistas, 
acadêmicos e usuários da Internet, e tem sido destaque nos congressos e conferências 16 . A 
percepção predominante é a de que estamos cada vez mais dispostos a trocar nossos dados 
pessoais, advindos da movimentação online ("rastros digitais”), por conveniência — no sentido 
amplo: desde o acesso ao Facebook e ao Google e a tudo que essas plataformas oferecem, até o 
compartilhamento nas redes sociais, ou em comunidades de interesse, de questões específicas em 
busca de recomendação, solidariedade, troca de experiências, passando pelo acesso do aplicativo 
Waze aos nossos itinerários (rotinas).17 Parte do significado do termo “conveniência" advém de 
sua relevância (quanto mais relevante, maior a percepção de utilidade e/ou conveniência). 
 Não por coincidência, a movimentação da web é cada vez mais baseada no conceito de 
“relevância”. Em seus primórdios, a Internet e a web ofereciam a perspectiva de "livro acesso” a 
toda e qualquer informação, se opondo a tradição da mídia com a figura do “GateKeeper”. 
Recentemente, o avanço dos algoritmos representou uma mudança no modo como a informação 
flui nas redes digitais, e como ela é personalizada por filtragens de conteúdo. Para Eli Pariser 
(2011) houve um deslocamento do Gatekeeper humano para o Gatekeeper algoritmo. O ativista 
político alerta que o Facebook não é o único que usa algoritmos para priorizar os conteúdos 
relacionados à um conjunto particular e individual de informações online, em um processo 
denominado por ele de “Filter Bubbles”. O que as companhias de tecnologia - Facebook, Google 
 
16 Predominou, por exemplo, na Conferência RISE, o maior evento de tecnologia da Ásia, em sua versão de 
julho/2017. 
17 Não por acaso, cresce a exposição pública de temas até recentemente restritos ao âmbito privado (referência 
sexual, atividade sexual, questões de gênero, saúde, e similares). 
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66758 
- mostram é o que o usuário quer ver, e não o que o usuário “deveria ver”. “Temos que assegurar 
que a web nos dê acesso não só ao que é relevante, mas também ao que é importante, 
desconfortável, desafiador e outros pontos de vista”.18 
 A matemática americana Cathy O’Neil (2016) destaca a quantidade significativa de poder 
do Facebook (assim como Google, Apple, Amazon, e outros conglomerados de tecnologia), na 
manipulação dos dados gerados pela movimentação de seus usuários, com interferência direta nos 
processos de mediação. Ela ilustra seu ponto de vista com o produto “voter megaphone”, 
concebido para estimular os americanos à cumprirseu “dever cívico” de votar19. Durante as 
campanhas eleitorais de 2010 e 2012, os pesquisadores do Facebook observaram a influência dos 
posts sobre o comportamento do potencial eleitor, ou seja, a sensibilidade do potencial eleitor aos 
distintos conteúdos e formatos da publicações nos Feeds de notícias da plataforma. 
 
Nenhum pesquisador teve a oportunidade de acessar um laboratório humano dessa 
escala. Em poucas horas, o Facebook poderia colher informações de dezenas de 
milhões de pessoas, ou mais, medindo o impacto que suas palavras e links 
compartilhados. E poderia usar esse conhecimento para influenciar as ações das 
pessoas, o que, nesse caso, foi a decisão de votar ou não votar (O’NEIL, 2016, pp.180-
181). 
 
 Não há consenso entre os experts sobre o futuro da IA. Em relação ao tempo de 
concretização de uma “máquina inteligente”, as pesquisas entre especialistas indicam 10% de 
probabilidade até 2020, 50% de probabilidade até 2040 e 90% de probabilidade até 2075, supondo 
que as atividades de pesquisa continuarão sem maiores interrupções (BOSTROM, 2014). Essas 
mesmas pesquisas apontam ser alta a probabilidade da superinteligência20 ser criada em seguida a 
máquina inteligente no nível humano. Para Kevin Kelly a vantagem obtida com a cognição de 
objetos inertes será centenas de vezes mais perturbadora para nossas vidas do que as 
transformações obtidas pela industrialização (KELLY, 2010). “A chegada do pensamento artificial 
acelera todas as outras rupturas” (Idem, p. 30), e inaugura novas formas de mediação. Torna-se 
difícil identificar quem ou o que está agindo, e em localizar, compreender e isolar o papel e a 
função dos humanos e da tecnologia. O que caracteriza o “ser humano” tradicional encontra-se 
alargado pelo acoplamento com tecnologias, impossibilitando a identificação dos limites do que 
seja humano e não - humano; os limites do próprio corpo e da cognição estão expandidos. Temos 
 
18 PARISER, TED “Tenha cuidado com os filtros bolhas on-line”, 2011, disponível em 
https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pt-br. Acesso em 29/jan/2018. 
19 "Estudos demonstraram que a satisfação silenciosa da realização de um dever cívico é menos propensa a mover as 
pessoas do que o possível julgamento de amigos e vizinhos”” (O’NEIL, 2016, p.180). 
20 Nick Bostrom (2014), no livro "Superintelligence", define superinteligência como "um intelecto que excede em 
muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse". 
https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pt-br
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66759 
desde as “tecnologias vestíveis” (Wearable) até a introdução de dispositivos de IA. Trata-se de 
inéditas mediações, de interações e diálogos entre inteligências. 
 
 
REFERÊNCIAS 
 
ALPAYDIN, Ethem. Machine Learning. Cambridge, MA: MIT Press, 2016. 
ANDERSON, Chris. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired, 
2008. 
AIKEN, M. The Cyber Effect: A Pioneering Cyberpsychologist Explains How Human Behaviour 
Changes Online.. NY: Penguin Random House, 2016. 
BENTLEY, R.A.; O’BRIEN, M. The Acceleration of Cultural Change: from Ancestors to Algorithms. 
Cambridge, MA: MIT Press, 2017. 
BLOCK, Ned. The Mind as The Software of the Brain. Chapter 11, Thinking: Invitation to Cognitive 
Edition, Vol.3, Ed. by Edward E. Smith/Daniel N. Osherson. London, MIT Pres, 2009. 
BOSTRON, N. Superintelligence: Paths, Dangers, Strategeis. UK: Oxford, 2014. 
BRUNO, Fernanda. A rede e o problema da mediação: uma nota sobre o ciberespaço. Série Documenta, 
Rio de Janeiro, v. VIII, n. 1213, p. 185212, 2003. 
BRYNJOLFSSSON, E.; MCAFEE, A. The Second Machine Age: work, progress, and prosperity in a 
time of brilliant technologies. NY: W.W. Norton&Company, 2016. 
CHIRSTIAN, B.; GRIFFITHS, Tom. Algorithms to Live By: The Computer Science of Human 
Decisions. New York: Picador, 2017. 
DI FELICE, M. Paisagens pós-urbanas: o fim da experiência urbana e as formas comunicativas do 
habitar. São Paulo: Annablume, 2009. 
______. O Comum Digital: as dimensões conectivas e o surgimento de um novo comunitarismo. 
Revista Vida Pastoral, Sao Paulo, 2016. Disponível em: http://www.vidapastoral.com.br/artigos/pastoral-
e-comunicacao/...-dimensoes-conectivas-e-o-surgimento-de-um-novo-comunitarismo/ . Acesso em: 16 
setembro 2016. 
______. Redes digitais e significados da crise do Ocidente. Revista Paulus, Sao Paulo, 2017. Disponivel 
em: http://fapcom.edu.br/revista-paulus/index.php/revista-paulus. Acesso em: 1º março 2017a. 
______. Net-Ativismo: Da ação social para o ato conectivo. São Paulo: Paulus, 2017b. 
FINN, Ed. What Algorithms Want: Imagination in the Age of Computing. Cambridge, MA: MIT Press, 
2017. 
GRUSIN, Richard. Radical Mediation. Critical Inquiry, Vol. 42, No. 1, pp. 124-148. The University of 
Chicago Press, 2015. Disponível em: http://www.jstor.org/stable/10.1086/682998 . Acesso em: 10 
fevereiro 2017. 
HARARI, Y.N. Homo Deus: uma breve história do amanhã. Sao Paulo: Companhia das Letras, 2016. 
KAUFMAN, D. O Despertar de Gulliver: os desafios das empresas nas redes digitais. Lisboa, 
mediaXXI, 2017. 
KELLY, Kevin. What Technology Wants. Nova York: Viking Press, 2010. 
______. The Inevitable: understanding the 12 technological forces that will shape our future. NY: 
Viking, 2016. 
LATOUR, B. On Technical Mediation: Philosophy, Sociology, Genealogy. Common Knowledge, v. 3, 
n. 2, pp. 29-64, 1994. Disponível em: <http://www.brunolatour.fr/ 
article?page=5>. Acesso em: 20 março 2014. 
______. Reagregando o Social: uma introdução à teoria do Ator-Rede. Salvador/Bauru: 
EDUFBA/EDUSC, 2012. 
LAZARSFELD, P.; MERTON, R. Mass communication, popular taste and organized social action. In: 
BRYSON, L. The communication of ideas. New York: Harper, 1948. pp. 95-118. 
LIAO, M. Moral Brains: The Neuroscience of Morality. UK: Oxford Press, 2016. 
MCDERMOTT, D. Imitation Game:Assessing The Theory Behind the Movie. 2014. Desponível em: 
http://www.thecritique.com/articles/what-was-alan-turings-imitation-game/. Acesso em 10/01/2018. 
 
http://fapcom.edu.br/revista-paulus/index.php/revista-paulus
http://www.brunolatour.fr/article?page=5
http://www.brunolatour.fr/article?page=5
http://www.thecritique.com/articles/what-was-alan-turings-imitation-game/
Brazilian Journal of Development 
 
 Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761 
 
 
66760 
NEUMAN, W. Russell. The Digital Difference: Media Technology and the Theory of Communication 
Effects. Cambridge, MA: Harvard University Press, 2016. 
O’NEIL, Cathty. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens 
Democracy. NY: Crown, 2016. 
PARISER, Eli. The Filter Bubble: what the Internet is Hiding from you. Uk: Penguin, 2011 
RUSSELL, S.J.; NORVIG, P. Artificial Intelligence: A Modern Approach. New Jersey: Prentice Hall, 
2009 (3º Ed.). 
SANTAELLA, L. Pós-Humano, pós-humanismo e anti-humanismo: discriminações. No livro pós-
humanismo: as relações entre o humano e a técnica na época das redes. Organizadores: Massimo Di 
Felice e Mario Pireddu. Sao Caetano do Sul: Difusão, 2010a. 
______. Cultura e artes do pós-humano: Da cultura das mídias a cibercultura. Sao Paulo: Paulus, 
2010b (4º edição). 
SHANAHAN, M. The Technological Singularity. Cambridge MA: MIT Press, 2015.