Prévia do material em texto
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66742
Inteligencia artificial: repensando a mediação1
Artificial intelligence: rethinking mediation
DOI:10.34117/bjdv6n9-202
Recebimento dos originais: 14/08/2020
Aceitação para publicação: 10/09/2020
Dora Kaufman
Professora do TIDD PUC/SP. Pós-Doutora pela COPPE/UFRJ e pelo TIDD PUC/SP.
Pós-Doutoranda na Filosofia USP. Doutora em Comunicação pela ECA-USP.
Mestre em Comunicação e Semiótica PUC/SP. Economista PUC/RJ.
E-mail: dkaufman@usp.br; dkaufman@pucsp.br
RESUMO
Cunhado em 1956 por John McCarthy, o termo “Inteligência Artificial” (IA) deu início a um
campo de conhecimento associado com linguagem e inteligência, raciocínio, aprendizagem e
resolução de problemas. O avanço recente (Deep Learning) permite às máquinas executar tarefas
tradicionalmente desempenhadas pelos seres humanos e outras que superam a capacidade humana.
Estabelece-se uma matriz de inputs que introduz inéditas formas de mediação. Os algoritmos
interferem diretamente nos processos cognitivos, na interação nas redes sociais, e na redistribuição
de funções e de poder entre os agentes.
Palavras-Chave: Inteligência Artificial. Algoritmos. Mediação. Comunicação ecológica.
ABSTRACT
Coined in 1956 by John McCarthy, the term "Artificial Intelligence" (AI) has initiated a field of
knowledge associated with language and intelligence, reasoning, learning and problem solving.
The recent breakthrough (Deep Learning) allows machines to perform tasks traditionally
performed by humans and others that surpass human capacity. It sets up an array of inputs that
introduces new ways of mediation. The algorithms directly interfere in cognitive processes, in the
interaction on social networks, and the redistribution of functions and power among the agents.
Keywords: Artificial Intelligence. Algoritms. Mediation. Ecological communication.
1 COMUNICAÇÃO ECOLÓGICA, DO BÓSON DE HIGGS ÀS REDES SOCIAIS
DIGITAIS
Em julho de 2012, a mídia internacional noticiou amplamente a “descoberta” do “Bóson
de Higgs” pelo CERN (Conceil Européen pour la Recherche Nucléaire), após mais de 40 anos de
investigações, confirmando a existência do chamado “campo de Higgs” e validando as teorias do
campo da física de partículas. O ponto de partida é o reconhecimento de que a massa do elétron
1 Artigo apresentado ao Eixo Temático 15 – Inteligência artificial, hibridização homem-dispositivos, trans-
humanismo, wearables do X Simpósio Nacional da ABCiber.
mailto:dkaufman@usp.br
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66743
não é uma propriedade intrínseca, mas algo que se forma em sua interação com as chamadas
Partículas de Higgs. “Os elétrons parecem ganhar massa por estarem se movendo não pelo espaço
vazio, mas por uma lama de partículas de Higgs. Ele fica mais pesado porque, quando é empurrado,
também são empurradas todas as partículas de Higgs que estão ao redor” (Smolin, 2004, p. 66).
Há uma referência explícita à ideia relacional e de interdependência: "o fato de o elétron ter ou
não massa depende de sua interação com as partículas de Higgs, o que por sua vez depende da
condição de o mundo conter o gás de partículas de Higgs, que por sua vez decorre das condições
globais de temperatura do universo" (Kaufman, 2017, p.27). A evidência básica, presente na física
desde o início do século XX, é que a vida neste planeta é um sistema interconectado e
interdependente.
Esse paradigma, dentre outros das ciências da natureza, influenciou as ciências sociais e
está na base da ideia ecológica da comunicação, em que a comunicação não é mais percebida como
um fluxo de informações. Di Felice (2017b) propõe substituir o termo media, “que exprime
inevitavelmente uma relação de instrumentalidade, pela expressão ‘forma formante’ ou por
‘condição habitativa’, capaz de projetar-nos em uma dimensão ecológica e não mais funcionalista
dos processos de interação e comunicação” (pp. 39-40). Segundo ele (Di Felice, 2009, 2012, 2017a,
2017b), nas conexões das redes digitais - indivíduo, mídia, informação, território, dispositivos,
banco de dados, etc. - as relações entre os atores não são realidades distintas. "Observa-se uma
interdependência e uma indistinção entre cada um dos autores, numa condição habitativa que
redefine cada entidade a partir de sua conexão com as demais entidades” (Di Felice apud Kaufman,
2017, p.53).
O avanço recente da Inteligência Artificial (IA), particularmente o processo de aprendizado
profundo (Deep Learning), agrega novos elementos à essa ecologia de interação e comunicação
ao permitir às máquinas executar tarefas tradicionalmente desempenhadas pelos seres humanos
(reconhecimento visual, tomada de decisão, reconhecimento de voz, tradução) e outras que
superam a capacidade humana (manipular e processar grandes bases de dados, denominado em
inglês de Big Data). Estabelece-se uma matriz de inputs que introduz inéditas formas de
mediação.“Hoje nós não estamos mais numa interação entre humano e técnica […] Estamos
falando de interações entre inteligências2” (Di Felice, 2017a, p. 133).
2 Definição de Inteligência (referência): "Individuals differ from one another in their ability to understand complex ideas, to adapt
effectively to the environment, to learn from experience, to engage in various forms of reasoning, to overcome obstacles by taking
thought. Although these individual differences can be substantial, they are never entirely consistent: A given person's intellectual
performance will vary on different occasions, in different domains, as judged by different criteria. Concepts of "intelligence" are
attempts to clarify and organize this complex set of phenomena. Although considerable clarity has been achieved in some areas,
no such conceptualization has yet answered all the important questions and none commands universal assent”. Intelligence: Knowns
and Unknowns, https://www.mensa.ch/sites/default/files/Intelligence_Neisser1996.
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66744
Um dos primeiros a prever a possibilidade da IA foi o matemático britânico Alan Turing3.
Seu artigo "Computing Machinery and Intelligence", de 1950, descreve o teste “The Imitation
Game”, concebido para responder a pergunta "Can Machines Think?”. Para Turing era claro que
não se tratava de um “pensamento” propriamente, contudo, ele acreditava na possibilidade de
construir uma máquina apta a "jogar o jogo” de forma satisfatória. Essa máquina seria um tipo
particular, denominado por ele de "computador eletrônico” ou "computador digital”, destinada a
realizar qualquer operação passível de ser processada por um “computador humano” (TURING,
1950). Surgiram várias objeções, contestadas por Turing no mesmo artigo, agrupadas em nove
categorias. Destacamos a quarta objeção “O Argumento da Consciência”, sugerido por Geoffrey
Jefferson em 1949, impondo condições prévias para a existência de um máquina inteligente:
Não até que uma máquina possa escrever um soneto ou compor um concerto por
causa de pensamentos e emoções sentidas, e não por causa de símbolos, poderemos
concordar que essa máquina é igual ao cérebro - isto é, não só escreve, mas sabe o
que escreveu. Nenhum mecanismo pode sentir (e não apenas um sinal artificial, um
dispositivo simples) prazer em seu sucesso, queixa quando suas válvulas se fundem,
seja aquecido por lisonjas, seja miserável por seus erros, fique encantado pelo sexo,
fique bravo ou deprimido quando não pode obter o que quer (Jefferson apud Turing,
1950, p.445).
Quase setenta anos depois, a AIestá compondo música, escrevendo soneto, pintando
quadro, criando arte, embora não por causa de pensamentos e emoções sentidas como vaticinou
Jefferson (retornaremos à Turing, o que desejamos pontuar aqui é o seu papel como precursor das
máquinas inteligentes). Definir pensamento, emoção, sentimento, bem como consciência, não é
uma tarefa simples nem consensual. Na conferência Ethics of Artificial Intelligence, em 2016, na
Universidade de Nova York, perante o argumento de distinção entre humano e artificial atribuído
à consciência por alguns filósofos, o Prêmio Nobel de Economia Daniel Kahneman, psicólogo de
formação, contra-argumentou: “Sobre o que afinal vocês estão falando? como podem considerar
consciência ou ausência de consciência, se não avançamos em nada sobre o entendimento do que
seja consciência?”. Circunscrito a temática do artigo responder à essas questões não é essencial; o
propósito é descrever e refletir sobre os impactos das tecnologias de IA na mediação, tomando
como exemplo os algoritmos da rede social Facebook. Antes, porém, uma breve introdução ao
campo da IA.
3 Alan Mathison Turing (1912-1954) foi influente no desenvolvimento da ciência da computação e na formalização
do conceito de algoritmo e computação, importante na criação do computador moderno. Turing foi o responsável pela
“quebra do código” alemão (Enigma) na Segunda Guerra Mundial.
https://pt.wikipedia.org/wiki/Ci%25C3%25AAncia_da_computa%25C3%25A7%25C3%25A3o
https://pt.wikipedia.org/wiki/Algoritmo
https://pt.wikipedia.org/wiki/Computador
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66745
2 CONTEXTUALIZANDO O CAMPO DA INTELIGÊNCIA ARTIFICIAL (IA)4
O termo apareceu pela primeira vez no título do evento Dartmouth Summer Research
Project on Artificial Intelligence (Projeto de Pesquisa de Verão de Dartmouth sobre Inteligência
Artificial), realizado no Dartmouth College em Hanover, New Hamshire, EUA, no verão de 1956,
com o apoio da Fundação Rockefeller. Liderado por eminentes pesquisadores – Claude Shannon,
Nathaniel Rochester, Marvin Minsky e John McCarthy -, o evento reuniu um grupo de dez
cientistas na crença de que trabalhando juntos por dois meses conquistariam avanços significativos;
a determinação era descobrir como fazer com que as máquinas usem linguagem, abstrações de
forma e conceito, e resolvam tipos de problemas do domínio humano. O seminário não levou a
nenhuma nova descoberta, mas deu início a um campo de conhecimento associado com linguagem
e inteligência, raciocínio, aprendizagem e resolução de problemas (Russell; Norvig, 2009).
A IA propicia a simbiose entre o humano e a máquina ao acoplar sistemas inteligentes
artificiais ao corpo humano (prótese cerebral, braço biônico, células artificiais, joelho inteligente
e similares), e a interação entre o homem e a máquina como duas entidades distintas conectadas
(homem-aplicativos, homem-algoritmos de IA). Tema de pesquisa em diversas áreas - computação,
linguística, filosofia, matemática, neurociência, entre outras -, a diversidade de subcampos e
atividades, pesquisas e experimentações, dificulta descrever o “estado-da-arte” atual da IA. Os
estágios de desenvolvimento bem como as expectativas variam entre os campos e suas aplicações,
que incluem os veículos autônomos, reconhecimento de voz, games, robótica, tradução de
linguagem natural, diagnósticos médicos, assim por diante. Atualmente, os sistemas inteligentes
permeiam praticamente todas as áreas de conhecimento.
Por milhares de anos, tentamos entender como pensamos; isto é, como um mero
punhado de matéria pode perceber, compreender, prever e manipular um
mundo muito maior e mais complicado do que ele mesmo. O campo da
inteligência artificial, ou IA, vai ainda mais longe: tenta não apenas
compreender, mas também construir entidades inteligentes (Russsell; Norvig,
2009, p. 1).
Existem inúmeras definições de IA, reflexo das especificidades intrínsecas a cada campo
de conhecimento. Russell e Norvig (2009) listam oito delas agrupadas em duas dimensões: (a) as
relativas à pensamento, processos e raciocínio e (b) as relativas à comportamento.
4 O conhecimento e informações da autora sobre IA têm origem (a) na leitura de extensa bibliografia, (b) em cursos,
simpósios, e conferências no Brasil e no exterior e (c) nas interações da autora com o cientista da computação Davi
Geiger, Courant Institute / NYU.
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66746
Historicamente, todas as quatro abordagens de IA tem seguidores, cada
uma por pessoas diferentes com métodos diferentes. Uma abordagem centrada
no ser humano, em parte, está associada a ciência empírica, envolvendo
observações e hipóteses sobre o comportamento humano. Uma abordagem
racionalista, envolve uma combinação de matemática e engenharia. Os vários
grupos tem tanto depreciado quanto ajudado uns aos outros. (Ibidem, p. 2)
Duas definições generalistas servem ao propósito do artigo. A primeira de John McCarthy
“É a ciência e a engenharia de fazer máquinas inteligentes, especialmente programas de
computador inteligentes”5 e a segunda de Russell e Norvig "O estudo e concepção de agentes
inteligentes, onde um agente inteligente é um sistema que percebe seu ambiente e realiza ações
que maximizam suas chances de sucesso” (Russell; Norvig, 2009 - p.27).
Russell e Norvig (2009)6 aventam duas perguntas filosóficas: (a) pode a máquina atuar de
forma inteligente? e (b) pode a máquina realmente pensar? Retomando ao “Teste de Turing”, seu
objetivo era a máquina “convencer” o interrogador de que ela era um ser humano. A dinâmica do
teste consistia em colocar um observador numa sala se comunicando por meio de teletipo7 com
um computador em uma segunda sala e com um humano em uma terceira sala, por um período
específico; o computador é inteligente se e somente se o observador não for capaz de perceber a
diferença entre o computador e o humano. Não ficam claras algumas variáveis do teste, tais como
o tempo de duração, as qualificações dos interrogadores e quais tópicos podem ser abordados
(conteúdo das perguntas). Entre os questionamentos, evidenciam-se (a) o fato dos envolvidos
serem alunos universitários, aumentando a probabilidade de respostas corretas, e (b) o fato de
Turing nunca ter mencionado a necessidade de prover a máquina de memória, de criar um perfil,
de capacitá-la a responder às perguntas. Reduzindo, em parte, suas ambições, Turing chega a
propor substituir a pergunta “As máquinas podem pensar?” por “Pode um computador grande e
rápido de uso geral ser programado para jogar o Jogo de Imitação?” (Mcdermott, 2014).
O filósofo Ned Block (2009) aponta algumas idiossincrasias do teste. A primeira está no
fato da decisão derivar do comportamento discriminatório de um observador humano: os
resultados são função do seu conhecimento e formação, ou seja, se o observador for um especialista
em IA a probabilidade dele identificar corretamente a máquina é significativamente maior do que
5 Q. What is artificial intelligence? A. It is the science and engineering of making intelligent machines, especially
intelligent computer programs” Disponível em http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html;
último acesso em 29/jan/2018.
6 Publicado originalmente em 1994 e seguido de várias novas edições, adotado nas universidades americanas como o
livro de referência sobre IA.
7 Aparelho telegráfico, transmite diretamente um texto por meio de um teclado datilográfico, registrando a mensagem,
no posto receptor, sob a forma de letras impressas.
http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html
Brazilian Journal of Development
Braz.J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66747
de um leigo. Ademais, substituir o conceito de inteligência pelo conceito de “passar no teste de
Turing” parece a Block destituído de sentido.
Se o propósito da substituição é prático, o teste de Turing não é um grande sucesso.
Se alguém quiser saber se uma máquina joga bem xadrez ou diagnostica pneumonia
corretamente ou se é capaz de planejar estratégia numa partida de futebol, o melhor é
observar os resultados da máquina em ação, e não submetê-la ao teste de Turing. (Idem,
p. 378)
O foco no desempenho e não na competência seria outra falha: “É claro que o desempenho
é uma prova da competência, mas o núcleo de nossa compreensão da mente reside na competência
mental, não no desempenho comportamental” (Block, 2009, p. 384).
O que temos discutido até agora é o primeiro tipo de definição de inteligência, a
definição da palavra, não a coisa em si. A definição de Turing não é o resultado de
uma investigação empírica sobre os componentes da inteligência do tipo que levou à
definição de água como H2O. […] Uma maneira completamente diferente de proceder
é investigar a própria inteligência como os físico-químicos investigam a água (Idem,
p. 384)
Para Block (2009), na abordagem computacional, a discussão restringe-se a um aspecto da
mente, a inteligência. “Para os nossos propósitos, podemos pensar a inteligência como uma
capacidade para atender a várias atividades inteligentes, tais como a resolução de problemas de
matemática, decidir ir ou não para a pós-graduação e descobrir como é feito o spaghetti” (p. 392).
Os questionamentos ao Teste de Turing são pertinentes, vários elementos não são
devidamente esclarecidos e o teste carece de rigor científico. No entanto, ele preserva seu mérito
na medida em que introduz os meandros do campo da IA. As nove objeções e as réplicas de Turing
(1950) ainda fazem sentido no estágio atual de desenvolvimento da IA.
A seguir alguns conceitos - chave que facilitam o entendimento posterior da relação da IA
com a mediação na comunicação e nas redes sociais.
a) Máquinas inteligentes vs Cérebro
As chamadas redes neurais (deep learning), que é a base de grande parte das aplicações
atuais de IA, são inspiradas no funcionamento do cérebro dos animais. Elas não reproduzem seu
funcionamento, cuja complexidade, e ainda relativamente pouco entendimento, inviabiliza
qualquer tentativa nessa direção. O cérebro é composto de neurônios, que por sua vez são formados
por dendritos que se conectam por meio de sinapses: cada vez que os dendritos dos neurônios se
encontram provocam uma sinapse (conexão). Nessa configuração dos sistemas de IA, considerada
a segunda fase da IA e denominada Conexionista, os neurônios artificiais se interconectam gerando
ciclos de feedback de aprendizado. Por longo tempo essa abordagem não obteve sucesso em
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66748
cumprir sua promessa inicial, limitada pelas restrições dos sistemas computacionais (velocidade
de processamento) e da reduzida quantidade de dados rotulados (as redes sociais se tornaram uma
fonte de geração desses dados, além de plataformas especificamente criadas com essa finalidade
como a image.net).
No cérebro, as informações circulam por vários layers (camadas), cada uma
desempenhando uma função específica na decodificação do significado da informação. No
processo da visão humana, por exemplo, a retina, um censor de luz, representa o primeiro layer.
A retina é impactada por feixes de luz, que são as primeiras informações originadas no exterior. O
mesmo se passa no ouvido com relação ao som, no olfato com relação ao cheiro, e no tato com
relação a sensibilidade. São informações elétricas e químicas, posteriormente enviadas para o
cérebro. O aparelho perceptivo da visão é o único dos sentidos em que o primeiro layer contém
neurônios (logo, já é cérebro). Não por coincidência é o mais sofisticado, correspondendo a 1/3 do
cérebro, ou seja, esta parcela do cérebro é dedicada à visão (a segunda atividade predominante no
cérebro são os movimentos do corpo humano). A luz inicialmente encontra o censor da retina, que
é o primeiro layer, em seguida segue para um novo layer, neste caso localizado na parte de trás do
cérebro, chamada de V1, continua se deslocando entre vários layers, até retomar para a parte
frontal do cérebro (vision path way). O cérebro tem 10 áreas, e cada área cerca de 140 milhões de
neurônios.
Fazendo um paralelo entre a visão humana e a câmara fotográfica, a nossa retina
corresponde ao sensor de imagem da câmara. Em ambos, o que desencadeia o processo é a
incidência de luz. O input da luz se transforma num número. Como isso é possível? A luz é
composta de fótons, então importa calcular quantos fótons “caíram" na minha retina por unidade
de tempo. Simplificando, o que permite diferenciar um objeto de outro é o exatamente o número
de fótons que sensibilizam a retina. Se todos os inputs viram números, temos um conjunto de
números no primeiro layer. O processo é semelhante no cérebro e nos sistemas inteligentes. Cada
unidade (unit), ou neurônio artificial, tem a decisão em relação ao que ela envia adiante para outro
layer (ou não envia), observando-se que o que sai não necessariamente é igual ao que entrou no
layer anterior significando certo grau de autonomia.
Cada unit recebe informações (inputs) de muitas units do layer anterior. No estado de
evolução atual da IA, o operador humano arbitra o número de layers. No futuro, existe forte
indicação neste sentido, os sistemas vão construir outros sistemas inteligentes (sem arbitragem
humana). O que define um sistema inteligente, dentre outros fatores, são dois componentes: o valor
de cada conexão e a arquitetura, traduzido no número de layers. A figura abaixo ilustra uma
http://image.net/
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66749
arquitetura típica, com a delimitação de responsabilidades entre duas CPUs (Central Processing
Unit):
Fonte: 4824-imagenet-classification-with-deep-convolutional-neural-networks, p.5.
b) Machine Learning
Subcampo da IA, dá aos "computadores a capacidade de aprender sem serem
explicitamente programados. Arthur Lee Samuel, um pioneiro norte-americano no campo de jogos
de computador e inteligência artificial, cunhou o termo “Machine Learning" em 1959 (enquanto
funcionário da IBM). Evoluindo a partir do estudo do reconhecimento de padrões e da teoria de
aprendizagem computacional na IA, o Machine Learning explora o estudo e a construção de
algoritmos que podem aprender e fazer previsões sobre dados - esses algoritmos seguem instruções
estritamente estáticas ao fazer previsões ou decisões baseadas em dados, através da construção de
um modelo a partir de entradas de amostra. O aprendizado de máquina é empregado em uma
variedade de tarefas.
A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender
a jogar um jogo. O processo é distinto da tradicional “programação”. Para fazer uma máquina
“aprender” algo, é possível utilizar diversas técnicas baseadas em princípios lógicos e matemáticos,
mais ou menos complexos. O objetivo é fazer com que um sistema apreenda informações dadas e
execute uma tarefa visando o melhor resultado, sem depender de interferência humana. É um
método usado para conceber modelos e algoritmos complexos que se prestam à previsão. Esses
modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros e analistas
produzam decisões e resultados confiáveis e replicáveis, e revelem "idéias ocultas” (tendências)
em relacionamentos históricos contidosnos dados.
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66750
c) Deep Learning
Na década de 1980, inspirados no cérebro humano, cientistas da computação criaram um
subcampo da ML (Machine Learning) propondo um processo de aprendizado com base nas redes
neurais, com resultados mais concretos nesta década. O pioneiro foi Geoffrey Hinton, com a ideia
de "Neural Networks" em artigo publicado na Revista Nature de 19868. Começou a florescer na
década de 1990, em função a) da crescente disponibilidade de grande quantidade de dados (Big
Data), e b) da maior capacidade computacional. O foco são problemas solucionáveis de natureza
prática, relacionados a uma tarefa concreta. "As redes profundas ainda funcionam em domínios
relativamente restritos, mas estamos vendo resultados mais impressionantes todos os dias à medida
que as redes aumentam e são treinadas com mais dados” (ALPAYDIN, 2016, p.109).
O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar
gradualmente os parâmetros da rede até obter os resultados requeridos, denominado
"aprendizagem supervisionada”: são fornecidos os resultados desejados (output) e, por “tentativa
e erro” (processo das máquinas não inteiramente conhecido/dominado pelos humanos) chega-se
ao resultado - meta.
Uma vez que temos dados - e hoje em dia temos dados "grandes" - uma computação
suficiente disponível - e agora temos centros de dados com milhares de processadores
- apenas esperamos e deixamos o algoritmo de aprendizagem descobrir tudo o que é
necessário por si só. […] Descobrir essas representações abstratas é útil não só para a
previsão, mas também porque a abstração permite uma melhor descrição e
compreensão do problema (ALPAYDIN, 2016, p.108).
A rede geralmente tem entre 10-30 layers empilhados de neurônios artificiais. Num
reconhecimento de imagem, por exemplo, o primeiro layer procura bordas ou cantos; os layers
intermediários interpretam as características básicas para procurar formas ou componentes gerais;
e os últimos layers envolvem interpretações completas. Na identificação de fotos nas redes sociais,
a máquina percebe padrões e “aprende” a identificar rostos, tal como alguém que olha o álbum de
fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O
reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-
sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária
(assistentes virtuais como Siri, Alexa, Google Now, bots). Na cognição, onde estão os sistemas de
resolução de problemas, ocorreram igualmente importantes avanços.
8 “Learning representations by back-propagating errors”, David E.Rumelhart, Geofrrey E. Hinton & Ronald J.
Williams, Nature, Vol. 323, October, 1986. Disponível em
https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf. Acesso em 29/jan/2018.
https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66751
No senso comum, a IA está associado aos filmes de ficção científica com os robôs, em
geral, ameaçando a espécie humana, previsão que nem de perto tangência o estágio atual de
desenvolvimento dessas tecnologias. A robótica, inclusive, é apenas um dos campos de aplicação
da IA, e o mercado já disponibiliza “robôs do bem” (ainda que com baixo grau de autonomia). Na
maior conferência de tecnologia da Ásia, Rise, em Hong Kong, na edição de julho/2017, a Ubtech
Robotics apresentou o Alpha 2 como o primeiro humanoide para a família, capaz de lembrar
compromissos, fazer pequenos reparos, cozinhar, configurar alarmes, lembrar horários de
medicamentos, fazer ligações telefônicas, checar mensagens de voz, ler e enviar textos e emails.
Seu antecessor, o Alpha 1 pode ser comprado na Internet por R$ 1.541,45. Com funcionalidades
mais sofisticadas, o humanoide Sophia participou como palestrante na Rise sobre o tema “o papel
dos robôs no futuro da humanidade”. Produzido pela Hanson Robotics, Sophia incorpora a beleza
clássica de Audrey Hepburn, foi capa de revista feminina, cantou em concerto, e debateu em fóruns
de negócios.
d) Algoritmos
Algoritmo é um conjunto de instruções matemáticas, uma seqüência de tarefas para
alcançar um resultado esperado em um tempo limitado. Os Algoritmos antecedem os
computadores – o termo remonta ao século IX ligado ao matemático al-Khwãrizmi, cujo livro
ensinava técnicas matemáticas a serem equacionadas manualmente. “Algorismus" era
originalmente o processo de calcular algarismos hindo-arábicos. Ed Finn (2017) define um
Algoritmo como “qualquer conjunto de instruções matemáticas para manipular dados ou
raciocínio através de um problema” (p.17) ou, numa definição pragmática, “os algoritmos são
adequados para um propósito, iluminando caminhos entre problemas e soluções” (p.18). Brian
Christian e Tom Griffiths (2016) extrapolam o conceito para além do âmbito da matemática :
“Quando você cozinha pão a partir de uma receita, você está seguindo um algoritmo, o mesmo
quando você tricota uma peça com base num determinado padrão. […] Algoritmo faz parte da
tecnologia humana desde a Idade da Pedra” (p.4). De forma mais pragmática, o Google define
Algoritmo como “processos e fórmulas computacionais que levam suas perguntas e as convertem
em respostas” (Algorithms - Inside Search - Google). Seja como for, o Algoritmo é um conceito
fundamental na ciência da computação (e em nossas vidas).
O Algoritmo é a matemática da IA. Ao combinar múltiplas formas de cálculos estatísticos
na análise de dados, permite desde compreender o comportamento dos usuários das redes sociais,
ou até mesmo identificar “suspeitos” a serem eliminados por Drones militares, passando por
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66752
determinar o grau de periculosidade de criminosos e consequentemente a pena do condenado
(Compas - Correctional Offender Management Profiling for Alternative Sanctions). Os
Algoritmos de IA interferem nos processos de contratação de empréstimo bancário e de
profissionais, nos diagnósticos médicos, e estão substituindo os humanos em inúmeras tarefas,
mecânicas e cognitivas.
3 OS ALGORITMOS DE IA ALTERAM A MEDIAÇÃO (INTERAÇÃO E
COMUNICAÇÃO)
Como enfatiza Fernanda Bruno (2003) “seja pelo corpo, pelas capacidades cognitivas,
pelas estruturas simbólicas, pelos intermediários humanos ou pela tecnologia, nossa experiência
do mundo se dá por mediações” (p. 2). A crença nos primórdios da Internet de um local sem centro
de decisão, sem controle, sem filtragem ou seleção das informações, ou seja, sem mediadores, não
parece coerente nem com a diversidade das interfaces digitais nem com a expansão contínua dos
algoritmos. As características das redes digitais - descentralizada, promotora da autonomia
individual e da redistribuição do poder, transparente, etc. - de certa forma induz a essa percepção
equivocada, mas como argumenta Bruno (2003)
A transparência da informação que vigora na Internet implica não uma
supressão dos mediadores, mas uma mudança na sua ‘natureza’ e no seu
modo de atuação. Talvez possamos afirmar que a Internet elimina ou
transforma os mediadores tradicionais – jornalistas ou homens de
comunicação em geral, políticos, Estado, produtores culturais (editores,
marchands, críticos de arte, indústria fonográfica etc) – mas não implica a
supressão da mediação ela mesma (pp.4-5).
A mediação não está confinada a comunicação e formas relacionadas de mídia, mas
permeia toda atividade humana e não-humana. Neste sentido,Grusin (2015) propõe repensar o
conceito de mediação, e introduz a ideia de “Mediação Radical” em que a mediação não se interpõe
entre um sujeito e um objeto preexistentes, mas traduz ou gera experiências, e não ocorre
exclusivamente entre humanos.
Como a transação e outros dados são agora coletados, minados e analisados
em quase tudo o que os humanos e os não-humanos fazem, a mediação de
dados molda todos os tipos de ação institucional. E como os defensores da
internet das coisas trabalham para um mundo no qual todos os seres
humanos e não-humanos estejam interligados e mediados, a ligação da
mediação com a comunicação, tão essencial nos séculos XIX e XX e ainda
relevante, precisam ser desfeitas ou abertas para que a mediação possa ser
vista como um processo mais fundamental do que qualquer mídia ou
comunicação jamais poderia sugerir ou pretender (Grusin, 2015, p.138).
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66753
O tema da mediação é complexo e objeto de múltiplas abordagens (Simondon, Hegel,
Adorno, Benjamin, Peirce, McLuhan, Callon, Latour, Martin-Barbero, Santaella, Di Felice). O
foco do artigo não é o conceito de mediação; apenas como tentativa de fortalecer os argumentos
antes de entrar no tema - descrever e refletir sobre a complexidade adquirida com a inclusão dos
algoritmos de IA - pontuamos duas contribuições (a) a introdução dos atores “não-humanos” ou
mediação técnica e (b) indivisibilidade dos atores no contexto das redes digitais.
Na década de 1980, um grupo de franceses liderados por Michael Callon e Bruno Latour
introduziu novos elementos na mediação consolidados na Teoria Ator-Rede (TAR), como
mediação técnica e a agência não - humana (Latour, 2012). No texto On Technical Mediano:
Philosophy, Sociology, Genealogy, Latour (1994) propõe quatro definições para mediação, sendo
a mediação técnica o tema da “Mediação como Caixas Pretas Reversíveis”. Latour indaga por que
é tão difícil mensurar, qualquer que seja a precisão, o papel da mediação técnica. A resposta estaria
no fato de que a ação que está se tentando medir está sujeita a uma “caixa-preta”, a qual torna
totalmente opaca a produção conjunta dos atores. Qualquer objeto é uma “caixa preta”, que contém
diversos outros objetos e distintas montagens. Numa situação normal, esses objetos permanecem
“silenciosos”, invisíveis, transparentes, mas isso não significa que não exista movimento, que eles
não estejam mediando ações. Os algoritmos de Inteligência Artificial, ao “filtrar" o fluxo de
informações, interferem na mediação entre os usuários da web como agentes “silenciosos” e
invisíveis, coerente com o conceito de “Mediação Técnica” de Latour.
No âmbito das redes digitais, Di Felice (2009) enfatiza a mudança dos contextos de
sociabilidade no século XXI que se manifestam em ambientes híbridos, no interior dos quais os
atores são indivisíveis. As redes digitais alteraram não somente a estrutura física e arquitetônica,
mas o próprio significado de habitar. Para ele, a digitalização é um "processo de conexão que faz
com que uma matéria, sem perder a própria substância, sem perder a própria característica, adquira
pelo processo de digitalização um conjunto de outras possibilidades e de performances que
inevitavelmente vão alterar a própria substância material originária (Di Felice, 2017, p.140).
Os Agentes Inteligentes, por exemplo, em simbiose com os humanos e outros atores, agem
como facilitadores ou mediadores da comunicação digital. “São seres eletrônicos indispensáveis
ao funcionamento da sociedade em tempo real” (Santaella, 2010b, p.108). Denominados
inicialmente de “Knowbots” (robôs do saber), “buscam informações em centenas de bases de
dados, sites, bibliotecas, revistas, jornais do ciberespaço, de acordo com instruções baseadas nos
centros de interesse de indivíduos ou grupos” (Bruno, 2003, p.6). Essa mediação foi antecipada
em meados dos anos 1990 por Nicholas Negroponte (1995) como “aquilo que chamamos de
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66754
interfaces baseadas em agentes é o que vai emergir como maneira predominante de computadores
e pessoas comunicarem-se uns com os outros” (p.101).
No século XXI, interagimos no cotidiano com dispositivos mediados pela IA 9 ,
precisamente pelos algoritmos de IA que são utilizados em distintos processos. Os chamados
“hyper-parameters” são variáveis que determinam a estrutura da rede e a forma como a rede foi
treinada e, em geral, são definidas por especialistas; existem os parâmetros estimados pelo
processo de Deep Learning, para citar duas configurações possíveis. Parte do sucesso da Netflix,
por exemplo, está em seu sistema de personalização, em que algoritmos analisam as preferências
do usuário - na verdade, de grupos de usuários com preferências semelhantes na chamada
clusterização - e, com base nelas, sugerem filmes e séries. Acessamos sistemas inteligentes para
programar o itinerário com o Waze, pesquisar no Google e receber do Spotify recomendações de
músicas. A Siri, da Apple, o Google Now e a Cortana, da Microsoft, são assistentes pessoais
digitais inteligentes que nos ajudam a localizar informações úteis com acesso por meio de voz. A
mediação comunicacional extrapola os “suportes” tradicionais, contemplando, dentre outros, os
eletrodomésticos: o conceito de "geladeira inteligente" é de "family hub", ou seja, a geladeira ser
um centralizador de informações da família, com recursos simples como uma tela para fixar
anotações e fotos, aos mais sofisticados como a visualização no smartphone do seu interior.
A título de ilustração, vejamos como os algoritmos de IA da rede social Facebook
transformam a mediação entre seus usuários.
4 MEDIAÇÃO DOS ALGORITMOS DO FACEBOOK
O Facebook AI Research (FAIR), criado em 2013, dedica-se ao desenvolvimento do campo
da IA visando criar tecnologias que promovam novas possibilidades de comunicação (mediações).
O espectro das pesquisas abrange variados tópicos - tais como teoria, algoritmos, aplicativos, infra-
estrutura de software e de hardware - e são compartilhados em publicações, software aberto,
eventos e fóruns acadêmicos. As tecnologias de IA estão presentes em distintos produtos e
iniciativas do Facebook, vamos nos ater aos impactos na mediação com os usuários no conteúdo
publicado no “Feed de Notícias”.
O Facebook utiliza algoritmos de IA no gerenciamento do que deve ou não ser mostrado
na timeline (ou Feed de Notícias) de seus usuários, ou seja, o que é publicado em primeiro plano
na tela principal do usuário. São disponibilizados diariamente cerca de 2 mil itens para cada
9 Propositalmente, substituímos o termo “máquina” por “dispositivo”, pela forte associação/conteúdo do primeiro as
“máquinas mecânicas”.
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66755
usuário (mensagens, imagens, vídeos etc.). Dentre esse conjunto de informações, os algoritmos do
Facebook identificam as preferências e interesses do usuário e selecionam de 100 a 150 itens a
serem exibidos no Feed de notícias desse usuário, com a intenção de facilitar sua experiência. A
seleção assertiva de “conteúdos relevantes” é processada por meio dos algoritmos de IA
manipulando um conjunto de dados gerados das interações do usuário na sua rede de
relacionamento, tais como seus “Likes”, suas publicações (posts), as publicações comentadas e o
conteúdo dos comentários, as publicações compartilhadas, as fotos publicadas e compartilhadas,
as conexões prioritárias, o tempo de permanência em determinado tipo de postagem, em suma,
todos os rastros da atividade do usuáriona rede social. Com os dados coletados, os algoritmos
buscam combinações e intersecções com base em quatro macro fatores: (a) quem postou,
considerando o nível de interação entre os usuários, (b) quando postou (quanto mais recente maior
a chance de aparecer no Feed de notícias), (c) tipo de conteúdo, com base na pesquisa de suas
preferências e interesses, e (d) engajamento com o post, sua e de sua rede. Em paralelo, o Facebook
segue um procedimento de categorização, conferindo prioridade a (a) amigos e família, (b)
postagens informativas, (c) entretenimento, (d) convergências de opiniões e ideias, e (e)
autenticação (elimina os spam, boatos, etc.). Periodicamente, são implementadas alterações, em
geral, testadas em regiões pré-selecionadas (função das características do novo produto/sistemática)
e anunciadas previamente10.
Em janeiro de 2018, o Facebook anunciou uma mudança na classificação das mensagens
no Feed de notícias, motivado, em parte, pela proliferação das Notícias Falsas (Fake News) que
tiveram grande impacto nas eleições americanas de 2016, e, prioritariamente, para atender ao
interesse de seus usuários. Pesquisas da própria rede social (complementadas por pesquisas
externas), indicaram que os usuários preferem (“se sentem melhor”) interagir com conteúdos
publicados por amigos e familiares11. Os algoritmos passaram a privilegiar as publicações de
amigos e familiares em detrimento de publicações jornalísticas, de empresas e vídeos virais, ou
seja, promover conteúdo originado de "interações significativas” e reduzir o "conteúdo passivo”.
Uma das principais razões pelas quais as pessoas vêm ao Facebook é ver o que está
acontecendo em seus News Feeds. Nosso objetivo com News Feed sempre foi mostrar
às pessoas as coisas que eles querem ver. Quando as pessoas vêem conteúdo que é
relevante para eles, tornam-se mais propensas a se envolver com News Feed. […]
Como parte de uma pesquisa em andamento, perguntamos à centenas de milhares de
pessoas como se sentem sobre o conteúdo em seus News Feeds. As pessoas nos
10 Para acompanhar as mudanças e comunicados do Facebook: https://br.newsroom.fb.com.
11 Pesquisa interna: grupo focal, 24 horas observando dois grupos de usuários, um concentrado em publicações de amigos/família
e outro, publicações em geral. Fonte: entrevista no Facebook Brasil, janeiro/2018.
https://br.newsroom.fb.com/
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66756
disseram que queriam ver mais histórias de amigos e páginas sobre as quais eles se
preocupavam e menos conteúdo promocional.12
O risco é privar os usuários de conteúdo jornalístico de qualidade (além de impactar os
sites de notícias cuja audiência é maximizadas pelas redes sociais digitais13).
A principal crítica a esse sistema inteligente do Facebook (ou qualquer rede social digital)
é a formação de “bolhas”, ao promover a homogeneização das relações sociais. Wendy Hui Kyong
Chun14 introduz o conceito de “Homofilia” (gostar dos iguais) associado aos algoritmos das mídias
sociais como criadores de "clusters", ou seja, mantém as pessoas em círculos sociais fechados,
formado por iguais (pensamento, vivência, histórico, etc.). Trata-se de um tema polêmico, pode-
se considerar o sentido de causa-efeito inverso: os algoritmos “entregam" o que os usuários
desejam e, em geral, eles preferem se relacionar com seus iguais (fenômeno que antecede as
tecnologias digitais, parte constitutiva da natureza humana, e mesmo dos animais). O fato
observável é que os amigos “conservadores" tendem a desaparecer do Feed de Notícias de um
usuário progressista (e vice-versa): os algoritmos do Facebook privilegiam os posts que recebem
mais “likes”e/ou são mais comentados e compartilhados.
Os contra-argumentos do Facebook15 são:
a) As mudanças são sempre implementadas com transparência e responsabilidade, antecedidas de
pesquisas sobre os desejos e as expectativas dos usuários, e anunciadas previamente. O foco é
sempre o usuário (“consumer-driven”);
b) O Facebook tem compromisso permanente com a diversificação das informações, pontos de
vista, visões, que circulam em sua plataforma;
c) Os usuários da plataforma têm relativo controle sobre seu Feed de Notícias, por meio de ajustes
tais como “See First”, que decide quem e/ou que será privilegiado na seleção.
12 Fonte: https://www.facebook.com/business/news/update-to-facebook-news-feed.
13 Pesquisa do Pew Research Center, apurou que 67% dos americanos em 2017 acessaram notícias por meio das mídias
digitais, incluindo os usuários maiores de 50 anos.
14 Palestra proferida no Festival Transmediale, Berlim, fevereiro/2017.
15 Fonte: entrevista da autora com equipe do Facebook Brasil, janeiro/2018.
https://www.facebook.com/business/news/update-to-facebook-news-feed
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66757
4 CONSIDERAÇÕES FINAIS
O dilema conveniência versus privacidade permeia os debates entre especialistas,
acadêmicos e usuários da Internet, e tem sido destaque nos congressos e conferências 16 . A
percepção predominante é a de que estamos cada vez mais dispostos a trocar nossos dados
pessoais, advindos da movimentação online ("rastros digitais”), por conveniência — no sentido
amplo: desde o acesso ao Facebook e ao Google e a tudo que essas plataformas oferecem, até o
compartilhamento nas redes sociais, ou em comunidades de interesse, de questões específicas em
busca de recomendação, solidariedade, troca de experiências, passando pelo acesso do aplicativo
Waze aos nossos itinerários (rotinas).17 Parte do significado do termo “conveniência" advém de
sua relevância (quanto mais relevante, maior a percepção de utilidade e/ou conveniência).
Não por coincidência, a movimentação da web é cada vez mais baseada no conceito de
“relevância”. Em seus primórdios, a Internet e a web ofereciam a perspectiva de "livro acesso” a
toda e qualquer informação, se opondo a tradição da mídia com a figura do “GateKeeper”.
Recentemente, o avanço dos algoritmos representou uma mudança no modo como a informação
flui nas redes digitais, e como ela é personalizada por filtragens de conteúdo. Para Eli Pariser
(2011) houve um deslocamento do Gatekeeper humano para o Gatekeeper algoritmo. O ativista
político alerta que o Facebook não é o único que usa algoritmos para priorizar os conteúdos
relacionados à um conjunto particular e individual de informações online, em um processo
denominado por ele de “Filter Bubbles”. O que as companhias de tecnologia - Facebook, Google
16 Predominou, por exemplo, na Conferência RISE, o maior evento de tecnologia da Ásia, em sua versão de
julho/2017.
17 Não por acaso, cresce a exposição pública de temas até recentemente restritos ao âmbito privado (referência
sexual, atividade sexual, questões de gênero, saúde, e similares).
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66758
- mostram é o que o usuário quer ver, e não o que o usuário “deveria ver”. “Temos que assegurar
que a web nos dê acesso não só ao que é relevante, mas também ao que é importante,
desconfortável, desafiador e outros pontos de vista”.18
A matemática americana Cathy O’Neil (2016) destaca a quantidade significativa de poder
do Facebook (assim como Google, Apple, Amazon, e outros conglomerados de tecnologia), na
manipulação dos dados gerados pela movimentação de seus usuários, com interferência direta nos
processos de mediação. Ela ilustra seu ponto de vista com o produto “voter megaphone”,
concebido para estimular os americanos à cumprirseu “dever cívico” de votar19. Durante as
campanhas eleitorais de 2010 e 2012, os pesquisadores do Facebook observaram a influência dos
posts sobre o comportamento do potencial eleitor, ou seja, a sensibilidade do potencial eleitor aos
distintos conteúdos e formatos da publicações nos Feeds de notícias da plataforma.
Nenhum pesquisador teve a oportunidade de acessar um laboratório humano dessa
escala. Em poucas horas, o Facebook poderia colher informações de dezenas de
milhões de pessoas, ou mais, medindo o impacto que suas palavras e links
compartilhados. E poderia usar esse conhecimento para influenciar as ações das
pessoas, o que, nesse caso, foi a decisão de votar ou não votar (O’NEIL, 2016, pp.180-
181).
Não há consenso entre os experts sobre o futuro da IA. Em relação ao tempo de
concretização de uma “máquina inteligente”, as pesquisas entre especialistas indicam 10% de
probabilidade até 2020, 50% de probabilidade até 2040 e 90% de probabilidade até 2075, supondo
que as atividades de pesquisa continuarão sem maiores interrupções (BOSTROM, 2014). Essas
mesmas pesquisas apontam ser alta a probabilidade da superinteligência20 ser criada em seguida a
máquina inteligente no nível humano. Para Kevin Kelly a vantagem obtida com a cognição de
objetos inertes será centenas de vezes mais perturbadora para nossas vidas do que as
transformações obtidas pela industrialização (KELLY, 2010). “A chegada do pensamento artificial
acelera todas as outras rupturas” (Idem, p. 30), e inaugura novas formas de mediação. Torna-se
difícil identificar quem ou o que está agindo, e em localizar, compreender e isolar o papel e a
função dos humanos e da tecnologia. O que caracteriza o “ser humano” tradicional encontra-se
alargado pelo acoplamento com tecnologias, impossibilitando a identificação dos limites do que
seja humano e não - humano; os limites do próprio corpo e da cognição estão expandidos. Temos
18 PARISER, TED “Tenha cuidado com os filtros bolhas on-line”, 2011, disponível em
https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pt-br. Acesso em 29/jan/2018.
19 "Estudos demonstraram que a satisfação silenciosa da realização de um dever cívico é menos propensa a mover as
pessoas do que o possível julgamento de amigos e vizinhos”” (O’NEIL, 2016, p.180).
20 Nick Bostrom (2014), no livro "Superintelligence", define superinteligência como "um intelecto que excede em
muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse".
https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pt-br
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66759
desde as “tecnologias vestíveis” (Wearable) até a introdução de dispositivos de IA. Trata-se de
inéditas mediações, de interações e diálogos entre inteligências.
REFERÊNCIAS
ALPAYDIN, Ethem. Machine Learning. Cambridge, MA: MIT Press, 2016.
ANDERSON, Chris. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired,
2008.
AIKEN, M. The Cyber Effect: A Pioneering Cyberpsychologist Explains How Human Behaviour
Changes Online.. NY: Penguin Random House, 2016.
BENTLEY, R.A.; O’BRIEN, M. The Acceleration of Cultural Change: from Ancestors to Algorithms.
Cambridge, MA: MIT Press, 2017.
BLOCK, Ned. The Mind as The Software of the Brain. Chapter 11, Thinking: Invitation to Cognitive
Edition, Vol.3, Ed. by Edward E. Smith/Daniel N. Osherson. London, MIT Pres, 2009.
BOSTRON, N. Superintelligence: Paths, Dangers, Strategeis. UK: Oxford, 2014.
BRUNO, Fernanda. A rede e o problema da mediação: uma nota sobre o ciberespaço. Série Documenta,
Rio de Janeiro, v. VIII, n. 1213, p. 185212, 2003.
BRYNJOLFSSSON, E.; MCAFEE, A. The Second Machine Age: work, progress, and prosperity in a
time of brilliant technologies. NY: W.W. Norton&Company, 2016.
CHIRSTIAN, B.; GRIFFITHS, Tom. Algorithms to Live By: The Computer Science of Human
Decisions. New York: Picador, 2017.
DI FELICE, M. Paisagens pós-urbanas: o fim da experiência urbana e as formas comunicativas do
habitar. São Paulo: Annablume, 2009.
______. O Comum Digital: as dimensões conectivas e o surgimento de um novo comunitarismo.
Revista Vida Pastoral, Sao Paulo, 2016. Disponível em: http://www.vidapastoral.com.br/artigos/pastoral-
e-comunicacao/...-dimensoes-conectivas-e-o-surgimento-de-um-novo-comunitarismo/ . Acesso em: 16
setembro 2016.
______. Redes digitais e significados da crise do Ocidente. Revista Paulus, Sao Paulo, 2017. Disponivel
em: http://fapcom.edu.br/revista-paulus/index.php/revista-paulus. Acesso em: 1º março 2017a.
______. Net-Ativismo: Da ação social para o ato conectivo. São Paulo: Paulus, 2017b.
FINN, Ed. What Algorithms Want: Imagination in the Age of Computing. Cambridge, MA: MIT Press,
2017.
GRUSIN, Richard. Radical Mediation. Critical Inquiry, Vol. 42, No. 1, pp. 124-148. The University of
Chicago Press, 2015. Disponível em: http://www.jstor.org/stable/10.1086/682998 . Acesso em: 10
fevereiro 2017.
HARARI, Y.N. Homo Deus: uma breve história do amanhã. Sao Paulo: Companhia das Letras, 2016.
KAUFMAN, D. O Despertar de Gulliver: os desafios das empresas nas redes digitais. Lisboa,
mediaXXI, 2017.
KELLY, Kevin. What Technology Wants. Nova York: Viking Press, 2010.
______. The Inevitable: understanding the 12 technological forces that will shape our future. NY:
Viking, 2016.
LATOUR, B. On Technical Mediation: Philosophy, Sociology, Genealogy. Common Knowledge, v. 3,
n. 2, pp. 29-64, 1994. Disponível em: <http://www.brunolatour.fr/
article?page=5>. Acesso em: 20 março 2014.
______. Reagregando o Social: uma introdução à teoria do Ator-Rede. Salvador/Bauru:
EDUFBA/EDUSC, 2012.
LAZARSFELD, P.; MERTON, R. Mass communication, popular taste and organized social action. In:
BRYSON, L. The communication of ideas. New York: Harper, 1948. pp. 95-118.
LIAO, M. Moral Brains: The Neuroscience of Morality. UK: Oxford Press, 2016.
MCDERMOTT, D. Imitation Game:Assessing The Theory Behind the Movie. 2014. Desponível em:
http://www.thecritique.com/articles/what-was-alan-turings-imitation-game/. Acesso em 10/01/2018.
http://fapcom.edu.br/revista-paulus/index.php/revista-paulus
http://www.brunolatour.fr/article?page=5
http://www.brunolatour.fr/article?page=5
http://www.thecritique.com/articles/what-was-alan-turings-imitation-game/
Brazilian Journal of Development
Braz. J. of Develop., Curitiba, v. 6, n. 9, p. 66742-66760, sep. 2020. ISSN 2525-8761
66760
NEUMAN, W. Russell. The Digital Difference: Media Technology and the Theory of Communication
Effects. Cambridge, MA: Harvard University Press, 2016.
O’NEIL, Cathty. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens
Democracy. NY: Crown, 2016.
PARISER, Eli. The Filter Bubble: what the Internet is Hiding from you. Uk: Penguin, 2011
RUSSELL, S.J.; NORVIG, P. Artificial Intelligence: A Modern Approach. New Jersey: Prentice Hall,
2009 (3º Ed.).
SANTAELLA, L. Pós-Humano, pós-humanismo e anti-humanismo: discriminações. No livro pós-
humanismo: as relações entre o humano e a técnica na época das redes. Organizadores: Massimo Di
Felice e Mario Pireddu. Sao Caetano do Sul: Difusão, 2010a.
______. Cultura e artes do pós-humano: Da cultura das mídias a cibercultura. Sao Paulo: Paulus,
2010b (4º edição).
SHANAHAN, M. The Technological Singularity. Cambridge MA: MIT Press, 2015.