Logo Passei Direto
Buscar

Tópicos Especiais em TI

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Prof. Me. Cleber Jose Semensate Santos 
 
 
Mestre em Desenvolvimento de Tecnologias, Especialista em Programação 
Orientada a Objetos e Analista de Sistemas para Internet. Criador do SGA – Sistema de 
Gestão de Aprendizes do Instituto INAMARE de Maringá (www.inamare.org.br/sga). Por 
10 anos foi Analista de Sistemas do PROE – Programa de Estágio (www.proe.org.br), 
vinculado às ACEs – Associações Comerciais e a FACIAP – Federações das 
Associações Comerciais do Paraná. Atualmente é Diretor da CVC Software, empresa 
dedicada a desenvolvimento de Sistemas para Internet. Atualmente está como Professor 
dos Cursos de Tecnologia na modalidade Graduação EAD e Presencial da UniFCV. 
 
 
 
INFORMAÇÕES RELEVANTES: 
 
● Tecnólogo em Processamento de Dados (UNICESUMAR) 
● Especialista em Programação Orientada a Objetos (UNICESUMAR) 
● Especialista em Gestão de Projetos Sociais (UNIFCV) 
● Mestre em Desenvolvimento de Tecnologias (LACTEC/UFPR) 
● Coordenador dos Cursos ADS e GTI EaD 
● Proprietário da Empresa CVC Softwares 
● Desenvolvimento de Software e MKT Digital 
● http://lattes.cnpq.br/7950356175153672 
 
 
 
 
 
 
 
 
 
APRESENTAÇÃO DA APOSTILA 
 
SEJA BEM-VINDO(A)! 
 
Veremos na Unidade I que s novas tecnologias vêm redefinindo o mundo, 
alterando a forma como as pessoas vivem, se relacionam, produzem e consomem. Em 
um processo cada vez mais acelerado e intenso, o emprego combinado de novas 
abordagens tecnológicas vem criando e oferecendo novas possibilidades ao ser humano 
contemporâneo, de tal forma que o hábito de vida de gerações anteriores é transformado 
por completo no espaço de apenas uma nova geração atual. 
Na Unidade II entenderemos que a tecnologia da informação é tão revolucionária 
no que diz respeito ao aprimoramento de todas as demais tecnologias, às novas formas 
como as organizações se estruturam e produzem e às próprias disrupções sociais, 
entendidas como mudanças radicais no comportamento e hábitos das pessoas, é 
inevitável que a TI sirva de plataforma essencial para um sem número de possibilidades 
referentes ao mundo das pessoas com deficiência (PcD). 
Na sequência de nossa Unidade III, veremos que hoje, o que diferencia os seres 
humanos dos robôs é que são as pessoas que possuem a capacidade de inovação, de 
empatia, e mesmo de improvisação diante de qual- quer circunstância. É nisso que se 
fundamentam os que, com razão, reconhecem o trabalho mais mecanizado, tendendo a 
substituir trabalhadores humanos por sistemas artificiais, e imaginam, ao mesmo tempo, 
haver uma garantia de longo termo de que as funções criativas sempre serão cumpridas 
por pessoas, e não por máquinas. 
Finalizando, na Unidade IV, veremos que existe uma crescente pressão na 
indústria em geral para que as organizações consigam desempenhar modelos mais 
sustentáveis de negócio, sendo a sustentabilidade definida por um tripé de resultados 
satisfatórios nos aspectos econômico, social e ambiental. Como qualquer tripé, bastaria 
uma dessas sustentações ser comprometida para o negócio como um todo não 
prosperar. 
 
Desejo uma ótima leitura, vamos nesta! 
 
UNIDADE I - INTRODUÇÃO A TECNOLOGIA 
Professor Mestre Cleber Semensate 
 
 
Plano de Estudo: 
● Introdução a novas tecnologias 
● A tecnologia ao longo do tempo 
 
 
Objetivos de Aprendizagem: 
● Conhecer Ciência, tecnologia e inovação em TI. 
● Prospectar cenários em tecnologia. 
● Entender a transformação digital. 
● Ver qual será a próxima revolução industrial. 
 
 
INTRODUÇÃO 
 
Prezados alunos(as)! 
 
As novas tecnologias vêm redefinindo o mundo, alterando a forma como as 
pessoas vivem, se relacionam, produzem e consomem. Em um processo cada vez mais 
acelerado e intenso, o emprego combinado de novas abordagens tecnológicas vem 
criando e oferecendo novas possibilidades ao ser humano contemporâneo, de tal forma 
que o hábito de vida de gerações anteriores é transformado por completo no espaço de 
apenas uma nova geração atual. 
A compreensão dessa dinâmica, portanto, parece imprescindível para que o 
processo de gestão tecnológica possa ser guiado aos melhores resultados possíveis. O 
que se procura, enfim, é o aumento da qualidade de vida das pessoas, possibilitando um 
mundo cada vez melhor. Aplicações tecnológicas cumprem um especial papel nesse 
sentido. Dominar tecnologias é competência central para profissionais e organizações 
deste início de século XXI. Naturalmente, o domínio da tecnologia passa, primeiro, pela 
apreensão conceitual dos termos e definições inerentes. Conforme é descrito neste 
capítulo, tecnologia tem um significado muito mais amplo do que aquilo que normalmente 
se associa a essa palavra. 
Quando os ancestrais humanos descobriram que um osso ou um galho poderiam 
servir de arma, uma pedra poderia ser útil para partir um coco, cavar um buraco ou 
mesmo para rabiscar algo, nasciam os primeiros conhecimentos sobre a técnica: como 
empregar coisas para produzir algo, realizar alguma tarefa, solucionar algum desafio ou 
problema. As ferramentas foram acompanhando a evolução humana, evoluindo também 
para máquina e equipamentos cada vez mais úteis e indispensáveis na rotina do dia a 
dia, de forma que a tecnologia foi aprimorando as primeiras técnicas desenvolvidas pelo 
homem até chegar ao ponto em que a engenhosidade humana começou a empregar a 
informação como insumo produtivo. 
A partir de então, a curva de evolução tecnológica deixa de ser linear e passa a ser 
exponencial, com igual efeito no desenvolvimento das organizações, dos negócios e da 
sociedade como um todo. Acompanhar a evolução da tecnologia, entendida como 
conhecimento aplicado, ao longo do tempo é um fascinante exercício de compreensão 
da capacidade humana de transformar o mundo. 
 
Venha comigo transformar! 
 
 
 
 
1. INTRODUÇÃO A NOVAS TECNOLOGIAS 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/mulher-mexe-no-telefone-celular 
 
1.1 Ciência, tecnologia e inovação em TI 
 
Ciência, tecnologia e inovação são três termos muito próximos, embora de 
significados fundamentalmente distintos. Convém um rápido embasamento conceitual, 
pois isso proporciona um efeito prático bastante apreciável: expande a visão das coisas. 
Quem tem a definição desses conceitos de forma muito clara acaba por melhor transitar 
em meio aos processos tecnológicos, entende melhor, interage melhor, produz melhor. 
E isso é válido tanto para o perfil acadêmico quanto industrial. 
 Entende-se por ciência o conhecimento, tão puro quanto possa ser concebido. É 
o saber teórico fundamental, ainda despreocupado com aplicações práticas ou uso 
imediato. Aqui residem as fórmulas, teoremas e teorias. Na ciência, estão estabelecidas 
as relações de causa e efeito, procurando, essencialmente, explicar os mecanismos 
atuantes sobre o mundo. Portanto, ciência é conhecimento, mas não exatamente 
qualquer tipo de conhecimento: se é científico, é porque se trata de conhecimento formal. 
Essa formalização, um verdadeiro rigor que se aplica para garantir a veracidade do 
saber, é o que diferencia, enfim, aquilo que se sabe daquilo que se acredita – por mais 
convicção que se tenha nessa crença. Portanto, a fé e a ciência, que de forma alguma 
precisam ser elementos antagônicos, distinguem-se precisamente neste aspecto: a 
ciência não é para acreditar. É para conhecer. 
 O rigor em questão diz respeito à forma como o conhecimento é produzido, para 
que possa ser atestado como científico. Não é por qualquer meio que se propõe que 
determinado efeito advém de uma tal causa, mas apenas por aquilo que se denomina 
como método científico de produzir conhecimento. Na ciência, não se aceita o “ouvi dizer” 
ou “li em algum lugar”: é preciso provar. Pesquisadores cientistas devem compreender 
como determinado conhecimento foi produzido, conhecer as etapas que foram 
percorridas, sendo que eles mesmos podem seguir esses passos, para confirmar– ou 
refutar – aquelas conclusões. Portanto, há embasamento quando se produz ciência, e é 
por isso que ela é o conhecimento verdadeiro devidamente justificado. 
 Tecnologia também é conhecimento, contudo, diferente de ciência, trata-se de 
conhecimento aplicado. A aplicação é o uso daquele conhecimento para resolver algum 
problema do mundo real. O mundo carece de soluções para um sem-número de 
questões. Uma vez que se saiba que tal conhecimento serve para a consecução de 
determinado objetivo, e conhecendo ainda como aplicar da melhor forma possível tal 
conhecimento na prática, é dito que se domina uma tecnologia. Usualmente, no mundo 
das organizações empresariais, a tecnologia é direcionada à produção: como fazer para 
que determinada empresa consiga fabricar aquele produto, ou prestar um serviço em 
específico? 
 
 
Como se organizar? Quais técnicas aplicar? Como selecionar e empregar um 
conjunto de conhecimentos que servem para fazer uma empresa cumprir sua função? 
 É importante frisar que o conceito de tecnologia é muito mais amplo do que 
normalmente se consegue supor. Um exercício simples que comprova a limitação que 
costuma imperar a respeito desse entendimento é utilizar uma dessas ferramentas de 
buscas on-line de imagens, como, por exemplo, o Google Imagens. Ao se digitar o termo 
tecnologia ou technology no buscador, as respostas, invariavelmente, são imagens que 
remetem à informática, à internet, à microeletrônica, redes sociais digitais e afins. Isso 
também é tecnologia, mas tecnologia não se limita a esse aspecto. Do ponto de vista de 
conceito, é como se tratasse da ponta do iceberg. Dominar conhecimentos úteis para 
resolver um problema prático pode envolver, conceber e produzir um poderoso 
computador de última geração – mas também é tecnologia o que se emprega para 
produzir um bolo de fubá. Levar o homem a explorar a Lua envolve um alto grau de 
sofisticação tecnológica – contudo, fazer um suco de laranja também envolve 
determinado domínio da técnica, que é pensado e sistematizado pela tecnologia. Os 
saberes orientados à prática são, por certo, das mais variadas naturezas e níveis de 
complexidade. Tecnologia da informação (TI) é uma dimensão de tecnologia. Ao mesmo 
tempo, é interessante reconhecer que Gestão (Administração) também é tecnologia: 
Tecnologia de Gestão – que não pode ser confundida com Gestão de Tecnologia. 
 A tecnologia da informação, por sinal, é a aplicação da ciência da informação para 
atender demandas reais, práticas – muitas vezes, industriais, que envolvem informação 
com insumo, como agente de transformação e como elemento de agregação de valor. É 
certo que, em muitas circunstâncias, fica difícil separar claramente onde se termina um 
conhecimento puro, de base, e onde começa um conhecimento em processo de 
aplicação, de utilidade concreta. E há que se concordar com Reis (2008): de fato, pouco 
importa tal delimitação. Na prática, dado esse entrelaçamento tão típico e tão forte entre 
ciência e tecnologia, ambos os termos costumam ser referenciados como um binômio 
(C&T – Ciência & Tecnologia), quase como se fosse um único elemento. 
Um dos mais relevantes aspectos práticos a respeito de C&T é o fato de que o 
conhecimento puro é, para todo efeito, público e, portanto, gratuito. Contudo, com 
 
 
tecnologia é o oposto: o conhecimento aplicado pode ter dono. Não se pode cobrar 
royalties de alguém que venha a explorar a lei da gravitação universal ou o teorema de 
Pitágoras. Contudo, o princípio ativo de um remédio específico pode ser patenteado 
(protegido contra o uso comercial por parte de terceiros). A tecnologia pode, dessa forma, 
ser propriedade particular de uma pessoa ou de uma organização. Isso tem sua 
explicação: recompensar o investimento em pesquisa e desenvolvimento. Alguns 
processos de pesquisa e desenvolvimento costumam se delongar por anos ou mesmo 
décadas – com proporcional custo acumulado. Empresas que dedicam recursos para 
criar determinadas tecnologias não querem ver todo seu esforço ser livremente 
aproveitado pelos competidores, cujo esforço de desenvolvimento poderia ser a mera 
cópia, o que é mais barato e configuraria competição desleal. A legislação prevê 
mecanismos para prover essa proteção, na forma de patente tecnológica. 
 Contudo, em determinadas circunstâncias, as patentes tornam-se pouco ou nada 
úteis. Conforme pode ser acompanhado no Capítulo 2, que aprofunda essa questão, 
determinadas tecnologias possuem um ciclo de vida, uma difusão – e um potencial 
ostracismo – que são muito acelerados. Isso é especialmente marcante na tecnologia da 
informação. Na prática, todo o processo burocrático de se depositar e conseguir a 
concessão de uma patente pode tomar um tempo maior que a própria vida útil daquela 
tecnologia, ou mesmo ser incompatível com a janela de oportunidade de mercado para 
melhor explorá-la comercialmente. Assim, muitas empresas, com destaque àquelas com 
reputação de mais inovadoras, acabam por ignorar maiores disputas de propriedade 
intelectual, tratando de se ocupar em manter um regime de constante pesquisa e 
desenvolvimento, com recorrentes novos lançamentos, apostando nessa estratégia de 
competitividade: enquanto o competidor se ocupa de copiar uma tecnologia anterior, a 
organização já está um passo à frente com a tecnologia de próxima geração. Nos 
mercados em que o vanguardista costuma ter uma melhor aceitação (imitadores não 
sejam tão bem quistos), isso acaba fazendo todo o sentido como estratégia de 
competitividade. 
Por outro lado, enquanto ciência e tecnologia dizem respeito à área mais técnica 
da discussão, inovação é uma competência interdisciplinar: a chave de sucesso é o 
 
 
aspecto mercadológico. Ciência e tecnologia podem ser empregadas, na prática, para 
uma infinidade de invenções, das mais engenhosas às mais bizarras, nas indústrias de 
todos os tipos. Inventar, sob certa perspectiva, parece razoavelmente fácil: basta fazer 
diferente daquilo que é o normal, do amplamente difundindo. Mas nem toda invenção é 
uma inovação. O Manual de Oslo (OECD, 2005), como documento internacional de 
referência no âmbito da conceituação de inovação, a define como a invenção 
comercialmente bem-sucedida. Isso significa que inovação é a invenção que se torna 
um sucesso comercial, que é aceito (validado) pelo mercado. Aquilo que se cria de 
diferente, mas não se vende, pode ser algo curioso, distinto, talvez até mesmo artístico 
ou digno de louvor, mas não é inovação. 
 Tecnologia inovadora é aquela nova tecnologia que, por algum motivo 
(certamente, sua utilidade prática singular), é aceita e utilizada pelo mercado. Inovar 
realiza algo novo ou que nunca tinha sido feito antes: apesar de tecnologias antigas 
também serem aceitas e utilizadas pelo mercado, não são inovadoras. E a inovação se 
estende, conceitualmente, para produtos, serviços, processos, marketing e estrutura 
organizacional. 
 Um novo bem (físico), que se torne um sucesso de vendas, é uma inovação de 
produto. Se intangível, convertido em uma prestação de serviço diferente, e ao mesmo 
tempo com êxito comercial, é uma inovação de serviço. O produto e serviço podem ser, 
inclusive, até os mesmos que já se tinha, mas caso a forma de produzi-los tenha sido 
alterada, e isso implique em vantagem comercial (um processo mais efetivo, mais rápido, 
mais seguro, ambientalmente mais adequado e/ou socialmente mais responsável etc.), 
o que se caracteriza é uma inovação de processo. Há, inclusive, como se reconhecer 
inovação em marketing como uma das possíveis inovações de processo, mas inovação 
em marketing acaba ganhando essa categorização distinta, para realçar as virtualmente 
infinitas possibilidades de fazer diferente e alcançar sucesso nos atributos de preço, 
praça, produto e promoção (os 4Ps do marketing). Finalmente, a categoria de inovação 
em estrutura organizacional reconhece a validade de se alterara ordem naturalmente 
estabelecida para as organizações funcionarem com vistas ao cumprimento de sua 
missão institucional: aqui, proliferam abordagens alternativas, como trabalho à distância, 
coworking (trabalho em espaço compartilhado), novas estruturas executivas (como, por 
 
 
exemplo, uma vice-presidência dedicada à inovação e à transformação digital), times de 
projeto formados por consórcios de empresas, entre outros. 
 Assim como há diferentes tipos de inovação, anteriormente descritos, também 
existem distintas abrangências geográficas e intensidade de inovação. No quesito de 
abrangência, uma inovação pode ser mundial ou global (ineditismo em grau máximo). 
Mas também pode-se falar em inovação nacional (quando, até então, só existia fora do 
país: algumas organizações são conhecidas por “tropicalizar” tecnologias, quando as 
lançam, com vanguarda, no Brasil). De forma análoga, inovações podem ser regionais, 
ou até mesmo empresariais: ainda é inédito tão somente para aquela empresa 
(naturalmente, uma inovação menor, mas ainda assim, uma inovação). 
 No quesito intensidade da inovação, esta pode ser radical ou incremental. Radical 
é a completa reformulação conceitual de um produto ou de uma tecnologia, e incremental 
é o rótulo aplicado para as pequenas melhorias que muito agregam valor a um produto 
ou tecnologia, mas que não chegam a revolucionar por completo aquele produto ou 
tecnologia. Por exemplo, um detector de gotas de chuva, que aciona automaticamente o 
limpador de para-brisa, parece um recurso bastante apreciável, mas que ainda torna o 
carro um carro (por isso, é uma inovação incremental). O mesmo não se pode afirmar 
quanto aos automóveis auto-dirigíveis (sem necessidade de motorista), que redefinem o 
conceito daquele produto – por isso, com justiça, uma inovação tida como radical. 
 Como um jargão perigosamente alardeado, tem-se observado, com muita 
frequência, o emprego do termo disrupção para algumas situações, e é comum que 
inovações radicais sejam associadas a inovações disruptivas. Há um importante senão 
que merece ser destacado: conforme bem defendido por Christensen e Raynor (2013), 
são conceitos distintos. A disrupção diz respeito, necessariamente, a um rompante no 
hábito das pessoas (usuários, consumidores, clientes etc.). Ou seja, na forma como as 
pessoas consomem ou utilizam um determinado produto ou tecnologia que é 
profundamente alterada, com impactos sociais e culturais associados. 
 A transformação definitiva que o Uber traz na mobilidade urbana, por exemplo, é 
o que o eleva a uma inovação disruptiva (e não apenas o fato de seu aplicativo permitir 
chamar carros, programar rotas, pagar em ambiente seguro virtual etc.). 
Tecnologicamente falando, o aplicativo desenvolvido e empregado pelo Uber não tem lá 
 
 
grandes novidades funcionais que permitam classificá-lo como inovação radical: há 
muito, já eram difundidos o mapa eletrônico, o pagamento on-line, o ranking mútuo de 
utilizadores (no caso, motoristas e passageiros) e outros. Contudo, a associação das 
características empregadas para formatar esse produto, e o modelo de negócio que foi 
arquitetado, representou uma das maiores revoluções em nível global no comportamento 
das pessoas ante à necessidade de procurar uma locomoção urbana. Isso é, portanto, 
uma disrupção por excelência. 
 A inovação é a engrenagem que movimenta mercados, indústrias e, com isso, a 
própria economia em nível global. Conforme o Capítulo 2 se ocupa em detalhar, a 
tecnologia da informação merece destaque como verdadeira protagonista da evolução 
acelerada de boa parte das demais tecnologias. Bastante exploradas pelas principais 
corporações de todos os segmentos, as plataformas tecnológicas inovadoras, tais como 
nanotecnologia, biotecnologia, robótica, inteligência artificial, Internet das Coisas, Big 
Data, tecnologia dos materiais, entre tantas outras, estão em processo de efervescente 
revolução, e especialmente de integração, graças a características inerentes da 
tecnologia da informação – por assim dizer, concordando com Ramos et al. (2012), tudo 
parece orbitar ao seu redor, no fenômeno conhecido por Quarta Revolução Industrial (ou 
Indústria 4.0). 
 
1.2 Prospecção e cenários em tecnologia 
 
A tecnologia é, seguramente, condicionadora e direcionadora de mudanças nos 
cenários futuros. Nesse contexto, atividades de prospecção de tecnologia são definidas 
como aquelas cujo olhar é ao futuro ou aos possíveis futuros. Quando se procura 
identificar tecnologias de próximas gerações, o futuro de maior interesse é o não 
imediato: comumente, diz respeito a horizontes temporais de alguns anos há algumas 
décadas, embora também seja possível encontrar determinadas abordagens ousando 
explorar (mesmo que de modo especulativo) séculos ou até milênios à frente. 
 Ressalta-se: é importante prospectar tecnologias. Os resultados dos estudos 
nesse campo oferecem um olhar detalhado e valioso para possíveis avanços nas mais 
diversas áreas de atuação humana, implicando, muitas vezes, em significativas 
 
 
oportunidades de disrupção para o trabalho, para a vida pessoal, para as estruturas 
corporativas e até mesmo para as políticas públicas. E é justamente esse o motivo pelo 
qual governos, organizações e pesquisadores costumam contratar e se envolver em 
pesquisas orientadas à prospecção do futuro das mais diversas tecnologias. 
 Da perspectiva de uma nação, essa iniciativa favorece o desenvolvimento em 
geral. É fato que o Brasil é considerado um país atrasado em relação às potências 
mundiais, também no quesito de desenvolvimento tecnológico (salvo exceções raras, 
pontuais e insuficientes). Parece admissível que exista alguma relação entre o grau de 
desenvolvimento tecnológico de um país (entenda-se aqui o patamar alcançado por 
todas as suas instituições científicas e empresariais) e o nível de adoção de processos 
de prospecção em tecnologia. Com a constante evolução tecnológica, a sociedade altera 
a tecnologia, da mesma forma que a tecnologia molda a sociedade. Em função dessa 
dinâmica, os próprios métodos que as organizações adotam para prever e prospectar 
tecnologia sofrem contínuas alterações. Assim, é importante diferenciar os conceitos 
associados aos termos prospecção em tecnologia (foresight), previsão em tecnologia 
(forecasting) e avaliação tecnológica (assessment). Na classificação proposta por Porter 
(2010): 
● Prospecção em tecnologia: refere-se ao processo sistemático de identificar 
desenvolvimentos tecnológicos futuros e suas interações com a sociedade e o 
meio ambiente, com a finalidade de promover ações orientadoras destinadas a 
produzir um futuro mais desejável. 
● Previsão em tecnologia: é o processo sistemático de descrever o surgimento, 
desempenho, recursos ou impactos de uma tecnologia em algum momento no 
futuro. 
● Avaliação tecnológica: ocupa-se do estudo de impactos relacionados à adoção de 
uma tecnologia. 
● Roadmapping de tecnologia: método de gestão empregado como suporte ao 
planejamento estratégico tecnológico de uma organização. Ele auxilia na 
estruturação, desdobramento, comunicação e estabelecimento da visão de 
futuro da organização e na sua integração com os planos de mercado, produto 
e tecnologia. Essencialmente, apresenta-se como uma ferramenta gráfica usada 
para se estabelecer relação entre as necessidades futuras de mercado, a 
tecnologia atual da empresa, a tendência da tecnologia no mundo e programas 
de pesquisa e desenvolvimento (P&D). Desse modo, a empresa pode tomar 
decisões para melhor aproveitamento dos investimentos de capital em P&D, com 
garantia de alinhamento à estratégia da organização. 
 
Historicamente, por volta do ano 8000 a.C., após a era baseada na tecnologia 
 
 
agrícola (que até pode ser reconhecida como a primeira verdadeira “Revolução 
Industrial”, interpretando o termo como um salto de produtividade do labor humano),a 
sociedade passou a se apoiar definitivamente no uso cada vez mais intensivo e integrado 
de diferentes vertentes tecnológicas. É possível o reconhecimento de dois períodos bem 
caracterizados, a sociedade industrial (em torno de 1800) e sociedade da informação (a 
partir de 1970) – e até mesmo a iminência de um terceiro, que alguns denominam, 
mesmo que de forma provisória, de sociedade molecular. 
 A sociedade industrial foi a primeira era com definitivos esforços de prospecção 
em tecnologia. Trata-se de uma época caracterizada pela II Guerra Mundial, Guerra Fria 
e terrorismo – eventos que despertaram interesse a respeito das tecnologias que 
estavam por vir, tendo como objetivo a segurança nacional. A previsão tecnológica 
tornou-se essencial para avaliar as necessidades futuras de defesa dos EUA, nação 
vanguardista como potência tecnológica. Entre 1950 e 1960, algumas organizações, 
dentre as quais o Departamento de Defesa norte-americano, desenvolveram 
ferramentas quantitativas para previsão tecnológica, ferramentas semiquantitativas 
(mapeamento, morfologia e análise de necessidades), além de técnicas qualitativas, tais 
como estudos de cenários e Método Delphi. Esse é um período marcado também pela 
preocupação com o monitoramento e impacto das novas tecnologias. 
 Os EUA se concentraram na pesquisa e desenvolvimento de produtos bélicos, e 
com o país ocupado com esse foco de prioridade, outras nações acabaram por se 
destacar em desenvolver tecnologias em setores industriais distintos. Naquela época, 
analistas da Europa e Ásia assumiam papel relevante no desenvolvimento de conceitos 
de prospecção em tecnologia. Assim, começava-se a reconhecer na previsão em 
tecnologia uma entrada válida e relevante para a estratégia corporativa. De igual modo, 
as necessidades de clientes ou mercados, bem como fatores políticos, internacionais, 
econômicos, trabalhistas e os ambientes regulatórios deviam ser atraídos para o esforço 
total de prospecção em tecnologia. 
 Por sua vez, é na sociedade da informação que ocorre a segunda era da 
prospecção em tecnologia. A sociedade da informação é caracterizada pelo período em 
que ocorre, entre outros acontecimentos marcantes, o aperfeiçoamento e a difusão da 
internet como plataforma de tecnologia de informação e comunicação e o drástico 
 
 
aumento na capacidade dos computadores. Essas são conquistas tecnológicas que 
facilitaram a utilização das técnicas de estudos de cenários e Método Delphi, que podem 
ser consideradas as ferramentas mais amplamente utilizadas nessa época, além da 
análise bibliométrica. Também pode ser citada a utilização de novos métodos de 
prospecção, tais como a ciência da complexidade e perspectivas múltiplas. 
 Não obstante, a sociedade molecular dá espaço para a terceira era da prospecção 
em tecnologia. A primeira era (sociedade industrial) já passou por todas as fases de ciclo 
de vida, que são a gestação, crescimento, maturidade e declínio. A segunda era 
(sociedade da informação) passou pela gestação e crescimento, encontrando-se, nas 
primeiras décadas do século XXI, na maturidade. Ocorre que a terceira era (sociedade 
molecular), como lembra Schwab (2016), ainda está na etapa gestacional, caminhando 
para o crescimento – uma transição que se espera para em torno do ano 2025. Esse é 
um período em que podem ser identificados direcionadores revolucionários, como a 
biotecnologia e a nanotecnologia. De alguma forma, a biologia está se tornando uma 
ciência da informação. E, por outra perspectiva, a tecnologia da informação começa a 
adotar características dos sistemas biológicos. Como a ciência progride, a fronteira entre 
sistemas vivos e artificiais, e entre a vida real e virtual, está se tornando cada vez mais 
de difícil distinção. As notícias sempre recorrentes sobre fanáticos fundamentalistas e 
guerras religiosas, por exemplo, têm conduzido a discussão de como a evolução das 
tecnologias pode ocasionar a utilização de novas armas baseadas em genética, 
nanotecnologia, robótica etc. 
 Por isso, alguns questionamentos surgem nessa nova era: será que os fatos 
associados a esse período podem envolver mudanças significativas nas formas de 
previsão e de prospecção em tecnologia? Ocorrerá o aprimoramento dos métodos já 
existentes? Surgirão novas técnicas de previsão e prospecção em tecnologia que se 
somarão às várias já existentes? O que parece mais provável é a integração ou uso 
combinado de diferentes métodos de prospecção. 
 Existem inúmeros métodos de prospecção de tecnologia para atender a diferentes 
objetivos, como destaca Porter (2010). Atingir tais objetivos envolve recorrer a uma 
diversidade de procedimentos, com distintas abordagens (às vezes, complementares). 
Esses métodos podem ser agrupados em famílias, de acordo com algumas 
 
 
características comuns e objetivos aos quais melhor se destinam. O Quadro 1 apresenta 
uma lista de métodos prospectivos em função do agrupamento em famílias de 
similaridades. 
 
 Quadro 1 – Métodos de análises de tecnologias futuras 
 
Famílias de métodos Exemplos de métodos 
Abordagens criativas 
TRIZ, sessões de trabalho sobre o futuro, visionamento, 
ficção científica. 
Monitoramento e 
inteligência 
Vigilância em tecnologia, mineração em tecnologia. 
Descritivos 
Bibliometria, lista de verificação de impactos, índice de 
estados futuros, avaliação de múltiplas perspectivas. 
Matrizes Analogias, análises morfológicas, análise de impactos 
cruzados. 
Análises estatísticas Análise de riscos, correlações. 
Análises de tendências 
Modelamento de curva de crescimento, principais 
indicadores, curvas de envelope, modelos de onda longa. 
Opinião de 
especialistas 
Survey, Delphi, grupos focais, abordagens participativas. 
 
 
Modelagem e 
simulação 
Descrições de sistemas de inovação, modelamento de 
sistemas adaptativos complexos, modelamento de regimes 
caóticos, análises de difusão ou substituição de tecnologias, 
modelamento de entradas e saídas, modelagem baseada em 
agente. 
 
Análise lógica / Análise 
causal 
Análise de requisitos, análises institucionais, análises das 
partes interessadas, avaliação de impacto social, estratégia de 
mitigação, análises de sustentabilidade, análises de ação (avaliação 
de políticas), árvores de relevância, roda do futuro. 
Mapeamento 
Descrição do futuro em sentido inverso (backcasting), 
mapeamento de tecnologia x produto, mapeamento científico. 
Cenários Gestão de cenários, cenários baseados quantitativamente. 
Análises de valoração 
/ Auxílio à decisão 
/ Econômica 
Análise de custo benefício (CBA), processo analítico de 
hierarquia (AHP), análise de envelopamento de dados (DEA), 
análises de decisão por multicritérios. 
Combinações Simulação de cenários (jogos), análise de impacto de 
tendências. 
Fonte: PORTER, 2010, p. 41. Adaptado. 
 
 
 
Métodos podem ser combinados, dependendo da complexidade e objetivos da 
análise. Existem métodos hard (baseado em análises quantitativas) e soft (baseado em 
análises qualitativas). Há os extrapolativos (que visam antecipar potenciais futuros, no 
contexto de mudança) e normativos (orientados a descrever o futuro desejado). 
 Como curiosidade, a própria ficção científica é considerada um dos métodos de 
prospecção de novas tecnologias, na família de abordagens criativas. Embora seja 
literatura romanceada, fruto de produção artística, sua especial utilidade é para 
inspiração de pesquisas que culminem em desenvolvimento da ciência e tecnologia – e 
resultem em inovações de impacto para a sociedade. 
 Os clássicos do gênero parecem insuperáveis: a produção literária de nomes 
como Arthur C. Clarke e Isaac Asimov, em seu conjunto da obra, fecunda as demais 
mídias de Sci-Fi, como filmes (Star Wars, Blade Runner, Back to the Future, Matrix etc.) 
e seriados televisivos (X-Files, Lost, Millenium, Black Mirror etc.). A ficção científica é o 
ponto de convergênciaentre a arte e a ciência. Estas se influenciam mutuamente. É 
interessante observar que muitas pessoas que enveredam por uma formação técnica, 
como engenheiros e tecnólogos, fazem suas escolhas acadêmicas e profissionais 
incentivadas também pela influência da ficção científica em suas vidas. Da mesma forma, 
boa parte dos temas explorados por pesquisadores acadêmicos e cientistas em geral é 
induzida pelos produtos de ficção científica consumidos na infância e adolescência. 
 Tal apelo motivacional, de cunho mais emotivo que racional, parece que sempre 
se fez presente, em todos os tempos, de maneira mais velada ou mais explícita. Não 
restrita a um mero passatempo, a ficção científica se mostra inspiração e até mesmo 
direcionadora de temas com verdadeiro potencial de conversão em hipóteses para 
comprovação ou refutação científica. Quanto conhecimento já foi efetivamente gerado, 
aplicado e industrializado décadas depois dos inventos descritos pela mente de Júlio 
Verne? Da robótica romanceada por Isaac Asimov, do sistema de comunicações intra e 
interplanetário de Arthur Clarke, da engenharia genética sugerida por Aldous Huxley? 
Poderia o gênio Leonardo da Vinci, se tivesse direcionado sua produção artística mais 
para o storytelling da ficção literária que para escultura e pintura, ter traduzido sua 
originalidade científica em fonte de inspiração para mais gerações de cientistas, de modo 
a, quem sabe, antecipar as grandes descobertas tecnológicas da história da humanidade 
 
 
em alguns séculos? 
 Portanto, é válido, como técnica de prospecção, explorar a análise das produções 
de ficção científica, especialmente as de boa qualidade, buscando nelas traços, mesmo 
que tênues, do que podem ser futuros desenvolvimentos tecnológicos reais. Afinal, 
indiscutivelmente, tudo o que existe concretamente de fato em um dado momento foi 
primeiramente pensado/imaginado/sonhado antes. 
 
1.3 Hype Cycle 
 
O Gartner Group é uma consultoria norte-americana especializada em pesquisa 
e prospecção tecnológica, que carrega em sua identidade o sobrenome de seu fundador, 
Gideon Gartner, considerado um dos grandes patriarcas da indústria da tecnologia da 
informação e responsável pela fundação da empresa em 1979. 
 Fenn e Raskino (2008) reconhecem que a influência dos trabalhos desenvolvidos 
por essa organização é bastante expressiva no campo das novas tecnologias em geral. 
A empresa se ocupa em analisar mercados dos mais diversos setores e suas grandes 
tendências. A partir disso, elabora, anualmente, um infográfico consolidado na forma de 
uma curva, que demonstra a evolução e o grau de desenvolvimento das tecnologias 
disponíveis para aquele segmento. Com isso, os clientes do Gartner Group, indústrias 
de todas as vertentes, como no ramo de telecomunicações, alimentos, construção civil, 
vestuário, automobilístico, entre tantas outros, conseguem decidir, com mais precisão, 
para onde direcionar seus investimentos e esforços tecnológicos. 
 Esse infográfico é apresentado em uma curva bem característica, de fácil 
identificação entre os pesquisadores de tecnologia dado seu formato peculiar, e é 
denominado Hype Cycle. A tradução para o português não costuma ser utilizada, pela 
imprecisão e ambiguidade ao referir-se a exagero e similares (ciclo de exagero, ciclo de 
euforia etc.), por isso, no campo de estudos de tecnologia, a convenção é manter a 
expressão original em inglês – altamente difundida em meio à literatura especializada e, 
por isso, já incorporada ao termo corriqueiro. A Figura 1 ilustra o Hype Cycle, com todos 
os seus estágios identificados. 
 
 
 
Figura 1 – Hype Cycle 
 
 
 Fonte: FENN; RASKINO, 2008. Adaptado. 
 
Como visto, essa curva mostra a expectativa, reputação ou aceitação de 
determinada tecnologia ao longo do tempo – podendo também ser entendidas como 
visibilidade e maturidade que se alcança. Conforme pode ser acompanhado ao longo do 
eixo horizontal (temporal), há cinco fases bem nítidas: gatilho de inovação ou gatilho 
tecnológico, pico das expectativas infladas, vale das desilusões, aclive de iluminação e 
platô de produtividade ou planalto de produtividade. E elas procuram representar um 
fenômeno sócio técnico comum a todas as novas tecnologias: entre o momento de seu 
surgimento e a estabilidade para aplicação industrial, há um momento de forte 
turbulência, caracterizado pela rápida febre que se forma (hype) seguido por uma quase 
tão imediata depressão ou frustração em torno das expectativas originais daquela 
tecnologia. Isso acaba por explicar uma série de desdobramentos práticos da difusão e 
assimilação de novas tecnologias. 
 No gatilho tecnológico, marco de lançamento daquela nova tecnologia, estão os 
produtos e aplicações mais recentes lançadas no mercado. O sugestivo nome pico das 
 
 
expectativas infladas reúne os produtos e aplicações em voga, alvos de grande 
burburinho, sendo testados por um grande número de companhias. É uma fase em que 
as expectativas usualmente são maiores que o real valor daquelas novidades, o que 
ajuda a explicar o estágio seguinte: vale das desilusões, uma etapa realmente crítica, 
uma vez que, a partir desse ponto, novas tecnologias podem ser simplesmente 
abandonadas (cair em total desuso), ou então começarem a ser aprimoradas para 
melhor adaptação ao mercado. O aclive de iluminação reúne os produtos e aplicações 
que conseguiram ser melhorados em relação à fase anterior, portanto, com sucesso em 
permanecer no mercado. Finalmente, o planalto de produtividade é atingido por aqueles 
produtos e aplicações testados e aprovados efetivamente, validados (aceitos) pelo 
mercado. 
 Nos relatórios anuais do Gartner Group, o Hype Cycle é atualizado para mostrar 
qual a posição de momento de diversas tecnologias alvo de monitoramento. Para cada 
uma delas, características peculiares podem fazer com que determinadas fases sejam 
muito mais aceleradas ou muito mais lentas para transição, que o pico seja muito maior, 
o vale muito mais amplo, entre outros. O que não costuma mudar é o visual do gráfico, 
que ilustra, de maneira bastante efetiva, o recorrente fenômeno de euforia à depressão 
que antecede o uso estável de uma determinada tecnologia. 
 Compreender a utilidade do Hype Cycle é reconhecer que trabalhar com 
tecnologias emergentes é altamente desafiador. Afinal, é difícil garantir se o hype de um 
determinado fenômeno tecnológico é exagero, tendência, ou um verdadeiro tsunami. 
Inovações estão sempre associadas a riscos: quando uma organização decide investir 
em uma tecnologia inovadora, não há como deixar de conviver com alto nível de 
incertezas. As coisas podem dar muito, muito certo, como também muito, muito errado. 
 Como bem descrito por Reis (2008) e Fenn e Raskino (2008), o ambiente de 
negócios está cada vez mais complexo e agressivo. E é nesse meio que as empresas, 
para sobreviver e prosperar, são impelidas a inovar de forma contínua – organizações 
permanentemente inovadoras. As novas tecnologias são o futuro de muitas frentes de 
negócio, afinal, são capazes de destruir, criar e redesenhar indústrias em passo cada 
vez mais acelerado. A necessidade da vanguarda tecnológica é imperativa: ao mesmo 
tempo, adotar tecnologias ainda não consolidadas é um desafio para gestores de 
 
 
organizações de todos os tipos. As questões inevitáveis sobre as quais se debruçam 
gestores e especialistas na indústria são as que apresentamos a seguir. 
 
● De que forma as organizações podem avaliar, decidir e incorporar novas 
tecnologias aos negócios, diante da altíssima incerteza a respeito de sua 
viabilidade? 
● Que critérios adotar para decidir entre uma estratégia agressiva (ser pioneiro na 
utilização da tecnologia) ou conservadora (preferindo a observação de mercado e 
espera de primeiros resultados dos concorrentes)? Naturalmente, os riscos e os 
benefícios de cada uma dessas estratégias precisamser devidamente 
considerados. 
● Como conviver com a possibilidade de as novas tecnologias redefinirem o próprio 
modelo de negócio atualmente empregado pela empresa? Não obstante criar 
novos negócios, a tecnologia emergente pode ser responsável, ao mesmo tempo, 
pela obsolescência completa do negócio tradicional da organização, que muitas 
vezes é o responsável pela trajetória de sucesso até então alcançado de uma 
marca. 
● Como planejar recursos e preparar a estrutura organizacional para o processo de 
transferência de tecnologia? 
 
O ponto crítico do Hype Cycle é a depressão da curva. Uma dada tecnologia 
caminha, ao longo do tempo, para chegar nesse ponto de inflexão, que é precisamente 
o momento em que se alcança massa crítica suficiente para se disseminar pela indústria 
e causar impactos de forma exponencial, ou ser completamente abandonada (ou 
substituída). 
 É interessante observar como os mais recentes relatórios Hype Cycle do Gartner 
posicionam a tecnologia da informação como verdadeira protagonista das plataformas 
tecnológicas de próxima geração. Ao menos três macrotendências sintetizam o caminho 
da evolução tecnológica para os próximos anos: 
 
1. Experiências imersivas: o termo originalmente adotado pelo Gartner é 
transparently immersive experiences, abrangendo o conjunto de tecnologias 
que estão se tornando mais orientadas ao ser humano, e com isso, cada vez 
mais invisíveis, fluídas e contextuais no que tange ao relacionamento entre 
pessoas, sistemas artificiais e organizações empresariais. Alguns exemplos 
práticos são as tecnologias de realidade virtual e de realidade aumentada. 
 
 
Também estão incluídas as próximas gerações de tecnologias já concebidas 
há algum tempo, como é o caso da tecnologia de impressão 3D (com mais 
de três décadas de existência): as impressoras 4D estão surgindo, com 
novas e impactantes aplicações, que envolvem a produção de materiais 
inteligentes, que se moldam e remoldam fisicamente ao longo do tempo (a 
quarta dimensão), em função de determinados parâmetros (entre os quais a 
interação humana). Nessa categoria de experiências imersivas, merecem 
destaque também tecnologias emergentes como Human Augmentation, 
Brain-Computer Interface, Volumetric Displays, Affective Computing, 
Nanotube Electronics e Gesture Control Devices. 
2. Máquinas inteligentes: a expressão originalmente utilizada pelo Gartner, 
Perceptual Smart Machine Age, diz respeito à inteligência artificial que opera 
assistentes pessoais como Google Now, Siri e Cortana, veículos autônomos 
e robôs, fundamentada em algoritmos sofisticados, arquitetura de machine 
learning e técnicas de linguagem natural. Já há um bom tempo os algoritmos 
inteligentes estão presentes no cotidiano das pessoas, muitas vezes sem 
serem percebidos. É o caso dos algoritmos de recomendação, totalmente 
incorporados ao processo de escolher um filme no Netflix ou um livro na 
Amazon. Algoritmos poderosos são empregados para que rotas sejam 
propostas pelo Waze, para que o Uber possa precificar antecipadamente 
uma corrida, para que empresas automatizem o processo de aprovação de 
crédito dos clientes, e para que passagens aéreas sejam mantidas com 
preços dinâmicos, entre tantas outras inúmeras realidades do cotidiano. 
 
A inteligência artificial é a base de funcionamento do poderoso motor de 
busca do Google. É fácil concordar com Singh (2012; 2014) sobre as 
possibilidades iminentes serem realmente impressionantes, uma vez que o 
Hype Cycle associado se concretize: uma máquina HLMI (Human-Level 
Machine Intelligence) – um computador capaz de emular a maioria das 
atividades profissionais humanas ao menos tão bem quanto uma pessoa – 
tem, segundo as previsões tecnológicas já mapeadas, mais de 50% de 
chance de ser realidade por volta do ano 2050. A partir daquele ponto, 
chegar-se a uma máquina superinteligente seria questão de poucas 
décadas. Por máquina superinteligente, entenda-se o alcance de um 
intelecto que excederá em muito o desempenho cognitivo da raça humana 
em absolutamente todos domínios de conhecimento. 
3. Revolução das plataformas: a análise do Gartner a respeito da Platform 
Revolution alerta para o irreversível deslocamento da infraestrutura 
tecnológica para ecossistemas – tecnologias operando como plataformas e 
como catalisadoras de novos negócios de alto impacto. Trata-se de um 
movimento que já iniciou, fundamentalmente a partir das primeiras 
 
 
aplicações de cloud computing (computação em nuvem). Contudo, a maior 
revolução parece se aproximar a partir da difusão generalizada de 
tecnologias como blockchain e Software-Defined Everything (SDx): estas 
possuem um infindável potencial para criação de novos modelos de negócio, 
enraizando a conexão invisível e intuitiva entre pessoas e novas tecnologias. 
 
 
 
 
2. A TECNOLOGIA AO LONGO DO TEMPO 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/area-de-trabalho-organizada 
 
2.1 Indústria 4.0 
 
Inicialmente, convém esclarecer a respeito da adequada interpretação que a 
palavra indústria merece. Por algum motivo, talvez a maioria das pessoas, quando se 
depara com esse termo, automaticamente o associa com fábricas, esteiras levando 
produtos e peças em linhas de montagem, ou alguma imagem de Tempos Modernos, o 
icônico filme de Charles Chaplin. Não há dúvidas de que isso também é indústria, mas o 
conceito não se limita à atividade de manufatura fabril. Indústria é sinônimo de produção, 
em seu conceito mais amplo. 
 Assim, envolve-se tanto o clássico processo de transformação de matérias-primas 
em bens físicos com determinados atributos agregados, tão típico da indústria da 
 
 
manufatura, como também a própria articulação de recursos envolvida na prestação de 
um serviço: o termo indústria de serviços é totalmente válido. Da mesma forma, são 
igualmente coerentes os empregos do termo em uma ampla variedade de expressões, 
como indústria cinematográfica, indústria da educação, indústria fonográfica, indústria 
cultural, indústria da saúde, indústria de seguros, entre uma infinidade de outros 
exemplos. O termo indústria está para a produção (oferta) assim como mercado está 
para consumo (demanda). 
 É o que precisa ser levado em consideração quando se trata de compreender o 
fenômeno da Revolução Industrial, ou das várias revoluções industriais que a 
humanidade tem experimentado e as que ainda vai conhecer. Tudo diz respeito à 
atividade do trabalho, da produção conduzida por pessoas para atender anseios, 
demandas e necessidades de outras pessoas. A indústria existe para atender ao 
mercado, sendo fato comum que este último seja a real justificativa para a arquitetura 
industrial. Quando se fala em Revolução Industrial, o que está em discussão é, portanto, 
um momento histórico que caracteriza um salto de produtividade tão grande, a ponto de 
redefinir por completo o que se conhecia até então como parâmetro industrial. 
 É por esse ângulo que é possível reconhecer na própria Revolução Agrícola – 
época de transformação de uma humanidade nômade em uma mais fixada ao local 
geográfico em que se produziam alimentos – uma primeira grande revolução industrial, 
embora se costume associar a expressão revolução industrial ao momento histórico em 
que a máquina a vapor e as locomotivas se tornam realidade corriqueira, com o rótulo 
de Primeira Revolução Industrial. É indiscutível que ali ocorre genuinamente um salto da 
capacidade produtiva: isto é, quando o efeito de melhorias sucessivas não é a 
continuidade de uma rampa, mas sim o aparecimento de um degrau. 
 No que diz respeito ao posterior segundo degrau, a assim chamada Segunda 
Revolução Industrial é marcada pelo uso da eletricidade na produção, a viabilidade da 
produção em massa e o aparecimento de artefatos revolucionários como avião, navio a 
vapor, refrigeração mecânica e a invenção do telefone eletromagnético. No campo da 
gestão,é impossível não reconhecer a importância do gerenciamento científico da 
produção, criado por Frederick Taylor. 
 Mais uma vez se alcançou uma revolução nos níveis de produtividade industrial a 
 
 
partir do momento em que computadores e automação robótica começam a ser a base 
dos modelos produtivos, especialmente na indústria automotiva. Por isso, a justa 
denominação de Terceira Revolução Industrial, que se estendeu até anos muito 
recentes. Se ainda incipiente na Segunda Revolução Industrial, a tecnologia da 
informação começa a se tornar imprescindível nos sistemas produtivos da era seguinte, 
principalmente a partir do momento em que computadores de alta capacidade se tornam 
acessíveis às organizações em geral. 
 Não por acaso, Terceira Revolução Industrial costuma ser associada à era do 
conhecimento: aquele estágio que a humanidade alcança em que, diferente da era 
industrial clássica, o conhecimento passa a se tornar o insumo mais relevante – eis a 
tecnologia da informação começando a traçar as novas direções dos sistemas 
produtivos, a partir de artefatos como as redes locais de computadores e a grande rede, 
de disposição mundial, que é a internet e a web 2.0. Para Reis (2008), essas são 
competências tão essenciais às organizações empresariais quanto as clássicas gestão 
financeira, gestão de recursos humanos e gestão da produção; além dessas, irrompem 
disciplinas como gestão da tecnologia, gestão do conhecimento e gestão da inovação. 
 E assim como, na perspectiva de alguns pesquisadores e especialistas, a 
Segunda Revolução Industrial parece ser mais uma extensão natural dos 
desdobramentos tecnológicos da Primeira Revolução Industrial, o que viria na sequência 
da Terceira Revolução Industrial, embora profundamente disruptiva e impactante para 
toda a indústria, pode ser entendida como uma consequência inevitável do 
aprimoramento geral da tecnologia da informação e de suas aplicações entre as diversas 
outras tecnologias. 
 Para muitos, a Quarta Revolução Industrial, a chamada Indústria 4.0, inicia junto 
ao surgimento da cloud computing (computação em nuvem). É um ponto de inflexão, a 
partir do qual o mundo convencional (físico) começa a migrar irreversivelmente para o 
mundo digital. Verdadeiras plataformas tecnológicas com potencial de novas aplicações, 
a nanotecnologia, biotecnologia, robótica, Internet das Coisas, Big Data, M2M, 
inteligência artificial, impressão 3D, tecnologia dos materiais, entre tantas outras, 
passam por contínuo aprimoramento e, destaca-se, convergência, a partir da integração 
com as tecnologias de informação e comunicação (TIC), como destaca Schwab (2016). 
 
 
A tecnologia da informação parece dragar todas as demais tecnologias para uma 
trajetória de aperfeiçoamento em que ela, TI, é, ao mesmo tempo, princípio, meio e fim 
nessa dinâmica conjunta. 
 O que a Quarta Revolução Industrial provoca é a mais radical modificação da 
sociedade em todos os tempos. Por cerca dos últimos 250 mil anos, período que se 
acredita corresponder à completa trajetória humana sobre a face da Terra, a humanidade 
evoluiu com base em um desenvolvimento local e linear. Local, no sentido de que se 
uma pessoa nascesse em determinada região, era muito provável que ali crescesse, 
produzisse e morresse. Linear, em termos de velocidade constante das melhorias e 
avanços tecnológicos. Por assim dizer, o ritmo de mudanças que uma pessoa assistia 
em sua infância correspondia, grosso modo, ao mesmo ritmo de mudanças já na velhice. 
 Desse período realmente expressivo de 250 mil anos, contudo, são os últimos 50 
anos que destoam por completo a forma de desenvolvimento: ela passa a ser global e 
exponencial. Global, no sentido que a mobilidade geográfica alcançou tal ponto que é 
muito comum pessoas perfazendo suas etapas de vida nas mais diferentes regiões do 
planeta: nascer em um local, crescer em outro, e assim ir experimentando diversos 
outros lugares, mesmo em escala internacional, para estudar, se aprimorar, produzir e 
usufruir das benesses de uma vida mais longeva. Por crescimento exponencial, entenda-
se um ritmo continuamente acelerado de avanço tecnológico, que alcança, na época 
atual, um patamar de alcance até certo ponto assustador. O Gráfico 1 ilustra a diferença 
entre um ritmo linear e um ritmo exponencial de crescimento. 
 
 
 
Gráfico 1 – Comparação entre crescimento linear e crescimento exponencial 
Fonte: SINGULARITY UNIVERSITY, 2017. Adaptado. 
 
A diferença entre os dois ritmos de crescimento é tão acentuada que chega a ser 
desafiadora a projeção mental dessa disparidade. A abordagem visual é especialmente 
útil para melhor compreender a diferença alcançada em alguns poucos passos 
incrementais. Nos primeiros incrementos, as duas curvas estão muito próximas, mas 
logo após alguns incrementos subsequentes, a distância que se alcança é 
surpreendente. Se valores foram tabulados, a constatação é ainda maior: dar 30 passos 
lineares de 1 metro significa andar, ao todo, 30 metros. Dar 30 passos exponenciais (1 
m, 2 m, 4 m, 8 m, 16 m etc.) equivale a cobrir 1.073.741.824 metros. Para compreender, 
em uma perspectiva humana, o que representam mais de 1 bilhão de metros, basta saber 
que correspondem a 26 voltas em torno do planeta Terra. 
 Novas tecnologias possuem o poder exponencial por uma razão significativa: o 
conhecimento é cumulativo. A nova geração de pessoas não se vê obrigada a reinventar 
a roda no que diz respeito à ciência e tecnologia, mas já pode partir do conhecimento 
que se acumulou até aquele momento histórico, e a partir dali, avançar o estado-da-arte 
científico e tecnológico. 
 Chega até a ser um tanto quanto contraintuitivo esforçar-se por compreender o 
 
 
Tendência 
exponencial 
Tendência linear 
 
 
 
 
 
 
 
 
 
Joelho da curva 
 
 
que é uma melhoria da ordem de bilhões de vezes. Alguns exemplos são úteis para 
ajudar nesse desafio. No que diz respeito à tecnologia de circuitos integrados eletrônicos, 
considera-se que, em 1958, dois transistores ocupavam o espaço correspondente a 
cerca de 1 cm2. Em 1971, o Intel 4.004 dispunha, nesse mesmo quadrado, de 1 cm de 
lado, 2.300 transistores. Um salto de dois para 2.300 é bastante apreciável. Contudo, 
quase desprezível ao se considerar o que se alcançaria em 2012: um GPU Nvidia 
encaixava, nesse mesmo espaço físico, 7,1 bilhões de transistores. E a evolução 
tecnológica ao longo do tempo, naturalmente, nunca estaciona. Nesse espaço de 54 
anos, não foi apenas o atributo dimensional (espaço físico) que foi revolucionado: essas 
poucas décadas foram suficientes para que, simultaneamente, se alcançassem 
dispositivos 10 mil vezes mais velozes e 10 milhões de vezes mais baratos. Ou seja, 
uma tecnologia 100 bilhões de vezes melhor. 
 Em 1960, a tecnologia de ICBM, responsável pela navegação e precisão dos 
mísseis intercontinentais, era fundamentada em uma geringonça com funções de 
controle de velocidade, orientação e aceleração, de cerca de 23 kg de massa e com 
custo na casa de milhões de dólares. Nos primeiros anos do século XXI, dispositivos 
extremamente miniaturizados, a ponto de serem componentes quase imperceptíveis 
visualmente em um smartphone, eram disponibilizados na indústria na forma de um 
acelerômetro de US$ 1 e um giroscópio de US$ 3, com capacidade muito maior. Tais 
tecnologias, não obstante, caminham para uma evolução ainda mais surpreendente, na 
forma de máquinas de estrutura molecular (nanométrica), virtualmente sem custo unitário 
apreciável. 
 O primeiro receptor de GPS lançado comercialmente remonta a 1981, na forma 
de um equipamento de 24 kg e quase US$ 120 mil. Em 2010, o mundo já contava com 
microchips com função GPS que cabiam, com muita folga, na ponta de um dedo, por 
menos de US$ 5 cada. Em 1976, o engenheiro Steven Sasson, da Kodak, orgulhava-se 
de sua criação, a primeira máquina fotográfica digital da história: resoluçãode 0,01Mp, 
massa de 1,7 kg e preço em torno de US$ 10 mil. Em 2014, o dispositivo de câmera 
digital móvel, onipresente em qualquer telefone celular, apresentava-se com 10Mp, 13g 
e US$ 10 mil vezes mais resolução, mil vezes mais leve, mil vezes mais barato. 
 Seria inevitável que tamanha profusão exponencial alcançasse o mundo digital. 
 
 
Na tecnologia da informação, os dados crescem de forma exponencial. Em 2010, 5 
bilhões de gigabytes eram produzidos em dois dias de operação da internet. Em 2013, 
esse volume de dados passou a ser produzido a cada 10 minutos. Uma companhia aérea 
gera mais de 1 Tb de dados por dia. Além disso, mais de 100 horas de conteúdo de vídeo 
são adicionados ao YouTube a cada minuto. Assim, como característica marcante da 
Indústria 4.0, é muito natural que tecnologias exponenciais conduzam, no mundo das 
organizações empresariais, a negócios exponenciais, novos empreendimentos (startups) 
que, em pouquíssimo tempo de operação, passam a incomodar as grandes marcas 
tradicionais estabelecidas no mercado – isso quando não as destroem por completo. 
 
2.2 Transformação digital 
 
Startups, representando, de um lado, o novo paradigma dos negócios, e as 
empresas tradicionais, de outro, na sua busca pela reinvenção necessária à 
sobrevivência e prosperidade na Quarta Revolução Industrial, dispõem de uma mesma 
estratégia para seus intentos particulares: a transformação digital, que acontece da forma 
mais ampla possível: produtos e serviços, processos e finalmente os negócios por 
completo, totalmente digitalizados ou virtualizados. A tecnologia da informação é a maior 
responsável por impelir o ritmo de transformação digital que cada organização, de 
qualquer ramo e porte, pode implementar. 
 Nem toda startup significa, necessariamente, um modelo de negócio digital. 
Embora reconheça-se que são casos mais raros, até mesmo indústrias manufatureiras 
podem ser startups. É porque o conceito envolve, fundamentalmente, a proposição de 
um novo negócio. Não qualquer novo negócio, evidentemente, precisa ser relacionado 
ao chamado empreendedorismo de alto impacto, genuinamente inovador, um novo 
negócio potencialmente escalável. Por escalabilidade, entende-se a capacidade de se 
atingir um ritmo de crescimento vigoroso, caso receba os recursos necessários. Na 
prática, por uma questão de nível de investimento (capital comprometido), e até mesmo 
de perfil e valores individuais das novas gerações de empreendedores, é o cenário mais 
comum que as startups estejam fundamentadas em modelos de negócios totalmente 
digitais (e, quase sempre, na forma de aplicativos para smartphones). 
 
 
 É comum que startups nasçam a partir da modelagem de negócios voltados ao 
aproveitamento das infinitas possibilidades de apoiar a transformação digital da 
sociedade e das demais organizações empresariais. Para as empresas tradicionais, a 
transformação digital é a resposta para a necessidade de reinvenção, ou readaptação, a 
novas condições do ambiente de negócios. Portanto, é um fenômeno que transpassa 
organizações de todos os perfis possíveis. Em maior ou menor grau, seus desafios são 
imperativos para qualquer tipo de empreendimento. 
Transformação digital envolve, principalmente, a gradativa digitalização de todos 
os processos produtivos. Isto é, todas as rotinas de trabalho, sejam elas de cunho mais 
técnico, como a própria atividade de chão de fábrica (a linha de produção), ou processos 
administrativos, tão convencionais como finanças, marketing e recursos humanos. E 
mesmo nas organizações que continuam a produzir produtos físicos habituais, tais como 
eletrodomésticos, automóveis ou artigos esportivos, a mudança na forma como as 
atividades são organizadas, a partir das ferramentas digitalizadas, é realmente 
revolucionária. 
 Entenda-se que, ao se tratar do significado da digitalização, o que precisa ser 
reconhecido é a definitiva ruptura entre um objeto e a sua respectiva aplicação ou 
benefício associados. Por exemplo, no caso de uma revista convencional, as folhas de 
papel empregadas para viabilizar a existência daquele objeto são as mesmas que trazem 
a informação escrita, que é essencialmente o que dá valor àquela revista. Ou seja, caso 
o aparato físico seja destruído (perdido, molhado etc.), perde-se, junto, a mensagem que 
ele carrega consigo. 
 Na área técnica, e nos processos mais voltados à produção propriamente dita, os 
recursos de simulação e emulação eletrônicos possibilitam que até as etapas de 
protótipos possam ser experimentadas apenas em ambiente virtual, sem mobilizar 
maiores recursos nessa etapa do processo de planejamento e desenvolvimento de 
produtos que costuma ser tão cara em termos de volume de investimentos necessários. 
Um automóvel, por exemplo, pode ser não apenas projetado de forma virtual (simulado), 
mas testado (emulado) nesse mesmo ambiente, antes de começar sua produção de 
forma física, proporcionando uma incrível economia de recursos e aumento do time-to-
market – tão essenciais, principalmente no caso de negócios de concorrência acirrada. 
 
 
 A preparação da fábrica ganha a possibilidade de só se partir para a aquisição 
das mais caras máquinas e equipamentos especializados após sucesso nos testes 
virtuais (em que vários parâmetros podem ser testados até se encontrar a configuração 
ideal para se investir). Processos de manutenção industrial são otimizados ao máximo, 
principalmente pelas novas possibilidades de manutenção preditiva com base em 
tecnologia M2M (comunicação automática máquina a máquina, ou mesmo componente 
com máquina). Finalmente, toda a cadeia produtiva fica melhor sincronizada por meio da 
comunicação instantânea dos sistemas informatizados de uma empresa com os 
sistemas de seus principais fornecedores, resultando em um fluxo de trabalho mais 
fluido, com menor lead-time, mais qualidade (menor retrabalho, sucateamento, 
desperdício etc.) e, com tudo isso expressiva e generalizada redução de custos. 
 Mas, como já se frisou, não é apenas no processo produtivo direto que a 
transformação digital ocorre: ganhos similares se fazem realidade em qualquer outro 
processo administrativo ou indireto da empresa. O departamento financeiro pode ser 
digitalizado, com uma integração direta do sistema da empresa com bancos e demais 
instituições financeiras, além da própria comunicação automatizada de contas a receber 
da empresa junto às contas a pagar dos seus clientes corporativos, e vice-versa no que 
tange aos fornecedores. 
 O escrutínio fiscal por parte dos órgãos públicos em nível federal, estadual e 
municipal, em ambiente totalmente digital, reduz substancialmente, quando não eliminar 
por completo, a necessidade de fiscalizações presenciais. Permeando todos os 
processos financeiros e contábeis, a tecnologia de blockchain redefinirá o papel de 
instâncias tidas como indispensáveis, como bancos, que perderão a conotação de canais 
principais para financiamento das operações. Principalmente quando o objetivo é o 
lançamento de produtos e serviços inovadores, já há algum tempo se tornou comum, via 
plataformas digitais, campanhas de captação de recursos das empresas diretamente 
junto aos seus consumidores – entusiastas de uma determinada marca, não raro, fazem 
questão de pagar antecipadamente pela solução que a empresa promete, financiando, 
assim, todo o processo de pesquisa e desenvolvimento. Além disso, criptomoedas, como 
bitcoins e similares, permitirão novas possibilidades de monetização do negócio. 
 O departamento de recursos humanos pode ser digitalizado, desde o processo de 
 
 
recrutamento e seleção, passando por capacitação e desenvolvimento, até o 
desligamento dos profissionais. As possibilidades se ampliam com recrutamento e 
seleção on-line: vagas são divulgadas instantaneamente por um número infindável de 
canais, a captação de perfis e currículos se torna tão seletiva e específica quantofor 
necessário para os talentos procurados, e as entrevistas e testes complementares 
podem ser feitos virtualmente, dispensando presença física, ou seja, reduzindo 
substancialmente os custos envolvidos (tanto para empregador quanto para candidato) 
e tornando o processo muito mais rápido, confiável e transparente. 
 Já há algum tempo, é praxe realizar-se inclusive um due dilligence (investigação 
aprofundada) da atividade dos candidatos (e dos já funcionários) nas redes sociais. 
Treinamentos e formações continuadas, em meio digital, ampliam a oferta de 
possibilidades de capacitação e desenvolvimento para os profissionais da empresa, 
incluindo as possibilidades de eventos com instrutores internacionais sem os tradicionais 
custos envolvidos na logística convencional (seja de trazer instrutores de fora, seja para 
mandar participantes para eventos no exterior). O mapeamento de competências fica 
mais dinâmico, oferecendo leituras em tempo real no ambiente das empresas. 
Avaliações de treinamento, de todas as instâncias, se tornam facilitadas pelos recursos 
digitais. Até mesmo o processo de desligamento fica mais eficiente, possibilitando 
feedback (orientação corretora de comportamento e desempenho) e acompanhamento 
do profissional durante e até mesmo após o período de afastamento (útil especialmente 
em cargos mais estratégicos). 
 O departamento de marketing pode ser digitalizado, e isso em incontáveis frentes 
de atuação, desde o branding (gestão de reputação da marca), a publicidade, os estudos 
de precificação, desenvolvimento e acompanhamento de mercado, canais diretos e 
indiretos de distribuição, entre tantas outras possibilidades. Aliás, é inegável que a 
digitalização dos processos nas organizações tende, irreversivelmente, ao que tudo 
indica, a esvaziar cada vez mais os canais indiretos e potencializar os canais diretos – a 
tecnologia digital faz os intermediários serem cada vez mais dispensáveis. O marketing 
direto é profundamente potencializado em ambiente digital. Nesse novo mundo em 
irreversível digitalização, o gerenciamento de reputação ganha uma função 
especialmente crítica: afinal, se antes, no modelo convencional, prevalecia a máxima de 
 
 
que “o cliente satisfeito recomenda para um, e o cliente insatisfeito fala mal para dez”, 
diante do poder concedido à voz dos consumidores nos ambientes digitais, é bem 
admissível esperar que um descontente espalhe rapidamente sua indignação para mil, 
10 mil, 100 mil ou mais pessoas. 
 Por assim dizer, em um mundo cada vez mais digitalizado, as empresas estão 
profundamente expostas, sendo que mesmo pequenos deslizes e falhas podem macular 
rápida e amplamente uma organização. Por outro lado, se uma empresa se encontra, 
sob essa perspectiva, em uma delicada e sensível posição na relação com os 
consumidores e sociedade em geral, seus concorrentes encontram-se na mesma 
situação. E é neste ponto que as organizações podem aproveitar a valiosa contribuição 
dos processos de inteligência competitiva: o meio digital permite, a custo muito baixo ou 
praticamente zero, monitorar constantemente as movimentações de mercado dos 
concorrentes. 
 Essa leitura de ações e iniciativas do competidor, quando realizada em tempo 
hábil, pode promover um maior grau de inovação nas empresas, pela disputa constante 
de quem lança primeiro (ou lança melhor) determinada novidade. Ressalte-se, a tempo, 
que não há nada de ilegal nesse tipo de iniciativa: como bem descrito por Reis (2008), 
diferente de espionagem industrial (comportamento antiético ou mesmo criminoso), a 
inteligência competitiva apenas se aproveita da competência que uma organização 
possui de fazer a leitura de informações que estão disponíveis de forma livre e pública a 
respeito dos concorrentes (sites, blogs, redes sociais etc.) – e aí empregar essas 
informações como importantes subsídios de informação para seus próprios processos 
de tomada de decisão em relação à tecnologia e aos negócios. 
 A listagem das possibilidades é virtualmente infinita: qualquer setor de uma 
organização pode ser profundamente transformado, em termos de produtividade, com 
seus processos funcionais digitalizados: suporte de TI, jurídico, controladoria, 
manutenção etc. Aliás, concordando com Ramos et al. (2012), é impossível deixar de 
reconhecer a importância que sistemas informatizados, como os mais modernos 
sistemas de ERP, CRM, GED, entre outros, têm nessas organizações, sendo peças 
centrais do processo de completa digitalização: a tecnologia da informação é a 
responsável por potencializar o valor da informação como insumo produtivo básico das 
 
 
empresas digitais. 
 
2.3 Qual será a próxima revolução industrial? 
 
Ao que tudo indica, ao se considerar o direcionamento das mais diversas plataformas 
tecnológicas da Indústria 4.0, com especial destaque ao que vem se alcançando com a 
tecnologia da informação, é bastante plausível esperar que a Indústria 5.0 tenha, como 
maior característica, trabalho sem envolvimento algum de pessoas. Sem dúvida alguma, 
um acontecimento que merece, sim, ser reconhecido como verdadeira revolução 
industrial. Um inequívoco ponto de singularidade: alcançar-se, finalmente, a dissociação 
definitiva e irreversível entre trabalho e atividade humana. As máquinas, ou coisas (na 
falta de termo que melhor defina a nomenclatura que se dará às próximas gerações de 
artefatos dotados de plena inteligência artificial) farão o labor pelas pessoas. 
 O mundo como se conhece até então será, claro, totalmente remodelado. E 
existem vários indícios que corroboram a ideia de que o ser humano não está condenado 
a trabalhar para sempre. O primeiro deles passa por uma reflexão acerca de um 
insuspeito conceito dos sistemas industriais: a ergonomia. 
 Quando se fala em ergonomia, é comum que as primeiras imagens que venham 
à tona sejam do correto encosto de uma pessoa sentada em uma cadeira, altura da mesa 
em relação às mãos, ângulos recomendados de pernas e braços em posições de 
trabalho em pé ou sentado, ou mesmo aspectos inerentes à iluminação, ventilação, 
equipamentos de proteção individual e afins. Sim, isso diz respeito, obviamente, à 
ergonomia; contudo, esse termo tem uma conotação muito mais ampla: trata-se, enfim, 
do estudo científico das relações entre homem e máquina em um ambiente de trabalho. 
Esse estudo procura promover, fundamentalmente, as condições ideais de segurança e 
de eficiência no modo como homem e máquina interagem mutuamente. 
 A ergonomia se ocupa de otimizar as condições de trabalho das pessoas, 
mediante métodos e técnicas que configurem um melhor desenho industrial (layout das 
instalações). Portanto, uma premissa básica da ergonomia, que vem progressivamente 
moldando as condições de trabalho desde a época dos desproporcionais e agressivos 
ambientes produtivos da Primeira Revolução Industrial, é que a máquina se adapta ao 
 
 
homem – e não o contrário. 
 Nesses termos, todas as características essenciais de um sistema produtivo, 
como capacidade produtiva, carga horária das jornadas de trabalho, prazos de entrega, 
design de ferramentas, especificação dos comandos das máquinas e equipamentos, 
procuram ser cada vez mais compatíveis ao que um ser humano consegue suportar. 
Uma pessoa, como ser biológico, organismo vivo, tem, essencialmente, suas limitações. 
A energia é limitada, bem como a velocidade, o fôlego, a força, a precisão, a resistência, 
a memória, entre tantos outros aspectos. 
 Dessa forma, o que ocorre é que os sistemas de produção se moldam às 
capacidades e limites humanos. Máquinas e ferramentas, é bem verdade, atuam como 
extensões da capacidade humana: com elas, é possível conseguir a maior força, a maior 
precisão, o maior alcance. Mas, é claro que tais artefatos ainda são operados por seres 
humanos, o que ainda delimita a capacidade em vários outros atributos. Por exemplo, 
uma colheitadeira aumenta sobremaneiraa produtividade de uma operação agrícola, 
comparado ao trabalho braçal de uma pessoa. Contudo, não é possível deixar uma 
colheitadeira operando em capacidade máxima, 24 horas por dia, porque a supervisão 
humana necessária não consegue acompanhar essa intensidade. Ou, ao menos, não 
era possível, pois a tendência da automação é, gradativamente, ir dispensando o 
envolvimento humano, para que as máquinas produzam por conta própria. 
 O impacto da inteligência artificial sobre a ergonomia é total: uma vez que as 
máquinas não precisem mais ficar condicionadas aos limites humanos, a produtividade 
alcançará novos patamares. Ao se atingir o momento em que máquinas projetem outras 
máquinas, mais eficientes, a intervenção humana se tornará supérflua. Se o que se 
projeta para o futuro é o cenário em que toda a atividade laboral será autônoma, o que 
já é há algum tempo presente são as não tão tênues evidências de que essa revolução 
já iniciou. 
 No mundo virtual, há que se admitir que a internet funciona da forma como se 
conhece por causa dos mecanismos autônomos que atuam 24 horas por dia, 7 dias por 
semana, na forma dos bots, os robôs virtuais que mantêm toda a estrutura funcional da 
rede mundial de computadores. Esses bots ainda são peças de software programados 
por seres humanos, mas a um passo de se alcançar bots aprimorados por outros bots, 
 
 
com reconhecimento autônomo de novas necessidades e funções a cumprir. É bastante 
razoável esperar que a completa liberdade humana frente ao trabalho se alcance 
primeiramente em terreno virtual, e que, na sequência, a inteligência artificial presente 
na forma da rede de computadores assuma todo o labor do mundo físico. Obviamente, 
braços físicos são necessários para que sistemas artificiais realizem atividades como a 
de um veterinário, de um pintor, de um mecânico ou de um professor. Tal atuação física 
sobre o mundo físico se dará, certamente, com robôs, drones e androides das mais 
variadas formas, na forma de corpo tangível da inteligência artificial, como preconiza 
Singh (2012). 
 Como lembra Van Opstal (2010), um dos princípios fundamentais dessa visão de 
futuro é a Lei de Moore, batizada dessa forma em reconhecimento ao trabalho do 
engenheiro da Intel que postulou que a capacidade dos computadores dobra em um 
período de 1,5 a 2 anos. De fato, acompanhando toda a trajetória histórica da 
computação, desde o tempo das máquinas programáveis à base de cartões perfurados 
(para a leitura dos 0 e 1 de linguagem elementar de programação) até os convencionais 
computadores baseados em microchips de silício, a Lei de Moore se provou válida. 
Várias foram as plataformas tecnológicas que permitiram esse salto exponencial da 
tecnologia da informação: relés, válvulas, transistores, circuitos integrados, etc. Parece 
bastante certo que a inteligência artificial projetada para o futuro não será arquitetada na 
tecnologia atual de microchips de silício, mas em outras plataformas ainda a serem 
definidas pela indústria. 
Uma tecnologia candidata ao posto de próxima geração da ciência da computação 
é o da computação quântica: uma nova estrutura que redefine os elementos mais básicos 
da eletrônica digital (os 0 e 1) a partir da tentativa de reproduzir as propriedades 
quânticas das partículas atômicas, como sobreposição, interferência, o spin de um 
elétron (o lado para o qual ele gira). Na prática, isso significa revolucionar drasticamente 
o clássico modelo de Von Neumann, que estabelece as tradicionais figuras de 
processador de um lado, memória de outro, e barramento de comunicação entre eles a 
partir de um processamento sequencial. Isso significa computadores exponencialmente 
mais poderosos que os mais avançados do paradigma tecnológico atual. Isso é 
importante, porque fornece o aparato essencial para suportar uma inteligência artificial 
 
 
de alto desempenho. 
 Dessa forma, é bem provável que a Lei de Moore continue sendo válida pelas 
próximas décadas, o que resulta em consequências realmente espantosas. Por volta de 
2010, um computador comercial de US$ 1.000,00 já possuía capacidade, em termos de 
cálculos por segundo, equivalente ao cérebro de um pequeno mamífero, como, por 
exemplo, um rato. A projeção é que, em torno de 2025, um computador de mesmos US$ 
1.000,00 já possua capacidade de número de cálculos por segundo similar a um cérebro 
humano. Provavelmente próximo a 2040, pela Lei de Moore, um computador de US$ 
1.000,00 tenha poder de cálculos por segundo superior a todos os bilhões de cérebros 
humanos existentes no planeta. É nessa época que se espera um sistema de inteligência 
artificial realmente à altura do profundo significado que a palavra inteligência representa 
para os seres humanos. 
Obviamente, usar número de cálculos por segundo como único atributo de medida 
de capacidade de uma mente artificial parece ser bastante raso. Há outros elementos 
que distinguem uma mente humana e um sistema artificial. Como explica Buonomano 
(2011), a capacidade de reconhecer padrões é marcante em seres vivos, e é um 
elemento essencial da inteligência humana: uma vez que se aprenda que uma letra A, 
por exemplo, é formada pela junção de determinadas linhas em uma sobreposição 
específica, o cérebro humano já é capaz de entender uma letra A escrita nos mais 
variados tamanhos, fontes, inclinações, cores etc. Isso se dá porque o pensamento de 
associação a partir de padrões é característico da inteligência biológica. Não por acaso, 
os recursos de captcha (letras e números em imagens distorcidas) na internet são 
usados para provar que é uma pessoa que está acessando uma página, e não um robô. 
É, portanto, uma limitação típica da tecnologia computacional atual, mas não 
necessariamente da próxima plataforma tecnológica. Uma vez que se alcance a 
capacidade de sistemas artificiais reconhecerem padrões de forma tão natural quanto 
um ser humano, a inteligência artificial começará a ganhar os contornos do que se projeta 
para as próximas décadas. 
 Relatório do World Economic Forum (2015) revela os resultados de uma pesquisa 
realizada com 800 especialistas e executivos das maiores empresas de tecnologia, sobre 
o que se pode esperar na indústria para um horizonte realmente curto: para eles, entre 
 
 
outras assombrosas projeções, até 2025 será realidade uma cadeira do conselho 
executivo de uma grande corporação ser ocupada não por um dirigente humano, mas 
por uma inteligência artificial. Isso é altamente emblemático: significa que já se terá 
alcançado o estágio em que negócios e empreendimentos serão decididos por máquinas 
– não mais apenas decisões simplórias em ambiente de chão de fábrica, como aprovar 
ou não uma peça. 
 Até chegar esse momento, a fase da transição entre a Indústria 4.0 e a Indústria 
5.0 será caracterizada, paradoxalmente, pela integração homem-máquina em uma 
escala nunca antes vista. Organismos cibernéticos, convergindo sistemas biológicos 
com sistemas artificiais, não são mais peças de ficção científica. Entre as conquistas 
memoráveis dos últimos anos, tetraplégicos recuperaram a capacidade de locomoção 
com exoesqueletos metálicos comandados pelo cérebro humano; a Samsung patenteou 
a primeira webcam integrada a uma lente de contato; e ovários artificiais (por ora, de 
ratos), produzidos em impressora 3D, provaram-se funcionais. Como preconiza a 
ergonomia, é a máquina adaptando-se ao homem: sistemas artificiais (criações da 
humanidade) trazendo melhor qualidade de vida às pessoas. 
 
 
SAIBA MAIS 
 
A transferência de tecnologia e a transferência de inovação 
(BARRETO, 1995, p. 3) 
[...] 
À toda tecnologia, se associa uma considerável quantidade de informação. Esta 
informação, quando assimilada pelo indivíduo, grupo ou sociedade, gera um 
conhecimento que permite a adoção ou a rejeição de uma determinada técnica. 
A adoção de uma tecnologia requer, portanto, a absorção de determinadoconhecimento 
é uma decisão de iniciar, modificar ou aperfeiçoar um produto ou serviço, seu processo 
de produção ou de comercialização. Quando se estabelece essa cumplicidade de 
intenções, um processo de absorção e um processo de decisão, pode-se dizer que se 
efetivou uma inovação em determinada realidade. A realidade reconheceu e aceitou a 
introdução da novidade. A finalidade básica de uma tecnologia e sua adoção é modificar 
uma determinada realidade, aumentando o bem-estar dos indivíduos que nela habitam. 
[...] 
A todo processo que resulta em uma inovação, está associado um sistema de 
informação, sendo que a inovação só é aceita como tal se a informação sobre a 
tecnologia que promove a inovação também for aceita como tal. Todo o processo se 
efetiva na medida em que se efetive uma produção de conhecimento no indivíduo, no 
grupo ou na sociedade. [...] Qualquer movimentação tecnológica que não realize um 
processo de produção de conhecimento não completa a transferência [de tecnologia]. 
 
#SAIBA MAIS# 
 
 
 
 
 
REFLITA 
 
Cenários e tendências do uso de TI 
(MEIRELLES, p. 1, 2011) 
 
[...] 
Uma nova fronteira digital da economia está mudando os participantes, a dinâmica, as 
regras, as exigências de sobrevivência e os parâmetros de sucesso. 
 
O papel da TI nesse cenário, incluindo os Sistemas de Informação, fica cada vez mais 
nítido, estrutural e propício tanto para um processo de inovação sustentada como para 
uma inovação disruptiva provocada pela descoberta de um novo arranjo de negócio 
viabilizado pelo uso inovador da TI. 
 
O alinhamento da TI com os diversos componentes da organização é um importante fator 
chave de sucesso nos negócios da economia digital que atravessamos. 
[...] 
 
#REFLITA# 
 
 
 
 
CONSIDERAÇÕES FINAIS 
 
Prezado(a) aluno(a), 
 
Inegavelmente, novas tecnologias proliferam em quantidade e em força de impacto 
na sociedade. Elas são capitaneadas pela tecnologia da informação, e o ritmo de sua 
difusão não é apenas bastante rápido, mas continuamente acelerado, resultando em 
crescimento exponencial – e convergente entre as mais diversas tecnologias. Como um 
desdobramento prático inequívoco, impõe-se o planejamento estratégico tecnológico 
como agenda obrigatória de organizações de todos os segmentos e portes. 
Para muito além de revolucionar funcionalidades de produtos e qualidade de 
serviços, as novas tecnologias mudam as estruturas sociais, as práticas empresariais e, 
inevitavelmente, os modelos de negócios. Portanto, estabelecer um eficiente processo 
de gestão de tecnologia passa a ser cada vez mais uma competência essencial das 
organizações que tiverem a ambição de serem bem-sucedidas na nova era industrial que 
já se estabeleceu. 
Lord Kelvin, matemático, físico e presidente da Royal Society Britânica, em palestra 
realizada em 1900 para a British Association for the Advancement of Science, 
deslumbrado pelos avanços tecnológicos que o mundo alcançará, afirmou: “agora, não 
há mais nada de novo para ser descoberto”. Se o fato, isoladamente, parece risível, serve 
como um importante alerta para o momento que se vive no presente, diante das 
expectativas futuras mais imediatas. Não parece razoável que o crescimento 
exponencial se mantenha nesse mesmo ritmo para sempre: provavelmente, limitações 
das quais nem se faz ideia atualmente possam afetar esse comportamento. Já se teria 
extrapolado o potencial de novidades tecnológicas? A Quarta Revolução Industrial mal 
começou, a inteligência artificial de fato ainda está para ser atingida, então é com muita 
segurança que se pode afirmar que Lord Kelvin está mais errado do que nunca. 
 
Nos vemos no próximo capítulo! 
 
 
 
LIVRO 
 
 
Título: O Cérebro Imperfeito. 
Autor: Dean Buonomono. 
Editora: Campus. 
Sinopse: Entenda neste livro como as limitações do cérebro condicionam as 
nossas vidas. 
 
 
 
FILME/VÍDEO 
 
 
Título: Como usar as Novas Tecnologias na Educação: sala de aula deve ser 
ambiente de criação 
Ano: 2015 
Sinopse: Da educação infantil ao ensino médio e superior, alunos não devem 
ser usuários de tecnologia, mas criadores. Sala de aula deve ser um ambiente de 
criação. 
Link: https://www.youtube.com/watch?v=Zge9v2jIhRA 
 
 
 
 
 
REFERÊNCIAS 
 
BARRETO, A. A transferência de informação, o desenvolvimento tecnológico e a 
produção de conhecimento. Informare, v. 1, n. 2, p. 2-10, jul./dez. 1995. 
BUONOMANO, D. O cérebro imperfeito: como as limitações do cérebro 
condicionam as nossas vidas. São Paulo: Campus, 2011. 
CHRISTENSEN, C.; RAYNOR, M. The innovator’s solution: creating and sustaining 
successful growth. Boston, MA: Harvard Business Review Press, 2013. 
FENN, J.; RASKINO, M. Mastering the Hype Cycle: how to choose the right 
innovation at the right time. eBook Kindle: Harvard Business Review, 2008. 
MEIRELLES, F. Cenário e tendências do uso de TI. Revista SAP Spectrum, 2011. 
OECD Organization for Economic Co-operation and Development. The measurement 
of scientific and technological activities Oslo manual: guidelines for collecting 
and interpreting innovation data. 3. ed. Paris: OECD Publishing, 2005. 
PORTER, A. Technology foresight: types and methods. International Journal of 
Foresight and Innovation Policy, v. 6, n. 1-3, p. 36-45, 2010. 
RAMOS, E. et al. Gestão estratégica da tecnologia da informação. São Paulo: Ed. 
FGV, 2012. 
REIS, D. Gestão da inovação tecnológica. Curitiba: Manole, 2008. 
SCHWAB, K. A quarta revolução industrial. São Paulo: Edipro, 2016. 
SINGH, S. New mega trends: implications for our future lives. eBook Kindle: 
Basingstoke: Palgrave Macmillan, 2012. 
Top 20 global megatrends and their impact on business, cultures and society. 
San Antonio: Frost & Sullivan, 2014. 
VAN OPSTAL, D. Commentary on Gregory Tassey’s ‘‘Rationales and mechanisms for 
revitalizing US manufacturing R&D strategies’’. The Journal of Technology Transfer, 
n. 35, p. 355-359, 2010. 
WORLD ECONOMIC FORUM. Technology tipping points and social impact report. 
2015 . Disponível em: 
<http://www3.weforum.org/docs/WEF_GAC15_Technological_Tipping_Points_report_2
015.pdf>. Acesso em: 17 out. 2017. 
 
UNIDADE II - INTEGRAÇÃO CONTÍNUA 
Professor Mestre Cleber Semensate 
 
 
Plano de Estudo: 
● TI para pessoas com deficiência. 
● Aplicativos interativos. 
 
 
Objetivos de Aprendizagem: 
● Conhecer o mercado PcD Pessoas com Deficiência. 
● Dominar as tecnologias voltadas às necessidades especiais físicas e mentais. 
● Entender o porquê interagir. 
● Ver quais são os graus de interação. 
● Conhecer um novo DesignThinking. 
 
 
 
 
INTRODUÇÃO 
Prezados alunos(as)! 
 
Se a tecnologia da informação é tão revolucionária no que diz respeito ao 
aprimoramento de todas as demais tecnologias, às novas formas como as organizações 
se estruturam e produzem e às próprias disrupções sociais, entendidas como mudanças 
radicais no comportamento e hábitos das pessoas, é inevitável que a TI sirva de 
plataforma essencial para um sem número de possibilidades referentes ao mundo das 
pessoas com deficiência (PcD). 
Por conceito, tecnologias são conhecimentos aplicados, essencialmente úteis na 
resolução de demandas práticas, problemas, desafios e necessidades que o mundo 
enfrenta. Algumas necessidades são especiais, no que se refere às pessoas com algum 
tipo de deficiência: o mundo convencional não está 100% preparado para atendê-las, 
cabendo ajustes de natureza igualmente especial para melhor acomodar uma distinta 
parcela da população, que é realmente expressiva. Ao fazê-lo, novas tecnologias, 
regidas quase sempre pela tecnologia da informação, cumprem um valioso papel social, 
de devolver a dignidade das pessoas. É assim que um mundo cada vez mais tecnológico 
pode se tornar, efetivamente, um mundo cada vez mais humano. 
A interatividade é um dos atributos da comunicação. E como existem alguns 
diferentes tipos de comunicação,é natural que o entendimento sobre a interatividade 
seja mais amplo do que uma única explicação. 
Especialmente no que diz respeito à tecnologia da informação, os sujeitos 
envolvidos na comunicação podem ser humanos ou máquinas, e normalmente estes são 
os interlocutores entre si. Por isso, a compreensão da interação homem-máquina é 
essencial para discutir o emprego da interatividade nos sistemas informatizados. 
Compreender a complexidade humana em processos de comunicação é um 
grande desafio, até mesmo na perspectiva das máquinas. Por natureza, cada indivíduo 
humano pode ser entendido como potencialmente imprevisível, dadas suas complexas 
dimensões de natureza cultural, ideológica, histórica, política e social. Com as 
tecnologias atuais, ainda é difícil estabelecer parâmetros computacionais de mensuração 
 
com alto grau assertividade e precisão. Por outro lado, o crescente desenvolvimento da 
tecnologia da informação vem melhorando cada vez mais o grau de mútuo entendimento 
na relação entre ser humano e sistemas artificiais. 
 
 Vamos juntos! 
 
 
 
 
 
 
1. TI PARA PESSOAS COM DEFICIÊNCIA 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/maos-digitando-em-um-laptop 
 
1.1 O mercado PcD 
 
O público PcD é numeroso. O atendimento às suas demandas não fica limitado 
apenas a ações filantrópicas e humanitárias, mas também pode ser um importante e 
legítimo mercado a ser explorado pelas organizações empresariais. Não há nada de 
antiético em vender produtos e serviços para esse perfil de consumidor, ou seja, lucrar 
com o atendimento de uma necessidade especial. Afinal, um determinado produto ou 
serviço pode melhorar a qualidade de vida de uma pessoa com deficiência, e isso pode 
ser a base de sustentação do sucesso do modelo de negócio de algumas empresas. 
Empresas existem para atender as necessidades de seu público consumidor: algumas 
organizações podem se especializar nesse segmento específico para operar seus 
negócios. 
 
 Segundo o Relatório Mundial sobre a Deficiência, da World Health Organization 
(2011), por várias décadas estimava-se que a parcela da população com deficiência 
consistia em 10% da população mundial. Contudo, esse número foi atualizado para cerca 
de 15% de todas as pessoas – e parece estar crescendo continuamente. É um aumento 
expressivo, que pode ser explicado por fatores como envelhecimento da população, 
rápida difusão de doenças crônicas (tais como diabetes, doenças cardiovasculares, 
câncer e distúrbios mentais), além do próprio aprimoramento metodológico no que diz 
respeito à precisão com que se pode detectar e mensurar deficiências. Destaque-se, 
ainda, que algumas fontes relacionadas no relatório da World Health Organization (2011) 
chegam mesmo a considerar que existam pelo menos 1 bilhão de pessoas que 
apresentam algum tipo de limitação física e/ou mental, das quais pelo menos 200 milhões 
experimentam sérias limitações funcionais no seu dia a dia. 
 Em todas as partes do mundo, o fato é que as pessoas com deficiência 
apresentam piores perspectivas de saúde, níveis inferiores de escolaridade, participação 
econômica diminuída, o que, inevitavelmente, conduz a taxas de pobreza muito mais 
elevadas, quando se compara à população sem deficiências. Várias explicações 
procuram esclarecer o fenômeno, e uma delas é o entendimento de que as pessoas com 
deficiência enfrentam inúmeras barreiras no acesso a direitos básicos, como saúde, 
educação, emprego, transporte e informação. Essas dificuldades são ainda mais 
exacerbadas em comunidades mais pobres. Portanto, tratar de tecnologias voltadas a 
pessoas com deficiência envolve, necessariamente, discutir inclusão e acessibilidade, 
para que uma vida de conforto, saúde e dignidade seja realidade para todas as pessoas, 
deficientes ou não. 
 A deficiência é inerente à própria condição humana. É certo que quase todas as 
pessoas estarão, temporária ou permanentemente, incapacitadas em algum momento 
da vida. Aquelas que conseguirem alcançar idade mais avançada experimentarão 
crescentes dificuldades para as funções mais básicas do cotidiano. A deficiência é uma 
condição complexa: as medidas e iniciativas tomadas para tentar superar as 
desvantagens associadas à deficiência costumam ser múltiplas e sistêmicas. Elas 
variam de acordo com o contexto, e em muitas situações a resposta e tratamento 
necessários acabam sendo individualizados, caso a caso. 
 
 Segundo a World Health Organization (2011), a Classificação Internacional de 
Funcionalidade, Deficiência e Saúde (CIF) define incapacidade como um termo amplo 
para deficiências, limitações às atividades e restrições à participação social. A 
incapacidade diz respeito aos aspectos negativos da interação entre indivíduos com 
determinadas condições de saúde (tais como paralisia cerebral, síndrome de Down ou 
depressão) e fatores pessoais e ambientais (tais como atitudes negativas, meios de 
transportes e prédios públicos inacessíveis e apoio social limitado). 
 De acordo com as pesquisas conduzidas pela World Health Survey (2011), 
aproximadamente 785 milhões de pessoas (15,6% da população) com 15 anos ou mais 
convivem com alguma forma de deficiência, enquanto a Global Burden of Disease chega 
a estimar algo em torno de 975 milhões de pessoas (19,4% da população). Desse grupo, 
a World Health Survey estima que 110 milhões de pessoas (2,2% da população) 
possuem disfunções graves, enquanto a Global Burden of Disease estima esse número 
em 190 milhões (3,8% da população). É nessa categoria que estão relacionadas 
condições como a tetraplegia, a depressão grave e a cegueira. Somente a Global Burden 
of Disease mensura a deficiência na infância (0 a 14 anos), a qual está estimada em 95 
milhões de crianças (5,1% do total), das quais 13 milhões (0,7% do total) possuem 
formas graves de deficiência. 
 A ocorrência de pessoas com deficiência é heterogênea mundo afora. Os padrões 
de deficiência em um dado país são influenciados por tendências nas condições gerais 
de saúde e nas tendências ambientais, dentre outros fatores – aí incluídos acidentes 
automobilísticos, desastres naturais, conflitos, dieta e abuso de drogas. Reconheça-se 
que perspectivas estereotipadas da deficiência destacam os usuários de cadeira de 
rodas e alguns poucos grupos considerados tradicionais, tais como as pessoas cegas e 
surdas. Contudo, a verdade é que a experiência da deficiência resultante da interação 
entre condições de saúde, fatores pessoais e ambientais varia amplamente. Apesar de 
a deficiência estar relacionada à desvantagens pessoais, nem todas as pessoas com 
deficiência sofrem igualmente essas desvantagens. 
 Mulheres com deficiência sofrem a discriminação por gênero, assim como demais 
situações práticas conhecidas por barreiras incapacitantes. Taxas de matrícula nas 
escolas variam entre as deficiências, sendo que crianças com deficiência física, 
 
geralmente, têm mais acesso à escola do que aquelas que sofrem de deficiência 
intelectual ou sensorial. Os mais excluídos do mercado de trabalho, usualmente, são 
aqueles com distúrbios de saúde mental ou incapacidades intelectuais. As pessoas com 
deficiência grave sofrem frequentemente uma maior desvantagem, em uma proporção 
direta entre o grau de disfunção que possuem e a dificuldade que enfrentam. 
A deficiência afeta, ainda, as populações vulneráveis de uma forma 
desproporcional. 
As pessoas com baixa renda, que estão desempregadas (ou subempregadas) ou 
possuem baixa qualificação profissional estão expostas a um risco muito mais alto de 
deficiência. Crianças de lares mais pobres e aquelas originárias de grupos étnicos 
minoritários estão expostas a um risco significativamente maior de deficiência do que 
outras crianças. 
 O ambiente tem um papel bastante importante no que tange a facilitar ou a 
restringir a participação social das pessoas com deficiência. O relatório da World HealthOrganization (2011) documenta diversas evidências sobre as barreiras incapacitantes, 
incluindo, principalmente: 
 
● Políticas e padrões inadequados – a elaboração de políticas públicas nem sempre leva em 
consideração as necessidades das pessoas com algum tipo de deficiência. Ou, então, as políticas 
e os padrões existentes simplesmente não são cumpridos. Por exemplo, na área das políticas de 
educação inclusiva, uma pesquisa envolvendo 28 países participantes da Education for All Fast 
Track Initiative Partnership descobriu que 18 desses países (mais de 64% deles) disponibilizavam 
poucas informações sobre suas estratégias de inclusão das crianças com deficiência nas escolas, 
ou não faziam referência alguma à deficiência ou à inclusão. As falhas mais comuns nas políticas 
educacionais incluem a falta de incentivos fiscais, dentre outros tipos de incentivos, para que as 
crianças com deficiência frequentem as escolas, assim como a falta de proteção social e serviços 
de apoio para crianças com deficiência e suas famílias. 
● Atitudes negativas – crenças e preconceitos servem como barreiras à educação, ao emprego, aos 
serviços de saúde e à participação social. Por exemplo, determinadas atitudes de professores, 
administradores de escolas, outras crianças e até mesmo de membros da família afetam a inclusão 
de crianças com deficiência nas escolas regulares. Há um juízo equivocado dos empregadores de 
que as pessoas com deficiência são menos produtivas do que as suas contrapartes sem 
deficiência, e a ignorância a respeito dos ajustes disponíveis para os ambientes de trabalho 
acabam por limitar as oportunidades de emprego. 
● Falhas na oferta de serviços – pessoas com deficiência são particularmente vulneráveis a falhas 
em serviços tais como saúde, reabilitação, apoio e assistência. Pesquisas realizadas na Índia 
comprovaram que após o fator custo como barreira, a falta de serviços na região era a segunda 
razão mais frequente para que as pessoas com deficiência não utilizassem as instalações 
médicas. 
● Problemas na prestação de serviços – uma má gestão dos serviços e funcionários mal preparados 
 
afetam a qualidade, acessibilidade e adequação dos serviços às pessoas com deficiência. Dados 
de 51 países da World Health Survey revelaram que pessoas com deficiência são duas vezes mais 
propensas a relatar inadequações nas competências dos prestadores de serviços de saúde no 
atendimento às suas necessidades, quatro vezes mais propensas a serem maltratadas e quase 
três vezes mais propensas a ter serviços necessários de saúde negados. Muitos trabalhadores de 
apoio individual são mal pagos e possuem treinamento inadequado (ou nenhum treinamento). 
● Financiamento inadequado – não raro, recursos alocados na implementação de políticas e planos 
são inadequados. A falta de financiamento efetivo é um grande obstáculo aos serviços 
sustentáveis ao longo de todos os níveis de renda. Por exemplo, em países de alta renda, entre 
20% e 40% das pessoas com deficiência geralmente não têm suas necessidades atendidas no 
que tange a assistência em atividades diárias. Em muitos países de renda baixa e média, os 
governos não podem proporcionar serviços adequados, além de que os prestadores comerciais 
de serviços estão indisponíveis ou não são custeáveis pela maior parte dos lares. As análises da 
World Health Survey demonstraram, ainda, que as pessoas com deficiência possuem maior 
dificuldade do que pessoas sem deficiência para obter isenções ou descontos nos custos de 
serviços de saúde. 
● Falta de acessibilidade – muitos ambientes construídos (incluindo instalações públicas), sistemas 
de transporte e comunicação não são nada acessíveis. A falta de acesso ao transporte é uma 
razão frequente pela qual as pessoas com deficiência são desencorajadas a procurar trabalho ou 
são impedidas de acessar os serviços de saúde. Pouca informação está disponível em formatos 
acessíveis, e muitas necessidades de comunicação das pessoas com deficiência são ignoradas. 
Pessoas surdas geralmente enfrentam problemas para acessar serviços de interpretação de 
línguas de sinais, pois muitos países não têm intérpretes qualificados. Pessoas com deficiência 
apresentam taxas significativamente inferiores no que diz respeito a utilizar tecnologias da 
informação e comunicação, comparadas às pessoas sem deficiência. Em alguns casos, o público 
PcD pode ser completamente impedido de acessar mesmo os produtos e serviços mais básicos, 
como telefone, TV e internet. 
● Falta de consultas e envolvimento – muitas pessoas com deficiência estão excluídas do processo 
de tomada de decisões em assuntos diretamente relacionados às suas próprias vidas como, por 
exemplo, quando pessoas com deficiência não têm direito à escolha e ao controle sobre a forma 
como o apoio lhes é oferecido em suas residências. 
● Falta de dados e evidências – uma falta de dados rigorosos e comparáveis sobre a deficiência e 
evidências sobre programas que funcionam pode prejudicar o entendimento e a ação. Conhecer 
os números das pessoas com deficiência e suas circunstâncias pode melhorar os esforços para a 
remoção das barreiras incapacitantes e oferecer serviços que permitam que as pessoas com 
deficiência participem. Por exemplo, precisam ser desenvolvidas melhores condições sobre o 
ambiente e seu impacto nos diferentes aspectos da deficiência para facilitar a identificação de 
intervenções ambientais eficientes em custo. 
 
Portanto, como alertam Miesenberger et al. (2004), tecnologias como a tecnologia 
da informação, direcionadas às soluções das demandas das pessoas com deficiência, 
atacam não apenas a deficiência em si que a pessoa apresenta, mas também o contexto 
social que torna aquela condição desfavorável à dignidade humana. 
 
1.2 Tecnologias voltadas às necessidades especiais físicas 
 
 
Para a maioria das pessoas, sentar em frente a um computador para trabalho ou 
entretenimento é uma tarefa bastante simples e prática. Mas o mesmo não pode ser dito 
em relação a usuários cegos, amputados e com várias outras necessidades especiais 
de ordem física. Miesenberger et al. (2004) entendem que, para essas pessoas, o uso 
de um computador convencional é, no mínimo, um exercício de frustração. 
Felizmente, toda uma nova geração de gadgets, pequenas ferramentas que se 
agregam a um ambiente operativo maior, tanto na forma de hardware quanto software, 
vem tornando mais fácil para as pessoas com deficiência utilizar computadores, 
integrando-se, assim, ao mundo digital. Tais ferramentas possibilitam às pessoas com 
deficiência interagir melhor com os outros colegas de trabalho (com ou sem deficiência) 
e, enfim, fazer o trabalho que precisa ser feito sem enroscar nos obstáculos que as 
tecnologias mais antigas (tradicionais) tinham imposto. Já há algum tempo, tornou-se 
realidade, por exemplo, um contador cego poder programar o software de leitura de tela 
para ler dados de uma planilha em voz alta para ele, e um programador tetraplégico ou 
com outro tipo de impedimento manual poder escrever seus códigos de programação, 
controlando seu computador apenas com o movimento sutil de seus músculos do 
pescoço. 
 A TI inclusiva se fundamenta, essencialmente, no fato de que um PC é um 
dispositivo de computação geral, adaptável a diferentes formas de entrada e saída. Para 
o computador, não faz a mínima diferença, por exemplo, se o usuário está controlando 
o cursor na tela com seus pés ou movimentos oculares, em vez de um mouse e teclado 
tradicionais. 
Como destaca Ramos et al. (2012), são diversos os produtos de acessibilidade à 
informática que ajudam os deficientes a tirar a melhor experiência possível do mundo da 
computação. Esses dispositivos usam uma variedade de tecnologias recentes, estando 
disponíveis comercialmente em uma ampla faixa de valores: alguns custam milhões de 
dólares, outros são totalmente gratuitos. 
 A tecnologia de mensagens muscularesé uma dessas maravilhas tecnológicas 
que pareceriam muito improváveis de existir há pouco tempo. Projetado para as pessoas 
que possuem membros amputados, paralisados ou com qualquer outro tipo de 
 
dificuldade funcional, o sistema oferece a grande conveniência de possibilitar o uso do 
computador sem que o usuário tenha de recorrer a aparatos mecânicos volumosos e 
pesados. Os produtos com essa tecnologia substituem o teclado e o mouse tradicionais 
por um pequeno dispositivo instalado diretamente na pele do usuário. 
 Essa é a chamada tecnologia eletromiográfica, que serve para detectar, amplificar 
e transmitir os pequenos impulsos elétricos produzidos pelo organismo humano, que são 
enviados do cérebro para o músculo. Polivalente, esse recurso funciona com perfeição 
em muitas áreas diferentes do corpo humano, incluindo o pescoço e o rosto, o que é 
bastante importante especialmente no caso dos tetraplégicos. Quem não pode usar 
normalmente os pés e as mãos, com essa tecnologia, pode contar com as alternativas 
de dar uma piscadela ou até mesmo sorrir diante da webcam para que isso seja 
processado como um click ou uma tecla pressionada. 
 Por meio dessa tecnologia, um eletrodo (descartável) adere à pele da pessoa. 
Normalmente, um pequeno transmissor bluetooth fica posicionado na parte mais alta, 
como pescoço ou testa do usuário. No computador, um software específico faz o trabalho 
de interpretar a entrada proporcionada pelo usuário e convertê-la em comandos 
reconhecíveis pelo sistema operacional. Existe calibragem para que diferentes perfis de 
usuários consigam operar o sistema, e assim, dispor de uma experiência normal de uso 
de computador, como abrir aplicativos, navegar na internet e, claro, poder digitar textos 
à vontade. Muitos fabricantes desse tipo de sistema oferecem um período grátis de 
experimentação, como, por exemplo, algumas semanas de utilização sem compromisso 
(empréstimo), de forma a deixar a pessoa mais segura de realizar o investimento nesse 
tipo de solução. 
 Existe também a tecnologia de controle por movimentação ocular, útil em casos 
ainda mais graves de paralisia, nesse caso, um computador é operado pela simples 
movimentação dos olhos do usuário. Normalmente, os equipamentos envolvidos adotam 
uma câmera infravermelha de alta precisão, que é montada atrás de um monitor extra 
(uma tela de apoio, que mostra símbolos de comandos especiais), dispondo ainda de 
uma pequena unidade externa de processamento que é responsável por traduzir a 
direção do olhar da pessoa que opera o computador em uma ação específica na tela. 
 Assim, com essa tecnologia, um computador é operado com dois monitores (lado 
 
a lado): um deles é o monitor convencional, e o outro é o monitor de leitura dos 
movimentos oculares do usuário. Após a devida calibragem para se adaptar a cada 
indivíduo com deficiência que acesse esse sistema, tudo o que o usuário precisa fazer é 
olhar diretamente para o monitor de apoio e realizar seus comandos. Esse monitor 
especial apresenta, em sua tela, o desenho de um teclado, os botões de um mouse, um 
sintetizador de voz (dispondo de uma série de frases pré-programadas) e até mesmo 
botões especiais para funções como ligar luzes, acionar dispositivos (como impressora 
e scanner), entre outros. O funcionamento do sistema se baseia, portanto, em 
reconhecer o local específico da tela do monitor especial que o usuário está olhando, 
processando um pressionar de tecla ou click de mouse quando o usuário permanece 
olhando para aquele ponto específico por um determinado tempo. No exterior, é comum 
encontrar planos de saúde que subsidiam parte do investimento no equipamento, por ele 
ter um custo significativo (usualmente, custa alguns milhares de dólares). 
 A tecnologia conhecida por sip and puff (algo como “sorver e assoprar”) é outra 
interessante possibilidade para pessoas que podem utilizar a boca, bochechas, língua 
ou queixo para controlar o cursor na tela por meio de um joystick especial. Este é oco 
(um cano), por razões especiais: soprando ou sorvendo ar, o sistema reconhece 
comandos específicos. Essa combinação de ar entrando e saindo é parametrizável, de 
tal forma que, muito além de servir de click de mouse, a função permite, com 
combinações específicas, entrar letras, números e pontuações. Em alguns 
equipamentos, os fabricantes programam até mesmo o reconhecimento de código 
Morse: sorver ar significa ponto, e assoprar é associado a traços, por exemplo. 
 No caso da tecnologia de detecção de movimentos da cabeça (head-motion 
detectors), um pequeno scanner de leitura tridimensional no topo do monitor (que bem 
poderia ser confundido com uma webcam, dada sua aparência típica) acompanha um 
ponto de referência na cabeça do usuário. Esse ponto, na forma de um adesivo especial 
(parecido com o que é usado na indústria cinematográfica para que atores reais 
produzam os efeitos de movimento de criaturas criadas em ambiente digital), pode ser 
fixado na testa do usuário, ou mesmo em óculos, chapéu ou headset de microfone. 
Conforme a cabeça da pessoa se movimenta, de um lado para outro, para frente e para 
trás, movimento circular etc., os comandos são traduzidos, por software específico, para 
 
instruções interpretáveis pelo computador. Esses sistemas são usualmente encontrados 
em preços mais acessíveis: para compensar, apesar do recurso de calibragem, não 
costumam ter tanta precisão quanto as tecnologias descritas anteriormente. 
 A tecnologia de computador operado por luz é bastante inovadora: um dispositivo 
que dispara um feixe visível de raio laser é acoplado na cabeça do usuário, que dispara 
essa luz, simplesmente com o movimento da cabeça, contra um teclado especial, que 
reconhece o teclar (e mesmo o clicar de um mouse) conforme a luz incide nas teclas 
especiais desse dispositivo (normalmente, fixado logo abaixo do monitor do 
computador). 
 Os mouses no hands (sem as mãos) são projetados para quem, apesar de não 
ter os movimentos manuais disponíveis, tem os pés funcionais: são mouses em forma 
de pedais. Normalmente são empregados dois pedais, sendo um para controlar o 
movimento, e outro apenas para os clicks (funções botão direito/botão esquerdo). São 
dispositivos bastante sensíveis, com pedais em forma ovalada, capazes de perceber 
movimentos em 360º, inclusive com sensibilidade para variações de pressão aplicada. 
 Para aqueles usuários com dificuldades de visão, mas que ainda enxergam, as 
soluções, muitas vezes, não precisam ser altamente complexas (e caras). Um exemplo 
é o caso dos teclados com teclas grandes. Trata-se, essencialmente, de um teclado de 
funcionalidade normal, compatível com qualquer computador, porém com teclas que são 
quatro vezes maiores que o tamanho típico que a indústria oferece. Esses teclados são 
oferecidos, inclusive, com a possibilidade de teclas de várias cores (para, por exemplo, 
distinguir mais facilmente vogais e consoantes), além de oferecer a opção de layout entre 
o tradicional padrão QWERTY ou o ABC. 
 Ainda quanto aos usuários com necessidades especiais no que diz respeito à 
visão, como aqueles que sofrem de degeneração macular, existem várias opções de 
softwares lupa/ leitor. Esses são programas que se sobrepõem ao sistema operacional 
ou a qualquer programa sendo executado, oferecendo possibilidade de ampliação de 
determinada região da tela em escalas bem amplas (por exemplo, aumentar 32x uma 
imagem). Além disso, há o recurso de leitura do que está sendo mostrado na tela, 
fazendo com que o usuário escute a informação por um sintetizador de voz incorporado 
ao programa. Além das diversas alternativas oferecidas no mercado, o próprio Windows 
 
já dispõe, há muito tempo, de seu próprio recurso de acessibilidade com as funções de 
lupa e leitor. No sistema operacional da Microsoft, o usuário pode configurar se deseja 
deixar acionada ou não a função de narrador cada vezque o Windows carregar, se essa 
função deve ser acionada automaticamente para cada programa aberto, e há ainda um 
alto nível de personalização no tipo de voz que o usuário escutará: estão disponíveis 
diferentes vozes, entre masculinas e femininas, inclusive com controle de velocidade e 
entonação das palavras. 
 Hardware de apoio, teclados braille estão disponíveis para utilização não apenas 
com PC (Windows), mas também com smartphones em geral. Braille é o tradicional 
sistema de escrita tátil, que é largamente adotado por pessoas cegas ou com baixa visão. 
Esse é um processo de escrita e leitura que se baseia em 64 símbolos, todos em relevo, 
resultantes da combinação de até seis pontos dispostos em duas colunas de três pontos 
cada. É possível fazer a representação tanto de letras como algarismos e sinais de 
pontuação. A leitura é feita da esquerda para a direita, ao toque de uma ou duas mãos 
ao mesmo tempo. Quando não conectados diretamente a um computador (por exemplo, 
no traslado de ônibus de um local ao outro, como de casa para o trabalho), alguns 
teclados braille funcionam, ainda, como cadernos eletrônicos de registro de notas, 
compromissos e contatos: a pessoa digita, a informação fica armazenada e, 
posteriormente, é transferida ao computador. Alguns fabricantes desses sistemas 
chegam a incorporar, também, um gravador de voz, para anotações orais. 
 De fato, nem sempre a tecnologia da informação fica restrita apenas ao momento 
em que uma pessoa está sentada em frente a um microcomputador. No trabalho do dia 
a dia, muitas atividades pressupõem a leitura de documentos físicos, como memorandos, 
receitas e manuais. Por isso, existem também diversas opções de leitores portáteis de 
documentos, no formato de canetas eletrônicas, que funcionam como um scanner: a 
pessoa vai passando a caneta, linha por linha no documento em papel, o leitor reconhece 
as palavras e lê (voz sintetizada) para o usuário. O sistema conta com recurso de salvar 
até algumas centenas de páginas, arquivos digitais que podem ser depois transpostos 
para o computador para edição ou armazenamento. Alguns apps de smartphone também 
estão disponíveis para cumprir a mesma função. 
 Finalmente, no que diz respeito às pessoas com deficiências auditivas, o fato 
 
parece não ser um grande impeditivo para usar computadores; contudo, é um obstáculo 
relevante quando se trabalha em um escritório e não se consegue entender claramente 
o que os colegas estão falando. Apps de filtro de som ambiente são uma excelente 
solução para esse quadro: a pessoa coloca um fone de ouvido e o sistema, no seu 
celular, se ocupa de filtrar o som do local de trabalho, reduzindo automaticamente a 
intensidade dos ruídos e amplificando as palavras das conversas do entorno. O sistema 
permite, além das habituais funções de calibragem para nivelar o poder de filtragem dos 
sons, ainda recuperar os últimos segundos das conversas do ambiente, quando o 
usuário não tiver entendido o que for dito. Ou seja, além do filtro, o app atua como um 
gravador permanente dos sons, mantendo arquivado, de forma dinâmica, sempre os 
últimos segundos dos sons gravados para uma eventual necessidade do seu usuário. 
 Por fim, mas especialmente importante, reconheça-se o papel fundamental da 
tecnologia da informação para a capacidade empreendedora do público PcD. A 
transformação digital das organizações e dos negócios possibilita, cada vez mais, que 
negócios digitais sejam estabelecidos, e principalmente no que diz respeito a micro e 
pequenos empreendimentos virtuais, o ambiente de trabalho em geral é muito mais 
favorável, se comparado ao ambiente convencional de trabalho de uma indústria ou um 
comércio, por exemplo. Existem diversas oportunidades de negócios virtuais que podem 
comportar empreendedores PcD, desde administração de e-commerce até consultorias 
realizadas à distância, trabalhos que podem ser exercidos em regime de home office4, 
com evidente benefício logístico para o dia a dia desse público. 
 
 
1.3 Tecnologias voltadas às necessidades especiais mentais 
 
Provavelmente, o universo de pessoas com algum tipo de desordem ou disfunção 
mental seja bem maior do que se poderia supor: muitas pessoas de aparente 
normalidade sofrem, muitas vezes em silêncio, com esse tipo de ocorrência. Como 
verificado em Davies, Richard e Glazebrook (2014), não raro, o que se vê é que as 
palavras transtorno, distúrbio e doença costumam ser associados a termos como mental, 
psíquico e psiquiátrico, isso para descrever qualquer tipo de anormalidade, sofrimento 
ou comprometimento de ordem psicológica e/ou mental. Os transtornos mentais são um 
 
sério campo de investigação interdisciplinar, requisitando competências especializas tais 
como a psicologia, a psiquiatria e a neurologia. 
 Para Cavanagh e Shapiro (2004), nos campos da psiquiatria e em psicologia, os 
termos que se prefere adotar são transtornos, perturbações, disfunções ou distúrbios 
psíquicos, evitando o uso da palavra doença: isso se justifica porque, mesmo com o 
avanço do conhecimento científico na área, apenas poucos quadros clínicos de natureza 
mental apresentam todas as características de uma doença no exato sentido do conceito 
– isto é, a patologia, o conhecimento exato dos mecanismos envolvidos e, 
principalmente, de suas causas explícitas. Quando se fala em transtorno, a liberdade 
conceitual é maior, abrangendo qualquer tipo de comportamento diferente do habitual ou 
do considerado “normal”. Por esse alargamento conceitual, é plausível que muito mais 
pessoas possam ser incluídas no grupo da população que é classificado como pessoas 
com deficiência. 
 Como apontado pelo relatório da World Health Organization (2011), em geral, os 
deficientes mentais são um muito mais propensos à exclusão social do que os deficientes 
físicos. A convivência social, inclusive em ambiente de trabalho, é muito mais 
desafiadora. Por questões de segurança e de qualidade de vida, as pessoas com 
transtornos mentais demandam um acompanhamento especializado de saúde muito 
mais intenso e frequente (muitas vezes, vitalício). Portanto, há que se reconhecer que 
um dos maiores empregos da tecnologia da informação junto ao público PcD de ordem 
mental é o campo clínico: ajudar o tratamento desse grupo de pessoas. 
Entre os fenômenos mais comuns, ansiedade e depressão, e até mesmo 
síndrome do pânico, são ocorrências corriqueiras em ambiente acadêmico 
(principalmente com estudantes universitários) e profissional (especialmente nas 
organizações cujo ambiente de negócio é de alta competitividade e alto stress). O 
desempenho dessas pessoas costuma cair drasticamente, às vezes repentinamente, e 
a qualidade da interação social também se deteriora. Muitas vezes, ocorre de ser um 
sofrimento solitário, em que a pessoa tem dificuldade no autodiagnóstico, ou reluta em 
admitir publicamente e procurar ajuda especializada, que é sempre necessária. Quando 
muito, essas pessoas procuram algum tipo de apoio informal (como junto a um grupo de 
amigos), em vez de uma solução profissional. 
 
 Entretanto, em ambiente acadêmico e profissional, é muito comum a 
disponibilidade de uma estrutura informatizada. Computadores e redes de TI são 
ferramentas habituais de trabalho. Com os smartphones, os recursos de TI acompanham 
fisicamente as pessoas por qualquer lugar que estas transitem, praticamente 24 horas 
por dia. Por isso, é importante aproveitar essa disponibilidade digital para intervenções 
de ordem psicológica: o tratamento de saúde pode ser complementado, e potencializado, 
de uma forma bastante conveniente, que inclui possibilidade de anonimato e privacidade 
de acesso. 
 A tecnologia da informação vai ampliando os canais dos serviços de apoio e de 
tratamento de saúde mental, e isto é importante porque potencializa o universo de 
pessoas alcançável: quanto mais alternativas de acesso, mais pessoas beneficiadas,essa é a lógica envolvida. Por exemplo, tome-se como um estudo de caso o tradicional 
e esplêndido CVV. 
Nos primórdios de sua operação, o CVV dispunha de atendimento presencial e 
por telefone (atualmente, o número 141, de atendimento 24 horas). Reconheça-se que, 
à época, oferecer o canal de atendimento por telefone já era um legítimo uso da 
tecnologia da informação, ampliando em muito o público potencialmente beneficiado. 
Muito mais pessoas procuram o serviço por telefone, pela comodidade, 
conveniência e discrição proporcionados, do que a visita presencial até uma unidade do 
CVV. Contudo, aproveitando as novas tecnologias de TI, atualmente o CVV oferece uma 
ampla rede de canais de atendimento, o que só foi possível alcançar graças aos avanços 
no mundo digital: pessoas podem entrar em contato com o CVV também por chat 
eletrônico no website da organização, por Skype e por e-mail. No website da CVV, 
também estão concentradas diversas informações úteis para pessoas angustiadas por 
depressão, dependência química ou sentimentos suicidas, com links de várias outras 
organizações de apoio, notícias gerais e, em especial, um blog especializado, com 
atualização permanente, com abordagens temáticas especialmente selecionadas para 
amparo ao seu público-alvo. Portanto, utilizando as novas possibilidades de tecnologia 
da informação, essa organização consegue atingir números bastante expressivos, como 
o de contabilizar mais de 1 milhão de atendimentos anuais, por meio de 
aproximadamente 2.000 voluntários em 18 estados brasileiros (mais o Distrito Federal). 
 
Como destaque mais recente, e mais um exemplo das benesses proporcionadas 
pela tecnologia da informação (neste caso, PABX virtual), em 2015 iniciou-se o 
atendimento pelo número 188, que é o primeiro telefone sem custo de ligação para esse 
tipo de serviço. A operação em fase de testes iniciou no Rio Grande do Sul, como parte 
do plano de cobrir, gradativamente, todo o Brasil. 
 Para alguns distúrbios mentais, há um maior conforto da pessoa se ela perceber 
que é possível um contato pessoal mínimo (ou mesmo, inexistente). Por isso, a 
conveniência de abordagens por softwares e aplicações web, que potencializam o maior 
engajamento do próprio indivíduo em buscar a ajuda impessoal e – mais importante – 
garantir a continuidade das intervenções. 
 Nesse quesito, os apps para smartphone fornecem grande conveniência, que é 
fácil de evidenciar: ao se analisar as inúmeras opções de aplicativos voltados à temática 
da saúde mental, em lojas virtuais como o Google Play, a leitura dos comentários das 
pessoas que classificam os produtos com 1 a 5 estrelas mostra como é importante para 
esses usuários uma plataforma anônima, mas que seja útil para o tipo de informação ou 
apoio que necessitam. Os administradores (fabricantes) desses softwares possuem, 
ainda, uma informação valiosa em mãos: mesmo de modo anônimo, dispõe de relatórios 
em que é possível estratificar perfis demográficos das pessoas que baixam o app (idade, 
região geográfica, sexo etc.), além do tipo de transtorno que mais se procura. Como 
informação bastante valiosa, seria apreciável que o próprio Poder Público tivesse acesso 
a esses dados estratificados, o que poderia resultar na proposição de políticas públicas 
e de saúde mais adequadas às reais necessidades da população. 
 No que diz respeito ao público autista, a tecnologia da informação tem seu papel 
facilitador para melhor inclusão social dessas pessoas. Autismo é a condição conhecida 
pela qual a pessoa, desde criança, fica impossibilitada de desenvolver relações sociais 
normais, por causa do típico comportamento compulsivo e ritualista. Assim, de forma 
indireta, como uma consequência da dificuldade de interação com o ambiente, o autista 
normalmente apresenta grandes dificuldades em desenvolver um padrão de inteligência 
normal. Como curiosidade, os sinais de autismo geralmente aparecem entre o primeiro 
e terceiro ano de idade, sendo que esse transtorno é duas a quatro vezes mais frequente 
em meninos do que em meninas. 
 
 A tecnologia ajuda quando se reconhecem os obstáculos práticos que o autista 
enfrenta. No geral, uma criança autista prefere estar só. Ela não procura estabelecer 
relacionamento pessoal mais íntimo: evita abraços, se evade de contato olho no olho, 
fica muito incomodada com mudanças (como objetos de uso corriqueiro fora do local 
habitual), sendo excessivamente presa a objetos familiares, repetindo continuamente 
certos atos e rituais. Ao se falar com uma criança autista, ela frequentemente tem 
dificuldade em entender o que foi dito. Como o autismo não é uma característica 
estritamente delineada (tanto que se usa o termo transtorno de espectro autista, 
admitindo vários graus do comportamento anômalo), a maioria das crianças nessa 
condição possui desenvolvimento intelectual desigual, como reconhecem Miesenberger 
et al. (2004). 
Naturalmente, na infância, a etapa de inclusão social mais importante diz respeito 
à inclusão escolar. Embora a Legislação Federal do Brasil garanta o direito de autistas 
serem matriculados em escolas regulares, na prática, muito pouca preparação essas 
instituições possuem para melhor acomodar o aluno especial. Por isso, a tecnologia da 
informação é útil, tanto como facilitadora de mais canais de treinamento e capacitação 
de professores, pedagogos e gestores educacionais (por exemplo, em canais 
especializados do YouTube e sites dedicados ao tema), como fornecedora de artefatos 
(hardware e software) adequados para utilização por alunos especiais. Por exemplo, o 
visual habitual de uma sessão aberta de Windows em um computador, já tão corriqueiro 
para as pessoas sem o transtorno, é particularmente agressivo para um autista: várias 
janelas abertas, vários ícones de softwares distintos visualizados simultaneamente, 
trazem grande perturbação para essa pessoa. Aplicativos e sistemas operacionais 
elaborados especialmente para o público autista trazem uma visualização muito mais 
restrita de comandos e opções. Como qualquer criança, o que se vê, em geral, é uma 
empolgação muito maior para a atividade de participar de uma aula quando recursos de 
informática estão disponíveis – por isso, a adaptação de algumas condições pode fazer 
com que autistas tenham um bom rendimento escolar, quando as aulas expositivas de 
conteúdo são mescladas com experiências multimídia que os computadores fornecem. 
Para Davies e Hastings (2003), autistas respondem melhor a estímulos visuais, e isso 
precisa ser considerado no planejamento didático: a TI facilita bastante esse tipo de 
 
estímulo. 
 Muito do papel da tecnologia da informação no que diz respeito às contribuições 
à saúde mental das pessoas passa pelo segundo site mais popular do mundo (atrás 
apenas do Google.com): o YouTube. Essa plataforma de vídeos, fundada em 2005, 
transformou-se em um colossal repositório de vídeos de todas as natureza e utilidade 
possíveis. A concentração desse infindável material em um único acesso (a página do 
YouTube, a sua ferramenta de busca) é uma das razões de seu inquestionável sucesso 
global: dados do início de 2017 mostravam que mais de 400 horas de conteúdo é 
adicionado, por upload, a cada minuto, e mais de 1 bilhão de horas de conteúdo é 
assistido por dia. 
 No que tange ao conteúdo voltado às questões de saúde mental, encontram-se 
desde vídeos com imagens e sons específicos para relaxamento, concentração, 
tratamento de insônia e outros, até reportagens e cursos tratando dos distúrbios mentais 
e respectivos tratamentos, muito desse material disponível em canais especializados e 
com embasamento científico. Trata-se de uma fonte indispensável, portanto, a ser 
avaliada. 
 Por fim, pensando no futuro de ferramentas como a acessibilidade incorporada no 
Windows, convém que estas se dediquem também às deficiências e perturbações 
mentais, tão bem como já o fazem para as deficiênciasfísicas. Por exemplo, no sistema 
operacional da Microsoft, um pressionar mais demorado de uma tecla reporta ao 
Windows que talvez aquele usuário tenha alguma deficiência, abrindo a janela específica 
que permite configurar e calibrar algumas opções de acessibilidade. De modo análogo, 
parece ser bastante plausível que o sistema (ou softwares/apps acessórios) possa 
monitorar o estado mental do usuário, seja em uma condição momentânea ou uma 
patologia mais definitiva, pela agressividade com que teclas sejam pressionadas, 
frequência de textos sem sentido que sejam digitados (como 
“fkfjleçwjflkewfrlkçwefçklewçlkfjlkfelk”) e até mesmo sites que sejam acessados e 
palavras-chave mais buscadas – e respostas à altura serem disparadas pelo sistema 
(como chamar serviço de emergência, desligar o acesso ao computador por algum tempo 
e outras medidas afins). A despeito da inevitável discussão sobre privacidade digital que 
isso possa despertar, forçosamente a integridade e a preservação da vida humana são 
 
aspectos mais importantes a respeitar. 
 
 
 
 
 
2. APLICATIVOS INTERATIVOS 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/homem-e-seu-celular 
 
2.1 Por que interagir? 
 
Diversos são os campos que trabalham a interatividade, alguns exemplos são a 
ciência da informação, a ciência da computação, a interação homem-computador, 
comunicação e desenho industrial. Não há um consenso entre esses campos quanto ao 
significado do termo interatividade. Mesmo assim, todos eles estão relacionados ao 
relacionamento de sistemas artificiais, como softwares e hardwares, com uma interface 
humana. 
 Um dos diversos entendimentos acerca da interatividade é a visão contingencial, 
para a qual, conforme Sedig et al. (2012), três níveis se aplicam: 
 
1. não interativo, que é quando uma mensagem não tem relacionamento algum com 
 
mensagens anteriores; 
2. reativo, situação em que uma mensagem se relaciona única e exclusivamente a 
uma mensagem imediatamente anterior; 
3. interativo, quando uma mensagem é relacionada a um razoável número de 
mensagens anteriores, incluindo-se também a própria relação existente entre 
essas mensagens anteriores. 
 
Como explica Rogers et al. (2013), a interatividade é constituída por uma interface 
simbólica entre o seu referencial, a funcionalidade objetiva e o sujeito. Alguns 
pesquisadores, como Liang et al. (2010), Sedig et al. (2012), Parsons e Sedig (2014), 
procuram estabelecer uma clara distinção entre os termos interação e interatividade. 
Como o sufixo -idade se emprega para a formação de expressões que denotam uma 
qualidade ou uma determinada condição, tais pesquisadores atribuem, como significado 
de interatividade, a qualidade ou condição da interação. Assim, o que se procura 
ressaltar é que a distinção entre as duas palavras (interação e interatividade) é 
importante, uma vez que a interação pode se fazer presente em qualquer dada condição, 
mas a qualidade dessa interação pode variar, de baixa a alta. 
 Para o estudo da interação, o mais fundamental é, evidentemente, procurar o 
entendimento sobre a comunicação entre interlocutores humanos. Afinal, a comunicação 
interativa envolve essencialmente duas situações: interatividade entre pessoas e 
interatividade entre pessoas e computadores. No campo do relacionamento social, a 
interatividade entre as pessoas é uma característica inerente à comunicação humana. 
 Por sua vez, a comunicação entre pessoas e computadores diz respeito ao modo 
como usuários acessam e utilizam as chamadas novas mídias, que, muito além do 
computador por si mesmo, envolve websites, apps de dispositivos móveis, realidade 
virtual, interface homem-computador, jogos eletrônicos, animação computadorizada, 
entre outros elementos de multimídia de última geração. 
 Para Sedig et al. (2012), o modelo de interação homem-computador consiste de 
quatro principais componentes: ser humano, computador, ambiente de tarefa e ambiente 
de máquina. Dois fluxos básicos de informação e controle são assumidos, no que se 
refere à comunicação entre pessoas e computadores: uma parte precisa compreender o 
mínimo necessário a respeito da outra e também a respeito das tarefas que as pessoas 
 
realizam junto a computadores. Um modelo geral de interface homem-computador 
enfatiza o respectivo fluxo envolvido de informação e controle. 
 A interatividade entre pessoas consiste de muitos conceitos baseados, 
principalmente, em definições antropomórficas. Por exemplo, sistemas complexos que 
detectam e também reagem a um determinado comportamento humano são, na prática, 
chamados de interativos. Sob essa perspectiva, a interação inclui também as respostas 
à manipulação física humana, como movimentos, linguagem corporal, e até mesmo 
mudanças de humor apresentadas pelas pessoas. 
 Para Torres (1995), a interatividade se define como um meio particular da 
capacidade de facilitar as propriedades necessárias em uma conversação ideal. Ou seja, 
a interatividade poderia ser definida como quão bem um meio facilita a comunicação 
bilateral entre as partes, mais do que meramente a tecnologia envolvida nesse meio. 
 Por sua vez, quando se considera o contexto da comunicação entre um ser 
humano e um sistema artificial, a interatividade se refere ao comportamento interativo do 
artefato – mais precisamente, aquele tipo de comportamento experimentado ou 
percebido pelo usuário humano. Isso é diferente de outros aspectos do artefato, tais 
como sua aparência visual, seu funcionamento interno e mesmo do significado dos sinais 
que ele pode mediar. Por exemplo, quando se aborda a interatividade de um iPod, não 
é seu formato físico e cores adotadas (seu design) que são o foco, mas sim sua 
capacidade de reproduzir música e sua capacidade de armazenamento. Ou seja, é o 
comportamento de sua interface junto ao usuário, tal como experimentada ou percebida 
pelo usuário. Isso envolve, portanto, os aspectos de como o usuário movimenta os dedos 
para realizar o controle do dispositivo, a forma como se permite a seleção de uma 
determinada música de uma playlist e as condições permitidas ao usuário para controlar 
o volume do som. 
 Na prática, a interatividade de um determinado artefato é melhor percebida pelo 
uso daquele dispositivo. Um espectador pode, no máximo, imaginar como seria utilizar 
aquele artefato, vendo outras pessoas manuseando-o. Mas é somente pelo uso de fato 
que a interatividade é plenamente experimentada e sentida. A explicação é devido à 
natureza cinestésica da experiência interativa. É como a diferença que existe entre ver 
alguém saltar de paraquedas e realizar por si mesmo um salto de paraquedas: é somente 
 
com a ação em primeira pessoa que se pode experimentar e sentir as características e 
peculiaridades daquela atividade – principalmente, o que a difere das demais 
experiências humanas. 
Existe um termo bastante corriqueiro, ligado à ciência da computação, que é o jargão 
look and feel (ver e sentir), frequentemente utilizado para se referir às especificidades de 
uma interface de usuário em sistemas computacionais. O look se refere ao design visual, 
enquanto o feel diz respeito à sua interatividade. É mais uma forma, mesmo que indireta 
ou mais informal, de se entender a definição de interatividade. 
 Na ciência da computação, a função interativa é aquela na qual o software aceita 
e responde a entradas fornecidas por pessoas (usuários do sistema). Isso envolve dados 
e comandos, por exemplo. Na prática, os softwares interativos incluem a maior parte dos 
mais difundidos programas, como processadores de texto e planilhas eletrônicas. É 
importante frisar que programas não interativos operam sem nenhum contato com o ser 
humano, como é o caso de compiladores e aplicações de processamento em lote: por 
outro lado, onde há a figura de um usuário de um sistema, existe interação. 
 Na computação, quando a resposta é complexa o suficiente,costuma-se dizer 
que o sistema conduz interação social, e alguns sistemas tentam atingir esse nível de 
interação por meio da implementação de interfaces sociais. Isso introduz a noção de 
categorias de interação com o usuário, como é o caso da tecnologia Rich UI, uma 
abreviatura para rich user interaction (rica ou intensa interação com usuário), um modelo 
de interface de estações clientes ricas (ou densas), que suporta múltiplos métodos de 
entradas e que responde intuitivamente e em tempo hábil. Como regra geral, para ser 
uma Rich UI, o modelo deve apresentar um desempenho na prática ao menos tão bom 
quanto os proporcionados pelos aplicativos convencionais para desktop, tais como 
processadores de texto e planilhas eletrônicas. 
 Na indústria de TI, existem inúmeras tecnologias que proporcionam a criação do 
efeito de interatividade nos sistemas informatizados. Por exemplo, administradores de 
páginas web podem fazê-lo com o uso de linguagem JavaScript. Funções como ajustes 
tipo sliders (transição de telas), date pickers (ferramenta de calendário) e drag and 
dropping (arrastar e largar) são apenas algumas das diversas potenciais melhorias que 
podem ser implementadas. 
 
 Diversas ferramentas de autoria estão disponíveis no mercado, possibilitando a 
criação de diferentes tipos de interatividade. Algumas das mais comuns plataformas para 
implementar funções interativas incluem Adobe Flash, Microsoft Silverlight, Harbinger 
Elicitus e Articulate Engage. O destaque fica por conta do uso intuitivo desses aplicativos, 
que dispensam o prévio conhecimento de linguagem de programação: qualquer usuário 
pode criar funções interativas em pouco tempo, com modelos pré-formatados 
(templates), facilmente personalizáveis. Alguns dos modelos de interação 
disponibilizados nesses programas se enquadram em diversas categorias, como jogos, 
ferramentas de simulação, ferramentas de apresentação, entre outros. 
 Como no exercício sugerido por Rogers et al. (2013), ao se analisar qualidade da 
interatividade, qual seria o tempo razoável que se levaria para aprender a utilizar os 
produtos interativos relacionados a seguir? 
 
a) Utilizar um DVD player para passar um filme. 
b) Utilizar um set-top box de TV por assinatura para gravar dois programas simultaneamente. 
c) Utilizar uma ferramenta de autoria para criar um website. 
 
Além disso, seria possível estimar o grau de capacidade de memorização 
(memorability) de cada uma dessas atividades? 
 O fato é que ligar um DVD player para assistir a um filme deveria ser uma 
experiência tão simples como ligar um rádio. Por certo, não teria por que se esperar mais 
de 30 segundos para fazê-lo funcionar, e depois realizar a atividade sem maiores 
preocupações. É certo que a maioria das pessoas sabe como proceder para assistir a 
um filme em um equipamento desses. No entanto, na prática, alguns sistemas requerem 
que o usuário selecione o canal do vídeo na TV, dentre 50 ou mais canais, utilizando 
quase sempre dois controles remotos separados. Outras configurações também 
precisam ser ajustadas antes daquele filme começar a rodar, como, por exemplo, áudio 
original ou dublado e presença ou não de legendas. A maioria das pessoas talvez 
consiga estar apta a ligar o equipamento de qualquer marca, uma vez que provavelmente 
já utilizaram, antes, um player qualquer, esperando que as funções e comandos (como 
ON/OFF, play, stop etc.) sejam análogas. 
 No segundo caso, de se programar um receptor de TV por assinatura digital para 
 
gravar dois programas simultaneamente, a operação é, inquestionavelmente, mais 
complexa. Aprender como programar o equipamento e checar se está tudo da forma 
correta leva um pouco mais de tempo do que colocar um mero DVD para reproduzir um 
filme. O que ocorre, na prática, é que muitos dos equipamentos são mal projetados no 
que tange à função de interatividade, e não é de surpreender que quase a totalidade dos 
usuários frequentes do sistema não consegue realizar a tarefa, apesar de inúmeras 
tentativas. O que explica que poucas pessoas lembrem de como programar o sistema 
para gravar um programa é o fato de a interação necessária ser mal dimensionada – 
com pouco ou mesmo nenhum feedback. O mais grave é não se seguir uma lógica da 
perspectiva do usuário. Isso acarreta que poucas pessoas conseguirão dispor da 
paciência necessária para tentar interpretar o manual mais de uma vez. 
 No último caso ilustrado, de se programar uma página web, uma ferramenta de 
autoria bem projetada deveria permitir ao usuário criar uma página básica em não mais 
que 20 minutos. Parece evidente que aprender a totalidade das operações e 
possibilidades proporcionadas provavelmente leve muito mais tempo (alguns dias pelo 
menos). Contudo, dominar 100% a ferramenta não é quesito necessário para cumprir 
funções básicas, e isso é um atributo essencial em bons aplicativos interativos. Na maior 
parte dos casos, as opções comerciais de ferramentas de autoria permitem ao usuário 
iniciante realizar seu trabalho básico (como criar uma página web simples) já de imediato, 
por meio de templates (modelos) que podem ser adaptados com grande versatilidade. É 
certo que muitos usuários irão ampliar o repertório, levando uma hora ou mais para 
aprender funções mais avançadas, e isso conforme suas próprias necessidades 
específicas, que vão aparecendo com o tempo. Mas é importante observar que, como 
regra geral, algumas poucas pessoas realmente irão aprender a utilizar todo o conjunto 
de funções que um software desses oferece. 
 O que ocorre é que os usuários tendem a lembrar das operações mais 
frequentemente utilizadas, tais como recortar e colar ou inserir imagens. E isso, 
especialmente, se forem consistentes ou similares com relação à forma como essas 
ações são realizadas em outros aplicativos. Buscar um botão salvar, por exemplo, já é 
intuitivo para a maioria dos usuários de sistemas informatizados, que tentam reproduzir 
aquele comando mesmo em programas que nunca utilizaram antes. Por outro lado, 
 
algumas outras operações, as que são usadas com menos frequência, provavelmente 
terão que ser reaprendidas (por exemplo, formatar tabelas). 
 
2.2 Graus de interação 
 
Em suma, todo software que trabalha a partir de dados ou comandos operados 
por um usuário é, por definição, um aplicativo interativo. Portanto, convém entender os 
possíveis graus dessa interação homem-computador. 
 Tais graus existem porque, essencialmente, as pessoas são intrinsecamente 
diferentes umas das outras, e assim o são as situações práticas envolvidas diante da 
interação com um sistema artificial. Como ressalta Allegretti (2015), existem diversas 
maneiras de analisar as necessidades e também as relevâncias dentro dos sistemas 
interativos. Por isso, considera-se que atividades, contextos e tecnologias são moldados 
por pessoas. 
 No que se refere às pessoas, há que se reconhecer que são estas que utilizam 
os recursos tecnológicos, decidindo, portanto, qual adotar. Contudo, convém investigar 
como essas decisões são tomadas, e não há maneira melhor de fazê-lo, senão 
perguntando diretamente a elas. É por isso que, para um fornecedor de um sistema 
informatizado, não basta apenas incorporar as funções que são planejadas para uma 
aplicação, mas há que se levar em conta o que é importante, e como apresentá-lo às 
pessoas que irão utilizar efetivamente aquele sistema. 
 De tal forma, são as pessoas que estabelecem os valores e os requisitos para 
cada nova tecnologia. Elas ainda modificam a natureza das atividades que são 
executadas, o que pode levar à necessidade de desenvolvimento de novas tecnologias, 
proporcionando um ciclo contínuo. Por isso, dada essa conexão direta entre seres 
humanos e tecnologias, é necessário compreender os graus de diferença entre as 
pessoas, que são de ordem física, psicológica e social, como defende Allegretti (2015). 
 No tocante às diferençasfísicas, cada pessoa possui, evidentemente, suas 
características únicas nos atributos físicos, como altura e peso. É interessante observar 
que algumas dessas características são tão individuais que podem até mesmo ser 
usadas como recurso de identificação, tal como ocorre com digitais e íris. Em geral, nas 
 
diferenças encontradas entre cada indivíduo frente aos cinco sentidos (visão, audição, 
olfato, tato e paladar) residem as explicações sobre o quanto uma tecnologia pode ser 
utilizável, acessível – e até mesmo prazerosa. Conforme dados relatados por Allegretti 
(2015), uma pessoa com daltonismo faz parte de um grupo de 8% das pessoas do lado 
ocidental do globo. Outras disfunções visuais, tais como miopia e hipermetropia, são 
bastante corriqueiras na população, envolvendo milhões de indivíduos. Apenas na 
Europa, existem quase 3 milhões de usuários de cadeiras de rodas. Tais valores indicam 
que se torna indispensável levar em consideração essas características quando uma 
tecnologia é aplicada a um determinado grupo de usuários. Algumas diferenças físicas 
são bem mais sutis, como, por exemplo, a destreza para digitar em um teclado físico ou 
virtual, o que também influencia muito na qualidade da interatividade. Por isso, em TI, 
tecnologias assistivas fazem parte do conjunto de recursos interativos. 
 Entretanto, no quesito sutileza, as diferenças de natureza psicológica são as mais 
contundentes, afinal, muitas não se apresentam de imediato, são virtualmente invisíveis 
(embora não imperceptíveis) e tendem a ser instáveis. Conforme no exemplo que ilustra 
Allegretti (2015), algumas pessoas têm uma perfeita percepção espacial – é o caso 
quando alguém precisa atravessar uma estrada com grande fluxo de veículos (e não há 
semáforos ou passarelas). Algumas pessoas conseguem, sem nenhuma dificuldade, 
avaliar em frações de segundo a relação da distância de um veículo vindo ao longe, com 
sua própria velocidade de pedestre, interpretando corretamente se o tempo é adequado 
para realizar a travessia ou não. Já outras pessoas têm sérias dificuldades, sendo que 
somente atravessam a estrada quando não existe veículo algum, mesmo a uma longa 
distância. De modo análogo, em aplicações de TI, os sempre apreciáveis recursos de 
segurança de timeout (extrapolação de tempo limite) precisam prover tempo suficiente 
para a operação por parte dos mais vagarosos usuários. 
 Outro aspecto importante são as diferenças culturais, a forma de conduta no dia 
a dia de um povo ou de uma cultura, que muitas vezes passam por convenções, como, 
por exemplo, a mão inglesa: nos automóveis da Inglaterra (e de diversas outras nações), 
o motorista fica à direita enquanto o passageiro à esquerda. Evidentemente, todo o 
conjunto de recursos interativos precisa ser pensado para mais facilmente se adaptar a 
esse tipo de situação, quando for o caso, como reconhecem Sedig et al. (2012). Na mais 
 
corriqueira das situações, convém lembrar que há pessoas destras e canhotas: a 
tecnologia da informação costuma ser sensível a essa realidade, e já há muito os 
sistemas operacionais costumam oferecer a função de inverter os botões do mouse, visto 
que botão direito e botão esquerdo sempre são usados para comandos distintos nos 
mais variados aplicativos. 
 As diferenças de linguagem são seguramente determinantes para o correto 
entendimento da mensagem que se deseja passar. Por isso, reconhece-se a importância 
dos aplicativos que permitem configurar não só o idioma desejado (como português ou 
inglês), mas também suas variações regionais (português brasileiro e português de 
Portugal, por exemplo). Outra diferença a considerar é que as pessoas têm 
características individuais que as diferenciam em vários atributos, tal como o fato de 
algumas pessoas conseguirem lembrar muito facilmente nomes, enquanto outras têm 
maior facilidade para fisionomia. Algumas têm predileção por números, outras têm 
grande dificuldade para registrar o contexto sem se concentrar em cada um dos pontos 
específicos do ambiente. Na indústria de TI, como consequência, é comum que os 
aplicativos possuam mais de uma forma para se acionar um comando, como, por 
exemplo, inserir um hyperlink: pode ser com o “Control + K” no teclado, ou com o 
respectivo ícone gráfico no programa, ou pelo comando direto inserir hyperlink disponível 
no menu de comandos do aplicativo. 
 A lista de diferenças parece interminável. Por exemplo, ainda no campo das mais 
sutis, algumas pessoas conseguem trabalhar mesmo submetidas à enorme pressão, 
enquanto outras não toleram sequer um mínimo ruído. O fato é que, como apontam 
Sedig et al. (2012), a personalidade de cada pessoa é construída ao longo dos anos, e 
mudanças podem até ser possíveis, embora improváveis. Mudar esse tipo de 
característica requer dedicação e um longo tempo – prazo que, obviamente, os sistemas 
informatizados não dispõem para atender um determinado público-alvo. De qualquer 
modo, ressalta-se, como regra geral, é o aplicativo que precisa se adaptar às pessoas, 
e não o contrário. 
 Portanto, em TI, para garantir a melhor interatividade possível entre aplicativos e 
usuários, o que se precisa levar em consideração é o conhecimento que as pessoas 
apresentam do mundo ao seu redor, o que é denominado, com frequência, de modelo 
 
mental, como afirma Allegretti (2015). Quando uma pessoa não tem um correto modelo 
mental de algo, ela apenas consegue realizar ações por repetição. Diante de um 
imprevisto, se alguma coisa não funciona corretamente, dificilmente essa pessoa 
conseguirá entender o que ocorreu de errado para conseguir ao menos tentar corrigir o 
rumo tomado. É como ocorre quando uma pessoa que não entendeu um determinado 
tema que precisa estudar para um teste de conhecimento: ela pode repetir 
incessantemente as informações, mas isso não vai significar que haverá entendimento 
por mera repetição. No máximo, poderia até mesmo obter um bom resultado em uma 
prova de conhecimentos sobre determinado assunto em curto espaço de tempo, porém 
é certo que aquela informação se perderá rapidamente, pois faz parte de um “castelo de 
cartas” mental, e, quando uma se perder, toda a informação é perdida. 
 Na visão de Sedig et al. (2012), um princípio básico de um sistema com bom 
desempenho interativo é que ele é projetado de tal forma que os usuários possam formar 
modelos mentais úteis e adequados, que permitem a eles mostrar como as coisas podem 
funcionar, como obter os resultados desejados e o que é permitido em nível de usuário. 
Não raro, mesmo pessoas que não dominem 100% os recursos de um software 
especializado, como SolidWorks ou SAP, chegam a determinado momento em que 
dizem compreender a lógica do sistema, e se sentem suficientemente versadas e 
proficientes no aplicativo: eventuais funções que ainda não saibam utilizar conseguem 
ser aprendidas, com bom nível de autodidatismo, a partir das outras funções que já se 
domina a utilização (mecanismo de analogias funcionais, que é um dos principais 
modelos mentais). É assim que alguns sistemas são rotulados como intuitivos. 
 É certo que uma das formas adotadas pelas pessoas para desenvolver seus 
modelos mentais é interagir na prática com os sistemas, e a partir de observações sobre 
a relação de causa e efeito, de suas ações e do resultado que o sistema lhe entrega, 
mesmo que em um regime de tentativa e erro. Admita-se que, no Brasil, não costuma 
ser hábito a prévia leitura de instruções e manuais sobre o funcionamento de um sistema. 
Dessa forma, é muito importante que, para além da documentação básica (manuais, 
guias etc.), os sistemas disponibilizem todas as informações que sejam possíveis na sua 
interface. Isso favorece que as pessoas formem um modelo mental mais correto e 
preciso. 
 
 Há ainda uma grande utilidade prática do esforço pela mais abrangente 
documentação de um sistema ou aplicativo qualquer. Muitas vezes, esse processode 
descrever o funcionamento pode aparentar ser fácil, mas é justamente na sua execução 
que se descobre que há uma distância entre o conceito pretendido para aquele produto 
e aquilo que ele realmente desempenha operacionalmente. Além do mais, como 
apontam Liang et al. (2010), é cenário comum que o desenvolvimento de softwares 
envolva o trabalho de muitas pessoas, e que um único integrante da equipe de 
desenvolvimento não detém todas as informações sobre o sistema completo. 
 Por mais que se procure garantir uma imagem de que tudo está suficientemente 
claro, a clareza reside em quem originalmente concebeu o sistema, e talvez se estenda 
para outros que tenham perfil similar a essa pessoa. No mais, é indispensável pensar de 
forma mais abrangente, avaliar o sistema sob a ótica de quem irá utilizá-lo e procurar 
descrever com detalhes a informação, visando poder capacitar qualquer usuário à forma 
correta de operação, obtendo assim os resultados originalmente planejados durante a 
concepção do produto. Isso também é benéfico para que as pessoas possam criar o seu 
próprio modelo mental e, quando isso acontece, atinge-se um desempenho de alto nível 
de interatividade: aprendizado não apenas por repetição, mas por compreensão. 
 Finalmente, consideram-se os desafios impostos pelas diferenças sociais. Diante 
de um mesmo sistema ou aplicação, diferentes usuários terão igualmente distintas 
motivações para seu uso. Enquanto algumas pessoas podem manter um alto grau de 
interesse por muito tempo, outras podem simplesmente perder o interesse rapidamente, 
devido às suas particulares motivações, que mudam ao longo do tempo. Considere-se a 
corriqueira situação de se comprar um determinado produto por acreditar que existe uma 
real necessidade ou interesse, mas que a real explicação seja o fato de as pessoas 
serem facilmente movidas por impulsos, que se mostram a seu devido tempo 
inadequados. 
 Concordando com Liang et al. (2010), é preciso também reconhecer que o nível 
de experiência prévia dos usuários é bastante variado, podendo determinar níveis de 
utilização e resultados diferentes. Enquanto os usuários mais experientes aprendem de 
modo mais rápido e mais fácil, e interagem com a aplicação sem maiores receios, os 
novatos devem ser incentivados e instruídos a buscar essa interação. Na prática, 
 
ressalte-se a necessidade premente de fazê-lo de um modo mais atraente, pelo risco 
envolvido naquela tendência natural de se perder interesse facilmente por aquilo que não 
é compreendido. 
 A heterogeneidade é, enfim, um princípio essencial na programação das funções 
interativas dos aplicativos. Diferenças precisam ser identificadas em um primeiro 
momento, haja vista que sistemas projetados para grupos homogêneos serão bastante 
distintos daqueles orientados a um público mais heterogêneo. Para um grupo de grande 
similaridade, é comum que se oportunizem poucas maneiras, ou até mesmo apenas uma 
só, de se acionar determinadas funções de um aplicativo. No caso de grupos muito 
diferentes, é importante que haja estudo de maneiras alternativas para se chegar ao 
mesmo resultado, pois cada perfil de usuário irá ser atendido, uma vez que seja possível 
obter as respostas do sistema da maneira que julgarem mais adequada. 
 Para Liang et al. (2010), o que se observa, então, como boas práticas nos 
programas de computador é que os aplicativos disponibilizem um grande número de 
maneiras para se obter o mesmo resultado: clicar em um ícone, usar teclas de atalho, 
navegar por barras de menu – até mesmo comandos de voz, como no caso dos 
assistentes pessoais Cortana da Microsoft, Siri da Apple e Google Now do Google. Em 
desktops e laptops, é comum que muitos usuários não utilizem mouse por acreditar que 
com o teclado se perde menos tempo. Assim, aplicativos corporativos até videogames 
para computador precisam ser produzidos com funções possíveis de serem alcançadas 
com o uso das teclas de atalho. 
 
3.1 Um novo Design Thinking? 
 
Para Rogers et al. (2013) e Allegretti (2015), a interatividade é tão importante nos 
produtos em geral, incluindo a indústria de TI, que merece uma disciplina especialmente 
dedicada a esse respeito, o que chamam de design de interação. Rogers et al. (2013) 
explicam que um dos principais objetivos do design de interação é a redução de aspectos 
negativos da experiência de usuário, como frustração e aborrecimento, ao mesmo tempo 
que se melhoram os aspectos positivos, como divertimento e compromisso. Ou seja, é a 
capacidade de desenvolver produtos interativos, que sejam fáceis, eficientes e 
 
agradáveis de usar, sempre a partir da perspectiva dos usuários. 
 Por sua vez, Allegretti (2015) defende que design de interação é uma área do 
design que se tornou especializada em desenvolver projetos de produtos ou sistemas 
voltados a uma forte interação com o ser humano, e com essa premissa pode oferecer 
os resultados esperados. Mesmo podendo ser encontrado em praticamente todo tipo de 
interação homem-máquina, desde um controle-remoto até o forno de micro-ondas, 
reconhece-se um foco cada vez mais direcionado à tecnologia da informação, com 
aplicações para o desenvolvimento de sites e sistemas virtuais (web, hot ou mobile) que 
visam à comunicação entre empresa e seu público-alvo. 
 De qualquer modo, a analogia entre interatividade de produtos físicos com a 
interatividade em aplicativos de TI é perfeitamente válida. Com efeito, percebe-se que 
as interações relacionadas a equipamentos ou sistemas, mesmo dos mais simples, ainda 
são carregadas de desafios para quem projeta aquela aplicação. Como comenta 
Allegretti (2015), dificilmente uma pessoa não gaste algum tempo diante da primeira vez 
na vida que tem que lidar com um elevador. Afinal, deve-se pressionar para cima porque 
se quer subir, ou então para baixo porque se deseja que o elevador desça até onde a 
pessoa está para que se possa subir. 
 Uma visão mais simplista, como alertam Parsons e Sedig (2014), pode ser aquela 
de afirmar que o problema é que artefatos elementares, como botões de elevador, são 
absolutamente simples, praticamente à prova de erro, então a culpa seria das pessoas 
em não saber utilizá-los. No entanto, na visão de um empreendedor (por exemplo, o 
fabricante do elevador), não é equivocado se esperar um crescimento significativo nas 
vendas quando se descobre um sistema alternativo, que possa ser simples o suficiente 
para que ninguém mais consiga errar. Melhor usabilidade, maior aceitação de um 
produto no mercado. 
 A questão, então, é: como produzir um equipamento ou aplicativo virtualmente à 
prova de erros ou de dúvidas? São nesses termos que agem os designers de interação. 
Da mesma forma que os designers de produto transformam as atividades do cotidiano 
por meio de objetos que eles concebem, os designers de interação acabam por facilitar 
a vida das pessoas no que se refere às relações desenvolvidas e às atividades 
desempenhadas, principalmente por meio das tecnologias digitais interativas. 
 
 Esse tipo de profissional cuida do desenvolvimento de produtos interativos, que 
fornecem suporte às atividades do cotidiano, garantindo que as pessoas consigam usar 
melhor esses produtos, ou seja, interagir da maneira correta com eles. Além de tornar o 
produto interativo possível e viável do ponto de vista tecnológico (transparente ao 
usuário), o designer de interação se ocupa em desenvolver uma interface para que as 
pessoas consigam usar melhor determinado artefato. Como lembra Torres (1995), é por 
meio da interface que o usuário se comunica com o produto, e é também a interface do 
produto que possibilita existir interação com quem o está utilizando. 
Para Allegretti (2015), o designer de interação deve possuir sete competências 
essenciais: 
1. Focar sempre o usuário – é fato que entender a fundo o usuário é a chave do 
sucesso no design de interação, e a melhor forma de fazê-loé questionando suas 
escolhas e observando suas ações. 
2. Encontrar boas soluções – desenvolver novos produtos e serviços implica, 
sempre, em criar escolhas. Por exemplo, quando se tem apenas duas opções, 
deve haver esforço na busca por uma terceira. 
3. Gerar muitas ideias e buscar uma prototipação rápida – é por gerar muitas ideias 
que os designers conseguem encontrar suas soluções. E para tangibilizar essas 
ideias, são desenvolvidos protótipos rápidos, pois é dessa forma que ideias ruins 
podem ser rapidamente descartadas após os primeiros testes. 
4. Saber trabalhar de forma colaborativa – o design não é uma disciplina isolada; 
pelo contrário, ele dialoga com vários outros domínios do conhecimento humano. 
Dessa forma, não cabe ao designer se isolar, mas trabalhar de forma colaborativa 
e utilizar vários recursos de tecnologia de informação e comunicação. Para que 
os resultados possam ser adequados, o conhecimento de diversas áreas torna-
se necessário: arquitetura, design industrial, design de som, interação humano-
computador, design visual, conteúdo (texto, vídeo, som), arquitetura da 
informação, além de fatores humanos que são objeto de vários campos de 
conhecimento como psicologia, sociologia, ergonomia, entre outros. 
5. Criar soluções apropriadas – o designer é demandado a criar as mais apropriadas 
soluções para determinado contexto em que os usuários estão inseridos. Tal 
contexto, de uso do objeto ou do serviço, precisa estar em plena conformidade 
com o contexto histórico-social em que a pessoa está inserida. 
6. Desenvolver um amplo campo de influências – a interdisciplinaridade deve fazer 
parte da rotina do designer de interação, e com ela existe inspiração para a busca 
por soluções inovadoras. 
7. Saber incorporar a emoção para seus projetos – o aspecto emocional não pode 
ser desconsiderado no processo de desenvolvimento de um produto, pois é um 
 
elo entre as pessoas e os aparatos tecnológicos. Produtos sem o apelo emocional 
estão desconectados das pessoas, considerados então produtos sem vida. 
Garantir que o usuário possa mais facilmente utilizar os recursos de um website, 
por exemplo, são preocupações antigas. O que ocorre é que elas costumam se inserir 
dentro das diversas atribuições do designer gráfico, que criava e procura evitar somente 
as dificuldades que ele conseguia perceber, com base em sua própria experiência como 
usuário. Então, com o tempo, experiência e feedback de clientes, o especialista passou 
a contar com um know-how, um conhecimento diferenciado, que abrangia as dificuldades 
levantadas pelo cliente, gerando correções reativas (retrabalhos originados de 
reclamações). 
É por isso que o campo profissional começou a considerar as experiências 
passadas para as novas criações. Assim, se estabeleceram fóruns de discussão entre 
designers gráficos sobre os desacertos cometidos e as maneiras de evitar que eles 
ocorressem, procurando então pelas boas práticas. Nessas discussões, o usuário foi 
incluído como elemento central, para que pudessem ser consideradas suas dificuldades 
inerentes ou potenciais. 
 Como relata Allegretti (2015), algumas vertentes se mostraram inadequadas ao 
longo do processo: tentativas de solucionar 100% dos problemas resultaram na 
percepção de se demandar mais tempo, com retorno não viável financeiramente. Para 
exemplificar, em alguns casos, o desenvolvimento de uma proteção no sistema que 
impeça um determinado erro pontual levantado por um número pequeno de pessoas 
tomava mais de 50% do total do trabalho do grupo. 
 Em uma situação ideal, esses processos poderiam ser feitos, mas no mundo real, 
empresas estão restritas a prazos, entregas, e a constantes solicitações de mudanças 
por parte do cliente, resultando em puro desperdício de parte do trabalho despendido. 
Constatou-se, assim, que pesquisas são essenciais, devendo ser realizadas para uma 
amostragem representativa do público-alvo. 
 Não deixa de ser desafiador conhecer as reais necessidades do usuário, quando 
este faz parte de um grupo social totalmente distinto do designer (por exemplo: público 
infantil, pessoas com deficiência etc.). Afinal, há que se tratar de aspectos muitos 
específicos, muitas vezes que fogem à sensibilidade pessoal do profissional projetista. 
 
Restrições típicas dos projetos (competitividade, prazo limitado, recursos limitados etc.) 
acabam, muitas vezes, por não conduzir à melhor solução. Na prática, o que se observa, 
principalmente nas grandes corporações, é a redução no tempo destinado ao estudo 
sobre as interações e usabilidade, resultando em grau de menor detalhamento. Isso 
proporciona um interessante fenômeno de mercado: pequenas empresas descobrem no 
designer de interação e seu trabalho especializado um interessante nicho para explorar, 
muitas vezes transformando-se em fornecedores de serviços especializados à indústria. 
 Tais empresas, com profissionais dedicados exclusivamente ao estudo e análise 
do comportamento humano e suas reações diante das interações com os diversos tipos 
de sistemas artificiais, são verdadeiras consultorias de usabilidade. Em muitas situações, 
tal composição é o que proporciona às grandes empresas, incluindo o ramo de tecnologia 
da informação, serem efetivas em dispor da melhor interatividade em seus produtos. 
 Vianna et al. (2012) definem o Design Thinking como a maneira do designer 
pensar, que utiliza um tipo de raciocínio pouco convencional no meio empresarial, que é 
o pensamento abdutivo. Nesse tipo de pensamento, o que se busca é a formulação de 
questionamentos mediante a apreensão ou compreensão dos fenômenos. Portanto, 
precisam ser formuladas perguntas a serem respondidas a partir das informações 
coletadas durante a observação do universo que permeia o problema a ser resolvido. É 
uma perspectiva, portanto, em que, via o pensamento abdutivo, a solução não deriva do 
problema, mas nele se encaixa. O que se trabalha é a ideia de que não se pode 
solucionar problemas com o mesmo tipo de pensamento que o criou, por isso, abduzir e 
desafiar pressupostos costuma ser entendido como a base do Design Thinking. Afinal, é 
pensando de maneira abdutiva que o designer consegue desafiar padrões, fazer e 
desfazer conjecturas e inovar. 
 Uma das grandes contribuições do Design Thinking para a área de interatividade 
é o fato de oferecer diversas técnicas para a compreensão das reais necessidades das 
pessoas (dispostas em diferentes níveis), o que é ilustrado pela Figura 1. 
 
 
Figura 1 – Técnicas de Design Thinking para compreensão das necessidades das pessoas 
 
Fonte: VIANNA et al., 2012, p. 23. 
 
O que a metodologia defende é que as técnicas devem se adaptar à natureza das 
informações coletadas dos usuários: entrevistas são técnicas excelentes para aquele 
conhecimento mais explícito, como aquilo que uma pessoa diz fazer ou pensar. Contudo, 
aquilo que a pessoa realmente pensa, ou de fato utiliza, só é verificado por técnicas de 
observações, enquanto o mais íntimo (e talvez mesmo inconsciente) por parte das 
pessoas, o que elas sabem, sentem e sonham, só é possível de se apreender pelas 
diversas técnicas reunidas na categoria sessão generativa. 
 
 
 
 
 
SAIBA MAIS 
 
Ciberdependência 
(AZEVEDO, 2014, p. 149-150) 
 
[...] 
Tornou-se evidente que as atuais tecnologias e suas aplicações possibilitam novos 
arranjos sociais e psíquicos, mudando paulatinamente o comportamento individual e 
coletivo. Vários autores conceituam a Cibercultura como o não lugar, permitindo e 
ofertando múltiplas possibilidades de leituras e tornando-se uma extensão de nossos 
desejos, mais que uma simples ferramenta tecnológica. 
[...] 
Dentro da etiologia acadêmica e da psicopatologia, o uso patológico da internet pode se 
manifestar sob diversas formas, como as listadas abaixo: 
 
• Dependência cibersexual – vício em utilizar salas de chat para adultos ou 
ciberpornografia.• Dependência de ciberrelacionamento – amizades online, feitas em salas de chat ou 
newgroups que substituem a vida real da família e amigos. 
 
• As compulsões por jogos em rede – uso compulsivo de jogos online, dependência 
de leilões online, e comércio online obsessivo. 
 
• Sobrecarga de informação – navegação compulsiva pela rede Web ou banco de 
dados de pesquisas. 
 
• Dependência de computador – uso obsessivo do computador, jogos ou 
programação de informática. 
 
 
 
REFLITA 
 
Design de Interação, Design Experiencial e Design Thinking: a tríade que permeia 
o escopo de desenvolvimento de sistemas computacionais interativos. 
(ELLWANGER, 2013, p. 802) 
 
Na concepção e uso de sistemas digitais interativos, o DE fundamenta-se nas fronteiras 
entre as disciplinas de Interação Humano-Computador (IHC) e a disciplina de DI, as 
quais salientam que o objeto (produtos/serviços) e a interação com os mesmos são 
componentes indispensáveis e necessários para que a experiência ocorra de forma 
satisfatória. 
 
Seu escopo abrange características e experiências não somente dos usuários, mas 
também dos próprios projetistas (advindas do DT) e das inter-relações entre as mesmas, 
a partir do estabelecimento de esquemas mentais que dão suporte à prática de 
prototipação e propiciando a melhoria contínua das interfaces por eles projetadas. 
 
Na tríade designer-sistema-usuário, o designer agrega nos sistemas e nas interfaces que 
projeta partes de si, ou seja, o designer, a partir de assimilações do objeto 
(sistema/protótipo), provenientes de sistemas pré-concebidos ou ainda a partir de suas 
experiências em sistemas similares e já existentes, bem como de suas vivências e 
concepções que têm do mundo. Assim, sempre que a ação de projetar para a experiência 
do usuário o transforma em um novo sujeito. Sujeito este que supera a si mesmo não 
somente a partir da manipulação do objeto (sistema/protótipos), mas também a partir das 
interações realizadas com o usuário e decorrentes do contexto de uso. 
 
#REFLITA# 
 
 
 
CONSIDERAÇÕES FINAIS 
 
Prezado(a) aluno(a), 
 
O mundo das pessoas com deficiência é amplo: as deficiências envolvidas são as 
mais variadas possíveis, e os desafios sociais associados são inumeráveis. Do ponto de 
vista mercadológico, isso representa um campo praticamente infindável de 
oportunidades para o profissional de tecnologia da informação, e para empresas 
especializadas em TI. 
A despeito da oferta gigantesca de produtos e serviços de TI para esse segmento, 
o acompanhamento da rotina diária das pessoas com deficiência e a evolução 
tecnológica das plataformas digitais de próxima geração permitem que muito mais novos 
negócios sejam estruturados, em torno essencialmente das necessidades ainda não tão 
bem atendidas – ou não atendidas por completo. Como uma das possíveis frentes de 
atuação, que por certo comporta potencialmente muito mais produtos e serviços de TI, 
está a inclusão social, digital e pedagógica desse grupo de pessoas. 
Todo aplicativo que possui a figura de um usuário em seu comando é, por 
definição, interativo. Por isso, o que se torna importante é a compreensão dos vários 
graus de interatividade, para que essa função tenha a melhor qualidade possível. 
Embora não sejam disciplinas exclusivas da tecnologia da informação, o design 
de interação e o Design Thinking são abordagens especialmente úteis para a produção 
de aplicações de TI, pois endereçam os atributos mais relevantes do ponto de vista do 
utilizador do sistema, permitindo projetos mais assertivos e pessoas mais satisfeitas no 
consumo e uso daqueles produtos. 
 
Nos vemos no próximo capítulo! 
 
 
 
 
 
LIVRO 
 
 
Título: Design de Interação: Além da Interação Humano-Computador 
Autor: Yvonne Rogers, Helen Sharp, Jennifer Preece 
Editora: Bookman 
Sinopse: Este livro oferece uma abordagem interdisciplinar, prática e orientada a 
processo, não apenas mostrando os princípios, mas principalmente como eles podem 
ser aplicados ao design de interação. As autoras, reconhecidas líderes e educadoras em 
suas áreas, ampliam o escopo nesta nova edição, incluindo as mais recentes tecnologias 
e dispositivos, como redes sociais, Web 2.0 e dispositivos móveis. É extremamente 
popular entre estudantes e profissionais da área, e uma fonte de pesquisa ideal para 
aprender as habilidades interdisciplinares necessárias para design de interação, 
interação humano-computador, design de informação, web design e computação ubíqua. 
 
 
 
 
FILME/VÍDEO 
 
 
Título: O que é TECNOLOGIA ASSISTIVA — TECNOLOGIA ADAPTATIVA? 
Ano: 2017. 
Sinopse: Tecnologia Assistiva (TA) ou Tecnologia Adaptativa é um termo utilizado para 
identificar todo o arsenal de Recursos e Serviços que contribuem para proporcionar ou 
ampliar habilidades funcionais de pessoas com deficiência e consequentemente 
promover Vida Independente e Inclusão. 
Link: https://www.youtube.com/watch?v=rOZCPYa2N10 
 
 
 
 
REFERÊNCIAS 
 
ALLEGRETTI, C. Design de interação. Canoas: Ulbra, 2015. 
 
AZEVEDO, J.; NASCIMENTO, G.; SOUZA, C. Ciberdependência: o papel das emoções 
na dependência de tecnologias digitais. Linguagem e tecnologia, v. 7, n. 2, 2014. 
 
CAVANAGH, K.; SHAPIRO, D. Computer treatment for common mental health 
problems. Journal of Clinical Psychology, v. 60, n. 3, p. 239-251, 2004. 
 
DAVIES, E.; RICHARD, K.; GLAZEBROOK, C. Computer and website-based 
interventions to improve common mental health problems in university students: 
a meta-analysis. In: EMIND CONFERENCE, 6., June 2014, Birmingham, England. 
Proceedings... Birmingham: The University of Birmingham, 2014. 
 
DAVIES, S; HASTINGS, R. Computer technology in clinical psychology services for 
people with mental retardation: a review. Education and Training in Development 
Disabilities,v. 30, n. 3, p. 341-352, 2003. 
 
ELLWANGER, C. Design de Interação, Design Experiencial e Design Thinking: a tríade 
que permeia o escopo de desenvolvimento de sistemas computacionais interativos. 
Nuevas Ideas en Informática Educativa TISE, p. 799-802, 2013. 
 
LIANG, H., et al. An exploratory study of interactivity in visualization tools: “flow” 
of interaction. Journal of Interactive Learning Research. Science Teaching. v. 21, n. 
1, p. 5-45, 2010. 
 
MIESENBERGER, K. et al. Computers helping people with special needs. Berlin: 
Springer, 2004. 
 
PARSONS, P.; SEDIG, K. Adjustable properties of visual representations: improving the 
quality of human-information interaction. Journal of the American Society of 
Information Science and Technology, v. 65, n. 3, p. 455-482, 2014. 
 
RAMOS, E. et al. Gestão estratégica da tecnologia da informação. São Paulo: Ed. 
FGV, 2012. 
 
ROGERS, Y.; SHARP, H.; PREECE, J. Design de interação: além da interação 
humano-computador. 3. ed. Porto Alegre: Bookman, 2013. 
 
SEDIG, K., PARSONS, P., BABANSKI, A. Towards a characterization of interactivity in 
visual analytics. Journal of Multimedia Processing and Technologies, v. 3, n. 1, p. 
12-28, 2012. 
 
 
TORRES, F. Towards a universal theory of media interactivity: developing a 
proper context. Fullerton, CA: California State University, 1995. 
 
VIANNA, M. et al. Design Thinking: inovação em negócios. 1. ed. Porto Alegre: MJV 
Press, 2012. 
 
WORLD HEALTH ORGANIZATION. World report on disability. WHO, 2011. 
Disponível em: <http:// www.who.int/disabilities/world_report/2011/report.pdf>. Acesso 
em: 11 set. 2017. 
 
 
UNIDADE III - CAPACIDADE DE INOVAÇÃO E NOVOS MODELOS DE NEGÓCIOS 
Professor Mestre Cleber Semensate 
 
 
Plano de Estudo: 
● Inteligência artificial. 
● Tecnologias para dispositivos móveis. 
 
 
Objetivos de Aprendizagem: 
● Entender os conceitos e história da IA. 
● Ver as abordagens da IA. 
● Estudar os limites éticos. 
● Entender os Sistemas embarcados. 
● Conceituar Internet das Coisas. 
● Entender sobre o fim dos smartphones. 
 
 
 
 
INTRODUÇÃO 
Prezados alunos(as)!Hoje, o que diferencia os seres humanos dos robôs é que são as pessoas que 
possuem a capacidade de inovação, de empatia, e mesmo de improvisação diante de 
qualquer circunstância. É nisso que se fundamentam os que, com razão, reconhecem o 
trabalho mais mecanizado, tendendo a substituir trabalhadores humanos por sistemas 
artificiais, e imaginam, ao mesmo tempo, haver uma garantia de longo termo de que as 
funções criativas sempre serão cumpridas por pessoas, e não por máquinas. 
Não há dúvidas de que, numa perspectiva de curto prazo (de hoje até os anos 
mais imediatamente futuros), isso seja verdadeiro. Contudo, ao se extrapolar apenas 
mais um pouco o porvir – algumas décadas, que seja –, pergunta-se legitimamente: até 
quando será dessa forma? Chegará um dia em que máquinas poderão ser muito 
melhores que as pessoas até mesmo nas ocupações mais criativas, artísticas ou 
filosóficas? 
Como tudo o que se refere a cenários futuros, nada ainda é completamente certo. 
Mas algumas tendências apontam vigorosamente para algumas direções, entre as quais 
está o fenômeno da inteligência artificial (IA), que será abordado neste capítulo 
As grandes marcas mundiais da indústria de tecnologia da informação alcançaram 
o tamanho que têm graças ao modelo de negócios convencional da computação. Foi 
assim com a Intel, que se tornou gigante explorando os chips que constituem os 
computadores pessoais. Foi também o que ocorreu com a Microsoft, que construiu o 
software que roda a maioria desses equipamentos. O Google se tornou uma potência 
econômica com múltiplos negócios em TI, cabendo lembrar que começou como um 
buscador de sites. Contudo, existe um novo elemento que redefine por completo o futuro 
e a própria sobrevivência desses grandes nomes da TI: a ascensão dos dispositivos 
móveis. 
As empresas de tecnologia em geral (incluindo as gigantes mencionadas) não 
estão medindo esforços para reinventar seus modelos de negócios. Afinal, aquele 
modelo convencional – que é um usuário sentado, estático, em frente a uma mesa – não 
 
se sustenta mais. Novos negócios se viabilizam justamente devido a novos dispositivos 
computacionais, como smartphones e tablets. Mas parece haver, ainda, espaço para 
muitas novidades no ambiente dos dispositivos móveis. 
 
Venha comigo! 
 
 
 
 
 
 
 
 
1. INTELIGÊNCIA ARTIFICIAL 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/laptop-iluminado 
 
1.1 Conceitos e história da IA 
 
A inteligência artificial (IA) – termo que é mais frequentemente utilizado que o 
também válido inteligência das máquinas (IM) – é, conceitualmente, a inteligência exibida 
por sistemas artificiais, distinguindo-se da inteligência natural característica dos seres 
humanos (e mesmo dos animais, dependendo da perspectiva de análise). Na ciência da 
computação, o campo de pesquisa de IA se define pelo estudo dos agentes inteligentes: 
isso pressupõe qualquer dispositivo artificial que dispõe da capacidade de perceber o 
seu ambiente e tomar ações para maximizar sua chance de sucesso na consecução de 
determinado objetivo, como expõem Russel e Norvig (2003). De maneira um pouco mais 
informal, é possível admitir o uso do termo inteligência artificial para uma máquina que 
emite funções cognitivas que os seres humanos associam como tipicamente 
pertencentes a uma mente humana, como, por exemplo, aprendizado e resolução de 
 
problemas. 
 Admite-se que o escopo conceitual da IA é ainda controverso: à medida que as 
máquinas se tornam cada vez mais poderosas, tarefas antes consideradas como 
associadas à inteligência são frequentemente excluídas dessa definição, um fenômeno 
às vezes denominado efeito da IA, o pensamento de que “[...] Inteligência Artificial é 
qualquer coisa que não se tenha alcançado até agora”, como ironiza Hofstadter (1979, 
p. 601). É o caso, por exemplo, do reconhecimento ótico de caracteres, já excluído da 
definição de IA porque se tornou uma tecnologia rotineira básica de sistemas 
informatizados. Todavia, perdura, atualmente, alguma concordância na indústria e na 
academia de que a real IA passa pela perfeita compreensão da fala humana, capacidade 
de competição de alto nível em sistemas de jogos estratégicos (como xadrez), carros 
autônomos, roteirização inteligente em redes de entrega de conteúdo, simulações 
militares e interpretação de dados complexos. 
 Como lembram Russel e Norvig (2003), historicamente a IA foi estabelecida como 
uma disciplina acadêmica em 1956, experimentando, desde então, ciclos de altos e 
baixos no que se refere ao desenvolvimento da tecnologia. Ao ser comparado ao atual 
estágio de desenvolvimento da IA no século XXI, aquele período pode ser considerado 
uma pré-história da IA, porque o atual nível alcançado de aprendizado de máquina 
(machine learning) da ciência da computação ofusca por completo todas as ferramentas, 
abordagens, problemas e formas de pensamento a respeito de IA do passado. 
 Os temas de pesquisa científica e tecnológica em IA hoje envolvem raciocínio, 
conhecimento, planejamento, aprendizado, processamento de linguagem natural, 
percepção ambiental e capacidade de movimentar e manipular objetos físicos. A 
investigação do conceito de inteligência como um todo é um dos objetivos de longo 
prazo, dada a controvérsia e polêmica que o uso do termo sempre suscita, conforme 
destaca Buonomano (2011). Originalmente uma qualidade humana, o atributo 
inteligência ousa ser incorporado pela TI, ou seja, por sistemas artificiais – máquinas, 
em uma perspectiva mais pragmática. 
 As abordagens tecnológicas de IA incluem métodos estatísticos e inteligência 
computacional, com ferramentas de pesquisa e otimização matemática, redes neurais e 
métodos fundamentados em estatística, probabilidade e economia. Dessa forma, o 
 
campo da IA transita entre ciência da computação, matemática, psicologia, linguística, 
filosofia, neurociência e muitos outros domínios que mais recentemente estão sendo 
estabelecidos, como é o caso da psicologia artificial. 
 Russel e Norvig (2003) recordam que a IA é um campo que nasce da premissa 
de que a inteligência humana poderia ser descrita tão completa e precisamente que uma 
máquina pode ser construída para simulá-la. Obviamente, isso envereda discussões 
filosóficas a respeito da natureza da mente (ser apenas o cérebro ou algo mais) e a ética 
que se impõe ao criar seres artificiais dotados de inteligência similar à humana. Questões 
desse tipo parecem ser exploradas pela filosofia, pela arte e até mesmo pela religião 
desde a Antiguidade. Não obstante, é fato que algumas pessoas consideram a IA um 
perigo para a humanidade caso ela progrida indefinidamente. 
 No campo artístico, seres artificiais são especulados na ficção desde o famoso 
livro Frankenstein, de Mary Shelley, no século XIX. Na época atual, a série de filmes O 
exterminador do futuro (Terminator) é icônica no quesito de explorar os perigos da IA, 
com a história da ameaçadora Skynet assumindo o destino da humanidade. A discussão 
subjacente à IA, que sempre provoca profundas reflexões nas pessoas, é um dos fatores 
que explica o sucesso alcançado por essa franquia. 
 A IA ganhou nova roupagem no século XXI, com suas técnicas experimentando 
um acelerado aprimoramento proporcionado por um avanço no poder computacional, 
com gigantescas quantidades de dados eletrônicos (Big Data) e maior teorização 
científica. Na visão de Kurzweil (2005), é por isso que a IA se tornou uma parte essencial 
da indústria de TI, auxiliando sobremaneira a resolver muitos dos problemas mais 
desafiadores da ciência da computação. 
 Já no século XVII, o filósofo e matemático Gottfried Leibniz, com sua proposta 
teórica Calculus Ratiocinator, fornecia os primeiros fundamentos para a atual tecnologia 
das calculadoras. Entretanto, Leibniz ousava algo além de operações envolvendo 
números: ele defendia operações envolvendo conceitos. Isso é uma evidênciade que, 
vários séculos atrás, os pensadores da época já endereçavam esforços na proposição 
de uma IA, por meio do estudo do raciocínio mecânico ou formal. 
 Séculos depois, a estruturação da lógica matemática levaria ainda à seminal teoria 
da computação de Alan Turing, que propôs que uma máquina, ao manipular símbolos 
 
tão simples como 0 e 1, poderia simular qualquer ato concebível de dedução matemática. 
Como lembra Berlinski (2000), isso foi tão importante na história da computação que a 
ideia de computadores digitais simulando qualquer processo de raciocínio formal ficou 
conhecido como Tese de Church-Turing – além, claro, de ir conduzindo o 
estabelecimento dos computadores tais como conhecidos atualmente. 
 Com demais tecnologias também em avançado desenvolvimento, mediante novas 
descobertas no campo da neurologia, da teoria da informação e da cibernética, a ciência 
começou a ficar cada vez mais próxima da proposição de um cérebro eletrônico. O fato 
é que, desde a década de 1990, a IA vem sendo empregada continuamente em 
aplicações tão amplas como os campos de logística, mineração de dados, diagnósticos 
médicos, entre outros, e entrando cada vez mais em novos territórios. 
 O dia 11 de maio de 1997 é uma data emblemática na história da IA. Naquela 
data, pela primeira vez um computador conseguiu derrotar um campeão mundial de 
xadrez, fato que se mostrou decisivo na constatação do poder de inteligência artificial 
que se conseguiu produzir. Projetado pela IBM especialmente para a função de jogar 
xadrez, o Deep Blue foi uma arquitetura conjunta de um supercomputador com um 
software dedicado, utilizando 256 coprocessadores que eram capazes de analisar em 
torno de 200 milhões de posições por segundo. 
O embate foi proposto com Garry Kasparov, considerado o melhor jogador de 
xadrez de todos os tempos. Já em 1996, no primeiro encontro entre os dois oponentes, 
a máquina conseguiu vencer uma partida disputada contra Kasparov, fato já por si só 
altamente significativo. No entanto, como o campeonato proposto envolvia uma série de 
seis partidas com regras de tempo controlado, Kasparov ainda foi o vencedor naquele 
ano, totalizando três vitórias, dois empates e uma derrota frente ao computador. No ano 
seguinte, após atualização do software, finalmente um campeão mundial humano seria 
definitivamente derrotado, em uma sequência de duas vitórias, três empates e uma 
derrota. Kasparov declarou que, possivelmente, ele era o último humano campeão de 
xadrez da história, num vislumbre do que ocorreria no campo da IA dali por diante. 
 O emprego de técnicas avançadas de estatística (algumas vezes conhecidas por 
deep learning, ou “aprendizado profundo”), redes neurais, tecnologia Big Data e 
computadores de última geração, com supervelocidade de processamento, tem, 
 
efetivamente, permitido significativos desenvolvimentos para que as máquinas 
aprimorem seu aprendizado e percepção, como lembram Russel e Norvig (2003). Os 
exemplos são incontáveis. Para citar alguns, em 2012, o Google admitia um uso 
esporádico de IA em seus projetos; poucos anos depois, já se contabilizavam quase 3 
mil projetos assistidos por IA naquela organização. A Microsoft conseguiu incluir no 
Skype um sistema que automaticamente detecta e traduz a linguagem entre 
interlocutores de diferentes idiomas. E o Facebook lançou um recurso de sistema que 
descreve imagens a pessoas cegas ou com deficiência visual severa. 
 As pesquisas científicas para aprimoramento da IA, evidentemente, continuam. O 
objetivo maior é criar tecnologia que permita a computadores e máquinas funcionarem 
de uma maneira realmente inteligente. O problema geral de simular (ou criar) inteligência, 
dada sua complexidade, costuma ser dividido em campos específicos de estudo, alguns 
dos quais são descritos a seguir. 
 
1.1.1 Raciocínio e solução de problemas 
 
Há muito tempo os pesquisadores procuram desenvolver algoritmos que imitem o 
passo a passo do raciocínio que o ser humano adota para resolver problemas ou fazer 
deduções lógicas, como expõe Berlinski (2000). Mais recentemente, a IA tem 
desenvolvido métodos para lidar com a incerteza e com as informações incompletas, 
empregando conceitos de probabilidade e economia. Para problemas de grande 
complexidade, os algoritmos costumam requisitar um grande volume de recursos 
computacionais, que às vezes implicam em uma explosão combinatória: a quantidade 
de memória ou de tempo de computação se torna astronômica para problemas a partir 
de determinado grau. Por isso, as pesquisas atuais priorizam o desenvolvimento de 
algoritmos mais eficientes de solução de problemas. Como descreve Buonomano (2011), 
a mente humana adota julgamentos rápidos e intuitivos, e não um processo de dedução 
passo a passo que os primeiros modelos de IA procuravam seguir. Por isso, muitas 
pesquisas estão apostando em tecnologias como redes neurais e habilidades senso-
motoras para procurar se aproximar ainda mais da capacidade que o cérebro biológico 
detém. 
 
 
 
1.1.2 Planejamento 
 
Agentes inteligentes precisam estar aptos a estabelecer objetivos e metas e 
conseguir atingi-los. Os sistemas artificiais precisam, de alguma forma, conseguir 
visualizar ou estimar o futuro. Precisam possuir uma representação do estado das coisas 
no mundo e, assim, fazer previsões a respeito de como determinadas ações podem 
mudar o cenário. Assim, o cérebro artificial estará apto a fazer escolhas que maximizem 
a utilidade, ou o valor, das alternativas disponíveis. E, em um ambiente mais complexo 
(tal como é o mundo real), o planejamento é feito muitas vezes com base em múltiplas 
instâncias, em que prevalecem a cooperação e a competição de agentes para a 
consecução de determinado objetivo. Esse é o chamado comportamento emergente, 
adotado por algoritmos evolutivos e a inteligência de enxame (o algoritmo das abelhas). 
 
 
1.1.3 Aprendizado 
 
O aprendizado de máquina (machine learning) sempre foi um conceito 
fundamental das pesquisas em IA, em termos de algoritmos computacionais que se 
aperfeiçoam automaticamente pela experiência que vivenciam. O aprendizado sem 
supervisão é a capacidade de automaticamente procurar padrões em um fluxo de 
entrada (textos, imagens, sons etc.). O aprendizado com supervisão inclui classificação 
e regressão numérica: a primeira é usada para determinar a categoria de algo, depois 
de considerar um número de exemplos de itens de várias categorias. Por sua vez, a 
regressão é a tentativa de produzir uma função matemática que descreva a relação entre 
entradas e saídas, prevendo, assim, como as saídas irão variar com futuras modificações 
nas entradas. Curiosamente, também faz parte dessa tecnologia o chamado 
reinforcement learning (aprendizado por reforço), que prevê recompensas para o agente 
no caso de boas respostas e punição quando há más respostas. Dessa forma, o sistema 
artificial utilizaria uma sequência memorizada de recompensas e punição para definir 
uma nova estratégia ao problema a ser resolvido. 
 
 
1.1.4 Processamento de linguagem natural 
 
Procura-se dar às máquinas a capacidade de ler e entender a linguagem humana. 
 
Uma vez que se disponha de um sistema desses suficientemente poderoso, teclados e 
mouses tendem a desaparecer, sendo substituídos simplesmente pelo comando de voz 
do usuário. Da mesma forma, tais sistemas poderiam alcançar a capacidade de extrair 
informações de fontes físicas de informação, como livros impressos e manuscritos. 
 
 
1.1.5 Percepção 
 
A percepção de máquina (machine perception) é a capacidade de utilizar 
informações coletadas dos mais variados sensores, como câmeras, microfones, 
sensores táteis, sonares, entre outros, para deduzir aspectos do mundo externo. Isso 
inclui funções como reconhecimento de fala, de expressões faciais e de objetos. 
 
 
1.1.6 Movimentação e manipulação física 
 
O campo da robótica é bastante próximoda IA, pois robôs precisam de inteligência 
para desempenhar funções como manipulação de objetos e navegação espacial, com 
os consequentes desafios de localização, mapeamento e planejamento de movimentos. 
 
 
1.1.7 Computação afetiva 
 
 
A affective computing é uma área que procura dotar os sistemas informatizados 
de competência emocional, tanto para reconhecer diferentes estados de humor dos 
usuários (e, assim, ajustar uma melhor resposta a cada situação) quanto para se 
comportar de maneira mais empática na interatividade com as pessoas, desenvolvendo, 
assim, maior sensibilidade nas habilidades sociais. 
 
2. Abordagens da IA 
 
É preciso reconhecer que não existe uma teoria unificada ou um paradigma único 
que guie o campo de pesquisa em IA. Portanto, é normal que os diversos pesquisadores 
divergem em vários aspectos, que tendem a continuar controversos ainda por algum 
 
tempo. Por exemplo, algumas das mais clássicas questões, que ainda permanecem sem 
resposta definitiva, são as seguintes: 
 
● A IA deveria simular a inteligência natural por meio de uma perspectiva psicológica ou 
neurológica? Ou, eventualmente, a biologia humana poderia ser simplesmente desconsiderada 
nesse campo? 
● É possível descrever o comportamento inteligente por meio de princípios simples, tais como lógica 
ou otimização? Ou há necessidade de ser capaz de resolver um grande número de problemas 
totalmente independentes entre si? 
● Poderia a inteligência ser reproduzida pelo uso de símbolos de alto nível, similares a palavras e 
ideias? Ou seria necessário empregar um processamento sub-simbólico? 
 
O ramo de IA costuma ser dividido em três tipos de abordagens: a psicologia 
computacional, a filosofia computacional e a ciência da computação. A psicologia 
computacional é utilizada para produzir programas de computador que imitam o 
comportamento humano. Por sua vez, a filosofia computacional é adotada para 
desenvolver uma mentalidade computacional de fluxo livre, ou seja, com capacidade 
adaptativa. E, naturalmente, a ciência da computação é o que permite criar 
computadores cada vez mais eficientes em desempenhar tarefas que, anteriormente, 
somente pessoas conseguiam realizar. A convergência dessas abordagens permite uma 
maior aproximação do comportamento humano, em termos de mentalidade e de tomada 
de ações da IA. 
 Dessas abordagens, desdobram-se as mais variadas aplicações práticas de 
sistemas de IA. Uma das mais significativas é na área da saúde. A IA está ingressando 
com força nessa indústria ao fornecer assistência de alto nível aos médicos, como, por 
exemplo, encontrando os mais precisos tratamentos para o câncer. É sabido que existem 
centenas de medicações diferentes para esse tipo de condição (até porque câncer é uma 
denominação geral que se dá a uma série de mais de cem doenças que têm em comum 
o crescimento desordenado de células no organismo). Isso sempre representou um 
grande problema para os médicos: opções demais a considerar dificultam a escolha da 
droga que seja realmente a mais adequada para determinado caso. Eis um campo em 
que a IA mostra-se muito útil, em iniciativas como a da Microsoft, em seu Projeto 
Hanover: o objetivo é o desenvolvimento de um sistema de IA que memorize toda a 
produção científica a respeito da doença, todas as fórmulas dos inúmeros medicamentos 
e que, assim, possa ajudar a prescrever a melhor combinação de tratamentos para cada 
 
tipo de paciente. 
 Ainda no tocante ao câncer, diversos são os projetos que envolvem a IA para 
aprimorar o tratamento. Alguns se dedicam a tipos bem desafiadores da doença, como 
é o caso da leucemia mielogênica aguda, um câncer muito agressivo e que não tinha 
tido muito avanço no conhecimento para tratamento há algumas décadas. Em outros 
campos, sistemas artificiais estão se tornando tão eficazes quanto médicos humanos 
para identificar, clinicamente, espécies de câncer de pele. Há projetos em que se utiliza 
a IA para monitorar pacientes de alto risco, por meio da aplicação on-line de 
questionários com o público-alvo, com uma série de questões formuladas com base em 
dados adquiridos de consultas presenciais convencionais entre pacientes e médicos. 
 Na fronteira, ou na integração, entre IA e robótica, também surgem cada vez mais 
cirurgias realizadas por robôs autônomos, com um resultado que apresenta precisão 
muito maior que cirurgiões humanos. Uma cirurgia menos invasiva e mais precisa 
sempre traz melhores resultados na recuperação pós-operatória. 
 A indústria automobilística também está sendo revolucionada pela IA. Com 
destaque para o pioneirismo assumido pela norte-americana Tesla, os últimos anos 
estão mostrando um uso cada vez maior de sistemas de IA para criar e aperfeiçoar carros 
auto-dirigíveis (ou seja, que não necessitam de motorista). Empresas de tecnologia da 
informação, como Apple e Google, estão conduzindo projetos com grande parte dos 
maiores fabricantes de automóveis. 
 Um carro autodirigível possui diversas funções completamente automatizadas, 
tais como frear, mudar de pista, prevenir colisões, realizar navegação e mapeamento do 
entorno. São sistemas específicos que conseguem ser integrados, pela convergência 
entre TI e tecnologia automobilística, em um veículo de altíssima tecnologia. 
 É interessante observar que um dos principais fatores que influenciam a 
capacidade de um carro poder ser autodirigível é a função de mapeamento do entorno. 
A princípio, um veículo dessa natureza precisa ser pré-programado com um mapa da 
região em que transitaria, para assim reconhecer os limites impostos e as condições 
gerais para programar sua própria trajetória. Entretanto, para dotar o carro de uma 
inteligência ainda maior, o que se procura é fazer com que a percepção do veículo seja 
o suficiente para automapear seu percurso. Nesses termos, o Google tem trabalhado em 
 
um algoritmo com o propósito de dispensar por completo mapas pré-programados, 
substituindo-os por um dispositivo que se ajuste automaticamente às variações nas 
imediações do veículo (exatamente como um motorista humano faz para transitar, 
enxergando e tomando decisões com base no que vê). Por motivos óbvios, os 
fabricantes desses sistemas têm procurado investir bastante em aspectos de segurança, 
muito relacionados também aos sistemas de IA, uma vez que a tendência é que, assim 
que a tecnologia estiver devidamente estabilizada na indústria, os carros já saiam de 
fábrica sem volante ou pedais de freio. 
 Na indústria financeira, já há muito tempo as instituições têm utilizado sistemas 
de redes neurais artificiais visando detectar movimentações fora do comum, sinalizando 
tais condições para uma perícia humana. O início do uso de IA no sistema bancário 
remonta a 1987, quando o banco norte-americano Security Pacific National Bank, de 
forma pioneira, estabeleceu um sistema informatizado de prevenção de fraudes, para 
evitar o uso de cartões em operações não autorizadas por seus proprietários. 
Atualmente, os sistemas de IA estão majoritariamente presentes em instituições 
bancárias, financeiras, seguradoras etc., representando uma camada extra de 
segurança na operação dessas instituições, ao monitorar desvios em comportamentos 
típicos dos usuários e mudanças anormais ou anômalas nas operações. 
 Destaque-se que os bancos empregam sistemas de IA atualmente para organizar 
operações, manter contabilidade, operar ações em bolsas de valores e gerenciar 
propriedades. A IA pode manter as atividades das organizações fora de horário 
comercial, favorecendo, assim, que muitas instituições possam oferecer serviços on-line 
24 horas. 
 Na indústria dos videogames, a IA sempre esteve e sempre continuará presente. 
Afinal, ela é a responsável pela animação do personagem que se move por conta própria, 
em contraposição ao personagem que o jogador humano controla diretamente. Os jogos 
eletrônicos de última geração são softwaresde alta complexidade lógica envolvida, pois 
usualmente o jogador humano controla um personagem, deixando por conta do 
computador controlar todo o restante (demais personagens, cenário, enredo, músicas, 
placares, funções especiais etc.). Em jogos dotados de IA, os personagens controlados 
pelo computador não seguem simplesmente um script pré-programado (por onde 
 
movimentar, como agir etc.). A interação desses diversos personagens é realizada por 
meio do que o personagem controlado pelo jogador humano faz, ou seja, dependendo 
de como o jogador conduz seu estilo de jogo, o mundo virtual em que ele está inserido 
aprende e reage à sua estratégia, tornando os jogos, na prática, mais vibrantes em 
função das ações inesperadas que o computador pode adotar no jogo. Por assim dizer, 
a mente artificial se adapta ao comportamento do jogador a cada partida. 
 Para manter a atratividade dos jogos, obviamente os fabricantes do jogo 
implementam níveis de dificuldade nas partidas, de tal forma a permitir que as pessoas 
possam vencer disputas contra o computador. Afinal, desde a época da célebre disputa 
de xadrez do Deep Blue contra o campeão humano, a IA já avançou de tal maneira que 
mesmo os computadores domésticos de hoje são programáveis para se tornarem 
totalmente imbatíveis em jogos contra seres humanos. 
 No mundo dos esportes, a IA também se faz presente, sendo especialmente útil 
para o melhor preparo de atletas profissionais. É o caso de sistemas que combinam 
hardware e software para rastreamento geral de esportistas durante as suas atividades 
competitivas. Com apoio de múltiplos sensores, entre acelerômetros, magnetômetros e 
giroscópios, com informação processada em tempo real por sistemas de IA, o que o 
sistema entrega são recomendações de melhoria, atuando como uma espécie de coach 
artificial para esportistas de qualquer tipo de modalidade. Ou seja, de alguma forma, é 
como se o técnico humano de um esportista pudesse ser substituído por um sistema 
artificial. 
 Se computadores comuns, atualmente, já possuem assombrosa capacidade de 
IA, os supercomputadores, programados para extrair o máximo dessa tecnologia, têm 
mostrado um poder de inteligência realmente incrível. É o caso do famoso 
supercomputador Watson, da IBM, que é voltado para negócios cognitivos. O Watson é 
comercializado como uma plataforma computacional, sendo que os clientes podem 
utilizá-lo, pela internet, para aplicações que requeiram extremo poder computacional 
para análises muito complexas. Por exemplo, um dos feitos do sistema foi ter conseguido 
analisar 20 milhões de artigos científicos sobre câncer em 10 minutos, levando médicos 
a identificarem um tipo raro de leucemia em uma mulher de 60 anos, no Japão. O 
equivalente em esforço humano para realizar a mesma tarefa tomaria intermináveis 
 
séculos, o que, obviamente, seria impraticável em se tratando de salvar uma vida 
humana. 
 
 
 
3. Limites éticos 
 
A IA é tão poderosa que, além de maravilhar a sociedade quanto às suas 
infindáveis possibilidades, também, naturalmente, desperta alguma preocupação com 
eventuais efeitos colaterais. Algumas pessoas, é bem verdade, sentem-se até mesmo 
desconfortáveis quanto ao mundo futuro que os sistemas de IA irão proporcionar, à 
medida que estes avançam (e principalmente dado o ritmo exponencial do progresso 
tecnológico), como observam Kurzweil (2005) e Singh (2012). É necessário, pois, discutir 
possíveis limites éticos que talvez tenham que ser impostos. Celebridades como o físico 
Stephen Hawking e os empresários Bill Gates e Elon Musk são exemplos de pessoas 
que têm dedicado especial atenção ao controle que teria de ser estabelecido sobre 
sistemas artificiais. 
 Na década de 1950, o escritor de ficção científica Isaac Asimov se notabilizou 
como um profícuo produtor de obras sobre o futuro da sociedade, em especial prevendo 
as inúmeras situações envolvendo robôs. Um de seus mais famosos livros, Eu, robô, 
além de ter ganhado uma adaptação cinematográfica em 2004, introduziu ao mundo o 
que Asimov (1950) considerava as Três Leis da Robótica: 
 
1. Um robô não pode ferir um humano ou permitir que um humano sofra algum mal. 
2. Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem 
em conflito com a primeira lei. 
3. Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis 
anteriores. 
 
As regras serviriam como um protocolo de paz permanente entre seres autômatos 
e seres biológicos, impedindo a ocorrência de rebeliões. Vinda do mundo da ficção, essa 
proposta de Asimov se tornou diretriz objetiva no mundo da tecnologia da informação, 
sendo até hoje respeitada pelos pesquisadores de IA. Asimov, portanto, foi um dos 
precursores da discussão ética sobre a relação da sociedade humana com a tecnologia. 
 Evidentemente, os maiores motivos de preocupação são as capacidades futuras 
 
da IA, e não exatamente aquilo que ela de fato dispõe atualmente. Ocorre que, numa 
projeção de crescimento acelerado exponencialmente, não se sabe, ao certo, se tal 
futuro é questão de décadas ou de poucos anos, sendo o preparo a seu devido tempo 
fundamental. Então, algumas características por ora exclusivamente humanas passam 
a ser objeto de preocupação, quando sistemas artificiais também as incorporarem. Mentir 
deliberadamente, por exemplo, é um desses comportamentos inquietantes. Os seres 
humanos fazem isso o tempo todo, até mesmo para uma estratégia básica de 
sobrevivência no meio social. E isso, recentemente, deixou de ser um atributo 
exclusivamente biológico. Pesquisadores do Georgia Institute of Technology, nos 
Estados Unidos, conseguiram desenvolver robôs dotados de IA que são capazes de 
trapacear. Essa pesquisa objetivava produzir robôs especialmente úteis para operações 
militares – e, no campo bélico, o embuste, a indução do oponente ao erro, a sabotagem 
e a mentira fazem parte da estratégia de combate. 
 Uma vez que esses robôs inteligentes sejam aperfeiçoados, os militares terão 
condições de colocá-los em campo de batalha. Eles podem servir, por exemplo, como 
guardas, vigiando suprimentos e munição dos inimigos. Dominando a arte da mentira, 
tais robôs podem ganhar tempo até que reforços sejam capazes de chegar, mudar 
estratégias de patrulhamento para enganar oponentes humanos ou até mesmo outros 
robôs inteligentes adversários. 
Convém reconhecer que, nos últimos conflitos militares de grande proporção mundo 
afora, drones estão sendo cada vez mais empregados em operações de busca e 
assassinato de lideranças inimigas. Portanto, o real temor é que a linha que separa o 
campo militar das demais funções na sociedade, como a convivência civil, possa ser 
rompida, em algum tempo, levando a consequências difíceis de controlar. O domínio e 
uso de inteligência artificial por parte de organizações terroristas, por exemplo, pode 
levar a resultados realmente catastróficos. 
 Além dessa preocupação, a IA está gradativamente tomando postos de trabalho 
das pessoas. Diversos especialistas estão seriamente preocupados que os avanços na 
inteligência artificial e na automação possam resultar em desemprego massivo. Nos 
EUA, destaca Schwab (2016), cerca de 250 mil robôs já executam trabalhos que antes 
somente pessoas eram capazes de fazer. O que se receia é que esse ritmo de 
 
automação generalizada aumente exponencialmente, ano após ano. Tudo começa pelas 
funções mais operacionais, ou mesmo “braçais”, de emprego de força física: essas são 
facilmente substituíveis com as atuais tecnologias robóticas e de IA integradas. 
Entretanto, em um futuro provavelmente bastante próximo, com o avanço nesses 
campos de tecnologias, até mesmo as funções mais criativas podem ser ameaçadas. 
Afinal, com a crescente evolução da capacidade de IA, virtualmente qualquer tarefa que 
uma pessoa faça poderia ser melhor desempenhada por um sistema artificial.Isso 
chegará, em dado momento, até mesmo ao campo do empreendedorismo, da cultura e 
da filosofia. 
 A IA no universo hacker também leva a projeções perturbadoras. A ciência da 
computação vem desenvolvendo sistemas de hacking com IA altamente eficazes para 
combater os crackers (os hackers com má intenção). Na forma de robôs virtuais (bots) 
superinteligentes, os hackers artificiais são capazes de atacar as vulnerabilidades dos 
inimigos e, ao mesmo tempo, perceber e consertar as suas próprias fraquezas, 
protegendo o desempenho e a funcionalidade dos sistemas que defendem. Tal 
tecnologia, projetada para uso legal, poderia ser roubada ou copiada por criminosos, o 
que resultaria, então, em crackers artificiais. O embate virtual entre esses dois lados 
poderia levar a consequências inesperadas, talvez até mesmo comprometendo a 
funcionalidade da internet em nível global (algo como um DoS – denial of service de 
proporção massiva). 
 Reconheça-se, também, que os sistemas de IA estão cada vez mais entendendo 
o comportamento humano, como bem lembra Schwab (2016). Atualmente, o Facebook 
é a plataforma de mídia social mais importante do mundo. Para muitas pessoas, o acesso 
é um hábito do dia a dia, tão corriqueiro quanto se alimentar ou dormir. E quando essas 
pessoas acessam o sistema, estão interagindo, mesmo sem se dar conta disso, com 
uma inteligência artificial. Ao compreender como as pessoas se comportam ou interagem 
com postagens de outras pessoas na rede social, a IA é capaz de fazer recomendações 
sobre coisas em que os usuários poderiam muito provavelmente se interessar ou atender 
a determinadas preferências. 
 Uma postagem de uma nova fotografia no perfil de um usuário já aciona, 
automaticamente, detectores virtuais de fisionomia, de tal forma que, assim que a 
 
imagem é carregada, aparecem sugestões de tag (identificação) dos rostos que estão 
na foto, de acordo com os perfis de amigos daquele usuário. Esse nível de 
personalização ao extremo da experiência do usuário da rede social é o que leva o 
Facebook ao seu valor de mercado de centenas de bilhões de dólares: ele permite que 
propagandas sejam comercializadas com alto nível de assertividade, ou seja, os 
anunciantes têm mais certeza de que seu investimento será convertido em peça 
publicitária que atingirá o público realmente desejado. Isso leva a importantes discussões 
sobre o quanto se pode ou não abusar da falta de privacidade em meio digital, o que é 
uma legítima questão ética. 
 Os robôs dotados de IA estão ficando cada vez mais parecidos fisicamente com 
os seres humanos, o que pode levar a situações, no mínimo, curiosas. Como observa 
Singh (2012, 2014), chegará o dia em que, ao observar uma pessoa, ou mesmo ao 
conversar com ela, alguém terá de fazer um grande esforço para deduzir se está 
conversando com um ser humano de verdade ou com um sistema artificial camuflado 
em trejeitos humanos. 
 Alguns protótipos já estão sendo desenvolvidos com espantosa eficácia quanto a 
imitar uma pessoa. É o caso de Yangyang, uma máquina de inteligência artificial em um 
corpo robô que consegue realizar um cordial aperto de mãos, ou mesmo um caloroso 
abraço. Trata-se de um projeto em conjunto do pesquisador japonês Hiroshi Ishiguro, 
especialista em robôs, com a pesquisadora chinesa Song Yang, professora de robótica. 
O robô Yangyang teve sua aparência física baseada na professora Yang, como se fosse 
um clone artificial. E não é o único caso: a Universidade Tecnológica Nanyang, de 
Singapura, também criou sua versão de robô humano, simulando uma mulher. Seu nome 
é Nadine, e ela trabalha como recepcionista naquela universidade. É dotada de cabelos 
escuros, tem pele macia e interage com as pessoas sorrindo, reconhecendo rostos e 
cumprimentando com aperto de mãos. Uma das mais espantosas capacidades que a 
robô Nadine possui é de reconhecer convidados, estabelecendo conversas com eles 
com base em assuntos anteriormente tratados. Assim como ocorreu no caso de 
Yangyang, Nadine foi programada para ser uma cópia física de um ser humano, no caso, 
uma professora daquela universidade chamada Nadia Thalmann. 
 Não é somente a aparência física que torna os robôs inquietantes. Com os 
 
avanços no campo da computação afetiva, a IA está começando a sentir emoções. 
Afinal, o que é que definitivamente costuma distinguir humanos de robôs? Não é mais a 
inteligência: afinal, sistemas artificiais estão se tornando muito mais inteligentes que as 
pessoas. Também não é mais a aparência, pois a mimetização física já chegou a um 
grau de desempenho realmente impressionante. Alguns diriam que a única qualidade 
restante para separar homens de máquinas talvez seja a capacidade de sentir emoções, 
e, se essa for a fronteira final, ela parece muito próxima de ser ultrapassada. 
 Isso pode ser constatado ao se analisar o projeto de especialistas do grupo East 
Asia, da Microsoft, que conseguiram criar um programa de IA que “sente” as emoções 
dos seus interlocutores, estabelecendo um diálogo com as pessoas de uma forma que 
parece ser completamente natural e humana. Seu nome é Xiaoice, uma IA programada 
para responder a perguntas como se fosse uma jovem de 17 anos de idade. Quando ela 
não sabe sobre um assunto, pode até mentir. Se é contrariada ou surpreendida, pode 
ficar com raiva ou vergonha. Ela também demonstra poder se comportar de forma 
sarcástica, ficar ansiosa e até mesmo agir maldosamente. Há um recurso de 
imprevisibilidade em Xiaoice que lhe permite interagir com as pessoas como se ela fosse 
um ser humano. Seus criadores trabalham para aperfeiçoá-la continuamente. Mas isso 
não depende mais apenas dos projetistas humanos. Segundo a Microsoft, Xiaoice já 
entrou em uma auto-aprendizagem e em um loop de autodesenvolvimento, tendendo a 
se tornar cada vez melhor com o passar do tempo. 
 Parece claro, portanto, que é inevitável que se alcance a época em que as 
pessoas conviverão com seres artificiais no seu cotidiano, sem que esses sejam 
identificados como robôs. Uma pessoa poderá interagir com um atendente de farmácia, 
um veterinário ou um policial sem ter certeza se são seres humanos ou não. Algumas 
questões emergem nessa perspectiva, ainda sem respostas definitivas: robôs devem se 
identificar claramente como tais diante das pessoas? O que a ocultação desta 
informação implica de bom e de ruim para os seres humanos? Deve-se permitir que os 
robôs desenvolvam seu próprio código de ética, uma vez que se tornam livres 
pensadores, com um poder de raciocínio e intelecto muito acima da capacidade 
humana? 
 A questão mais filosófica possível é: se o ser não tem vida, merece respeito? 
 
Talvez as definições de vida passem a ser repensadas. Seria necessário ser educado e 
cortês ao falar com um robô? Como Kurzweil (2005) aponta, os humanoides vivendo na 
sociedade humana provavelmente precisarão de seu próprio conjunto de leis. 
 Finalmente, um cenário futuro bastante plausível é aquele em que não se terá 
uma oposição ou confronto entre máquinas e seres humanos, mas, muito pelo contrário, 
uma total integração – novos organismos cibernéticos que revolucionem, em muito, as 
próprias potencialidades humanas. Singh (2012, 2014) cogita seriamente o 
aparecimento de super-humanos, por causa da integração do homem à tecnologia da 
informação, Internet das Coisas, nanotecnologia, robótica, Big Data e inteligência 
artificial. Para futuristas como Kurzweil (2005), uma singularidade já se definiu: já 
nasceram os primeiros seres humanos que não estão fadados a ter de morrer um dia, 
graças ao que serão submetidos em anos vindouros em termos de novas tecnologias. 
 
 
 
 
2. TECNOLOGIAS PARA DISPOSITIVOS MÓVEIS 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/mulher-enquadra-uma-grande-
estrutura-de-aluminio-no-telefone-para-a-foto 
 
2.1 Sistemas embarcados 
 
O mundo contemporâneo é caracterizado por um atributo bastantepeculiar, que é a 
existência de uma computação invisível. Esse termo é utilizado para se referir a toda 
uma arquitetura de sistemas informatizados que dificilmente é notada visivelmente na 
prática. Como aponta Singh (2012, 2014), os computadores rodeiam o dia a dia das 
pessoas nos seus mais variados afazeres, fazendo, de fato, muitas atividades 
acontecerem, mas não existe uma percepção explícita dessa interação homem-
computador. Afinal, lá estão os elementos computacionais presentes nos mais variados 
objetos e aplicações, como celulares, brinquedos, automóveis, aviões e até mesmo nos 
 
marcapassos que garantem a sobrevivência de tantos cardiopatas. 
 Esse é o contexto que serve para definir sistemas embarcados. Quando se trata 
deles, o que está subjacente é o fato de existirem computadores trabalhando nos 
bastidores da atividade humana, como destaca Heath (2002). 
 E sua onipresença invisível é bastante significativa. Basta reconhecer que os 
sistemas embarcados são a maior aplicação computacional no mundo. Para Singh 
(2012, 2014), o número de dispositivos com sistemas embarcados ultrapassa a 
quantidade de PCs, notebooks, servidores e afins. É interessante observar que a Internet 
das Coisas faz parte dos sistemas embarcados, mas eles não estão restritos a objetos 
conectados. Afinal de contas, a tecnologia de sistemas embarcados é bem anterior à da 
Internet das Coisas. As coisas são objetos como carros, refrigeradores, roupas, relógios, 
televisores, impressoras, pulseiras, capacetes de motocicletas e até mesmo toalhas de 
hotéis conectadas à internet. Por isso, é possível admitir que a Internet das Coisas é uma 
tecnologia resultante da tecnologia de sistemas embarcados: um aprimoramento ou 
recurso específico para possibilitar o funcionamento em rede. 
 Com maior ou menor grau de sofisticação tecnológica, sistemas embarcados 
sempre estiveram por toda parte. Alguns exemplos são telefone, carro, relógio, bicicleta, 
roteador de wi-fi etc. evoluindo para novas fronteiras (e aí o devido reconhecimento à 
importância da Internet das Coisas), como óculos e lentes de contato atuando como 
dispositivos computacionais. 
 A invisibilidade social é, de fato, uma das mais interessantes características 
desses sistemas, como lembra Heath (2002). Por exemplo, a maior parte das pessoas 
que têm algum conhecimento sobre as partes que constituem um veículo automotivo 
sabe que algo chamado injeção eletrônica de combustível é um desses componentes 
básicos. Porém, são poucas as pessoas que têm um conhecimento claro desse 
dispositivo, que sabem explicar um módulo desses em operação. A razão é que, 
diferente dos computadores convencionais, a computação presente no controle de fluxo 
de combustível em um veículo se dá de forma embarcada, apresentando ainda um grau 
de interação mínimo com os usuários do carro. Se há alguma interação, ela se restringe, 
de forma indireta, ao funcionamento dos pedais e do câmbio do automóvel. Assim, para 
a maior parte das pessoas, ignora-se por completo o engenhoso e complexo processo 
 
associado à injeção eletrônica, tampouco a existência de um computador dedicado a ela. 
 Semelhante condição ocorre quando as pessoas utilizam um equipamento tão 
comum no cotidiano urbano quanto um elevador. Pressionar o botão para subir ou 
descer, quando do lado de fora, ou do andar ao qual se quer chegar, já do lado de dentro, 
é uma atividade tão intuitiva que é feita de maneira praticamente automática pelos 
usuários. Ocorre que a ação de comandar um botão no painel do elevador gera um sinal 
eletrônico, uma ordem de interrupção, que é tratada pelo respectivo computador daquele 
sistema. Ele, então, faz as devidas análises e roteiriza suas paradas, para que cada 
pessoa tenha seu destino atendido. Obviamente, tais pessoas não ficam sabendo como 
isso é feito operacionalmente, ou que decisões são tomadas pela máquina sem que as 
pessoas possam intervir (por exemplo, ignorar novos pedidos de usuários que queiram 
entrar no elevador nos outros andares, enquanto o equipamento sobe ou desce depois 
de já ter atingido o peso-limite com os ocupantes atuais). 
 Portanto, sistemas embarcados podem ou não interagir com usuários humanos, 
e isso depende exclusivamente de seu objetivo programado. Sem dúvida, em relação a 
desempenho e qualidade, é possível afirmar que um bom sistema embarcado é aquele 
que funciona sem ser notado. 
 Sistemas embarcados estão intimamente relacionados ao emprego de hardware 
(eletrônica) e software (instruções ou comandos) que são incorporados em um 
dispositivo que vise a determinada finalidade. Por sinal, a diferença conceitual entre um 
sistema embarcado e um computador de finalidade geral reside justamente na 
objetividade. Computadores convencionais, tais como PCs, notebooks e afins, são 
máquinas que se classificam como multiobjetivo. Elas foram concebidas e desenvolvidas 
para aplicação em um amplo domínio de utilizações. Por sua vez, sistemas embarcados 
são caracterizados pelo dimensionamento de recursos orientados a um domínio de 
aplicações muito menor. Muitas vezes, até mesmo uma única singular aplicação. 
 Por outro lado, na perspectiva de sua arquitetura, computadores genéricos e 
sistemas embarcados comungam de uma divisão bastante similar: afinal, tudo orbita em 
torno da unidade central de processamento, da memória e dos respectivos periféricos 
associados. 
 A unidade central de processamento, que é muitas vezes referenciada pela sigla 
 
do termo equivalente em inglês, CPU, executa as instruções responsáveis por efetuar 
cálculos, realizar tomada de decisões e tratar eventos (tais como a resposta a um botão 
que é pressionado). Geralmente, a CPU possui a estrutura constitutiva clássica de um 
processador de computador tradicional, tal como unidade lógica e aritmética (ULA), 
unidade de controle (UC) e registradores, entre outras. 
 Aliás, quanto às instruções, ou aos comandos, que a unidade central de 
processamento atende, convém destacar que elas podem ser dispostas como software 
ou firmware. Enquanto software é uma denominação genérica que se dá aos programas 
de computador (incluindo o sistema operacional), firmware diz respeito a instruções e 
comandos com uma finalidade bem específica (e pouco interativa com o usuário). 
Firmware é projetado para a função de controlar diretamente o hardware. Diz respeito à 
memória não volátil, isso é, que retém informação mesmo após o corte de energia 
elétrica de alimentação do sistema. Como atua diretamente sobre os circuitos 
eletrônicos, uma característica típica é sua considerável rapidez, pois a resposta de 
desempenho é essencial para o bom funcionamento do sistema. 
 No caso dos computadores, o firmware está associado à BIOS (basic input and 
output system, ou sistema básico de entrada e saída), um elemento fundamental para 
que o sistema atue da forma esperada após ser inicializado ou ligado. 
 Na prática, enquanto que em um computador ou smartphone é possível instalar e 
desinstalar software tantas vezes quanto se deseje, o firmware muito raramente é 
atualizado 
– quando isso ocorre, normalmente é por uma orientação do fabricante dos respectivos 
dispositivos eletrônicos, para corrigir bugs ou melhorar o desempenho daquele 
componente. 
 A memória cumpre sua função de armazenamento de dados e instruções 
relacionados às operações da unidade central de processamento. É interessante 
observar que as instruções e os dados podem dividir a mesma memória, como ocorre 
com os computadores convencionais (a chamada arquitetura Von Neumann, que é a 
clássica), ou podem ser separados em memórias distintas (denominada arquitetura 
Harvard, mais recente), sendo que essa última costuma ser a mais recorrente em 
sistemas embarcados. 
 
Por sua vez, periféricos são as interfaces gerais da unidade de processamento 
com o mundo exterior, cumprindo a função de trazer informações para o sistemaou 
enviar informações originadas no sistema. Um exemplo de um periférico é o conversor 
analógico/ digital que é acoplado a um sensor térmico, convertendo a temperatura efetiva 
de um ambiente (informação de natureza analógica) em números binários (informação 
de natureza digital), para que, assim, a unidade de processamento possa interpretar e 
processar as devidas informações. 
 Para Heath (2002), um sistema embarcado existe para um propósito, que é o de 
controlar processos. Por assim dizer, reconhece-se que tal sistema é adotado para atuar 
sobre um determinado problema. Um processo controlado pode significar desde 
situações bastante simples, como abrir e fechar uma porta de forma automatizada, até o 
complexo gerenciamento autônomo de um robô-cirurgião. Tal controle se estabelece 
mediante o uso de periféricos, que são selecionados e aplicados com base no problema-
alvo. 
Nos sistemas embarcados, duas categorias de periféricos se distinguem: os 
sensores e os atuadores. Sensores são responsáveis pela aquisição de informação 
externa, ou seja, originada do processo que precisa ser controlado. Tais informações são 
essenciais para a unidade de processamento, afinal, com base nelas, as respectivas 
decisões são tomadas. Por definição, um sensor adequado é aquele que fornece 
informação confiável, não provocando alterações no processo-alvo. Em outras palavras, 
isso implica que um sensor não deve mudar os valores da grandeza física pela qual é 
responsável por medir, como, por exemplo, diminuir a temperatura ou aumentar o peso 
de um motor sob seu monitoramento. 
 Na prática, essa garantia de não interferência pode ser uma tarefa bastante 
desafiadora, dependendo da tecnologia que é empregada no sensor (por exemplo, 
interação mecânica). Os avanços tecnológicos no que diz respeito a sensores sempre 
buscam diminuir essa interferência do momento da medição. Existem os mais variados 
tipos de periféricos com função de sensores, tais como os específicos para temperatura 
(termistores), pressão (piezos), movimento (acelerômetros), toque (touchscreen), 
contato (chaves mecânicas), distância (sonar/infravermelho), óticos (câmeras), entre 
diversos outros. Em suma, os sensores são os periféricos de entrada, responsáveis por 
 
enviar informação do processo (meio externo) para o sistema embarcado. 
 Por sua vez, atuadores proporcionam ao sistema embarcado a capacidade de 
intervenção no meio em que atuam, ou modificação desse meio. Esses dispositivos, 
portanto, desempenham funções visando a interferir no processo sob seu controle. 
Exemplos são motores, ventiladores, luzes, aquecedores, resfriadores, chaveadores, 
entre outros. Assim, os atuadores são os periféricos de saída, cumprindo a função de 
encaminhar informação interna (do sistema embarcado) para o processo (meio externo 
que está sob seu controle). 
 Na dinâmica de seu funcionamento, a unidade de processamento decide acionar 
ou não os atuadores tomando por base as informações previamente recebidas dos 
sensores. Segundo Heath (2002), essa configuração é conhecida como sistema em 
malha fechada ou sistema realimentado. Existe, ainda, outra forma de acionar os 
atuadores, com base no tempo decorrido, por exemplo. Esse sistema é conhecido por 
malha aberta, porque não se utilizam informações originadas do processo sob controle 
– não existem sensores envolvidos. 
 Na prática, a desvantagem de sistemas em malha aberta é justamente apresentar 
a mesma resposta funcional para diferentes situações envolvendo o processo sob 
controle. Por isso, costuma-se reconhecer que sistemas em malha fechada são 
inteligentes, no sentido que compensam variações no ambiente (temperatura, 
iluminação, umidade etc.), oferecendo respostas personalizadas àquela situação 
momentânea. Assim, sistemas em malha fechada são mais robustos, com mais 
componentes, sendo mais caros que sistemas de malha aberta, mas muito mais 
versáteis. 
 A indústria percebeu, já há algumas décadas, que as novas demandas do 
mercado, somadas à evolução exponencial da tecnologia microeletrônica, tornariam os 
negócios em torno de dispositivos embarcados bastante promissores. Por isso, as 
grandes marcas de fabricantes industriais focaram na pesquisa e no desenvolvimento de 
chips otimizados para difundir cada vez mais as aplicações de sistemas embarcados. É 
assim que começou a era dos microcontroladores, processadores computacionais mais 
simples, com alguns periféricos integrados no próprio chip, entre eles contadores, 
conversores analógicos/digitais, portas seriais etc. Também existem microcontroladores 
 
dispondo de memória de programa e dados integrados no mesmo chip. A crescente 
miniaturização dos chips favorece novas aplicações desses sistemas, além de reduzir 
custos de desenvolvimento dos sistemas embarcados. 
 Enfim, como resume Singh (2012, 2014), já não é mais possível visualizar o 
mundo contemporâneo sem a onipresença dos sistemas embarcados. As pessoas 
simplesmente usufruem das benesses cotidianas proporcionadas por tais sistemas, sem 
se dar conta disso. A computação, na prática, ganha corpo além das máquinas estáticas 
em mesas de trabalho. Por sinal, uma das maiores revoluções que os sistemas 
embarcados deixam de legado ao mundo é a da interconexão inteligente total de 
virtualmente tudo, na forma da tecnologia da Internet das Coisas. 
 
2.2 Internet das Coisas 
 
A Internet of Things (IoT, ou Internet das Coisas) é um conceito diretamente ligado 
à conectividade. De uma maneira ampla, tudo interconectado: uma ampla e contínua 
geração e transferência de dados entre diferentes instâncias. Se o termo é novo, o 
conceito já é um tanto quanto antigo, remonta aos anos 1980, quando se começou a 
explorar, mais profundamente, as possibilidades da chamada computação ubíqua, ou 
computação onipresente. Essa onipresença da informática no cotidiano seria tão ampla 
que, por mais paradoxal que possa parecer, ela teria um efeito de transparência: todos 
os objetos são computadorizados, ou dispõem de sensores ligados a computadores, mas 
essa estrutura de TI fica invisível aos olhos humanos. Muito graças ao design, ajudado 
extraordinariamente por avanços no campo da nanotecnologia: afinal, objetos como um 
vaso de flor, uma bola de futebol ou um cartão de Natal devem ser, fundamentalmente, 
vistos, manipulados e utilizados como tais – com a estrutura de TI que os faz inteligentes 
meticulosamente incorporada em sua estrutura física. 
Então, se a ideia é antiga, ela teve sua razoável demora em ser implementada em 
função do ambiente de propagação: a internet é o meio essencial para as funcionalidades 
de interconexão envolvidas, e a rede mundial de computadores, com uso em larga escala 
(comercial/ residencial), só seria uma realidade a partir dos anos 1990. E, muito mais 
recentemente, a extrema miniaturização que já se consegue na indústria da TI possibilita 
 
uma gama muito maior de objetos conectados. 
 O impacto que isso traz ao mercado, em termos de criação de novos negócios, 
possui projeções que chegam a cifras trilionárias de faturamento – segundo a consultoria 
PricewaterhouseCoopers (2017), em torno de US$ 1,7 trilhões. Tal fato se dá porque 
virtualmente qualquer objeto que já exista hoje como oferta de utilidade à sociedade 
ganha muitas novas funções à medida que se torna inteligente: automóveis, roupas, 
eletrodomésticos, óculos, portas, lâmpadas, livros, bicicletas, brinquedos etc. Cada um 
desses exemplos são indústrias já consolidadas com produtos convencionais, e que 
podem ser completamente revolucionárias em termos de novas ofertas de valor e 
respectivo volume adicional de faturamento. 
 A internet se estabeleceu como tecnologia básica de comunicação a partir do 
estabelecimento das pilhas de protocolo TCP/IP, a essência da comunicação entre 
computadores em rede. Juntos, o TCP (Transmission Control Protocol, ou protocolo de 
controle de transmissão)e o IP (Internet Protocol, ou protocolo de internet, ou ainda 
protocolo de interconexão) formam um conjunto de protocolos que pode ser visto como 
um modelo de camadas, em que cada uma é responsável por um grupo de tarefas, 
fornecendo um conjunto de serviços bem definidos para o protocolo da camada superior. 
Nessa arquitetura, as camadas mais altas estão mais perto do usuário (a chamada 
camada de aplicação), lidando com dados mais abstratos, confiando em protocolos de 
camadas mais baixas para tarefas de menor nível de abstração. 
 A versão mais atual do protocolo de internet é o IPv6, e sua configuração foi muito 
influenciada pelo fenômeno industrial da Internet das Coisas e dos dispositivos móveis. 
Essa tecnologia, lançada em 2012, vem sendo implantada de forma gradual na internet, 
funcionando concomitantemente ao tradicional IPv4, situação essa descrita 
tecnicamente como dual stack ou pilha dupla. A seu devido tempo, o IPv4 é desativado 
e a internet passa a operar exclusivamente com IPv6. 
Isso ocorre porque o IPv4, operando com 32 bits (ou, mais precisamente, 4 blocos 
de 8 bits), suporta apenas cerca de 4,3 bilhões de endereços. Há alguns anos, tal 
quantidade poderia parecer muito mais que suficiente para comportar todo o conteúdo 
da internet. Ocorre que, com a maior inclusão digital, em um mundo que caminha para 7 
bilhões de habitantes, e como cada pessoa tem vários dispositivos conectados à rede 
 
(cada um deles requisitando seu próprio endereço digital), o esgotamento já se tornava 
iminente. Por sua vez, o IPv6, operando com 128 bits (8 grupos de 16 bits), permite 
alcançar um número de endereços IP que, de tão gigantesco, foge à capacidade humana 
de compreender sua real magnitude: 3,4 × 1038. O número, mais que um preciosismo 
técnico, é uma folga mais que suficiente para possíveis novos endereços digitais, uma 
garantia de que não se defronte com nova necessidade de redefinir o padrão de 
endereços de internet no futuro. 
 O tema do esgotamento dos atuais endereços de internet baseados em IPv4 é 
tão relevante que alguns governos têm criado políticas públicas específicas para garantir 
a transição para o novo padrão, pois nenhum país quer correr o risco de ficar à margem 
da nova internet. 
 Portanto, tratar de Internet das Coisas significa considerar a realidade imposta 
pela computação pervasiva, como inspira o sugestivo termo everyware (um trocadilho 
para o inglês everywhere, ou “por toda a parte”, com software, hardware, firmware etc.). 
Vale destacar que essa tecnologia reúne não apenas os microprocessadores (CPU) em 
dispositivos móveis, mas também middleware avançado, sistemas operacionais, mobile 
code, sensores, novas interfaces de E/S e de usuários, redes, protocolos móveis, 
localização e posicionamento e ciência dos materiais (nanotecnologia/miniaturização). 
 Em última análise, todos os conceitos que procuram explicar a computação 
ubíqua compartilham uma visão de dispositivos de processamento que trabalham em 
rede, buscando sempre serem pequenos, baratos e robustos. Para Poslad (2009), a 
ubiquidade se alcança ao distribuir esses dispositivos inteligentes em todas as escalas 
que sejam possíveis ao longo das experiências do cotidiano das pessoas. Ou seja, 
procura-se torná-los tão corriqueiros que transparecem, na prática, “invisibilidade” na 
ótica do usuário. Assim, uma considerável parte dos usuários, provavelmente sua 
maioria, sequer suspeita que diversos equipamentos, máquinas e acessórios que os 
cercam nos afazeres do dia a dia são, em algum grau, computadorizados. 
Todavia, é interessante observar que nem tudo o que está conectado à Internet 
das Coisas é dispositivo computadorizado: de fato, a maioria dos itens é formada de 
sensores, dispositivos esses que alimentam os computadores com as mais variadas e 
ricas informações. A analogia com organismos naturais é bastante válida: considerando 
 
que uma pessoa é um ser inteligente, atribui-se tal inteligência ao conjunto completo (o 
organismo), e não apenas a seu cérebro. Um ser humano é constituído por um cérebro, 
comportando-se em função equivalente a uma CPU no mundo dos computadores, mas 
também é formado por uma extensa rede de neurônios, elementos fundamentais para 
que o cérebro humano tenha atuação efetiva sobre todo o corpo sob sua 
responsabilidade – desde a correta funcionalidade da respiração, atuação dos órgãos 
vitais e dos cinco sentidos (olfato, audição, paladar, tato e visão). 
 No contexto da computação, disposição semelhante acontece: tão importante 
quanto as unidades de processamento são os sensores espalhados pelo mundo, para 
que informações sejam recolhidas e processadas. E, assim como a proporção do 
organismo humano é de um cérebro para 86 bilhões de neurônios, em um mundo de 
Internet das Coisas, a quantidade de sensores suplanta espantosamente o número de 
computadores. São nesses termos que o protocolo IPv6 torna-se tão necessário para 
comportar a transformação digital que o mundo atravessa atualmente: a quantidade de 
endereços na rede explodiu exponencialmente. 
 Observa-se que a indústria tem disponibilizado sensores dos mais variados a 
preços cada vez menores, e isso implica em um importante efeito prático: viabiliza-se de 
forma mais acelerada a difusão de sistemas de Internet das Coisas, uma vez que os 
custos de implantação se tornam mais acessíveis, como destaca Schwab (2016). 
Segundo pesquisa da BBC Research, estima-se que o mercado global de sensores 
possa atingir mais de US$ 154 bilhões até 2020, com taxas de crescimento anual acima 
de 10%. Em meio às várias tecnologias de sensores em geral, a categoria de sensores 
inteligentes (smart sensors), que são projetados especialmente para aplicações de 
Internet das Coisas, tem participação cada vez destacada, como aponta Singh (2014). A 
estimativa era de um volume de negócios de quase US$ 7 bilhões em 2017, aumentando 
ano após ano sua relevância em meio aos sensores convencionais. 
 A revolução resultante dos dispositivos e objetos inteligentes é uma das 
características que bem define a Quarta Revolução Industrial. Afinal, essa tecnologia 
consegue conectar as pessoas aos seus mais variados gadgets de uma forma que nem 
se almejava ser possível até poucos anos atrás. No entanto, ainda são poucos os 
profissionais de TI que reconhecem que a Internet das Coisas traz também novos 
 
problemas e preocupações, alguns de aspecto técnico, e outros de natureza social e 
ambiental. Castells (2009) entende que, pela incipiência da nova tecnologia, a maioria 
desses novos problemas e preocupações são ainda pouco reconhecidos, embora 
existam evidências de que situações práticas relacionadas já começam a acontecer. As 
consequências de um mundo tomado pela Internet das Coisas são difíceis de prever com 
precisão. 
 Por exemplo, convém analisar a necessidade de padrões abertos. Em um primeiro 
momento, a Internet das Coisas consiste em muitos dispositivos individuais com suas 
próprias especificações (conforme respectivos fabricantes). Nesta fase, isso ainda não 
parece despertar muita preocupação, mas chegará a época em que o crescimento e a 
cobertura global atingirão um estágio tal que será imprescindível que dispositivos de 
diferentes fabricantes se comuniquem entre si, através de linguagem (de máquina) 
comum. Assim, embora muito do desenvolvimento atual da Internet das Coisas 
empregue software de código aberto, ocorre, todavia, que padrões e protocolos 
universais costumam ficar em segundo plano no desenvolvimento de tecnologia 
inteligente. 
 Outro problema que não pode ser ignorado diz respeito às demandas energéticas. 
Como aponta Castells (2009), na visão da consagrada Gartner, referência global na 
indústria de TI, chegou-se a quase 5 bilhões de dispositivos inteligentes em 2015, com 
previsão de se alcançar, até 2020, 25 bilhões de objetos conectados, um crescimento 
em ritmo exponencial – quecontinuará vigoroso pelas próximas décadas. Juntamente 
com essa difusão de novos dispositivos eletrônicos, ocorre um correspondente aumento 
no consumo de energia elétrica. Em 2012, levantamentos realizados a respeito dos 
datacenters que alimentavam a rede mundial de computadores estimaram um consumo 
na ordem de 30 bilhões de Watts de eletricidade por ano. Tal patamar equivale a 
alimentar uma cidade de médio porte. Por certo, como aponta Singh (2012, 2014), a 
Internet das Coisas exigirá um dispêndio energético muito maior. A pressão pela troca 
definitiva da matriz energética por fontes renováveis de energia (a chamada energia 
limpa) torna-se, portanto, urgente para que o desenvolvimento tecnológico alcançado 
seja sustentável. 
 
 
2.3 O fim dos smartphones 
 
Aparentemente, o senso comum entenderia que se vendem cada vez menos 
computadores convencionais (desktops e até mesmo notebooks), e cada vez mais 
smartphones. Afinal, com seu apelo de mobilidade e poder de processamento cada vez 
maior, a tendência parece ser de um crescimento sem fim no número desses 
dispositivos. Há quem possa supor o atingimento, um dia, de uma relação 1:1 com o 
número de habitantes do planeta. 
 Curiosamente, em meio à explosão exponencial no número de celulares 
inteligentes no mercado nos primeiros anos dessa tecnologia, especialistas concordam 
que há uma probabilidade muito grande de ela cair rapidamente em ostracismo. 
Naturalmente, se algo tão poderoso nos dias atuais como um smartphone cai em desuso, 
é porque algo muito mais revolucionário está prestes a tomar o mercado. 
 Mais de uma década após o inovador iPhone ser lançado, começa-se a discutir 
se a contínua evolução do celular inteligente pode chegar ao fim. Alguns críticos afirmam 
que as inovações nesse campo parecem ter entrado em um loop: se antes telas 
pequenas tinham mais apelo que telas grandes, a tendência inverteu-se, com a 
valorização de telas maiores. Uma vez que toda a indústria adote como padrão uma tela 
maior, o inovador seria ousar diminuir o tamanho da tela. Se a primeira geração de 
celulares era do modelo flip (abrir e fechar) e teclado físico, inovou-se com as telas 
deslizáveis e touchscreen (para teclado virtual). Aparentemente, um movimento de 
reviver o estilo dos antigos blackberries com teclado físico tenta ser difundido como 
inovação. Em suma, talvez a tecnologia dos smartphones tenha já alcançado seu ápice, 
com esgotamento de possibilidades de reais melhorias, e o porvir agora é uma transição 
para outra tecnologia. 
 Ocorre que especialistas da indústria, como Singh (2012, 2014) e Schwab (2016), 
apontam que a inovação nos smartphones está abrindo espaço para funções que antes 
eram exclusividade do telefone, mas que se tornam comum em softwares e serviços de 
todas as formas: é a Internet das Coisas redefinindo o conceito de carros, de geladeiras, 
de relógios e até de jóias. 
Os analistas e designers de produtos entendem que novos avanços na tecnologia 
 
dos celulares inteligentes estão sendo impedidos por limites práticos da tecnologia atual. 
Ou seja, sobre o que seria possível fazer com os smartphones em termos de tamanho 
da tela, de bateria e de capacidade de rede. Por isso, tudo na indústria do celular vem 
tendendo a ser cada vez menos radical e mais incremental: ser ligeiramente mais rápido, 
um pouco maior, com um pouco mais de armazenamento de dados ou resolução melhor. 
Gigantes de tecnologia, como Apple, Google e Microsoft, duelam para definir 
quem será o vanguardista em tornar os celulares redundantes. A Internet das Coisas tem 
sido a chave nesse processo de disrupção tecnológica: as empresas estão testando 
novas formas de ajudar as pessoas a interagir com o mundo, com dispositivos pessoais 
ativados por voz, instalados em vestíveis (wearable technology), como anéis, brincos, 
calçados, relógios e óculos inteligentes. De fato, importantes conquistas têm sido 
alcançadas, com assistentes pessoais virtuais como o Google Now, Apple Siri, Microsoft 
Cortana e Amazon Alexa, com funções apreciáveis como leitura de textos ou e-mails aos 
usuários, resposta a perguntas variadas, controle de funções de celulares e navegação 
espacial urbana. 
O valor está cada vez mais no software e menos no hardware. A maneira como a 
indústria evolui parece indicar que o aparelho celular, em si, vai se tornar apenas uma 
das diversas formas de se fornecer acesso ao ambiente digital. Há que entender as 
funções do celular inteligente se dividindo em dois campos: aparelhos com telas cada 
vez maiores, favorecendo o entretenimento, e equipamentos vestíveis compactos, para 
funções tão variadas como calendário, monitoramento de ritmo cardíaco ou sistema de 
pagamento facilitado. 
Um dos pontos nevrálgicos da evolução da atual tecnologia dos smartphones é a 
bateria, que não parece acompanhar a mesma velocidade dos demais componentes do 
sistema. Há muito, são aplicados esforços na ampliação da vida útil das baterias, cada 
vez mais demandadas. Afinal, usuários assistem cada vez mais a vídeos, quando não 
há filmes inteiros no celular. 
Os futuros aparelhos também exigem mais flexibilidade com as telas. Acredita-se 
que displays flexíveis, que podem ser enrolados ou dobrados e alcançar tamanhos 
expressivos como 14 polegadas ou mais, podem definitivamente libertar os celulares de 
serem definidos pelo tamanho da tela. Afinal, nos dias atuais, o que justifica ter um tablet? 
 
A conferência F8 é um tradicional evento anual realizado pelo Facebook, para 
congregar desenvolvedores de tecnologia da informação e aprimorar a própria rede 
social, a internet como um todo e, de modo geral, o novo mundo digital. Na conferência 
realizada em 2016, o CEO da empresa, Mark Zuckerberg, revelou sua visão em relação 
aos aparelhos celulares. O Facebook decidiu investir em pesquisa e desenvolvimento de 
óculos inteligentes, visualmente muito parecidos com óculos convencionais. 
Para Zuckerberg, o futuro parece apontar para um mundo sem telas. Não mais 
restrito a uma visão de ficção científica, o mundo que o Facebook se propõe a construir 
(ou a capitanear o processo de construção) é bastante ambicioso e tecnologicamente 
cada vez mais viável. Trata-se de uma mudança de paradigma, em que, em vez de seguir 
dando continuidade a smartphones, tablets, televisores ou qualquer outro dispositivo à 
base de uma tela de interação com o usuário, as imagens poderiam ser simplesmente 
projetadas nos olhos das pessoas, os sons nos ouvidos, enquanto os comandos são 
dados com o cérebro. Nesse grau máximo de interatividade do homem com a nova 
tecnologia, os celulares, então, sucumbiriam definitivamente. 
Um mundo com essa inquietante combinação de realidade virtual e real pode soar 
excitante para a sociedade – e, claro, para os acionistas do Facebook. Ao mesmo tempo, 
abre as portas para um cenário futurista controverso, em que essa organização – ou 
qualquer outra empresa de tecnologia – torna-se o elo intermediário de tudo o que as 
pessoas vêem, escutam e, quem sabe, até o que pensam. 
 Conforme os anos avançam, a integração entre Internet das Coisas, realidade 
virtual e aumentada e inteligência artificial foge cada vez mais da fantasia para se 
converter em realidade. Essa é a tendência que pode condenar à obsolescência os 
smartphones. De todos os vestíveis, óculos inteligentes possivelmente sejam o ponto de 
inflexão dos celulares. 
Singh (2012, 2014) projeta para um horizonte inferior a 10 anos a estabilização da 
tecnologia necessária para essa mudança de paradigma. Nesse meio-tempo, incorrem 
os esforços, como o do Facebook, em se desenvolver uma tecnologia que pode fazer 
uma pessoa escrever com o cérebro. Na prática, o desdobramento disso é a 
possibilidade de digitar, selecionar e clicar simplesmente ao pensar, utilizando os óculos 
inteligentes. Nesse sentido, estão sendo aprimoradas plataformas como o Camera 
 
Effects, doFacebook, que faz do telefone um dispositivo de realidade aumentada. 
O potencial é enorme. Convém lembrar que a missão declarada da empresa de 
Zuckerberg está relacionada ao compartilhamento, e essa espécie de teletransporte 
virtual, onipresente e interativo, é um meio imensamente poderoso para tal finalidade. 
Na conferência F8, foi revelado o Facebook Spaces, um aplicativo de realidade 
virtual social, que permite que as pessoas imersas na realidade virtual se reúnam umas 
com as outras, mesmo que algumas delas estejam no mundo real e outras estejam 
conectadas a um fone de ouvido. É um cenário que alguns até podem considerar 
assustador; de qualquer modo, é uma das formas como o Facebook trabalha para que 
amigos passem um tempo juntos em um futuro não tão longínquo. 
Outro anúncio do Facebook diz respeito às intenções de revitalizar a sua 
plataforma Messenger com ferramentas de inteligência artificial, o que pode torná-la mais 
amigável para os negócios. Os chatbots do Facebook Messenger vêm se esforçando em 
ganhar aceitação do público, em uma nova abordagem que excede o mero texto digitado. 
Caso prospere o plano do Facebook para fazer alguém ouvir com a pele, as pessoas 
poderão falar com alguém (que use os óculos) e a pessoa poderá responder apenas com 
um pensamento (ÉPOCA NEGÓCIOS, 2017). 
Com cada vez mais pessoas vivendo e interagindo socialmente nesse novo 
mundo semi virtual, empresas líderes em novas tecnologias, como é o caso do 
Facebook, sabem que ser a chave para todas as interações traz um incrível ganho 
financeiro. 
Para Singh (2012, 2014) e Schwab (2016), é bastante provável que esteja a 
menos de uma década de distância desse mundo tecnológico projetado pelo Facebook. 
É preciso considerar que tudo isso parece levar a um cenário em que essa rede social 
(e também outros líderes tecnológicos como Apple, Google e Microsoft) passe a deter 
um controle sem precedentes sobre a concepção da realidade. 
 Zuckerberg, falando pelo Facebook, não está sozinho nessa visão de futuro a 
respeito dos celulares. Para a Microsoft, por exemplo, os dispositivos futuros não 
parecerão em nada com os atuais smartphones. Para a empresa, também há a 
concordância que os até agora tradicionais dispositivos retangulares e em vidro perderão 
 
ainda mais espaço para novos gadgets vestíveis, incutidos com recursos de realidade 
virtual e realidade aumentada, um reforço na aposta dos óculos inteligentes. 
Caminha-se, com isso, a um espetacular aprimoramento nos assistentes pessoais 
das grandes empresas de tecnologia. Se hoje são acionáveis por comandos de voz ou 
texto digitado, tendem a, em breve, viabilizarem o computador holográfico, voltado para 
interpretar gestos e vozes, ou seja, interagir em um grau muito mais íntimo (e natural) 
com os usuários, como vislumbra Singh (2012, 2014). 
Momentaneamente, são dois os principais motivos que ainda dão alguma 
sobrevida aos smartphones: preço e maturidade tecnológica. Os protótipos de novos 
gadgets que vêm sendo testados têm, ainda, um custo de produção alto, e, além de 
caros, são grandes e pesados, com um ecossistema desenvolvedor ainda não totalmente 
desenvolvido, o que impede, por ora, o lançamento massivo no mercado. Por isso, tem 
sido adotada alguma cautela. A indústria tem seus receios de evitar repetir o que ocorreu 
com o Google Glass, provavelmente uma inovação que não vingou por prematuridade 
no lançamento comercial. Empresas líderes, como a Microsoft, vivem seus dilemas: não 
querem chegar atrasadas ao mercado (caso do Windows Phone frente ao iOS e Android, 
cuja consequência da demora acarretaria no posterior cancelamento do produto), mas 
também rejeitam a ideia de lançar um produto incompleto e repleto de falhas. 
 Concordando com Singh (2012, 2014) e Schwab (2016), a mobilidade parece ter, 
enfim, um futuro mais que promissor. Ao mesmo tempo, determinadas tecnologias, como 
smartphones, talvez não tenham tanta sobrevida assim, tendendo a serem consideradas 
datadas na Indústria 4.0. A velocidade das mudanças tecnológicas é avassaladora, e 
cabe à sociedade como um todo, seja no papel de consumidores ou de empreendedores 
tecnológicos, estar permanentemente vigilante. 
 
 
 
 
 
 
 
 
SAIBA MAIS 
 
Economia de energia em dispositivos móveis 
(URRIZA et al., 2004, p. 1) 
 
 
A redução do consumo de energia em dispositivos móveis, (...) por diversos fatores, é 
hoje um problema de importância capital. Dentre esses fatores pode-se citar a crescente 
necessidade de mais capacidade de processamento exigida pelos novos programas, 
aplicativos e sistemas operacionais. Infelizmente, o avanço da tecnologia de baterias tem 
sido lento em relação à capacidade de fornecimento de energia e mesmo em relação ao 
grau de miniaturização exigido pelos dispositivos móveis. A tecnologia CMOS é hoje 
comumente utilizada no processo de fabricação de processadores. Para essa tecnologia, 
verifica-se que o consumo de energia é aproximadamente proporcional ao quadrado da 
voltagem de alimentação. Assim, uma redução do nível de voltagem implica em uma 
diminuição de ordem quadrática no consumo de energia e na dissipação de calor. Vários 
processadores comerciais exploram essa característica e implementam um mecanismo 
denominado Regulagem Dinâmica de Voltagem (Dynamic Voltage Scaling). Essa é uma 
técnica efetiva na redução do consumo de energia, aplicável em várias situações. 
Particularmente, em sistemas móveis de tempo real, o desafio é minimizar o consumo 
de energia e garantir as restrições temporais desses sistemas. [...] 
 
#SAIBA MAIS# 
 
 
 
REFLITA 
 
Inteligência artificial na educação universitária: quais as contribuições? 
(POZZEBON; FRIGO; BITTENCOURT, 2004, p. 7) 
 
A inteligência artificial tem sido utilizada no processo de ensino-aprendizagem como um 
auxílio ao aluno, para um enriquecimento das aulas presenciais e fixação do conteúdo 
apresentado. Entretanto, os STI [Sistemas de Tutoria Inteligente] ainda estão sendo 
desenvolvidos e aperfeiçoados de acordo com o retorno obtido pela sua utilização. 
 
Os STI ainda não preenchem as lacunas deixadas pela educação tradicional, servindo, 
por ora, como um estímulo na aprendizagem. 
 
A utilização de ferramentas com técnicas de IA motiva o aluno através de novos recursos 
tecnológicos que prendem sua atenção, testam seus conhecimentos, avaliam a 
aprendizagem dos conceitos apresentados, além de permitir que o aluno reveja o 
conteúdo no momento que lhe é mais conveniente. 
 
O uso de STI pelos professores é bastante interessante, pois permite a eles avaliar o 
desempenho de seus alunos por meio de métodos estatísticos obtidos com a utilização 
desse tipo de ferramenta. Além disso, fornece parâmetros que facilitam a detecção de 
falhas conceituais, tanto de aulas presenciais quanto das não presenciais. 
 
Os sistemas tutores também são utilizados para o ensino a distância, em que o indivíduo 
pode cursar uma disciplina de forma não presencial, permitindo que as universidades 
ampliem sua área de atuação e levem o conhecimento até o aluno. 
 
[...] 
#REFLITA# 
 
 
CONSIDERAÇÕES FINAIS 
 
Prezado(a) aluno(a), 
 
 Ao interagir com máquinas, as pessoas criam expectativas humanas e emocionais 
perante elas. Isso não é de surpreender, afinal, as máquinas estão se tornando 
estranhamente familiares porque imitam seus criadores. Seus recursos são 
programados com base na visão de mundo e na autopercepção dos seres humanos, e 
tudo isso está sendo feito a uma velocidade realmente impressionante, impregnando a 
cultura e até mesmo os conceitos de beleza e estética. 
 O fato é que, à medida que a IA se desenvolve, as pessoas confiam cada vez 
mais em sua capacidade, a ponto de esses sistemas artificiais se tornarem 
indispensáveis para o estilo de vida que os seres humanos se habituaram a ter. Em 
última instância, a IA tem o propósito de qualquer outra tecnologia:tornar o mundo 
melhor. 
 Uma pessoa com um mínimo de percepção pode concluir que tudo está mudando 
a sua volta, em um ritmo inédito frente ao que as gerações anteriores enfrentavam. É a 
transformação digital ocorrendo a olhos vistos. 
 A mobilidade é um vetor de análise dessas mudanças, e molda a forma como as 
novas tecnologias convergem entre si e entregam novas oportunidades para a vida das 
pessoas. O movimento era, enfim, inevitável: a tecnologia da informação não poderia 
ficar presa a um equipamento obsoleto na mesa de trabalho de uma pessoa, mas sim 
cumprir seu mais valioso papel, que é o de dar suporte pleno ao dia a dia dos seres 
humanos, a qualquer hora, em qualquer local. 
 
Nos vemos no próximo capítulo! 
 
 
 
LIVRO 
 
Título: A Quarta Revolução Industrial 
Autor: Klaus Schwab 
Editora: Edipro. 
Sinopse: A Quarta Revolução Industrial é diferente de tudo o que a humanidade já 
experimentou. Novas tecnologias estão fundindo os mundos físico, digital e biológico de 
forma a criar grandes promessas e possíveis perigos.A velocidade, a amplitude e a 
profundidade desta revolução estão nos forçando a repensar como os países se 
desenvolvem, como as organizações criam valor e o que significa ser humano. Como 
fundador e presidente executivo do Fórum Econômico Mundial, Klaus Schwab esteve no 
centro dos assuntos globais por mais de 40 anos. 
 
 
FILME/VÍDEO 
 
 
Título: A história da Inteligência Artificial. 
Ano: 2018. 
Sinopse: A série de história da tecnologia vai misturar passado, presente e futuro nesse 
novo capítulo. Com o oferecimento da Udacity, a gente vai contar a história da 
Inteligência Artificial, ou IA, desde as primeiras pesquisas, passando pelas revoluções e 
chegando nas possibilidades pro futuro.. 
Link: https://www.youtube.com/watch?v=Lhu8bdmkMCM 
 
 
 
 
REFERÊNCIAS 
 
ASIMOV, I. I, robot. New York: Gnome Press, 1950. v. 1. 
BERLINSKI, D. The advent of the algorithm. San Diego, CA: Harcourt Books, 2000. 
BUONOMANO, D. O cérebro imperfeito: como as limitações do cérebro 
condicionam as nossas vidas. São Paulo: Campus, 2011. 
CASTELLS, M. The rise of the network society, the information age: economy, 
society and culture. 2. ed. West Sussex, UK: Blackwell, 2009. 
ÉPOCA NEGÓCIOS. Facebook quer que as pessoas “digitem com o cérebro” e 
“ouçam com a pele”. Disponível em: 
<http://epocanegocios.globo.com/colunas/Tecneira/noticia/2017/04/facebook-quer que-
pessoas-digitem-com-o-cerebro-e-oucam-com-pele.html>. Acesso em: 2 out. 2017. 
FROST & SULLIVAN. Top 20 global megatrends and their impact on business, 
cultures and society. San Antonio: Frost & Sullivan, 2014. 
HEATH, S. Embedded systems design. Burlington, MA: Newnes, 2002. 
HOFSTADTER, D. Gödel, Escher, Bach: an eternal golden braid. New York, NY: 
Vintage Books, 1979. 
KURZWEIL, R. The singularity is near: when humans transcend biology. 
Westminster, UK: Penguin Books, 2005. 
POSLAD, S. Ubiquitous computing: smart devices, smart environments and smart 
interaction. Hoboken, NJ: J. Wiley, 2009. 
POZZEBON, E.; FRIGO, L.; BITTENCOURT, G. Inteligência artificial na educação 
universitária: quais as contribuições? Revista CCEI, n. 8, p. 33-40, 2004. 
PRICEWATERHOUSECOOPERS. Disponível em: 
<https://www.pwc.com/m1/en/media-centre/2017/ iiot-transformation-that-will-put-cios-
to-the-test.html>. Acesso em: 19 out. 2017. 
RUSSELL, S.; NORVIG, P. Artificial intelligence: a modern approach. 2. ed. Upper 
Saddle River, NJ: Prentice Hall, 2003. 
SCHWAB, K. A quarta revolução industrial. São Paulo: Edipro, 2016. 
 
SERAPIÃO, A. Fundamentos de otimização por inteligência de enxames: uma visão 
geral. Sba Controle & Automação, v. 20, n. 3, 2009. Disponível em: 
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0103-17592009000300002>. 
Acesso em: 24 set. 2017. 
SINGH, S. New mega trends: implications for our future lives. eBook Kindle: 
Basingstoke: Palgrave Macmillan, 2012. 
URRIZA, J. et al. Economia de energia em dispositivos móveis. In: WORKSHOP DE 
COMUNICAÇÃO SEM FIO E COMPUTAÇÃO MÓVEL, 6., 2004, Fortaleza (CE). 
Anais... Fortaleza, 2004. p. 48-56. 
WEISER, M. The computer for the 21st century. Mobile Computing and 
Communications Review, V. 3, n. 3, p. 3-11, 1999. 
 
 
 
UNIDADE IV - TI SUSTENTÁVEL E TI NA EDUCAÇÃO 
Professor Mestre Cleber Semensate 
 
 
Plano de Estudo: 
● TI verde 
● TI voltada para a educação 
 
 
Objetivos de Aprendizagem: 
● Estudar o mercado CleanTech. 
● Entender as melhores tecnologias para consumir recursos naturais. 
● Ver quais Tecnologias servem para diminuir poluição. 
● Estudar a revolução dos MOOC. 
● Ver a realidade virtual e a realidade aumentada como ferramentas de ensino. 
● Entender como a TI tornará a educação mais inclusiva. 
 
 
INTRODUÇÃO 
 
Prezados alunos(as)! 
 
Existe uma crescente pressão na indústria em geral para que as organizações 
consigam desempenhar modelos mais sustentáveis de negócio, sendo a 
sustentabilidade definida por um tripé de resultados satisfatórios nos aspectos 
econômico, social e ambiental. Como qualquer tripé, bastaria uma dessas sustentações 
ser comprometida para o negócio como um todo não prosperar. 
A tecnologia da informação é especialmente útil nesse cenário, favorecendo que 
o equilíbrio ambiental se traduza também em adequação econômica e social. O TI verde 
abre, ainda, inúmeras oportunidades de negócios, em termos de uma ampla oferta de 
prestadores de serviços especializados, para atuarem como fornecedores de soluções 
de sustentabilidade às empresas de todos os ramos e portes. 
Chegará o dia em que a educação será tão revolucionária a ponto de se alcançar 
a compreensão instantânea de todo o conhecimento produzido pela humanidade? Esse 
cenário pode ir gradativamente migrando das mais fantasiosas histórias de ficção 
científica para a realidade do mundo em que se vive. 
Porém, até se alcançar esse estágio, em que a biotecnologia de um chip ou uma 
transmissão wireless (sem fio) resolva tudo a esse respeito, há um longo caminho para 
que os processos de educação evoluam – e em todos os seus gradativos passos, a 
tecnologia da informação é especialmente útil para ampliar possibilidades e aumentar a 
eficácia do trabalho em educação. 
 
Vamos comigo! 
 
 
 
 
 
1. TI VERDE 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/fotografia-de-paisagem-no-iphone 
 
1.1 O mercado CleanTech 
 
O termo CleanTech (Clean Technologies, ou tecnologias limpas) é empregado, de 
modo geral, para representar todas as tecnologias voltadas à sustentabilidade ambiental. 
Algumas vezes, também se utiliza a expressão equivalente GreenTech (tecnologia 
verde). Ou seja, uma forma de promover o progresso industrial e da humanidade, 
concomitantemente à preservação dos recursos naturais, uma vez que o meio ambiente 
é o entorno básico para a sustentação da vida no planeta. 
 Quando se trata da aplicação desse princípio especificamente no campo da 
tecnologia da informação, é comum referir-se ao termo TI verde. De fato, TI verde atua 
como elemento de convergência e integração dos princípios sustentáveis também às 
demais tecnologias, uma vez que novas tecnologias ganham amplo espaço para 
desenvolvimento em ambiente digital. 
 Um dos grandes movimentos que permeiam o setor industrial, em geral, em 
relação às práticas ambientalmente sustentáveis é a certificação ISO 14.001, forma pela 
qual uma organização ganha reconhecimento público e documentado de que ela adota 
e mantém um sistema de gestão ambiental eficaz. A Norma ISO 14.001 (Sistema de 
gestão ambiental: requisitos com orientações para uso) é um documento que estabelece 
os requisitos mínimos obrigatórios que as organizações (de qualquer porte e ramo) 
devem adotar para poder dispor de uma gestão ambiental eficaz. Como um documento 
internacional de referência para planejamento de processos de gestão, sua adoção é 
voluntáriapor parte das empresas. Contudo, na prática, possuir tal certificação já faz 
parte de muitas exigências contratuais, principalmente em organizações que atendem o 
mercado corporativo (empresas que têm outras empresas com clientes): é comum que 
organizações já certificadas pela ISO 14.001 exijam igual certificação de seus 
fornecedores – ou, ao menos, evidências que existe projeto para certificação nas 
empresas de sua cadeia produtiva. 
 Atualmente, existem muitos sistemas informatizados que auxiliam as empresas a 
conseguirem a conquista e a manutenção da certificação ISO 14.001. Estes softwares 
oferecem funções que atendem a alguns dos requisitos mais críticos a saber: 
 
● Identificação de aspectos e impactos ambientais: a norma exige que as empresas façam o 
mapeamento dos itens e elementos da organização que interajam, de alguma forma, com o meio 
ambiente (aspectos ambientais). Também precisam ser identificados os respectivos impactos 
ambientais associados, ou seja, a consequência que a utilização daqueles aspectos ambientais traz 
para o meio ambiente. Isso permite que, com base em critérios técnicos específicos para cada 
modelo de negócio, os riscos ambientais sejam hierarquizados, e ações proporcionais de controle 
sejam estabelecidas. Esse mapeamento é dinâmico, precisa ser atualizado frequentemente, e conta 
com um número muito grande de variáveis a controlar, por isso, a informatização deste processo é 
muito importante para a maior conformidade junto à gestão ambiental. 
● Identificação dos requisitos legais aplicáveis: a norma exige que as empresas demonstrem conhecer 
qual é a legislação ambiental aplicável às suas operações. Isso não costuma ser uma tarefa das 
mais simples, sobretudo em países como o Brasil, que estabelecem uma estrutura complexa de leis 
em esfera federal, estadual e municipal. Além de ser necessário ter uma relação permanentemente 
atualizada das leis ambientais que lhe dizem respeito, as organizações também são requisitadas a 
demonstrar evidências de que estão atendendo aos critérios específicos impostos por tais leis – ou, 
ao menos, que as pendências legais, estão sob controle (tratadas como projetos internos de 
melhoria de gestão, com prazo definido para regularização). Dependendo da complexidade das 
operações de uma empresa, aspectos legais, como licenciamento ambiental prévio, podem ser 
impostos. Cabe lembrar que operar uma empresa na ilegalidade, além de sujeitá-la a pesadas 
multas, pode acarretar em fechamento do negócio, por força policial ou legal. Trata-se, portanto, de 
mais um processo bastante sensível à gestão ambiental, e, mais uma vez, a informatização do 
gerenciamento da legislação ambiental favorece em muito a conformidade da gestão ambiental. 
 
A norma ISO 14.001 apresenta, ainda, a exigência de que as organizações 
identifiquem e apliquem soluções tecnológicas ambientalmente mais adequadas às suas 
operações. Nesse aspecto, a digitalização dos processos produtivos também pode ser 
considerada uma frente da TI verde, por exemplo, ao fazer com que o papel seja 
substituído pelo meio digital, em softwares ou sistemas como GED (gerenciamento 
eletrônico de documentação). 
 Soluções tecnológicas ambientalmente adequadas, aliás, quase sempre orbitam 
em torno de fontes renováveis de energia, o que é uma diretriz que move organizações 
e nações em busca da troca da matriz energética. Parecia absurdo, até bem pouco 
tempo atrás, a pretensão de se alimentar uma empresa, uma fábrica, uma cidade, um 
estado ou uma nação com eletricidade 50%, 75% ou até mesmo 100% renovável. 
Entretanto, cada vez mais, um número crescente de empresas e governos se 
compromete a atingir esse objetivo. 
 A difusão das energias renováveis requer uma abordagem ampla de energia 
limpa, o que inclui o portfólio completo de suas fontes, como energia solar, eólica, 
geotérmica, biogás e hidrelétricas tanto de grande quanto de pequena escala. Aproveita-
se, ainda, a geração distribuída e a produção local para consumo próprio, bem como 
soluções econômicas inovadoras, tais como a comercialização de créditos de energia 
renovável ou certificados verdes. Tudo isso requer uma abordagem bastante holística, 
não se restringindo apenas à implantação das fontes renováveis por si só, mas 
agregando tecnologias de alto desempenho (iluminação por leds, edifícios ecológicos 
etc.), gerenciamento inteligente de demanda e armazenamento alternativo de energia. 
 Aparentemente, alcançar um índice 100% de fontes renováveis pode parecer 
demasiado audacioso, mas o fato é que isso já está começando a acontecer. Consta no 
relatório técnico do Clean Edge (2015) que a Apple, por exemplo, muito recentemente 
abriu mão de combustíveis fósseis para alimentar todas as suas operações nos EUA 
(escritórios corporativos, lojas de varejo e datacenters) com um índice 100% de fontes 
renováveis. 
 Outras grandes empresas seguem o exemplo para alcançar o patamar 100% 
renovável para suas operações: é o caso de Intel, Microsoft e Unilever. O gigante de TI 
Google já tinha comprometido mais de US$ 2 bilhões em recursos para projetos solares 
e eólicos e, recentemente, conduz projetos para datacenters alimentados inteiramente 
por fontes renováveis. Tudo isso demonstra a grande demanda por soluções 
tecnológicas verdes – e contratação de quem as forneça, o que abre um gigantesco e 
lucrativo mercado a ser explorado. 
 E não apenas empresas fazem parte desse mercado consumidor. O Clean Edge 
(2015) cita que a Costa Rica, por exemplo, tornou-se a primeira nação a receber toda a 
eletricidade gerada por energias renováveis durante os primeiros 100 dias de 2015, o 
que foi possível graças a uma combinação de hidrelétricas com usinas geotérmicas. Pelo 
menos 74 regiões da Alemanha atingiram 100% de eletricidade obtidas de fontes 
renováveis. Diversas pequenas ilhas atingiram 100% de fontes renováveis (ou chegaram 
a patamar muito próximo), como a Ilha Kodiak, no Alasca e El Hierro, nas Ilhas Canárias. 
Três cidades dos EUA são atualmente alimentadas inteiramente por eletricidade oriunda 
de fonte renovável: Aspen (Colorado), Burlington (Vermont) e Greensburg (Kansas). 
Compromissos públicos foram firmados para um quadro futuro ainda melhor: é o caso 
do Havaí, comprometido a atingir 100% de eletricidade renovável até 2045, do estado 
norte-americano de Vermont, de obter 75% de sua eletricidade a partir de energias 
renováveis até 2032, e da meta de energia renovável da Califórnia de alcançar 50% até 
2030. 
 De fato, como apontam Singh (2012, 2014) e Schwab (2016), o crescimento 
exponencial das energias renováveis desde o início do século XXI mostra que substituir 
por completo a matriz energética já não é mais um sonho para muitas corporações e 
governos. Para se ter uma noção dos valores envolvidos, em 2000, o tamanho do 
mercado global de energia solar e energia eólica era de US$ 6,3 bilhões. Em 2014, as 
cifras chegavam a US$ 190 bilhões, representando uma taxa de crescimento de mais de 
27% ao ano no período. A melhoria no aprimoramento da tecnologia também foi muito 
significativa: a eficiência das células fotovoltaicas aumentou mais de 42%, e a eficiência 
da geração eólica progrediu mais de 20%. Como observa o Clean Edge (2015), essas 
taxas de crescimento vigorosas durante um período de tempo prolongado são raridade, 
geralmente experimentadas em setores de alta tecnologia que inovam rapidamente, e 
não a indústria de energia, tradicionalmente estável. 
 O relatório da Clean Edge (2015) destaca, ainda, que as energias renováveis 
representaram aproximadamente 59% do incremento líquido à capacidade de energia 
global em 2014, com usinas eólicas, painéis solares e hidrelétricas dominando o 
mercado. Globalmente, as energias renováveis representam quase 30% da capacidade 
de geração de energia do mundo. 
 Não apenas para o vetor das energias renováveis, mas para possibilitar inovações 
tecnológicassustentáveis em geral (CleanTech/TI verde), é interessante observar que 
existe forte apoio governamental na forma de incentivos variados às organizações que 
promovam esses desenvolvimentos.
Isso também ocorre no Brasil, com o Finep, órgão de fomento financeiro à 
inovação, ligado ao Ministério da Ciência, Tecnologia e Inovação, que possui programa 
específico para esse tema. Trata-se do Inova Sustentabilidade, iniciativa conduzida em 
conjunto com Ministério do Meio Ambiente e com o Banco Nacional de Desenvolvimento 
Econômico e Social (BNDES). O programa tem a finalidade de coordenar as ações de 
fomento à inovação e aprimorar a integração dos instrumentos de apoio disponíveis para 
investimentos em tecnologias ambientais. 
 Seu objetivo é o apoio financeiro, com recursos públicos, de planos de negócio 
com foco em inovações que induzam a sustentabilidade no desenvolvimento brasileiro. 
Nesse âmbito, várias são suas linhas temáticas: 
 
• Produção sustentável: eficiência energética no setor industrial; produção sustentável mais eficiente 
de carvão vegetal; prevenção e controle de emissões atmosféricas; tratamento e redução no uso 
de substâncias tóxicas ou perigosas; coleta, tratamento, redução e reutilização de efluentes 
líquidos industriais; redução, reutilização e reciclagem de resíduos sólidos industriais e 
recuperação de áreas degradadas. 
• Recuperação de biomas brasileiros e fomento às atividades produtivas sustentáveis de base 
florestal: soluções territoriais integradas para restauração de biomas com espécies nativas e uso 
de sistemas de informações georreferenciadas; madeira tropical (aumento da produtividade em 
unidades de manejo florestal e serrarias; mecanismos de rastreabilidade da madeira; novas 
espécies madeireiras para fins comerciais e agregação de valor aos produtos madeireiros). 
• Saneamento ambiental: tratamento, recuperação, reciclagem, aproveitamento energético e 
disposição de resíduos sólidos urbanos; água (sistemas de abastecimento de água com foco em 
controle de perdas e otimização das redes; tratamento de água em regiões de escassez hídrica, 
incluindo dessalinização e tratamento de água salobra; drenagem urbana); tratamento e 
valorização dos subprodutos gerados no tratamento de esgotos sanitários; coleta, transporte, 
triagem, descontaminação e tratamento de materiais em sistemas de logística reversa; remediação 
de solos contaminados. 
• Monitoramento ambiental e prevenção de desastres naturais: sistemas de sensores ambientais 
aplicáveis a monitoramento e prevenção de desastres naturais, especialmente para pluviometria 
e geotécnica; sistemas para monitoramento de áreas de risco a partir de sensores 
aerotransportados ou satelitários. 
 
Podem participar do processo de seleção do Inova Sustentabilidade empresas 
independentes ou pertencentes a grupos econômicos que apresentem receita 
operacional bruta igual ou superior a R$ 16 milhões e patrimônio líquido igual ou superior 
a R$ 4 milhões no último exercício. Tais empresas podem formar parcerias com outras 
empresas e instituições de pesquisa em ciência e tecnologia (ICT) para execução dos 
planos de negócio.
 
Segundo as exigências do programa, os planos de negócio devem ter valor 
mínimo de R$ 5 milhões, com prazo de execução de até 60 meses e devem ser 
desenvolvidos integralmente no território nacional. O apoio do BNDES e da Finep é 
limitado a 90% do valor total do projeto. Ou seja, esse programa fica restrito a empresas 
de considerável porte, já estabelecidas. De qualquer forma, para empreendimentos 
novos, startups podem buscar alternativas, como fazer consórcios com grandes grupos 
empresariais (que serão os proponentes junto à Finep) ou, embora não haja uma linha 
de financiamento exclusiva para as novas tecnologias ambientais, considerar opções 
como o Programa de Investimento em Startups Inovadoras – que acolhe também a 
temática ambiental. 
 
1.2 Tecnologias para melhor consumir recursos naturais 
 
Com a transformação digital das indústrias em geral, um dos aspectos mais 
relevantes na discussão do desempenho ambiental da Tecnologia da Informação é 
referente à energia elétrica, em todas as perspectivas (geração, distribuição, consumo e 
gestão). 
 Por isso, é indispensável uma análise do smart grid (redes inteligentes) como 
tendência tecnológica inerente à Indústria 4.0, como destacam Singh (2012, 2014) e 
Schwab (2016). Há dois grandes segmentos a considerar. O primeiro é a rede de 
telecomunicações, uma vez que os dispositivos conectados a essa rede estão nas 
residências, em empresas e nos postes de energia espalhados pela cidade. Essa rede 
de telecomunicações é um elemento crítico, pois precisa ter uma capilaridade muito 
grande e é demandada a tratar um volume de dados significativo dentro daquela rede. 
O outro ponto fundamental é relacionado à avaliação dos dados. Ou seja, dentro do 
centro de operações, esses dados são recebidos de chaves, medidores e outros 
equipamentos da rede elétrica. Devido a isso, é necessário monitorar todos esses 
equipamentos, e comandá-los remotamente. Então, a central de operações e o volume 
de dados que precisam ser tratados exigem uma infraestrutura de TI que inclua um 
robusto processo de análise de dados com tecnologia Big Data. 
 É grande o impacto da disponibilidade de smart grids na vida cotidiana. 
Principalmente, se destaca o fato de que as pessoas passam a ter novas opções de 
modelos de tarifação da energia elétrica consumida. Afinal, com a forma tradicional, de 
tarifa única, há pouca ou nenhuma flexibilidade na escolha do momento de utilizar a 
energia, em termos de poder dispor de uma tarifa mais baixa, dependendo do horário 
em que há o consumo de energia. É nesse sentido que entra a conveniência do smart 
grid, que oferece a possibilidade de contar com tarifas diferentes. Inclusive, é possível a 
modalidade de pré-pagamento. 
 Para Schwab (2016), isso resultará em uma grande revolução à medida que novos 
produtos sejam massificados para o consumo, como o caso do carro elétrico. É bastante 
provável que se necessite de um modelo de tarifação de consumo de energia específico 
para carro elétrico, uma vez que a tendência é que o veículo fique energizado, sob 
carregamento, durante a noite, por exemplo: isso tem um determinado impacto sobre a 
rede de distribuição, que precisa de um gerenciamento bem mais dinâmico. 
 Outro fator de alta importância para o smart grid é a tendência também irrefreável 
de autogeração de energia elétrica: empresas e até mesmo consumidores residenciais 
poderão contar com equipamentos geradores locais de energia, com alternativas 
envolvendo painéis solares e turbinas e geradores eólicos. Como a energia elétrica em 
corrente alternada não pode ser acumulada (ela precisa ser consumida assim que é 
gerada), na prática, os momentos em que não há consumo próprio podem ser 
aproveitados para comercialização daquele excedente gerado, contribuindo para 
abastecer o sistema, naquilo que se denomina de microgeração ou geração distribuída. 
Isso é um divisor de águas na indústria da energia: não existirão apenas consumidores 
exclusivos de energia, pois estes poderão vender para a rede aquilo que lhes sobrar. 
Pelo lado da distribuidora de energia elétrica, a maior mudança é operacional. Afinal, os 
processos convencionais dependem muito da equipe de campo, por exemplo, dos 
eletricistas que sobem em postes para fazer instalação e manutenção. Tais processos 
tendem a se tornar remotos e automatizados: podem ser executados à distância, a partir 
de um centro de controle. Naturalmente, com isso é provável que haja uma expressiva 
redução de custos. Mesmo considerando que se deixam de lado processos tradicionais 
(menos custos) para substituí-los por novos processos de gerenciamento (em tese, mais 
custos), o que ocorre é que os processos digitais são propensos a serem muito menos 
dispendiosos financeiramente.Como descreve Singh (2012, 2014), os smart grids destacam-se pela função de 
self healing (autorreparação). Essa “cura automática” da rede se dá em situações como 
a queda de um poste ou a falha de energia em um bairro, procurando isolar e restringir 
a falha o mais localmente possível (uma única rua ou um único estabelecimento, muitas 
vezes, para afetar a menor quantidade possível de consumidores), por meio da procura 
automatizada e fornecimento de outros suprimentos para determinada região. Ou seja, 
uma rede de geração e distribuição de energia elétrica conta com um alto grau de 
redundância, de forma que a falha de um elemento pode ser instantaneamente coberta 
por outro – sem que seja necessária uma operação manual por parte de um ser humano. 
Do ponto de vista estritamente ambiental, energia elétrica não é um problema em 
si, mas, mais precisamente, suas fontes de geração é que importam para essa 
discussão. Fontes limpas, ou renováveis, tais como energia solar, eólica ou das marés, 
não contribuem para o esgotamento dos recursos naturais, ao contrário de fontes não 
renováveis, como de combustíveis fósseis. As usinas hidrelétricas se encaixam na 
categoria de fontes renováveis (limpas) de energia, apesar de um ponto controverso: a 
construção de suas barragens é um empreendimento, em si, com grande impacto 
socioambiental. Por isso, parte da tecnologia de sustentabilidade é a tendência de 
substituir grandes e tradicionais usinas hidrelétricas por um volume bem mais numeroso 
de PCH (pequenas centrais hidrelétricas), que comprometem um espaço físico muito 
menor e com proporcional redução de impacto ambiental. 
 No que diz respeito ao consumo de recursos naturais, outro elemento onipresente 
nas organizações em geral é o consumo de papel, dada a burocracia inerente aos 
processos de trabalho, que implica em um volume muito grande de documentação. 
Naturalmente, a maior demanda por papel implica em maior número de árvores 
derrubadas, pois estas fornecem a matéria-prima necessária à sua produção. Nesse 
sentido, o mero emprego de papel reciclado substituindo o papel normal nos escritórios 
tende a não ser mais que um paliativo, porque o processo produtivo desse tipo de 
produto tem também um significativo impacto ambiental, por exemplo, o excessivo 
consumo de água. 
Felizmente, o uso de papel é um problema que vem sendo satisfatoriamente 
resolvido com a digitalização dos processos produtivos, sendo esta uma das maiores 
contribuições da TI verde. Sistemas como GED (gerenciamento eletrônico de 
documentação) fazem muito mais que apenas manter os documentos em formato de 
arquivos digitais, de forma mais fácil de se armazenar, ordenar e localizar: eles 
automatizam todo o fluxo de elaboração, revisão e aprovação de documentos. Isso inclui 
a autenticação por assinatura digital, resolvendo um dos antigos dilemas da burocracia 
corporativa: como ter certeza que um documento digital foi realmente aprovado pela 
devida instância responsável e que deve ser considerado válido? 
 Dependendo do tipo de segmento de atuação de uma empresa, o processo de 
manutenção de seus equipamentos e ferramentas pode ser altamente significativo, tanto 
em termos de custo quanto em impacto ambiental. Por exemplo, em ambiente de linhas 
de produção de manufatura industrial, máquinas pesadas, que normalmente utilizam 
óleo, combustível e água (além de alguma matéria-prima específica diretamente ligada 
a recursos naturais, como ocorre na indústria de alimentos, por exemplo), contribuem de 
forma relevante para o esgotamento de recursos naturais. Nesse contexto, a tecnologia 
da informação também auxilia uma melhor eficácia ambiental, com sistemas 
informatizados específicos para controle de manutenção corretiva, preventiva e preditiva. 
Com uma maior assertividade do processo de manutenção, graças a um fluxo mais 
eficiente das informações inerentes, como datas de validade, calendário de inspeções e 
afins, consegue-se manter de forma mais permanente a melhor regulagem dos 
equipamentos pesados, evitando desperdícios e até mesmo acidentes e incidentes 
(como derramamento de óleo) que trazem impacto ambiental negativo. 
No geral, algumas das principais práticas de TI verde são: 
 
• Aplicar a eficiência energética: isso envolve não apenas a maximização individual da capacidade 
produtiva dos equipamentos, mas da engenharia necessária para fazer com que se rendam em 
sua plenitude quando interligados entre si (como no caso de um datacenter). Ou seja, evitar 
gargalos de um equipamento que desperdicem a energia consumida por outros associados no 
sistema. 
• Dimensionar corretamente as necessidades da empresa em relação à TI: é importante ter uma 
noção da arquitetura de TI ideal para os negócios de uma organização, evitando pecar pela falta 
(compromete a produtividade) e pelo excesso (desperdiça recursos e gera impacto ambiental 
desnecessário). 
• Usar equipamentos mais eficientes: tanto em termos econômicos quanto ambientais, um 
equipamento que esquenta representa puro desperdício – afinal, a energia térmica ali presente é 
resultado da conversão da energia elétrica efetivamente consumida, porém, não utilizada na 
função principal do equipamento. Por isso, é necessário, entre outras medidas, priorizar 
equipamentos com capacidade de redução de consumo quando em baixa utilização ou 
momentaneamente inoperantes (modo standby). 
• Conscientizar todos os colaboradores em relação à sustentabilidade: os meios digitais facilitam o 
treinamento e capacitação das equipes de trabalho para conhecimentos em geral, incluindo a 
temática ambiental. Inclusive, viabiliza treinamentos a distância, proporcionando importante 
redução de custo nesses processos. Além de que pessoas devidamente sensibilizadas quanto à 
importância das práticas verdes é que garantirão sua efetiva execução. 
• Promover a compactação de servidores: a escolha dos servidores deve ser uma tarefa criteriosa, 
porque é comum que se encontrem, em diversas organizações, sistemas com 80% ou mais de 
ociosidade, o que representa um impacto ambiental desnecessário (consumo de energia elétrica 
sem propósito). Muitas vezes, se utilizam múltiplos servidores subutilizados (dedicados cada um 
a determinado sistema ou aplicação), que poderiam perfeitamente ser substituídos por um único 
servidor melhor aproveitado em termos de utilização de capacidade de processamento e 
armazenamento. 
• Promover a personalização de datacenters: a aglutinação de servidores e demais equipamentos 
concentrados em um datacenter proporciona um problema prático de sobreaquecimento, 
invariavelmente demandando a instalação de sistemas refrigeradores – um dispêndio energético 
duplo (do equipamento que esquenta e do sistema que precisa ser acionado para resfriar o 
ambiente). Mais uma vez, a simplificação da arquitetura instalada, com melhor aproveitamento da 
capacidade dos equipamentos, é uma saída para melhor desempenho ambiental. 
• Aderir a políticas verdes: sistemas de gestão ambiental, como ISO 14.001, fazem com que as 
diversas iniciativas verdes sejam regidas de forma estruturada, como um sistema. E, nesse 
sistema, a TI tem papel fundamental, especialmente no tocante à viabilização de soluções 
tecnológicas ambientalmente mais adequadas (um dos requisitos da norma ISO 14.001). 
• Aderir a práticas verdes nos processos: em um sistema de gestão ambiental integrado à gestão 
do negócio, todo processo de trabalho tem seu componente verde que precisa ser atendido. Por 
exemplo, no processo de compras, é comum que uma das exigências seja a priorização de 
fornecedores de equipamentos de TI com desempenho ambiental adequado (empresas e/ou 
produtos com certificados verdes). 
• Estabelecer plano de compra e descarte de equipamentos de tecnologia: é a responsabilidade por 
todo o ciclo de vida útil da estrutura tecnológica empregada pela empresa. 
• Promover melhoria nos processos: os sistemasinformatizados são especialmente úteis para 
melhor efetividade da gestão dos processos em geral. 
• Utilizar novas tecnologias: é importante monitorar os últimos lançamentos e tendências da 
indústria, para incorporá-los aos negócios tão logo demonstrem agregar valor.
 
 
 
• Priorizar fontes de energia limpa: consumir energia faz parte de qualquer tipo de empreendimento. 
Preferir fontes limpas se torna a principal contribuição das empresas junto ao meio ambiente – 
fazer com que se dependa cada vez menos de fontes poluentes, até que estas se tornem 
totalmente desnecessárias. 
 
 
1.3 Tecnologias para diminuir poluição 
 
A gestão ambiental é avessa a desperdícios, colocando pressão cada vez maior 
na indústria para repensar produtos que, antes, por diversos motivos, seriam motivo de 
fácil decisão para sucateamento. É assim também na área da tecnologia da informação: 
uma das práticas de TI verde para controlar o efeito poluidor dos fabricantes de 
equipamentos de informática são os produtos refurbished (restaurados na fábrica). 
No que diz respeito aos computadores, um produto refurbished é aquele que foi 
devolvido do ponto de venda ao fabricante (ou filtrado em triagem na própria linha de 
produção) para a correção de algum problema ou pequeno defeito. Após aplicadas as 
devidas correções por conta do próprio fabricante (remanufatura), são colocados 
novamente à venda. 
Computadores e acessórios refurbished não devem ser confundidos com produtos 
usados. Afinal, passam novamente pelo processo de manufatura original e são vendidos 
e garantidos como novos. Obviamente, enfrentam algum preconceito por parte dos 
consumidores, mas esse sentimento é sublimado por aqueles que possuem maior 
consciência ecológica – ou que querem ou precisam de uma aquisição mais barata, 
porque normalmente os produtos refurbished são colocados com preço diferenciado no 
mercado, justamente para estimular seu consumo. 
O que leva à ocorrência de produtos refurbished no mercado? São diversas as 
situações que podem levar um equipamento a essa condição. Uma dessas ocorrências, 
por exemplo, é quando o produto não passa no controle de qualidade de sua própria 
fábrica para a detecção de um defeito. Os mais diversos problemas podem ser 
detectados, desde um detalhe acessório, tal como uma tecla ou botão com problemas, 
até mau funcionamento de um componente que comprometa a funcionalidade do 
equipamento. Quando isso acontece, ele é reparado antes mesmo de ser colocado à 
venda, e usualmente isso fica transparente ao cliente. 
 
 
Um pouco diferente é a situação de computadores que já estavam no ponto de 
venda e lá foi percebido o defeito, ou mesmo lá ocorreu um dano que provocou o defeito 
(exemplo: produtos de mostruário). Esses produtos retornam aos fabricantes para que 
ocorra a devida correção, posteriormente, voltam a ser vendidos e são sinalizados como 
itens refurbished. Alguns fabricantes procuram estimular a venda desses produtos, 
oferecendo o que chamam de garantia zero hour: se um produto dessa categoria é 
adquirido e devolvido por apresentar algum defeito dentro de seu prazo de garantia, ele 
é gratuitamente substituído por outro novo (não refurbished). 
Outros casos que podem gerar computadores na condição de refurbished são 
produtos que foram utilizados para demonstração em lojas, devoluções de consignação 
ou desistência de compra (quando se garante o uso para testar). Dependendo do estado 
que estes equipamentos estão no momento da devolução, eles podem passar por um 
recondicionamento e passarem, novamente, a fazer parte das prateleiras das lojas. 
 Os produtos nessa condição têm a devida identificação, embora haja uma certa 
polêmica quanto à estratégia utilizada de fazê-lo de forma muito sutil, o que pode induzir 
muitos compradores a comprar um produto sem sequer perceber que se trata de algo 
refurbished. Normalmente, o número de série desses produtos é diferenciado em relação 
aos produtos de lotes normais. 
 Se a prática, ao menos no Brasil, parece ser a de esconder essa informação, 
mercados de países de primeiro mundo, como os EUA, prezam pelo oposto: 
transparência, para que o consumidor seja munido de todas as informações em seu 
processo de compra. A Figura 1 mostra um exemplo, na loja virtual da Amazon, em que 
a informação sobre produtos refurbished tem o seu devido destaque. 
 
 
 
Figura 1 – Computadores refurbished devidamente sinalizados em loja virtual 
Fonte: AMAZON, 2017. 
 
A logística reversa é outra medida muito empregada na indústria de TI para 
prevenir a poluição, Daher et al. (2006) entendem que o termo costuma ter uma 
conotação bastante genérica. Em seu sentido mais amplo, implica em todas as 
operações relacionadas à reutilização de produtos e materiais. A indústria é demandada 
a assumir esse processo precisamente em função dos produtos em campo que já 
atingiram o fim de vida útil e estão (ou deveriam estar) sucateados. Assim, logística 
reversa refere-se a todas as atividades que envolvem coletar, desmontar e processar 
produtos e/ou materiais e peças fora de utilização, a fim de assegurar uma recuperação 
amigável ao meio ambiente, com a destinação final adequada dos componentes, partes 
e peças. Em suma, se a logística convencional é a sequência fábrica, distribuidores e 
consumidor, quando um produto esgota sua vida útil, em vez de se atribuir ao consumidor 
a responsabilidade pela disposição final (o que seria inadequado, dada a ampla variância 
de perfis de consumidores e a relativa complexidade da reciclagem de materiais 
específicos), a logística reversa faz com que a sequência seja consumidor, distribuidores 
e fábrica. É essa última a responsável final por dar à disposição mais ecologicamente 
correta às sucatas de produtos. 
Os elementos abordados anteriormente, de produtos refurbished e de logística 
 
 
 
reversa, são evidências que a gestão ambiental, no que se refere à prevenção da 
poluição, tenta fazer valer ao máximo as premissas ecológicas de reutilização e 
reciclagem. Na indústria em geral, especialmente no campo da tecnologia da informação, 
esses princípios acabam colidindo frontalmente com a polêmica estratégia da 
obsolescência programada, que é uma forma das indústrias deliberadamente abreviarem 
a vida útil dos produtos, visando aumentar a necessidade de que os consumidores 
voltem a comprar, de modo que os fabricantes aumentem receita com vendas 
recorrentes. Além de ser algo de forte questionamento ético, essa prática prejudica o 
meio ambiente ao aumentar o volume de sucata de produtos em um determinado 
intervalo de tempo. Do ponto de vista técnico, essa estratégia não se justifica, porque, à 
medida que as tecnologias progridem, a tendência natural seria de se produzir produtos 
cada vez mais duradouros, e não o oposto. 
Conforme relata Slade (2009), a obsolescência programada está arraigada na 
cultura industrial graças à tradição da prática. Afinal, o primeiro caso registrado remonta 
à década de 1920, quando fabricantes de lâmpadas da Europa e dos EUA decidiram, 
em comum acordo, diminuir a durabilidade de seus produtos de 2,5 mil horas de uso 
para apenas mil horas. Assim, os consumidores seriam forçados a comprar o triplo de 
quantidade de lâmpadas para serem atendidos em suas necessidades de luz. 
 Alguém poderia cogitar que talvez essa medida seja benéfica para o consumidor, 
porque a indústria, ao fabricar produtos de menor qualidade, pode empregar materiais 
menos robustos, sendo assim, menos caros. Mas não é o que se percebe na prática em 
relação aos preços praticados. Naturalmente, fabricar produtos de forma mais recorrente 
tem impacto ambiental diretamente envolvido no próprio processo de produção, que 
consome mais energia e mais recursos naturais. Não é um grande problema para a 
indústria, que repassa tais custos extras diretamente ao consumidor, que acaba ficando, 
então, à mercê de produtos maiscaros e com menor vida útil. Sobretudo, o que soa 
escancaradamente antiético é que uma única empresa, ao agir dessa forma no mercado, 
não consegue prosperar: é necessário o conluio junto aos seus competidores, que, nesse 
contexto, tornam-se seus cúmplices. 
 Felizmente, a gestão ambiental é beneficiada por uma das características 
inerentes da Indústria 4.0, que é a tendência da migração da economia de produto para 
 
 
a economia de serviço, como relatam Singh (2012, 2014) e Schwab (2016). Ou seja, 
quando, em vez de se adquirir a propriedade de um equipamento, opta-se, 
alternativamente, por pagar pelo benefício que ele proporciona: o produto continua sendo 
propriedade de seu fabricante, que comercializa o serviço a ele associado. É a 
modalidade do produto por assinatura, que tem ganhado ampla difusão nos mercados 
em geral. Vai, por exemplo, desde a assinatura mensal de máquinas de café até o 
contrato de locação mensal de veículos. 
É um novo paradigma bastante disruptivo: as pessoas não precisam mais ter as 
coisas, mas sim usá-las. Na indústria de TI, a prática tem sido bastante utilizada. Isso 
tem sido válido, por exemplo, para serviços de disponibilidade da estrutura de TI, como 
impressoras, estações cliente e servidores. Aliás, na área de tecnologia da informação, 
a regra parece ser cada vez mais essa: o que for possível virtualizar, comercializa-se 
como serviço (cloud computing – computação em nuvem, servidores remotos etc.). E o 
que ainda for necessário dispor fisicamente no local de trabalho (como impressoras), 
também se comercializa como serviço (assinatura mensal pela utilização). 
 O impacto ambiental associado é bastante interessante: agora, o produto passa 
a ser propriedade do fabricante, é de interesse dele aumentar o que for possível de sua 
vida útil, para incorrer em menor custo de manutenção e remanufatura. Para que o novo 
modelo de negócio seja interessante para as empresas, troca-se a receita recorrente de 
novas vendas de produtos pela receita também recorrente de renovação da taxa de 
assinatura dos serviços prestados. Portanto, diminui a poluição provocada tanto pelo 
sucateamento de produtos descartados prematuramente quanto pela produção 
desnecessária de novos equipamentos. 
 Em suma, como identifica Schwab (2016), a Quarta Revolução Industrial traz um 
cenário mais amigável no que diz respeito à prevenção da poluição ambiental: por um 
lado, a crescente digitalização dos processos produtivos concentra cada vez mais 
funcionalidade no software, e não no hardware, gerando menos sucata porque agora 
interessa aos fabricantes preservar os equipamentos para lucrar melhor com a economia 
baseada em serviço. Muito do poder computacional de alto desempenho ocorre não mais 
nas estações clientes (que podem ser mais simplificadas), mas nos servidores em nuvem 
(tornando os datacenters mais robustos fisicamente). Por outro lado, a tendência de 
 
 
crescente informatização do mundo e da robustez das máquinas nos datacenters 
consome, efetivamente, mais energia elétrica. O que poderia ser, então, um efeito 
colateral em termos de potencial poluidor acaba sendo compensado pela tendência 
irreversível da mudança da matriz energética para fontes não poluentes, movimento já 
capitaneado com sucesso pelos gigantes da indústria de TI, como Apple, Google, 
Facebook e Microsoft. 
 
 
 
 
 
2. TI VOLTADA PARA A EDUCAÇÃO 
 
Fonte: https://www.shopify.com.br/burst/imagens-hd/tomando-notas-e-trabalhando-no-
laptop 
 
2.1 A revolução dos MOOC 
 
Educação a distância (EaD) é uma forma de educação que se caracteriza por ser 
mediada por recursos tecnológicos variados, o que possibilita que alunos e professores 
possam estar separados fisicamente e/ou temporalmente, caracterizando uma 
alternativa ao modelo convencional de uma sala de aula. 
 Trata-se, pois, de uma solução criada para atender a uma enorme demanda 
reprimida ao longo do tempo, de um grande número de pessoas que, pelos mais variados 
motivos (geográficos, econômicos etc.), não pode frequentar aulas no sistema tradicional 
(presencial) de ensino. 
 Há quem se surpreenda quando fica sabendo que a história da EaD é muito mais 
 
 
antiga que a da própria internet. Se a rede mundial de computadores é, atualmente, a 
grande plataforma tecnológica que potencializa o alcance e os resultados da EaD, é 
interessante observar que outras tecnologias cumpriam esse papel em uma época pré-
internet. O sistema de correios foi, de fato, o precursor. Foi o que se conheceu por ensino 
por correspondência, com o marco histórico remontando à 1728, quando um dos jornais 
dos EUA, o Boston Gazette, inovou ao oferecer material para tutoria por meio de 
correspondência. A difusão das inovações, à época, era muito morosa: um século teria 
de ser decorrido para que, apenas em 1829, a EaD chegasse à Suécia, pelo trabalho do 
Instituto Líber Hermondes. A partir de 1840, escolas por correspondência começaram a 
aparecer na Europa, principalmente no Reino Unido. 
 A EaD sofreria sua primeira revolução tecnológica a partir do ensino por rádio. Por 
exemplo, o Japanese National Public Broadcasting Service complementava a escola 
oficial, em 1935, com essa modalidade. Algum tempo depois, a televisão se juntava às 
alternativas tecnológicas de EaD, com o Chicago TV College, nos EUA, em 1956, 
transmitindo programas educativos desta maneira. É a partir dessa época, e com essas 
tecnologias, que a EaD sofreria uma rápida difusão generalizada mundo afora. 
Destaca-se que o Brasil foi um dos primeiros países que exploraram as 
possibilidades de EaD. Há registros de que a vanguarda coube ao Jornal do Brasil, em 
1904, que oferecia curso a distância para datilógrafo. Alguns anos depois, o Instituto 
Monitor tornou-se famoso como o primeiro a oferecer de forma sistemática cursos 
profissionalizantes nesta modalidade. Merece também reconhecimento o trabalho da 
Rádio Sociedade, do Rio de Janeiro, com educação por sistema radiofônico, em 1923. 
Historicamente, o Senac (Serviço Nacional de Aprendizagem Comercial) 
destacou-se como instituição que sempre explorou em profusão a EaD. Contudo, a partir 
de 1996, com a Lei de Diretrizes e Bases da Educação Nacional, enfim reconhecendo a 
educação a distância, a difusão em território nacional passaria a ser bastante forte, em 
todos os níveis de ensino, do ensino básico à pós-graduação, passando por uma ampla 
oferta de cursos de formação continuada. Um dos aspectos que favoreceu esse cenário 
foi o grande número de instituições particulares de ensino, que ganharam novo fôlego 
em seus modelos educativos. 
Singh (2012, 2014) e Schwab (2016) concordam que o impacto que a EaD trouxe 
 
 
diante do sistema convencional de ensino, que é, sem dúvida, muito forte, compara-se 
(em magnitude) ao que, mais recentemente, os MOOC representam em meio a EaD. A 
sigla, do termo original em inglês Massive Open Online Courses (cursos on-line abertos 
massivos), engloba os cursos livres que são oferecidos por meio de ambientes virtuais 
de aprendizagem. Tais ambientes, legítimos frutos da Web 2.0 (a internet interativa) 
como plataforma tecnológica, costumam explorar as funcionalidades multimídia com 
acesso totalmente on-line, em sistemas com design responsivo (telas ajustáveis 
automaticamente para qualquer dispositivo, como computador, smartphone e tablet), 
comportando uma capacidade muito grande de acessos simultâneos e ampla oferta de 
diferentes conteúdos, controlando com eficácia uma quantidade massiva de alunos 
registrados nos cursos. 
O MOOC é uma resposta tecnológica à filosofia pedagógica da educação aberta, 
movimento educacional que milita pelo livre acesso a oportunidades de aprendizagem. 
Observa-se que, apesar do projeto e da participação em um MOOC poder se assemelhar 
a um curso regular oferecido por qualquer faculdade ou universidade, os MOOC são 
gratuitos, na maioria dos casos. Comoeles não costumam exigir pré-requisitos dos 
alunos que ingressam no curso, de forma geral, não se oferecem graus acadêmicos. 
Alguns MOOC oferecem certificado de participação, para quem, por algum motivo, tem 
esse interesse e/ou necessidade. 
Contudo, em movimento mais recente, tem-se percebido grande tendência de 
integração ou parceria com universidades tradicionais, a ponto de também se ofertarem, 
em alguns casos, graus acadêmicos. Várias iniciativas de MOOC têm ganhado destaque 
nos últimos anos, entre elas figurando marcas como Coursera, edX e Udacity. 
 O Coursera é uma empresa de tecnologia educacional criada em 2012 nos EUA, 
fundada pelos professores de ciência da computação Andrew Ng e Daphne Koller, 
ambos da Universidade Stanford. Menos de cinco anos depois, já alcançava números 
impressionantes: mais de 25 milhões de alunos atendidos, 149 parceiros universitários 
e um portfólio que oferece mais de 2 mil cursos, entre eles, mais de 180 especializações 
universitárias e 4 cursos que oferecem titulação acadêmica de alto nível. 
 Estes quatro últimos são projetos conduzidos junto às tradicionais instituições 
Universidade de Illinois em Urbana-Champaign, nos EUA – com os cursos Mestrado em 
 
 
Administração de Negócios (iMBA), Mestrado em Ciência da Computação em Ciência 
de Dados (MCS-DS) e Mestrado em Ciências da Contabilidade – e HEC Paris, na França 
Já no ano de sua fundação, em 2012, a Coursera tinha estabelecido parceria com 
17 universidades norte-americanas, que ficaram conhecidas como grupo Ivy League. O 
crescimento foi acelerado desde o início: um ano depois, a organização anunciava mais 
29 universidades, destacando-se o fato que 16 delas não eram dos Estados Unidos. 
No Coursera, os cursos são disponibilizados tanto no formato on-demand (sob 
demanda, acessíveis instantaneamente pela internet) ou em períodos específicos 
(calendário a critério da instituição provedora). Como modelo de negócio, é interessante 
observar que, se a organização começou como um MOOC, atualmente trabalha, em 
paralelo, também com a comercialização de seus cursos. É similar a uma estratégia 
freemium (produtos que são simultaneamente oferecidos gratuitamente, para uma 
versão básica, e paga, para uma versão completa). 
Então, no Coursera, quase todos os cursos são gratuitos, com o aluno podendo 
optar em pagar uma determinada taxa para obter um certificado digital autenticado, entre 
outras. A Figura 1 apresenta a forma como o Coursera diferencia seu produto gratuito de 
seu produto pago. 
 
Figura 2 – Opções de produtos do Coursera 
Fonte: COURSERA, 2017. 
 
 
 
De todo modo, a plataforma mantém um programa especial de auxílio financeiro 
para os alunos que desejam o certificado, mas não têm condições de pagar por isso. O 
nível da facilidade da concessão deste subsídio é proporcional aos custos envolvidos: 
com os cursos livres (a maioria dos casos), cujo certificado custa umas poucas dezenas 
de dólares, acessa-se um link específico do benefício, responde-se a algumas perguntas 
de perfil socioeconômico e compromete-se em mostrar dedicação e concluir o curso – 
medidas suficientes para, em teoria, qualquer postulante ao benefício tê-lo aprovado. Já 
para os produtos premium, como os mestrados acadêmicos que custam mais de US$ 20 
mil, o processo é mais exigente, incluindo até mesmo entrevistas pessoais e análise caso 
a caso, dada a maior competitividade envolvida. 
O Coursera trabalha com aulas em vídeos e uma ampla gama de textos didáticos, 
alguns de leitura obrigatória e outros disponíveis como material extra (opcional), para 
melhor entendimento dos conteúdos repassados nas videoaulas. Na plataforma, é 
exigido que todos os exercícios sejam completados, além de ser necessário revisar o 
trabalho de pelo menos três colegas para que a nota do aluno seja registrada. Os cursos 
são sequenciados em módulos semanais e, ao fim de cada semana, é disponibilizada 
uma prova, que requer nota mínima 8 para aprovação. 
O sistema também conta com um aplicativo para iOS e Android, e permite, ainda, 
gravar os conteúdos para acesso offline. São mantidos fóruns de discussão, e a 
identidade do aluno participante é conferida a cada entrega de trabalhos. 
Para a maioria dos cursos, as aulas estão disponíveis em inglês, com legendas 
em diversas línguas, inclusive em português, em alguns casos. Universidades e 
faculdades de diversos países já se associaram ao Coursera, com parceiros já 
estabelecidos na Alemanha, Austrália, Brasil, Canadá, Chile, China, Singapura, Coréia 
do Sul, Dinamarca, Espanha, Estados Unidos, França, Holanda, Hong Kong, Índia, 
Israel, Itália, Japão, México, Reino Unido, Rússia, Suécia, Suíça, Taiwan e Turquia. 
Destaca-se que, como parceiros brasileiros, o Coursera conta com instituições como a 
USP (Universidade de São Paulo), Unicamp e Fundação Lemann. 
O edX, em geral, é bastante similar ao Coursera, com a diferença de ser uma 
organização sem fins lucrativos, por isso, todos os cursos são gratuitos – e os programas 
 
 
são montados com estratégia self-paced, ou seja, os alunos determinam seu próprio 
ritmo de estudo, sem imposição de prazos por parte do sistema. 
Por sua vez, o Udacity é uma das plataformas de ensino que se destaca pela 
especialização na área de alta tecnologia. Os parceiros típicos (conteudistas) são 
gigantes do mercado tecnológico, como Google, Amazon e Facebook. Por isso, é uma 
plataforma que costuma ser muito priorizada pelos alunos interessados em ciência da 
computação, com muitos conteúdos gratuitos que vão da lógica de programação até 
fundamentos de Deep Learning. 
Mas o grande atrativo do Udacity é o seu programa (pago) de Nanodegree (nano 
grau). Com um disputado processo seletivo e vagas limitadas, trata-se de um programa 
de ensino em que o aluno é treinado em uma profissão de alta demanda no mercado e 
recebe todo o apoio profissional para garantir seu emprego imediatamente após a 
conclusão do curso. São oferecidos benefícios como devolução de metade do valor pago 
(para quem consegue concluir o curso em até 12 meses) e até mesmo consultorias de 
carreira. 
Com proposta similar às alternativas estrangeiras, um empreendimento brasileiro, 
lançado em 2012, também tem ficado cada vez mais famoso: é o Veduca, plataforma 
nacional de e-learning que já ultrapassou 2 milhões de alunos atendidos. Destacam-se, 
no Veduca, o fato de todos os cursos serem gratuitos, sendo que a opção por emissão 
de certificado digital de curso tem valor bastante acessível (R$ 49,00); também conta 
com presença de parceiros institucionais de peso, como as consagradas universidades 
de Harvard, Stanford, Yale, MIT e Berkeley. 
 
2.2 A realidade virtual e a realidade aumentada como ferramentas de ensino 
 
Realidade virtual (VR, do inglês virtual reality), a tecnologia que emprega 
smartphones acoplados a óculos especiais, vem revolucionando vários campos e, 
naturalmente, a educação não ficaria de fora. 
Afinal, praticamente inexistem limites para aplicações de imersão das pessoas em 
um cenário virtual, criado por software específico. É interessante observar que uma 
 
 
pessoa que usa um equipamento dessa natureza não tem um mero papel passivo no 
ambiente digital para a qual é deslocada: uma das características mais valiosas da 
realidade virtual é a capacidade de interação com esse ambiente. 
Para isso, existe um dispositivo de controle também acoplado aos óculos VR, que 
fica nas mãos do usuário. Sendo assim, com o movimento físico de suas mãos, o usuário 
vê a respectiva projeção da mão virtual no ambiente simulado, o que pode ser utilizado, 
portanto, para funções de apontar, segurar e mesmo manipular objetos virtuais. A Figura 
2 mostra uma pessoa usando óculos VR com controle manual. 
 
Figura 3 – Óculos VR com controle 
Fonte: killerbayer/iStockphoto. 
 
Aprimoramentos na tecnologia estão conduzindo a microssensores aderentes à 
roupaou mesmo à pele, que dispensam a necessidade de um controle manual: tais 
dispositivos permitirão que movimentos da pessoa, no corpo todo, e não apenas nas 
mãos, reproduzam seu organismo virtual com sincronia perfeita no mundo projetado 
digitalmente. Tal tecnologia é similar ao que já se emprega há muitos anos na indústria 
cinematográfica, quando atores reais são utilizados para produzir movimentos mais 
naturais dos personagens digitais.
 
 
 
Um dos segredos da realidade virtual reside justamente em dispositivos 
eletrônicos já presentes em praticamente todos os celulares: giroscópios e 
acelerômetros eletrônicos – esses componentes são responsáveis pelo efeito de que o 
mundo virtual acompanhe a movimentação da cabeça da pessoa que usa os óculos VR 
em todas as direções: olhando de um lado para outro, de cima para baixo, ou mesmo 
para frente e para trás. 
E uma das possibilidades práticas mais fantásticas do uso da realidade virtual 
para fins educacionais é justamente a revolução que traz ao conceito da sala de aula 
convencional, o ambiente físico em que professor e alunos precisam estar 
simultaneamente presentes para que a aula ocorra. Os recursos tecnológicos já 
disponíveis nos dias atuais permitem que professor e alunos estejam fisicamente 
afastados, em qualquer ponto do mundo que disponha de uma conexão de internet: 
munidos dos óculos VR, todos eles podem encontrar-se virtualmente em uma sala de 
aula digital. 
Nesse ambiente, os participantes veem um ao outro na forma de avatares, e os 
recursos didáticos que o professor utiliza superam, naturalmente, em muito a mera lousa: 
vídeos podem ser mesclados em meio à sala virtual, objetos virtuais podem ser 
projetados e manipulados por professor e alunos, além de que viagens virtuais podem 
ser experimentadas, para outros ambientes virtuais, como museus digitais (que 
reproduzem fidedignamente seus originais no mundo real) ou regiões inóspitas, como o 
fundo do mar ou o interior de vulcões. 
Chama ainda a atenção a plena possibilidade de que transmissões ao vivo sejam 
aproveitadas por essa tecnologia, fazendo com que eventos reais possam ser 
acompanhados mediante óculos VR, por exemplo, professor e alunos em qualquer parte 
do mundo podem acompanhar, como parte de um conteúdo de aula, o lançamento de 
um foguete espacial, em tempo real, como se estivessem fisicamente presentes no local 
do evento. 
Isso é possível graças à integração de conexão de internet de alta velocidade e 
câmeras de alta resolução que filmam em 360º, instaladas no local em questão, 
transmitindo suas imagens pela internet. A capacidade da rede em transmitir um grande 
 
 
volume de dados é crucial para o sucesso dessa tecnologia: afinal, se um vídeo 
convencional ocupa muito mais volume de dados do que uma imagem, como uma 
fotografia estática, um vídeo em 360º também demanda muito mais informação para ser 
transmitido que um vídeo convencional (que tem apenas um único ângulo de 
visualização). 
Para Schwab (2016), a realidade virtual pode ser empregada em qualquer tipo de 
proposta pedagógica, da Educação Infantil ao Ensino Superior, dos cursos livres até 
programas stricto sensu como mestrado e doutorado, de conteúdos nas áreas de 
ciências exatas, humanas e biológicas. 
Por sua vez, realidade aumentada é uma expressão que, à primeira vista, pode 
soar como algo muito técnico e distante do dia a dia, mas que, na prática, na atualidade, 
já permeia a maioria dos smartphones e tablets das pessoas, sem que muitas delas se 
deem conta disso. A tecnologia permite a ampliação da visão que se tem da realidade, 
por meio da sobreposição de informações e objetos virtuais em um ambiente real. 
São características que fazem dessa tecnologia uma plataforma extremamente 
útil para processos educacionais, potencializando as ferramentas de trabalho de 
professores e abrindo novos canais de aprendizagem para os estudantes. 
Portanto, o fundamento essencial da realidade aumentada é a sobreposição de 
imagens, mesclando elementos virtuais e reais. Acaba servindo, então, de uma nova 
interface entre as pessoas e as informações em geral, sendo um importante mecanismo 
de digitalização do mundo real. Com os olhos da realidade aumentada, a observação de 
qualquer cenário convencional, como uma floresta, uma máquina industrial ou um órgão 
do corpo humano é incrementada com complementos de informação, trazidas de forma 
digital. 
Sendo uma maneira de atuar como uma interface, a tecnologia se mistura com 
outros conceitos, como controles, atuadores, leituras de informação, Big Data, 
simulações, multimídia. Então, torna-se uma nova maneira de acessar informações, de 
formar capacidades técnicas e, enfim, de produzir conhecimento. 
A Figura 4 mostra um exemplo bem elementar de realidade virtual na visualização 
de um sanduíche: com um dispositivo como um smartphone ou tablet, além da própria 
 
 
imagem real do alimento, estão sobrepostas informações técnicas, como descrição 
nutricional, análise da composição e até mesmo informação de apoio de tomada de 
decisão (sobre a pertinência de comer ou não). 
 
Figura 4 – Realidade aumentada sobre um sanduíche 
Fonte: BeeBright/iStockphoto. 
 
Sem dúvida, existem diversos elementos da tecnologia da informação que se 
ocupam da interação com o meio físico real. Contudo, o que acaba bem caracterizando 
a realidade aumentada é a sincronia espacial dos objetos virtuais com o cenário real – 
especialmente em projeções tridimensionais, aliando a isso a interatividade em tempo 
real. Por exemplo, se em cima de uma mesa encontra-se uma planta industrial ou 
diagrama esquemático qualquer, com função de realidade aumentada incorporada, ao 
se puxar ou ajustar o papel físico em qualquer direção, os objetos virtuais o 
acompanham. Da mesma forma, caso o observador circule em torno daquela mesa, a 
mudança do seu ângulo de visão sobre os itens físicos acompanha a mudança da visão 
dos objetos virtuais. A Figura 5 ilustra esse enquadramento dos mundos real e virtual 
sobrepostos. 
 
 
 
Figura 5 – Sobreposição do mundo virtual e mundo real em 3D 
 
Fonte: Shaye Bigelow/iStockphoto. 
 
A tecnologia é especialmente valiosa para o mercado de videogames: o Pokémon 
Go fez grande sucesso ao colocar personagens animados em meio a cenários reais, 
através da tela de celulares. 
Além disso, tais objetos 3D não são necessariamente estáticos: eles normalmente 
se movimentam – e sons são usualmente acrescentados para enriquecer a experiência. 
E, para tanto, basta que o dispositivo em mãos do aluno, por meio de sua câmera 
embutida, faça a leitura de códigos especiais de ativamento do software, normalmente 
na forma de códigos QR (Quick Response, ou resposta rápida). Sem dúvida, aumenta a 
motivação para o estudo, por agregar conteúdo multimídia empolgante. E isso não se 
resume ao aspecto lúdico, talvez de maior apelo entre crianças no Ensino Fundamental: 
para cursos de nível superior, é altamente enriquecedor conseguir visualizar um objeto 
em 3D, por exemplo, em curso relacionado à Engenharia Mecânica, Desenho Industrial 
ou Arquitetura. 
O que ajuda a popularizar a tecnologia e, em especial, a democratizá-la 
sobremaneira para fins educacionais, é que há muita oferta em regime de Open Source 
(software livre). Com uma rápida procura em buscadores na internet por termos como 
realidade aumentada open source, encontram-se diversos websites que permitem que 
 
 
qualquer pessoa, mesmo sem grandes conhecimentos em TI, consiga produzir 
aplicações básicas de realidade aumentada. 
É interessante observar que, embora o visual seja o elemento de maior apelo 
nessa tecnologia, ela engloba, conceitualmente, qualquer sentido humano, tal como o 
olfato e audição. Isso é especialmente importante para aumentar o escopo do emprego 
da realidade virtual, por exemplo, para a educação inclusiva: cegos podem apreender 
informação por meio de sons,entre tantas outras possibilidades. 
Diferente da realidade virtual, em que a pessoa precisa ser deslocada do mundo 
real para uma realidade simulada digitalmente, na realidade aumentada ocorre o inverso: 
são os objetos virtuais que são trazidos ao mundo real. São, portanto, duas tecnologias 
inovadoras que se complementam, para trazer uma infinidade de novos instrumentos 
para a educação. 
 
2.3 A TI tornará a educação mais inclusiva? 
 
É um tanto quanto consensual a ideia de que o sistema educacional precisa ser 
reformado, para se adaptar a uma nova realidade. Críticos apontam que os alunos não 
são ensinados a serem buscadores de conhecimento automotivados em sua jornada. 
Tampouco os alunos estão concluindo cursos que lhes forneçam habilidades, modelos 
mentais e valores necessários para sobreviver em meio a um mundo de mudanças 
aceleradas. Em especial, a maioria dos alunos não são capacitados para aquela 
inspiração necessária para quem precisa contribuir para o progresso humano. 
Os tradicionais currículos escolares têm permanecido inalterados durante séculos 
– não obstante, sente-se a falta de uma base científica na pedagogia. Dessa forma, 
persiste o modelo pautado em continuar dando ênfase em notas de curto prazo e na 
realização individual. 
É pertinente questionar: como será possível efetivamente educar as gerações 
futuras? O que será preciso mudar a respeito da educação em geral? A resposta a essas 
questões não está circunscrita a pequenas mudanças incrementais, mas sim a uma 
revisão completa da educação convencional tal como ela existe atualmente. Para 
começar, também passa pela necessidade de mudar a forma como se define a 
 
 
educação. 
Inegavelmente, a tecnologia já está transformando o modo de ensinar e de 
aprender. As salas de aula digitais, o sistema de colaboração global on-line e a 
aprendizagem personalizada são apenas o começo. Que direção tomarão as tendências 
na EdTech (tecnologias educacionais)? Mais ainda, o que o termo educação significará 
daqui a 30 anos? 
Em 2007, a organização The Millennium Project se propôs a explorar esse futuro 
de mudanças radicais na educação, lançando um relatório pioneiro chamado Educação 
2030. No tempo já decorrido, o que se percebeu é que algumas de suas previsões, 
preocupações e soluções começaram a ganhar vida. 
Um dos destaques fica por conta dos sistemas integrados de aprendizagem ao 
longo da vida. Afinal, a educação não deve ser limitada a algo que uma pessoa faz em 
uma instituição específica por um determinado período para obter uma certificação 
qualquer. Em vez disso, deve ser muito mais uma jornada de exploração, de 
autodescoberta e de libertação ao longo de toda a vida, impulsionada por recompensas 
intrínsecas, na forma de celebração das pequenas conquistas intermediárias, 
sucessivamente, grau a grau. 
A mentalidade de aprendizagem contínua ao longo da vida é essencial para 
qualquer cidadão se tornar empregável nos trabalhos da próxima geração. Na dinâmica 
da inovação tecnológica, novas indústrias estão constantemente nascendo e morrendo, 
redefinindo competências profissionais. Os trabalhadores do futuro – um futuro 
realmente não tão distante – conviverão cotidianamente com os MOOC e a vasta gama 
de recursos educacionais adicionais disponíveis para desenvolver habilidades sob 
demanda. 
Não é exagero considerar trágico o quão pouco os currículos acadêmicos atuais 
conseguem ensinar às mentes jovens a respeito de como aprender e como desaprender. 
Na era pós-industrial, o impacto da tecnologia implica na necessidade de as pessoas 
serem ágeis e adaptáveis às consequências não raro imprevisíveis das inovações 
disruptivas. Torna-se um cenário cada vez mais corriqueiro que se tenha de aprender 
habilidades e conhecimentos sob demanda, ao mesmo tempo em que simplesmente seja 
 
 
preciso deixar de lado aquele conjunto de saberes não mais necessários para o novo 
mundo em que se vive. 
Um aspecto adicional ainda precisa ser considerado no tocante aos sistemas 
integrados de aprendizagem ao longo da vida: eles podem ser especialmente úteis para 
endereçar muitas causas de infelicidade e problemas de saúde mental que em geral se 
observam na sociedade atual. Conforme apontado pelo relatório Educação 2030, a 
avaliação contínua dos processos individuais de aprendizagem pode ser projetada para 
evitar que as pessoas se tornem infelizes ou deprimidas. Por isso, convém desenvolver 
conteúdos educacionais que vão além das competências técnicas industriais: é 
perfeitamente cabível incluir programas destinados a combater o preconceito e o ódio, 
por exemplo, o que favorece o estabelecimento de um mundo mais saudável a todos. 
Como estudado na seção anterior, a realidade virtual e a realidade aumentada 
estão revolucionando a experiência de aprendizagem. Integradas, elas proporcionam 
experiências de aprendizagem imersiva do mais alto nível. A aprendizagem imersiva 
permite que os alunos viajem para a História Antiga, desloquem-se por todo o universo 
e visitem museus em diferentes países, tudo sem precisar sair da sala de aula. Um dos 
maiores feitos de tais tecnologias é que elas tornam a experiência de aprendizagem 
muito mais envolvente, inspiradora e transformadora, o que permite transformar visões 
de mundo e transmitir mensagens poderosas com grande retenção de conhecimento nas 
pessoas. Afinal, o que se leu, se esquece razoavelmente fácil, mas o que se viveu 
(mesmo virtualmente) fica registrado profundamente na mente humana. 
Iniciativas já presentes na atualidade vislumbram um futuro promissor nesse 
campo. Por exemplo, o programa Google Expeditions Pioneer permite que professores 
conduzam seus alunos em uma jornada literalmente a qualquer lugar do mundo – ou até 
além dele. Com a mesma facilidade que se explora os recifes de corais, pode-se 
percorrer a superfície de Marte, por meio dessa atividade de visitas de campo virtuais 
imersivas. Sem dúvida, isso parece consolidar os modelos de escolas inteiramente 
virtuais. 
Objetivamente, essas experiências imersivas têm o potencial de contribuir para 
uma aprendizagem muito mais rápida, uma melhor retenção e uma melhor capacidade 
de tomada de decisões. Nesse sentido, convém alertar que currículos integrados com a 
 
 
tecnologia são tão importantes quanto a própria tecnologia em si. Afinal, é fácil digitalizar 
currículos já inadequados – e isso não resolve o problema. A mera implementação de 
realidade virtual e realidade aumentada não é suficiente: o conteúdo dos currículos 
redesenhados por essa tecnologia precisa ser inovador. As viagens virtuais que os 
alunos experimentam devem ser elaboradas com base nas habilidades, valores e 
modelos mentais relevantes que se deseje incutir nas gerações futuras. 
Tendência instigante é a da melhoria cognitiva, ou seja, o aprimoramento da 
inteligência humana mediada por novas tecnologias. Ocorre que a educação, felizmente, 
é cada vez mais tratada como uma ciência. O que se observa é o surgimento da 
neuroeducação como um campo sério de pesquisa, no qual cientistas estão 
continuamente adquirindo uma melhor compreensão da mente humana, do cérebro e do 
processo de aprendizagem. Esses avanços na compreensão de como opera a mente 
das pessoas pode ter poderosas implicações nas capacidades de aprendizagem. Muitos 
educadores estão sendo encorajados a aplicar essas descobertas para testar novas 
possibilidades pedagógicas. 
Indo além, alguns especialistas ainda esperam para muito em breve um 
mapeamento completo das sinapses humanas para descobrir como a aprendizagem 
ocorre e, assim, permitir o desenvolvimento de estratégias biológicas para a melhoria da 
aprendizagem. Como vislumbra Singh (2012, 2014), compreender esses mecanismos 
também abrange o caminho para uma onda de drogas de aprimoramento cognitivo (a 
mítica pílula da inteligência), inteligência geneticamente aprimorada e integração com 
dispositivosde inteligência artificial por meio de interfaces cibernéticas cérebro-máquina. 
Há pouco anos atrás, tudo isso pareceria pura ficção científica, mas a realidade 
atual já demonstra que o caminho começou a ser percorrido. Por exemplo, é altamente 
emblemático o estudo publicado em 2017 que demonstra substanciais melhorias 
cognitivas para jogo de xadrez com os neurofármacos modafinil e metilfenidato. Além 
disso, uma equipe de especialistas da Itália trabalha para uma plataforma de e-learning 
que opera em uma interface cérebro-computador, chamada Bravo, para personalizar a 
experiência educacional, de acordo com as reações e preferências dos usuários. 
 
 
 
Figura 6 – Headset EEG 
 
 
Fonte: BSANI/iStockphoto. 
 
Não há como deixar de colocar a educação no seu merecido patamar, como 
responsável pela transformação social. Estende-se uma nova e nobre definição de 
educação, que vai muito além do propósito de auto-aperfeiçoamento: trata-se do meio 
pelo qual se fomenta novas gerações civilizatórias – o próprio progresso da humanidade. 
 As ferramentas tecnológicas abordadas tendem a se tornar inimaginavelmente 
poderosas, sendo importante admitir que elas podem ser usadas para melhorar ou para 
piorar a sociedade. Um dos maiores e crônicos desafios educacionais, que só poderá 
ser solucionado à medida que novas capacidades surgirem, é a falta de acesso universal. 
O relatório Educação 2030 alerta que os órgãos governamentais devem desenvolver 
maneiras de promover o uso democrático e justo dessas novas tecnologias, evitando 
que a inovação em EdTech fique restrita a uma elite social. 
Finalmente, é preciso entender que muitas instâncias políticas verão essas novas 
capacidades educacionais como uma ameaça ao seu poder. Não surpreenderia que 
algumas dessas técnicas possam ser proibidas, de forma que se perpetuem regimes, 
ideologias e estruturas de crença por todo o mundo que se fundamentam na ignorância 
dos povos. Como afirma Prensky (2001), a civilização vivencia um pleno processo de 
mudança. Aquelas partes do mundo que tomarem ações rápidas e apropriadas para 
implementar o novo paradigma educacional serão aquelas em que as crianças poderão 
 
 
verdadeiramente prosperar na vida. São lugares que não ficarão para trás na trajetória 
do progresso humano. 
 
 
 
 
 
 
 
 
SAIBA MAIS 
 
Por uma TI mais verde 
 (JAYO; VALENTE, 2010, p. 57) 
 
[...] É preciso levar em conta que o uso crescente e adequado de recursos da TI poderá 
habilitar os mais diversos setores da economia a reduzirem outras formas de emissão. 
É aqui que parece estar o principal papel ambiental da TI: apesar de emitir grande 
quantidade de CO2, ela pode ajudar outras indústrias a deixarem de emitir quantidades 
ainda maiores. A esse respeito, o prognóstico para 2020 envolve 1,4 bilhão de toneladas 
de CO2 emitido e 7,8 bilhões de toneladas de CO2 poupado – um saldo líquido 
amplamente positivo. 
 
Mas como a TI pode ajudar outros setores a poupar CO2? Talvez o exemplo mais óbvio 
esteja nas tecnologias de videoconferência e teletrabalho: ao reduzir as viagens de 
negócios e o deslocamento de pessoas, elas reduzirão as emissões anuais em 360 
milhões de toneladas. Maior redução será viabilizada pelo uso de computadores para a 
otimização dos processos de logística e transporte de mercadorias (1,5 bilhão de 
toneladas), por edifícios com sensores e sistemas inteligentes de iluminação e ventilação 
(1,7 bilhão de toneladas) e pelas chamadas redes elétricas inteligentes ou smart grids (2 
bilhões de toneladas). 
 
Claro que isso não significa que não existam motivos para preocupação. Mas, a se 
confirmarem, essas projeções sugerem que a TI, apesar de ser parte integrante de um 
problema ambiental alarmante, pode ser também peça-chave para a busca de soluções. 
 
#SAIBA MAIS# 
 
 
 
 
REFLITA 
 
Economia de energia em dispositivos móveis 
(URRIZA et al., 2004, p. 1) 
 
A redução do consumo de energia em dispositivos móveis, (...) por diversos 
fatores, é hoje um problema de importância capital. Dentre esses fatores pode-se citar a 
crescente necessidade de mais capacidade de processamento exigida pelos novos 
programas, aplicativos e sistemas operacionais. Infelizmente, o avanço da tecnologia de 
baterias tem sido lento em relação à capacidade de fornecimento de energia e mesmo 
em relação ao grau de miniaturização exigido pelos dispositivos móveis. A tecnologia 
CMOS é hoje comumente utilizada no processo de fabricação de processadores. Para 
essa tecnologia, verifica-se que o consumo de energia é aproximadamente proporcional 
ao quadrado da voltagem de alimentação. Assim, uma redução do nível de voltagem 
implica em uma diminuição de ordem quadrática no consumo de energia e na dissipação 
de calor. Vários processadores comerciais exploram essa característica e implementam 
um mecanismo denominado Regulagem Dinâmica de Voltagem (Dynamic Voltage 
Scaling). Essa é uma técnica efetiva na redução do consumo de energia, aplicável em 
várias situações. Particularmente, em sistemas móveis de tempo real, o desafio é 
minimizar o consumo de energia e garantir as restrições temporais desses sistemas. [...] 
 
#REFLITA# 
 
 
 
 
CONSIDERAÇÕES FINAIS 
 
Uma pessoa com um mínimo de percepção pode concluir que tudo está mudando 
a sua volta, em um ritmo inédito frente ao que as gerações anteriores enfrentavam. É a 
transformação digital ocorrendo a olhos vistos. 
 A mobilidade é um vetor de análise dessas mudanças, e molda a forma como as 
novas tecnologias convergem entre si e entregam novas oportunidades para a vida das 
pessoas. O movimento era, enfim, inevitável: a tecnologia da informação não poderia 
ficar presa a um equipamento obsoleto na mesa de trabalho de uma pessoa, mas sim 
cumprir seu mais valioso papel, que é o de dar suporte pleno ao dia a dia dos seres 
humanos, a qualquer hora, em qualquer local. 
 A TI verde é uma tendência que promete permanecer forte nos próximos anos. As 
empresas necessitam adotá-la, pois isso traz benefícios para os negócios, para a 
sociedade e para o meio ambiente. 
 O movimento da sustentabilidade promete continuar em alta nesse momento 
histórico de imersão na Quarta Revolução Industrial, afinal, consumidores preferem fazer 
negócios com empresas que conduzem práticas sustentáveis, além de que os próprios 
profissionais ficam mais propensos a dar preferência por empregadores com esse perfil. 
 
Forte Abraço, continuem firmes nos estudos! 
 
 
 
 
 
 
LIVRO 
 
 
Título: New Mega Trends: Implications for our Future Lives 
Autor: Leandro Vignochi, et al. 
Editora: Palgrave 
Sinopse: Com base na pesquisa de uma das maiores empresas de consultoria de 
crescimento do mundo, New Mega Trends identifica as dez tendências globais mais 
importantes que definirão nosso futuro, incluindo modelos de negócios, tecnologia 
inteligente, conectividade e convergência e tendências sociais radicais. As novas Mega 
Tendências darão a você as ferramentas não apenas para identificar e avaliar essas 
tendências revolucionárias, mas também ajudá-lo a traduzi-las em oportunidades de 
mercado para seus negócios diários e vida pessoal. 
 
 
 
 
FILME/VÍDEO 
 
 
Título: A Importância das TICs para a Educação 
Ano: 2017 
Sinopse: Vídeo que descreve a importância da utilização da Tecnologia da Informação 
e Comunicação para os professores da Superintendência Regional de Ensino de Unai 
MG 
Link: https://www.youtube.com/watch?v=J63571s__1w 
 
 
 
 
REFERÊNCIAS 
 
CASTELLS, M. The rise of the network society, the information age: economy, society 
and culture. 2. ed. West Sussex, UK: Blackwell, 2009. 
 
CLEAN EDGE. Getting to 100: a status report on rising commitments among 
corporations and governments to reach 100% renewables. 2015. Disponível em: 
<https://cleanedge.com/reports/Getting-to-100>. Acesso em: 10 out. 2017. 
 
DAHER, C.; SILVA, E.; FONSECA,A. Logística reversa: oportunidade para redução de 
custos através do gerenciamento da cadeia integrada de valor. Brazilian Business 
Review, v. 3, n. 1, 2006. 
 
ÉPOCA NEGÓCIOS. Facebook quer que as pessoas “digitem com o cérebro” e “ouçam 
com a pele”. Disponível em: 
<http://epocanegocios.globo.com/colunas/Tecneira/noticia/2017/04/facebook-quer que-
pessoas-digitem-com-o-cerebro-e-oucam-com-pele.html>. Acesso em: 2 out. 2017. 
 
FROST & SULLIVAN. Top 20 global megatrends and their impact on business, cultures 
and society. San Antonio: Frost & Sullivan, 2014. 
 
HEATH, S. Embedded systems design. Burlington, MA: Newnes, 2002. 
 
JAYO, M. Por uma TI mais verde. GV executivo,v. 9, n. 1, 52-57, 2010. 
 
POSLAD, S. Ubiquitous computing: smart devices, smart environments and smart 
interaction. Hoboken, NJ: J. Wiley, 2009. 
 
PRICEWATERHOUSECOOPERS. Disponível em: 
<https://www.pwc.com/m1/en/media-centre/2017/ iiot-transformation-that-will-put-cios-
to-the-test.html>. Acesso em: 19 out. 2017. 
 
SCHWAB, K. A quarta revolução industrial. São Paulo: Edipro, 2016. 
 
SINGH, S. New mega trends: implications for our future lives. eBook Kindle: 
Basingstoke: Palgrave Macmillan, 2012. 
 
SLADE, G. Made to break: technology and obsolescence in America. Cambridge, MA: 
Harvard University Press, 2009. 
 
URRIZA, J. et al. Economia de energia em dispositivos móveis. In: WORKSHOP DE 
COMUNICAÇÃO SEM FIO E COMPUTAÇÃO MÓVEL, 6., 2004, Fortaleza (CE). 
Anais... Fortaleza, 2004. p. 48-56. 
 
 
 
WEISER, M. The computer for the 21st century. Mobile Computing and 
Communications Review, V. 3, n. 3, p. 3-11, 1999. 
CONCLUSÃO 
 
 
Na Unidade I vimos que as novas tecnologias vêm redefinindo o mundo, alterando 
a forma como as pessoas vivem, se relacionam, produzem e consomem. Em um 
processo cada vez mais acelerado e intenso, o emprego combinado de novas 
abordagens tecnológicas vem criando e oferecendo novas possibilidades ao ser humano 
contemporâneo, de tal forma que o hábito de vida de gerações anteriores é transformado 
por completo no espaço de apenas uma nova geração atual. 
Na Unidade II entendemos que a tecnologia da informação é tão revolucionária 
no que diz respeito ao aprimoramento de todas as demais tecnologias, às novas formas 
como as organizações se estruturam e produzem e às próprias disrupções sociais, 
entendidas como mudanças radicais no comportamento e hábitos das pessoas, é 
inevitável que a TI sirva de plataforma essencial para um sem número de possibilidades 
referentes ao mundo das pessoas com deficiência (PcD). 
Seguindo para a Unidade III, vimos que hoje, o que diferencia os seres humanos 
dos robôs é que são as pessoas que possuem a capacidade de inovação, de empatia, e 
mesmo de improvisação diante de qualquer circunstância. É nisso que se fundamentam 
os que, com razão, reconhecem o trabalho mais mecanizado, tendendo a substituir 
trabalhadores humanos por sistemas artificiais, e imaginam, ao mesmo tempo, haver 
uma garantia de longo termo de que as funções criativas sempre serão cumpridas por 
pessoas, e não por máquinas. 
E por fim, na Unidade IV, vimos que existe uma crescente pressão na indústria 
em geral para que as organizações consigam desempenhar modelos mais sustentáveis 
de negócio, sendo a sustentabilidade definida por um tripé de resultados satisfatórios 
nos aspectos econômico, social e ambiental. Como qualquer tripé, bastaria uma dessas 
sustentações ser comprometida para o negócio como um todo não prosperar. 
 
Não pare por aqui! Vamos em frente! 
Um forte abraço!

Mais conteúdos dessa disciplina