Buscar

03 - Integracao-Computacional-De-Hardware-e-Software

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 78 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 78 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 78 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Fundação Biblioteca Nacional
ISBN 978-65-5821-083-2
9 786558 210832
MARCOS FELICIO
M
A
RCOS FELICIO
INTEGRAÇÃO COM
PUTACIONA
L DE HA
RDW
A
RE E SOFTW
A
RE
Código Logístico
I000159
Integração 
Computacional de 
Hardware e Software
Marcos Felicio
IESDE BRASIL
2021
© 2021 – IESDE BRASIL S/A. 
É proibida a reprodução, mesmo parcial, por qualquer processo, sem autorização por escrito do autor e do 
detentor dos direitos autorais.
Projeto de capa: IESDE BRASIL S/A
Todos os direitos reservados.
IESDE BRASIL S/A. 
Al. Dr. Carlos de Carvalho, 1.482. CEP: 80730-200 
Batel – Curitiba – PR 
0800 708 88 88 – www.iesde.com.br
CIP-BRASIL. CATALOGAÇÃO NA PUBLICAÇÃO 
SINDICATO NACIONAL DOS EDITORES DE LIVROS, RJ
F349i
Felicio, Marcos
Integração computacional de hardware e software / Marcos Felicio. - 
1. ed. - Curitiba [PR] : Iesde, 2021. 
74 p. : il.
Inclui bibliografia
ISBN 978-65-5821-083-2
1. Tecnologia da informação. 2. Software. 3. Computadores - Equipa-
mento e acessórios. 4. Computadores - Equipamento de entrada e saída. 5. 
Sistemas de informação gerencial. 6. Tecnologia - História. 7. Cultura organi-
zacional. I. Título.
21-73377 CDD: 004
CDU: 004
Marcos Felicio Mestre em Arquitetura de Sistemas pelo Centre 
d’excellence sur l’architecture, le management 
et l’économie des systèmes francês. MBA em 
Gerenciamento de Projetos pela Faculdade de 
Informática e Administração Paulista (Fiap). Bacharel 
em Sistemas de Informação pela Faculdade Módulo 
Paulista (FMP). Na área acadêmica, possui experiência 
como professor de pós-graduação no Instituto Israelita 
de Ensino e Pesquisa Albert Einstein (IIEP), lugar em que 
ministra a disciplina de Automação da Infraestrutura 
Hospitalar, além de produzir material didático para 
cursos nas modalidades presencial e a distância. Na 
área empresarial, tem mais de 27 anos de experiência, 
atuando como arquiteto de soluções regional para 
a América do Sul no segmento de buildings na 
multinacional francesa Schneider Electric.
SUMÁRIO
Agora é possível acessar os vídeos do livro por 
meio de QR codes (códigos de barras) presentes 
no início de cada seção de capítulo.
Acesse os vídeos automaticamente, direcionando 
a câmera fotográ�ca de seu smartphone ou tablet 
para o QR code.
Em alguns dispositivos é necessário ter instalado 
um leitor de QR code, que pode ser adquirido 
gratuitamente em lojas de aplicativos.
Vídeos
em QR code!
SUMÁRIO
Agora é possível acessar os vídeos do livro por 
meio de QR codes (códigos de barras) presentes 
no início de cada seção de capítulo.
Acesse os vídeos automaticamente, direcionando 
a câmera fotográ�ca de seu smartphone ou tablet 
para o QR code.
Em alguns dispositivos é necessário ter instalado 
um leitor de QR code, que pode ser adquirido 
gratuitamente em lojas de aplicativos.
Vídeos
em QR code!
1 Informática: sua origem e evolução 9
1.1 Origens e histórico dos computadores 9
1.2 Evolução do software 19
1.3 Conceitos básicos de sistemas 24
1.4 Hardware 25
1.5 Software 29
1.6 Tipos de armazenamento de dados 40
2 Fundamentos da computação 44
2.1 Sistemas computacionais 44
3 Sistemas: fundamentos e importância 53
3.1 Teoria geral dos sistemas (TGS) 53
3.2 Fundamentos de sistemas 54
3.3 Fundamentos da Tecnologia da Informação (TI) 56
3.4 O papel da informação 58
4 Sistemas podem salvar organizações 61
4.1 Cultura organizacional e sistemas de informação 61
4.2 Vantagens dos sistemas de informação nas organizações 63
4.3 Classificação dos sistemas de informação 64
5 Resolução das atividades 72
Com esta obra você terá a oportunidade de entrar na história 
da tecnologia, sendo conduzido desde as primeiras concepções 
lógico-matemáticas até os softwares que auxiliam na tomada de 
decisão atualmente nas companhias.
Também será provocado em cada capítulo a se colocar no 
lugar de profissionais de Tecnologia da Informação (TI) de várias 
áreas, com uma pequena amostra de onde poderá atuar e/ou o 
que encaram os colegas com os quais deverá interagir.
Este livro foi preparado com a intenção de mostrar a base 
dos principais itens que compõem os Sistemas de Informação, 
mostrando o que são, como surgiram, quais componentes fazem 
parte deles e como podem ser utilizados pelos protagonistas no 
apoio às organizações.
O Capítulo 1, um pouco mais extenso, apresenta a história 
de hardwares e softwares, apontando os elementos principais 
dos computadores. O Capítulo 2 mostra como os computadores 
fazem uso do mix entre a eletrônica e as bases numéricas para 
transformar sinais binários em sistemas. O Capítulo 3 detalha 
exatamente o que são os sistemas, para que nos capítulos 
4 e 5 seja abordado como as empresas fazem uso real da 
tecnologia da informação para obter os resultados necessários à 
competitividade do mundo moderno.
O estudo é indicado àqueles que pretendem aprender 
ou consolidar seus conhecimentos sobre a integração 
computacional de hardware e software, tão necessários no 
mundo competitivo atual.
Bons estudos!
APRESENTAÇÃO
Vídeo
Informática: sua origem e evolução 9
1
Informática: sua 
origem e evolução
Com o estudo deste capítulo, você será capaz de:
• conhecer os principais estágios da história 
dos computadores;
• compreender a história e a classificação dos softwares;
• saber as partes nas quais se divide um computador;
• conhecer algumas linguagens de programação.
Objetivos de aprendizagem
1.1 Origens e histórico dos computadores 
Vídeo Quem vai trabalhar com sistemas de informação ou programação 
ou apenas gosta de tecnologia deve conhecer o desenrolar da história 
da área até aqui, bem como os principais impulsionadores de uma ino-
vação e os seus ilustres inventores. 
Este capítulo tem a modesta intenção de conduzi-lo na história, so-
bressaltando inventos ou ideias que revolucionaram as suas épocas 
e nos afetam até os dias de hoje. Espero que este texto te provoque 
alguns pensamentos, como “ah... então, é daí que vem isso?” ou “puxa, 
acho que todos deveriam conhecer essa pessoa”. Boa leitura!
1.1.1 “Uma guerra sempre avança a tecnologia...”
Quando Renato Russo, vocalista da banda Legião urbana, declara, 
em uma de suas músicas, que “uma guerra sempre avança a tecnologia, 
mesmo sendo guerra santa, quente, morna ou fria” (A CANÇÃO..., 1985), 
sua intenção é evidentemente fazer um protesto; porém, a letra da can-
ção também aponta para uma realidade histórica interessante. 
Nath Teles
Destacar
10 Integração Computacional de Hardware e Software
Veja: você provavelmente está utilizando um dispositivo para 
acompanhar esta obra, o qual teve a sua criação ou o seu desenvolvi-
mento promovido ou acelerado com intenções militares. Por um lado, 
nós pacifistas vemos esse fato com tristeza; por outro, tiramos proveito 
desses avanços. Agora, convido você a relembrar algumas tecnolo-
gias, principalmente relacionadas à informática, que foram aceleradas 
com fins militares.
Criptografia
É impossível coordenar uma estratégia sem haver comunicação. 
Sabe-se que desde que o ser humano passou a viver em sociedade, 
imediatamente nasceram as desavenças, que terminavam em batalhas. 
Quanto maiores se tornavam os conflitos, maior era a necessidade de 
comunicação entre as tropas. E não importava o meio, sempre havia 
uma forma de interceptar as transmissões de “comandos”. É aí que o 
engenho humano se mostrou, mais uma vez, inventivo. 
Sabendo que as mensagens poderiam ser interceptadas, surge o 
conceito da criptografia, que é a arte ou o processo de escrever em ca-
racteres secretos ou cifras. Seja no passado ou na atualidade, sempre 
tivemos os gênios capazes de cifrar uma ordem, de modo que somente 
quem tiver a “chave” possa lê-la. O problema é que o outro lado tam-
bém pode contar com gênios para reverter o que foi cifrado. Um dos 
casos mais emblemáticos mexeu significativamente não só nas tecno-
logias de informação, como também na história do mundo. Já ouviu 
falar na máquina de Turing? Essacriação foi vital para a derrota dos ale-
mães na Segunda Guerra Mundial. Ainda falaremos mais sobre Turing, 
mas, por ora, saiba que a criptografia gerada para coordenar ataques 
de guerra é largamente utilizada nos sistemas de informações atuais.
GPS
Já teve a curiosidade de se imaginar a bordo de uma das caravelas por-
tuguesas que singravam os mares na busca pelas especiarias das Índias, 
no século XVI, apenas com bússolas, astrolábios e mapas mal-elaborados? 
Atualmente, é difícil até ir ao supermercado sem utilizar o maravilhoso 
Sistema de Posicionamento Global disponibilizado no celular.
O Global Position System, chamado apenas pela sua sigla, GPS, foi 
inventado nos Estados Unidos, no ano de 1970, com a intenção de 
substituir os sistemas de navegação imprecisos que existiam até aquele 
Purplexsu/Shutterstock
Nath Teles
Destacar
Informática: sua origem e evolução 11
momento. GPS até pode ser o nome do dispositivo utilizado para receber 
as coordenadas de geolocalização, mas estas são enviadas por satélites 
que giram em órbita da Terra. Se ao menos três mensagens de localiza-
ção, data e hora chegarem ao seu dispositivo, este será capaz de execu-
tar a triangulação necessária para indicar em que ponto do planeta você 
está. Quem desenvolveu esse sistema foi o Departamento de Defesa dos 
Estados Unidos da América (EUA), utilizando inicialmente 24 satélites.
Hoje é impossível pensar na tecnologia da informação (TI) sem o uso 
de satélites. Inclusive, pode ser que você até esteja utilizando um link 
de internet via satélite para ler esta obra.
Transistor
Talvez você tenha jogado batalha naval algum dia e saiba exata-
mente a dificuldade existente em acertar um alvo em cheio; esse jogo 
é uma simulação das muitas formas de se tentar traçar a trajetória 
certeira de um projétil. Muito antes das batalhas navais utilizando ca-
nhões, esse desafio já se apresentava no lançamento de rochas, fle-
chas, catapultas e outros armamentos para os quais se necessita de 
habilidade, pontaria e treino. Isso até que alguém, em algum período 
do tempo, entendeu que se poderia utilizar cálculos para melhorar a 
pontaria dos projéteis; então, os nerds entraram na guerra. 
O uso de matemática trouxe uma vantagem imensa às batalhas, 
tornando indispensável que cálculos fossem executados cada vez mais 
rapidamente – a velocidade poderia ser a diferença entre a vitória e a 
derrota. Máquinas calculadoras foram surgindo e, apesar de no princí-
pio serem mecânicas controladas pela força humana, foram evoluindo 
para dispositivos eletromecânicos, para os quais era a eletricidade que 
definia os movimentos de partida e parada. O componente que exe-
cuta essa ação, o transistor, foi inventado em 1947, nos Laboratórios 
Bell, que era um “braço” da American Telephone and Telegraph, a ain-
da presente AT&T. Praticamente tudo o que você vê da eletrônica atual 
utiliza milhares de transistores.
1.1.2 Desde as réguas de cálculo até o primeiro PC
Mas evidentemente que não é só de beligerância que vive a inova-
ção, não é verdade? O famoso ditado que diz “a necessidade é a mãe 
da invenção” tem total razão e respaldo na história. Você já se imaginou 
 Butus/Shutterstock
12 Integração Computacional de Hardware e Software
tendo que executar um projeto sem ter um computador para te auxi-
liar? Façamos esse exercício em conjunto, viajando no tempo para o 
século XVII. Nessa viagem, vemo-nos encarregados de executar contas 
a serviço do rei; para essa tarefa, teremos inúmeros cálculos para efe-
tuar, mas com prazos curtos.
Adições, subtrações, divisões e multiplicações são cálculos necessá-
rios para definir a safra, calcular impostos, mensurar estoques, dividir 
terras, realizar provisão de recursos para a defesa etc. O ábaco, inventa-
do provavelmente na Mesopotâmia, é uma ferramenta largamente uti-
lizada por todos os encarregados de apresentar as contas necessárias 
ao controle do reino. No entanto, esse dispositivo, que é excelente 
para contas simples, tem as suas limitações quando a complexidade 
aumenta. Caso o reino precise fazer um empréstimo financeiro, por 
exemplo, com o uso de juros compostos, a coisa começa a complicar, 
certo? Outros problemas poderiam ser desafiadores se nos fosse pe-
dido para encontrar a raiz quadrada de um número ou, então, para 
resolver casos em que a trigonometria fosse necessária.
Não sei quanto a você, mas ainda bem que foi só um exercício de 
imaginação, pois eu não gostaria de “estar na pele” desse sujeito, tendo 
que dar respostas complexas apenas com um ábaco. Aqui, no futuro, 
nós estamos bem, mas o pessoal da época continuava com o proble-
ma, e foi de olho nesse incremento relevante da busca por formas mais 
rápidas de se chegar aos resultados matemáticos que o físico escocês 
John Napier descobriu e tabelou os logaritmos (sim, logaritmos foram 
inventados e tabelados). Ele passou 20 anos da sua vida fazendo as 
contas e tomando notas dos resultados em uma tabela que é utiliza-
da até hoje. Ainda nas três primeiras décadas de 1600, Henry Briggs, 
Edmund Gunter e Reverend Willian Oughtred aproveitaram a tabela 
e criaram a ferramenta que proporcionou um impulso gigantesco na 
tecnologia: a régua de cálculo.
A régua de cálculo
A régua de cálculo é um dispositivo bem parecido com as nossas ré-
guas comuns de medição escolar, porém com muitos campos a mais e 
uma parte móvel. Em posse de uma dessas, muitos profissionais de enge-
nharia, finanças, ciências e outras áreas podiam reduzir seu tempo de cál-
culo – exatamente como fazemos hoje com nossos computadores. “Como 
assim?”, você deve estar se perguntando, e eu vou tentar te explicar.
Informática: sua origem e evolução 13
Veja a seguir:
De maneira prática, as réguas de cálculo contavam com várias ca-
madas nomeadas por letras (A, B, BI, CI, S’, C, D, S, ST, P), e cada uma 
dessas letras representava um tipo de cálculo. Utilizamos as linhas A e 
B, por exemplo, para executar multiplicações e divisões, enquanto, na 
linha D, podemos encontrar a raiz quadrada de um número.
Pouco depois da invenção das réguas de cálculo, em 1642, um jo-
vem francês chamado Blaise Pascal inventou a Pascalina.
Pascalina
Foi com a intenção de ajudar o pai, um matemático famoso à épo-
ca, que um jovem francês inventou a primeira máquina de calcular. 
Blaise Pascal teve a ideia de criar um dispositivo que pudesse ace-
lerar os cálculos nos quais o pai estava envolvido, e assim concebeu 
a primeira máquina de calcular da história. Chamada carinhosamente 
de Pascalina, tratava-se de um aparelho mecânico de seis rodas denta-
das, cada uma com algarismos de 0 a 9, e com ela se podia somar três 
parcelas de uma vez até o valor de 999.999. Ela ainda existe e pode ser 
vista no museu do Conservatoire des Arts Métiers em Paris.
Gottfried Leibniz
Trinta anos depois, em 1671, o matemático alemão Gottfried Leibniz 
incrementou a Pascalina, adicionando ao aparelho a capacidade de 
multiplicar e dividir.
Porém, Leibniz, que era contemporâneo de Isaac Newton, não ficou 
famoso apenas pelo upgrade da calculadora de Pascal. Foi dele, tam-
bém, a concepção das ideias de cálculo diferencial e integral. Apesar de 
Newton e Leibniz trabalharem na mesma área, com projetos matemá-
ticos independentes, a notação de Leibniz passou a ser a mais utilizada.
As calculadoras foram seguindo o seu compasso mecânico até que, 
em 1939, George Stibitz, cientista dos Laboratórios Bell, apresentou o 
primeiro relay.
Gu
st
av
o 
Vi
le
la
 V
ar
ga
s/
W
ik
im
ed
ia
 C
om
m
on
s
14 Integração Computacional de Hardware e Software
Relay
O primeiro relay ou relê era um dispositivo eletrome-
cânico que ativava ou desativava um circuito mediante a 
passagem de energia. Considerados os precursores dos 
transistores, os relês, apesar de revolucionários, tinham 
como limitação o seu tamanho excessivo, os preços relati-
vamente caros e a lentidão ao desativar os circuitos, supe-
rando a casa dos milésimos de segundo.
Mesmo sendo limitados, os relês eramfascinantes e 
tornaram possível a criação do calculador de números 
complexos (CNC), ou Complex Number Calculator.
Complex Number Calculator
Em 1940, George Stibitz e Samuel Williams, colegas nos Laboratórios 
Bell, construíram o Complex Number Calculator (CNC), considerado o 
precursor do computador digital. O CNC foi apresentado à Sociedade 
Matemática Americana naquele mesmo ano, com um pouco a mais de 
inovação – a apresentação aconteceu em New Hampshire e o resultado 
pôde ser visto em Nova York. Stibitz surpreendeu o grupo de matemá-
ticos ao realizar cálculos no CNC, e o resultado foi impresso por meio 
de linhas telefônicas, a 450 km dali – esse é, provavelmente, o primeiro 
exemplo de computação de acesso remoto.
ENIAC
No dia 7 de dezembro de 1941, o inesperado ataque da aviação ja-
ponesa contra Pearl Harbor precipitava a entrada dos Estados Unidos 
na Segunda Guerra, sendo uma virada decisiva para um conflito que 
se tornou mundial. O exército dos EUA entrou com tudo na batalha, e 
todo o conhecimento dos cientistas, físicos e matemáticos foi utilizado 
para encontrar formas de amplificar o poderio bélico. 
Em 1942, o físico John Mauchly propôs uma máquina de calcular 
totalmente eletrônica, ao mesmo tempo que as forças armadas pre-
cisavam calcular tabelas balísticas complexas. Quando a necessidade 
encontrou a solução, o resultado foi o ENIAC, que significa Electronic 
Numerical Integrator And Computer, construído entre 1943 e 1945 – ele 
foi o primeiro computador de grande escala a funcionar em velocidade 
 Fouad A. Saad/Shutterstock
eletrônica, sem ser retardado por nenhuma parte mecânica. Por uma 
década, até a queda de um raio em 1955, o ENIAC pode ter feito mais 
cálculos do que toda a humanidade havia feito até aquele momento. 
Ele foi essencial para inúmeras batalhas; quando a guerra acabou, a 
prosperidade voltou e, com ela, uma expansão sem precedente histó-
rico ocorreu, de modo a trazer muito mais usos para esses cérebros 
eletrônicos, dando início a era dos computadores pessoais.
Computador pessoal
A história contada até aqui, a qual podemos chamar de primeira ge-
ração de computadores, foi, em sua grande maioria, caracterizada pela 
utilização dos tubos de vácuo. 
Com o advento do transistor, inicia-se o que denominamos de se-
gunda geração, a qual era mais confiável. Ela teve início em 1951, com 
a chegada do primeiro computador digital de múltiplo propósito, o 
Universal Automatic Computer I (UNIVAC I) ou, em português, Compu-
tador Automático Universal, fabricado pela Eckert-Mauchly Computer 
Corporation. Dois anos mais tarde, a International Business Machine 
(IBM) lança as séries 650 e 700. Essa geração de computadores ficou 
marcada por ter sido prolífera no surgimento de diversas linguagens de 
programação, pela diminuição do custo na construção dos computado-
res e pela redução dos consumos de energia. 
A terceira geração surgiu com o advento dos circuitos integrados. Um 
simples circuito integrado continha mais transistores, capacitores e re-
sistores do que todo um circuito da geração anterior. Essa capacidade per-
mitiu não só uma incrível redução do tamanho, mas também um aumento 
da capacidade e confiabilidade dos computadores. É nessa geração que 
surge o conceito de executar múltiplos programas ao mesmo tempo. 
Já a quarta geração ficou conhecida como a geração dos computa-
dores pessoais. Novamente, a IBM apresentou, em 1981, o Personal 
Computer (PC) e, desde então, as pessoas puderam pagar para ter, 
em sua própria casa, uma máquina para uso doméstico. Na sequência, 
em 1984, a Apple, empresa criada por Steve Jobs, introduziu o famoso 
Macintosh, com a sua interface de ícones sendo acionados por mouse. 
Por fim, a quinta e atual geração ocorre a partir do método de inte-
gração em larga escala, o Ultra Large Scale Integration (ULSI), por meio do 
qual se consegue concentrar mais de dez milhões de componentes ele-
trônicos em um simples chip. Esse avanço do processo de manufatura 
automatizado promove a construção de milhões de dispositivos por ano.
 Everett Collection/Shutterstock
Nath Teles
Destacar
16 Integração Computacional de Hardware e Software
1.1.3 Desde o primeiro CLP até a Indústria 4.0
Quando o homem deixou de ser caçador coletor para se dedicar à 
agricultura, acelerou-se a necessidade do uso de ferramentas que au-
mentassem a produtividade. O termo tecnologia é a soma dos radicais 
gregos tekhno, de tékhnē – arte, artesanato, indústria, ciência –, e logía, 
de lógos – linguagem, proposição – (CUNHA, 1986), ou, como eu gosto 
de dizer, o estudo de técnicas novas para se fazer algo.
Você já parou para pensar que os primeiros humanos que deixaram 
a vida nômade e começaram a arar a terra para plantar se depararam 
com uma inconveniente realidade cheia de desafios?
Imagine-se, agora mesmo, parado em frente a um campo coberto 
com vegetação rasteira, ótimo para plantar; a dimensão do campo é 
pequena, comparada a de um campo de futebol. Imaginou? Então, 
pense que você precisa remover toda essa vegetação rasteira com as 
mãos. Complicado, né? A enxada deve ter sido a tecnologia mais pre-
miada nos congressos da época.
A necessidade humana de ferramentas nunca mais teve fim. Para 
produzi-las como as vemos hoje, a indústria passou, até agora, por qua-
tro grandes revoluções, as quais veremos a seguir.
Primeira revolução industrial 
O motor a vapor
A adoção de animais no auxílio de tarefas mais pesadas aconteceu 
logo após a decisão do ser humano de abandonar a vida nômade e 
se dedicar à agricultura. Cavalos e bois foram largamente empregados 
para tarefas de vários portes, mas principalmente para aquelas rela-
cionadas ao uso da força. Não é à toa que utilizamos Horse Power (HP) 
– ou força equivalente a um cavalo – como unidade para definir o quão 
potente é um motor. A primeira revolução (de 1760 a 1820) ocorre exa-
tamente a partir do momento em que os motores, inicialmente mo-
vidos a vapor ou à água, passam a ser utilizados no lugar de animais.
Segunda revolução industrial
Ford e eletricidade
No período entre 1871 e 1914, com o avanço nas comunicações, 
proporcionado pela invenção do telégrafo e das ferrovias, o translado 
de pessoas e principalmente de ideias teve um incremento considerá-
Nath Teles
Destacar
Nath Teles
Destacar
Nath Teles
Destacar
vel, permitindo novas formas de se ver um problema de produção. O 
método diferenciado de produzir, inventado por Henry Ford, mudou 
completamente a maneira como a indústria trabalhava até aquele mo-
mento. O fordismo, como ficou conhecido, introduziu a produção em 
massa por meio da especialização da mão de obra, da padronização da 
produção e do uso de máquinas. Essas máquinas, em muitos casos, 
passaram a ser impulsionadas pela eletricidade, sendo esta uma nova 
fonte de energia que alavancou a indústria a um novo patamar.
Terceira revolução industrial
Revolução digital
Com o fim da Segunda Guerra Mundial, uma explosão do 
consumo aconteceu, forçando a indústria a buscar novas formas 
de produzir em maior quantidade, mais rápido e com custos me-
nores. Esse período, que não por coincidência começa com a in-
venção dos relays e dos transistores, é conhecido como revolução 
digital. Se, no campo da informática, os computadores passaram a 
fazer parte da vida das pessoas, na área industrial os processos 
passaram a ser realizados por controladores lógicos programáveis 
(CLPs), ou programmable logic controller (PLCs) em inglês. O pri-
meiro CLP foi inventado por Dick Morley para a General Motors 
em 1968. Desde então, não há uma manufatura automatizada, 
incluindo o uso de robôs, que não conte com um CLP embarcado. 
Quarta revolução industrial
 Indústria 4.0
Fábricas automatizadas sendo controladas por CLPs que coman-
dam braços robóticos, por meio de decisões tomadas com base em 
sensores e parâmetros predefinidos, é o que caracterizou a revolução 
digital. Mas, então, o que pode ser mais avançado do que isso? Pois 
bem. A quarta revolução industrialestá ocorrendo diante dos nossos 
olhos desde o momento em que a internet passou a 
fazer parte da vida das fábricas.
Desse modo, termos como Industrial Internet of 
Things (IIoT), ou internet de dispositivos indus-
triais, Machine to Machine (M2M), ou comuni-
cação de máquinas entre máquinas, e Machine 
Learning (ML), ou aprendizado de máquinas, 
são a chave para entender a quarta revolução.
Ro
m
an
 B
el
og
or
od
ov
l/S
hu
tte
rs
to
ck
 Suwin/Shutterstock
Informática: sua origem e evoluçãoInformática: sua origem e evolução 1717
Industrial Internet of Things
Assim como pessoas se utilizam da internet para trocar informa-
ções, armazenar dados e aproveitar recursos que a nuvem pode pro-
ver, os dispositivos industriais também usam essas vantagens com as 
mesmas intenções. Uma vez conectado à internet, um dispositivo pode 
ter uma programação específica para realizar determinada tarefa, 
fornecer ou consumir dados da nuvem, fazer autoverificações e alertar 
mau funcionamento. Quando identificamos essas características, dize-
mos que esse dispositivo pertence à categoria de IIoT.
Machine to Machine
Quando um CLP conversa com outro CLP, ele consome dados da 
internet, usa informações de dispositivos IIoT, troca dados com o ERP 
da fábrica, monitora o estado de uma máquina, verifica o processo de 
entrada de matéria-prima e identifica avanços ou atrasos em outros 
processos da cadeia produtiva, com pouca ou nenhuma interferência 
humana. Portanto, estamos descrevendo uma conversa que ocorre de 
uma máquina para outra.
Machine Learning
Não é difícil imaginar que, se tivermos milhares de dispositivos 
fornecendo dados o tempo todo sobre um determinado processo in-
dustrial, a quantidade de informação será monstruosa e praticamente 
inutilizada no caso de ser analisada por uma pessoa, não é verdade? 
 Inspiring/Shutterstock
 Phonlamai Photo/Shutterstock
1818 Integração Computacional de Hardware e SoftwareIntegração Computacional de Hardware e Software
Logo, a quarta revolução só pôde existir após o surgi-
mento de formas para se analisar esses dados, as quais 
utilizassem recursos computacionais capazes de classi-
ficar, organizar e identificar desvios de padrão existen-
tes em milhares de conjuntos de dados. Esses recursos 
computacionais filtram as informações irrelevantes e 
apresentam apenas aquelas que foram identificadas 
como “desvios” a uma pessoa – normalmente, um espe-
cialista, que valida ou não o desvio. Com essas entradas 
de validação ou bloqueio humano, a máquina passa a 
aprender e, após a intervenção, vai melhorando o algo-
rítmico de avaliação do que é considerado um desvio.
Muitos outros termos ainda contribuíram para a revolução industrial 
4.0, como: inteligência artificial e Big Data. Citei mais dois apenas para 
te instigar a buscar mais informações e, quem sabe, te induzir a ser um 
profissional da quarta revolução da indústria.
1.2 Evolução do software 
Vídeo Ada Lovelace
Talvez você não tenha ouvido falar em Ada Lovelace e é até 
compreensível, mas com certeza ficará orgulhoso dela.
Já passamos por vários estágios da construção do que chamamos 
hoje de computadores. Tive que tentar escolher, entre muitas peças 
importantes desse grande quebra-cabeça, aquelas que realmente po-
deriam fazer com que você compreendesse como se deu a evolução 
da régua de cálculo até os PCs. Confesso que, nesse processo, pulei 
de propósito a máquina analítica. Essa máquina, imaginada por volta 
de 1837 pelo professor de matemática e pioneiro da ciência da com-
putação Charles Babbage, tinha a intenção de executar cálculos mate-
máticos complexos de maneira mecânica. O grande diferencial estava, 
curiosamente, no sequenciamento de instruções necessário para exe-
cutar os cálculos. É nesse contexto que entra a nossa heroína. 
Ada Lovelace era filha do filósofo Lorde Byron com a matemática 
Annabelle Byron. Como o pai não era um exemplo de marido, pouco 
após o nascimento de Ada, a mãe se separou e criou a filha sozinha. Sen-
do uma matemática talentosa, Annabelle criou a menina no mundo dos 
Informática: sua origem e evoluçãoInformática: sua origem e evolução 1919
 L
ib
or
 P
íš
ka
/S
hu
tte
rs
to
ck
Nath Teles
Destacar
20 Integração Computacional de Hardware e Software
números. Já adulta, ela se destacou muito, a ponto de Charles Babbage 
reconhecer nela alguém com intelecto de mesmo nível, de modo que 
começaram a trabalhar juntos imediatamente. 
Ada é reconhecida principalmente por ter escrito o primeiro 
algoritmo para ser processado por uma máquina, sendo, portanto, a 
primeira pessoa da história conhecida como programadora. Babbage 
ainda instigou Ada a escrever um artigo sobre suas teorias de programa-
ção, e esse documento foi utilizado 100 anos depois por outro persona-
gem da história da TI, Alan Turing.
A máquina de Turing
Como já mencionado, a criptografia foi uma artimanha largamente 
utilizada em períodos de guerra e, na maioria das vezes, o seu uso foi 
intensificado à sua máxima potência. O exército alemão, utilizando-se 
de uma máquina cifradora chamada Enigma, codificava as mensagens 
transmitidas por rádio às suas unidades, de maneira que estas, em 
posse de instruções claras, conseguiam executar ataques coordenados 
e letais às forças aliadas. Esses ataques poderiam ter sido evitados caso 
se soubesse o segredo para decodificar as mensagens. O problema é 
que a Enigma não tinha esse nome à toa; o código era tão complexo que 
se levava muito tempo para descobrir as “ordens do dia”. Quando os 
especialistas em cifras conseguiam quebrar o código para ler as mensa-
gens, um novo código já estava disponível para coordenar mais ataques.
Para tentar quebrar a criptografia, foi necessária a 
colaboração daquele que hoje é reverenciado como o 
“pai da computação”, Alan Turing. A invenção da famo-
sa calculadora eletromecânica, conhecida como Bomb 
(Bomba), incrementou a capacidade de decifração 
dos códigos da Enigma. Com o poder de interpretar 
as ordens cifradas, Bomb mudou o destino do mundo, 
equilibrando a disputa em favor dos aliados. Mas Tu-
ring não ficou famoso somente pela criação de Bomb; 
muito se deve a ele nos campos da inteligência artificial 
e, também, por ter sido ele quem resgatou e mostrou 
ao mundo o algoritmo de Ada Lovelace, escrito 100 
anos antes.
neftali/Shutterstock
Informática: sua origem e evolução 21
O aparelho de Turing, utilizando-se da ideia de Ada, era capaz de 
manipular símbolos em uma fita, de acordo com uma série de regras, 
para guardar informações.
Ter um conjunto de símbolos e números para transmitir as instru-
ções desejadas a um computador é exatamente a função das lingua-
gens de programação. Algumas são muito próximas da compreensão 
humana, as quais chamamos de linguagens de alto nível, e outras bem 
menos inteligíveis, como o Assembler.
Linguagens de programação
Com o desenvolvimento dos computadores, em 1949 surgiu a lin-
guagem Assembler ou Assembly, que exigia um grande esforço inte-
lectual do programador e era muito sujeita a erros. Ela consistia em 
utilizar um comando em substituição a cada instrução de máquina; na 
Assembly, cada uma dessas instruções equivale a uma instrução do pro-
cessador. Em 1954, a IBM apresentou uma maneira mais “inteligível” de 
se programar: o Fortran – nome que deriva de Formula Translation. No 
começo, esta linguagem tinha a intenção de traduzir equações científi-
cas para códigos de computadores; depois, foi evoluindo e chegou à sua 
última versão em 2010. Nas décadas de 1970 e 1980, o Fortran inspirou 
dois matemáticos da Universidade de Dartmouth, nos Estados Unidos, 
John Kemeny e Thomas Kurtz, a provocar uma evolução considerável 
da programação; eles deram origem a uma linguagem que poderia ser 
utilizada por iniciantes, no mundo da instrução em código, podendo, 
ainda, ser usada para qualquer propósito: Beginner’s All-purpose Sym-
bolic Instruction Code (Basic).
A evolução da linguagem, entretanto, não poderia levar em consi-
deração apenasa simplicidade de se programar. Os anos 1970 eram 
complicados devido à crescente necessidade de novos cálculos, no-
vos computadores e novos softwares, e os custos de memória e pro-
cessamento estavam nas alturas. Era preciso que, além de alto nível, 
uma linguagem de programação conseguisse ser simples no uso, mas 
com grande poder de comunicação em linguagem de máquina para 
economizar os caríssimos bytes da época. 
Foi para suprir essa lacuna que, em 1972, o engenheiro Dennis 
Ritchie concebeu a Linguagem C, para ser usada no desenvolvimento 
do sistema operacional Unix nos Laboratórios Bell – na época, perten-
cia a AT&T, mas hoje faz parte da Alcatel-Lucent. As linguagens foram 
22 Integração Computacional de Hardware e Software
se tornando mais poderosas, assim como os computadores. Na década 
de 1980, alguns desses cérebros eletrônicos receberam o status de su-
percomputadores, como foi o caso do Deep Blue da IBM.
O poder e o problema do Deep Blue
Imagine que você é o gerente de marketing de um supercompu-
tador, tentando encontrar um desafio à altura do poder de 256 
coprocessadores capazes de analisar aproximadamente 200 milhões 
de posições por segundo. Imaginou? Pois bem, esse deve ter sido um 
desafio interessante para o responsável pela publicidade do Deep Blue, 
o poderoso “monstro” de calcular da IBM na década de 1990. A fórmula 
descoberta para testar o seu poderio computacional foi o convite feito 
ao campeão mundial de xadrez da época, Garry Kasparov. A ideia era 
mostrar ao mundo o quanto as linguagens de programação, somadas 
à capacidade computacional, estavam próximas do intelecto humano. 
Os programadores imputaram na base de dados do computador mais 
de 700 mil partidas de mestres e grandes mestres, e o resultado foi a 
vitória da máquina sobre o homem. 
A derrota de Kasparov significava que os computadores chegaram 
ao mesmo nível que o cérebro do homem? Longe disso. A conclusão 
foi a de que, com uma ótima capacidade de processamento e uma pro-
gramação bem definida, um supercomputador podia fazer jogadas de 
xadrez, resumidamente matemáticas, muito bem. Caso fosse necessá 
rio utilizar o Deep Blue para uma partida, por exemplo, de gamão, os 
programadores teriam que começar tudo de novo. Mas é aí que está 
a beleza da tecnologia. Barreiras foram quebradas e desafios foram 
cumpridos, provando que o homem, agora apoiado em uma linguagem 
de programação e munido de um enorme poder de calcular, poderia 
ir muito além do que sonhara Ada Lovelace, Babbage e Turing. Ficaria, 
então, esse poder todo restrito apenas a um único computador?
O surgimento da internet
Caso tentemos encontrar alguém que tenha idealizado a internet 
sozinho, acredito que teremos dificuldades, pois a concepção dessa se 
deu na soma de diversas participações de grandes inventores. Veja, se 
pensarmos que o grande Nikola Tesla, com a sua incrível ideia de um 
mundo sem fios ou world wireless system fosse o progenitor da rede, 
estaríamos sendo injustos com o pensador visionário Paul Otlet, que 
Ja
m
es
 th
e 
ph
ot
og
ra
ph
er
/W
ik
im
ed
ia
 C
om
m
on
s
gamão: jogo de tabuleiro 
para dois jogadores, 
realizado em um caminho 
unidimensional.
Glossário
Informática: sua origem e evolução 23
propôs, em 1930, a criação da World City ou Cité Mondiale. A World City 
foi uma visão utópica de uma cidade que seria como uma exposição 
universal, a qual reuniria todas as principais instituições do mundo. Em 
1960, J.C.R. Licklider formulou a ideia de uma rede global, a qual bati-
zou de Intergalactic Computer Network – da primeira e da última 
palavra é que vem o termo internet. Ainda assim, mesmo com a junção 
de pequenas ideias que esses e outros gênios do século XX aportaram 
à criação da internet, nenhum deles foi tão efetivo quanto Tim Berner-
s-Lee. O físico inglês propôs, em 1989, um projeto baseado no conceito 
de hipertexto, para facilitar a partilha e a atualização de informações 
entre os pesquisadores da Organização Europeia para a Pesquisa Nu-
clear (CERN). Nascia ali a rede mundial de computadores, que atual-
mente nos permite conectar com pessoas, máquinas e coisas.
Inteligência artificial e Machine Learning
Inteligência artificial é a teoria e o desenvolvimento de sistemas 
computacionais capazes de realizar tarefas que normalmente reque-
rem inteligência humana, como percepção visual, reconhecimento de 
fala, tomada de decisão e tradução entre idiomas – isso segundo o di-
cionário de Oxford (2021). Mas ela pode ser muito melhor explicada se 
você já ouviu, ao ligar para a sua operadora de telefonia, uma voz, do 
outro lado da linha, dizendo “olá, já vi aqui de que número que você 
está ligando; se você quer atendimento para esse número, pressione 1”, 
a voz do seu GPS perguntando se ainda há um radar naquela posição 
ou, ainda, a Alexa, em sua casa, citando quais são as suas tarefas do dia.
A humanidade sempre teve o desejo de ter alguém que possa fa-
zer as suas tarefas mais repetitivas e aborrecidas. Gregos, chineses e 
egípcios deixaram vestígios desse desejo em dezenas de autômatos 
que foram descobertos pela arqueologia. A evolução dos softwares 
chegou a esse grau de sofisticação, e hoje já é possível dispor de secre-
tárias eletrônicas embarcadas em smartphones, carros e residências 
para executar as tarefas cotidianas. Com essa capacidade de aprender 
com os dados e as ações que vão sendo solicitados, essas inteligências 
artificiais vão aprimorando os resultados. Esse “aprender”, também 
chamado de Machine Learning (ML), vai nos acompanhar daqui para 
frente, sem previsão de limites. 
Nath Teles
Destacar
Nath Teles
Destacar
Nath Teles
Destacar
24 Integração Computacional de Hardware e Software
A ponto de despertar a preocupação de muitos e de instigar a ficção, 
quem leu Isaac Asimov, assistiu ao filme RoboCop ou maratonou a série 
Black Mirror na Netflix sabe do que estamos falando. Alan Turing (sim, ele 
de novo) foi o primeiro a questionar se uma máquina conseguiria evoluir 
tanto a ponto de nos confundir com relação a se estamos falando com 
um humano; para testar, criou um método que até hoje é utilizado para 
avaliar a precisão da inteligência artificial: o teste de Turing.
Meu conselho é: deixe a ficção de lado e se concentre no real. A 
inteligência artificial será a interface entre homens e máquinas, e isso 
só traz pontos positivos. Apesar de parecer tudo muito avançado, esta-
mos apenas engatinhando nessa área, e talvez esse seja um campo de 
desenvolvimento que você poderá trilhar com muito sucesso.
1.3 Conceitos básicos de sistemas 
Vídeo Segundo o Dicionário Etimológico Online (ONLINE..., 2021, tradução 
nossa), a palavra ware, entre outras coisas, significa: “‘bens manufaturados, 
artigo de mercadoria’, inglês antigo waru” e, também, “proteção, guarda”, 
sendo, portanto, “objeto de cuidado, para manter algo bem protegido”.
Hardware e software
Se fosse para realizar uma tradução livre dessas duas palavras, eu 
as interpretaria da seguinte maneira:
Aquilo que contém partes físicas 
(que podem ser tocadas).
HARDWARE
Aquilo que contém partes lógicas 
(que não se pode tocar).
SOFTWARE
Veremos, a seguir, um pouco mais sobre cada um desses itens.
1.4 Hardware 
Vídeo Agora que você já tem a definição das palavras, iremos conhecer um 
pouco do que é o hardware e de como ele chegou até os dias atuais, 
tendo em vista que já visitamos uma série de inventos que foram to-
mando corpo do que chamamos hoje de computadores.
Nath Teles
Destacar
O primeiro computador pessoal considerado um sucesso de vendas 
em massa foi o Macintosh, produzido e comercializado pela Apple de 
Steve Jobs a partir de 1984. Esse computador pessoal já dispunha dos 
principais hardwares com os quais estamos acostumados hoje. Vamos, 
agora, abordar os itens mais relevantes.
Placa-mãe
Para construir um carro, as peças precisam ser fixadas em uma 
estrutura principal chamada chassis. Pense na placa-mãe exatamente 
como sendo a peça estrutural principal de umcomputador, em que 
podemos conectar todos os outros dispositivos.
Processador
O processador é a parte responsável por realizar os cálculos 
matemáticos necessários para praticamente todos os processos 
computacionais.
Memórias
O computador, assim como nós, possui dois tipos de memórias: as 
de acesso rápido e curto espaço e as de acesso mais demorado, entre-
tanto com grande capacidade de armazenamento. 
Para provar que a sua memória também funciona assim, proponho 
o seguinte desafio: leia o número 76367253831 e guarde-o na memó-
ria; depois, feche os olhos e repita o número. Caso eu peça amanhã 
que repita esse mesmo numeral, existe uma grande chance de você 
não conseguir repeti-lo, certo? Pois bem, isso significa que não temos 
memória o suficiente para armazenar esse número? Claro que não; 
você é capaz de repetir o seu número de CPF agora mesmo e com uma 
certa tranquilidade.
 A
bs
ce
nt
/S
hu
tte
rs
to
ck
Informática: sua origem e evoluçãoInformática: sua origem e evolução 2525
26 Integração Computacional de Hardware e Software
Mas o que aconteceu, então? Você armazenou o 76367253831 na 
sua memória de acesso rápido. O problema é que ela é usada o tempo 
todo e precisa ser “esvaziada” para ser utilizada novamente. Para que 
uma lembrança fique guardada para sempre na outra memória, aquela 
de longa duração, é preciso que você faça o processo de “save” que a 
natureza nos proporcionou: dormir. Exato! Para que as informações 
aprendidas em um dia sejam “guardadas” de maneira definitiva, você 
precisa dormir; é dormindo que o conteúdo da memória rápida é 
transferido para a duradoura.
Nos computadores, a memória de acesso rápido, mas de pouco 
espaço, é conhecida como memória RAM ou random access memory 
(em português, memória de acesso aleatório). Enquanto isso, as me-
mórias de acesso mais lento, porém com grande poder de armaze-
namento, podem ser conhecidas como HD (hard drive ou disco de 
armazenamento), memory stick (aquele que chamamos de pendrive, por 
exemplo) ou SD card, o qual utilizamos para aumentar a capacidade de 
armazenamento de nossos celulares.
Multimídia
Os sons que ouvimos nos computadores e as imagens projetadas 
nos monitores são processados por áreas específicas destinadas a 
essas tarefas.
Processar um som pode parecer algo simples, mas não é. O pri-
meiro a captar e reproduzir som na história foi Thomas Edison (aquele 
da lâmpada elétrica), com o seu fonógrafo, em 1877. E se já é compli-
cado armazenar e reproduzir ruídos, imagine imagens. Pois foi o 
mesmo Edison que, em 1891, apresentou ao mundo o cinetoscópio, 
um instrumento de projeção interna de filmes. Desde então, arma-
zenar e reproduzir sons e imagens passou a fazer parte de nossas 
vidas e dos computadores.
Mas se para reproduzir sons as placas-mãe atuais são autossufi-
cientes, o mesmo não se pode dizer do processamento de imagens. 
Não é possível rodar o GTA 1 sem utilizar uma placa adicional com 
alto poder de execução.
 Morph
art Creation/Shutterstock
Famoso jogo eletrônico 
de ação e aventura, mas 
não aconselhável para 
menores.
1
Informática: sua origem e evolução 27
Periféricos
Tendo a placa-mãe centralizado os principais itens em um só invólu-
cro, ao qual se habituou chamar de central de processamento unificada 
(CPU), tudo aquilo que tivermos no entorno ou na periferia definimos 
como periféricos. Eles podem ser vários, mas os principais são o tecla-
do, o mouse, a impressora e a câmera.
1.4.1 Dispositivos de entrada e saída
A interação entre o homem e a máquina deverá evoluir para a inteli-
gência artificial ou até mesmo para o uso de recursos biônicos, em que 
os sinais de partes do nosso corpo poderão ser capturados e traduzidos 
em sinais para os computadores. Entretanto, hoje ainda dependemos 
de dois dispositivos de entrada muito comuns: o teclado e o mouse.
A história do teclado QWERTY
Talvez você não tenha sido apresentado a uma máquina de escrever, 
mas se, de uma forma hipotética, colocássemos uma delas à sua frente, 
certamente saltaria aos seus olhos algo bem familiar: a organização das 
teclas. A ordem das letras – que aparece até no teclado virtual do seu 
celular –, iniciando-se em QWERTY, foi aproveitada quando surgiram os 
primeiros computadores. A mão de obra treinada na época foi aprovei-
tada, de modo que os datilógrafos – “do Latim DATILOS, ‘dedo’, mais o 
G. GRAPHOS, ‘escrita’” (ORIGEM..., 2021) – não teriam nenhuma dificul-
dade em se adaptar.
Então, por que as máquinas de escrever tinham essa formação de 
letras em vez de usar a ordem alfabética? Tentarei explicar. Na máqui-
na de escrever, quando uma tecla era acionada, uma aleta metálica 
contendo a letra desejada na ponta servia de carimbo na folha de papel 
ao passar por uma fita de tinta.
Para escrever uma palavra, várias aletas eram acionadas, com 
diferenças de milissegundos entre uma e a próxima. Com o teclado 
organizado em ordem alfabética, era muito comum que as aletas se en-
ganchassem diversas vezes em uma única frase, tornando o trabalho 
moroso e irritante. O inventor americano Christopher Latham Sholes 
 Jonathan Weiss/Shutterstock
28 Integração Computacional de Hardware e Software
analisou quais letras, nas palavras americanas, eram as mais utilizadas 
e quais eram as menos. Em seguida, fez um rearranjo e apresentou ao 
mundo o formato que é replicado em qualquer dispositivo hoje que 
necessite de entrada de dados escritos 2 .
A história do mouse
Apesar de o Macintosh ter sido o primeiro PC a ser vendido em mas-
sa, a noção de computador pessoal recebeu contribuições de inúmeras 
companhias. Uma delas merece destaque por ter contribuído com o 
conceito de ícones organizados em janelas: a Xerox (sim, aquela mes-
ma das máquinas de fotocópias).
Antes da inovação de se ter ícones representando aplicativos que se 
abrem após um clique, o acesso aos programas funcionava pela digi-
tação de comandos no teclado. Caso você quisesse abrir um aplicativo 
para escrita, por exemplo, digitaria na linha de comando algo como 
Nome-Do-Aplicativo.exe e, em alguns segundos, estaria escrevendo o 
seu texto. Acontece que, com a quantidade de aplicativos crescendo de 
maneira exponencial, guardar o nome de cada aplicação passou a ser 
algo complicado. Logo, surgiu o conceito de organização em “janelas” 
(em inglês, windows), em que ícones representavam o aplicativo dese-
jado. Essa nova forma foi apresentada ao mundo pela empresa Xerox 
na década de 1970. Foi revolucionário, mas ainda não era perfeito, afi-
nal o conceito facilitava a organização, porém dificultava o uso apenas 
do teclado. Esse desconforto deu espaço para a inovação do mouse.
O primeiro mouse comercial foi oferecido ao mercado pela Telefunken 
e se tratava de um dispositivo que possuía uma “bola deslizante” – 
rollkugel em alemão, nome dado por seu criador Douglas Engelbart –, 
que registrava as coordenadas X e Y do cursor e as representava na tela. 
A ideia de ícones organizados em janelas, sendo acionadas por uma re-
presentação lógica, gerada por meio do elemento físico mouse, definiu o 
conceito principal da interação homem-máquina, o qual foi replicado por 
todos os outros fabricantes de software que vieram depois.
Os mouses atuais sofreram poucas alterações, como a troca da bola 
deslizante por um laser óptico e a perda da cauda – item que lhe confe-
riu o apelido de mouse, por se parecer com um camundongo com rabo 
–, tornando-se “sem fio”. Fora essas duas transformações, os mouses 
permaneceram até hoje com a sua utilidade de ser os “dedos virtuais” 
Não se pode esque-
cer que o inventor do 
protótipo da máquina de 
escrever foi o padre brasi-
leiro paraibano Francisco 
João de Azevedo, que, 
no Brasil, é amplamente 
reconhecido. “Sua notável 
invenção era um móvel de 
jacarandá equipado com 
teclado de dezesseis tipos 
e pedal, de aparência de 
um piano. Cada tecla de 
sua máquina acionava 
uma haste comprida 
com uma letra na ponta. 
Combinando-se duas ou 
mais teclas era possível 
reproduzir todoo alfabe-
to, além dos outros sinais 
ortográficos. O pedal 
servia para o datilógrafo 
mudar de linha no papel. 
A máquina era um suces-
so por onde passava e 
em uma exposição do Rio 
de Janeiro, em 1861, na 
presença do imperador 
Pedro II, o padre recebeu 
uma medalha de ouro dos 
juízes em reconhecimento 
a seu projeto revolucioná-
rio” (HISTÓRIA..., 2021).
2
 Nor Gal/Shutterstock
Informática: sua origem e evolução 29
do operador. As teclas touch screen e os comandos por voz ameaçam 
esse conceito, mas possivelmente o bom e velho “ratinho” ainda terá 
uma ou até duas décadas pela frente.
O que seria dos youtubers sem os periféricos
Teclado e mouse são os principais dispositivos de entrada de 
dados para um computador, mas existem outros. O reconhecimento 
biométrico em que se pode utilizar as digitais, os olhos ou o formato 
do rosto, por exemplo, também é uma forma de se trazer informações 
para dentro do computador, assim como as câmeras que capturam a 
imagem e a reproduzem internamente. Já os dispositivos de saída são 
aqueles que fazem o caminho inverso, pegando dados do computador 
e levando-os para fora – é o caso do monitor e das impressoras, por 
exemplo. Para saber o quanto os dispositivos de entrada e saída são 
importantes, tente imaginar como seria a vida de um youtuber sem 
todos esses recursos interligados em um processo só.
1.5 Software 
Vídeo Segundo o dicionário Houaiss (2018), software é um “conjunto de 
componentes lógicos de um computador ou sistema de processamen-
to de dados; programa, rotina ou conjunto de instruções que contro-
lam o funcionamento de um computador; suporte lógico”.
Além dessa definição, o verbete poderia incluir, na explicação, 
que estamos cercados de softwares por todos os lados. Pense em 
um dispositivo qualquer utilizado hoje em dia – não precisa ser os 
óbvios celulares, as smart TVs, os smartwatches e os Ipads. Podemos 
nos direcionar para os normalmente invisíveis, como controles de se-
máforo, painéis de comando dos veículos, controles de cafeteira ou 
micro-ondas, pois todos esses se utilizam de softwares para funcionar. 
Praticamente, nenhum ou quase nenhum produto oferecido hoje no 
mercado não conta ou não passou pelo uso de programação lógica.
Como já falamos sobre a relevância de Ada Lovelace e Alan Turing, 
vamos trabalhar, agora, os acontecimentos mais recentes, para que você 
possa compreender melhor essa importante categoria da informática.
30 Integração Computacional de Hardware e Software
Do Pong ao Minecraft
Sabe-se que os computadores foram produzidos devido à urgência 
em aumentar a capacidade de processamento de cálculos necessários 
para a resolução de conflitos, em sua maioria bélicos. Mas, em tempos 
de paz, os computadores puderam ser utilizados para outras finalida-
des, sendo uma delas considerada maravilhosa: os videogames.
Estudantes do Massachusetts Institute of Technology (MIT) criaram, 
em 1962, um dos primeiros jogos de computador, inspirado em his-
tórias de ficção científica: Spacewar. O jogo logo se espalhou entre 
os pesquisadores, porém só podia ser jogado nos computadores de 
grande porte das universidades.
Quando os microchips chegaram, em 1970, barateando o custo dos 
computadores utilizados para jogos, despertou-se também o interesse 
por parte dos programadores de software de se dedicarem à arte do 
entretenimento. Mas não se engane; não há diferenças entre a progra-
mação para os jogos ou para a construção de uma estação espacial. 
As habilidades necessárias para a criação de um são exatamente as 
mesmas para a construção do outro. 
Os primeiros programadores a realmente ganhar dinheiro com a pro-
dução de software para jogos foram Nolan Bushnell e Ted Dabney, que 
fundaram a Atari, empresa criadora do Pong, o primeiro videojogo a 
fazer sucesso comercial e abrir as portas para uma indústria bilionária, 
empregando milhares de programadores mundo afora. O campeão de 
vendas Minecraft, ótimo jogo para crianças, vendeu sozinho mais de 
200 milhões de cópias. Além disso, é bem provável que o responsável 
pela gestão financeira da Atari tenha utilizado muito as planilhas eletrô-
nicas que estavam aparecendo na época – uma delas o VisiCalc.
Do VisiCalc ao Excel
Uma vez que os computadores saíram do universo acadêmico mi-
litar e passaram a fazer parte da vida das pessoas, fica fácil imaginar 
que os softwares criados para facilitar as tarefas diárias começaram a 
aparecer aos montes – até porque os trabalhos repetitivos, que consu-
miam e consomem ainda muito tempo da vida dos profissionais, são 
muitos. Controlar fluxos de caixa, gerir pagamentos, organizar esto-
ques, controlar as vendas etc. são alguns dos exemplos em que o uso 
Informática: sua origem e evolução 31
de planilhas eletrônicas é altamente indicado. A ideia de um 
aluno de Harvard, o Daniel Bricklin, de utilizar computadores 
para a execução de planilhas deu origem ao VisiCalc, softwa-
re com essa característica. O VisiCalc só perdeu sua posição 
quando, em 1983, a Lotus Corporation apresentou um progra-
ma integrado que, além de planilhas, gerava gráficos e tratava 
dados como uma ferramenta de base de dados. O Lotus 1-2-3 
foi o pacote integrado de softwares que dominou o mercado.
Em 1985, após visualizar o poder que os pacotes de software 
possuíam, Bill Gates, fundador da Microsoft, apresenta ao mun-
do o seu conjunto de programas, em que figurava a planilha eletrônica 
Excel, a qual venceu todos os outros concorrentes e mantém um mono-
pólio até hoje.
Hello, World!
Como vimos, os softwares, juntamente com os hardwares, foram 
crescendo e entrando na vida das pessoas para nunca mais sair. 
Os profissionais que ambicionam entrar para esse seleto grupo de 
pessoas que fizeram a diferença e impulsionaram os avanços tecnoló-
gicos até aqui têm muito em comum, pois avistaram na necessidade 
uma forma de inovar.
Todos esses indivíduos passaram por diversos desafios ao criar 
seus softwares, e não é por acaso que existe uma certa “tradição” entre 
os programadores, a qual exige que o primeiro programa feito em uma 
linguagem nova deva ser uma mensagem de saudação, a famosa “Hello 
World!” ou “Olá, mundo!” se preferir.
E aí? Já fez o seu “Hello, World!” em alguma linguagem de programação?
1.5.1 Classificação de software
Os softwares podem ser classificados de maneira genérica, olhando 
de modo mais simplista e dividindo em dois tipos: básicos e aplicativos.
Aqueles voltados ao básico, em que se busca 
o controle dos itens físicos do computador, 
gerando as condições necessárias para a 
operação; é o caso dos sistemas operacionais e 
dos drivers de hardware.
Básicos
Aqueles que têm funções específicas destinadas 
a apoiar os usuários em tarefas cotidianas; por 
exemplo, editores de texto, planilhas eletrônicas, 
edição de áudio, vídeo, desenho etc.
Aplicativos
Ti
nx
i/S
hu
tte
rs
to
ck
32 Integração Computacional de Hardware e Software
Entretanto, essa maneira simplista pode não exprimir de uma forma 
adequada todos os modelos. Logo, devemos classificar os softwares 
com um pouco mais de critério, como listado a seguir.
Figura 1
Classificação dos softwares
Coleção de programas escritos para fornecer serviços a outros programas.
Software de sistema
Programas stand-alone (que rodam sem internet ou outros recursos em rede), 
que resolvem um problema de negócio específico.
Software de aplicativo
Programas focados em grandes processamentos numéricos, como astronomia, 
biologia molecular e outras áreas com essa característica.
Software de engenharia (científico)
Programas contidos dentro de um produto ou sistema e usados para 
controlar o equipamento e fornecer funcionalidades ao usuário final.
Software embutido
Programas focados em rede, abrangendo muitas aplicações acessadas por 
um navegador a partir de computadores e dispositivos móveis.
Aplicações web
Programas que usam algoritmos não numéricos para resolver problemas 
complexos que podem ser resolvidos por técnicas convencionais 
de computação.Software de inteligência artificial
Software projetado para fornecer capacidades específicas para serem utilizadas 
por diferentes consumidores. Por exemplo, o Microsoft Office provê ferramentas 
de uma linha de produtos que são usadas massivamente por diversas áreas 
do mercado.
Software para linha de produtos
Fonte: Adaptado de Pressman, 2014.
De todos os softwares citados, é preciso que você entenda bem o 
conceito de software aplicativo, pois existe uma grande chance de ele 
ser a sua porta de entrada no mundo da programação.
Informática: sua origem e evolução 33
1.5.2 Software aplicativo
Como mencionado, um software aplicativo deve oferecer um serviço 
ao usuário final, e este serviço pode ser de uso geral, como os tradicio-
nais Word, Excel, Corel Draw, Photoshop etc. ou de uso específico. Há, 
ainda, os softwares aplicativos feitos sob medida para uma determina-
da empresa, com a intenção de controlar estoques, produção, clientes, 
recursos financeiros, vendas, entre outros.
1.5.3 Customização e personalização de software
A decisão entre comprar um programa ou contratar alguém para 
produzir algo sob medida é tão complicada quanto a de ir a uma loja 
para comprar aquela roupa que foi produzida pensando na média do 
brasileiro ou contratar um costureiro que produzirá uma roupa com 
as suas medidas. A customização ou personalização tem suas vanta-
gens e desvantagens. Se você está contratando um profissional para 
desenvolver um software feito sob medida, certamente receberá um 
produto bem próximo do que precisa, entretanto deverá desembolsar 
um valor maior que a média e terá que aguardar um período maior 
para poder utilizar o programa contratado.
Além do mais, se você for o contratado, tenha em mente que deverá 
entregar um produto que compense o fato de ter sido escolhido para 
a tarefa. Prepare-se para isso, utilizando-se de metodologias adequa-
das para ouvir o seu cliente, entender o que ele precisa, considerar 
todos os envolvidos e colocar a mão na massa. Uma das tarefas mais 
importantes do trabalho na construção de um software personalizado 
está na escolha de qual linguagem de programação utilizar.
1.5.4 Linguagens de programação
Já comentamos sobre o Assembler – uma linguagem que possibilitou 
aos programadores sair das fórmulas matemáticas para um linguajar 
um pouco mais compreensível que o das máquinas –, entendendo que 
o Basic trouxe essa conversa para ainda mais próximo de nós. Mas 
como se parecem essas linguagens?
34 Integração Computacional de Hardware e Software
Veja, a seguir, alguns exemplos.
Portugol
Comecemos por uma pseudolinguagem criada com fins acadêmi-
cos para ensinar programação por meio do uso da mistura da língua 
portuguesa com algoritmos.
O problema pede que o programador desenvolva um algoritmo 
para somar dois valores inteiros, por exemplo: 10 + 5.
Início
inteiro: x,y,z; //Declara três variáveis inteiras
x <− 10; //atribui 10 para a variável x
y <− 5; //atribui 5 para a variável y
z <− x + y; //soma x e y, o resultado é z
Fim
BASIC
Um programa em Basic tem, normalmente, suas linhas numeradas 
com valores de 10 em 10, com o objetivo de facilitar a introdução de 
linhas intermediárias caso necessário.
10 A=10 //atribui 10 para a variável A
15 A=A+5 //soma 5 a variável A
20 PRINT A //mostra na tela o valor de A
Linguagem C
Um programa em C é composto por um conjunto de funções. A 
função pela qual o programa começa a ser executado chama-se main. 
Após cada comando em C, deve-se colocar um ponto e vírgula (;).
Além disso, um programa em C deve ser identado (organizado por 
tab ou espaços) para que possa ser lido com mais facilidade.
void main()
{
 int a; // declara a variável “a” como inteiro
 a = 10 + 5; // soma 10 com 5
}
Informática: sua origem e evolução 35
Linguagem C++
A primeira pergunta que todos fazem ao se deparar com C e C++ 
é: qual a diferença entre essas linguagens? De maneira genérica, C 
é uma linguagem mais poderosa, por estar mais próxima da lingua-
gem de máquinas; portanto, é mais rápida. O problema está quando o 
programa se torna mais complexo, pois o programador deverá tomar 
cuidado com as entradas e saídas para não provocar os crashes e as 
telas azuis, que são causados pela má gestão das interrupções. Já C++ 
tem um maior controle de inputs e outputs (I/O); logo, reduz os riscos 
desse tipo de erro. Outra característica importante é que C++ trabalha 
com orientação a objetos, tema que veremos um pouco mais à frente.
#include <stdio.h> //Declaração de biblioteca
#include <conio.h> //Declaração de biblioteca
main()
{
 float a,b,s; //Declara 3 variáveis float
 printf(“digite um numero a”); //Mostra texto
 scanf(“%f”,&a); //Captura entrada do teclado
 printf(“digite um numero b”); //Mostra texto
 scanf(“%f”,&b); //Captura entrada do teclado
 s=(a+B); //Soma
 printf(“ a soma é= %f”,s); //Mostra texto
 getch(): //Aguarda uma tecla
}
Java
Java é o nome da marca de café, produzida na ilha homônima, que 
era a predileta dos programadores que inventaram a linguagem. 
Apesar de ter uma estrutura semelhante à linguagem C, de onde 
é derivado, o Java se assemelha bastante à C++ por ser, também, 
orientado a objetos. Porém, diferentemente da C e da C++, o Java 
conta com um conceito de execução diferente, em que o código-fonte 
é pré-compilado em uma estrutura chamada de bytecode. O bytecode 
precisa de uma máquina virtual Java para ser executado.
36 Integração Computacional de Hardware e Software
public class Numero {
 public static void main(String args[]) { /* Método principal */
 double x,y; // estes sao numeros reais de dupla precisao
 // System.out.print(“x = 2.0”); /* inicializando o “x” */
 x = 2;
 y = 3.0; /* iniciando o y, e fazendo y = y+x; */ y = y + x;
 // escrevendo a soma
 System.out.println(“x+y = “ + (x+y));
 }
} /* fim de Numero */
JavaScript
Antes de você se confundir, vamos explicar a diferença.
Como mencionado, no Java escrevemos um código e este é 
pré-compilado no formato bytecode; então, utilizamos uma máqui-
na virtual Java para executar o programa. Assim, o JavaScript é uma 
linguagem de programação criada para dar dinamismo às páginas de 
internet, logo a programação feita será executada pelos navegadores 
de internet. Não sem razão, essa linguagem foi construída pelo mesmo 
criador do browser Mozilla, Brendan Eich.
Em seguida, observe um exemplo de script que gera um relógio em 
tempo real em uma página web.
<script type=”text/javascript”>
function startTime()
{
var today=new Date();
var h=today.getHours();
var m=today.getMinutes();
var s=today.getSeconds();
// add a zero in front of numbers<10
m=checkTime(m);
s=checkTime(s);
document.getElementById(‘txt’).innerHTML=h+”:”+m+”:”+s;
t=setTimeout(‘startTime()’,500);
(Continua)
Informática: sua origem e evolução 37
}
function checkTime(i)
{
if (i<10)
 {
 i=”0” + i;
 }
return i;
}
</script>
<div id=”txt”>
<script type=”text/javascript”>document.
write(startTime())</script>
</div>
PHP
Outra linguagem produzida para dar mais recursos ao simplificado 
HTML das páginas de internet foi o PHP – o acrônimo já responde a essa 
vocação, já que PHP é abreviação de Personal Home Page. Ela foi criada 
por Rasmus Lerdorf com o intuito de incluir utilidades, como contagens 
de acesso de visitantes e outros itens que facilitam a operação de sites.
<!DOCTYPE HTML>
<html>
 <head>
 <title>Exemplo</title>
 </head>
 <body>
 <?php
 echo “Olá, eu sou um script PHP!”;
 ?>
 </body>
</html>
38 Integração Computacional de Hardware e Software
Python
Python é uma linguagem de uso geral muito utilizada em Data 
Science, Machine Learning, desenvolvimento de web, desenvolvimento 
de aplicativos, automação de scripts e outros.
def Soma1aN(N):
if N==1: return(1)
else: return (N+Soma1aN(N-1)) # note-se a ativação recursiva
# Uso da função
N=int(input(‘Entre com o valor de N: ‘))
print(‘A soma de 1 a’, N, ‘é’, Soma1aN(N))
1.5.5Sistemas operacionais
Quando estudamos a classificação dos softwares, mencionamos 
aqueles que são a base para a utilização dos computadores, isto é, os 
responsáveis por preparar cada elemento de uma máquina em seus itens 
mais básicos, como o gerenciamento de memória, o processamento, as 
entradas e as saídas. Os primeiros Operating Systems (OS) datam de 
1960, produzidos para os grandes computadores da IBM. Logo, os que 
veremos a seguir foram preparados para atender ao mercado de PC.
Microsoft Basic
O computador pessoal começou, por volta da década de 1970, ape-
nas como um hobby. O Altair 8800, por exemplo, tido como o 
responsável pelo sucesso dos computadores pessoais, iniciou 
sendo oferecido ao mercado como um kit montagem. Esse PC 
nem tinha tanta utilidade assim, até que Paul Allen e Bill Gates 
tiveram a ideia de portar o Basic para dentro do aparelho, e a 
fagulha virou um “incêndio”. Os fabricantes do Altair se prepara-
ram para vender algumas centenas, mas os pedidos chegavam 
aos milhares. Com o Microsoft Basic incorporado, os “hobbys-
tas” podiam, agora, criar os seus próprios programas. 
Na esteira do Altair 8800, outra empresa ficou co-
nhecida por fabricar computadores pessoais, a Apple. 
A empresa de Steve Jobs apresentou ao mercado o 
 Anton_Ivanov/Shutterstock
Informática: sua origem e evolução 39
Apple II, e este sim veio com um sistema operacional de verdade, cha-
mado de Disk Operating System (DOS). Esse PC fez tanto sucesso que cha-
mou atenção da grande IBM, que só vendia os computadores gigantes, 
instigando-os a lançar no mercado o PC-IBM, que também precisava de 
um sistema operacional. Foi quando William Gates II fez uma recomenda-
ção para os advogados e outros responsáveis pela IBM quanto à empresa 
de seu filho, a Microsoft, já conhecida por portar o Basic para o Altair e por 
desenvolver alguns programas para Apple II.
MS-DOS
O lobby do pai funcionou e a IBM contratou a Microsoft para 
desenvolver um sistema operacional para o PC-IBM. Acontece que Bill 
Gates e seus sócios não tinham o produto esperado, mas tinham sor-
te, pois uma empresa de nome Seattle Computers havia desenvolvido 
um sistema operacional e estava disposta a vendê-lo. Feitos a compra 
e alguns ajustes, o mundo conheceu o MS-DOS. Este sistema opera-
cional da Microsoft passou a ser utilizado por todos os PC-IBM e as 
suas réplicas piratas.
MacOS
Após visitas ao centro de pesquisas da Xerox, Steve Jobs voltou “ins-
pirado” e assumiu pessoalmente um projeto interno da Apple, chama-
do de Macintosh (posteriormente, conhecido como MacOs Classic). 
Tratava-se de um revolucionário sistema operacional, que possuía uma 
interface homem-máquina incrível, com ícones organizados em janelas 
e acionados por um novo dispositivo de entrada: o mouse.
Durante o lançamento do MacOS, muitas empresas foram convida-
das a produzir aplicativos para esse novo sistema operacional, dentre 
elas a Microsoft de Bill Gates.
Windows
As primeiras versões do Windows nem eram sistemas ope-
racionais, mas sim interfaces gráficas rodando sobre o MS-DOS. 
O primeiro a ser realmente um SO foi o Windows NT. Devido à 
concorrência das muitas réplicas do PC-IBM, os custos foram re-
duzindo e a Microsoft lucrando, tornando-se o líder absoluto de 
mercado durante as décadas seguintes.
ni
ne
fo
to
st
ud
io
v/
Sh
ut
te
rs
to
ck
40 Integração Computacional de Hardware e Software
Linux
Muitos foram os gênios que participaram da história dos sistemas 
operacionais, sendo a maioria deles com ideais comerciais. Porém, Linus 
Torvalds não me parece pertencer a essa categoria. Ele foi o criador do 
Linux, um sistema operacional que tinha a intenção de ser melhor que 
Unix e Minix – sistemas operacionais para computadores de grande 
porte. A prova da falta de intenções financeiras está na decisão de abrir 
o código-fonte para que qualquer pessoa pudesse ler, copiar e contri-
buir com alterações que visassem a melhorias no sistema. Com o código 
aberto, diversas distribuições foram produzidas; as mais conhecidas são: 
Mandriva, Ubuntu, CentOS, Solus, Arch Linux, Fedora, SUSE e RedHat. 
Além disso, como o Android, sistema operacional da maioria dos celu-
lares hoje, é uma distribuição Linux, podemos dizer que Linus venceu 
todos os outros gênios com o seu projeto de sistema operacional aberto.
1.6 Tipos de armazenamento de dados 
Vídeo Guardar e recuperar dados sempre foi um grande desafio, desde os 
primórdios da informática. No princípio, os cartões perfurados foram a 
saída, depois chegaram as fitas magnéticas e, por fim, os hard drives. O 
tamanho da capacidade de armazenamento foi aumentando inversa-
mente proporcional ao dos dispositivos de armazenagem. A uma certa 
altura, já se era possível guardar dados em formato de texto.
O bom e velho TXT e o CSV
Guardar dados em um arquivo texto foi uma revolução. A partir da-
quele momento, passou-se a poder guardar informações e recuperá-las 
de maneira prática e eficiente. Cartas, memorandos, relatórios listas e 
afins podiam ser arquivados de maneira eletrônica. Mas o progresso pe-
dia mais. O problema dos arquivos TXT residia na dificuldade em realizar 
buscas nos arquivos internos; para tal, era necessário subir o arquivo in-
teiro na escassa memória para encontrar o trecho ou dado a ser alterado.
Logo, o método era ótimo para os textos, porém péssimo para o 
armazenamento de planilhas, por exemplo. Foi aí que surgiu a ideia de 
armazenar os dados no arquivo texto, separando-os por uma vírgula. 
Nasceu, assim, o arquivo Comma Separated Value (CSV), ou valores se-
parados por vírgula.
Nath Teles
Destacar
Informática: sua origem e evolução 41
Dbase
Os arquivos CSV auxiliaram na gestão de dados até certa quantidade 
de bytes; quando o volume aumentou, surgiu a necessidade de geren-
ciar dados de um modo diferente, pelo Sistema de Gerenciamento de 
Base de Dados (SGBD). O primeiro a ser vendido em escala industrial foi o 
Dbase. Os usuários de Apple II, Macintosh, PC-IBM e seus clones fizeram as 
vendas desse SGBD dispararem, mantendo-se no topo por muitos anos.
Oracle
Mesmo com a IBM desenvolvendo muitas versões de softwares que 
usam uma linguagem de consulta estruturada ou Structured Query 
Language (SQL), quem lançou no mercado o primeiro SGBD baseado 
em SQL foi a Oracle. A SQL é uma linguagem de programação para lidar 
com banco de dados relacional (baseado em tabelas), criada para que 
vários desenvolvedores pudessem acessar e modificar dados simulta-
neamente, de maneira descomplicada e unificada.
MS-SQL
Microsoft e Sybase montaram uma parceria, em 1988, com a intenção 
de desenvolver um SGBD, e apresentaram ao mercado o SQL Server. Em 
1993, a parceria foi dissolvida e cada empresa levou uma cópia consigo. 
Sybase SQL Server e Microsoft SQL Server se tornaram um produto idênti-
co, mas com nomes diferentes. Mais adiante, a Sybase foi comprada pela 
alemã SAP, hoje estando entre os quatro melhores gerenciadores de base 
de dados, e a Microsoft se tornou líder de mercado com o seu MS-SQL.
NoSQL
Os SGBD foram a resposta para quando o volume de dados cresceu, 
não sendo mais possível se utilizar de arquivos texto. Considere, 
por exemplo, o caso de um banco que precise armazenar todas as 
transações financeiras executadas por cartões de crédito ao redor do 
mundo – a quantidade de interações com o banco de dados é imensa, 
certo? Mas pense agora em aplicações, como o Facebook ou Google, 
que gerenciam não um, mas vários SGBD de uma só vez, com bilhões de 
interações por segundo. Nesse caso, somente a linguagem de consulta 
42 Integração Computacional de Hardware e Software
estruturada não é o suficiente; então, outro método pode ser utilizado: 
o NoSQL. A sigla começou como No SQL, ou seja, não utiliza SQL, porém 
evoluiu para Not Only SQL, isto é, não somente SQL, de modo a empre-
gar técnicas além do SQL, principalmente para o uso com Big Data.
Big Data
O termo Big Data ainda não figura em muitos dicionários,mas uma 
definição simplificada pode ser apresentada, dizendo que são da-
dos multivariados, com grande dimensão, normalmente gerados em 
tempo real, além de possuírem um crescimento exponencial em uma 
escala temporal (GE; BANGUI; BUHNOVA, 2018). Ou, ainda, da forma 
que eu gosto de expressar: uma coleção imensa de dados coletados 
com um propósito comum. Esses dados, todos colecionados na nuvem, 
utilizam-se de técnicas de separação, como os Data Lakes.
Data Lake
Data Lake ou lago de dados são formas de se armazenar dados 
“crus” em clusters, para que os softwares de inteligência artificial 
possam pescar os dados e montar as análises, as quais foram progra-
madas. Um Data Lake pode incluir dados estruturados de bancos de 
dados relacionais (linhas e colunas), dados semiestruturados (CSV, logs, 
XML e JSON), dados não estruturados (e-mails, documentos e PDFs) e 
dados binários (imagens, áudios e vídeos).
CONCLUSÃO
Com isso, concluímos nosso primeiro capítulo, no qual passamos por 
momentos históricos de invenções e inovações do universo da tecnologia 
da informação. Agora que foram apresentadas algumas figuras icônicas, 
bem como as invenções de hardware e software, convido você a se ima-
ginar figurando nas páginas de algum livro no futuro, em que um histo-
riador narra o seu sucesso na produção de uma inovação que mude os 
rumos e os caminhos da TI. Que tal?
Além disso, não imponha ou permita que lhe coloquem barreiras. Você 
é capaz! Siga com a certeza de que quem faz o seu próprio destino é você. 
Informática: sua origem e evolução 43
ATIVIDADES
Atividade 1
Como vimos neste capítulo, as réguas de cálculo foram as ante-
cessoras das calculadoras eletrônicas e, por sua vez, dos com-
putadores. Como atividade, tente realizar uma conta simples de 
multiplicação (2 x 5 = 10) em um simulador de réguas de cálculo. 
Para isso, utilize o seguinte link: https://www.sliderules.org/react/
faber_castell_2_82n.html.
REFERÊNCIAS
A CANÇÃO do senhor da guerra. Compositor: Renato Russo. Intérprete: Legião Urbana. Rio 
de Janeiro: EMI, 1985. 
CUNHA, A. G. da. Dicionário etimológico Nova Fronteira da língua portuguesa. Rio de Janeiro: 
Nova Fronteira, 1986.
GE, M; BANGUI, H; BUHNOVA, B. Big Data for the Internet of Things: a survey. Future 
Generation Computer Systems, v. 87, p. 601-614, 2018. 
HISTÓRIA da máquina de escrever. Portal São Francisco, 2021. Disponível em: https://
www.portalsaofrancisco.com.br/historia-geral/historia-da-maquina-de-escrever. Acesso 
em: 6 set. 2021.
HOUAISS, A. (org.). Houaiss eletrônico. Rio de Janeiro: Objetiva, 2009. [CD-ROM].
ONLINE Etymology Dictionary. 2021. Disponível em: https://www.etymonline.com. Acesso 
em: 6 set. 2021.
ORIGEM da palavra. Etimologia, 2021. Disponível em: https://origemdapalavra.com.br. 
Acesso em: 6 set. 2021. 
OXFORD Learner’s Dictionaries. 2021. Disponível em: https://www.
oxfordlearnersdictionaries.com/. Acesso em: 6 set. 2021. 
PRESSMAN, R. S. Software Engineering: a practitioner’s approach. 8. ed. Nova York: McGraw-
Hill, 2014.
44 Integração Computacional de Hardware e Software
2
Fundamentos da computação
Ao final do estudo deste capítulo, você será capaz de:
• Conhecer a definição de sistemas computacionais;
• Compreender os sistemas numéricos;
• Entender as mudanças de bases.
Objetivos de aprendizagem
Neste capítulo, vamos conhecer melhor como os dados são arma-
zenados nos dispositivos de memória e de que forma esses dados po-
dem ser manipulados pelos programadores a fim de transformá-los em 
informação.
Para trabalharmos nessa tarefa, devemos compreender o conceito 
de sistemas computacionais, quais são os sistemas numéricos e o que 
são eles, além de aprender como realizar mudanças simples de bases 
numéricas.
2.1 Sistemas computacionais 
Vídeo Segundo a professora Lêda Monteiro, da Universidade Federal do 
Pará (UFPA), um sistema computacional “é aquele que automatiza ou 
auxilia a realização de atividades humanas por meio do processamento 
de informações”. Esse processamento acontece utilizando-se hardwa-
res e softwares que trabalharão com um conjunto de dados, para deles 
extrair informações.
2.1.1 Sistemas numéricos e representação de dados
Quando falamos sobre memória no capítulo passado, não expli-
quei, de propósito, como são contabilizadas as informações dentro da 
memória. Para melhorar a compreensão de sistemas numéricos, será 
importante entendermos o conceito de bits e bytes.
Fundamentos da computação 45
Bit, byte, caractere, palavra e dígito
Bit
Segundo a universidade de Stanford, o binary digit (dígito binário) é 
a menor unidade de informação que podemos armazenar e/ou trans-
mitir de forma eletrônica. Como parte do nome diz, o bit só pode as-
sumir 2 estados: “0” ou “1”; ou se preferir: “estou energizado” ou “não 
tenho energia”. O que chamamos de memória nada mais são do que 
recipientes que armazenam esses bits em pequenos pacotes, ou em 
agrupamentos de 8 unidades, chamados bytes.
Byte
Byte deve ser entendido como um caractere 1 . Para formar a letra 
J, por exemplo, foram consumidos 8 bits, sendo assim ela represen-
ta 1 byte. A unidade byte é utilizada para casos de números maiores, 
empregando múltiplos do byte, como quilobyte, megabyte, gigabyte, 
terabyte etc.
 • 1 Quilobyte = 1 KB = 1024 Bytes;
 • 1 Megabyte = 1 MB = 1024 KBytes;
 • 1 Gigabyte = 1 GB = 1024 MBytes;
 • 1 Terabyte = 1 TB = 1024 GBytes.
Palavra
Por convenção, nos referimos a um conjunto de caracteres ou nú-
meros como palavra ou word. Normalmente é o tipo de processador 
que define qual tamanho uma palavra pode ter, e, na maioria das vezes, 
é o tamanho da palavra que vai determinar a estrutura do programa. 
Por fim, a arquitetura do processador é o que determina o tamanho 
das palavras. Quanto mais potente for o processador, maior será o ta-
manho de uma word. Se você já jogou videogames, lembrará que, em 
suas evoluções, sempre aparecia uma informação da arquitetura do 
processador sendo utilizado. O famoso Nintendinho tinha a arquitetu-
ra de 8-bits; já o Super Nintendo 16-bits; o primeiro PlayStation contava 
com a arquitetura de 32 bits; e o Nintendo 64 podia ter jogos em que as 
words comportavam 64-bits.
A palavra caractere deriva 
do grego charaktér e do 
latim character, no sentido 
de gravado.
1
46 Integração Computacional de Hardware e Software
Dígito
Usamos dígito para definir os números de 0-9, seja na informática, 
seja fora dela, como no caso dos seus documentos, por exemplo, o CPF.
A palavra dígito vem do latim digitem, que significa dedos, sendo rela-
cionada à forma de contar usando os dedos das mãos, vem daí o nosso 
mais comum sistema de numeração de base 10, o decimal.
Base de um sistema de numeração
No sistema numérico, o que chamamos de base é o número de valo-
res diferentes que são apresentados em um conjunto antes de se repetir.
Se estivermos falando de decimais, por exemplo, os dez valores de 
0 a 9 seguem em sequência, e, ao final, acrescentamos um número a 
mais para indicar o crescimento. Na base octal, o mesmo ocorre com os 
números de 0 até 7; terminando a sequência, um número é acrescido 
para apontar que o conjunto cresceu. Veja a seguir como se compor-
tam as principais bases numéricas mais utilizadas no mundo de TI.
Sistema decimal
Se você tentasse imaginar em qual momento o homem passou a ter 
a necessidade de contar, fatalmente regrediríamos ao momento em 
que deixamos de ser caçadores coletores. O divertido livro O homem 
que calculava, de Malba Tahan, fortemente recomendado para adoles-
centes e para quem quer passar a ver a matemática com outros olhos, 
conta casos muito interessantes sobre a necessidade de fazer cálculos 
desde o princípio. Aliás, a palavra cálculo já possui muitos significados; 
em grego, por exemplo, cálculo significa pedra. Isso se deve ao fato 
de que era acumulando pedrinhas que os primeiros pastores sabiam 
quantas ovelhas do rebanho foram pastar e quantas retornaram. Ao 
sair pela manhã, o pastor empilhava uma pedra para

Continue navegando