Buscar

Livro - Fundamentos da Informatica

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 262 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 262 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 262 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

FUNDAMENTOS DA
INFORMÁTICA
Faculdade Educacional da Lapa (Org.)
Te
cn
o
lo
g
ia
F
U
N
D
A
M
E
N
T
O
S
 D
A
 I
N
F
O
R
M
Á
T
IC
A
Fa
cu
ld
ad
e 
E
d
uc
ac
io
na
l d
a 
La
p
a 
(O
rg
.)
Curitiba
2018
Fundamentos da 
Informática 
Faculdade Educacional da Lapa (Org.)
Alexandre Tadeu Rossini da Silva
Eleusa Maria Leão
Evanderson S. de Almeida
Evandro Alberto Zatti
Marcelo Ribeiro de Oliveira
Leonel Rocha
Ficha Catalográfica elaborada pela Fael.
F981
Fundamentos da informática / Alexandre Tadeu Rossini da Silva, 
et al. – organização de Faculdade Educacional da Lapa. – Curitiba: Fael, 
2018.
260 p.: il.
ISBN 978-85-5337-029-0
1. Computação – estudo e ensino. I. Silva, Alexandre Tadeu Rossini 
da II. Leão, Eleusa Maria III. Almeida, Evanderson S. de IV. Zatti, 
Evandro Alberto V. Oliveira, Marcelo Ribeiro de VI. Leonel Rocha 
VII. Faculdade Educacional da Lapa
CDD 004.07
Direitos desta edição reservados à Fael.
É proibida a reprodução total ou parcial desta obra sem autorização expressa da Fael.
FAEL
Direção Acadêmica Francisco Carlos Sardo
Coodernação Editorial Raquel Andrade Lorenz
Revisão Diógenes Cogo Furlan
Projeto Gráfico Sandro Niemicz
Capa Evelyn Caroline dos Santos Betim
Imagem da Capa Shutterstock.com/Vladystock
Arte-Final Evelyn Caroline dos Santos Betim
Sumário
Apresentação | 5
1. História dos computadores | 7
2. Microcomputador | 27
3. Componentes básicos do computador | 33
4. Hardware interno do computador | 41
5. Dispositivos de Entrada e Saída | 87
6. Placa mãe e integração dos componentes de Hardware | 137
7. Sistemas de numeração | 177
8. A informática e o software | 195
9. Classificação de software | 205
10. Sistemas operacionais, redes de 
computadores e banco de dados | 213
11. Sistemas de informação: conceito, 
componentes e tipologia | 239
Referências | 255
Apresentação
A evolução do ser humano foi marcada, ao longo das 
eras, por sua vontade crescente de se comunicar e de registrar 
os fatos da vida. Desde as primeiras pinturas rupestres nas 
cavernas, a linguagem do homem foi ganhando contornos mais 
sofisticados, na medida em que servia também como ferramenta 
para o seu desenvolvimento mental, intelectual, social e cultural, 
diferenciando-o dos demais animais.
No século XXI, a necessidade de comunicação ampliou 
sua abrangência. Informação, armazenamento de dados, 
compartilhamento à distância, entretenimento e educação são 
algumas das novas demandas que passaram a exigir duas coisas: 
pessoas mais preparadas para lidar com um cenário que muda 
rapidamente e tecnologias capazes de oferecer soluções rápidas, 
eficientes e viáveis para essas demandas.
– 6 –
Fundamentos da Informática 
As chamadas Tecnologias da Informação e Comunicação (TICs) refletem 
a realidade do século XXI, servindo a propósitos corporativos, educacionais 
e sociais. Em um mundo digital como é o nosso hoje, em que o acesso à 
informação se dá em tempo real e a popularização da tecnologia é crescente, 
estará mais bem preparado o profissional que souber compreender como 
surgiu e para onde deve nos conduzir esse fenômeno.
Esta coletânea Fundamentos da Informática é o passo inicial para esse 
entendimento. Com textos de fácil compreensão, os autores traçam a evolução 
histórica da informática, sempre associando-a aos grandes momentos da 
história da humanidade que alteraram de forma marcante a maneira como 
trabalhamos, nos relacionamos e pensamos o mundo ao redor. Assim, o 
livro explora a ligação entre a informática e a sociologia, mostrando como as 
Tecnologias da Informação e Comunicação influenciam o comportamento, 
a cultura, as tarefas cotidianas e o modo de ser, pensar e agir das pessoas ao 
longo dos séculos. 
E por que associar sociologia e informática? Porque é esse saber – a 
combinação do conhecimento técnico/tecnológico com a clareza sobre o 
quanto a nova organização do trabalho e do dia a dia das pessoas é afetada pelas 
TICs a que elas têm acesso – que hoje é exigido do profissional de informática.
Este livro traz os fundamentos teóricos da informática e da computação, 
explicando as diferenças entre software e hardware, apresentando os princípios 
de programação, os detalhes do hardware e ampliando a visão do leitor sobre 
o funcionamento de redes de computadores e banco de dados. Tudo isso para 
que o leitor possa entender a lógica por trás de qualquer computador – noção 
fundamental para quem deseja trabalhar na área.
A obra também convida a refletir sobre o impacto do uso da tecnologia 
na sociedade, sobre questões éticas e sobre inclusão digital, ajudando a 
pensar em alternativas para beneficiar pessoas que hoje não têm acesso a 
esses recursos tecnológicos.
Boa leitura!
1
História dos 
computadores
O ser humano sempre processou dados – o homem pré-his-
tórico desenhava nas paredes das cavernas, o pastor de ovelhas da 
antiga Mesopotâmia coletava pedras para representar a quantidade 
de animais de seu rebanho no ano 4000 a.C., o artesão europeu 
do ano 1673 utilizava cartões perfurados para controlar o posicio-
namento e o movimento de agulhas do tear. E hoje, quando um 
consumidor na Índia compra um produto alemão pela internet e 
recebe pelo correio, ou quando duas empresas multinacionais em 
continentes distintos realizam transações comerciais e financeiras 
entre si, estamos vendo a manipulação de dados.
– 8 –
Fundamentos da Informática
1.1 Qual é a diferença entre dado e informação?
Dados são fruto da observação de um fato ou objeto e possuem um 
ou mais significados, mas isoladamente não são capazes de transmitir 
uma mensagem ou conduzir à compreensão de algo. Normalmente são 
mensuráveis. Um exemplo é um conjunto de condições climáticas. Podemos 
saber a pressão atmosférica, intensidade do vento, umidade do ar e tempera-
tura, mas isoladamente esses dados não traduzem um conhecimento, não nos 
permitem fazer a previsão do tempo. Outro exemplo: os símbolos “R”, “$” e 
“1,50” também não significam muito, como dados separados.
A informação é um conjunto de dados tratados, analisados, compa-
rados, reunidos a outros e trabalhados, que adquirem um significado mais 
amplo, levam ao entendimento e à tomada de decisões. Ao analisar as con-
dições atmosféricas todas juntas, por exemplo, podemos concluir a pro-
babilidade de chover, em que intensidade etc. Ao reunir os três símbolos 
(dados) citados acima, temos a informação “R$ 1,50”, com um significado 
(o preço de algo).
Informações, portanto, são dados que foram processados, seja por meio 
eletrônico, mecânico ou manual, gerando um resultado com significado.
1.1.1 Escrita é armazenamento de dados
A necessidade de registrar, guardar e transferir informações por meio de 
símbolos é notada desde os primeiros registros que a arqueologia pode nos 
fornecer sobre a humanidade.
Atribui-se aos sumérios, por volta de 3500 a.C., o mais antigo tipo 
conhecido de escrita, a cuneiforme (que tem esse nome por ser executada 
com auxílio de objetos pontiagudos em forma de cunha, sobre placas de 
argila). Ao longo das eras de evolução da humanidade, o armazenamento e 
o processamento de dados sempre foi uma maneira encontrada pelo homem 
para controlar o meio à sua volta.
As primeiras inscrições – as pinturas rupestres pré-históricas – eram 
desenhos que reproduziam, de forma simplificada, conceitos ou cenas 
vividas. O ábaco, instrumento composto por bolinhas que deslizam em 
arames paralelos, servia para fazer cálculos rudimentares e é tão antigo 
– 9 –
História dos computadores 
que há muita divergência sobre sua origem: Babilônia ou Mesopotâmia 
mais ou menos 3.000 anos antes de Cristo, Egito em 500 a.C. ou China 
no século II, jáem uma versão mais próxima do que conhecemos hoje, 
popularizado pelo soroban japonês, até hoje utilizado. A história é fértil 
em exemplos de ferramentas que foram desenvolvidas para registrar e 
lidar com dados, até chegar à sofisticação da tecnologia de ponta dos 
computadores atuais.
1.1.2 Dados analógicos e digitais
Analógico vem de “análogo”: é a representação mais parecida possível da 
realidade usando algum meio. Um exemplo de instrumento analógico é o ter-
mômetro de mercúrio, com graduações de temperatura que variam de 32oC a 
50oC, passando por todos os valores entre eles. É uma medição contínua. Se 
houvesse graduações suficientes no termômetro e se nosso olhar tivesse uma 
precisão imensa, poderíamos verificar que a temperatura passou, por exem-
plo, de 37,6324 para 37,6325.
É o que acontece também com um relógio analógico. Embora nosso 
olhar não alcance, os ponteiros medem o intervalo inteiro entre os segundos, 
“correndo” continuamente entre um segundo e outro e não “saltando” de 
um segundo para o outro como nos relógios digitais. Então, o analógico é 
contínuo e pode ser medido em infinitas partes. É, portanto, bastante exato e 
reproduz a realidade como ela é.
No entanto, essa representação exata sofre perdas com o tempo. Um sinal 
de rádio analógico, por exemplo, sofre interferência e ruído quanto maior for 
a distância de transmissão. Uma música gravada em fita cassete ou LP tende 
a perder qualidade com o tempo, por causa do desgaste do meio mecânico 
em que foi gravada.
Já o digital representa alguma coisa em intervalos pré-definidos, através de 
uma escala (dígitos). Um termômetro digital também varia de 32ºC a 50ºC, 
mas exibindo apenas os valores da graduação pré-definida. Se a graduação 
for de 1ºC, por exemplo, o termômetro mostraria que a temperatura subiu 
de 36ºC para 37ºC. Ou seja, a temperatura “salta” de um grau para o outro, 
como se não houvesse nenhum valor intermediário. No termômetro analógico 
vemos a temperatura ir subindo continuamente de um grau para outro.
– 10 –
Fundamentos da Informática
O sinal digital é a representação aproximada de algo, mas não se modi-
fica com o tempo nem com a distância. Por exemplo, você pode passar para 
o seu computador as músicas que baixou de um CD, depois copiá-las em um 
pen drive, colocar em outro computador e transmitir pela internet para um 
amigo que mora do outro lado do mundo, que a qualidade não vai se perder. 
Ele vai ter a música exatamente igual à sua.
O sinal analógico é um sinal que varia no tempo, o digital não. O 
analógico pode assumir qualquer valor entre dois limites, o digital apenas 
dois, 0 ou 1 (zero ou um) – que é a linguagem dos computadores.
1.1.3 O que concluir sobre dados analógicos e digitais?
A informação analógica é infinitamente mais rica e detalhada do que 
a digital. Porém, um dado ou informação digital, embora limitado, tem a 
precisão necessária para alcançar um objetivo. Em outras palavras, mesmo 
que não tenha tantas possibilidades, variações e subdivisões quanto o 
analógico, o dado digital é suficiente para atender as nossas necessidades. 
Por exemplo, fotos, vídeos, músicas e textos armazenados em formato digital 
nos computadores modernos são perfeitamente aceitáveis, porque qualquer 
imprecisão ou falha torna-se imperceptível para os usuários.
1.2 A evolução da tecnologia – como
nasceram os computadores
Facilitar a execução de tarefas complexas ou repetitivas. Essa foi a 
principal motivação de inventores e estudiosos, ao longo dos séculos, para 
criar máquinas que permitissem armazenar dados e fazer cálculos. A linha do 
tempo dessas invenções acompanha o desenvolvimento científico, cultural e 
tecnológico da humanidade.
Um dos primeiros instrumentos de cálculo de que se tem notícia é o 
ábaco, inventado pelos babilônios 3.000 anos antes de Cristo. No entanto, 
embora os homens já soubessem, naquela época, escrever números e símbolos, 
os cálculos matemáticos dificilmente eram registrados. Assim, não se poderia 
guardar uma equação do segundo grau, por exemplo, nem se discretizar 
alguma teoria, ou seja, dividir um todo em partes individuais de menor 
– 11 –
História dos computadores 
complexidade e, assim, facilitar os cálculos. Mas, com a ajuda dos hindus, 
que criaram o zero escrito, isso se tornou possível.
1.2.1 História da computação – uma linha do tempo
1.2.1.1 A era mecânica
 2 2000 a.C. – O ábaco chinês é a primeira ferramenta de cálculo 
de que se tem notícia. É uma calculadora primitiva, composta 
por varetas e anéis de madeira, representando unidades, dezenas 
e centenas. Os chineses não sabiam que estavam fornecendo uma 
grande ajuda teórica na organização dos computadores. O ábaco 
é muito popular e até hoje ainda é usado, principalmente em 
países orientais.
 2 1614 – O matemático e teólogo escocês John Napier define os loga-
ritmos e populariza o uso do ponto decimal, trazendo grande auxí-
lio para a execução de operações aritméticas como multiplicações e 
divisões longas.
 2 1622 – Por causa da dificuldade de multiplicar números grandes, 
o padre inglês William Oughtred desenvolveu a régua de cál-
culo, a partir da sobreposição de escalas logarítmicas de Napier. 
Largamente utilizada até a década de 70 do século XX, a régua 
de cálculo é considerada precursora das calculadoras eletrônicas, 
pois se baseia também em logaritmos. No entanto, não fornece 
resultados precisos, embora suficientes para os cálculos a que 
se destinava.
 2 1623 – O astrônomo e matemático alemão Wilhelm Schickard 
cria a primeira máquina de calcular, capaz de fazer as quatro 
operações básicas com seis dígitos. Ela servia para fazer cálculos 
de tábuas astronômicas, com uma estrutura mecânica baseada 
em rodas dentadas. Um protótipo desenvolvido por ele se per-
deu durante a Guerra dos Trinta Anos (que ocorreu entre 1618 e 
1648) e os esboços dos desenhos só foram encontrados no século 
XIX, por isso atribuía-se a Blaise Pascal a construção da primeira 
máquina calculadora.
– 12 –
Fundamentos da Informática
 Saiba mais
Pascal é o nome de uma popular linguagem de programação, 
batizada assim em homenagem ao físico e matemático.
 2 1644 – O francês Blaise Pascal (1623-1662) entrou para a história 
como o inventor da primeira calculadora mecânica, batizada por 
ele de La Pascaline. Ele a criou quando tinha apenas 19 anos, para 
ajudar seu pai no cálculo de impostos. A máquina também usava 
uma roda dentada contendo dez dentes, um para cada algarismo 
decimal, e realizava apenas adições e subtrações.
 2 1673 – Gottfried Wilhelm Leibnitz (1646-1716), matemático e 
filósofo, melhorou o projeto da Pascaline, construindo, assim, uma 
máquina capaz de dividir, multiplicar, subtrair, somar e calcular a 
raiz quadrada. Os historiadores confirmam seu pensamento: “Ele 
sonhava que um dia todo o raciocínio pudesse ser substituído pelo 
girar de uma alavanca”.
 2 1801 – Joseph Marie Jacquard (1752-1834) foi um mecânico 
nascido na França que criou uma máquina mecânica de tear (a 
primeira máquina programável, controlada por cartões perfurados) 
capaz de criar bonitos desenhos enredados no próprio tecido. Sua 
invenção fez muito sucesso na França e, em sete anos, milhares de 
teares já estavam em operação no país.
1.2.1.2 A era dos dígitos
Com a Revolução Industrial (1760-1840), surgem novas necessidades 
de realizar tarefas repetitivas e rotineiras de modo mais rápido e eficiente, 
trocando os processos de produção artesanais pela produção por máquinas-
ferramentas. Naqueles anos, muitos estudiosos estavam se dedicando a 
construir máquinas para automação de processos e cálculos complexos.
 2 1820 – Charles Babbage (1792-1871), matemático nascido na 
Inglaterra, projeta a máquina analítica, uma máquina diferencial 
para calcular polinômios. A máquina tinha a capacidade de rece-
– 13 –
Históriados computadores 
ber dados, processá-los, armazená-los e exibi-los, com princípios 
parecidos com os dos computadores modernos, e por isso Babbage 
ficou conhecido como o pai do computador. A calculadora que ele 
desenvolveu fazia, além de somas, subtrações e outros cálculos 
básicos, a conversão automática de números de uma base para 
outra (da base binária para a decimal, por exemplo).
 A máquina, cujo desenvolvimento foi financiado por algum tempo 
pelo governo britânico, era puramente mecânica, sendo composta 
por um engenho ou “moinho” central (o equivalente a uma CPU 
moderna), uma memória, engrenagens e alavancas. Utilizava cartões 
perfurados e possuía dispositivos de entrada e saída de dados.
 Seu invento, porém, exigia técnicas bastante caras e, dizem alguns 
historiadores, avançadas demais para a época, o que inviabilizou 
sua construção. O governo britânico acabou por suspender o finan-
ciamento a Babbage e, com isso, a calculadora analítica nunca foi 
construída. Vale a pena ressaltar que as máquinas, até o século XIX, 
funcionavam na base decimal (e hoje funcionam na base binária).
 No final da década de 1980, a máquina de Babbage finalmente foi 
construída pelo Museu de Ciência de Londres, utilizando a tecno-
logia disponível na época do cientista.
 Saiba mais
CPU (Unidade Central de Processamento, na sigla em inglês) 
é o componente do computador que processa os dados. É 
considerado o “cérebro” do computador.
 2 1842 – Ada Byron ou Ada Lovelace (1815-1852), condessa de 
Lovelace, filha do poeta Lord Byron, foi considerada a primeira 
programadora da história, antes mesmo do computador ter sido 
inventado. Ela escreveu várias instruções para serem interpretadas 
pela máquina analítica de Babbage. O Conceito de Subrotina par-
– 14 –
Fundamentos da Informática
tiu dela, que também aprendeu a valorizar os laços de repetições 
(“loop”). Bastava, em algum lugar de um cartão, inserir informações 
para que a leitora de cartões retornasse para outro cartão anterior, 
concretizandos e, assim, o efeito de repetição de uma sequência de 
instruções. Ada também imaginava as vantagens, caso pudesse tra-
balhar com os desvios condicionais (“if ”). Hoje, existe até uma lin-
guagem batizada de Ada, em sua homenagem.
 2 1854 – George Boole (1815-1864) publicou as bases da lógica boo-
leana (em referência a seu próprio nome). Tais bases determinam 
que equações matemáticas algébricas podem expressar os conceitos 
da lógica, em que variáveis (unidades de memória que armazenam 
valores) podem assumir os valores 0 ou 1 (ex: verdadeiro ou falso). 
Graças a essa contribuição de George Boole, os cientistas puderam 
pensar em um computador que fosse utilizável para qualquer fim.
1.2.1.3 Máquinas de computar
Computar é calcular, processar dados para buscar uma solução para 
algum problema, ampliando a noção inicial de apenas fazer contas da 
aritmética básica. Com a necessidade crescente de tratar informações de 
maneira automática, proporcionando resultados mais rápidos, as pesquisas e 
invenções na área de informática prosseguiram a passos largos.
 2 1889 – As ideias de Charles Babbage são mescladas às práticas com 
cartões perfurados (criadas por Jacquard para os teares, em 1801) 
por um estatístico americano preocupado com a demora na conta-
gem da população. Até então, o censo da população norte ameri-
cana levava sete anos para ser concluído. Com sua invenção, Her-
man Hollerith (sim, seu nome é sinônimo dos contracheques para 
pagamento de funcionários) conseguiu reduzir pela metade o tempo 
necessário para tabular os dados da população.
 2 1896 – Com o sucesso de seu invento, Hollerith funda a Tabulating 
Machine Company (companhia de máquinas de tabular).
 2 1904 – A válvula é criada por John A. Fleming. Tal componente é 
composto por um envoltório de vidro que contém dois eletrodos. 
A válvula interrompe ou permite a passagem de corrente elétrica, 
– 15 –
História dos computadores 
dependendo de como a energia passa por dentro dela. Com corrente 
elétrica, podemos dizer que o valor dessa válvula é “um”; sem cor-
rente elétrica, podemos assumir que seu valor é “zero”.
 2 1911 – A empresa de Hollerith se funde a outras três companhias, 
dando origem à Computing Tabulating Recording Co. (CTR).
 2 1924 – A CTR, então com apenas 1.400 funcionários, muda seu 
nome para International Business Machine, hoje mundialmente 
reconhecida pela sigla IBM e com cerca de 400 mil funcionários em 
todo o mundo.
 2 1937 – Allan M. Turing, utilizando-se da álgebra de Boole, da 
tecnologia de entrada e saída via cartões perfurados e da válvula, 
expõe minuciosamente uma máquina computacional de propósito 
múltiplo. Foi uma iniciativa pioneira no sentido de permitir que 
o próprio usuário (e não o fabricante) definisse que cálculos ou 
operações a máquina iria realizar – o que tem tudo a ver com o 
conceito de programação que temos hoje.
1.3 Gerações de computadores
Quatro marcos na evolução dos computadores permitem agrupar os 
principais acontecimentos nessa história e entender os eventos que represen-
taram um salto tecnológico.
1.3.1 Primeira geração: válvula (1945-1955)
 2 1943-1946 – John Presper Eckert (1919-1995) e John Mauchly 
(1907-1980), ambos engenheiros, projetaram o ENIAC – Eletronic 
Numerical Integrator And Computer (computador integrador 
numérico eletrônico). Foi o primeiro computador eletrônico de uso 
geral, capaz de ser reprogramado para diferentes tarefas. Com 18 
mil válvulas e 1.500 relés, pesava 30 toneladas, consumia 150Kw de 
energia e ocupava 167m2. Por seu poder computacional – conseguia 
realizar cerca de 5.000 operações de soma ou subtração por 
segundo – e pela possibilidade de reprogramação, atiçou cientistas e 
industriais. O ENIAC foi projetado para fazer cálculos de balística 
– 16 –
Fundamentos da Informática
durante a Segunda Guerra Mundial, mas só foi anunciado ao 
mercado em 1946, após o término do conflito.
Para programar o ENIAC, era preciso ajustar manualmente 6 
mil interruptores e conectar uma imensa quantidade de soquetes. 
Andrew Tanenbaum (Tanenbaum, 2007) compara-o a “uma ver-
dadeira floresta de cabos e jumpers.” Jumper é uma ligação móvel 
entre dois pontos de um circuito eletrônico, que serve para ligar ou 
desligar o fluxo elétrico. Programar em painéis elétricos realmente 
era difícil, lento, tedioso e mecânico.
 2 1945 - A partir dessas dificuldades, o matemático John Von Neu-
mann, que também participara da concepção do ENIAC, propôs 
um modelo conhecido como Máquina de Von Neumann. Até hoje, 
os computadores ainda usam como base a arquitetura de funciona-
mento proposta por ele. Esse modelo divide um computador em 
cinco componentes principais: a memória, a unidade de controle, 
a unidade de lógica e aritmética e dispositivos para entrada e saída 
de dados.
A memória armazena dados e instruções de programas. A unidade 
de lógica e aritmética e a unidade de controle formavam, juntas, o 
“cérebro” do computador – hoje combinadas em um único chip 
chamado CPU (Central Processing Unit, ou Unidade de Proces-
samento Central). A CPU busca instruções e dados na memória, 
executa as instruções e então armazena os resultados de volta na 
memória. Os dispositivos de entrada (teclado, mouse, microfone) e 
dispositivos de saída (monitor, altofalantes, impressora) permitem 
que o usuário interaja com a máquina, fornecendo dados e visuali-
zando facilmente os resultados.
1.3.2 Segunda geração: transistores (1955 - 1965)
Os transistores, inventados em 1948 por Willian Shockley, Walter Brattain 
e John Bardeen, substituíram as válvulas e renderam a seus criadores o Prêmio 
Nobel de Física de 1956. A válvula sempre foi uma grande consumidora de 
energia elétrica. O transistor é muito mais rápido e barato que a válvula, 
além de consumir bem menos energia elétrica e sermais durável. Os Estados 
– 17 –
História dos computadores 
Unidos conseguiram, por exemplo, com o uso de transistor, sair à frente da 
antiga União Soviética na corrida espacial.
 2 1963 – O teclado aparece comercialmente como um dispositivo 
para entrada de dados no equipamento de telex ASR-33, que arma-
zenava os dados em cartões perfurados.
 2 1963 – O monitor de vídeo, o mais relevante periférico de saída, 
começa a ser usado. Antes dele, os resultados do processamento de 
dados podiam ser visualizados somente se impressos em papel.
 2 1964 – Surge o mouse, apresentado por Douglas Engelbart como um 
periférico para inserção de dados. Antes dele, a entrada só poderia ser 
feita por meio do teclado e dos tradicionais cartões perfurados.
Ainda em 1964, John Kemeny cria a linguagem BASIC que, naquele 
momento, servia como um software que intermediava a relação entre 
a linguagem de programação e o hardware. Esse papel muito se asse-
melha ao desempenhado hoje pelo sistema operacional (popular-
mente representado pelo Microsoft Windows ou GNU/Linux).
1.3.3 Terceira geração: circuitos 
integrados (1965-1980)
O circuito integrado foi inventado em 1958 pelo físico norte americano 
Robert Noyce, depois co-fundador da Intel. Ele não substitui os transistores, 
porém – ele os reúne e compacta. O circuito integrado é um conglomerado 
de dezenas ou centenas de transistores, em um diminuto dispositivo de silí-
cio, o chip.
Nessa fase, verifica-se o fenômeno da miniaturização dos computa-
dores. Com o CI (circuito integrado), tornou-se possível a construção de 
computadores menores, mais rápidos e mais baratos do que os da gera-
ção anterior (já com transistores). A mudança foi drástica: computadores 
que tinham o tamanho de salas foram reduzidos ao tamanho de geladeiras. 
Ainda eram grandes, se comparados com os de hoje, mas já provocaram 
impacto significativo na época.
 2 1967 – A primeira calculadora digital, precursora das calculadoras 
– 18 –
Fundamentos da Informática
de bolso de hoje, é apresentada pela empresa Texas Instruments. 
A máquina realizava as quatro operações básicas: soma, subtração, 
multiplicação e divisão.
 2 1968 – A empresa Intel (hoje, a maior fabricante de microprocessa-
dores do mundo) é criada por Robert Noyce, Andy Groove e Gor-
don Moore.
 2 1969 – Nasce a rede Arpanet, por meio da interligação de quatro 
universidades, pelo Departamento de Defesa dos Estados Unidos. A 
Arpanet é a precursora da World Wide Web (WWW) – rede mun-
dial de computadores ou, simplesmente, a internet.
 2 1970 – O sistema operacional (SO) UNIX é desenvolvido por Ken 
Thompson e Dennis Ritchie. O UNIX foi o primeiro SO portável, 
podendo funcionar em diferentes tipos de computadores. O sistema 
operacional GNU/Linux de hoje é um UNIX.
1.3.4 Quarta geração: integração em escala
muito grande (1973-[1980-?])
Na terceira geração, centenas de transistores foram agrupados em um 
único chip. Agora, na quarta geração, o princípio do circuito integrado é o 
mesmo, mas o que muda é a escala. Centenas de milhares e até milhões de 
transistores são agora compactados em um chip ainda menor (batizado de 
microchip). Esse nível altíssimo de miniaturização é conhecido como VLSI 
(Very Large Scale Integration, ou integração em escala muito grande).
O microchip permite a construção dos microcomputadores, que passam 
a ter o tamanho de cadernos (notebooks) e ainda menores.
 2 1973 – O termo PC (personal computer, ou computador pessoal) é 
utilizado pela primeira vez quando a Xerox lança um computador 
batizado de Alto, para uso pessoal. Esse PC já exibia características 
dos computadores do século XXI: o conceito de “desktop” (mesa de 
trabalho), uso de mouse e interface gráfica, ainda que simples.
 2 1975 – Chega ao mercado o Altair 8800, cujos diferenciais eram caber 
sobre uma mesa e ser muito mais rápido que os anteriores. Ainda 
– 19 –
História dos computadores 
adolescente, o jovem programador Bill Gates adapta a linguagem 
BASIC para rodar no Altair e em outros microcomputadores.
 2 1975 – Bill Gates, com apenas 20 anos, e Paul Allen, com 22, 
fundam a Microsoft.
 2 1976 – Steve Jobs e Stephen Wozniak fundam a Apple. Conhecido 
pelo lado artístico apurado, Jobs achava que um computador 
precisava representar de maneira gráfica o que a máquina estava 
fazendo, ao invés de apenas uma sequência de botões e luzes que 
acendiam e apagavam. Ele então lança o Apple 1, considerado o 
primeiro computador a vir já montado, ao qual bastava acrescentar 
um monitor no qual era possível acompanhar as ações.
 2 1977 – O Apple 2, o Atari 500 e o Commodore 64 são lançados 
respectivamente pelas empresas Apple, Atari e Commodore. O 
Apple 2 foi consagrado como o primeiro sucesso de mercado 
na área de computação pessoal, pois já incluía monitor, teclado, 
placa de som e capacidade de ler dados a partir de um disquete 
de 5” ¼ .
 2 1980 – A arquitetura RISC (Reduced Instruction Set Computing, ou 
conjunto reduzido de instruções) passa a ser adotada em substituição 
a instruções complexas e difíceis, conhecidas como CISC. (Os 
detalhes e diferenças entres esses dois tipos de arquitetura serão 
abordados no capítulo 3).
 2 1981 – É lançado o primeiro computador portátil comercialmente 
bem-sucedido, o Osborne1, com 11 quilos.
 2 1981 – O IBMPC é lançado pela IBM, com processador Intel 
8088 e sistema operacional MSDOS, feito pela Microsoft. Esse PC 
surge com desempenho (velocidade e memória) muito superior ao 
dos concorrentes e até hoje é um sucesso de vendas, com número 
expressivo de usuários em todo o mundo.
A arquitetura de seu funcionamento foi aberta pela própria 
IBM, o que resultou em perda de mercado para a empresa mas, 
ao mesmo tempo, uma massiva popularização do padrão IBM. 
A consequência é que há no mundo um número muito maior 
– 20 –
Fundamentos da Informática
de computadores padrão IBM-PC (aberto) do que padrão Apple 
(fechado).
A Microsoft foi extremamente beneficiada com essa popularidade do 
IBM-PC, uma vez que, para cada computador em funcionamento, 
era preciso uma licença do sistema operacional MS-DOS ou, mais 
tarde, do Windows, que surgiu em 1985 mas só começou a ser 
tecnicamente considerado como um sistema operacional a partir da 
versão Windows NT, lançada em julho de 1993.
 2 1982 – A Compaq surge no mercado e apresenta seu primeiro 
produto: um computador portátil totalmente compatível com o 
sistema operacional de seu principal concorrente na época, o IBM-PC.
 2 1984 – A Apple lança o Macintosh, primeiro a usar o mouse 
e possuir a interface (meios pelos quais um computador e seus 
programas se comunicam com o usuário) gráfica como nós 
conhecemos hoje, com pastas, menus e área de trabalho.
 2 1985 – A Microsoft lança o Windows, interface com o usuário 
cujo design e princípios foram inspirados (segundo outras 
opiniões, copiados mesmo) na Apple, depois que Gates e Jobs 
foram parceiros por alguns anos. A partir daí, o sistema operacional 
do Macintosh e o Windows se tornam fortes concorrentes.
 2 1992 – O computador Alpha, revolucionário, de 64 bits, é lançado 
pela Digital Equipment Corporation (DEC), empresa líder nos 
Estados Unidos na fabricação de computadores e softwares entre os 
anos 1960 e 1990. Utilizando arquitetura RISC, tinha uma velocidade 
de processamento muito superior a qualquer outro computador 
pessoal da época. No entanto, esses computadores RISC de 64 bits 
só começaram a fazer sucesso no mercado dez anos depois, atuando 
principalmente como servidores de alto desempenho.
1.4 O século XXI: Novos conceitos para 
novos cenários
Depois de duas ondas tecnológicas (chamadas de plataformas no mundo 
– 21 –
História dos computadores 
da tecnologia) – a primeira quando a computação migrou dos centros de 
pesquisa acadêmica para o mundo corporativoe grandes corporações passa-
ram a ter mais frames (servidores centrais, computadores que centralizavam 
serviços a uma rede) para gerenciar seus processos de automação; a segunda 
quando houve a popularização do computador pessoal e o uso corriqueiro 
da internet – vivemos, a partir da segunda década do século XXI, a chamada 
Terceira Plataforma.
Quatro elementos marcam a Terceira Plataforma: mobile, cloud, big data 
e social. Juntos, eles provocaram, e a cada dia ainda provocam, uma revolução 
na maneira como interagimos com o mundo e buscamos informação, lazer, 
educação e entretenimento; estabelecemos relacionamentos pessoais e pro-
fissionais; criamos hábitos de consumo; gerenciamos processos de trabalho; 
vivemos nosso dia a dia. E por que cada um dos quatro aspectos é relevante?
 2 Mobile – O que se chama de mobile são os dispositivos móveis 
pessoais que permitem acesso à internet, como smartphones 
(celulares inteligentes) e tablets (computador portátil de tela sensível 
ao toque). Dados compilados pela Teleco em 2013 revelam que 
existem cerca de 7 bilhões de celulares em uso no mundo.
O segundo trimestre de 2013 foi um marcante ponto de virada: 
pela primeira vez, foram vendidos mais smartphones do que celulares 
comuns em todo o mundo, uma prova de que as pessoas estão cada 
vez mais interessadas em estar conectadas via internet. As vendas de 
smartphones entre abril e junho de 2013 foram 46% maiores do 
que no mesmo período do ano anterior, chegando a 225 milhões 
de unidades, e representaram 52% do total de celulares vendidos no 
período, segundo a Gartner. No Brasil, de acordo com o International 
Data Corporation (IDC), o fenômeno se repetiu na mesma época.
Essa “virada” não tem volta e a adoção dos smartphones só tende a 
crescer, dada a variedade de modelos e a redução dos custos. O ano 
de 2013 se encerrou com a expressiva venda de 1,004 bilhão de smar-
tphones em todo o mundo,o equivalente a 55% de todos os celulares 
vendidos naquele ano, diz o IDC.
Isso teve grande efeito no mercado de aplicativos para dispositivos 
móveis. Aplicativos são programas específicos para atender 
– 22 –
Fundamentos da Informática
determinadas demandas em computadores, e tornaram-se mais 
populares em plataformas mobile como smartphones e tablets. 
São úteis para diferentes propósitos – de um site de banco a um 
jogo para crianças, de busca de táxi a tratamento de fotografias, 
de geolocalização a receitas gastronômicas. A consultoria Gartner 
avalia que houve, em 2013, cerca de 102 bilhões de downloads 
de aplicativos nas quatro maiores lojas virtuais (as chamadas 
appstores) – AppStore da Apple, Google Play, Windows Phone 
Store e BlackBerry World, que juntas oferecem cerca de 1 milhão 
de aplicativos gratuitos e pagos.
Celulares inteligentes permitem às pessoas pagar contas, pesquisar 
preços e comprar produtos, enviar e receber e-mails, e compartilhar 
conteúdos em redes sociais, tudo em tempo real, onde quer que 
estejam. Com a expansão das redes de dados das empresas de telefonia 
móvel e a disponibilidade de redes sem fio (wi-fi) em locais públicos, 
o acesso a esses serviços tem sido mais amplo.
 2 Cloud computing – Com a quantidade crescente de dados gerados 
por empresas e pessoas, tem sido cada vez mais complicado 
gerenciar computadores pessoais e servidores corporativos para 
guardar um volume tão grande de dados. Além disso, a necessidade 
de acessar esses dados a partir de qualquer equipamento e em 
qualquer lugar (exigências da mobilidade e de novos modelos 
de trabalho, inclusive trabalhar de casa – home office) fez com 
que fosse adotada uma alternativa mais vantajosa do ponto de 
pista operacional e financeiro: o armazenamento de dados “na 
nuvem”, conhecido como cloud computing. A “nuvem” é um 
lugar virtual que “paira sobre nossas cabeças” onde quer que 
estejamos, e que podemos acessar com um clique do mouse, 
desde que tenhamos acesso à internet. Na verdade, são robustos 
computadores/servidores conectados em rede (pela internet) e 
espalhados em vários locais do mundo. Os investimentos das 
empresas nesse tipo de solução tem sido crescente, segundo 
levantamento do International Data Corporation (IDC).
 2 Big data – De que serve uma quantidade imensa de dados se o 
aproveitamento deles é deficiente? O conceito de big data pressupõe 
– 23 –
História dos computadores 
uma interpretação detalhada de dados a fim de, por exemplo, 
personalizar a oferta de produtos e serviços de acordo com o perfil 
do usuário, visando à satisfação do cliente e ao aumento das vendas. 
Nessa esteira surgiram, por exemplo, a gigante Amazon (venda 
online de livros, eletrônicos e outros produtos) e o portal de reservas 
de hotéis Booking.com, capazes de sugerir opções com base em 
pesquisas prévias feitas pelo usuário. A rede LinkedIn, que promove 
relações profissionais (networking), também usa big data para, com 
base nos dados que o usuário forneceu, identificar pessoas afins para 
compor sua rede profissional.
Como base comum a todas essas empresas, estão novas soluções 
para o processamento de grandes volumes de dados em alta velo-
cidade e arquiteturas que privilegiam agilidade e padronização no 
acesso aos dados.
Essa detecção de padrões, conhecida como mineração de dados 
(data mining), permite, por exemplo, traçar hábitos de compra dos 
clientes e prever tendências de consumo, subsidiando a tomada de 
decisões estratégicas para o negócio. Parte importante desse processo 
é a aprendizagem de máquina, ou seja, programar o computador 
para que ele seja capaz de identificar quais dados se transformam em 
um padrão de comportamento.
 2 Social – O ser humano é um ser social. “Estar conectado” é palavra 
de ordem no século XXI e as novas tecnologias estão muito voltadas 
a essa demanda. Não à toa, cursos na área de informática passaram 
a incluir o tema Computação Social, uma mescla de comunicação, 
sociologia, tecnologia da informação, economia e inteligência artifi-
cial, entre outras, a fim de estudar o novo cenário.
As mídias sociais mudaram a maneira como as pessoas interagem, 
compartilham, cooperam no trabalho, buscam entretenimento e 
definem seus hábitos de consumo. As empresas entenderam que os 
consumidores desejam muito mais do que apenas comprar; a busca 
pela “experiência do usuário” e por uma relação mais humanizada 
entre marcas e pessoas alterou o posicionamento mercadológico 
de empresas de diversos segmentos, mesmo no B2B (business-to-
– 24 –
Fundamentos da Informática
business, empresa para empresa).
Outro ponto que marca o chamado social business é a ligação das 
empresas com questões mais humanas e menos comerciais, tais 
como participação em questões sociais, proteção ao meio ambiente, 
produtos sustentáveis e uma postura não-poluente de modo geral, 
mais preocupada com o bem estar do ser humano.
Dois fenômenos comprovam a nova realidade. No ambiente de 
trabalho, há uma valorização da cooperação para desenvolvimento 
de soluções e novos produtos, principalmente por meio do open 
source – a busca por ideias colaborativas para resolver problemas que 
afetam muitas pessoas, sem altos custos para apenas uma empresa 
ou indivíduo.
A explosão das redes sociais é o outro fator que impactou 
enormemente as relações. Inicialmente voltadas ao entretenimento 
e à conexão entre as pessoas, as redes passaram a ter um papel 
importante também para estreitar o relacionamento entre marcas 
e consumidores, entre empresas e parceiros ou fornecedores, entre 
artistas e escritores e seu público. Ou seja, passaram a ter um viés 
também de marketing. Em comum, todas trouxeram nova dimensão 
ao conceito de “estar conectado”.
As redes que experimentaram maior popularidade ao redor do 
mundo são Facebook (compartilhamento de conteúdos e fotos 
para uma rede de amigos reais ou virtuais), Twitter (microbloggingcom notícias e mensagens de até 140 caracteres), Instagram (fotos), 
Google+ (semelhante ao Facebook, com conteúdos variados), You 
Tube (vídeos) e Pinterest (fotos e imagens sobre temas específicos), 
todas elas com centenas de milhões de usuários, com exceção do 
Facebook, que em janeiro de 2014 contava com 1,2 bilhão de 
usuários. Essas e outras centenas de redes se alternam nos rankings de 
“rede que mais cresce” e sempre há espaço para mais uma novidade, 
uma nova rede social que atrai a atenção em dado momento. É 
importante ressaltar que não bastam dados quantitativos – ao longo 
do tempo, essas redes veem o perfil de seus usuários se alterar, 
especialmente pela faixa etária.
– 25 –
História dos computadores 
Por fim, um elemento importante na Terceira Plataforma é a conver-
gência de dados, com a possibilidade de acessar dados, voz e vídeo em um 
só dispositivo, seja ele um celular, tablet, notebook ou desktop (computador 
de mesa). Para isso, os programadores desenvolveram o chamado design res-
ponsivo – com isso, é possível identificar de qual tipo de aparelho o usuário 
está se conectando e automaticamente adaptar o visual de um site para as 
dimensões da tela.
O maior impacto da Terceira Plataforma na humanidade vai muito além 
de uma renovação tecnológica, provocando uma significativa mudança cultu-
ral. Fazer coisas antigas de um jeito novo, fazer novas coisas, e agregar veloci-
dade e conteúdo estão por trás dessa mudança.
Conclusão
A história da computação remonta a 3.000 anos antes de Cristo, quando 
os babilônios criaram o ábaco para fazer contas, passa pela invenção da 
primeira calculadora, em 1623, e recebe uma longa lista de contribuições 
de astrônomos, físicos, matemáticos e engenheiros ao longo dos séculos, até 
chegar ao microchip, base da tecnologia implantada nos computadores do 
século XXI.
Ao conhecer a história dos computadores, nos damos conta de como 
tantos cientistas, culturas e indústrias diferentes trabalharam com afinco para 
se livrar da tediosa tarefa de fazer cálculos e operações repetitivas manualmente, 
mudando completamente o modo de ser e pensar da humanidade.
As quatro gerações de computadores – válvula, transistor, circuitos 
integrados e integração em larga escala com microchips – foram marcadas por 
grandes invenções que revolucionaram a tecnologia então em uso e ampliaram 
o conhecimento sobre como as coisas funcionam. Por exemplo, um dos 
conceitos mais importantes para os profissionais da área de informática é 
entender a diferença entre dados analógicos e digitais.
A partir do momento em que a tecnologia migrou dos centros acadêmi-
cos para o mundo corporativo, o cenário mudou de forma acelerada. De lá 
para cá, três grandes ondas tecnológicas, chamadas de plataformas, marcam a 
história. A primeira plataforma é quando os mainframes, volumosos e pesados 
– 26 –
Fundamentos da Informática
servidores, passaram a ser adotados por grandes corporações na automatiza-
ção de seus processos. A segunda plataforma aparece com a popularização dos 
computadores pessoais e a disseminação da internet. E a terceira plataforma 
é a revolução na maneira como interagimos com o mundo (educação, entre-
tenimento, consumo, informação, relacionamentos pessoais e profissionais, 
processos de trabalho, lazer), por causa de tecnologias apoiadas em quatro 
elementos: mobile, cloudcomputing, big data e redes sociais.
Compreender a evolução da computação, até chegar aos incríveis 
avanços conceituais, técnicos e científicos que tornam possível a existência 
de sofisticados computadores hoje, nos ajuda a pensar em novos usos e 
buscar novas tecnologias que possam contribuir para facilitar o trabalho e 
a vida das pessoas.
Desde sua concepção e para cálculos balísticos e transmissões 
de dados sigilosos de estratégias bélicas, ainda em suas primeiras 
gerações, o computador chegou à esfera civil, sendo empregado ini-
cialmente nos diversos controles administrativos das empresas e, com 
a popularização e consequente redução de preço de revenda, atin-
giu, também, os lares das pessoas. Sendo “computador” um termo 
atrelado aos colossais equipamentos da computação, as máquinas 
menores em tamanho e capacidade sugeriam novos termos, como 
minicomputador e, posteriormente, microcomputador, ou simples-
mente micro. No Brasil, durante décadas, o termo “micro” foi larga-
mente utilizado, porém aos poucos foi abrindo espaço para o mais 
globalizado PC (Personal Computer – Computador Pessoal), que é 
o principal objeto de estudo desta obra.
2
Microcomputador
– 28 –
Fundamentos da Informática
2.1 Computador pessoal
Já conhecemos a sigla CPU, oriunda das gerações iniciais dos compu-
tadores para designar somente o chip responsável pela tomada de decisões 
e cálculos da máquina. Com o passar do tempo, o uso do termo foi sendo 
ampliado e, há alguns anos, é utilizado para se fazer referência ao conjunto de 
peças que compõem o gabinete de um computador pessoal. Ainda que inade-
quado, chamar esse conjunto de peças de unidade central de processamento 
não é totalmente errado, uma vez que as tarefas que são realizadas com o 
auxílio do microcomputador acontecem ali, de fato, mediante entrada e saída 
de dados pelo usuário, por meio de componentes externos de interação, como 
teclado, mouse e monitor.
Sob uma abordagem contemporânea, um computador pessoal típico 
pode ser dividido em dois grandes grupos: CPU (conjunto de componentes 
e placas internos) e periféricos (componentes externos à CPU, de interação 
direta com o usuário).
2.1.1 Componentes internos
Entre os diversos componentes que integram a parte interna de um PC, 
destacam-se: 
 2 processador – responsável pelo cálculo, processamento, tomada de 
decisões e manipulação dos dados em geral;
 2 memória – responsável pelo armazenamento dos dados, sendo 
para uso imediato pelo processador ou para arquivamento;
 2 placa mãe – integra os componentes internos do computador e as 
placas controladoras;
 2 placas controladoras – responsáveis pela comunicação dos 
componentes básicos do computador com o exterior – vídeo, som, 
rede e tantos outros periféricos.
2.1.2 Componentes externos
Os componentes externos, denominados periféricos, são responsáveis 
pela interação direta com o humano. A diversidade desses componentes está 
– 29 –
Microcomputador
diretamente relacionada à evolução do uso do equipamento. Se, no princípio, 
os computadores eram utilizados para cálculos e dados textuais, ao chegar 
ao cotidiano do consumidor final, o leque de possibilidades aumentou 
significativamente. Dos processadores de texto aos editores gráficos, ainda 
nos antigos monitores de fósforo verde, às emissões dos alertas sonoros, tudo 
se resumia a: gabinete, monitor e teclado. O potencial gráfico aumentou e 
popularizou a impressora e o scanner; produzir elementos gráficos com o 
teclado ficou difícil, então, surgiu o mouse. O som passou a ser polifônico e 
as aplicações multimídia exigiram placas com caixas de som. A revolução da 
internet e o aumento da velocidade de conexão permitiram uma comunicação 
que extrapolava as teclas: webcam e microfone passaram a permitir conversas 
por vídeo. Milhares de equipamentos surgindo não um após o outro, mas 
vários paralelamente, para ampliar o uso da máquina. Em cada situação, 
para cada uso específico do computador, haverá um hardware periférico 
para atender à necessidade. Cada um desses componentes será detalhado em 
capítulos posteriores desta obra, a fim de consolidar o entendimento daqueles 
que são os principais responsáveis pela realização de tarefas tão diversas. A 
figura 1 a seguir apresenta um computador pessoal em configuração típica 
com alguns desses elementos.
Figura 1 – Computador pessoal contemporâneo
S
hu
tt
er
st
oc
k.
co
m
/P
ok
om
ed
a
– 30 –
Fundamentosda Informática
2.1.3 Software
Ao se estudar hardware é comum surgir uma analogia direta com a 
palavra “software”, que é empregada para se fazer referência aos programas 
que são executados pelo computador. Essa analogia é mais do que justa, 
pois um computador só é útil se for utilizado para realizar uma determinada 
tarefa, e isso só é possível por meio das instruções de software. Em 
contrapartida, um aplicativo é desenvolvido exclusivamente para comandar 
o funcionamento do hardware. Simples assim: um não existe sem o outro. O 
software que garante o funcionamento básico de um computador é o sistema 
operacional, e para se realizar uma tarefa específica, como a edição de um 
texto, utiliza-se um aplicativo. 
 Da teoria pra a prática
Pesquise as tendências de computadores pessoais, nos últimos 
cinco a dez anos, e elabore um texto com a proposta de prever 
como será o PC dos próximos dez anos, em termos de compo-
nentes, periféricos e software.
Conclusão
Na área da computação, assim como em diversas outras disciplinas das 
ciências exatas, a descoberta de novos componentes e o desenvolvimento 
de novos métodos abrem possibilidades que vão além de uma simples 
evolução. No caso específico dos computadores, houve uma evolução (ou 
revolução) de antigas máquinas de calcular. As gerações estão intimamente 
ligadas às descobertas ou ao desenvolvimento de novos componentes, e a 
obsolescência é algo espantoso: o que ontem era inovador e caro, hoje não 
passa de lixo tecnológico.
Saindo dos laboratórios acadêmicos e do universo bélico para os lares 
do cidadão comum, os computadores passaram por diversas adequações. 
A grande variedade de atividades que fazem parte da rotina de uma pessoa 
carece de equipamentos que vão além de um teclado e de um monitor. A 
– 31 –
Microcomputador
criação de novos periféricos, pensando em possibilidades de uso, e a supressão 
de outros, que deixam de ter importância por mudanças de comportamento e 
cultura, são elementos constantes no universo dos microcomputadores.
3
Componentes básicos 
do computador
A história dos computadores nos mostra que muitas das coi-
sas criadas no passado continuam tendo sua importância nos dias 
atuais. Um dos maiores exemplos é a arquitetura dos computadores 
do século XXI, que até hoje tomam por base a Máquina de Von 
Neumann, criada pelo matemático John von Neumann em 1945. 
Esse modelo inclui uma Unidade Central de Processamento/CPU 
(formada por uma unidade lógica aritmética e uma unidade de con-
trole), memória e dispositivos de entrada e saída de dados.
Os computadores atuais seguem o mesmo princípio de com-
posição. A única diferença em relação ao modelo de von Neumann 
é que hoje o processador (a CPU) reúne em um único microchip as 
unidades de controle e de lógica e aritmética.
Andrew Tanenbaum (Tanenbaum, 2007) afirma que “um 
computador digital consiste em um sistema interconectado de pro-
cessadores, memórias e dispositivos de entrada/saída.
– 34 –
Fundamentos da Informática
A CPU, a memória e a placa-mãe são os componentes principais. Em 
poucas palavras, a memória tem a função de armazenar os dados. A CPU, 
conectada à memória por slots, é responsável por buscar os dados, processá-
los e depois enviá-los de volta à memória. E a placa-mãe é o canal de 
comunicação que interliga todos os componentes do computador e permite 
que eles “conversem” entre si.
3.1 Periféricos (dispositivos de entrada/saída)
Periféricos “são os dispositivos usados para fazer a entrada e a saída dos 
dados que serão processados”, segundo Cruz (Cruz, 1997). Em outras palavras, 
os periféricos são os componentes que permitem ao usuário interagir com a 
máquina, fornecendo-lhe instruções para a execução de determinada tarefa e 
permitindo a visualização e compreensão do resultado dessas tarefas. Assim, 
por exemplo, o teclado e o mouse servem para inserir dados (periféricos de 
entrada), que são processados pelo computador e “traduzidos” para que o 
usuário veja o resultado, por exemplo na tela do monitor ou no papel que sai 
da impressora (periféricos de saída).
Pode-se considerar, portanto, que o termo “periférico” pode ser aplicado 
a qualquer equipamento acessório que seja conectado ao computador, com 
uma função definida.
3.1.1 Tipos de periféricos
Existem três tipos de periféricos, que variam conforme sua função e 
forma de utilização. São eles: os periféricos de entrada, os de saída e os de entrada 
e saída.
a. Periféricos de entrada (input): é responsável pela tradução dos 
códigos utilizados pelos equipamentos em códigos compreensíveis 
pelo computador. Ou seja, tudo o que alguém utiliza para 
fornecer informações ao computador para que este execute 
alguma tarefa. Entre esses periféricos, estão teclado, mouse, 
microfone, leitor de código de barras, webcam, identificador 
digital, scanner de mão, leitor de CD/DVD, mesa digitalizadora, 
joystick e gamepad, entre outros.
– 35 –
Componentes básicos do computador
b. Periféricos de saída (output): é responsável pela “tradução” dos 
códigos e dados processados pelo computador para que o operador 
consiga visualizá-los e compreendêlos. Monitor de vídeo, impressora 
e caixas de som são alguns exemplos.
c. Periféricos de entrada e saída (input/output): servem tanto para 
fornecer dados ao computador quanto para recebê-los. Entre esses 
periféricos, estão modem, multifuncionais (scanner, copiadora), 
monitor touchscreen e dispositivos de imagem.
3.2 Memória principal – RAM 
O termo RAM, do inglês Random Access Memory (Memória de Acesso 
Aleatório), referese à memória de trabalho com a qual o processador se comu-
nica. O termo aleatório quer dizer que a memória poderá ser acessada para 
operações de gravação e leitura, em qualquer posição. Existem milhares de 
posições de memória que dependem da capacidade do pente de memória 
instalado em sua placa-mãe.
Para facilitar a compreensão, podemos comparar uma posição de memória 
em um pente a um apartamento em um prédio. Cada apartamento pode ter 
apenas um morador (em termos técnicos, um caractere, por exemplo, a letra “A”). 
O processador poderá, então, dependendo do programa que está 
executando, inserir um caractere em uma posição de memória (colocar 
um morador em um apartamento), retirar um caractere de uma posição, 
substituir um caractere por outro na mesma posição, copiar um caractere de 
uma posição de memória para outra. Tudo isso tem que ser feito de maneira 
muito rápida, uma vez que os computadores realizam milhões de acessos à 
memória enquanto estão executando alguma operação.
Um exemplo didático do que a memória do computador é capaz de fazer 
seria a sequência abaixo:
1. O processador insere o número 1 na posição de memória 002.
2. O processador insere o número 2 na posição de memória 003.
3. O processador lê o número contido na posição de memória 002.
– 36 –
Fundamentos da Informática
4. O processador lê o número contido na posição de memória 003.
5. O processador soma os números lidos e armazena o resultado na 
posição de memória 101.
6. O processador insere o número 3 na posição de memória 003.
Qual o resultado da soma armazenado na posição de memória 101? 
Se você respondeu três, acertou. Uma possível resposta, porém errada, seria 
quatro. Acontece que, embora o conteúdo da posição 003 tenha sido alterado 
posteriormente, isso em nada alterou o conteúdo armazenado na posição 
101, que era o resultado da operação (soma) executada.
A memória principal (RAM) não processa. Ela é um repositório de dados, 
acessada pelo processador. Ela também é volátil, ou seja, se você desligar 
o computador, todos os dados contidos nela irão se perder. A propósito, há 
memória que não se perde. Os documentos que digitamos, por exemplo, e ficam 
armazenados, são de outra natureza. Textos e planilhas, sistema operacionale 
outros dados persistentes ficam armazenados em dispositivos de memória de 
massa, como os discos rígidos, conhecidos também como memória secundária.
A memória RAM se comunica com o processador (CPU) por meio da 
placa-mãe, e é a CPU que pode ser considerada o “cérebro” da máquina, sem 
o qual nada seria possível.
3.3 Unidade Central de 
Processamento - UCP ou CPU
A Unidade Central de Processamento é o principal componente do 
computador. Ela é mais conhecida por sua sigla em inglês – CPU (Central 
Processing Unit) – ou simplesmente pelo termo “processador” .
Um computador poderá até sobreviver, conceitualmente, sem memória 
ou mesmo sem uma placa mãe, mas, se não possuir um processador, não 
pode ser considerado como um computador propriamente dito. Talvez seja 
outro equipamento como um pendrive, mas nunca um computador. O termo 
computador nos remete ao verbo computar, que quer dizer calcular ou, mais 
especificamente, executar cálculos e operações próprias de um computador. 
– 37 –
Componentes básicos do computador
Ora, se um computador é aquilo que realiza cálculos, logo presumimos que 
ele precisará ter uma espécie de cérebro eletrônico, ou uma cabeça eletrônica, 
que possa pensar ao menos o suficiente para resolver os cálculos para os quais 
foi designado a realizar.
A CPU age, então, como o cérebro do computador. Ela tem a função de 
obter dados ou instruções de algum lugar que, no caso de um computador, é a 
memória de trabalho (memória RAM); de verificar essas instruções; e depois 
executá-las, uma após a outra.
Mas é bom que se desmistifique o processador – ele não é um elemento 
mágico que busca as informações e as processa de forma desconhecida. 
No parágrafo anterior, utilizamos verbos de ação, como obter, verificar 
e executar. Para cada um desses verbos, existem barramentos e circuitos 
elétricos e eletrônicos que desempenham e possibilitam a comunicação entre 
os componentes internos ao próprio processador. Projetar processadores, 
bem como circuitos eletrônicos e componentes para computadores, como 
interfaces de vídeo tridimensionais ou modems para acesso a internet,etc., 
são objetivos de cursos específicos como Engenharia Eletrônica e Engenharia 
da Computação.
Diferentes partes compõem a UCP: Unidade de Controle (UC), Unidade 
Lógica Aritmética (ULA) e registradores, que são pequenas memórias de 
alta velocidade. 
3.3.1 Unidade de Controle – UC
A Unidade de Controle tem a função de obter dados e instruções na 
memória principal, determinando sua tipologia. Ela é a porta de entrada e saída 
que o processador usa para comunicar-se, via sinais elétricos, com a memória 
principal. Por exemplo, se a ULA precisar armazenar o número binário 0012 
na posição de memória 0002, ela solicitará à UC que realize tal procedimento.
3.3.2 Unidade Lógica Aritmética – ULA
A Unidade Lógica Aritmética efetua diversas operações matemáticas, 
como adição e subtração, multiplicação e divisão, e de lógica booleana, como 
o OR (“ou”) booleano. George Boole foi um matemático que definiu, em 
– 38 –
Fundamentos da Informática
1854, os princípios da lógica binária (0 ou 1) seguindo a ideia de que equações 
matemáticas podem expressar os conceitos da lógica (ex: verdadeiro ou falso).
3.3.3 Registradores
Os registradores são pequenas memórias internas dentro do 
processador, que servem para auxiliá-lo durante as operações, armazenando 
temporariamente dados que estão sendo utilizados. Se não fossem os 
registradores, o processador teria muito mais trabalho, pois precisaria 
acessar a memória principal, que está fora dele.
Existem registradores de uso genérico e outros com funções específicas, 
mas ambos são maneiras mais rápidas para acessar informações que estão 
sendo processadas, embora tenham menor capacidade de armazenamento 
que a memória principal.
Exemplos de registradores genéricos são AX e BX, usados para armazenar 
números binários. Um exemplo de registrador específico é o IP (Instruction 
Pointer), que indica o ponto de referência na memória principal (RAM) que 
contém a próxima instrução a ser executada.
3.3.4 Executando uma instrução
A memória principal armazena dados que serão buscados pela UC (unidade 
de controle) da CPU e adicionados nos registradores. Em seguida, a ULA realiza 
operações sobre os dados que estão nos registradores, também armazenando o 
resultado das operações neles. Por fim, UC copia o valor dos registradores para 
dentro de um endereço (posição) de memória principal.
A enumeração a seguir, denominada comumente de ciclo buscar 
decodificar executar, representa uma sequência de pequenas fases que são 
reproduzidas para cada instrução executada pela CPU.
1. Transportar a próxima instrução da memória principal para o registrador.
2. Modificar o ponteiro de instrução (IP), indicando a instrução seguinte.
3. Estabelecer qual é o tipo da instrução transportada.
4. Estabelecer onde a sequência de dados se encontra, caso a instrução 
– 39 –
Componentes básicos do computador
utilize uma sequência de dados na memória principal.
5. Transportar a sequência de dados, se necessário, para algum registra-
dor da CPU.
6. Executar a instrução.
7. Retornar à fase 1 (isso fará com que se execute a próxima instrução, 
contida no registrador IP, alterado pela etapa 2).
Os processadores não são todos iguais. Alguns são capazes de executar 
um conjunto maior de instruções do que outros, como veremos a seguir.
3.3.5 RISC versus CISC
Ao longo da história, a Apple e a Intel sempre disputaram mercado 
com os processadores que projetaram. A Intel, de forma geral, lidera essa 
concorrência, especialmente no que diz respeito aos computadores pessoais, 
tendo tornado seus processadores Pentium e Celeron muito populares.
Existe uma diferença básica entre os dois processadores dessas duas 
companhias: a quantidade de instruções que eles são capazes de realizar. A 
Apple utiliza um conjunto reduzido de instruções (RISC), enquanto a Intel 
utiliza um conjunto complexo de instruções (CISC).
Um processador RISC segue a regra de que, internamente, deverá possuir 
o menor número de microinstruções possível. Por exemplo, ao invés de conter 
uma instrução para multiplicar (x), basta possuir a instrução de somar (+) e deixar 
que o programador que queira multiplicar 5x2 realize a operação 2+2+2+2+2. 
Isso torna a vida do programador mais difícil, pois terá de codificar instruções 
complexas para alcançar seu objetivo. O programa resultante, porém, ao ser 
executado, será feito em alta velocidade pelo processador RISC.
Um processador CISC segue a regra de que, internamente, deverá possuir 
vários conjuntos de instruções para realizar diversas operações. Isso significa 
que ele possuirá tanto a operação de soma (+), quanto a de multiplicação (x). 
Isso facilita a vida do programador, que terá à sua disposição um leque de 
instruções prontas de fábrica a fim de alcançar seus objetivos.
Não há como definir qual o melhor dos processadores. Alguns autores 
– 40 –
Fundamentos da Informática
defendem o RISC como sendo o mais performático e “puro” dos processa-
dores; outros defendem que a complexidade trazida pelo CISC facilita a vida 
dos desenvolvedores. De fato os processadores RISC costumam ser mais rápi-
dos que os processadores CISC. Mais rápido nem sempre significa melhor. Os 
computadores da Apple (Power PC, Imac) não são tão populares no Brasil, mas 
sim nos EUA. São preferidos quando o assunto é, por exemplo, processamento 
de vídeo, som e gráfico, realizado por empresas de jogos eletrônicos, maquetes 
virtuais, etc.
Mesmo assim, o processador Intel é o mais popular por seguir uma regra de 
retrocompatibilidade com programas construídos para outros processadores da 
mesma marca, mesmo que ultrapassados. Isso significa que um programa feito 
para um processador Intel 4x86 (antigo)terá grandes chances de ser executado 
em um Pentium IV (novo). Ter a vantagem de retrocompatibilidade coloca a Intel 
em posição comercial privilegiada, uma vez que os programadores de sistemas e 
aplicativos terão menos trabalho, codificarão uma só vez e verão o seu programa 
funcionar em várias versões futuras da Intel.
Conclusão
O computador digital consiste em um sistema interconectado de proces-
sadores, memórias e dispositivos de entrada/saída, e esse modelo é baseado na 
arquitetura concebida pelo matemático John von Neumann em 1945.
O processador (CPU) é considerado o cérebro do computador, respon-
sável por todos os cálculos e operações matemáticas solicitadas pelo usuário 
e seus programas. Existem diferentes arquiteturas de processamento (RISC e 
CISC), que permitem a execução de um número menor ou maior de instru-
ções, mas cada qual com vantagens e desvantagens.
A memória é um componente que tem como função o armazenamento 
temporário de dados, funcionando como um repositório para programas do 
usuário e para o próprio processador.
Os dispositivos que permitem inserir dados (entrada) e visualizar resulta-
dos processados (saída) são chamados de periféricos e possibilitam ao usuário 
interagir com o computador.
4
Hardware interno 
do computador
O processador é o que se pode considerar como “o cérebro 
do computador”. Ele é o responsável pela realização dos cálculos 
e tomada de decisões. Atualmente comercializada na forma de 
um microchip envolto por silício, é essa peça que define o poder 
computacional de um microcomputador e, consequentemente, seu 
custo ao consumidor.
– 42 –
Fundamentos da Informática
4.1 Processadores
Para melhor entender o funcionamento de um processador, é importante 
resgatar o conceito de processamento de dados, que consiste em: trabalhar 
um dado de entrada (input) para gerar uma saída (output). O processador 
recebe dados de entrada e, para criar uma saída, norteia-se por dois princípios 
básicos: tomada de decisão e manipulação/armazenamento desses dados. 
Assim, o processador é o principal responsável pelas ações realizadas pelo 
microcomputador.
Em sua forma física, trata-se de um circuito integrado (microchip), ou 
seja, uma série de componentes eletrônicos interconectados. Esse microchip 
recebe os dados de entrada através de pulsos elétricos enviados aos seus pinos 
de conexão e, por meio de milhares de transistores, realiza as operações que 
lhe são programadas. Veja na figura 1 um processador.
Figura 1: Processador.
S
hu
tt
er
st
oc
k.
co
m
/P
ok
om
ed
a
Os pulsos elétricos consistem nos dados representados por meio do 
sistema binário de numeração e o resultado das operações a eles atribuídas 
depende do fluxo percorrido pela corrente elétrica através das chamadas 
portas lógicas. Cada porta lógica requer, no mínimo, um transistor e, 
combinada a outras, oferece inúmeras possibilidades de manipulação dos 
dados para geração da saída. Três são as portas lógicas básicas: E, OU e NÃO. 
Elas formam a base da tomada de decisões em microcomputadores, por meio 
da álgebra booleana (explicada na seção 4.1.1 deste capítulo).
– 43 –
Hardware interno do computador
4.1.1 Álgebra Booleana
Como já mencionado, a Álgebra Booleana é a base para a tomada de 
decisões em microcomputadores. Proposta pelo matemático inglês George 
Boole, em 1847, ela consiste na redução de proposições a símbolos e opera-
dores formais que obedecem a regras matemáticas.
Uma proposição é uma declarativa afirmativa, da qual tenha sentido 
afirmar que seja verdadeira ou falsa. Considere a proposição: “A porta é 
vermelha”. A partir desta declarativa, pode-se afirmar que ela seja verdadeira 
ou falsa, pois ou a porta é de fato vermelha, ou não é.
Novamente, a representação nos computadores digitais é feita por meio 
de pulsos elétricos: verdadeiro = 1 = presença; falso = 0 = ausência.
Proposições simples são chamadas de átomos que, na álgebra booleana, 
são representados por uma letra do alfabeto latino. A combinação de mais de 
uma proposição é feita através de conectivos lógicos que, no processador, são 
resolvidos através das já mencionadas portas lógicas.
 Sugestão de Leitura
BISPO, C. A. F.; CASTANHEIRA, L. B.; SOUZA FILHO, 
O. M. Introdução à lógica matemática. São Paulo: Cengage 
Learning, 2012.
4.2 Elementos básicos de um 
microprocessador
Como mencionado no início deste capítulo, um microprocessador é 
um circuito que integra vários componentes. Esta seção tem como objetivo 
apresentar esses componentes e suas funções específicas.
4.2.1 Instruções
Se, inicialmente, os computadores eram programados por meio da 
combinação livre de portas lógicas e entrada de dados, processadores mais 
– 44 –
Fundamentos da Informática
modernos vêm pré-programados com conjuntos de instruções conhecidas, ou 
seja, sequências binárias específicas para realização de determinada operação. 
Estas sequências são chamadas de instruções e devem ser respeitadas na criação 
de programas, o que faz com que programas escritos para um determinado 
processador funcionem somente naquele modelo de processador (ou em 
modelos que possuam o mesmo conjunto de instruções). 
4.2.2 Microcódigo, RISC e CISC
Com o intuito de fazer o processador realizar tarefas específicas por 
meio de um conjunto conhecido de instruções, a IBM trouxe para os 
microprocessadores o conceito de microcódigo, que consistia em blocos pré-
programados de conjuntos de instruções para realização destas tarefas.
Em 1974, incentivado pelo grande número de ataques de pesquisadores 
ao uso de microcódigos em processadores, John Cocke fez um estudo e detectou 
que, de um número grande de instruções dadas a um microprocessador, 
dois terços delas eram realizadas utilizando apenas 5% das instruções pré-
programadas. Com base nos resultados, projetou um computador baseado 
neste conjunto reduzido de instruções, conhecido como RISC (Reduced 
Instruction Set Computer – Computador com Conjunto Reduzido de 
Instruções). Diante disso, os computadores que utilizavam microprocessadores 
com microcódigos baseados em conjuntos grandes de instruções passaram a 
ser denominados CISC (Complex Instruction Set Computer – Computador 
com Conjunto Complexo de Instruções).
4.2.3 Memória e registradores
As portas lógicas podem ser combinadas de forma que o processador 
consiga persistir, ou seja, armazenar dados temporariamente. E, para trabalhar 
com esses dados, na realização de uma operação de cálculo, por exemplo, é 
necessário que se saiba onde, e de que forma estão organizados esses dados. 
Esta é a função dos registradores: manipulação de dados.
A quantidade de registradores varia entre processadores, assim 
como seu tamanho. Quando se diz que um processador trabalha com 
64 bits de dados, essa medida refere-se justamente ao tamanho dos seus 
– 45 –
Hardware interno do computador
registradores. Quanto maior o tamanho dos registradores, mais rápido 
será o processador.
4.2.4 Pipelining
Arquiteturas de processamento antigas realizavam operações de uma 
forma simplificada: leitura da instrução da memória, tratamento passo 
a passo e então leitura da próxima instrução. Já o conceito de pipelining 
permite que o microprocessador leia uma instrução e, antes mesmo de 
terminar o seu tratamento passo a passo, realize a leitura da próxima 
instrução. Arquiteturas de microprocessadores atuais aplicam esse conceito, 
aumentando significativamente a velocidade, porém tornando o processo 
complexo e difícil de ser controlado.
4.2.5 Clock
Um processador não realiza qualquer tarefa no momento em que recebe 
estímulo elétrico por meio de seus conectores. Se assim fosse, o processamento 
seria desordenado, gerando resultados inesperados. Aqui entra o conceito de 
clock (relógio): envio de pulsos elétricos regulares aoprocessador, indicando 
que está na hora do processador realizar a próxima operação. Esses pulsos 
acontecem de acordo com uma frequência específica, medida em hertz, a 
qual define a velocidade de realização das operações. Lembrando: 1 hertz = 
1 ciclo por segundo e, assim como as outras unidades de medida, também 
possui seus múltiplos (kilo, mega, giga, ...). Em analogia, um processador 
que possui clock de 500 MHz (quinhentos mega-hertz) trabalha a uma 
velocidade de quinhentos milhões de ciclos por segundo. Uma operação 
pode demandar mais de um ciclo, o que significa que a frequência não é o 
único fator que define a velocidade de um processador, ainda que seja um 
dos principais fatores.
4.2.6 Unidade de I/O, Unidade de Controle 
e Unidade Lógica/Aritmética
Por se tratar de um componente delicado, mas que trabalha em velocidades 
altíssimas, os sinais elétricos trabalhados internamente no processador possuem 
– 46 –
Fundamentos da Informática
corrente diferente dos componentes externos. Como função mais básica, a 
Unidade de I/O (Input/Output – Entrada/Saída) é responsável pela adequação 
desses sinais, porém as arquiteturas atuais englobam funções de memória cache 
(veja seção 4.5) e outras funções mais complexas.
A conexão do processador com o restante do circuito, através da Uni-
dade de I/O, envolve dois conceitos importantes: barramento de endereços 
e barramento de dados. A quantidade de bits reservada ao barramento de 
endereços define a quantidade de memória que o processador poderá geren-
ciar, enquanto a largura do barramento de dados está relacionada diretamente 
com a quantidade de dados que poderão ser trafegados entre processador e 
memória. Maiores detalhes do funcionamento de barramentos são apresen-
tados na seção 4.4. 
A Unidade de Controle (UC) recebe os dados oriundos da Unidade de 
I/O, formata e os entrega à Unidade Lógica/Aritmética (ULA), respeitando os 
ciclos de clock. Em arquiteturas mais modernas, pela existência de várias ULAs, 
é também a UC que faz o roteamento dos sinais para as outras unidades.
A Unidade Lógica/Aritmética é responsável pela realização dos cálculos 
e tomadas de decisões. Ela recebe os dados através da UC e realiza as operações, 
se necessário modificando os dados dos registradores, para então devolver o 
dado processado/calculado para a Unidade de I/O. É importante destacar 
que existem ULAs diferenciadas para tratamento de cálculos com números 
inteiros e ponto-flutuante. Este último tipo, responsável diretamente por 
cálculos matemáticos mais elaborados (como funções trigonométricas), em 
arquiteturas mais antigas aparecia em um circuito separado, conhecido como 
coprocessador matemático.
Pela terceira vez, a sigla CPU é adequada: neste contexto, o conjunto das 
Unidades de Controle e Lógicas/Aritméticas também é chamado de CPU.
4.3 Histórico e evolução
Uma leitura mais atenciosa sobre a evolução dos computadores permite 
concluir que os processadores são uma evolução e integração de componentes: 
desde a válvula, passando pelos transístores e chegando ao circuito integrado. 
Quando se fala em microprocessador, sua origem é unânime: foi inventado 
– 47 –
Hardware interno do computador
por Ted Hoff. Ainda quando os computadores pessoais não eram uma 
realidade, em 1971, Hoff criou um microprocessador de 4 bits para a Intel, 
que serviria como base para a construção do que estaria por vir: gerações e 
gerações de microprocessadores.
4.3.1 Primeira geração
Com a padronização do byte como sendo a unidade básica de medida 
de dados digitais, a Intel rapidamente deixou de lado a comercialização do 
Intel 4004 (4 bits) e, em 1972, apresentou ao mercado o Intel 8008, que 
operava com registradores de 8 bits. Com a evolução de componentes e 
aperfeiçoamento de projeto, em 1974 surge o Intel 8080, também com 8 
bits, mas com um conjunto maior de instruções. 
Uma estratégia da Intel na época deu início a um comportamento 
padrão: todo novo processador que fosse projetado deveria agregar novo 
conjunto de instruções sempre mantendo (e nunca substituindo) o conjunto 
de instruções de seu antecessor, para fins de retro compatibilidade, permitindo 
assim a execução de programas desenvolvidos anteriormente. Somente em 
1978, com o lançamento do Intel 8086 (este com 16 bits), é que se pode 
entender como sendo o início das gerações de microprocessadores, pois foi 
o primeiro a integrar computadores pessoais. Um ano depois a Intel lançou 
o Intel 8088, com barramento de dados de 8 bits (isto contribuiu para que 
o processador ficasse mais barato e fosse o mais vendido da geração), porém 
mantendo registradores de 16 bits. 
Os processadores Intel 8088 trabalhavam com velocidades de clock de 
8 e 16 MHz. Com algumas melhorias, ainda operando com 16 bits, foram 
lançados o Intel 80186 e 80188, que integravam alguns circuitos a mais e que 
facilitariam a montagem de computadores pessoais.
4.3.2 Segunda geração
Criado em 1982, porém somente levado ao mercado em 1984, o Intel 
80286 marca o início da segunda geração. Com capacidade para endereçar 
até 16 MB de RAM (Random Access Memory – Memória de Acesso Aleatório, 
a qual será abordada na seção 4.5) e velocidades que variavam entre 6 e 24 
– 48 –
Fundamentos da Informática
MHz, o processador em si foi um fracasso: o sistema operacional da época 
(DOS) não conseguia gerenciar mais do que 1 MB de memória, criando um 
gargalo para as possibilidades que essa nova geração de microprocessadores 
oferecia. Ainda que frustrante nas possibilidades, os computadores equipados 
com microprocessadores 286 eram conhecidos como PC-AT (Advanced 
Technology – Tecnologia Avançada).
4.3.3 Terceira geração
Dentre as inovações que marcam a terceira geração de microproces- 
sadores, uma merece destaque: tanto endereçamento quanto barramento 
de dados de 32 bits. Com esta capacidade, era possível o gerenciamento de até 
4 GB de RAM (232 = 4.294.967.296), e o mais importante: desta vez haviam 
sistemas operacionais preparados para fazer uso deste potencial.
O processador mais vendido desta geração foi o Intel 80386, 
posteriormente batizado de 386DX, com o lançamento de uma versão mais 
econômica que trabalhava com 16 bits de barramento de dados. S denotando 
o uso de single words e D para double words (medidas vistas no início deste 
capítulo). Outra grande vantagem desta arquitetura era a possibilidade de 
execução de vários programas simultâneos, através do uso do modo Virtual 
8086, recurso bastante aproveitado pelos sistemas operacionais da época e 
que a geração anterior não permitia. Nesta geração, emergem as fabricantes 
de processadores com os mesmos conjuntos de instruções, alguns obtidos 
através de engenharia reversa com os 386 da Intel, representando grande 
concorrência. Dentre elas a AMD e a Cyrix.
4.3.4 Quarta geração
As melhorias técnicas que marcam a quarta geração de microproces- 
sadores não foram tão substanciais. As três principais visavam aumento de 
velocidade: a inclusão de memória cache nível 1 (isto será melhor detalhado 
na seção 4.5), reduzindo o gargalo proveniente de sistemas lentos de memória; 
implementação de pipelining para aumentar a eficiência com baixas velocidades 
de clock; e a adoção de unidades de ponto-flutuante. As terminologias SX e DX 
da geração anterior também eram utilizadas, ainda que não tivessem mais nada 
a ver com a capacidade do barramento. Os microprocessadores 486-SX não 
implementavam unidade de ponto-flutuante (presentes nos DX).
– 49 –
Hardware interno do computador
Com estas melhorias, testes comparativos evidenciavam que os 
processadores 486 eram, em geral, duas vezes mais rápidos do que os 386. 
Por exemplo: um 486-DX de 20 MHz operava com a mesma velocidade de 
um 386-DX 40 MHz.
O sucesso da Intel na comercialização de microprocessadores era tão 
grande que a concorrência

Outros materiais