Logo Passei Direto
Buscar

Fundamentos da Informática

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Curitiba
2018
Fundamentos da 
Informática 
Alexandre Tadeu Rossini da Silva
Eleusa Maria Leão
Evanderson S. de Almeida
Evandro Alberto Zatti
Marcelo Ribeiro de Oliveira
Leonel Rocha
Ficha Catalográfica elaborada pela Fael. Bibliotecária – Cassiana Souza CRB9/1501
Direitos desta edição reservados à Fael.
É proibida a reprodução total ou parcial desta obra sem autorização expressa da Fael.
FAEL
Direção Acadêmica Francisco Carlos Sardo
Coodernação Editorial Raquel Andrade Lorenz
Revisão Diógenes Cogo Furlan
Projeto Gráfico Sandro Niemicz
Capa Vitor Bernardo Backes Lopes
Imagem da Capa Shutterstock.com/tcareob72
Arte-Final Evelyn Caroline dos Santos Betim
Apresentação
A evolução do ser humano foi marcada, ao longo das 
eras, por sua vontade crescente de se comunicar e de registrar 
os fatos da vida. Desde as primeiras pinturas rupestres nas 
cavernas, a linguagem do homem foi ganhando contornos mais 
sofisticados, na medida em que servia também como ferramenta 
para o seu desenvolvimento mental, intelectual, social e cultural, 
diferenciando-o dos demais animais.
No século XXI, a necessidade de comunicação ampliou 
sua abrangência. Informação, armazenamento de dados, 
compartilhamento à distância, entretenimento e educação são 
algumas das novas demandas que passaram a exigir duas coisas: 
pessoas mais preparadas para lidar com um cenário que muda 
rapidamente e tecnologias capazes de oferecer soluções rápidas, 
eficientes e viáveis para essas demandas.
– 4 –
Fundamentos da Informática 
As chamadas Tecnologias da Informação e Comunicação (TICs) refletem 
a realidade do século XXI, servindo a propósitos corporativos, educacionais 
e sociais. Em um mundo digital como é o nosso hoje, em que o acesso à 
informação se dá em tempo real e a popularização da tecnologia é crescente, 
estará mais bem preparado o profissional que souber compreender como 
surgiu e para onde deve nos conduzir esse fenômeno.
Esta coletânea Fundamentos da Informática é o passo inicial para esse 
entendimento. Com textos de fácil compreensão, os autores traçam a evolução 
histórica da informática, sempre associando-a aos grandes momentos da 
história da humanidade que alteraram de forma marcante a maneira como 
trabalhamos, nos relacionamos e pensamos o mundo ao redor. Assim, o 
livro explora a ligação entre a informática e a sociologia, mostrando como as 
Tecnologias da Informação e Comunicação influenciam o comportamento, 
a cultura, as tarefas cotidianas e o modo de ser, pensar e agir das pessoas ao 
longo dos séculos. 
E por que associar sociologia e informática? Porque é esse saber – a 
combinação do conhecimento técnico/tecnológico com a clareza sobre o 
quanto a nova organização do trabalho e do dia a dia das pessoas é afetada pelas 
TICs a que elas têm acesso – que hoje é exigido do profissional de informática.
Este livro traz os fundamentos teóricos da informática e da computação, 
explicando as diferenças entre software e hardware, apresentando os princípios 
de programação, os detalhes do hardware e ampliando a visão do leitor sobre 
o funcionamento de redes de computadores e banco de dados. Tudo isso para 
que o leitor possa entender a lógica por trás de qualquer computador – noção 
fundamental para quem deseja trabalhar na área.
A obra também convida a refletir sobre o impacto do uso da tecnologia 
na sociedade, sobre questões éticas e sobre inclusão digital, ajudando a 
pensar em alternativas para beneficiar pessoas que hoje não têm acesso a 
esses recursos tecnológicos.
Boa leitura!
Sumário
Carta ao Aluno | 5
1. História dos computadores | 7
2. Microcomputador | 27
3. Componentes básicos do computador | 33
4. Hardware interno do computador | 41
5. Dispositivos de Entrada e Saída | 87
6. Placa mãe e integração dos componentes de Hardware | 137
7. Sistemas de numeração | 177
8. A informática e o software | 195
9. Classificação de software | 205
10. Sistemas operacionais, redes de 
computadores e banco de dados | 213
11. Sistemas de informação: conceito, 
componentes e tipologia | 239
Referências | 255
1
História dos 
computadores
O ser humano sempre processou dados – o homem pré-his-
tórico desenhava nas paredes das cavernas, o pastor de ovelhas da 
antiga Mesopotâmia coletava pedras para representar a quantidade 
de animais de seu rebanho no ano 4000 a.C., o artesão europeu 
do ano 1673 utilizava cartões perfurados para controlar o posicio-
namento e o movimento de agulhas do tear. E hoje, quando um 
consumidor na Índia compra um produto alemão pela internet e 
recebe pelo correio, ou quando duas empresas multinacionais em 
continentes distintos realizam transações comerciais e financeiras 
entre si, estamos vendo a manipulação de dados.
– 8 –
Fundamentos da Informática
1.1 Qual é a diferença entre dado e informação?
Dados são fruto da observação de um fato ou objeto e possuem um 
ou mais significados, mas isoladamente não são capazes de transmitir 
uma mensagem ou conduzir à compreensão de algo. Normalmente são 
mensuráveis. Um exemplo é um conjunto de condições climáticas. Podemos 
saber a pressão atmosférica, intensidade do vento, umidade do ar e tempera-
tura, mas isoladamente esses dados não traduzem um conhecimento, não nos 
permitem fazer a previsão do tempo. Outro exemplo: os símbolos “R”, “$” e 
“1,50” também não significam muito, como dados separados.
A informação é um conjunto de dados tratados, analisados, compa-
rados, reunidos a outros e trabalhados, que adquirem um significado mais 
amplo, levam ao entendimento e à tomada de decisões. Ao analisar as con-
dições atmosféricas todas juntas, por exemplo, podemos concluir a pro-
babilidade de chover, em que intensidade etc. Ao reunir os três símbolos 
(dados) citados acima, temos a informação “R$ 1,50”, com um significado 
(o preço de algo).
Informações, portanto, são dados que foram processados, seja por meio 
eletrônico, mecânico ou manual, gerando um resultado com significado.
1.1.1 Escrita é armazenamento de dados
A necessidade de registrar, guardar e transferir informações por meio de 
símbolos é notada desde os primeiros registros que a arqueologia pode nos 
fornecer sobre a humanidade.
Atribui-se aos sumérios, por volta de 3500 a.C., o mais antigo tipo 
conhecido de escrita, a cuneiforme (que tem esse nome por ser executada 
com auxílio de objetos pontiagudos em forma de cunha, sobre placas de 
argila). Ao longo das eras de evolução da humanidade, o armazenamento e 
o processamento de dados sempre foi uma maneira encontrada pelo homem 
para controlar o meio à sua volta.
As primeiras inscrições – as pinturas rupestres pré-históricas – eram 
desenhos que reproduziam, de forma simplificada, conceitos ou cenas 
vividas. O ábaco, instrumento composto por bolinhas que deslizam em 
arames paralelos, servia para fazer cálculos rudimentares e é tão antigo 
– 9 –
História dos computadores 
que há muita divergência sobre sua origem: Babilônia ou Mesopotâmia 
mais ou menos 3.000 anos antes de Cristo, Egito em 500 a.C. ou China 
no século II, já em uma versão mais próxima do que conhecemos hoje, 
popularizado pelo soroban japonês, até hoje utilizado. A história é fértil 
em exemplos de ferramentas que foram desenvolvidas para registrar e 
lidar com dados, até chegar à sofisticação da tecnologia de ponta dos 
computadores atuais.
1.1.2 Dados analógicos e digitais
Analógico vem de “análogo”: é a representação mais parecida possível da 
realidade usando algum meio. Um exemplo de instrumento analógico é o ter-
mômetro de mercúrio, com graduações de temperatura que variam de 32oC a 
50oC, passando por todos os valores entre eles. É uma medição contínua. Se 
houvesse graduações suficientes no termômetro e se nosso olhar tivesse uma 
precisão imensa, poderíamos verificar que a temperaturapassou, por exem-
plo, de 37,6324 para 37,6325.
É o que acontece também com um relógio analógico. Embora nosso 
olhar não alcance, os ponteiros medem o intervalo inteiro entre os segundos, 
“correndo” continuamente entre um segundo e outro e não “saltando” de 
um segundo para o outro como nos relógios digitais. Então, o analógico é 
contínuo e pode ser medido em infinitas partes. É, portanto, bastante exato e 
reproduz a realidade como ela é.
No entanto, essa representação exata sofre perdas com o tempo. Um sinal 
de rádio analógico, por exemplo, sofre interferência e ruído quanto maior for 
a distância de transmissão. Uma música gravada em fita cassete ou LP tende 
a perder qualidade com o tempo, por causa do desgaste do meio mecânico 
em que foi gravada.
Já o digital representa alguma coisa em intervalos pré-definidos, através de 
uma escala (dígitos). Um termômetro digital também varia de 32ºC a 50ºC, 
mas exibindo apenas os valores da graduação pré-definida. Se a graduação 
for de 1ºC, por exemplo, o termômetro mostraria que a temperatura subiu 
de 36ºC para 37ºC. Ou seja, a temperatura “salta” de um grau para o outro, 
como se não houvesse nenhum valor intermediário. No termômetro analógico 
vemos a temperatura ir subindo continuamente de um grau para outro.
– 10 –
Fundamentos da Informática
O sinal digital é a representação aproximada de algo, mas não se modi-
fica com o tempo nem com a distância. Por exemplo, você pode passar para 
o seu computador as músicas que baixou de um CD, depois copiá-las em um 
pen drive, colocar em outro computador e transmitir pela internet para um 
amigo que mora do outro lado do mundo, que a qualidade não vai se perder. 
Ele vai ter a música exatamente igual à sua.
O sinal analógico é um sinal que varia no tempo, o digital não. O 
analógico pode assumir qualquer valor entre dois limites, o digital apenas 
dois, 0 ou 1 (zero ou um) – que é a linguagem dos computadores.
1.1.3 O que concluir sobre dados analógicos e digitais?
A informação analógica é infinitamente mais rica e detalhada do que 
a digital. Porém, um dado ou informação digital, embora limitado, tem a 
precisão necessária para alcançar um objetivo. Em outras palavras, mesmo 
que não tenha tantas possibilidades, variações e subdivisões quanto o 
analógico, o dado digital é suficiente para atender as nossas necessidades. 
Por exemplo, fotos, vídeos, músicas e textos armazenados em formato digital 
nos computadores modernos são perfeitamente aceitáveis, porque qualquer 
imprecisão ou falha torna-se imperceptível para os usuários.
1.2 A evolução da tecnologia – como
nasceram os computadores
Facilitar a execução de tarefas complexas ou repetitivas. Essa foi a 
principal motivação de inventores e estudiosos, ao longo dos séculos, para 
criar máquinas que permitissem armazenar dados e fazer cálculos. A linha do 
tempo dessas invenções acompanha o desenvolvimento científico, cultural e 
tecnológico da humanidade.
Um dos primeiros instrumentos de cálculo de que se tem notícia é o 
ábaco, inventado pelos babilônios 3.000 anos antes de Cristo. No entanto, 
embora os homens já soubessem, naquela época, escrever números e símbolos, 
os cálculos matemáticos dificilmente eram registrados. Assim, não se poderia 
guardar uma equação do segundo grau, por exemplo, nem se discretizar 
alguma teoria, ou seja, dividir um todo em partes individuais de menor 
– 11 –
História dos computadores 
complexidade e, assim, facilitar os cálculos. Mas, com a ajuda dos hindus, 
que criaram o zero escrito, isso se tornou possível.
1.2.1 História da computação – uma linha do tempo
1.2.1.1 A era mecânica
 2 2000 a.C. – O ábaco chinês é a primeira ferramenta de cálculo 
de que se tem notícia. É uma calculadora primitiva, composta 
por varetas e anéis de madeira, representando unidades, dezenas 
e centenas. Os chineses não sabiam que estavam fornecendo uma 
grande ajuda teórica na organização dos computadores. O ábaco 
é muito popular e até hoje ainda é usado, principalmente em 
países orientais.
 2 1614 – O matemático e teólogo escocês John Napier define os loga-
ritmos e populariza o uso do ponto decimal, trazendo grande auxí-
lio para a execução de operações aritméticas como multiplicações e 
divisões longas.
 2 1622 – Por causa da dificuldade de multiplicar números grandes, 
o padre inglês William Oughtred desenvolveu a régua de cál-
culo, a partir da sobreposição de escalas logarítmicas de Napier. 
Largamente utilizada até a década de 70 do século XX, a régua 
de cálculo é considerada precursora das calculadoras eletrônicas, 
pois se baseia também em logaritmos. No entanto, não fornece 
resultados precisos, embora suficientes para os cálculos a que 
se destinava.
 2 1623 – O astrônomo e matemático alemão Wilhelm Schickard 
cria a primeira máquina de calcular, capaz de fazer as quatro 
operações básicas com seis dígitos. Ela servia para fazer cálculos 
de tábuas astronômicas, com uma estrutura mecânica baseada 
em rodas dentadas. Um protótipo desenvolvido por ele se per-
deu durante a Guerra dos Trinta Anos (que ocorreu entre 1618 e 
1648) e os esboços dos desenhos só foram encontrados no século 
XIX, por isso atribuía-se a Blaise Pascal a construção da primeira 
máquina calculadora.
– 12 –
Fundamentos da Informática
 Saiba mais
Pascal é o nome de uma popular linguagem de programação, 
batizada assim em homenagem ao físico e matemático.
 2 1644 – O francês Blaise Pascal (1623-1662) entrou para a história 
como o inventor da primeira calculadora mecânica, batizada por 
ele de La Pascaline. Ele a criou quando tinha apenas 19 anos, para 
ajudar seu pai no cálculo de impostos. A máquina também usava 
uma roda dentada contendo dez dentes, um para cada algarismo 
decimal, e realizava apenas adições e subtrações.
 2 1673 – Gottfried Wilhelm Leibnitz (1646-1716), matemático e 
filósofo, melhorou o projeto da Pascaline, construindo, assim, uma 
máquina capaz de dividir, multiplicar, subtrair, somar e calcular a 
raiz quadrada. Os historiadores confirmam seu pensamento: “Ele 
sonhava que um dia todo o raciocínio pudesse ser substituído pelo 
girar de uma alavanca”.
 2 1801 – Joseph Marie Jacquard (1752-1834) foi um mecânico 
nascido na França que criou uma máquina mecânica de tear (a 
primeira máquina programável, controlada por cartões perfurados) 
capaz de criar bonitos desenhos enredados no próprio tecido. Sua 
invenção fez muito sucesso na França e, em sete anos, milhares de 
teares já estavam em operação no país.
1.2.1.2 A era dos dígitos
Com a Revolução Industrial (1760-1840), surgem novas necessidades 
de realizar tarefas repetitivas e rotineiras de modo mais rápido e eficiente, 
trocando os processos de produção artesanais pela produção por máquinas-
ferramentas. Naqueles anos, muitos estudiosos estavam se dedicando a 
construir máquinas para automação de processos e cálculos complexos.
 2 1820 – Charles Babbage (1792-1871), matemático nascido na 
Inglaterra, projeta a máquina analítica, uma máquina diferencial 
para calcular polinômios. A máquina tinha a capacidade de rece-
– 13 –
História dos computadores 
ber dados, processá-los, armazená-los e exibi-los, com princípios 
parecidos com os dos computadores modernos, e por isso Babbage 
ficou conhecido como o pai do computador. A calculadora que ele 
desenvolveu fazia, além de somas, subtrações e outros cálculos 
básicos, a conversão automática de números de uma base para 
outra (da base binária para a decimal, por exemplo).
 A máquina, cujo desenvolvimento foi financiado por algum tempo 
pelo governo britânico, era puramente mecânica, sendo composta 
por um engenho ou “moinho” central (o equivalente a uma CPU 
moderna), uma memória, engrenagens e alavancas. Utilizava cartões 
perfurados e possuía dispositivos de entrada e saída de dados.
 Seu invento, porém, exigia técnicasbastante caras e, dizem alguns 
historiadores, avançadas demais para a época, o que inviabilizou 
sua construção. O governo britânico acabou por suspender o finan-
ciamento a Babbage e, com isso, a calculadora analítica nunca foi 
construída. Vale a pena ressaltar que as máquinas, até o século XIX, 
funcionavam na base decimal (e hoje funcionam na base binária).
 No final da década de 1980, a máquina de Babbage finalmente foi 
construída pelo Museu de Ciência de Londres, utilizando a tecno-
logia disponível na época do cientista.
 Saiba mais
CPU (Unidade Central de Processamento, na sigla em inglês) 
é o componente do computador que processa os dados. É 
considerado o “cérebro” do computador.
 2 1842 – Ada Byron ou Ada Lovelace (1815-1852), condessa de 
Lovelace, filha do poeta Lord Byron, foi considerada a primeira 
programadora da história, antes mesmo do computador ter sido 
inventado. Ela escreveu várias instruções para serem interpretadas 
pela máquina analítica de Babbage. O Conceito de Subrotina par-
– 14 –
Fundamentos da Informática
tiu dela, que também aprendeu a valorizar os laços de repetições 
(“loop”). Bastava, em algum lugar de um cartão, inserir informações 
para que a leitora de cartões retornasse para outro cartão anterior, 
concretizandos e, assim, o efeito de repetição de uma sequência de 
instruções. Ada também imaginava as vantagens, caso pudesse tra-
balhar com os desvios condicionais (“if ”). Hoje, existe até uma lin-
guagem batizada de Ada, em sua homenagem.
 2 1854 – George Boole (1815-1864) publicou as bases da lógica boo-
leana (em referência a seu próprio nome). Tais bases determinam 
que equações matemáticas algébricas podem expressar os conceitos 
da lógica, em que variáveis (unidades de memória que armazenam 
valores) podem assumir os valores 0 ou 1 (ex: verdadeiro ou falso). 
Graças a essa contribuição de George Boole, os cientistas puderam 
pensar em um computador que fosse utilizável para qualquer fim.
1.2.1.3 Máquinas de computar
Computar é calcular, processar dados para buscar uma solução para 
algum problema, ampliando a noção inicial de apenas fazer contas da 
aritmética básica. Com a necessidade crescente de tratar informações de 
maneira automática, proporcionando resultados mais rápidos, as pesquisas e 
invenções na área de informática prosseguiram a passos largos.
 2 1889 – As ideias de Charles Babbage são mescladas às práticas com 
cartões perfurados (criadas por Jacquard para os teares, em 1801) 
por um estatístico americano preocupado com a demora na conta-
gem da população. Até então, o censo da população norte ameri-
cana levava sete anos para ser concluído. Com sua invenção, Her-
man Hollerith (sim, seu nome é sinônimo dos contracheques para 
pagamento de funcionários) conseguiu reduzir pela metade o tempo 
necessário para tabular os dados da população.
 2 1896 – Com o sucesso de seu invento, Hollerith funda a Tabulating 
Machine Company (companhia de máquinas de tabular).
 2 1904 – A válvula é criada por John A. Fleming. Tal componente é 
composto por um envoltório de vidro que contém dois eletrodos. 
A válvula interrompe ou permite a passagem de corrente elétrica, 
– 15 –
História dos computadores 
dependendo de como a energia passa por dentro dela. Com corrente 
elétrica, podemos dizer que o valor dessa válvula é “um”; sem cor-
rente elétrica, podemos assumir que seu valor é “zero”.
 2 1911 – A empresa de Hollerith se funde a outras três companhias, 
dando origem à Computing Tabulating Recording Co. (CTR).
 2 1924 – A CTR, então com apenas 1.400 funcionários, muda seu 
nome para International Business Machine, hoje mundialmente 
reconhecida pela sigla IBM e com cerca de 400 mil funcionários em 
todo o mundo.
 2 1937 – Allan M. Turing, utilizando-se da álgebra de Boole, da 
tecnologia de entrada e saída via cartões perfurados e da válvula, 
expõe minuciosamente uma máquina computacional de propósito 
múltiplo. Foi uma iniciativa pioneira no sentido de permitir que 
o próprio usuário (e não o fabricante) definisse que cálculos ou 
operações a máquina iria realizar – o que tem tudo a ver com o 
conceito de programação que temos hoje.
1.3 Gerações de computadores
Quatro marcos na evolução dos computadores permitem agrupar os 
principais acontecimentos nessa história e entender os eventos que represen-
taram um salto tecnológico.
1.3.1 Primeira geração: válvula (1945-1955)
 2 1943-1946 – John Presper Eckert (1919-1995) e John Mauchly 
(1907-1980), ambos engenheiros, projetaram o ENIAC – Eletronic 
Numerical Integrator And Computer (computador integrador 
numérico eletrônico). Foi o primeiro computador eletrônico de uso 
geral, capaz de ser reprogramado para diferentes tarefas. Com 18 
mil válvulas e 1.500 relés, pesava 30 toneladas, consumia 150Kw de 
energia e ocupava 167m2. Por seu poder computacional – conseguia 
realizar cerca de 5.000 operações de soma ou subtração por 
segundo – e pela possibilidade de reprogramação, atiçou cientistas e 
industriais. O ENIAC foi projetado para fazer cálculos de balística 
– 16 –
Fundamentos da Informática
durante a Segunda Guerra Mundial, mas só foi anunciado ao 
mercado em 1946, após o término do conflito.
Para programar o ENIAC, era preciso ajustar manualmente 6 
mil interruptores e conectar uma imensa quantidade de soquetes. 
Andrew Tanenbaum (Tanenbaum, 2007) compara-o a “uma ver-
dadeira floresta de cabos e jumpers.” Jumper é uma ligação móvel 
entre dois pontos de um circuito eletrônico, que serve para ligar ou 
desligar o fluxo elétrico. Programar em painéis elétricos realmente 
era difícil, lento, tedioso e mecânico.
 2 1945 - A partir dessas dificuldades, o matemático John Von Neu-
mann, que também participara da concepção do ENIAC, propôs 
um modelo conhecido como Máquina de Von Neumann. Até hoje, 
os computadores ainda usam como base a arquitetura de funciona-
mento proposta por ele. Esse modelo divide um computador em 
cinco componentes principais: a memória, a unidade de controle, 
a unidade de lógica e aritmética e dispositivos para entrada e saída 
de dados.
A memória armazena dados e instruções de programas. A unidade 
de lógica e aritmética e a unidade de controle formavam, juntas, o 
“cérebro” do computador – hoje combinadas em um único chip 
chamado CPU (Central Processing Unit, ou Unidade de Proces-
samento Central). A CPU busca instruções e dados na memória, 
executa as instruções e então armazena os resultados de volta na 
memória. Os dispositivos de entrada (teclado, mouse, microfone) e 
dispositivos de saída (monitor, altofalantes, impressora) permitem 
que o usuário interaja com a máquina, fornecendo dados e visuali-
zando facilmente os resultados.
1.3.2 Segunda geração: transistores (1955 - 1965)
Os transistores, inventados em 1948 por Willian Shockley, Walter Brattain 
e John Bardeen, substituíram as válvulas e renderam a seus criadores o Prêmio 
Nobel de Física de 1956. A válvula sempre foi uma grande consumidora de 
energia elétrica. O transistor é muito mais rápido e barato que a válvula, 
além de consumir bem menos energia elétrica e ser mais durável. Os Estados 
– 17 –
História dos computadores 
Unidos conseguiram, por exemplo, com o uso de transistor, sair à frente da 
antiga União Soviética na corrida espacial.
 2 1963 – O teclado aparece comercialmente como um dispositivo 
para entrada de dados no equipamento de telex ASR-33, que arma-
zenava os dados em cartões perfurados.
 2 1963 – O monitor de vídeo, o mais relevante periférico de saída, 
começa a ser usado. Antes dele, os resultados do processamento de 
dados podiam ser visualizados somente se impressos em papel.
 2 1964 – Surge o mouse, apresentado por Douglas Engelbart como um 
periférico para inserção de dados. Antes dele, a entrada só poderia ser 
feita por meio do teclado e dos tradicionais cartõesperfurados.
Ainda em 1964, John Kemeny cria a linguagem BASIC que, naquele 
momento, servia como um software que intermediava a relação entre 
a linguagem de programação e o hardware. Esse papel muito se asse-
melha ao desempenhado hoje pelo sistema operacional (popular-
mente representado pelo Microsoft Windows ou GNU/Linux).
1.3.3 Terceira geração: circuitos 
integrados (1965-1980)
O circuito integrado foi inventado em 1958 pelo físico norte americano 
Robert Noyce, depois co-fundador da Intel. Ele não substitui os transistores, 
porém – ele os reúne e compacta. O circuito integrado é um conglomerado 
de dezenas ou centenas de transistores, em um diminuto dispositivo de silí-
cio, o chip.
Nessa fase, verifica-se o fenômeno da miniaturização dos computa-
dores. Com o CI (circuito integrado), tornou-se possível a construção de 
computadores menores, mais rápidos e mais baratos do que os da gera-
ção anterior (já com transistores). A mudança foi drástica: computadores 
que tinham o tamanho de salas foram reduzidos ao tamanho de geladeiras. 
Ainda eram grandes, se comparados com os de hoje, mas já provocaram 
impacto significativo na época.
 2 1967 – A primeira calculadora digital, precursora das calculadoras 
– 18 –
Fundamentos da Informática
de bolso de hoje, é apresentada pela empresa Texas Instruments. 
A máquina realizava as quatro operações básicas: soma, subtração, 
multiplicação e divisão.
 2 1968 – A empresa Intel (hoje, a maior fabricante de microprocessa-
dores do mundo) é criada por Robert Noyce, Andy Groove e Gor-
don Moore.
 2 1969 – Nasce a rede Arpanet, por meio da interligação de quatro 
universidades, pelo Departamento de Defesa dos Estados Unidos. A 
Arpanet é a precursora da World Wide Web (WWW) – rede mun-
dial de computadores ou, simplesmente, a internet.
 2 1970 – O sistema operacional (SO) UNIX é desenvolvido por Ken 
Thompson e Dennis Ritchie. O UNIX foi o primeiro SO portável, 
podendo funcionar em diferentes tipos de computadores. O sistema 
operacional GNU/Linux de hoje é um UNIX.
1.3.4 Quarta geração: integração em escala
muito grande (1973-[1980-?])
Na terceira geração, centenas de transistores foram agrupados em um 
único chip. Agora, na quarta geração, o princípio do circuito integrado é o 
mesmo, mas o que muda é a escala. Centenas de milhares e até milhões de 
transistores são agora compactados em um chip ainda menor (batizado de 
microchip). Esse nível altíssimo de miniaturização é conhecido como VLSI 
(Very Large Scale Integration, ou integração em escala muito grande).
O microchip permite a construção dos microcomputadores, que passam 
a ter o tamanho de cadernos (notebooks) e ainda menores.
 2 1973 – O termo PC (personal computer, ou computador pessoal) é 
utilizado pela primeira vez quando a Xerox lança um computador 
batizado de Alto, para uso pessoal. Esse PC já exibia características 
dos computadores do século XXI: o conceito de “desktop” (mesa de 
trabalho), uso de mouse e interface gráfica, ainda que simples.
 2 1975 – Chega ao mercado o Altair 8800, cujos diferenciais eram caber 
sobre uma mesa e ser muito mais rápido que os anteriores. Ainda 
– 19 –
História dos computadores 
adolescente, o jovem programador Bill Gates adapta a linguagem 
BASIC para rodar no Altair e em outros microcomputadores.
 2 1975 – Bill Gates, com apenas 20 anos, e Paul Allen, com 22, 
fundam a Microsoft.
 2 1976 – Steve Jobs e Stephen Wozniak fundam a Apple. Conhecido 
pelo lado artístico apurado, Jobs achava que um computador 
precisava representar de maneira gráfica o que a máquina estava 
fazendo, ao invés de apenas uma sequência de botões e luzes que 
acendiam e apagavam. Ele então lança o Apple 1, considerado o 
primeiro computador a vir já montado, ao qual bastava acrescentar 
um monitor no qual era possível acompanhar as ações.
 2 1977 – O Apple 2, o Atari 500 e o Commodore 64 são lançados 
respectivamente pelas empresas Apple, Atari e Commodore. O 
Apple 2 foi consagrado como o primeiro sucesso de mercado 
na área de computação pessoal, pois já incluía monitor, teclado, 
placa de som e capacidade de ler dados a partir de um disquete 
de 5” ¼ .
 2 1980 – A arquitetura RISC (Reduced Instruction Set Computing, ou 
conjunto reduzido de instruções) passa a ser adotada em substituição 
a instruções complexas e difíceis, conhecidas como CISC. (Os 
detalhes e diferenças entres esses dois tipos de arquitetura serão 
abordados no capítulo 3).
 2 1981 – É lançado o primeiro computador portátil comercialmente 
bem-sucedido, o Osborne1, com 11 quilos.
 2 1981 – O IBMPC é lançado pela IBM, com processador Intel 
8088 e sistema operacional MSDOS, feito pela Microsoft. Esse PC 
surge com desempenho (velocidade e memória) muito superior ao 
dos concorrentes e até hoje é um sucesso de vendas, com número 
expressivo de usuários em todo o mundo.
A arquitetura de seu funcionamento foi aberta pela própria 
IBM, o que resultou em perda de mercado para a empresa mas, 
ao mesmo tempo, uma massiva popularização do padrão IBM. 
A consequência é que há no mundo um número muito maior 
– 20 –
Fundamentos da Informática
de computadores padrão IBM-PC (aberto) do que padrão Apple 
(fechado).
A Microsoft foi extremamente beneficiada com essa popularidade do 
IBM-PC, uma vez que, para cada computador em funcionamento, 
era preciso uma licença do sistema operacional MS-DOS ou, mais 
tarde, do Windows, que surgiu em 1985 mas só começou a ser 
tecnicamente considerado como um sistema operacional a partir da 
versão Windows NT, lançada em julho de 1993.
 2 1982 – A Compaq surge no mercado e apresenta seu primeiro 
produto: um computador portátil totalmente compatível com o 
sistema operacional de seu principal concorrente na época, o IBM-PC.
 2 1984 – A Apple lança o Macintosh, primeiro a usar o mouse 
e possuir a interface (meios pelos quais um computador e seus 
programas se comunicam com o usuário) gráfica como nós 
conhecemos hoje, com pastas, menus e área de trabalho.
 2 1985 – A Microsoft lança o Windows, interface com o usuário 
cujo design e princípios foram inspirados (segundo outras 
opiniões, copiados mesmo) na Apple, depois que Gates e Jobs 
foram parceiros por alguns anos. A partir daí, o sistema operacional 
do Macintosh e o Windows se tornam fortes concorrentes.
 2 1992 – O computador Alpha, revolucionário, de 64 bits, é lançado 
pela Digital Equipment Corporation (DEC), empresa líder nos 
Estados Unidos na fabricação de computadores e softwares entre os 
anos 1960 e 1990. Utilizando arquitetura RISC, tinha uma velocidade 
de processamento muito superior a qualquer outro computador 
pessoal da época. No entanto, esses computadores RISC de 64 bits 
só começaram a fazer sucesso no mercado dez anos depois, atuando 
principalmente como servidores de alto desempenho.
1.4 O século XXI: Novos conceitos para 
novos cenários
Depois de duas ondas tecnológicas (chamadas de plataformas no mundo 
– 21 –
História dos computadores 
da tecnologia) – a primeira quando a computação migrou dos centros de 
pesquisa acadêmica para o mundo corporativo e grandes corporações passa-
ram a ter mais frames (servidores centrais, computadores que centralizavam 
serviços a uma rede) para gerenciar seus processos de automação; a segunda 
quando houve a popularização do computador pessoal e o uso corriqueiro 
da internet – vivemos, a partir da segunda década do século XXI, a chamada 
Terceira Plataforma.
Quatro elementos marcam a Terceira Plataforma: mobile, cloud, big data 
e social. Juntos, eles provocaram, e a cada dia ainda provocam, uma revolução 
na maneira como interagimos com o mundo e buscamos informação, lazer, 
educação e entretenimento; estabelecemos relacionamentos pessoais e pro-
fissionais; criamos hábitos de consumo; gerenciamos processos de trabalho; 
vivemos nosso dia a dia. Epor que cada um dos quatro aspectos é relevante?
 2 Mobile – O que se chama de mobile são os dispositivos móveis 
pessoais que permitem acesso à internet, como smartphones 
(celulares inteligentes) e tablets (computador portátil de tela sensível 
ao toque). Dados compilados pela Teleco em 2013 revelam que 
existem cerca de 7 bilhões de celulares em uso no mundo.
O segundo trimestre de 2013 foi um marcante ponto de virada: 
pela primeira vez, foram vendidos mais smartphones do que celulares 
comuns em todo o mundo, uma prova de que as pessoas estão cada 
vez mais interessadas em estar conectadas via internet. As vendas de 
smartphones entre abril e junho de 2013 foram 46% maiores do 
que no mesmo período do ano anterior, chegando a 225 milhões 
de unidades, e representaram 52% do total de celulares vendidos no 
período, segundo a Gartner. No Brasil, de acordo com o International 
Data Corporation (IDC), o fenômeno se repetiu na mesma época.
Essa “virada” não tem volta e a adoção dos smartphones só tende a 
crescer, dada a variedade de modelos e a redução dos custos. O ano 
de 2013 se encerrou com a expressiva venda de 1,004 bilhão de smar-
tphones em todo o mundo,o equivalente a 55% de todos os celulares 
vendidos naquele ano, diz o IDC.
Isso teve grande efeito no mercado de aplicativos para dispositivos 
móveis. Aplicativos são programas específicos para atender 
– 22 –
Fundamentos da Informática
determinadas demandas em computadores, e tornaram-se mais 
populares em plataformas mobile como smartphones e tablets. 
São úteis para diferentes propósitos – de um site de banco a um 
jogo para crianças, de busca de táxi a tratamento de fotografias, 
de geolocalização a receitas gastronômicas. A consultoria Gartner 
avalia que houve, em 2013, cerca de 102 bilhões de downloads 
de aplicativos nas quatro maiores lojas virtuais (as chamadas 
appstores) – AppStore da Apple, Google Play, Windows Phone 
Store e BlackBerry World, que juntas oferecem cerca de 1 milhão 
de aplicativos gratuitos e pagos.
Celulares inteligentes permitem às pessoas pagar contas, pesquisar 
preços e comprar produtos, enviar e receber e-mails, e compartilhar 
conteúdos em redes sociais, tudo em tempo real, onde quer que 
estejam. Com a expansão das redes de dados das empresas de telefonia 
móvel e a disponibilidade de redes sem fio (wi-fi) em locais públicos, 
o acesso a esses serviços tem sido mais amplo.
 2 Cloud computing – Com a quantidade crescente de dados gerados 
por empresas e pessoas, tem sido cada vez mais complicado 
gerenciar computadores pessoais e servidores corporativos para 
guardar um volume tão grande de dados. Além disso, a necessidade 
de acessar esses dados a partir de qualquer equipamento e em 
qualquer lugar (exigências da mobilidade e de novos modelos 
de trabalho, inclusive trabalhar de casa – home office) fez com 
que fosse adotada uma alternativa mais vantajosa do ponto de 
pista operacional e financeiro: o armazenamento de dados “na 
nuvem”, conhecido como cloud computing. A “nuvem” é um 
lugar virtual que “paira sobre nossas cabeças” onde quer que 
estejamos, e que podemos acessar com um clique do mouse, 
desde que tenhamos acesso à internet. Na verdade, são robustos 
computadores/servidores conectados em rede (pela internet) e 
espalhados em vários locais do mundo. Os investimentos das 
empresas nesse tipo de solução tem sido crescente, segundo 
levantamento do International Data Corporation (IDC).
 2 Big data – De que serve uma quantidade imensa de dados se o 
aproveitamento deles é deficiente? O conceito de big data pressupõe 
– 23 –
História dos computadores 
uma interpretação detalhada de dados a fim de, por exemplo, 
personalizar a oferta de produtos e serviços de acordo com o perfil 
do usuário, visando à satisfação do cliente e ao aumento das vendas. 
Nessa esteira surgiram, por exemplo, a gigante Amazon (venda 
online de livros, eletrônicos e outros produtos) e o portal de reservas 
de hotéis Booking.com, capazes de sugerir opções com base em 
pesquisas prévias feitas pelo usuário. A rede LinkedIn, que promove 
relações profissionais (networking), também usa big data para, com 
base nos dados que o usuário forneceu, identificar pessoas afins para 
compor sua rede profissional.
Como base comum a todas essas empresas, estão novas soluções 
para o processamento de grandes volumes de dados em alta velo-
cidade e arquiteturas que privilegiam agilidade e padronização no 
acesso aos dados.
Essa detecção de padrões, conhecida como mineração de dados 
(data mining), permite, por exemplo, traçar hábitos de compra dos 
clientes e prever tendências de consumo, subsidiando a tomada de 
decisões estratégicas para o negócio. Parte importante desse processo 
é a aprendizagem de máquina, ou seja, programar o computador 
para que ele seja capaz de identificar quais dados se transformam em 
um padrão de comportamento.
 2 Social – O ser humano é um ser social. “Estar conectado” é palavra 
de ordem no século XXI e as novas tecnologias estão muito voltadas 
a essa demanda. Não à toa, cursos na área de informática passaram 
a incluir o tema Computação Social, uma mescla de comunicação, 
sociologia, tecnologia da informação, economia e inteligência artifi-
cial, entre outras, a fim de estudar o novo cenário.
As mídias sociais mudaram a maneira como as pessoas interagem, 
compartilham, cooperam no trabalho, buscam entretenimento e 
definem seus hábitos de consumo. As empresas entenderam que os 
consumidores desejam muito mais do que apenas comprar; a busca 
pela “experiência do usuário” e por uma relação mais humanizada 
entre marcas e pessoas alterou o posicionamento mercadológico 
de empresas de diversos segmentos, mesmo no B2B (business-to-
– 24 –
Fundamentos da Informática
business, empresa para empresa).
Outro ponto que marca o chamado social business é a ligação das 
empresas com questões mais humanas e menos comerciais, tais 
como participação em questões sociais, proteção ao meio ambiente, 
produtos sustentáveis e uma postura não-poluente de modo geral, 
mais preocupada com o bem estar do ser humano.
Dois fenômenos comprovam a nova realidade. No ambiente de 
trabalho, há uma valorização da cooperação para desenvolvimento 
de soluções e novos produtos, principalmente por meio do open 
source – a busca por ideias colaborativas para resolver problemas que 
afetam muitas pessoas, sem altos custos para apenas uma empresa 
ou indivíduo.
A explosão das redes sociais é o outro fator que impactou 
enormemente as relações. Inicialmente voltadas ao entretenimento 
e à conexão entre as pessoas, as redes passaram a ter um papel 
importante também para estreitar o relacionamento entre marcas 
e consumidores, entre empresas e parceiros ou fornecedores, entre 
artistas e escritores e seu público. Ou seja, passaram a ter um viés 
também de marketing. Em comum, todas trouxeram nova dimensão 
ao conceito de “estar conectado”.
As redes que experimentaram maior popularidade ao redor do 
mundo são Facebook (compartilhamento de conteúdos e fotos 
para uma rede de amigos reais ou virtuais), Twitter (microblogging 
com notícias e mensagens de até 140 caracteres), Instagram (fotos), 
Google+ (semelhante ao Facebook, com conteúdos variados), You 
Tube (vídeos) e Pinterest (fotos e imagens sobre temas específicos), 
todas elas com centenas de milhões de usuários, com exceção do 
Facebook, que em janeiro de 2014 contava com 1,2 bilhão de 
usuários. Essas e outras centenas de redes se alternam nos rankings de 
“rede que mais cresce” e sempre há espaço para mais uma novidade, 
uma nova rede social que atrai a atenção em dado momento. É 
importante ressaltar que não bastam dados quantitativos – ao longo 
do tempo, essas redes veem o perfil de seus usuários se alterar, 
especialmente pela faixa etária.
– 25 –
História dos computadores 
Por fim,um elemento importante na Terceira Plataforma é a conver-
gência de dados, com a possibilidade de acessar dados, voz e vídeo em um 
só dispositivo, seja ele um celular, tablet, notebook ou desktop (computador 
de mesa). Para isso, os programadores desenvolveram o chamado design res-
ponsivo – com isso, é possível identificar de qual tipo de aparelho o usuário 
está se conectando e automaticamente adaptar o visual de um site para as 
dimensões da tela.
O maior impacto da Terceira Plataforma na humanidade vai muito além 
de uma renovação tecnológica, provocando uma significativa mudança cultu-
ral. Fazer coisas antigas de um jeito novo, fazer novas coisas, e agregar veloci-
dade e conteúdo estão por trás dessa mudança.
Conclusão
A história da computação remonta a 3.000 anos antes de Cristo, quando 
os babilônios criaram o ábaco para fazer contas, passa pela invenção da 
primeira calculadora, em 1623, e recebe uma longa lista de contribuições 
de astrônomos, físicos, matemáticos e engenheiros ao longo dos séculos, até 
chegar ao microchip, base da tecnologia implantada nos computadores do 
século XXI.
Ao conhecer a história dos computadores, nos damos conta de como 
tantos cientistas, culturas e indústrias diferentes trabalharam com afinco para 
se livrar da tediosa tarefa de fazer cálculos e operações repetitivas manualmente, 
mudando completamente o modo de ser e pensar da humanidade.
As quatro gerações de computadores – válvula, transistor, circuitos 
integrados e integração em larga escala com microchips – foram marcadas por 
grandes invenções que revolucionaram a tecnologia então em uso e ampliaram 
o conhecimento sobre como as coisas funcionam. Por exemplo, um dos 
conceitos mais importantes para os profissionais da área de informática é 
entender a diferença entre dados analógicos e digitais.
A partir do momento em que a tecnologia migrou dos centros acadêmi-
cos para o mundo corporativo, o cenário mudou de forma acelerada. De lá 
para cá, três grandes ondas tecnológicas, chamadas de plataformas, marcam a 
história. A primeira plataforma é quando os mainframes, volumosos e pesados 
– 26 –
Fundamentos da Informática
servidores, passaram a ser adotados por grandes corporações na automatiza-
ção de seus processos. A segunda plataforma aparece com a popularização dos 
computadores pessoais e a disseminação da internet. E a terceira plataforma 
é a revolução na maneira como interagimos com o mundo (educação, entre-
tenimento, consumo, informação, relacionamentos pessoais e profissionais, 
processos de trabalho, lazer), por causa de tecnologias apoiadas em quatro 
elementos: mobile, cloudcomputing, big data e redes sociais.
Compreender a evolução da computação, até chegar aos incríveis 
avanços conceituais, técnicos e científicos que tornam possível a existência 
de sofisticados computadores hoje, nos ajuda a pensar em novos usos e 
buscar novas tecnologias que possam contribuir para facilitar o trabalho e 
a vida das pessoas.
Desde sua concepção e para cálculos balísticos e transmissões 
de dados sigilosos de estratégias bélicas, ainda em suas primeiras 
gerações, o computador chegou à esfera civil, sendo empregado ini-
cialmente nos diversos controles administrativos das empresas e, com 
a popularização e consequente redução de preço de revenda, atin-
giu, também, os lares das pessoas. Sendo “computador” um termo 
atrelado aos colossais equipamentos da computação, as máquinas 
menores em tamanho e capacidade sugeriam novos termos, como 
minicomputador e, posteriormente, microcomputador, ou simples-
mente micro. No Brasil, durante décadas, o termo “micro” foi larga-
mente utilizado, porém aos poucos foi abrindo espaço para o mais 
globalizado PC (Personal Computer – Computador Pessoal), que é 
o principal objeto de estudo desta obra.
2
Microcomputador
– 28 –
Fundamentos da Informática
2.1 Computador pessoal
Já conhecemos a sigla CPU, oriunda das gerações iniciais dos compu-
tadores para designar somente o chip responsável pela tomada de decisões 
e cálculos da máquina. Com o passar do tempo, o uso do termo foi sendo 
ampliado e, há alguns anos, é utilizado para se fazer referência ao conjunto de 
peças que compõem o gabinete de um computador pessoal. Ainda que inade-
quado, chamar esse conjunto de peças de unidade central de processamento 
não é totalmente errado, uma vez que as tarefas que são realizadas com o 
auxílio do microcomputador acontecem ali, de fato, mediante entrada e saída 
de dados pelo usuário, por meio de componentes externos de interação, como 
teclado, mouse e monitor.
Sob uma abordagem contemporânea, um computador pessoal típico 
pode ser dividido em dois grandes grupos: CPU (conjunto de componentes 
e placas internos) e periféricos (componentes externos à CPU, de interação 
direta com o usuário).
2.1.1 Componentes internos
Entre os diversos componentes que integram a parte interna de um PC, 
destacam-se: 
 2 processador – responsável pelo cálculo, processamento, tomada de 
decisões e manipulação dos dados em geral;
 2 memória – responsável pelo armazenamento dos dados, sendo 
para uso imediato pelo processador ou para arquivamento;
 2 placa mãe – integra os componentes internos do computador e as 
placas controladoras;
 2 placas controladoras – responsáveis pela comunicação dos 
componentes básicos do computador com o exterior – vídeo, som, 
rede e tantos outros periféricos.
2.1.2 Componentes externos
Os componentes externos, denominados periféricos, são responsáveis 
pela interação direta com o humano. A diversidade desses componentes está 
– 29 –
Microcomputador
diretamente relacionada à evolução do uso do equipamento. Se, no princípio, 
os computadores eram utilizados para cálculos e dados textuais, ao chegar 
ao cotidiano do consumidor final, o leque de possibilidades aumentou 
significativamente. Dos processadores de texto aos editores gráficos, ainda 
nos antigos monitores de fósforo verde, às emissões dos alertas sonoros, tudo 
se resumia a: gabinete, monitor e teclado. O potencial gráfico aumentou e 
popularizou a impressora e o scanner; produzir elementos gráficos com o 
teclado ficou difícil, então, surgiu o mouse. O som passou a ser polifônico e 
as aplicações multimídia exigiram placas com caixas de som. A revolução da 
internet e o aumento da velocidade de conexão permitiram uma comunicação 
que extrapolava as teclas: webcam e microfone passaram a permitir conversas 
por vídeo. Milhares de equipamentos surgindo não um após o outro, mas 
vários paralelamente, para ampliar o uso da máquina. Em cada situação, 
para cada uso específico do computador, haverá um hardware periférico 
para atender à necessidade. Cada um desses componentes será detalhado em 
capítulos posteriores desta obra, a fim de consolidar o entendimento daqueles 
que são os principais responsáveis pela realização de tarefas tão diversas. A 
figura 1 a seguir apresenta um computador pessoal em configuração típica 
com alguns desses elementos.
Figura 1 – Computador pessoal contemporâneo
S
hu
tt
er
st
oc
k.
co
m
/P
ok
om
ed
a
– 30 –
Fundamentos da Informática
2.1.3 Software
Ao se estudar hardware é comum surgir uma analogia direta com a 
palavra “software”, que é empregada para se fazer referência aos programas 
que são executados pelo computador. Essa analogia é mais do que justa, 
pois um computador só é útil se for utilizado para realizar uma determinada 
tarefa, e isso só é possível por meio das instruções de software. Em 
contrapartida, um aplicativo é desenvolvido exclusivamente para comandar 
o funcionamento do hardware. Simples assim: um não existe sem o outro. O 
software que garante o funcionamento básico de um computador é o sistema 
operacional, e para se realizar uma tarefa específica, como a edição de um 
texto, utiliza-se um aplicativo. 
 Da teoriapra a prática
Pesquise as tendências de computadores pessoais, nos últimos 
cinco a dez anos, e elabore um texto com a proposta de prever 
como será o PC dos próximos dez anos, em termos de compo-
nentes, periféricos e software.
Conclusão
Na área da computação, assim como em diversas outras disciplinas das 
ciências exatas, a descoberta de novos componentes e o desenvolvimento 
de novos métodos abrem possibilidades que vão além de uma simples 
evolução. No caso específico dos computadores, houve uma evolução (ou 
revolução) de antigas máquinas de calcular. As gerações estão intimamente 
ligadas às descobertas ou ao desenvolvimento de novos componentes, e a 
obsolescência é algo espantoso: o que ontem era inovador e caro, hoje não 
passa de lixo tecnológico.
Saindo dos laboratórios acadêmicos e do universo bélico para os lares 
do cidadão comum, os computadores passaram por diversas adequações. 
A grande variedade de atividades que fazem parte da rotina de uma pessoa 
carece de equipamentos que vão além de um teclado e de um monitor. A 
– 31 –
Microcomputador
criação de novos periféricos, pensando em possibilidades de uso, e a supressão 
de outros, que deixam de ter importância por mudanças de comportamento e 
cultura, são elementos constantes no universo dos microcomputadores.
3
Componentes básicos 
do computador
A história dos computadores nos mostra que muitas das coi-
sas criadas no passado continuam tendo sua importância nos dias 
atuais. Um dos maiores exemplos é a arquitetura dos computadores 
do século XXI, que até hoje tomam por base a Máquina de Von 
Neumann, criada pelo matemático John von Neumann em 1945. 
Esse modelo inclui uma Unidade Central de Processamento/CPU 
(formada por uma unidade lógica aritmética e uma unidade de con-
trole), memória e dispositivos de entrada e saída de dados.
Os computadores atuais seguem o mesmo princípio de com-
posição. A única diferença em relação ao modelo de von Neumann 
é que hoje o processador (a CPU) reúne em um único microchip as 
unidades de controle e de lógica e aritmética.
Andrew Tanenbaum (Tanenbaum, 2007) afirma que “um 
computador digital consiste em um sistema interconectado de pro-
cessadores, memórias e dispositivos de entrada/saída.
– 34 –
Fundamentos da Informática
A CPU, a memória e a placa-mãe são os componentes principais. Em 
poucas palavras, a memória tem a função de armazenar os dados. A CPU, 
conectada à memória por slots, é responsável por buscar os dados, processá-
los e depois enviá-los de volta à memória. E a placa-mãe é o canal de 
comunicação que interliga todos os componentes do computador e permite 
que eles “conversem” entre si.
3.1 Periféricos (dispositivos de entrada/saída)
Periféricos “são os dispositivos usados para fazer a entrada e a saída dos 
dados que serão processados”, segundo Cruz (Cruz, 1997). Em outras palavras, 
os periféricos são os componentes que permitem ao usuário interagir com a 
máquina, fornecendo-lhe instruções para a execução de determinada tarefa e 
permitindo a visualização e compreensão do resultado dessas tarefas. Assim, 
por exemplo, o teclado e o mouse servem para inserir dados (periféricos de 
entrada), que são processados pelo computador e “traduzidos” para que o 
usuário veja o resultado, por exemplo na tela do monitor ou no papel que sai 
da impressora (periféricos de saída).
Pode-se considerar, portanto, que o termo “periférico” pode ser aplicado 
a qualquer equipamento acessório que seja conectado ao computador, com 
uma função definida.
3.1.1 Tipos de periféricos
Existem três tipos de periféricos, que variam conforme sua função e 
forma de utilização. São eles: os periféricos de entrada, os de saída e os de entrada 
e saída.
a. Periféricos de entrada (input): é responsável pela tradução dos 
códigos utilizados pelos equipamentos em códigos compreensíveis 
pelo computador. Ou seja, tudo o que alguém utiliza para 
fornecer informações ao computador para que este execute 
alguma tarefa. Entre esses periféricos, estão teclado, mouse, 
microfone, leitor de código de barras, webcam, identificador 
digital, scanner de mão, leitor de CD/DVD, mesa digitalizadora, 
joystick e gamepad, entre outros.
– 35 –
Componentes básicos do computador
b. Periféricos de saída (output): é responsável pela “tradução” dos 
códigos e dados processados pelo computador para que o operador 
consiga visualizá-los e compreendêlos. Monitor de vídeo, impressora 
e caixas de som são alguns exemplos.
c. Periféricos de entrada e saída (input/output): servem tanto para 
fornecer dados ao computador quanto para recebê-los. Entre esses 
periféricos, estão modem, multifuncionais (scanner, copiadora), 
monitor touchscreen e dispositivos de imagem.
3.2 Memória principal – RAM 
O termo RAM, do inglês Random Access Memory (Memória de Acesso 
Aleatório), referese à memória de trabalho com a qual o processador se comu-
nica. O termo aleatório quer dizer que a memória poderá ser acessada para 
operações de gravação e leitura, em qualquer posição. Existem milhares de 
posições de memória que dependem da capacidade do pente de memória 
instalado em sua placa-mãe.
Para facilitar a compreensão, podemos comparar uma posição de memória 
em um pente a um apartamento em um prédio. Cada apartamento pode ter 
apenas um morador (em termos técnicos, um caractere, por exemplo, a letra “A”). 
O processador poderá, então, dependendo do programa que está 
executando, inserir um caractere em uma posição de memória (colocar 
um morador em um apartamento), retirar um caractere de uma posição, 
substituir um caractere por outro na mesma posição, copiar um caractere de 
uma posição de memória para outra. Tudo isso tem que ser feito de maneira 
muito rápida, uma vez que os computadores realizam milhões de acessos à 
memória enquanto estão executando alguma operação.
Um exemplo didático do que a memória do computador é capaz de fazer 
seria a sequência abaixo:
1. O processador insere o número 1 na posição de memória 002.
2. O processador insere o número 2 na posição de memória 003.
3. O processador lê o número contido na posição de memória 002.
– 36 –
Fundamentos da Informática
4. O processador lê o número contido na posição de memória 003.
5. O processador soma os números lidos e armazena o resultado na 
posição de memória 101.
6. O processador insere o número 3 na posição de memória 003.
Qual o resultado da soma armazenado na posição de memória 101? 
Se você respondeu três, acertou. Uma possível resposta, porém errada, seria 
quatro. Acontece que, embora o conteúdo da posição 003 tenha sido alterado 
posteriormente, isso em nada alterou o conteúdo armazenado na posição 
101, que era o resultado da operação (soma) executada.
A memória principal (RAM) não processa. Ela é um repositório de dados, 
acessada pelo processador. Ela também é volátil, ou seja, se você desligar 
o computador, todos os dados contidos nela irão se perder. A propósito, há 
memória que não se perde. Os documentos que digitamos, por exemplo, e ficam 
armazenados, são de outra natureza. Textos e planilhas, sistema operacional e 
outros dados persistentes ficam armazenados em dispositivos de memória de 
massa, como os discos rígidos, conhecidos também como memória secundária.
A memória RAM se comunica com o processador (CPU) por meio da 
placa-mãe, e é a CPU que pode ser considerada o “cérebro” da máquina, sem 
o qual nada seria possível.
3.3 Unidade Central de 
Processamento - UCP ou CPU
A Unidade Central de Processamento é o principal componente do 
computador. Ela é mais conhecida por sua sigla em inglês – CPU (Central 
Processing Unit) – ou simplesmente pelo termo “processador” .
Um computador poderá até sobreviver, conceitualmente, sem memória 
ou mesmo sem uma placa mãe, mas, se não possuir um processador, não 
pode ser consideradocomo um computador propriamente dito. Talvez seja 
outro equipamento como um pendrive, mas nunca um computador. O termo 
computador nos remete ao verbo computar, que quer dizer calcular ou, mais 
especificamente, executar cálculos e operações próprias de um computador. 
– 37 –
Componentes básicos do computador
Ora, se um computador é aquilo que realiza cálculos, logo presumimos que 
ele precisará ter uma espécie de cérebro eletrônico, ou uma cabeça eletrônica, 
que possa pensar ao menos o suficiente para resolver os cálculos para os quais 
foi designado a realizar.
A CPU age, então, como o cérebro do computador. Ela tem a função de 
obter dados ou instruções de algum lugar que, no caso de um computador, é a 
memória de trabalho (memória RAM); de verificar essas instruções; e depois 
executá-las, uma após a outra.
Mas é bom que se desmistifique o processador – ele não é um elemento 
mágico que busca as informações e as processa de forma desconhecida. 
No parágrafo anterior, utilizamos verbos de ação, como obter, verificar 
e executar. Para cada um desses verbos, existem barramentos e circuitos 
elétricos e eletrônicos que desempenham e possibilitam a comunicação entre 
os componentes internos ao próprio processador. Projetar processadores, 
bem como circuitos eletrônicos e componentes para computadores, como 
interfaces de vídeo tridimensionais ou modems para acesso a internet,etc., 
são objetivos de cursos específicos como Engenharia Eletrônica e Engenharia 
da Computação.
Diferentes partes compõem a UCP: Unidade de Controle (UC), Unidade 
Lógica Aritmética (ULA) e registradores, que são pequenas memórias de 
alta velocidade. 
3.3.1 Unidade de Controle – UC
A Unidade de Controle tem a função de obter dados e instruções na 
memória principal, determinando sua tipologia. Ela é a porta de entrada e saída 
que o processador usa para comunicar-se, via sinais elétricos, com a memória 
principal. Por exemplo, se a ULA precisar armazenar o número binário 0012 
na posição de memória 0002, ela solicitará à UC que realize tal procedimento.
3.3.2 Unidade Lógica Aritmética – ULA
A Unidade Lógica Aritmética efetua diversas operações matemáticas, 
como adição e subtração, multiplicação e divisão, e de lógica booleana, como 
o OR (“ou”) booleano. George Boole foi um matemático que definiu, em 
– 38 –
Fundamentos da Informática
1854, os princípios da lógica binária (0 ou 1) seguindo a ideia de que equações 
matemáticas podem expressar os conceitos da lógica (ex: verdadeiro ou falso).
3.3.3 Registradores
Os registradores são pequenas memórias internas dentro do 
processador, que servem para auxiliá-lo durante as operações, armazenando 
temporariamente dados que estão sendo utilizados. Se não fossem os 
registradores, o processador teria muito mais trabalho, pois precisaria 
acessar a memória principal, que está fora dele.
Existem registradores de uso genérico e outros com funções específicas, 
mas ambos são maneiras mais rápidas para acessar informações que estão 
sendo processadas, embora tenham menor capacidade de armazenamento 
que a memória principal.
Exemplos de registradores genéricos são AX e BX, usados para armazenar 
números binários. Um exemplo de registrador específico é o IP (Instruction 
Pointer), que indica o ponto de referência na memória principal (RAM) que 
contém a próxima instrução a ser executada.
3.3.4 Executando uma instrução
A memória principal armazena dados que serão buscados pela UC (unidade 
de controle) da CPU e adicionados nos registradores. Em seguida, a ULA realiza 
operações sobre os dados que estão nos registradores, também armazenando o 
resultado das operações neles. Por fim, UC copia o valor dos registradores para 
dentro de um endereço (posição) de memória principal.
A enumeração a seguir, denominada comumente de ciclo buscar 
decodificar executar, representa uma sequência de pequenas fases que são 
reproduzidas para cada instrução executada pela CPU.
1. Transportar a próxima instrução da memória principal para o registrador.
2. Modificar o ponteiro de instrução (IP), indicando a instrução seguinte.
3. Estabelecer qual é o tipo da instrução transportada.
4. Estabelecer onde a sequência de dados se encontra, caso a instrução 
– 39 –
Componentes básicos do computador
utilize uma sequência de dados na memória principal.
5. Transportar a sequência de dados, se necessário, para algum registra-
dor da CPU.
6. Executar a instrução.
7. Retornar à fase 1 (isso fará com que se execute a próxima instrução, 
contida no registrador IP, alterado pela etapa 2).
Os processadores não são todos iguais. Alguns são capazes de executar 
um conjunto maior de instruções do que outros, como veremos a seguir.
3.3.5 RISC versus CISC
Ao longo da história, a Apple e a Intel sempre disputaram mercado 
com os processadores que projetaram. A Intel, de forma geral, lidera essa 
concorrência, especialmente no que diz respeito aos computadores pessoais, 
tendo tornado seus processadores Pentium e Celeron muito populares.
Existe uma diferença básica entre os dois processadores dessas duas 
companhias: a quantidade de instruções que eles são capazes de realizar. A 
Apple utiliza um conjunto reduzido de instruções (RISC), enquanto a Intel 
utiliza um conjunto complexo de instruções (CISC).
Um processador RISC segue a regra de que, internamente, deverá possuir 
o menor número de microinstruções possível. Por exemplo, ao invés de conter 
uma instrução para multiplicar (x), basta possuir a instrução de somar (+) e deixar 
que o programador que queira multiplicar 5x2 realize a operação 2+2+2+2+2. 
Isso torna a vida do programador mais difícil, pois terá de codificar instruções 
complexas para alcançar seu objetivo. O programa resultante, porém, ao ser 
executado, será feito em alta velocidade pelo processador RISC.
Um processador CISC segue a regra de que, internamente, deverá possuir 
vários conjuntos de instruções para realizar diversas operações. Isso significa 
que ele possuirá tanto a operação de soma (+), quanto a de multiplicação (x). 
Isso facilita a vida do programador, que terá à sua disposição um leque de 
instruções prontas de fábrica a fim de alcançar seus objetivos.
Não há como definir qual o melhor dos processadores. Alguns autores 
– 40 –
Fundamentos da Informática
defendem o RISC como sendo o mais performático e “puro” dos processa-
dores; outros defendem que a complexidade trazida pelo CISC facilita a vida 
dos desenvolvedores. De fato os processadores RISC costumam ser mais rápi-
dos que os processadores CISC. Mais rápido nem sempre significa melhor. Os 
computadores da Apple (Power PC, Imac) não são tão populares no Brasil, mas 
sim nos EUA. São preferidos quando o assunto é, por exemplo, processamento 
de vídeo, som e gráfico, realizado por empresas de jogos eletrônicos, maquetes 
virtuais, etc.
Mesmo assim, o processador Intel é o mais popular por seguir uma regra de 
retrocompatibilidade com programas construídos para outros processadores da 
mesma marca, mesmo que ultrapassados. Isso significa que um programa feito 
para um processador Intel 4x86 (antigo) terá grandes chances de ser executado 
em um Pentium IV (novo). Ter a vantagem de retrocompatibilidade coloca a Intel 
em posição comercial privilegiada, uma vez que os programadores de sistemas e 
aplicativos terão menos trabalho, codificarão uma só vez e verão o seu programa 
funcionar em várias versões futuras da Intel.
Conclusão
O computador digital consiste em um sistema interconectado de proces-
sadores, memórias e dispositivos de entrada/saída, e esse modelo é baseado na 
arquitetura concebida pelo matemático John von Neumann em 1945.
O processador (CPU) é considerado o cérebro do computador, respon-
sável por todos os cálculos e operações matemáticas solicitadas pelo usuário 
e seus programas. Existem diferentesarquiteturas de processamento (RISC e 
CISC), que permitem a execução de um número menor ou maior de instru-
ções, mas cada qual com vantagens e desvantagens.
A memória é um componente que tem como função o armazenamento 
temporário de dados, funcionando como um repositório para programas do 
usuário e para o próprio processador.
Os dispositivos que permitem inserir dados (entrada) e visualizar resulta-
dos processados (saída) são chamados de periféricos e possibilitam ao usuário 
interagir com o computador.
4
Hardware interno 
do computador
O processador é o que se pode considerar como “o cérebro 
do computador”. Ele é o responsável pela realização dos cálculos 
e tomada de decisões. Atualmente comercializada na forma de 
um microchip envolto por silício, é essa peça que define o poder 
computacional de um microcomputador e, consequentemente, seu 
custo ao consumidor.
– 42 –
Fundamentos da Informática
4.1 Processadores
Para melhor entender o funcionamento de um processador, é importante 
resgatar o conceito de processamento de dados, que consiste em: trabalhar 
um dado de entrada (input) para gerar uma saída (output). O processador 
recebe dados de entrada e, para criar uma saída, norteia-se por dois princípios 
básicos: tomada de decisão e manipulação/armazenamento desses dados. 
Assim, o processador é o principal responsável pelas ações realizadas pelo 
microcomputador.
Em sua forma física, trata-se de um circuito integrado (microchip), ou 
seja, uma série de componentes eletrônicos interconectados. Esse microchip 
recebe os dados de entrada através de pulsos elétricos enviados aos seus pinos 
de conexão e, por meio de milhares de transistores, realiza as operações que 
lhe são programadas. Veja na figura 1 um processador.
Figura 1: Processador.
S
hu
tt
er
st
oc
k.
co
m
/P
ok
om
ed
a
Os pulsos elétricos consistem nos dados representados por meio do 
sistema binário de numeração e o resultado das operações a eles atribuídas 
depende do fluxo percorrido pela corrente elétrica através das chamadas 
portas lógicas. Cada porta lógica requer, no mínimo, um transistor e, 
combinada a outras, oferece inúmeras possibilidades de manipulação dos 
dados para geração da saída. Três são as portas lógicas básicas: E, OU e NÃO. 
Elas formam a base da tomada de decisões em microcomputadores, por meio 
da álgebra booleana (explicada na seção 4.1.1 deste capítulo).
– 43 –
Hardware interno do computador
4.1.1 Álgebra Booleana
Como já mencionado, a Álgebra Booleana é a base para a tomada de 
decisões em microcomputadores. Proposta pelo matemático inglês George 
Boole, em 1847, ela consiste na redução de proposições a símbolos e opera-
dores formais que obedecem a regras matemáticas.
Uma proposição é uma declarativa afirmativa, da qual tenha sentido 
afirmar que seja verdadeira ou falsa. Considere a proposição: “A porta é 
vermelha”. A partir desta declarativa, pode-se afirmar que ela seja verdadeira 
ou falsa, pois ou a porta é de fato vermelha, ou não é.
Novamente, a representação nos computadores digitais é feita por meio 
de pulsos elétricos: verdadeiro = 1 = presença; falso = 0 = ausência.
Proposições simples são chamadas de átomos que, na álgebra booleana, 
são representados por uma letra do alfabeto latino. A combinação de mais de 
uma proposição é feita através de conectivos lógicos que, no processador, são 
resolvidos através das já mencionadas portas lógicas.
 Sugestão de Leitura
BISPO, C. A. F.; CASTANHEIRA, L. B.; SOUZA FILHO, 
O. M. Introdução à lógica matemática. São Paulo: Cengage 
Learning, 2012.
4.2 Elementos básicos de um 
microprocessador
Como mencionado no início deste capítulo, um microprocessador é 
um circuito que integra vários componentes. Esta seção tem como objetivo 
apresentar esses componentes e suas funções específicas.
4.2.1 Instruções
Se, inicialmente, os computadores eram programados por meio da 
combinação livre de portas lógicas e entrada de dados, processadores mais 
– 44 –
Fundamentos da Informática
modernos vêm pré-programados com conjuntos de instruções conhecidas, ou 
seja, sequências binárias específicas para realização de determinada operação. 
Estas sequências são chamadas de instruções e devem ser respeitadas na criação 
de programas, o que faz com que programas escritos para um determinado 
processador funcionem somente naquele modelo de processador (ou em 
modelos que possuam o mesmo conjunto de instruções). 
4.2.2 Microcódigo, RISC e CISC
Com o intuito de fazer o processador realizar tarefas específicas por 
meio de um conjunto conhecido de instruções, a IBM trouxe para os 
microprocessadores o conceito de microcódigo, que consistia em blocos pré-
programados de conjuntos de instruções para realização destas tarefas.
Em 1974, incentivado pelo grande número de ataques de pesquisadores 
ao uso de microcódigos em processadores, John Cocke fez um estudo e detectou 
que, de um número grande de instruções dadas a um microprocessador, 
dois terços delas eram realizadas utilizando apenas 5% das instruções pré-
programadas. Com base nos resultados, projetou um computador baseado 
neste conjunto reduzido de instruções, conhecido como RISC (Reduced 
Instruction Set Computer – Computador com Conjunto Reduzido de 
Instruções). Diante disso, os computadores que utilizavam microprocessadores 
com microcódigos baseados em conjuntos grandes de instruções passaram a 
ser denominados CISC (Complex Instruction Set Computer – Computador 
com Conjunto Complexo de Instruções).
4.2.3 Memória e registradores
As portas lógicas podem ser combinadas de forma que o processador 
consiga persistir, ou seja, armazenar dados temporariamente. E, para trabalhar 
com esses dados, na realização de uma operação de cálculo, por exemplo, é 
necessário que se saiba onde, e de que forma estão organizados esses dados. 
Esta é a função dos registradores: manipulação de dados.
A quantidade de registradores varia entre processadores, assim 
como seu tamanho. Quando se diz que um processador trabalha com 
64 bits de dados, essa medida refere-se justamente ao tamanho dos seus 
– 45 –
Hardware interno do computador
registradores. Quanto maior o tamanho dos registradores, mais rápido 
será o processador.
4.2.4 Pipelining
Arquiteturas de processamento antigas realizavam operações de uma 
forma simplificada: leitura da instrução da memória, tratamento passo 
a passo e então leitura da próxima instrução. Já o conceito de pipelining 
permite que o microprocessador leia uma instrução e, antes mesmo de 
terminar o seu tratamento passo a passo, realize a leitura da próxima 
instrução. Arquiteturas de microprocessadores atuais aplicam esse conceito, 
aumentando significativamente a velocidade, porém tornando o processo 
complexo e difícil de ser controlado.
4.2.5 Clock
Um processador não realiza qualquer tarefa no momento em que recebe 
estímulo elétrico por meio de seus conectores. Se assim fosse, o processamento 
seria desordenado, gerando resultados inesperados. Aqui entra o conceito de 
clock (relógio): envio de pulsos elétricos regulares ao processador, indicando 
que está na hora do processador realizar a próxima operação. Esses pulsos 
acontecem de acordo com uma frequência específica, medida em hertz, a 
qual define a velocidade de realização das operações. Lembrando: 1 hertz = 
1 ciclo por segundo e, assim como as outras unidades de medida, também 
possui seus múltiplos (kilo, mega, giga, ...). Em analogia, um processador 
que possui clock de 500 MHz (quinhentos mega-hertz) trabalha a uma 
velocidade de quinhentos milhões de ciclos por segundo. Uma operação 
pode demandar mais de um ciclo, o que significa que a frequência não é o 
único fator que define a velocidade de um processador, ainda que seja um 
dos principais fatores.
4.2.6 Unidade de I/O, Unidadede Controle 
e Unidade Lógica/Aritmética
Por se tratar de um componente delicado, mas que trabalha em velocidades 
altíssimas, os sinais elétricos trabalhados internamente no processador possuem 
– 46 –
Fundamentos da Informática
corrente diferente dos componentes externos. Como função mais básica, a 
Unidade de I/O (Input/Output – Entrada/Saída) é responsável pela adequação 
desses sinais, porém as arquiteturas atuais englobam funções de memória cache 
(veja seção 4.5) e outras funções mais complexas.
A conexão do processador com o restante do circuito, através da Uni-
dade de I/O, envolve dois conceitos importantes: barramento de endereços 
e barramento de dados. A quantidade de bits reservada ao barramento de 
endereços define a quantidade de memória que o processador poderá geren-
ciar, enquanto a largura do barramento de dados está relacionada diretamente 
com a quantidade de dados que poderão ser trafegados entre processador e 
memória. Maiores detalhes do funcionamento de barramentos são apresen-
tados na seção 4.4. 
A Unidade de Controle (UC) recebe os dados oriundos da Unidade de 
I/O, formata e os entrega à Unidade Lógica/Aritmética (ULA), respeitando os 
ciclos de clock. Em arquiteturas mais modernas, pela existência de várias ULAs, 
é também a UC que faz o roteamento dos sinais para as outras unidades.
A Unidade Lógica/Aritmética é responsável pela realização dos cálculos 
e tomadas de decisões. Ela recebe os dados através da UC e realiza as operações, 
se necessário modificando os dados dos registradores, para então devolver o 
dado processado/calculado para a Unidade de I/O. É importante destacar 
que existem ULAs diferenciadas para tratamento de cálculos com números 
inteiros e ponto-flutuante. Este último tipo, responsável diretamente por 
cálculos matemáticos mais elaborados (como funções trigonométricas), em 
arquiteturas mais antigas aparecia em um circuito separado, conhecido como 
coprocessador matemático.
Pela terceira vez, a sigla CPU é adequada: neste contexto, o conjunto das 
Unidades de Controle e Lógicas/Aritméticas também é chamado de CPU.
4.3 Histórico e evolução
Uma leitura mais atenciosa sobre a evolução dos computadores permite 
concluir que os processadores são uma evolução e integração de componentes: 
desde a válvula, passando pelos transístores e chegando ao circuito integrado. 
Quando se fala em microprocessador, sua origem é unânime: foi inventado 
– 47 –
Hardware interno do computador
por Ted Hoff. Ainda quando os computadores pessoais não eram uma 
realidade, em 1971, Hoff criou um microprocessador de 4 bits para a Intel, 
que serviria como base para a construção do que estaria por vir: gerações e 
gerações de microprocessadores.
4.3.1 Primeira geração
Com a padronização do byte como sendo a unidade básica de medida 
de dados digitais, a Intel rapidamente deixou de lado a comercialização do 
Intel 4004 (4 bits) e, em 1972, apresentou ao mercado o Intel 8008, que 
operava com registradores de 8 bits. Com a evolução de componentes e 
aperfeiçoamento de projeto, em 1974 surge o Intel 8080, também com 8 
bits, mas com um conjunto maior de instruções. 
Uma estratégia da Intel na época deu início a um comportamento 
padrão: todo novo processador que fosse projetado deveria agregar novo 
conjunto de instruções sempre mantendo (e nunca substituindo) o conjunto 
de instruções de seu antecessor, para fins de retro compatibilidade, permitindo 
assim a execução de programas desenvolvidos anteriormente. Somente em 
1978, com o lançamento do Intel 8086 (este com 16 bits), é que se pode 
entender como sendo o início das gerações de microprocessadores, pois foi 
o primeiro a integrar computadores pessoais. Um ano depois a Intel lançou 
o Intel 8088, com barramento de dados de 8 bits (isto contribuiu para que 
o processador ficasse mais barato e fosse o mais vendido da geração), porém 
mantendo registradores de 16 bits. 
Os processadores Intel 8088 trabalhavam com velocidades de clock de 
8 e 16 MHz. Com algumas melhorias, ainda operando com 16 bits, foram 
lançados o Intel 80186 e 80188, que integravam alguns circuitos a mais e que 
facilitariam a montagem de computadores pessoais.
4.3.2 Segunda geração
Criado em 1982, porém somente levado ao mercado em 1984, o Intel 
80286 marca o início da segunda geração. Com capacidade para endereçar 
até 16 MB de RAM (Random Access Memory – Memória de Acesso Aleatório, 
a qual será abordada na seção 4.5) e velocidades que variavam entre 6 e 24 
– 48 –
Fundamentos da Informática
MHz, o processador em si foi um fracasso: o sistema operacional da época 
(DOS) não conseguia gerenciar mais do que 1 MB de memória, criando um 
gargalo para as possibilidades que essa nova geração de microprocessadores 
oferecia. Ainda que frustrante nas possibilidades, os computadores equipados 
com microprocessadores 286 eram conhecidos como PC-AT (Advanced 
Technology – Tecnologia Avançada).
4.3.3 Terceira geração
Dentre as inovações que marcam a terceira geração de microproces- 
sadores, uma merece destaque: tanto endereçamento quanto barramento 
de dados de 32 bits. Com esta capacidade, era possível o gerenciamento de até 
4 GB de RAM (232 = 4.294.967.296), e o mais importante: desta vez haviam 
sistemas operacionais preparados para fazer uso deste potencial.
O processador mais vendido desta geração foi o Intel 80386, 
posteriormente batizado de 386DX, com o lançamento de uma versão mais 
econômica que trabalhava com 16 bits de barramento de dados. S denotando 
o uso de single words e D para double words (medidas vistas no início deste 
capítulo). Outra grande vantagem desta arquitetura era a possibilidade de 
execução de vários programas simultâneos, através do uso do modo Virtual 
8086, recurso bastante aproveitado pelos sistemas operacionais da época e 
que a geração anterior não permitia. Nesta geração, emergem as fabricantes 
de processadores com os mesmos conjuntos de instruções, alguns obtidos 
através de engenharia reversa com os 386 da Intel, representando grande 
concorrência. Dentre elas a AMD e a Cyrix.
4.3.4 Quarta geração
As melhorias técnicas que marcam a quarta geração de microproces- 
sadores não foram tão substanciais. As três principais visavam aumento de 
velocidade: a inclusão de memória cache nível 1 (isto será melhor detalhado 
na seção 4.5), reduzindo o gargalo proveniente de sistemas lentos de memória; 
implementação de pipelining para aumentar a eficiência com baixas velocidades 
de clock; e a adoção de unidades de ponto-flutuante. As terminologias SX e DX 
da geração anterior também eram utilizadas, ainda que não tivessem mais nada 
a ver com a capacidade do barramento. Os microprocessadores 486-SX não 
implementavam unidade de ponto-flutuante (presentes nos DX).
– 49 –
Hardware interno do computador
Com estas melhorias, testes comparativos evidenciavam que os 
processadores 486 eram, em geral, duas vezes mais rápidos do que os 386. 
Por exemplo: um 486-DX de 20 MHz operava com a mesma velocidade de 
um 386-DX 40 MHz.
O sucesso da Intel na comercialização de microprocessadores era tão 
grande que a concorrência a levava junto com suas concorrentes aos tribunais. 
E a briga por circuitos melhores e mais rápidos apresentou ao mercado 
microprocessadores 486 de até 120 MHz.
4.3.5 Quinta geração
O que difere a quinta geração das quatro anteriores é o uso de arquitetura 
superescalar: uso de múltiplos pipelines e adoção híbrida de instruções 
RISC e CISC. Por questões de registro e projeção da marca, todos os 
microprocessadores Intel a partir da quinta geração trazem de alguma forma o 
nome Pentium em seus modelos. Enquanto isso, as concorrentes apresentam 
o número 5 na formação de nomes como AM5x86. Ainda nesta geração 
a Intel lança processador com instruções específicas para processamento 
de funções multimídia: Intel PentiumMMX (MultiMedia eXtensions – 
Extensões Multimídia). Estas instruções só viriam na sexta geração de alguns 
processadores das concorrentes, como o AMD K6 e o Cyrix M II.
4.3.6 Sexta geração
O microprocessador que estreou a sexta geração, e a arquitetura 
conhecida como Intel P6, foi o Intel Pentium Pro, com maior integração de 
instruções RISC, implementação de cache de nível 2, endereçamento direto 
de até 64 GB de RAM, e operando na frequência de 200 MHz. Depois disso, 
vieram ainda os microprocessadores Intel Pentium II, III e os AMD K6, K6-2 
e K6-III, todos baseados na mesma arquitetura do Pentium Pro, com clocks 
que ultrapassaram os 500 MHz. 
4.3.7 Última geração
“Equipamentos de última geração”. Esta frase traduz da melhor forma 
o quão difícil é classificar um componente em gerações, dada a dificuldade 
de identificar o que é revolucionário ou merece ser tratado como um marco. 
– 50 –
Fundamentos da Informática
Estabelecer o que seria a sétima geração de microprocessadores ainda é uma 
tarefa polêmica, uma vez que as opiniões se dividem, apresentando por vezes 
até uma suposta oitava geração. Esta seção será utilizada, portanto, para 
apresentar os microprocessadores e as inovações desde a sexta geração.
O lançamento do Intel Pentium IV, no ano 2000, apresentou ao 
mercado a microarquitetura Intel NetBurst, com duas grandes características: 
Hyper Pipelined Technology (que permitia um número maior de estágios de 
instruções de pipelining) e Rapid Execution Engine (permitindo às duas ULAs 
dobrarem o clock do processador). Outro diferencial também é o aumento do 
barramento de dados para 64 bits.
Em 2006, a microarquitetura NetBurst dá lugar à sua substituta: a 
microarquitetura Intel Core. Com base na arquitetura do Pentium III e 
algumas características do Pentium IV, visando a diminuição de consumo 
de energia e temperatura para criação de processadores para notebooks, um 
grande diferencial dessa arquitetura é a criação de processadores com múltiplos 
núcleos. Sendo o Pentium M (Mobile – Móvel), seu primeiro produto, surgem 
também os microprocessadores Core Solo e Core Duo. Igualmente baseados 
na arquitetura Core, são comercializados os processadores Core 2 Solo, Core 
2 Duo e Core 2 Quad, e os mais recentes (até a produção desta obra): Core 
i3, Core i5, Core i7 e os Core-based Xeon para servidores e workstations. Da 
principal concorrente AMD com arquitetura similar, destacam-se: Semprom, 
Athlon, Turion, Phenom, e a linha Opteron para servidores. A figura 6 
apresenta os principais microprocessadores Intel entre gerações.
Figura 2 – Gerações de microprocessadores Intel.
– 51 –
Hardware interno do computador
4.4 Barramentos
Para que as partes internas e externas de um microcomputador interajam, 
ou seja, para que se tenha emissão e recepção de dados, é necessário estabelecer 
comunicação entre elas. A comunicação é feita por meio dos barramentos. 
Diante disso, pode-se afirmar que um barramento é uma via de comunicação.
4.4.1 Conceito e fundamentos
Uma via de comunicação não tem outra finalidade senão permitir a 
conexão entre dois pontos. Assim como acontece com vias de trânsito de 
veículos, cuja função é permitir o tráfego de veículos de um ponto a outro, 
a função de um barramento é permitir o tráfego de dados entre as partes do 
microcomputador.
Seguindo a mesma analogia das vias de trânsito, tome-se como exemplo 
o trajeto entre Curitiba e Florianópolis pela BR-101: qual a velocidade 
máxima permitida pela via? Quantos veículos trafegam por hora no local 
em dias úteis? E em feriados? E quantos veículos podem trafegar lado a lado, 
aproveitando melhor o uso da via? Quanto tempo levará o percurso? Fatores 
como os que acabaram de ser mencionados trazem alguma relação com os 
barramentos de microcomputadores.
Agora para os microcomputadores, a pergunta final é: de onde, para 
onde, e com que velocidade os dados serão transmitidos? A resposta reside nas 
especificações do barramento.
Para que a comunicação ocorra, o barramento é composto basicamente 
por três elementos: linha de dados, linha de endereços e controle de fluxo.
– 52 –
Fundamentos da Informática
4.4.1.1 Linhas de dados
São responsáveis justamente por carregar os dados, ou seja, comportar 
os dados que estão sendo transmitidos. Quanto maior esta parte for, mais 
dados poderão ser transmitidos em um único ciclo, o que consequentemente 
influenciará na velocidade geral de funcionamento do sistema. Entra aqui 
a necessidade de transmissão de dados em paralelo, uma vez que os atuais 
processadores assim o permitem, o que juntamente com o desempenho, 
aumenta a complexidade de funcionamento.
4.4.1.2 Linhas de endereços
Contêm a informação exata da origem e do destino dos dados a serem 
trafegados. Quando se fala em endereços de origem e destino, não é apenas 
uma referência ao par processador-memória, mas também envolvem outras 
portas e conexões.
4.4.1.3 Controle de fluxo
Uma vez que se saiba quais são os dados e para onde eles vão, é necessário 
que haja controles: se é escrita ou leitura, qual componente vai trabalhar 
o dado, etc. Também é necessário controlar as diferenças de velocidade: a 
memória RAM, por exemplo, tem ciclos de atualização bem mais lentos 
do que o processador. Definido pelas microarquiteturas, existem diferenças 
entre os ciclos para transmissão dos dados e os ciclos para transmissão dos 
endereços, e isto também precisa ser controlado.
4.4.1.4 Barramento local
A comunicação mais elementar existente entre as partes de um 
computador acontece entre o processador e a memória principal. Por se 
tratarem de componentes que demandam velocidade, o barramento local é 
o responsável por esta comunicação. A memória cache também utiliza este 
barramento para comunicação.
A seção 4.3 apresentou uma série de microprocessadores, mencionando 
bits e frequência. Esses dados estão diretamente relacionados ao barramento 
local. Veja o exemplo a seguir.
– 53 –
Hardware interno do computador
 Exemplo
Tome-se como base um microprocessador Pentium III de 500 
MHz. Sabendo-se que a arquitetura deste processador é de 
64 bits, então significa que ele tem capacidade para acessar 
a memória com 64 bits por vez (ciclo). Se seu clock é de 
500 MHz, então significa que poderá realizar 500 milhões de 
ciclos por segundo. Desta maneira pode-se calcular a taxa de 
transferência de dados entre este processador e a memória RAM: 
64 ∙ 500.000.000 = 32.000.000.000 bits por segundo = 
32 Gbps (trinta e dois gigabits por segundo) = 4 GB/s (quatro 
gigabytes por segundo)
4.4.1.5 Barramentos de expansão
A lista de possibilidades de uso de um microcomputador é vasta. O 
capítulo 3 abordou essa questão estabelecendo uma relação entre seu uso e os 
equipamentos periféricos que permitem a realização das tarefas. A conexão 
desses periféricos é possível graças aos barramentos de expansão, e fisicamente 
isso acontece por meio de encaixes chamados slots para acoplamento de placas 
ou por meio de portas.
O mais importante em um barramento de expansão é a possibilidade de 
comunicação que ele fornece entre o processador e os periféricos.
4.4.1.6 Bridges
Diante da diferença de velocidade e arquitetura entre o barramento 
local e os diversos barramentos de expansão, surge uma dificuldade: como 
fazer a integração desses elementos? Com a evolução dos barramentos de 
expansão (abordados posteriormente neste capítulo), emerge também uma 
solução para esta integração: a bridge (do inglês, ponte). Seu funcionamento 
completo será explicado no capítulo 6, que trata da atividade da placa mãe e 
dos chipsets.
– 54 –
Fundamentos da Informática
4.4.1.7 Interrupções
Outra questão também relacionada à comunicação da CPU com os 
periféricos é o momento em que ocorre esta comunicação. O processador e a 
memória trabalhamcontinuamente para processar os dados. Mas e quando esses 
dados chegam do meio externo? Por exemplo: a CPU sabe que deve trabalhar 
com um dado enviado via teclado, ou seja, uma tecla que foi pressionada, mas 
como ela sabe de fato quando vai ocorrer esse pressionamento?
A forma mais simples de tratar essa questão seria fazer com que a CPU ficasse 
o tempo todo em ação cíclica, verificando se houve alguma alteração de estado no 
teclado. E o mesmo deveria ser feito para todos os outros periféricos. Essa ideia é 
simples, existe, e é conhecida como polling loops (repetições de pesquisa), porém 
impraticável: compromete o desempenho do sistema como um todo.
Para que o processador possa realizar suas tarefas de forma contínua, sem 
esperar por eventos de dispositivos externos, trabalha-se com o conceito de 
interrupção, ou ainda melhor: requisições de interrupção. As IRQs (Interrupt 
Requests) são sinais enviados do periférico ao processador, solicitando que ele 
pare o que esteja fazendo para tratar o dado recebido. É evidente que existem 
circuitos específicos para tratamento de interrupções, ordenados, para que 
todos os periféricos conectados ao PC sejam atendidos pelo processador.
4.4.2 Padrões de barramentos e interfaces de expansão
O uso de barramentos de expansão não iniciou com os computadores de 
uso pessoal. Partindo dos grandes mainframes (computadores de grande porte) 
aos minicomputadores, o conceito de barramento, ainda que de arquiteturas 
proprietárias, já aparecia antes mesmo da redução de custo e popularização 
dos PCs. E os primeiros barramentos em microcomputadores também não 
passavam de meras extensões dos conectores do já comentado processador 
Intel 8088, com adequações na corrente elétrica para permitir conexões com 
componentes externos e um agravante: esses componentes precisavam operar 
na mesma velocidade de clock do próprio processador.
– 55 –
Hardware interno do computador
4.4.3 Barramentos de conexão externa
Além dos barramentos para encaixes de controladoras, ainda há os 
barramentos que são utilizados em conexões diretas com periféricos externos, 
através de cabos ou adaptadores.
Criado em meados da década de 90 do século XX, com o intuito de 
padronizar a comunicação entre o microcomputador e periféricos, o padrão 
USB (Universal Serial Bus – Barramento Serial Universal) é, sem dúvida, 
atualmente o mais utilizado para conexão de diversos tipos de periféricos, 
desde os equipamentos mais elementares, como teclado e mouse, até 
equipamentos de armazenamento em massa de alta velocidade.
O padrão USB foi um marco na conexão de periféricos. Primeiro porque 
o padrão prevê uma interface direta com o equipamento externo que está 
sendo conectado, sem a necessidade de acoplar placas de controle internas ao 
computador para fazer a comunicação. Vale lembrar que os barramentos até 
então citados preveem slots específicos para encaixes de placas controladoras, 
que fazem a comunicação com o periférico. Além disso, a interface prevê 
que o equipamento periférico seja conectado ao computador com ele 
ligado (energizado), ao que imediatamente se estabelece a comunicação e 
o equipamento passa a funcionar, mediante o que se conhece na indústria 
como Plug & Play (algo como: conecte e use).
As conexões de USB 1.0, 1.1 
e 2.0 são diretamente compatíveis 
entre si, inclusive é impossível 
identificar fisicamente uma 
porta USB dessas versões, não há 
diferença. Uma porta USB 3.0 
trabalha com elementos físicos 
diferenciados e, portanto, é 
identificada com cor diferente: seu 
interior é azul (tanto cabo quanto 
porta). Veja cabo e porta padrão 
USB na figura 3 ao lado. Fonte: Evandro Zatti
– 56 –
Fundamentos da Informática
4.4.3.1 Padrão FireWire (IEEE 1394)
Criado para substituir o padrão SCSI (maiores detalhes na seção 4.5.6.4), 
permite conectar até 63 dispositivos diferentes. Durante muito tempo foi 
amplamente utilizado para conectar equipamentos de áudio e vídeo digital. 
Opera em duas modalidades de taxa de transferência: 400 Mbps (50 MB/s) e 
800 Mpbs (100 MB/s). Veja a porta na figura 4.
Figura – 4 Porta FireWire
F
on
te
: 
E
va
nd
ro
 Z
at
ti
4.4.3.2 Outros padrões
É grande a lista de padrões de barramentos anteriores ao USB. Criados 
com diversas expectativas, nem todos obtiveram o sucesso esperado, e 
outros tiveram o seu 
tempo. Especialistas estão 
sempre em busca de novas 
soluções, com os mesmos 
objetivos de sempre: 
aumento da taxa de 
transferência, flexibilidade 
e redução de custo.
Tão importante 
quanto o projeto de 
um novo barramento 
é o aprimoramento do S
hu
tt
er
st
oc
k.
co
m
/L
dp
ro
d
Figura 5 – Porta Thunderbolt
– 57 –
Hardware interno do computador
existente. Um exemplo é o recente lançamento em computadores da Apple 
Computers (em co-criação pela Intel), o Thunderbolt. Ele não é um novo 
barramento, mas sim uma interface de conexão que une o barramento PCIe 
com o Display Port (Apple). A interface opera com taxas de até 10 Gbps (o 
dobro da velocidade do USB 3.0). Se o padrão vai ser adotado pelos PCs só 
o tempo irá dizer, mas é importante lembrar que nenhum outro barramento 
teve tantos adeptos quanto o USB, o que dificulta a migração para outras 
tecnologias. Veja a porta Thunderbolt na figura 5.
 Da teoria para a prática
Faça uma pesquisa sobre a relação existente entre os barramen-
tos USB e SATA, identificando quais características são iguais 
ou similares e outras que os diferem.
4.5 Armazenamento de dados
Um microcomputador armazena dados para diversas finalidades: desde os 
registradores de um microprocessador, que guardam temporariamente dados 
para realização dos cálculos e tomadas de decisão, passando pela instalação de 
aplicativos para execução e chegando ao armazenamento permanente dos dados 
produzidos por estes programas: documentos, gráficos, planilhas, etc. Nos 
primeiros computadores eletromecânicos, sua programação acontecia por meio 
do acionamento direto de interruptores ou da leitura de cartões perfurados. Os 
anos passam e, em tempos de aplicações multimídia e das diversas possibilidades, 
em que o aumento do uso do computador exige aplicativos melhores e maiores, 
fica impossível executar programas por meio de interruptores ou cartões. É 
necessário armazenar dados. Os dispositivos de armazenamento de um sistema 
de computador são chamados de memória e serão abordados neste capítulo, 
segundo sua classificação.
– 58 –
Fundamentos da Informática
4.5.1 Conceitos e classificações
O capítulo 4, quando apresentou o funcionamento dos processadores, 
esclareceu que o computador trabalha com dados no sistema binário, 
detalhando o funcionamento desse sistema. O armazenamento de dados 
ocorre da mesma forma: é necessário guardar o estado de ausente/presente ou 
ligado/desligado para sua posterior leitura pelo sistema.
Desde o cartão perfurado, utilizado nas primeiras máquinas de Jacquard, 
os sistemas de armazenamento (temporário ou permanente) sofreram 
evolução, acompanhando os avanços tecnológicos do próprio computador: a 
válvula, o relé, o transístor.
4.5.1.1 Tamanho e velocidade
Uma vez que os dados são armazenados de forma binária, a quantidade 
que pode ser armazenada depende diretamente de meio físico: é necessário um 
lugar físico (por menor que seja) para persistir o estado ausente/presente, ou 
algum componente que represente o estado ligado/desligado. Independente 
dos meios de armazenamento e da tecnologia empregada, necessariamente os 
bits deverão estar ali. Dessa maneira, a unidade base utilizada para medição 
da quantidade (tamanho) de memória é o byte e seus múltiplos, que já foram 
abordados na seção 4.1.1.
A velocidade também é uma medida que deve ser considerada em 
dispositivos de armazenamento digital. Um sistema de computador segue 
constantementerealizando operações de gravação e leitura de dados. A 
velocidade com que isso acontece depende da tecnologia empregada 
no dispositivo/mídia de armazenamento, e pode ser medida sob duas 
formas. A mais elementar é a quantidade de ciclos por segundo com 
a qual o dispositivo pode ser lido ou atualizado com novo dado. Este 
conceito é chamado refresh (atualização), e sua medida é em hertz ou 
frequência de clock (na seção 4.2.5 esta unidade de medida de ciclos por 
segundo foi explicada). 
Pelos diferentes componentes, barramentos e arquiteturas empregados, 
a medição de velocidade por ciclo não garante um entendimento completo 
da velocidade de operação do dispositivo, sugerindo uma unidade de medida 
mais efetiva: bytes por segundo (B/s). Devido à alta taxa de transferência 
– 59 –
Hardware interno do computador
com que os atuais equipamentos trabalham, é comum aparecerem valores 
múltiplos, na faixa de MB/s (megabytes por segundo), GB/s (gigabytes por 
segundo) ou até TB/s (terabytes por segundo). 
Ainda nesse mesmo conceito, uma unidade que vem sendo cada 
vez mais utilizada para designar taxas de transferência é o transfer per 
second (transferências por segundo), na forma mais comum de MT/s 
(megatransfer por segundo) ou GT/s (gigatransfer por segundo). O termo 
transfer sozinho não traduz a taxa de transferência, que vai depender da 
largura do canal/barramento: um transfer é equivalente à quantidade de 
bits de dados do barramento. 
 Exemplo
Por exemplo: um equipamento com largura de 8 bytes, ao qual 
se diz ter uma taxa de transferência de 2 MT/s, irá transmitir 
16 MB/s (2 ∙ 8 = 16), enquanto um equipamento de mesma 
velocidade em transfer (2 MT/s), se tiver largura 16 bytes no 
canal, terá efetivamente uma taxa de transferência de 32 MB/s 
(2 ∙ 16 = 32).
4.5.1.2 Armazenamento primário e secundário
A primeira classificação para as memórias se dá pela sua proximidade 
física e acesso pelo microprocessador: armazenamento primário e 
armazenamento secundário. No armazenamento primário enquadram-se 
os dispositivos que são acessíveis diretamente pelo processador (RAM, 
ROM, registradores, cache), enquanto os dispositivos que dependem de um 
circuito integrado qualquer para serem acessados são conhecidos como de 
armazenamento secundário (disquetes, HDs, CDs, ...). No decorrer deste 
capítulo esses dispositivos e suas siglas são melhores especificados. Alguns 
autores trazem uma terceira classificação com relação a mídias removíveis 
(CDs, por exemplo): armazenamento terciário, mas esta denominação não é 
consenso entre os pesquisadores.
– 60 –
Fundamentos da Informática
4.5.1.3 Memórias voláteis e não voláteis
Outra classificação que se dá às memórias refere-se a sua volatilidade. 
As memórias voláteis mantêm os dados armazenados durante o período que 
estiverem recebendo energia. Uma vez que a energia é interrompida, todo o 
conteúdo deixa de existir. A memória principal de qualquer microcomputa-
dor moderno é volátil.
Já as memórias não voláteis utilizam tecnologia que permite o arma-
zenamento dos dados por tempo indeterminado, ou seja, até que o sistema 
ou o usuário resolva modificá-los ou apagá-los. No grupo das memórias não 
voláteis estão as mídias de armazenamento magnético (discos e fitas), óptico 
(discos) e outras formas de chips (memória flash).
4.5.1.4 Tipo de acesso
O acesso à sequência binária que contém os dados que se quer manipular 
pode ser feito de duas formas: sequencial ou aleatória. Pense em um livro: se o 
conteúdo que se deseja ler não estiver relatado em um índice ou sumário, será 
necessário percorrer página por página até que se tenha acesso a esse conteúdo. 
Este é o processo da memória sequencial: o sistema percorre o dispositivo desde 
seu primeiro bit até chegar ao dado desejado. Já o acesso aleatório funciona 
em analogia ao índice: assim como um livro, que possui páginas enumeradas e 
a referência no índice, a memória também é enumerada (no caso endereçada) 
pelo sistema para que dados armazenados em qualquer posição do dispositivo 
sejam acessados.
4.5.1.5 O bit em seu estado físico
A corrente elétrica é a forma mais elementar de se representar fisica-
mente um bit, ou seja, de armazenar dados. Dispositivos de armazena- 
mento eletrônico utilizam o conceito de células para este armazenamento: 
cada célula representa um único bit, representando a existência (passagem) 
de corrente elétrica ou não para armazenamento do dado. Como se pode 
perceber, esse tipo de armazenamento é volátil. É utilizado na fabricação dos 
dispositivos de armazenamento primários.
Com o intuito de armazenar dados de forma permanente, depois dos 
cartões perfurados de Jacquard, o armazenamento magnético foi a primeira 
– 61 –
Hardware interno do computador
forma de armazenamento permanente empregada em computadores. Nesse 
tipo de tecnologia, trabalha-se uma superfície magnética de forma que 
o alinhamento ou não dos elétrons representem o bit. Esta conversão de 
eletricidade em magnetismo demanda tempo e energia. É a forma empregada 
em parte dos dispositivos de armazenamento secundários, que serão vistos 
ainda neste capítulo.
Seguindo o mesmo princípio dos cartões e do armazenamento magnético, 
a diferença do armazenamento óptico é que esses dispositivos utilizam a luz 
como meio de transmissão do dado. Não que eles sejam fonte emissora de 
luz, mas possuem em sua superfície elementos de reflexão/refração da luz que 
indicam o estado do dado armazenado.
4.5.2 Armazenamento em chips
A maioria dos PCs utiliza a forma eletrônica para armazenamento de 
dados de acesso direto pelo processador, uma vez que o próprio sistema 
funciona com eletricidade e esse é o meio natural de tráfego dos dados, 
dispensando qualquer tipo de conversão.
4.5.2.1 Armazenamento dinâmico e estático
Ao permitir o acesso aleatório aos dados por parte do processador, a 
memória principal de um microcomputador é chamada de RAM (Random 
Acess Memory – Memória de Acesso Aleatório). Na prática, o termo não é 
corretamente empregado, pois a grande maioria das pessoas utiliza este termo 
RAM, que é genérico, para designar a DRAM de um microcomputador, 
explicada a seguir.
Existem basicamente dois tipos de RAM em microcomputadores. O 
primeiro deles funciona da seguinte maneira: a célula armazena a informação 
através do uso de um capacitor. Porém, capacitores não armazenam energia, 
eles apenas a mantém por alguns milissegundos. Dessa maneira, a célula precisa 
receber energia novamente em ciclos contínuos de atualização (refresh). Por 
essa propriedade de perder gradativamente o dado e necessitar de nova carga 
elétrica, esse primeiro tipo de RAM é chamado DRAM (Dynamic RAM – 
RAM Dinâmica), sendo, portanto, de armazenamento dinâmico. Esse tipo 
de memória, por ser de baixo custo, é utilizado como memória principal 
– 62 –
Fundamentos da Informática
dos microcomputadores, sendo que aquela informação que se ouve muito 
ao se adquirir um microcomputador (“Meu PC tem 16 GB de RAM”), faz 
referência à DRAM.
O outro tipo de memória RAM também muito comum, é a de 
armazenamento estático. Também é composta por células, porém ao invés 
de utilizar capacitores, as células são formadas por transístores. Ainda que 
funcionem por meio de energização constante, não necessitam de refresh, 
e por isso são denominadas SRAM (Static RAM – RAM estática). São mais 
caras em sua fabricação, porém muito mais rápidas do que as DRAM, sendo 
então utilizadas na composição de memória cache secundária.
4.5.2.2 Memória cache 
O conceito de memória cache é a digitalização da pró-atividade. Sabe-se 
que o microprocessador trabalha em velocidades muito superiores à memória 
DRAM. Para diminuir o gargalo de velocidade de tráfego dos dados entre a 
memória e o processador, os microprocessadores modernos utilizam memória 
cache, cuja funçãoé antecipar dados da memória DRAM que serão utilizados 
pelo processador em suas próximas operações. Fazendo uso de chips SRAM, o 
processo se torna muito mais rápido. Quanto maior for a memória cache, mais 
rápido será o acesso como um todo, pois mais dados poderão ser antecipados.
Evidentemente isso incorre diretamente em aumento do custo, uma vez 
que SRAMs são bem mais caras. Presentes nos microcomputadores desde a 
quarta geração de microprocessadores, inicialmente eram implementadas em 
apenas um nível, ou seja: um único módulo SRAM entre o microprocessador 
e a DRAM, embutido no próprio microprocessador. Este módulo é conhecido 
como cache primário, também chamado de cache L1 (Level 1 – Nível 1). 
Desde a sexta geração de microprocessadores há também o conceito 
de cache secundário (L2). De início construído ainda internamente como o 
primário, posteriormente foi dividido em módulos complementares também 
ocupando região fora do microprocessador. Os módulos de cache terciário 
(L3), inicialmente presentes externamente em processadores de servidores, 
hoje incorporam (internamente) microprocessadores de PCs, como é o caso 
– 63 –
Hardware interno do computador
do Intel Core i7, que possui 8 MB de cache L3 (além de 32KB cache L1 por 
núcleo e 1 MB de cache L2). 
4.5.2.3 Módulos de DRAM
Os microcomputadores da década de 80 do século XX (PCs de primeira 
geração) eram fabricados com os módulos de memória DRAM incorporados 
(soldados) na mesma placa de circuitos do processador. Com a possibilidade 
de expansão, a partir 
da segunda geração, 
criou-se o conceito de 
módulos de memória, 
ou seja, pequenas 
placas fabricadas 
separadamente, com 
pinos de contato 
expostos, para encaixes 
na placa mãe. 
Os primeiros 
módulos de memória separados apresentavam problemas de encaixe, grande 
parte pela disposição dos pinos, até que a criação do padrão SIMM (Single 
Inline Memory Module – Módulo de Memória em Linha Simples) resolveu 
os problemas de encaixe e popularizou o conceito. Inicialmente o módulo 
foi lançado com 30 pinos (também chamados de vias), em tamanhos padrão 
de 256 KB, 1 MB, 2 MB, 4 MB e 16 MB, tendo uma segunda versão com 
72 pinos, com módulos de 1 MB até 128 MB. Apesar de patenteado, alguns 
fabricantes chegaram a lançar módulos SIMM proprietários para uso em 
suas linhas de PCs. A figura 6 apresenta módulos SIMM com 30 e 72 
pinos, respectivamente.
Desde o lançamento dos processadores Pentium, os módulos SIMM 
deram espaço aos DIMM (Dual Inline Memory Module – Módulo de 
Memória em Linha Duplo). Sendo fabricado inicialmente com 72 pinos e 
atualmente com um máximo de 244 pinos, é o padrão ainda hoje adotado em 
PCs. A figura 7 apresenta um módulo DIMM atual de 244 pinos.
Figura 6 – Módulos SIMM
F
on
te
: E
va
nd
ro
 Z
at
ti
– 64 –
Fundamentos da Informática
S
hu
tt
er
st
oc
k.
co
m
Figura 7 – DIMM de 244 pinos.
De acordo com a velocidade, os módulos DIMM são classificados em 
dois grupos: SDR (Single Data Rate – Taxa de Dados Única) e DDR (Double 
Data Rate – Taxa de Dados Dupla). Fabricado com diversas variações, 
os módulos DIMM SDR equipavam os primeiros computadores com 
processadores Intel Pentium 100 MHz, com taxa de transferência de dados de 
800 MB/s enquanto os Intel Pentium 200 MHz trabalhavam com módulos 
DDR de 1600 MB/s (daí o uso do termo double – duplo). Atendendo às 
necessidades dos microprocessadores, o padrão DDR sofreu alterações, 
evoluindo para DDR-2, DDR-3 e o recém lançado DDR-4.
O quadro 1 apresenta um comparativo entre os módulos SDR e DDR.
Quadro 1 – Comparativo entre módulos SDR e DDR.
Nome do padrão/módulo
Pinos 
(vias)
Clock (MHz) 
barramento
Velocidade 
(GB/s)
Velocidade 
(MT/s)
SDR PC-100 168 100 MHz 0.8 GB/s -
SDR PC-133 168 133 MHz 1.1 GB/s -
DDR-200 ou PC-1600 184 200 MHz 1.6 GB/s 200 MT/s
DDR-266 ou PC-2100 184 266 MHz 2.1 GB/s 266 MT/s
DDR-333 ou PC-2700 184 333 MHz 2.7 GB/s 333 MT/s
DDR-400 ou PC-3200 184 400 MHz 3.2 GB/s 400 MT/s
DDR2-400 240 400 MHz 3.2 GB/s 400 MT/s
– 65 –
Hardware interno do computador
Nome do padrão/módulo
Pinos 
(vias)
Clock (MHz) 
barramento
Velocidade 
(GB/s)
Velocidade 
(MT/s)
DDR2-533 240 533 MHz 4.3 GB/s 533 MT/s
DDR2-667 240 667 MHz 5.3 GB/s 667 MT/s
DDR2-800 240 800 MHz 6.4 GB/s 800 MT/s
DDR2-1066 240 1066 MHz 8.5 GB/s 1066 MT/s
DDR3-800 240 800 MHz 6.4 GB/s 800 MT/s
DDR3-1066 240 1066 MHz 8.5 GB/s 1066 MT/s
DDR3-1333 240 1333 MHz 10.7 GB/s 1333 MT/s
DDR3-1600 240 1600 MHz 12.8 GB/s 1600 MT/s
DDR3-1866 240 1866 MHz 14.9 GB/s 1866 MT/s
DDR3-2133 240 2133 MHz 17.1 GB/s 2133 MT/s
DDR4-2133 284 2133 MHz 17.1 GB/s 2133 MT/s
DDR4-4266 284 4266 MHz 34.2 GB/s 4266 MT/s
Fonte: o próprio autor.
4.5.2.4 Somente leitura
Dinâmicas ou estáticas, as RAMs necessitam de corrente elétrica 
constante para funcionamento e, por isso, são chamadas voláteis. Em 
contrapartida, permitem alterar ou apagar seu conteúdo a qualquer momento 
durante o uso.
Nem todo dado precisa ser apagado ou modificado. Existem situações 
em que, uma vez armazenado, basta que esteja disponível eternamente para 
leitura. E essas situações não são raras, tanto que há no mercado diversos 
tipos de memória para essa finalidade, conhecidas como ROM (Read Only 
Memory – Memória Somente de Leitura).
Alguns termos empregados erroneamente são difíceis de serem revertidos: 
a memória principal do computador não é o único tipo de RAM, mas assim é 
– 66 –
Fundamentos da Informática
chamada. Por outro lado, memórias ROM também permitem acesso aleatório, 
mas jamais são chamadas de RAM.
Os módulos de memória são de somente leitura por parte do computador, 
mas em algum momento eles precisam ser gravados. Um módulo que sai com 
dados previamente gravados de fábrica, ou seja, quando os bits são definidos 
no momento da criação do próprio chip do módulo, é chamado ROM de 
Máscara. O nome deriva do processo de fabricação, onde é criado um fotolito 
(máscara) que define onde os bits serão gravados. 
Esses módulos são utilizados primordialmente em micro controladores 
e para armazenamento de firmware de equipamentos em geral (veja a seção 
6.3.1.1). Além das ROMs de máscara, existem outros tipos de memória 
que serão somente lidas pelo microcomputador durante seu funcionamento 
normal, mas que precisam ser gravadas ou terem seus dados atualizados fora 
da fábrica. Para atender essas necessidades, foram criados alguns tipos de 
memórias chamadas programáveis.
4.5.2.5 Memórias programáveis
O tipo mais simples de memória programável é a PROM (Programmable 
ROM – ROM Programável), fabricada de forma que cada célula seja 
composta de um fusível que irá conduzir ou não a corrente elétrica para 
manter os dados. A programação ocorre a partir da fundição (rompimento) 
dos fusíveis por meio de cargas elétricas altas, mediante uso de um gravador 
de PROMs. Uma vez derretido o filamento do fusível, não é mais possível 
reverter a situação, portanto, uma vez gravada, uma PROM não pode ter 
seu conteúdo alterado.
Como alternativa ao processo irreversível quando da gravação das 
PROMs, a tecnologia trouxe a EPROM (Erasable PROM – PROM 
Apagável). Ao invés de fusíveis, alguns semicondutores especiais que 
mudam seu estado pela incidência de luz ultravioleta. Sua gravação é feita 
por meio de corrente elétrica enviada pelos pinos e, para apagar os dados, 
o módulo possui em sua superfície uma lente que permite que feixes de luz 
ultravioleta incidam sobre as células, apagando seu conteúdo. Para apagar 
uma EPROM, basta colocá-la dentro de uma câmara com luz ultravioleta 
por alguns minutos.
– 67 –
Hardware interno do computador
Outra opção de módulo apagável é a EEPROM (Electrically Erasable 
PROM – PROM Eletricamente Apagável), que permite que os dados sejamapagados por meio do envio de uma corrente elétrica com voltagem superior 
à utilizada para sua gravação, pelos mesmos pinos utilizados para gravação e 
leitura dos dados. O número de vezes que uma EEPROM pode ser gravada é 
finito e depende do semicondutor utilizado nas células.
É importante saber que as EEPROM não permitem alteração do estado 
de uma célula específica: para reprogramá-la é necessário apagar todo seu 
conteúdo e reescrevê-lo em novo processo de gravação. Veja na figura 8 os 
módulos de memória programáveis aqui citados.
Figura 8 – Módulos de memória programáveis
S
hu
tt
er
st
oc
k.
co
m
/C
hr
is
 H
el
ly
ar
4.5.3 Armazenamento magnético
O armazenamento magnético está entre as primeiras formas de 
armazenamento em computadores. Minicomputadores e mainframes 
armazenavam dados em tambores e fitas magnéticas: os tambores para acesso 
aleatório, e as fitas para armazenamento em massa, de forma sequencial.
4.5.3.1 Fita magnética
A fita magnética é uma fita fabricada em polímero de superfície 
magnetizável. Disponíveis em rolos que podem estar alojados em cartuchos 
plásticos, elas armazenam os dados de forma analógica ou digital, por 
meio do alinhamento de elétrons sobre sua superfície, por uma cabeça 
de gravação. A gravação pode acontecer de forma longitudinal, na qual 
– 68 –
Fundamentos da Informática
a trilha de dados é gravada no sentido de rolamento da fita, por meio de 
uma cabeça de gravação estática, ou de forma helicoidal, em que as trilhas 
são gravadas diagonalmente em relação ao sentido de deslocamento da 
fita, por meio de cabeças rotativas, acopladas a um tambor. Esta última 
permite mais densidade de gravação, porém com um desgaste maior da fita 
e do tambor.
Sendo uma das primeiras formas de armazenamento de dados em 
computadores, tende a se pensar que as fitas magnéticas estejam em 
extinção. Pelo contrário: são amplamente utilizadas principalmente para 
gravação de backups (cópias de segurança), pelo seu baixo custo em 
relação à alta capacidade de armazenamento.
Atualmente os principais tipos de fitas magnéticas comercializados para 
uso com computadores são o DDS (Digital Data Storage – Armazenamento 
de Dados Digitais) e o DAT (Digital Audio Tape – Fita de Áudio Digital), 
sendo que esta última foi precursora da DDS e, apesar do nome, algumas 
versões são utilizadas para armazenamento de dados não musicais. O 
quadro 2 apresenta os principais tipos de fitas magnéticas utilizadas em 
computadores.
Quadro 2 – Fitas magnéticas.
Nome / 
Tipo
Ano Comprimento da fita Capacidade
DDS-1 1989
60 metros 1,3 GB (2,6 GB comprimidos)
90 metros 2 GB (4GB comprimidos)
DDS-2 1993 120 metros 4 GB (8 GB comprimidos)
DDS-3 1996 125 metros 12 GB (24 GB comprimidos)
DDS-4 / 
DAT 40
1999 150 metros 20 GB (40 GB comprimidos)
DAT 72 2003 170 metros 36 GB (72 GB comprimidos)
DAT 160 2007 154 metros 80 GB (160 GB comprimidos)
DAT 320 2009 153 metros 160 GB (320 GB comprimidos)
Fonte: o próprio autor.
– 69 –
Hardware interno do computador
4.5.3.2 Hard Disk Drive
Com a popularização dos microcomputadores, o armazenamento 
aleatório precisava ser transportado dos grandes computadores, sendo que 
a solução dos tambores magnéticos, de custo elevado, precisava dar espaço 
a algo mais prático e barato. Pesquisadores da IBM criaram então o que até 
hoje é o mais utilizado meio de armazenamento em massa de um computador 
pessoal: o HDD (Hard Disk Drive – Drive de Disco Rígido). O termo 
armazenamento em massa está ligado à alta quantidade de dados que é 
armazenada, em relação ao armazenamento primário, que é bem menor.
A primeira versão de um HDD consistia de um gabinete que alojava dois 
discos metálicos rígidos, cada um com capacidade de armazenamento de até 30 
MB, em que agulhas (com cabeças de leitura na ponta) faziam a leitura/gravação 
dos dados. As cabeças eram suspensas (chamadas flutuantes), operando sem 
estabelecer contato com a superfície: apenas alinhando seus elétrons através de 
eletromagnetismo para gravação dos dados. Um destes discos era fixo, enquanto 
o outro era removível. Importante ressaltar que o termo fixo se refere ao fato do 
disco não poder ser removido da unidade, mas certamente ele girava para que 
os dados pudessem ser acessados pela cabeça. A esse par de discos rígidos (fixo/
removível) os pesquisadores chamavam de 30/30, referindo-se à capacidade de 
armazenamento de cada um. Sendo este mesmo par numérico (30-30) o código 
do até então mais famoso rifle da fabricante de armas Remington, o Winchester, 
eis que os drives de disco rígido passaram a ser chamados de winchesters, apelido 
que perdurou por décadas. Além dessa nomenclatura, os drives também foram 
chamados de fixed disks (discos fixos), mas a sigla pelo qual é mundialmente 
conhecido hoje é HD (Hard Disk – Disco Rígido).
O princípio de funcionamento de um HD atual é o mesmo de seu 
progenitor: cabeças suspensas por agulhas, que realizam leitura/gravação 
através de ação eletromagnética na superfície metálica do disco. Porém, já há 
muito tempo o equipamento é composto apenas por discos fixos (também 
chamados de pratos – platters) alojados em uma câmara, não existindo mais 
a possibilidade de remoção, sendo que, de modelo para modelo, muda-se 
a quantidade de discos e agulhas. Ainda há a placa de circuitos necessários 
para conversão dos pulsos eletromagnéticos captados pela agulha em 
sinais eletrônicos, que serão enviados à interface de comunicação como o 
microcomputador. Veja estes elementos na figura 9.
– 70 –
Fundamentos da Informática
Figura 9 – Componentes de um HD.
F
on
te
: E
va
nd
ro
 Z
at
ti
A velocidade de rotação dos discos é medida em RPM (Revolutions Per 
Minute – Revoluções Por Minuto) e pode obedecer a dois padrões: velocidade 
angular e velocidade linear, sendo que a maioria dos discos possui rotação 
constante, de velocidade angular. Os drives mais comercializados atualmente 
envolvem discos que trabalham em velocidades de rotação angular de 5400 
e 7200 RPM. São velocidades tão altas que justificam o alojamento dos 
discos em câmaras fechadas, pois qualquer partícula de poeira ou até mesmo 
um mínimo contato da cabeça com a superfície do disco pode danificá-lo, 
comprometendo sua integridade e dos dados ali armazenados.
Para que as cabeças possam realizar a leitura/gravação dos dados, a superfície 
do disco precisa passar por um processo conhecido como formatação física 
(ou low level – baixo nível). A formatação física é a distribuição ordenada dos 
elétrons na superfície do disco, obedecendo a padrões de subdivisões, conhecidos 
como trilhas e setores, que estão relacionados diretamente ao tipo de velocidade 
adotada pelo equipamento. A figura 10 apresenta um esquema contemplando 
estes elementos.
– 71 –
Hardware interno do computador
Figura 10 – Superfície de um disco rígido
Organização física e lógica do drive
1
2
3
4
5
6
7
89
10
11
12
13
14
15
16
Setor
Trilha
Cabeça 0
Cabeça 1
Cabeça 2
Cabeça 3
Cabeça 4
Cabeça 5
Empilhamento
das cabeças
Independente da quantidade de discos internos (e consequentemente de 
cabeças de leitura) de um HD, a rotação dos discos e movimentação das cabeças 
é sempre dependente, ou seja: os discos giram todos juntos, enquanto as 
cabeças se movimentam na mesma cadência. Por conta deste comportamento, 
a sequência vertical que se forma com as trilhas que estão alinhadas com as 
cabeças é chamada de cilindro.
Os HDs são vendidos em tamanhos físicos padronizados, cuja medida 
corresponde ao diâmetro dos discos internos, medida em polegadas, sendo 
as medidas mais comumente encontradas: 3,5” (para computadores de mesa 
– desktops) e 2,5” (para computadores portáteis – notebooks). Além dessas, 
outras medidas especiaisainda são e/ou foram comercializadas.
A quantidade de discos e a condensação dos setores define a capacidade 
de armazenamento de dados de um HD. Já para se determinar a taxa de 
transferência (velocidade), vários fatores estão envolvidos: velocidade de 
rotação dos discos; velocidade das cabeças; placa lógica (incluindo padrão 
de conexão e barramento e quantidade de memória cache, nesse contexto 
chamada de buffer). Ainda há que ser considerado tempo de acesso ao dado, 
que é o tempo que a cabeça leva para chegar ao setor desejado. 
– 72 –
Fundamentos da Informática
HDs de uso doméstico, encontrados atualmente no mercado, armazenam 
na faixa dos terabytes (TB) de dados. As taxas de transferência do disco para 
o buffer variam em torno de 125 MB/s, enquanto a transferência do buffer 
para o computador, através de uma interface SATA 3.0 pode ser feita a uma 
taxa de 300 MB/s, sendo mais do que suficiente para os HDs mecanicamente 
mais rápidos.
4.5.3.3 Floppy disk
Criados na década de 60 do século XX e lançados no mercado na 
década de 70 do século XX, os floppy disks (discos flexíveis), conhecidos 
popularmente no Brasil como disquetes, foram durante muito tempo o 
principal meio de transporte de dados entre computadores. Consistiam de 
discos de material magnético flexível, envoltos por uma capa plástica. Com 
capacidade reduzida, mas suficiente para levar documentos, planilhas e até 
gráficos de um PC para outro, hoje estão em desuso, tendo sido substituídos 
por unidades de memória flash, principalmente os pen-drives. 
Para que um disquete possa ser lido/gravado, é necessário inseri-lo em 
um Floppy Disk Drive (Drive de disquete), simplesmente chamado de drive, 
dispositivo presente em praticamente todos os PCs comercializados entre os 
anos de 1980 e 2010. Os primeiro modelo de disquete, lançado em 1971, 
tinha diâmetro de 8” e capacidade de armazenamento próximo de 160 KB, e 
o último modelo de disquete lançado em 1993 tinha 3½” de diâmetro com 
capacidade de 5,76 MB. O mais popular deles, e que perdurou por décadas 
no mercado, foi o disquete de 3½” HD, ou seja, com 1,44 MB de capacidade 
de armazenamento. O quadro 9 apresenta um histórico evolutivo com os 
principais modelos de disquetes.
Quadro 3 – Evolução dos disquetes.
Tamanho Modelo Ano Capacidade
8”
Single Sided – Face Simples
1971 80 KB
1973 256 KB
1974 800 KB
Dual Sided – Face Dupla 1975 1 MB
– 73 –
Hardware interno do computador
Tamanho Modelo Ano Capacidade
5¼”
Single Density – Densidade Simples 1976 160 KB
DD (Double Density – Densidade Dupla) 1978 360 KB
QD (Quad Density – Den-
sidade Quádrupla)
1980 720 KB
HD (High Density – Alta Densidade) 1984 1,2 MB
3½”
DD (Double Density – Den-
sidade Dupla)
1984 720 KB
HD (High Density – Alta Densidade) 1987 1,44 MB
ED (Extra Density – Densidade Extra) 1991 2,88 MB
EDS (Extra Density Super – 
Densidade Extra Super)
1993 5,76 MB
Fonte: o próprio autor.
A figura 11 apresenta os disquetes e drives em seus três tamanhos, nos 
quais foram comercializados.
Figura 11 – Disquetes e Drives
F
on
te
: E
va
nd
ro
 Z
at
ti
8"
5.25"
3.5"
4.5.3.4 Zip Disk
Os avanços tecnológicos sobre discos magnéticos flexíveis, impulsiona-
dos pela necessidade de se transportar arquivos cada vez maiores, permitiram 
a concepção do zip disk, em 1994. Lançado pela Iomega juntamente com o 
leitor (zip drive), o disco era uma espécie de disquete aumentado: um disco 
magnético flexível envolto por uma capa plástica protetora, porém de tama-
– 74 –
Fundamentos da Informática
nho físico maior que os disquetes de 3½”. Sua capacidade de armazenamento 
era muito superior: a primeira e mais popular versão do zip disk suportava 
100 MB de dados. 
Com isto, o disco virou vedete dos bureaus e gráficas, por permitir o 
transporte de arquivos gerados por softwares gráficos, que antes tinham que 
ser transportados divididos entre dezenas de disquetes. Porém, era altamente 
suscetível a erros e rapidamente perdeu espaço para os CDs regraváveis que 
buscavam mercado na época. Ainda assim, posteriormente foram lançados zip 
disks de capacidades de 250 MB e 750 MB. Também similar ao zip, a Iomega 
lançou posteriormente os Jaz drives e disks, que chegavam à capacidade de 
2GB de armazenamento. Veja na figura acima um zip disk com seu modelo 
de leitor.
4.5.4 Armazenamento óptico
Como já comentado no início deste capítulo, as mídias ópticas são aquelas 
que fazem uso da luz para armazenamento/leitura dos dados. No caso, estamos 
falando da gravação e leitura através do uso do laser. Ao invés da informação 
binária ser armazenada com alinhamento de elétrons, como nas mídias 
magnéticas, aqui a informação é gravada mediante reflexão (ou não) da luz em 
uma superfície. Simplificando: quase como nos cartões perfurados, são feitas 
perfurações microscópicas em uma camada metálica, para que a luz não seja 
refletida e lida pelo canhão de laser. Veja o princípio de funcionamento de 
gravação/leitura na primeira e mais popular mídia óptica: o CD.
4.5.4.1 Compact Disc
O CD (Compact Disc – Disco Compacto) começou a ser desenvol-
vido em meados da década de 70 do século XX, com objetivo de substituir 
o disco de vinil, meio analógico que na época era utilizado para grava-
ções fonográficas. Pesquisadores de duas empresas, a holandesa Philips e a 
japonesa Sony, trabalhavam em projetos paralelos no desenvolvimento de 
uma mídia que pudesse armazenar música de forma digital. Ambas apre-
sentaram seus protótipos em março de 1979 e a partir daí uniram esforços 
para padronização e especificação da versão final do CD que ainda hoje é 
comercializado (veja quadro 4).
– 75 –
Hardware interno do computador
Quadro 4 – Comparativo entre protótipos e versão comercial do CD.
Característica Protótipo da Philips Protótipo da Sony Versão Comercial
Sampling rate* 44 a 44,5 KHz 44,1 KHz 44,1 KHz
Quantization* 14 bits 16 bits 16 bits
Tempo 60 minutos 60 minutos 74 minutos
Diâmetro 11,5 cm 10 cm 12 cm
Espessura - - 1,2 mm
* Sampling rate e Quantization são características de áudio digital, abordadas no capítulo 5.
Fonte: o próprio autor.
Depois de muitas brigas e discussões entre as duas empresas, os primeiros 
CDs musicais, conhecidos como CD-DA (Compact Disc Digital Audio – 
Disco Compacto de Áudio Digital), começaram a ser fabricados a partir de 
1981, sendo que os primeiros players chegaram ao mercado japonês somente 
no final de 1982 e ao mercado mundial em meados de 1983.
O sucesso da nova mídia atingiu o mundo da informática, e em 1985 
foi lançado o primeiro CD-ROM (Compact Disc ROM – ROM em Disco 
Compacto), a primeira versão de uso do disco para armazenamento de 
dados, com capacidade de armazenamento de 650 MB. Em 1990 foi lançada 
no mercado a versão para gravação doméstica, o CD-R (Compact Disc 
Recordable – Disco Compacto Gravável), que permitia uma única gravação, 
com capacidade inicial de 680 MB em versão posterior permitindo gravação 
de até 700 MB. A versão regravável foi apresentada ao mercado em 1997, o 
CD-RW (Compact Disc ReWritable – Disco Compacto Regravável), com 
capacidade de armazenamento de 700 MB.
O disco, com 1,2 mm de espessura é um “sanduíche” composto de 
algumas camadas:
 2 camada de etiqueta (pré-impressa ou adesiva, opcional);
 2 camada de verniz (previne oxidação da camada reflexiva);
 2 camada reflexiva (substâncias metálicas reflexivas);
 2 camada de dados (substâncias metálicas, onde são feitos os sulcos 
que representam o dado/bit)
– 76 –
Fundamentos da Informática
 2 camada de policarbonato (material resistente transparente que dá 
suporte às outras camadas). 
O funcionamento do CD é simples: um canhão laser projeta um feixe 
de luz sobre a superfície do disco, que, de acordo com sua incidência nas 
camadas que ocompõem, vai refletir (ou não) essa emissão de luz até um 
receptor. Assim os bits são armazenados: na forma de sulcos microscópicos 
na camada de dados. Para gravação dos dados em CD-R ou CD-RW, 
o que muda basicamente é o material empregado na camada de dados. 
No caso do CD-R, são materiais que, ao receberem um feixe de laser de 
determinada potência, se fundem, formando os sulcos. O CD-RW possui 
uma liga especial que, conforme a potência do laser que lhe é incidida, se 
deforma (formando os sulcos) ou relaxa (voltando ao estado original). Esses 
diferentes materiais empregados na camada de dados é que são responsáveis 
pelas diferentes cores encontradas nas superfícies dos CDs.
Veja na figura 12 o processo de leitura/gravação de dados em um CD.
espelho
polarizador
detector
fotoelétrico
detalhe da superfície de dadosgravação / leitura
distância entre orifícios ( )track pitch
1
.6
 m
ic
ro
n
0
.7
4
 m
ic
ro
n
0
.3
2
 m
ic
ro
n
lentes
disco
CD DVD BD
canhão laser
1.2 mm
0.6 mm
face da etiqueta
0.6 mm
1.1 mm
Figura 12 – Gravação/ Leitura em discos ópticos (CD, DVD, BD).
F
on
te
: E
va
nd
ro
 Z
at
ti
A comercialização de aplicativos (veja capítulo 9) também ganhou muito 
com a adoção do CD em PCs: o que antes chegava a exigir várias caixas de 
disquete para distribuição dos pacotes de instalação foi substituído em sua 
maioria por um único CD.
– 77 –
Hardware interno do computador
Assim como os compactos de vinil, o CD também recebeu posteriormente 
uma versão de tamanho físico menor: o mini CD. Com diâmetro de 8 cm, sua 
capacidade de armazenamento é de 180 MB e 23:30 minutos de áudio.
4.5.4.2 Digital Versatile Disc
Apresentado ao público em 1995, o DVD (Digital Versatile Disc – Disco 
Versátil Digital) foi concebido com o intuito de ser uma mídia digital de alta 
capacidade, sobretudo para armazenamento de filmes de alta qualidade em 
formato digital, algo que o CD, com seus 700 MB de capacidade não comportava. 
A comercialização inicial comportando filmes gerou uma confusão no uso da 
sigla: as pessoas começaram a chamá-lo de Digital Video Disc (Disco de Vídeo 
Digital). A verdade é que, apesar de pouco observada, há sempre uma palavra ou 
sigla atrelada à sigla DVD, que identifica a que se destina seu conteúdo:
 2 DVD-Video: é o tipo mais comum, comercializado com filmes.
 2 DVD-Audio: não muito popular no Brasil, apresenta somente 
áudio multicanal para ser ouvido em equipamentos específicos.
 2 DVD-RAM: apresenta conteúdo de dados e permite regravação.
 2 DVD-ROM: apresenta conteúdo de dados previamente gravados 
em fábrica.
 2 DVD-R (+R): permite gravação de dados ou vídeo de uma única 
vez, sem possibilidade de apagar ou regravar.
 2 DVD-RW (+RW): permite gravação, apagamento e regravação de 
dados ou vídeo.
Todas estas possibilidades apenas reforçam o significado da letra V na 
sigla: versátil, e não somente vídeo.
Com diâmetro igual ao do CD (12 cm), o DVD possui maior capacidade 
de armazenamento devido à densidade com que os sulcos são gravados 
(menores e mais próximos) e também à quantidade de camadas de gravação. 
O quadro 5 apresenta as versões de DVD com suas respectivas características.
– 78 –
Fundamentos da Informática
Quadro 5 – Tipos de DVDs.
Especificação Faces Camadas Diâmetro Capacidade
DVD-1 SS SL 1 1 8 cm 1,46 GB
DVD-2 SS DL 1 2 8 cm 2,66 GB
DVD-3 DS SL 2 2 8 cm 2,92 GB
DVD-4 DS DL 2 4 8 cm 5,32 GB
DVD-5 SS SL 1 1 12 cm 4,70 GB
DVD-9 SS DL 1 2 12 cm 8,54 GB
DVD-10 DS SL 2 2 12 cm 9,40 GB
DVD-14 DS DL/SL 2 3 12 cm 13,24 GB
DVD-18 DS DL 2 4 12 cm 17,08 GB
Legenda: SS = Single Sided (face simples) / DS = Double Sided (face dupla).
SL = Single Layer (camada simples) / DL = Dual Layer (camada dupla).
Fonte: o próprio autor.
Melhores e com maior número de funcionalidades, os aplicativos 
mais uma vez exigiam uma mídia maior para distribuição de seus pacotes 
de instalação. Quando a indústria de PCs adotou o DVD como mídia de 
armazenamento, os instaladores de aplicativos eram tão grandes que chegavam 
a ser distribuídos em cases com vários CDs.
 Saiba Mais
Por questões de controle de distribuição de conteúdo, a indústria 
cinematográfica exigiu que os discos de DVD-Video fossem fabricados 
com um código indicando em qual área poderiam ser reproduzidos. 
Da mesma forma, os aparelhos de DVD deveriam respeitar esta 
regionalização. Os códigos de região variam entre 0 e 8, sendo que no 
Brasil os filmes são distribuídos como região 4 (México, América Central 
e do Sul; Caribe; Austrália; Nova Zelândia; Oceania). DVDs de vídeo 
distribuídos com região 0 ou ALL podem ser vistos em qualquer aparelho.
– 79 –
Hardware interno do computador
4.5.4.3 HD-DVD e Blu-Ray Disc
Quanto maior a qualidade de imagem e som digitais (o capítulo 5 
aborda este tema), maior a quantidade de bytes necessária para armazená-
los. O aumento da resolução de vídeo e da quantidade de canais de som 
multicanal trouxe a necessidade de um meio com maior capacidade. Apesar 
de a transmissão de conteúdo de alta definição já estar presente desde 
meados dos anos 90 do século XX, somente em 2008 foram apresentados 
ao mercado aparelhos e discos com capacidade de armazenamento para 
estes conteúdos. 
Na época, duas grandes rivais disputavam o mercado com dois padrões 
distintos. A Toshiba trazia o HD-DVD (High Density DVD – DVD de Alta 
Densidade), uma evolução do DVD, que permitia armazenamento de até 15 
GB por camada do disco. A Sony, por sua vez, apresentava um novo conceito: 
um laser de comprimento de onda diferente, azul, que permitia a leitura de 
discos com maior densidade na gravação das informações: o BD (Blu-ray Disc 
– Disco de Raio azul, sendo que blu é grafado sem a letra E ao final, porém em 
uma analogia ao laser de cor azul), popularmente chamado de blu-ray. Depois 
de algum tempo e de vários títulos lançados no mercado em ambos os formatos, 
a Toshiba abandonou o suporte ao HD-DVD, permanecendo no mercado o 
BD, tornando-se então a mídia padrão para armazenamento de vídeo de alta 
definição. Veja no quadro 6 os tipos de BDs disponíveis para comercialização.
Quadro 6 – Tipos de BDs.
Tipo Tamanho
Capacidade
Camada Simples Camada Dupla
Standard 12 cm 25 GB 50 GB
Mini 8 cm 7,8 GB 15,6 GB
Fonte: o próprio autor.
4.5.5 Outras formas de armazenamento
Seguindo a mesma tendência dos CDs e DVDs, que se popularizaram 
no consumo multimídia (filmes e música), o BD tornou-se bastante popular 
para o consumo de filmes em alta definição. Porém, como seus antecessores, 
essa popularidade não se refletiu em microcomputadores, ainda que existam 
– 80 –
Fundamentos da Informática
vários modelos de gravadores e mídias BD no mercado. Por questões culturais 
e de comportamento, as pessoas estão deixando de lado esse tipo de mídia. 
Destacam-se aqui alguns fatores que indicam uma possível extinção desse 
tipo de mídia:
 2 Consumo de conteúdo multimídia on-line: ouve-se música e 
assistem-se filmes diretamente via internet;
 2 Popularização e redução de custo de mídias removíveis: HDs 
externos e memórias flash estão cada vez mais práticos, rápidos, 
confiáveis e baratos;
 2 Armazenamento de dados em nuvem: os serviços de cloud 
computing (computação em nuvem) têm se popularizado, 
dispensando o armazenamento local.
As soluções citadas têm se tornado cada vez mais populares entre usuários 
de PC, atendendo necessidades tanto de consumo imediato (transporte de 
dados) quanto para backups (cópias de segurança).
Vale lembrar também que a estratégia de alguns fabricantes está alinhada 
com esse tipo de comportamento: a Apple Computers nunca chegou a incluir 
leitores/gravadores de BD em seus PCs e seus modelos mais recentes também 
dispensam os leitores/gravadores de DVD.4.5.5.1 Cartões de Memória
Os cartões de memória, também conhecidos como flash cards, come-
çaram a surgir no início dos anos 90 do século XX, atingindo rapidamente 
grande popularidade com o uso em câmeras digitais, celulares e PDAs (Per-
sonal Digital Assistants – Assistentes Pessoais Digitais), por serem pequenos e 
armazenarem quantidade considerável de dados.
Utilizando o mesmo conceito de EEPROM, existem no mercado diver-
sos tipos de cartões de memória com diferentes características que envolvem 
principalmente capacidade e velocidade. Dentre os principais cartões, estão o 
SD (Secure Digital), o Memory Stick (Sony) e o Compact Flash (SanDisk). 
Para que um cartão possa ser lido/gravado em um PC, é necessário se ter 
um módulo específico de leitura/gravação para o modelo de cartão em uso. 
Existem disponíveis vários leitores/gravadores de cartão multi, ou seja, que 
– 81 –
Hardware interno do computador
apresentam diferentes slots para inserção dos padrões mais comuns de cartões 
de memória.
S
hu
tt
er
st
oc
k.
co
m
/S
er
g6
4
Figura 13 – Cartões de memória flash e leitor multi
4.5.5.2 Pen-drives
Os USB flash drives, chamados popularmente de pen-drives, são também 
variações de módulos de memória EEPROM, que trazem consigo interface USB 
integrada, ou seja, não é necessário um leitor específico. Basta conectar o pen-
drive em uma porta USB do PC para que ele possa ser lido/gravado. A velocidade 
de operação (taxa de transferência) de um pen-drive varia tanto pelo tipo de 
módulo de memória empregado em sua fabricação quanto pelo padrão de versão 
USB que ele utiliza em sua interface: USB 1.1, USB 2.0 ou USB 3.0.
4.5.5.3 Solid State Drive
O SSD (Solid State Drive – Drive de Estado Sólido) é o provável 
substituto do HD. No lugar dos delicados mecanismos eletromecânicos e 
discos magnéticos de um HD, o SSD é composto de módulos de memórias. 
Por não ter partes móveis, daí vem o nome estado sólido.
É comercializado sob a mesma forma física dos HDs, com o mesmo tipo de 
interface (SATA é a mais comum), porém com capacidades de armazenamento 
ainda reduzidas (máximo de 256 GB) e preços altos, se comparado aos HDs.
Quanto ao tipo de armazenamento (memória), apresentam-se em dois 
grupos: memória flash e DRAM. Os SSDs baseados em memória flash são 
mais baratos, porém mais lentos e ainda podem ser divididos em dois tipos: 
– 82 –
Fundamentos da Informática
MLC (Multi Level Cell – Célula de Vários Níveis), mais lentos e similares à 
tecnologia empregada nos pen-drives; ou SLC (Single Level Cell – Célula de 
Único Nível), muito mais rápidos. Os do outro grupo (baseados em DRAM) 
utilizam os mesmos módulos de memória DRAM de PCs para armazena-
mento. Uma vez que esse tipo de memória é volátil, os SSDs baseados em 
DRAM possuem fontes extras de alimentação (bateria) para garantir a persis-
tência dos dados no caso de serem desligados.
A grande vantagem dos SSDs é a velocidade com que operam, partindo 
de 100 MB/s chegando a atingir até 600 MB/s dependendo do modelo, 
enquanto um HD trabalha na velocidade média de 150 MB/s.
4.5.6 Interfaces de armazenamento
Como já foi comentado, todos os aplicativos que são executados 
por um PC residem em uma unidade de armazenamento em massa. E 
é também nessas unidades que são gravados os trabalhos (documentos, 
planilhas, etc.) durante o seu desenvolvimento. Para que os dados sejam 
transportados do armazenamento secundário para o armazenamento 
primário, eles passam pelas interfaces de armazenamento, que são 
responsáveis por estabelecer a comunicação entre esses dois segmentos de 
armazenamento de dados.
As interfaces de armazenamento, portanto, influenciam diretamente 
no desempenho geral do PC, então sua velocidade de operação deve 
sempre ser igual ou superior à unidade de armazenamento com a qual ela 
estabelece comunicação.
4.5.6.1 Disquetes
As interfaces de floppy são as de funcionamento mais simples. Presentes 
desde os primeiros drives de disquete, elas têm a missão de converter os 
dados que recebem em informações de localização (setores) de uma única 
cabeça de leitura/gravação. Esta função é realizada basicamente por um 
único microprocessador.
– 83 –
Hardware interno do computador
4.5.6.2 Padrão ATA/IDE
As unidades de armazenamento e interfaces mencionadas nesta seção 
referem-se a ATAs paralelas, hoje chamadas de PATA (Parallel ATA). Em 
paralelo ao barramento USB, surge então a sua versão serial: o SATA. A 
figura 14 ilustra um cabo com conector PATA.
Sh
ut
te
rs
to
ck
.c
om
/L
au
ra
 G
an
gi
 P
on
d
Figura 14 - Intarface Parallel ATA
4.5.6.3 Padrão SATA
A segunda versão do padrão, o 
SATA 3.0 Gbps, também chamada de 
SATA-2 ou SATA-II trouxe a correção 
de alguns problemas de requisições 
encontrados na primeira versão, além 
de aumentar a taxa efetiva para 300 
MB/s. Veja na figura 15 ao lado um 
conector SATA.
4.5.6.4 Padrão SCSI
O padrão SCSI (pronuncia-se /’skãzi/) vai muito além de uma interface: 
é uma solução completa de barramento. É uma interface de comunicação 
Conector de
Interface SATA
Conector de
Alimentação SATA
– 84 –
Fundamentos da Informática
paralela que permite a interligação de vários dispositivos que se comunicam 
diretamente entre si. Portanto, uma solução ideal para armazenamento de 
dados em servidores, que atendem a várias requisições simultâneas, ou para 
soluções de áudio e vídeo profissional.
O padrão SCSI, assim como o ATA, também possui versões seriais: o 
SSA (Serial Storage Architecture – Arquitetura de Armazenamento Serial), 
com taxas de transferência de 40 MB/s e o SAS (Serial Attached SCSI – SCSI 
Ligada em Serial), com taxas de até 300 MB/s.
 Da teoria para a prática 
Pesquise sobre como é feita a divisão de setores e trilhas nos dispositivos 
de armazenamento que trabalham com discos e explique qual a principal 
diferença das trilhas de um CD e o motivo técnico para a sua concepção 
dessa forma diferente.
Conclusão
O processador é considerado o cérebro do computador. Ele é responsável 
por executar as instruções que garantem o funcionamento da máquina, 
que vão desde cálculos à transferência de dados. Tudo acontece através de 
pulsos elétricos transmitidos para seu interior através dos pinos de encaixe. 
Operando através da presença e ausência de eletricidade, o sistema binário de 
numeração é a base de seu funcionamento.
Os barramentos são as vias que possibilitam o tráfego de dados dentro do 
computador e para fora dele. A velocidade desse tráfego depende da largura do 
barramento e da sua frequência de operação. O barramento local, responsável 
pela comunicação entre o processador e a memória, trabalha em alta velocidade, 
enquanto os barramentos de expansão, que permitem a comunicação com 
equipamentos externos, trabalham em velocidades bem menores. 
– 85 –
Hardware interno do computador
É natural que se queira guardar o trabalho que é desenvolvido em um 
computador. Do cartão perfurado ao laser, o armazenamento de dados é 
parte integrante de um sistema computacional. Os meios de armazenamento 
magnético (disquetes e HDs) e óptico (CDs, DVDs) tendem a dar espaço 
para o armazenamento em chips, mais rápido e confiável, como é o caso dos 
cartões de memória e pen-drives. E, para cada tipo de dispositivo, haverá uma 
interface correspondente. 
5
Dispositivos de 
Entrada e Saída
São dispositivos de entrada os responsáveis por enviar 
informações do meio externo para o computador: teclado, mouse, 
câmera, microfone, scanner, etc. Este capítulo aborda os dispositi-
vos imprescindíveis à realização de qualquer tarefa básica utilizando 
um PC: o teclado e os dispositivos apontadores, dentre os quais está 
incluso o mouse.
5.1 Teclado
Atualmente o teclado é o dispositivo mais comum de entradade dados para o computador, quando se trata da manipulação de 
informação textual ou de números. Um teclado de computador 
possui teclas que representam letras, números, símbolos especiais e 
outras funções, sendo que a disposição física é baseada em antigas 
máquinas de escrever. 
O funcionamento básico do mecanismo de um teclado é 
sempre o mesmo: o pressionamento da tecla aciona um comutador 
que irá alterar o fluxo da corrente elétrica, naquele ponto, 
– 88 –
Fundamentos da Informática
identificando para um circuito qual tecla foi pressionada. O circuito, por sua 
vez, irá converter esse simples dado do tipo liga/desliga em uma sequência 
binária que informe ao computador qual símbolo foi digitado. Esta sequência 
é então enviada ao computador, por meio de uma porta ou barramento 
específico, fazendo ou não uso de cabos.
A primeira forma de se classificar um teclado é, então, pelo tipo de 
comutador utilizado nas teclas, os quais são apresentados a seguir.
5.1.1 Teclados de comutador mecânico
Esse tipo de teclado era o mais comercializado acompanhando os primeiros 
PCs. O chamado comutador mecânico consistia em duas chapinhas de metal 
que se conectavam para controlar o fluxo da corrente elétrica. O retorno 
mecânico das teclas podia ser realizado pelas próprias chapinhas, porém para 
que elas não se desgastassem, cada tecla era montada com pequenas alavancas e 
molas que equilibravam o pressionamento e retorno das teclas.
5.1.2 Teclados rubber dome
Nesse tipo de teclado o comutador da tecla é formado por uma 
pequena cúpula de borracha (daí o nome rubber dome) que se achata com o 
pressionamento da tecla e volta a seu estado original quando a tecla é solta. 
5.1.3 Teclados de membrana
Os teclados de membrana são similares aos rubber dome, com a diferença 
que, ao invés da borracha, utilizam plástico fino (membrana) na composição 
dos comutadores. 
5.1.4 Teclados capacitivos
Eles fazem uso de eletricidade estática armazenada em um material 
(capacitância) para seu funcionamento. Por não haver peças de contato, sua 
durabilidade é muito maior do que as outras tecnologias, porém o processo 
de fabricação é mais caro. É uma tecnologia em desuso para teclados de PCs 
porque o custo de fabricação não justifica a durabilidade.
– 89 –
Dispositivos de Entrada e Saída
5.1.5 Layouts de teclados
A disposição das teclas (layouts) da maioria dos teclados de computador 
segue o mesmo padrão das antigas máquinas de datilografia (máquinas de 
escrever). Nesta disposição, as primeiras seis letras da primeira linha do 
teclado são QWERTY, sendo este o nome atribuído ao layout. 
Propostas alternativas ao layout QWERTY surgiram ao longo dos 
anos, sendo que uma em específico merece destaque: é a sugerida por 
August Dvorak e William Dealey. A proposta apresenta algumas ideias 
com objetivo de aumentar a velocidade de datilografia. Dentre elas, a 
principal é que as teclas mais utilizadas residissem na linha de repouso, 
evitando assim movimentos desnecessários dos dedos e aumentando a 
eficiência ao datilografar. 
A linha de repouso é aquela onde os dedos (com exceção do polegar) 
descansam enquanto não estão pressionando teclas. Batizado com o nome 
de seus criadores, este layout é conhecido como Dvorak-Dealey, comumente 
chamado simplesmente de layout Dvorak. Há layouts Dvorak distintos 
para mão esquerda, mão direita e ambas as mãos.
 Saiba Mais
Para comparar a eficácia do teclado Dvorak, acesse o site 
<http://www.chimoosoft.com/articles/dvoraktest.php> e 
faça o teste com o seguinte texto:
“Este é um teste para saber se na Língua Portuguesa o layout 
Dvorak também seria mais eficiente, seguindo a ideia do uso 
mais frequente das letras da linha de repouso (home row).”
Resultado: No layout Dvorak, 48% das letras do texto sugerido 
estão na linha de repouso, contra 24% do layout QWERTY.
A figura 1 apresenta os layouts QWERTY e Dvorak, respectivamente. 
– 90 –
Fundamentos da Informática
Figura 1 – Layouts de teclados
LAYOUT QWERTY ABNT
LAYOUT DVORAK SIMPLIFICADO
5.1.6 Teclas especiais
Apesar da semelhança com o teclado de uma máquina de datilografia, 
o teclado de computador vai além da digitação de textos. A primeira 
configuração padronizada pela IBM em 1981 considerava um total de 83 
teclas. Reclamações e ajustes fizeram com que a configuração fosse atualizada 
para 101 teclas (figura 2), incluindo as teclas especiais e o teclado numérico.
As teclas especiais comuns a todos os teclados padrão IBM-PC foram 
criadas para desempenhar funções especiais de acordo com o aplicativo 
utilizado. Algumas exercem ação quando pressionadas sozinhas (teclas de 
função F1 a F12), outras precisam ser acionadas conjuntamente com outras 
para terem algum efeito, como é o caso da tecla CTRL (Control – Controle) 
e ALT (Alternate – Alternar).
Dependendo da plataforma de PC utilizada, alguns teclados mais 
recentes trazem outras teclas de funções específicas, que mesmo com uso 
extensivo não estão previstas no padrão internacional. É o caso, por exemplo, 
– 91 –
Dispositivos de Entrada e Saída
da tecla Windows® e da tecla Option. A primeira, presente em PCs que rodam 
o sistema operacional Windows®, vem com o logotipo do sistema impresso 
em sua superfície e desempenha funções específicas apenas naquele sistema. A 
segunda está presente em teclados de computadores Apple e também só tem 
utilidade naquele sistema.
Figura 2 – Teclado avançado padrão IBM.
F
on
te
: E
va
nd
ro
 Z
at
ti
5.1.7 Conexões
Os primeiros teclados padrão IBM 
utilizavam o padrão DIN (Deutsches Institut für 
Normung – Instituto Alemão de Normalização) 
para conexão. O conector DIN é um conector 
circular, que pode ser apresentado com diversas 
configurações de pinos, com especificação pelo 
ângulo da disposição e a quantidade de pinos. 
Os conectores de teclado padrão IBM utilizavam 
a configuração DIN 5/180º, posteriormente 
passando a utilizar o padrão mini-DIN de 6 
pinos (figura 3).
5.2 Dispositivos apontadores
Tarefas realizadas com os primeiros PCs envolviam diretamente o uso 
do teclado. Desde a simples digitação de textos na editoração, ou de números 
em uma operação de cálculo, até mesmo os comandos que controlavam os 
Figura 3 – Conexões DIN 
 e mini-DIN.
S
hu
tt
er
st
oc
k
– 92 –
Fundamentos da Informática
aplicativos tinham que ser informados ao sistema mediante pressionamento 
de uma ou várias teclas em sequência.
5.2.1 Mouse
O mouse foi um dispositivo revolucionário no mundo dos computadores 
pessoais, bem como os sistemas de interface gráfica. Com o surgimento das 
interfaces gráficas e do mouse, a interação entre humano e computador ficou 
consideravelmente mais amigável e prática: tudo ao alcance de um clique. 
Bastaria movimentar o aparelho sobre uma superfície que o movimento era 
reproduzido por um ponteiro na tela, e então escolher a opção desejada. A 
ideia surgiu nos laboratórios da Xerox no final da década de 70 do século XX, 
mas a empresa desdenhou o aparelho, que começou a se popularizar no início 
dos anos 80 desse século, em sistemas de computadores da Apple e em IBM-
PCs com sistema operacional Microsoft Windows®.
A primeira versão comercial do mouse, conhecido como mecânico, 
utilizava uma esfera de borracha em sua parte inferior e rolamentos internos 
para seu funcionamento. Ao se deslizar o aparelho sobre uma superfície 
plana, a esfera girava, fazendo girar também os rolamentos a ela conectados, 
cujos movimentos eram lidos por LEDs (Light Emitting Diodes – Diodos 
Emissores de Luz) infravermelhos e então enviados ao computador por meio 
de circuitos eletrônicos. A figura 4 esclarece esse funcionamento.
Figura 4 – Interior de um mouse mecânico.
1
2
4
5
3
1 - Ao se empurrar o mouse a esfera gira
2 - As roldanas empurradaspela esfera transferem o movimento nos eixos X e Y
3 - Os discos presos às roldanas possuem orifícios para controlar a passagem de luz
4 - LEDs infravermelhos iluminam através dos discos
5 - Sensores captam os pulsos de luz emitidos pelos LEDs e os convertem em movimento
– 93 –
Dispositivos de Entrada e Saída
Uma esfera de borracha rolando constantemente sobre a mesa só 
poderia resultar em uma coisa: acúmulo de sujeira nos mecanismos. Quem 
utilizou mouse mecânico sabe quantas vezes foi necessário efetuar limpeza dos 
rolamentos. Para resolver este problema, surgiu o mouse óptico. Utilizando-se 
de pelo menos um led, um feixe de luz é projetado para a superfície sobre a qual 
o equipamento é movimentado, que então é percebida por fotodiodos, assim 
como o movimento do aparelho. Esta solução não funciona em superfícies 
de alguns materiais, como é o caso do vidro. Como alternativa ao uso de 
leds, alguns equipamentos empregam o laser, em frequência adequada, que 
proporciona resultados mais precisos de percepção das superfícies.
Observe na Figura 5 o funcionamento de um mouse óptico e as diferentes 
percepções utilizando led e laser.
Figura 5 – Mouse Óptico
feixe de luz
led / laser
percepção da superfície
pelo ccd com iluminação por :
menor detalhe = menor precisão
led
1) o led/laser emite um feixe de luz
2) o feixe reflete nos espelhos para chegar à superfície;
3) o feixe ilumina a superfície;
4) a superfície é captada (percebida)
pela câmera ccd.
percepção da superfície
pelo ccd com iluminação por :
maior detalhe = maior precisão
laser
mouse
superfície
e
s
p
e
lh
o
e
s
p
e
lh
o
camera
ccd
Além dos componentes para percepção do movimento, ainda há os botões 
de ação na parte superior do mouse, utilizados para interagir com elementos 
da interface gráfica. Os primeiros computadores Apple utilizavam apenas um 
único botão, suficiente para operar o sistema. Os sistemas Windows, desde suas 
primeiras versões, utilizavam mouse de pelo menos dois botões. Outros botões 
são até hoje incorporados livremente pelos fabricantes para atender necessida-
des específicas, como é o caso de alguns jogos de computador.
Para facilitar a navegação entre textos longos e páginas da web, o 
equipamento recebeu, na mesma região dos botões, a roda de rolagem: 
uma roda que gira apenas no eixo longitudinal, para que se possa percorrer 
rapidamente o texto no sentido vertical (acima/abaixo). Esta mesma roda é 
utilizada em alguns aplicativos para aproximação (zoom) do conteúdo.
– 94 –
Fundamentos da Informática
S
hu
tt
er
st
oc
k.
co
m
/g
ol
dy
g
Shutterstock.com/Olga
S
hu
tt
er
st
oc
k.
co
m
/D
av
id
5.2.2 Trackball
Uma espécie de variação de mouse mecânico é o trackball, em 
que, ao invés de se movimentar o mouse sobre uma superfície plana, 
movimenta-se diretamente a esfera, agora 
na parte superior do equipamento, que 
permanece fixo à superfície. O trackball 
é bastante utilizado em equipamentos 
médicos que envolvem imagens, 
como aparelhos de ultrassonografia.
5.2.3 TouchPads
Marca registrada da 
Synaptics Corporation, os 
touchpads são equipamentos 
com superfícies que detectam 
a capacitância elétrica dos 
dedos, dessa forma, detec-
tando seu posicionamento. 
São amplamente utilizados em 
computadores portáteis, onde 
a característica do uso nem 
sempre permite uma superfície 
plana próxima para uso de um mouse.
5.2.4 TrackPoint
Dentre as várias tenta-
tivas de oferecer dispositivos 
apontadores para computa-
dores portáteis, desde minia-
turas de trackballs até chegar 
aos tão aceitos touchpads, a 
IBM desenvolveu e paten-
teou uma solução no mínimo 
– 95 –
Dispositivos de Entrada e Saída
interessante: o TrackPoint (figura 8 na página anterior). Uma espécie de 
miniatura de manche, posicionado entre as teclas da região central do 
teclado, para ser manipulado com a ponta do dedo indicador. Quanto 
maior a pressão exercida sobre o manche, mais rápida é a movimentação 
do cursor pela tela.
5.2.5 Joysticks e Paddles
O uso do microcomputador para jogo digital trouxe consigo alguns 
acessórios utilizados nos consoles de videogame. Ainda quando os sistemas 
operacionais não possuíam interface gráfica, já existiam alguns jogos que 
funcionavam com o uso do teclado. O desenvolvimento de jogos para os 
sistemas operacionais gráficos aproveitaram o uso do mouse, porém esse 
nem sempre é o dispositivo apontador mais indicado para essa finalidade, 
ainda que jogos de tiro em primeira pessoa se beneficiem da facilidade de 
posicionamento do mouse diretamente para a mira das armas virtuais.
 Da teoria para a prática
Pesquise sobre dispositivos de superfícies de toque resistiva 
e capacitiva, estabelecendo um comparativo entre as duas, 
citando as vantagens e desvantagens de cada uma.
5.3 Placas de vídeo e monitores
Enquanto o teclado é o principal dispositivo de entrada de textos, e o 
mouse é o principal equipamento para manipulação de interfaces gráficas, o 
monitor é o principal dispositivo de saída. Quando os primeiros computado-
res começaram a ser utilizados, a saída de dados era feita em papel, utilizando 
aparelhos conhecidos como teletipos. Atualmente, para que um texto ou uma 
imagem gráfica seja apresentado ao usuário do sistema, é necessária a con-
versão do dado digital em sinais, pela placa ou interface de vídeo, que serão 
enviados para serem exibidos pelo monitor.
– 96 –
Fundamentos da Informática
5.3.1 Conceitos de texto e imagem digital
Se o computador só trabalha com sequência de bits, que são 
representações numéricas, como ele trabalha com textos? Como representar 
uma letra ou um determinado símbolo utilizando sistema de numeração? 
Dentre tantos equipamentos de modelos e fabricantes diferentes, como 
garantir que a sequência binária que representa uma determinada letra 
em um equipamento transmissor seja apresentada adequadamente no 
equipamento receptor?
5.3.1.1 O padrão ASCII
Para permitir a transmissão adequada entre sistemas diferentes, surgiu 
a necessidade de se representar caracteres através de sequências conhecidas 
de pulsos para representações de códigos numéricos, ou seja, era necessário 
se estabelecer um padrão. Em 1960 foi criado o padrão ASCII (American 
Standard Code for Information Interchange – Código Padrão Americano 
para Intercâmbio de Informações), baseado no sistema de telégrafo, em 
que cada caractere (letra do alfabeto, dígito numérico, ou símbolo especial) 
possuiria um código correspondente em binário. 
A primeira versão desse padrão utilizava uma sequência de 7 bits, o que 
permitia representar uma variação de até 128 caracteres. Esta padronização 
foi mandatária nos EUA a partir de março de 1968. Com a popularização do 
armazenamento e transmissão de dados, sendo o padrão ASCII adotado por 
diversos países, surgiu então a necessidade de acrescentar caracteres especiais 
acentuados. Sendo assim foi criada uma versão estendida do padrão ASCII 
com 8 bits, permitindo, além dos 128 caracteres americanos, um acréscimo 
de 128 caracteres especiais e acentuados.
Existem diferentes variações da versão estendida do ASCII que atendem 
às necessidades de cada país e são documentadas pela ISO (International 
Organization for Standardization – Organização Internacional para 
Padronização). Essas variações eram apresentadas nos diferentes sistemas 
com um termo conhecido: “código de página”. De acordo com o código de 
página sendo utilizado, o sistema operacional faria a apresentação correta dos 
caracteres para cada país.
– 97 –
Dispositivos de Entrada e Saída
Não é difícil perceber que, com o advento da internet, isso se tornaria 
um problema, uma vez que existe a possibilidade de um computador estar 
acessando conteúdo de outropaís, dessa forma dificultando a visualização do 
texto exibido, pois não haveria um código de página específico. Diante desta 
necessidade, foram criados novos padrões e codificações para manipulação de 
texto, sendo que os mais conhecidos são os padrões Unicode UTF-8 e UTF-16.
5.3.1.2 Imagens digitais
Uma imagem digital pode ser apresentada de duas formas: em duas ou 
três dimensões. Os dispositivos computacionais mais comuns apresentam 
imagem em duas dimensões (2D). É o caso do monitor e da impressora, 
por exemplo.
Mesmo os monitores chamados comercialmente de 3D, na verdade, não 
apresentam conteúdo em três dimensões. Se assim fosse, no momento em 
que a frente de um objeto fosse exibida no monitor, seria possível ver as costas 
deste mesmo objeto simplesmente olhando-se o verso do monitor. O que 
ocorre é que os monitores “3D” apresentam imagens 2D em estereoscopia, 
ou seja: uma imagem 2D para cada olho (através do uso de óculos especiais), 
causando dessa forma a sensação de profundidade ao observador. 
É fato que os computadores podem armazenar e manipular imagens 
em três dimensões, porém apresentá-las em três dimensões somente através 
de impressoras de plástico ABS ou tornos, ou através de alguns dispositivos 
experimentais de holografia com laser.
5.3.1.3 Tamanho X resolução
A imagem digital é representada (armazenada, processada e exibida) 
sob a forma de uma matriz de pontos. O tamanho da imagem é dado pela 
quantidade de pontos com os quais essa imagem é apresentada (formada). Os 
pontos são chamados de pixels (Picture Elements – elementos de imagem). É 
comum fazer referência a imagens digitais citando-se a quantidade de pixels 
que compõem o eixo horizontal da matriz (eixo X) versus seu eixo vertical 
(eixo Y). A figura 9 apresenta uma imagem e sua digitalização com tamanho 
de 17 x 17 pixels.
– 98 –
Fundamentos da Informática
Figura 9 – Comparativo entre imagem original e 
versão digitalizada com 17 x 17 pixels.
A resolução de uma imagem é dada pela quantidade de pontos por 
unidade de medida de espaço (centímetro, por exemplo). Quanto maior 
a quantidade de pontos por unidade de espaço, maior é a resolução. Duas 
imagens com mesmo tamanho físico podem ser digitalizadas com resoluções 
diferentes. Observe a figura 10. Ela apresenta uma imagem em duas versões, 
ambas com o mesmo tamanho físico, porém com resoluções diferentes. A 
versão da esquerda utiliza 4 pontos para preencher 1 centímetro, enquanto a 
imagem da direita o faz com 8 pontos. Assim, pode-se observar que a imagem 
com mais pontos por centímetros possui uma maior (e consequentemente 
melhor) resolução.
Figura 10 – Imagens com resoluções 
de 4 pontos/cm e 8 pontos/cm respectivamente.
Apesar de o exemplo ter utilizado o centímetro como unidade de 
medida, não é esta a medida com a qual se representa a resolução de uma 
– 99 –
Dispositivos de Entrada e Saída
imagem. Como a maioria das situações computacionais, nesse caso também é 
utilizada a unidade de medida comumente utilizada pelos norte-americanos: 
a polegada. Portanto, para expressar a resolução de uma imagem, utiliza-se a 
unidade/expressão dots per inch (pontos por polegada) ou na forma abreviada: 
dpi. De forma análoga, fica evidente que uma imagem que possui resolução 
de 200 dpi é uma imagem que, para cada polegada, foi “fatiada” 200 vezes 
para ter sua representação digital. Quanto maior a resolução de uma imagem, 
ou seja, quanto mais “fatiada” ela for, mais definida será.
5.3.1.4 Profundidade de cor
Sabendo-se que uma imagem é formada por uma matriz de pontos, é 
necessário entender como as cores são representadas nessa matriz. As imagens 
digitais possuem padrões específicos de colorização que estão relacionados 
diretamente com a quantidade de bits que são utilizados para representar 
um pixel. A esse conceito denomina-se profundidade de cor. O padrão mais 
elementar de colorização utiliza 1 bit por pixel. Apesar de ser referenciado 
como black & white (preto-e-branco), a realidade é que um ponto pode 
estar ligado ou desligado (0 ou 1). Cabe ao software ou ao equipamento 
de apresentação “escolher” qual cor será utilizada para apresentar quando a 
informação for 0 e quando for 1.
O segundo padrão utiliza 8 bits (1 byte) por pixel, e portanto é possível 
representar 256 tons diferentes de luminosidade. Uma vez que ainda não há 
uma cor específica, o número binário representa diretamente a luminosidade 
do pixel: do 0 (zero), totalmente preto, até o 255 que é o branco. Este padrão 
é comumente chamado de grayscale (escala de cinzas).
Ainda trabalhando com 1 byte por pixel, há o padrão paletted (palheta 
de cores). Com ele é possível representar 256 cores diferentes. Para saber qual 
a cor representada por cada código (dentre 0 e 255), é informada ao sistema 
uma palheta com as 256 cores possíveis.
Para representação de cores em monitores coloridos (que serão vistos 
ainda neste capítulo) utiliza-se o padrão RGB (Red Green Blue – Vermelho 
Verde Azul). Este padrão utiliza 24 bits (3 Bytes) por pixel. Isso acontece 
porque cada pixel é exibido pela tríade: Red-Green-Blue (veja a figura 11). 
Sendo assim, para cada cor da tríade existe a possibilidade de variação de 
– 100 –
Fundamentos da Informática
nível luminoso partindo do 0 (totalmente apagado) até o 255 (totalmente 
aceso). A combinação das três cores em diferentes níveis forma a cor do pixel, 
permitindo um total de aproximadamente 16 milhões de cores diferentes.
Figura 11 – Esquema do padrão RGB.
Red Green
Blue
Magenta
Yellow
White
Cyan
R G B
5.3.1.5 Bitmap X vetorial
De acordo com o que foi apresentado até aqui, a representação de 
uma imagem 2D é dada por uma matriz de pontos. Porém, as imagens 
podem ser armazenadas sob duas formas: bitmap e vetorial. A imagem 
bitmap é a representação e armazenamento direto pixel a pixel da imagem, 
ou seja, a gravação sequencial da informação binária de um pixel após o 
 outro em arquivo. 
Imagens bitmaps são utilizadas para armazenar fotos ou imagens com 
variações complexas de cores e sombras. A imagem vetorial é composta por 
pontos alternados (vértices) perfazendo figuras geométricas (polígonos) através 
de linhas (retas ou curvas). Em baixa resolução a diferença entre os formatos 
vetorial e bitmap não é tão significativa. Porém, quando multiplicamos a 
resolução, o que é muito comum, a diferença entre os dois formatos segue 
uma proporção exponencial. Por esse motivo, normalmente o arquivo com 
imagem vetorial é consideravelmente menor do que o bitmap.
Uma imagem vetorial não apresenta apenas traçados de linhas. Quando 
as linhas são fechadas, formam-se polígonos, sendo então possível preencher 
suas superfícies com cores específicas. Com a combinação de linhas e 
polígonos é possível representar uma grande variedade de elementos gráficos. 
– 101 –
Dispositivos de Entrada e Saída
Porém, o uso de cores fica limitado à aplicação na superfície e no contorno 
desses polígonos. Para se representar uma foto utilizando-se desta técnica, 
seria necessário praticamente um polígono para cada pixel, o que torna o 
formato inviável para esta aplicação. Conclui-se assim que o formato vetorial 
é adequado para utilização em desenhos técnicos, diagramas, enfim: imagens 
que necessitam de alta definição, porém com baixa complexidade de cores 
e tons.
Uma imagem vetorial, para ser apresentada, é renderizada como uma 
matriz de pontos de acordo com a capacidade gráfica (resolução) do hardware 
que a está apresentando: monitor, impressora, etc.
5.3.2 Interfaces e placas 2D
Agora que já foram explicados os fundamentos de formação de texto e 
imagem digital, fica mais claro o entendimento da evolução das interfaces e 
placas de vídeo. Cabe a um adaptador (interface ou placa) de vídeo converter o 
dado digital em informação que possa ser exibidapelo monitor de vídeo. Este 
processo pode ser tanto digital-analógico quanto digital-digital, dependendo 
da tecnologia empregada no adaptador e no monitor de vídeo.
5.3.2.1 Interface MDA
A primeira interface de vídeo foi criada em 1981 pela IBM, para 
exibição de texto, e se chamava MDA (Monochrome Display Adapter – 
Adaptador de Vídeo Monocromático). Ela apresentava os textos em uma 
matriz de 80 colunas e 25 linhas de boxes (caixas) contendo os caracteres. 
Para exibição do caractere, cada box era formado por uma matriz de 9 x 14 
pontos. Além da informação dos pontos que formavam o caractere, ainda 
era possível exibi-lo com um pequeno conjunto de efeitos especiais: normal, 
sublinhado, brilhante ou invertido. Portanto, a interface utilizava 2 bytes 
(um para a imagem + um para o efeito) para cada caractere exibido. Sendo 
25 linhas, cada uma com 80 caracteres ocupando 2 bytes, uma tela texto 
padrão MDA requer um total de 4.000 bytes (25 x 80 x 2) para exibição, 
implicando portanto na necessidade de um módulo de memória de 4 KB 
para utilização pela interface.
– 102 –
Fundamentos da Informática
5.3.2.2 Padrão CGA
Com a necessidade de apresentação de imagens gráficas, a IBM 
criou então o padrão CGA (Color Graphics Adapter – Adaptador Gráfico 
Colorido). Esse adaptador traz uma única matriz de 640 x 200 pontos. Ela 
ainda permite a exibição de textos no padrão 25 linhas com 80 caracteres, 
porém cada caractere aqui era formado por blocos de 8 x 8 pontos (ao invés 
dos 9 x 14 da anterior). A partir desse padrão é que surge o conceito de pixel, 
em que cada pixel é formado pela tríade RGB. 
Por restrições de memória, porém, essa interface não permitia a 
exibição simultânea de todas as 16 milhões de combinações inerentes 
ao RGB. Em resolução máxima (640 x 200), sua memória de 16 KB só 
permitia exibição de 2 cores simultâneas. Para exibição de mais cores, era 
necessário reduzir a resolução, exibindo a imagem com menos pontos. 
Como exemplo: uma resolução de 320 x 200 permitia exibir até 4 
cores simultâneas.
5.3.2.3 Outros padrões intermediários
Resgatando a qualidade superior para exibição de caracteres com 9 x 
14 pontos e apresentando imagens no modo gráfico, a Interface Hércules 
permitia uma resolução total de 720 x 350, porém necessitava de controlador 
específico. Com ROM própria para controle de resolução e cores, surge 
também a Interface EGA, com resolução de 640 x 350 pixels e caracteres no 
formato 8 x 14. Com ela, surge o primeiro monitor de vídeo que permitia 
diferentes resoluções (até então o monitor de vídeo trabalhava na mesma 
resolução fixa do adaptador): o NEC Multisync.
5.3.2.4 Padrão VGA
Lançado em 1987, também pela IBM, com memória de 256 KB o 
padrão VGA (Video Graphics Array – Matriz Gráfica de Vídeo) permite uma 
resolução máxima de 640 x 480 pixels e 16 cores simultâneas, ou 256 cores 
simultâneas de uma palheta de 262.144 (256 k) cores.
5.3.2.5 Padrão SVGA
Os padrões imediatamente anteriores já sugeriam um novo 
comportamento: resoluções e número de cores variáveis. Surgia o padrão 
– 103 –
Dispositivos de Entrada e Saída
SVGA (Super Video Graphics Array – Super Matriz Gráfica de Vídeo). 
Cada fabricante lançava no mercado suas placas com chips e módulos de 
memória específicos. Essa flexibilidade trazia consigo um problema: como 
os sistemas e aplicativos gráficos iriam ter conhecimento do funcionamento 
específico do equipamento de cada fabricante? Os fabricantes de adaptadores 
de vídeo formaram então a VESA (Video Electronics Standards Association – 
Associação de Padrões de Eletrônicos para Vídeo). A associação definiu então 
padrões para exibição de vídeo, quando surge então o conceito de driver 
(controlador) de vídeo. Os adaptadores SVGA atuais exibem naturalmente 
vídeos no padrão RGB com 16 milhões de cores simultâneas e resoluções 
(limitadas pelos monitores de vídeo) que vão desde os modestos 640 x 480, até 
ultrapassarem, em muito, o padrão de vídeo de alta definição Full-HD (Full 
High Definition – Alta Definição Completa), que trabalha com resolução de 
1920 x 1080 pixels.
5.3.3 Monitores de vídeo
Independente da tecnologia empregada (CRT, LCD, LED, etc.), todos 
os monitores são iguais sob um aspecto: apresentar conteúdo gráfico por meio 
de uma matriz de pontos. O que muda entre eles é justamente o material 
utilizado na formação desses pontos.
5.3.3.1 Monitor de CRT
O monitor de CRT (Cathode Ray Tube – Tubo de Raios Catódicos) 
está presente desde os primeiros PCs. Seguindo a mesma linha dos televisores, 
esse tipo de monitor (também conhecido como monitor de tubo) leva 
esse nome justamente porque a imagem é formada pela projeção de raios 
catódicos dentro de um tubo de vácuo. Este tubo é, na realidade, uma espécie 
de cone, em que a base é retangular, consistindo a superfície no lugar em 
que a imagem é formada. Essa base é revestida internamente com fósforo. O 
fósforo é um elemento que, quando estimulado por elétrons, brilha. Dessa 
forma, um canhão é colocado na ponta do cone, oposta à base, projetando 
elétrons na camada de fósforo e estimulando-os, assim formando a imagem 
que é observada no exterior do tubo. O acionamento do canhão é feito, 
evidentemente, por componentes montados em uma placa de circuitos 
eletrônicos. Veja o esquema de um monitor CRT na figura 12.
– 104 –
Fundamentos da Informática
Figura 12 – O funcionamento de um monitor de CRT.
CÁTODO
FEIXE DE
ELÉTRONS
CANHÃO DE
ELÉTRONS
REVESTIMENTO
CONDUTOR
MÁSCARA
DE SOMBRA
TELA DE
FÓSFORO
Os primeiros monitores de CRT eram monocromáticos, ou seja, toda 
a superfície interna do tubo recebia a mesma cor de fósforo. Porém, eles 
eram comercializados em diferentes cores de fósforo (verde, âmbar, branco, 
etc.). Em modelos coloridos (assim como os televisores), mais modernos, a 
imagem é formada através da emissão de três raios catódicos independentes 
para estímulo de cada cor independente da tríade.
5.3.3.2 Monitor de LCD
O monitor de LCD (Liquid Crystal Display – Display de Cristal 
Líquido) é um dos primeiros e mais populares modelos de monitores flat 
(chato, um termo que diz respeito à espessura/profundidade do monitor). 
Funciona basicamente pelo estímulo elétrico de cristais líquidos em 
fase nemática, que é a fase em que podem ser alinhados quando recebem 
estímulo. O display é construído na forma de um sanduíche de vidro com os 
cristais líquidos entre eles. Com o auxílio de um filtro polarizado, conforme o 
estímulo que recebem, os cristais podem mudar seu alinhamento, permitindo 
ou impedindo de forma parcial ou total a passagem de luz por entre eles. 
Baseando-se por esse princípio, os cristais são dispostos em uma matriz de 
pontos e o display é retroiluminado, ou seja, uma fonte de luz constante 
é colocada por trás do vidro. Assim, conforme o estímulo que os cristais 
recebem, mudam-se os níveis de passagem de luz em cada um dos pontos e a 
imagem é formada.
– 105 –
Dispositivos de Entrada e Saída
A condução de eletricidade para estimular os cristais pode ser feita de 
diversas maneiras, sendo que define o tipo de LCD: matriz passiva, matriz 
ativa, também chamada de TFT (Thin Film Transistor – Transístor de Filme 
Fino), ou ainda IPS (In-Plane Switching – Comutação em Plano) que é a 
mais utilizada desde 2010.
Veja na figura 13 um esquema de funcionamento de um display LCD.
Figura 13 – O funcionamento de um monitor de LCD.
verde
Polarizador
Painel de vidro
Filtro Colorido
Polarizador
TFT + Eletrodo Eletrodo
Retroiluminação
(luz branca)
Cristal
Líquido
Assim como os monitores CRT, os primeiros displays de LCD 
também eram monocromáticos e depois evoluíram para apresentação de 
imagem colorida.
5.3.3.3 Monitor de plasma
Neste tipo de monitor, a imagem é formada por micro câmaras de gás-
plasma. Cada pontoda matriz é uma câmara de gás que, quando recebe 
um estímulo de alta voltagem, ioniza o gás, transformando-o em plasma e 
acendendo o ponto para formação da imagem. Portanto, diferente do LCD, 
no qual o cristal controla a passagem de uma outra fonte de luz, aqui o ponto 
é a própria fonte de luz.
– 106 –
Fundamentos da Informática
Apesar de apresentarem um contraste maior na formação da imagem, 
monitores de plasma costumam consumir bem mais energia do que LCDs 
e, por isso, raramente são empregados em computadores portáteis. Outra 
desvantagem deste tipo de monitor é o chamado efeito burn-in: quando um 
ponto da tela fica aceso por um longo período de tempo, ele pode queimar, 
fazendo com que o display fique “marcado” naquela região, ou seja, os pixels 
da região ficam levemente escurecidos.
5.3.3.4 Monitor de LED LCD
Quando lançados no mercado, talvez por questões de marketing, os 
monitores LED LCD eram chamados monitores de LED. Se assim fossem, 
cada pixel da matriz deveria ser formado por três LEDs com as cores da tríade 
para formação da imagem. Mas a realidade é que não existe comercialmente 
monitor fabricado dessa forma. O que há disponível, de fato, são monitores 
de LCD cuja retroiluminação é feita por LEDs brancos, proporcionando 
maior contraste (e melhor imagem) do que os LCDs convencionais, os quais 
possuem iluminação feita por lâmpadas fluorescentes.
5.3.3.5 Conexões
Os primeiros monitores CGA utilizavam conectores de 9 pinos, chamados 
D-shell, para serem acoplados às interfaces de vídeo. Com a introdução do 
padrão VGA, passou-se a utilizar os conectores D-shell de 15 pinos, sendo 
que este tipo de conector é até hoje mencionado como conector VGA. Ambos 
os conectores referem-se à transmissão analógica dos sinais para o monitor. 
Monitores flat trouxeram consigo o aumento do uso de cabos e conectores 
para transmissão digital. O primeiro padrão de conexão digital para uso em 
monitores foi o DVI (Digital Visual Interface – Interface Visual Digital). 
Concebido para transmitir sinais digitais, também permite, em algumas 
variantes, a transmissão de sinal analógico, oferecendo compatibilidade 
com o conector VGA. Por último, e mais utilizado atualmente, é a interface 
HDMI (High Definition Multimedia Interface – Interface Multimídia de 
– 107 –
Dispositivos de Entrada e Saída
Alta Definição). Este último tipo transmite sinais digitais de áudio e vídeo, 
com diferentes especificações de velocidade, que vão desde 25 MHz até 340 
MHz. Veja na figura 14 essas conexões.
Figura 14 – Conexões d e vídeo para monitores de PCs.
F
on
te
: E
va
nd
o 
Z
at
ti
5.3.4 Imagem 3D e placas aceleradoras
Uma imagem armazenada em três dimensões quando é apresentada 
em um monitor comum precisa passar por um processo conhecido como 
renderização, ou seja, são realizados os cálculos necessários para tornar a 
imagem planar, sob um determinado ângulo de observação, para a geração da 
imagem em duas dimensões. Este é um processo computacional complexo, 
que demanda uma carga pesada de processamento e memória.
A mesma técnica de formação de imagens vetoriais é utilizada para criação 
de modelos tridimensionais. A diferença é que os polígonos que formam as 
superfícies tendem a ser menos complexos e são dispostos espacialmente 
considerando-se os eixos X, Y e Z. O processo de formação de uma imagem 
por diversos polígonos é chamado de tessellation (tesselação), e o resultado, 
ou seja, o conjunto desses vários polígonos é conhecido como mesh (malha).
As superfícies destes polígonos podem ser preenchidas com cores sólidas 
(única cor) ou com texturas (imagens bitmap). Efeitos de material e luz 
também podem ser aplicados, sendo que o nível de realismo de uma imagem 
está diretamente relacionado à qualidade da textura e iluminação. A figura 15 
apresenta um exemplo deste processo.
– 108 –
Fundamentos da Informática
Figura 15 – Uma imagem vetorial em três dimensões.
wireframe sombreado
F
R
O
N
T
A
L
L
A
T
E
R
A
L
texturizado
F
on
te
: M
ic
ha
el
 P
iz
za
tt
o 
B
ah
r
Gabriel Torres (1999) sugere que o processo de cálculo para exibição 
de uma imagem tridimensional é dividido em duas fases principais: cálculo 
geométrico e renderização. De fato, mesmo que se tenha um ambiente 
completo desenhado em 3D, é necessário saber o que irá aparecer no monitor 
de vídeo antes mesmo de tornar a imagem planar para exibição. Conhecer 
previamente essas fases é importante, pois as diferentes placas gráficas 3D 
comercializadas trabalham de forma diferente com as fases. 
O cálculo geométrico consiste de: 
 2 Cálculo da cena: quais objetos estão presentes na cena;
 2 Transformação: conversão da informação 3D em 2D;
 2 Iluminação: reflexão, intensidade, cor, direção, sombreamento;
 2 Setup: posicionamento dos triângulos;
 2 Corte (clipping): parte dos polígonos que será visualizada.
Já o processo de renderização prevê:
 2 Mapeamento de textura: aplicação de bitmaps sobre os polígonos;
 2 Filtragem bilinear, trilinear e anisotrópica: elimina o efeito poligo-
nal gerado pela triangulação do objeto;
 2 Sombreamento plano e gouraud;
– 109 –
Dispositivos de Entrada e Saída
 2 Combinação do canal alfa (alpha blending): transparência;
 2 Névoa (fogging);
 2 Suavização de serrilhado (antialiasing);
 2 Correção de perspectiva;
 2 Mistura de cores (dithering): otimizar o número de cores;
 2 Mapeamento MIP (Multum in Pavum – Muitos em Um): suaviza o 
efeito “mosaico”, reaplicando a textura original em menores proporções;
 2 Z-buffering: armazenamento em 3D (eixo Z).
Os fatores complexos inerentes ao processo de exibição de vídeo em 
três dimensões fizeram com que os fabricantes se voltassem para soluções 
separadas: aumentar a memória das placas de vídeo e embutir uma CPU 
específica para realização dos cálculos destinados ao processo de processamento 
de imagem, conhecida como GPU (Graphics Processing Unit – Unidade de 
Processamento Gráfico).
Para facilitar o processo de comunicação entre os aplicativos e jogos 
que utilizam as aceleradoras, existem alguns conjuntos de soluções prontas, 
compostas por APIs (Advanced Programming Interface – Interface Avançada 
de Programação) ou frameworks para serem utilizadas no desenvolvimento, 
com pacotes de distribuição para posterior execução. Dentre os principais 
podem ser citados:
 2 OpenGL: originalmente criada pela Silicon Graphics como 
IrisGL e posteriormente tendo seu código aberto, é uma API que 
funciona com a maioria das placas aceleradoras atuais. Utilizada 
mais por aplicativos do que jogos, atualmente encontra-se na 
versão 4 e derivadas.
 2 DirectX: coleção de APIs criada pela Microsoft para rodar jogos no 
Windows 95, atualmente é a biblioteca mais utilizada para jogos 
em PCs, sendo a versão 11 a mais atual. 
 2 Glide: merece ser mencionada por ter sido parte de um marco na 
história das placas aceleradoras 3D, as placas Voodoo, da fabricante 
extinta 3dfx. Era uma API proprietária para uso com aquelas pla-
cas, tendo sido substituída pelos padrões OpenGL e DirectX.
– 110 –
Fundamentos da Informática
 2 XNA: é um framework de desenvolvimento da Microsoft, utilizado 
para criação de jogos para a plataforma Windows e Xbox 360. É 
dependente da runtime (pacotes para execução) do DirectX.
 Da teoria para a prática
A NHK (principal emissora de TV japonesa) promete, para 
2020, transmissões em UHD (Ultra High Definition – Ultra 
Alta Definição). Pesquise sobre as resoluções de vídeo para o 
padrão e comente sobre o termo “4K”.
5.4 Impressoras
O seção 5.3 falou dos teletipos, que apresentavam imagens em papel 
antes mesmo da existência dos monitores. Os teletipos eram o que se pode 
chamar de avós das impressoras. A impressora é o periférico responsávelpor transferir a informação digital para o papel ou outro meio físico. Elas 
podem ser dividas em dois grandes grupos: as impressoras 2D, ou seja, 
aquelas que fazem a transferência do conteúdo para o papel (ou outro 
material de única face), através da disposição de tinta (ou outra técnica de 
impressão) em sua superfície; e as impressoras 3D, utilizadas para confecção 
de moldes volumétricos.
5.4.1 Princípios da impressão digital
O funcionamento de uma impressora digital é simples: os dados são 
transferidos do computador para a impressora através de uma conexão (paralela, 
serial, etc.), utilizando uma linguagem específica. Um módulo eletrônico do 
equipamento, composto por placas, processador e memória, recebe os dados 
digitais e aciona os mecanismos que farão a impressão desses dados.
As primeiras impressoras utilizavam impacto em seu funcionamento, 
da mesma forma que as antigas máquinas de escrever: os caracteres, forjados 
– 111 –
Dispositivos de Entrada e Saída
em metal ou plástico, eram martelados contra uma fita de nylon contendo a 
tinta e o papel apoiado no cilindro. Dessa forma, o desenho do caractere era 
transferido ao papel. Este ato de pressionar o caractere contra a fita e conse-
quentemente a tinta sobre o papel sugere então a origem do termo imprimir. 
A figura 16 apresenta a impressão por impacto.
Figura 16 – Impressão por impacto.
Papel
Fita
Caracteres forjados nas
extremidades das hastes
Martelo
Movimento do
mecanismo
de impressão
Total de 96
hastes de caracteres
Modelos posteriores deixaram o impacto de lado, porém o conceito básico 
permanece o mesmo: transferir tinta para o papel. A transferência pode acontecer 
basicamente de duas maneiras: caractere a caractere, quando há impressão de 
conteúdo exclusivamente textual; e matriz de pontos (pixels), no caso de impressão 
que envolva imagens ou outros elementos gráficos. Somente esta última técnica é 
empregada atualmente e existem vários tipos de impressões por pontos, que serão 
abordados ao longo deste capítulo.
5.4.1.1 Impressão em papel (2D)
A impressão do conteúdo em papel acontece por partes, através de um 
processo contínuo. O papel passa por um cilindro, normalmente revestido de 
borracha ou outro material aderente, que faz com que cada área do papel seja 
“apresentada” ao mecanismo impressor. A passagem pelo cilindro garante que 
o papel se mantenha estável e planar durante a impressão.
– 112 –
Fundamentos da Informática
Dependendo do tipo de mecanismo impressor, o cilindro pode girar de 
forma suave e contínua, ou linha por linha (gira um pouco, espera a impres-
são daquela linha, gira mais um pouco, e assim sucessivamente).
Para melhor aproveitamento e configuração dos sistemas de impressão, o 
papel segue tamanhos específicos utilizados pela indústria gráfica (Carta, A4, 
A3, etc..), e pode ser apresentado na forma de folha individual ou formulário 
contínuo, sendo que este último foi muito utilizado no passado para impres-
são de relatórios ou de notas fiscais em dupla via com papel carbono. Tam-
bém existe a impressão em bobinas (rolos) de papel (de largura bem menor 
do que um papel A4), amplamente utilizada no meio comercial. A figura 17 
apresenta um mecanismo típico de impressão em papel.
Figura 17 – Impressão em papel.
a) Hastes, b) Esfera, c) Roda; - 1. haste; 2. Fita de tinta; 3. Papel (impresso); 4. Cilindro; 
5. Esfera (alfanumérica); 6.Martelo;7. Roda (alfanumérica).
1
2
3
4
5
3
7
6
2
2
4
3
5
cba
5.4.1.2 Impressão em cores
Diversas impressoras oferecem opções de impressão em cor única 
(normalmente preta) ou colorida. A impressão em cores é feita através da 
combinação de algumas cores básicas. Esta combinação não obedece às cores 
primárias estudadas no ensino fundamental, e também não segue o padrão 
RGB utilizado em monitores. As cores utilizadas na impressão colorida seguem 
o padrão CMYK – Cyan, Magenta, Yellow, blacK (Ciano, Magenta, Amarelo e 
Preto). Veja o esquema da f5.4.1.3 Impressão 3D18, que mostra a combinação 
para formação de algumas cores fundamentais no padrão CMYK.
– 113 –
Dispositivos de Entrada e Saída
Figura 18 – Esquema do padrão CMYK.
Cyan
YellowMagenta
Blue Green
blacK
Red
CYAN
Composição CMYK
MAGENTA YELLOW BLACK
 
O funcionamento da impressão em cores para alguns tipos de impressora 
será abordado para cada impressora específica no item .
5.4.1.3 Impressão 3D
Enquanto as impressoras 2D aplicam pigmentação sobre uma superfície, 
as impressoras 3D aplicam material sintético formando diversas “superfícies”, 
ou seja: camadas. Dessa forma, é possível construir objetos que foram 
projetados/desenhados digitalmente em três dimensões.
Os primeiros modelos de equipamentos com este objetivo surgiram no 
início dos anos 80 do século XX, porém o termo “impressão 3D” surgiu 
em 1995, no MIT (Massachusetts Institute of Technology – Instituto de 
Tecnologia de Massachusetts), quando da criação do primeiro equipamento a 
trabalhar com pó na formação das camadas e dos objetos.
Existem atualmente várias técnicas para criação das camadas 
volumétricas, que vão desde polímeros plásticos, como o ABS (Acrylonitrile 
Butadiene Styrene – Acrilonitrila Butadieno Estireno), até resinas líquidas e 
ligas metálicas. A figura 19 apresenta o princípio da impressão 3D.
– 114 –
Fundamentos da Informática
Figura 19 – Impressão 3D.
S
hu
tt
er
st
oc
k.
co
m
/G
io
va
nn
i C
an
ce
m
i
5.4.2 Tipos de impressoras
Assim como a evolução dos monitores de vídeo, as impressoras mais 
rudimentares permitiam apenas a impressão dos caracteres que estavam 
forjados na cabeça dos martelos e, portanto, são conhecidas como orientadas 
a caractere. Posteriormente, as impressões por matriz de pontos permitiram a 
formação de imagens, chegando aos resultados de alta definição disponíveis. 
A seguir, os tipos mais comuns de impressoras encontradas tanto no mundo 
corporativo quanto para uso doméstico.
5.4.2.1 Impressoras margarida
Dentre os diversos equipamentos orientados a caracteres, a impressora 
que mais se destacou em uso na época foi a impressora margarida 
(daisywheel – roda de margarida). Ela levava esse nome porque os caracteres 
que seriam impressos vinham dispostos em forma circular, lembrando a flor 
margarida. Cada margarida continha o conjunto de caracteres com o tipo 
do caractere e o tamanho pré-definido: Herald, Arial, etc. A margarida era 
então encaixada na impressora para realização da impressão. A figura 20 
apresenta um conjunto de caracteres em margarida.
– 115 –
Dispositivos de Entrada e Saída
Figura 20 – Margaridas de impressão.
S
hu
tt
er
st
oc
k.
co
m
/r
aw
ca
pt
ur
ed
5.4.2.2 Impressoras matriciais
Da mesma forma que, para os monitores, surgiu a necessidade 
de apresentar conteúdo gráfico (fotos, diagramas, ...) além de apenas 
caracteres, o mesmo processo aconteceu com as impressoras. A 
transferência de imagens para o papel sugeria seguir a mesma ideia dos 
monitores: imagens compostas por pontos dispostos em forma de matriz. 
Desse conceito surgem as impressoras matriciais (dot matrix – matriz 
de pontos). 
Ao invés de caracteres previamente forjados para serem martelados, 
criou-se um cabeçote de impressão contendo uma matriz de agulhas. Essas 
agulhas, impulsionadas contra a fita de nylon e o papel, formam então a 
imagem. A impressão acontece por linhas: o cilindro posiciona verticalmente 
a área do papel que será impressa e um cabeçote percorre horizontalmente toda 
a linha, pressionando as agulhas. Terminada a impressão da linha, novamente 
o cilindro atua, girando e avançando verticalmente o papel, permitindo a 
impressão da nova linha. 
– 116 –
Fundamentos da Informática
A quantidade deagulhas dispostas na matriz de pontos do cabeçote 
definem a qualidade e a velocidade de impressão. A figura 21 apresenta uma 
impressora matricial típica e os tipos de cabeçotes matriz de pontos.
Figura 21 – Impressão matricial.
7 Pinos 9 Pinos 18 Pinos 24 Pinos
Cabeça de
impressão
S
hu
tt
er
st
oc
k.
co
m
/b
ur
ne
l1
Com o passar do tempo e o surgimento de novas tecnologias, as 
impressões matriciais em folhas de tamanho comum (Carta, A4, Ofício) 
foram sendo deixadas de lado, porém ainda é bastante presente a impressão 
matricial em bobinas (rolos) de papel, para emissão de bilhete fiscal ou em 
máquinas de autoatendimento bancário.
Ainda nesta “geração” de impressoras, surge a impressão colorida. A técnica 
para impressão em cores é praticamente a mesma utilizada quando em uma 
única cor, porém sendo repetida para as cores básicas que formam uma imagem 
colorida. Portanto, para impressão em cores em uma impressora matricial são 
necessárias não apenas uma, mas quatro fitas de nylon com as quatro cores 
do padrão CMYK (normalmente comercializada como uma única fita com 
as quatro cores dispostas longitudinalmente). Quando o cilindro posiciona o 
papel para impressão de uma linha, o cabeçote passa quatro vezes nesta mesma 
linha, sendo que, a cada passada, a impressora reposiciona a fita de nylon 
com a cor que será impressa para a combinação. Poucos foram os modelos 
de impressoras matriciais lançadas comercialmente: a pressão das agulhas e da 
fita de uma cor contra o papel sujava tanto a fita quanto as agulhas durante a 
impressão de uma cor, borrando a impressão da cor subsequente e o resultado 
não era nada agradável.
– 117 –
Dispositivos de Entrada e Saída
5.4.2.3 Impressoras Jato de Tinta / Bolha / Cera
Como o próprio nome sugere, estas impressoras jorram (pequenos jatos) 
tinta contra o papel para realizar a impressão. O funcionamento mecânico 
é similar ao da impressora matricial: a impressão é feita por linhas, onde o 
cilindro comanda o papel verticalmente e um cabeçote percorre a linha na 
horizontal. Neste caso, o cabeçote não possui uma matriz de agulhas, mas 
sim, uma matriz de minúsculos orifícios por onde a tinta será borrifada.
A impressão por jato de tinta é divida em três grupos: bubble jets (jatos 
de bolha), piezo inkjets (jatos de tintas piezoelétricas) e phase-change inkjets 
(em uma tradução livre: jatos de tinta que mudam de fase, conhecidas por 
jato de cera). As primeiras, bubble jets, levam esse nome porque a tinta den-
tro do cabeçote é aquecida até uma temperatura em que ferve e forma uma 
bolha a qual, ao estourar, sai pelo orifício projetando-se contra o papel. As 
piezoelétricas são assim chamadas porque a tinta passa por cristais que, ao 
receberem carga elétrica, “estufam” jorrando então a tinta para fora dos orifí-
cios e chegando ao papel. Por último, as impressoras de jato de cera utilizam, 
ao invés de reservatórios de tinta líquida, bastões de cera que, ao passarem 
pelo cabeçote são aquecidos, jorrados contra o papel e ao resfriarem voltam ao 
estado sólido: a imagem formada por cera. A figura 22 apresenta o processo.
Figura 22 – Impressão por jatos de tinta.
Resistor de aquecimento Câmara de combustão
Bico de impressão S
hu
tt
er
st
oc
k.
co
m
/l
uc
hs
ch
en
A composição das cores na impressora jato de tinta segue a mesma ideia 
da matricial: o cabeçote passa quatro vezes na mesma linha. Porém, neste 
caso, são quatro reservatórios distintos de tinta, com matrizes de orifícios 
– 118 –
Fundamentos da Informática
também distintas para cada cor. Comercialmente, a maioria das impressoras 
utiliza dois cartuchos de tinta: um preto e um colorido (sendo que o colorido 
traz internamente as outras três cores). Esta divisão atende à maioria das 
situações domésticas onde, ou se imprime um texto em preto, ou uma foto 
em cores. Porém existem também impressoras que utilizam quatro cartuchos 
distintos de cor, estas mais adequadas ao uso profissional.
5.4.2.4 Impressoras Laser
Nas impressoras laser, a “tinta” é um pó plástico: o toner. Este pó é 
aquecido para aderir ao papel e então formar a imagem. A transferência deste 
pó para o papel é a parte interessante do processo: originárias das fotocopia-
doras, as impressoras laser utilizam-se da reação de alguns materiais à luz. 
Estes materiais (como é o caso do selênio) alteram sua condutividade elétrica 
quando recebem incidência de luz; são chamados de fotocondutores.
O funcionamento do processo: a imagem é transmitida para o cilindro 
(desenhada) através de raios laser. O cilindro, com superfície de material 
fotocondutor, passa a atrair partículas onde recebeu a incidência do laser. 
Neste momento, o toner é colocado em contato com o cilindro, aderindo a 
ele e formando a imagem. O cilindro é então aquecido e, quando o papel 
passa por ele, o toner adere ao papel. Uma vez no papel e resfriado, o toner 
formou a imagem finalmente impressa. Evidentemente, a circunferência do 
cilindro é o limite para o tamanho da impressão parcial da imagem. Assim, 
em um movimento contínuo, o cilindro passa por um processo de limpeza 
(removendo resíduos do toner) e o processo todo é repetido para a formação da 
nova parcial. A figura 23 apresenta os elementos desse processo.
Figura 23 – Impressão laser.
1. Limpeza
4. Transferência de toner
2. Carga do tambor
3. Desenho da imagem
Papel
5. Transferência da imagem para o papel
Eliminador de estática
6. Fusão da imagem no papel
S
hu
tt
er
st
oc
k.
co
m
/M
ak
sy
m
 D
yk
ha
 
– 119 –
Dispositivos de Entrada e Saída
A impressão em cores em uma impressora laser é dispendiosa: uma vez 
que não existe cabeçote de impressão, existem então quatro cartuchos de toner e 
quatro cilindros distintos. O papel passa continuamente pelos quatro cilindros, 
onde cada um vai imprimir a cor necessária para a composição da imagem.
5.4.2.5 Impressoras térmicas
As impressoras térmicas não possuem tinta ou qualquer pigmento: elas fazem 
uso de papel específico. O papel possui a superfície sensível ao calor que muda 
de branco para escuro na área aquecida. O cabeçote de uma impressora térmica 
é semelhante ao de uma impressora matricial. A diferença é que a agulha apenas 
esquenta, não exercendo impacto sobre o papel. A desvantagem deste tipo de 
impressão é que os papéis especiais termossensíveis tendem a perder a impressão 
com o passar dos anos: a parte escurecida pelo aquecimento volta a clarear, 
“apagando” o que foi impresso. Este tipo de impressão foi bastante utilizado nos 
antigos aparelhos de fac-símile (fax), sendo que atualmente é bastante utilizado nas 
pequenas impressoras de recibos e cupons fiscais.
5.4.2.6 Outras impressoras
Existem outros tipos de impressoras para superfícies planas, tanto para uso 
doméstico como uso comercial. Podem ser citadas, por exemplo, as impressoras 
por sublimação (com funcionamento similar às impressoras jato de cera).
 Da teoria para a prática
Pesquise sobre custos de suprimentos para impressoras (cartuchos de 
tinta, toners) e, através de estudo comparativo, responda: conside-
rando aspectos como aplicabilidade, adequação ao uso, financeira-
mente, qual tipo de impressora compensa mais, jato de tinta ou laser? 
O cenário é o mesmo tanto para uso doméstico quanto corporativo?
5.5 Aquisição de imagem
Tão importante quanto produzir papel com imagens digitais é 
levar essas imagens para dentro do computador para que possam ser 
– 120 –
Fundamentos da Informática
armazenadas ou aprimoradas. Enquanto as pessoas enxergam e entendem 
o mundo em parte através das cores, para os computadores imagens são 
meras sequências de dados numéricos. Esta seção apresenta os scanners 
e as câmeras digitais, equipamentos que permitem a captura de imagens 
analógicas para omeio digital.
5.5.1 Scanners
O termo scanner, que em uma tradução livre aplicada ao contexto 
poderia significar “explorador, examinador, varredor”, indica justamente 
sua função: explorar uma imagem analógica, segmento por segmento, para 
levá-la ao meio digital. E, por conta disto, o termo no Brasil é adequado 
como escâner e traduzido como digitalizador. Ainda que este termo bastante 
genérico pudesse ser empregado para equipamentos que levassem ao meio 
digital não só imagens, mas também sons ou outros elementos de qualquer 
natureza analógica, ele é aplicado especificamente para o aparelho que 
digitaliza imagens.
Os scanners utilizados com computadores pessoais são uma evolução 
de antigos aparelhos de telefotografia e fax. Os primeiros equipamentos com 
esse objetivo datam o início do século XX e utilizavam eletromagnetismo 
na captura da imagem. Logo depois, passou-se a empregar fotocélulas no 
processo, sendo que atualmente existem diversos tipos de sensores de luz para 
a captura.
5.5.1.1 Elementos básicos
Para capturar as imagens do meio analógico para o digital, os scanners 
fazem uso de milhares de sensores de luz dispostos em sequência. A seção 
5.3 apresentou os princípios da imagem digital, e este princípios também 
são aplicados aqui. A quantidade de sensores a cada polegada, ou a menor 
distância que um sensor pode se movimentar para capturar um fragmento da 
imagem irá definir a resolução óptica do equipamento. 
Normalmente os scanners trabalham com resoluções conhecidas, que 
iniciam em 300 dpi em equipamentos atuais, sendo oferecidos com resoluções 
também de 600, 1200, 2400 dpi. Existem equipamentos profissionais com 
resoluções superiores. A imagem, uma vez capturada, pode ser trabalhada 
– 121 –
Dispositivos de Entrada e Saída
pelo software controlador do scanner e chegar a resoluções superiores, através 
de técnicas de interpolação. Um scanner pode ter resolução óptica de 600 dpi 
e ser oferecido comercialmente como sendo de 1200 dpi. Este último número 
refere-se então à resolução interpolada, e que não representa a acuidade real 
do equipamento.
Uma vez que os scanners são utilizados tanto para captura de fotografias 
quanto documentos de texto, um termo genérico é empregado ao objeto de 
varredura: original. Os primeiros modelos de scanners, por limitação de seus 
sensores, só conseguiam captar imagens monocromáticas: o sensor conseguia 
identificar as nuances luminosas da imagem, do claro para o escuro, porém 
não a cor. Daí surge o termo grayscale (escala de cinzas), já discutido 
anteriormente. Scanners monocromáticos são ainda bastante utilizados na 
captura de originais em preto-e-branco. Modelos posteriores passaram a 
incorporar diferentes sensores para os espectros de luz. Os scanners coloridos 
seguem o já comentado padrão RGB: um sensor para fazer a medição dos 
níveis de vermelho, outro para o verde e outro para o azul. As leituras são então 
recombinadas pelo software controlador do equipamento para composição 
de uma única imagem digital colorida. 
Uma vez que esses níveis são representados numericamente para o 
computador, a velocidade de aquisição de uma imagem depende da velocidade 
dos motores de passo que comandam a varredura da imagem e da taxa de 
transferência do barramento utilizado na conexão com o equipamento. A 
acuidade da imagem capturada depende dos diversos tipos de scanner, vistos 
a seguir, e da qualidade dos componentes empregados em sua fabricação. 
Através de software específico, chamado de OCR (Optical Character 
Recognition – Reconhecimento Óptico de Caracteres), é possível converter 
um original digitalizado em informação textual para ser utilizada em um 
editor/processador de textos.
5.5.1.2 Tipos de scanners
O primeiro scanner utilizado em computadores foi construído em 
1957 e é utilizado até hoje: o scanner de tambor (drum scanner). A primeira 
imagem capturada com o modelo original deste tipo de scanner foi uma 
foto do filho de Russel Kirsch, coordenador da equipe que desenvolveu o 
equipamento: uma imagem monocromática, com dimensões físicas de 5 x 
– 122 –
Fundamentos da Informática
5 cm e digital de 176 x 176 pixels, o que sugere uma resolução óptica de 
aproximadamente 69 dpi.
Este tipo de scanner utiliza PMT (PhotoMultiplier Tubes – tubos 
fotomultiplicadores), detectores de luz ultrassensíveis, capazes de detectar luz 
nos espectros do ultravioleta, luz visível e quase infravermelho. Pela qualidade 
na captura de imagem e também o alto preço de sua fabricação, atualmente 
o uso de scanners de tambor é restrito a aplicações profissionais de alto 
nível, como a digitalização de documentos históricos ou outras imagens que 
requeiram armazenamento em altíssima qualidade. A figura 24 apresenta um 
modelo atual de scanner de tambor.
Figura 24 – Scanner de tambor.
F
on
te
: S
hu
tt
er
st
oc
k.
co
m
/M
or
en
o 
So
pp
el
sa
O sucessor do scanner de tambor foi o scanner de mesa (flatbed 
scanner). Neste tipo de scanner, ao invés da imagem se movimentar diante 
dos sensores, o contrário acontece: o original permanece fixo sobre uma 
superfície de vidro, enquanto os sensores ficam posicionados em uma peça 
móvel que desliza por baixo do vidro, fazendo a leitura da imagem. Também 
o tipo de sensor nesse tipo de equipamento muda: são utilizados CCDs 
– 123 –
Dispositivos de Entrada e Saída
(Charge-Coupled Devices – Dispositivos de Acoplamento por Carga), 
que convertem a quantidade de luz recebida em carga elétrica armazenada 
proporcionalmente em capacitores. A figura 25 apresenta o funcionamento 
de um scanner de mesa com CCD.
Figura 25 – Scanner de mesa.
Original
Vidro
Lâmpada Espelho
Lente
Sensor CCD
Coletor de dados
Caminho da luz
Para o computadorShtterstock.com/Mile Atanasov
Outra técnica de medição de luz em scanners de mesa são os CIS (Con-
tact Image Sensor – sensor de imagem por contato), na qual são empregados 
LEDs das três cores do padrão RGB para iluminar a imagem, enquanto a 
captura é feita por um sensor monocromático. Desta forma são realizadas três 
leituras do original, uma para cada cor.
Uma alternativa aos scanners de mesa, com a mesma tecnologia 
de captura, porém com funcionamento físico diferente é o scanner de 
mão. Ao invés de uma superfície de vidro para apoio do original, este fica 
apoiado sobre uma superfície plana qualquer, com a face voltada para 
cima, e o aparelho, com sensores na parte inferior, é deslizado manual-
mente sobre o documento. O uso dos scanners de mão foi bastante popu-
lar na década de 90 do século XX, pelo seu baixo custo em comparação 
aos scanners de mesa. Atualmente ele é utilizado como alternativa portá-
til. Uma solução de baixo custo, porém com uma limitação: a velocidade 
inconstante com que se desliza o aparelho sobre o original pode resultar 
em uma imagem distorcida.
– 124 –
Fundamentos da Informática
Diante das soluções de reconhecimento biométrico, hoje o termo 
scanner de mão gera ambiguidade: é utilizado para se referir tanto aos recém 
citados equipamentos manuais de digitalização quanto aos equipamentos que 
fazem leitura das impressões digitais da mão para acesso biométrico.
5.5.2 Câmeras digitais
As câmeras digitais têm funcionamento similar aos scanners: sensores 
de luz capturam os níveis de cores da imagem e convertem em dados 
numéricos. Porém, aqui existe uma diferença crucial: enquanto o scanner 
faz gradualmente a leitura do original por partes, em uma superfície 
estável, a imagem para uma câmera digital precisa ser lida integralmente, 
em distância variável, e em uma fração de segundo. Tudo isso com a 
pretensão de ser uma substituta da máquina fotográfica analógica, que 
utiliza filmes.
5.5.2.1 Compressão
O armazenamento das imagens digitais em tamanhos e velocidades 
maiores foi possível ao longodo tempo graças a técnicas de compressão. 
Considere uma foto de 5 megapixels: se esta foto for armazenada sem 
compressão, ela irá representar um arquivo digital de aproximadamente 15 
MB (3 bytes por pixel no padrão RGB). Na época em que as máquinas de 5 
megapixel surgiram, os cartões de memória SD (classe 2) atingiam velocidades 
de 2 MB/s. Isto significa que uma imagem sem compressão levaria quase 
8 segundos para ser armazenada neste cartão. Fato: para que fosse viável 
a comercialização, somente com o uso de compressão. Uma imagem de 5 
megapixel comprimida em formato JPG com qualidade média-alta fica com 
tamanho aproximado de 1,5 MB, o que permite que ela seja armazenada em 
um cartão SD antigo em menos de um segundo.
Evidentemente os cartões de memória evoluíram. Hoje os cartões 
SD classe 10 atingem velocidades de até 10 MB/s. Cartões Compact 
Flash Ultra (encontrados nas máquinas profissionais) chegam a gravar em 
velocidades superiores a 150 MB/s. Com este tipo de cartão é possível o 
armazenamento de até 10 imagens de 5 megapixels por segundo no modo 
RAW (sem compressão).
– 125 –
Dispositivos de Entrada e Saída
5.5.2.2 Conexões
Uma vez que o cartão de memória pode ser removido para ser lido em 
outros equipamentos, muitas câmeras nem fornecem conexões externas para 
obtenção das imagens. Porém, a maioria dos fabricantes incorpora algum tipo 
de conexão em seus modelos, tornando a câmera uma espécie de pen-drive, 
que realiza leitura e gravação de dados nos cartões, comunicando-se com o 
computador. Alguns equipamentos utilizam cabos e conectores específicos 
para estabelecer a comunicação, porém o padrão de conexão mais utilizado 
atualmente é o USB, variando apenas o tamanho da conexão embutida na 
máquina: mini ou micro USB.
 Da teoria para a prática
Pesquise sobre as mídias de armazenamento para câmeras digi-
tais e estabeleça critérios que elejam um dos modelos de cartão 
de memória que poderia ser definido como o “melhor padrão” 
e que deveria ser adotado por todas as câmeras.
5.6 Áudio
Desde os bips de alerta emitidos por um pequeno falante interno, pas-
sando pela execução de músicas em alta definição e chegando aos complexos 
elementos sonoros de ambientação em um jogo digital, a emissão de som 
é mais uma das diversas funções realizadas em um microcomputador. Esta 
seção apresenta os elementos básicos para estudo do som e compreensão das 
placas e interfaces de áudio presentes em um computador pessoal.
5.6.1 Som: do analógico ao digital
O som é uma sensação auditiva, ou seja, é algo que nossos ouvidos são 
capazes de detectar. Essa sensação é produzida pelo movimento organizado de 
muitas moléculas que compõem o ar. Ao estalarmos os dedos, por exemplo, 
– 126 –
Fundamentos da Informática
provocamos uma perturbação (o surgimento de uma onda) que faz vibrar 
o ar e se propaga até ser captada por nossos ouvidos, constituindo o que 
chamamos de som. Essa perturbação propaga-se em movimento ondulatório 
e, por isso, dizemos que o som se comporta como uma onda (propagação de 
energia num meio, sem deslocamento de matéria).
5.6.1.1 Agentes
São três fatores distintos que produzem a sensação de som: deve haver o 
agente produtor ou emissor das vibrações, como a campainha – ao ser tocada, 
ela fará vibrar as moléculas de ar mais próximas; essas moléculas formam o 
agente transmissor, pois chocam-se umas com as outras, fazendo com que o 
som se propague na forma de ondas; as moléculas vibram na direção em que 
o som se propaga e, por isso, essas ondas são chamadas longitudinais, assim, 
elas chegam ao ouvido do agente receptor.
5.6.1.2 Características de uma onda sonora
O som é uma combinação de ondas emitidas tridimensionalmente 
em diversas direções. Para simplificação e melhor entendimento de alguns 
conceitos básicos, a figura 26 traz a representação gráfica de uma única onda.
Figura 26 – Propagação do som: elementos fundamentais.
F
on
te
: E
va
nd
ro
 Z
at
ti
Uma onda sonora pode variar em frequência, amplitude e formato. 
Estes elementos são explicados a seguir, através de nomenclatura específica.
 2 Tom: É o que permite distinguir grave de agudo, graças à frequên-
cia, ou seja, o número de oscilações da onda em um determinado 
tempo. O som baixo é o som grave, pois sua frequência é baixa (não 
– 127 –
Dispositivos de Entrada e Saída
confundir com o som de volume baixo, que é um som fraco, ou 
seja, de amplitude baixa). O som alto é o som agudo, de frequência 
alta (não confundir com o som de volume alto, que é um som forte, 
ou seja, de amplitude alta). O ouvido humano é capaz de perceber 
frequências entre 20 Hz e 20.000 Hz (20KHz).
 2 Timbre: O timbre está ligado à forma da onda sonora e permite 
distinguir dois sons do mesmo tom e intensidade. Sabe-se, por ele, 
se uma nota musical vem do piano ou da flauta e identifica-se a voz 
das pessoas. Os corpos vibram em diversas frequências, e a combi-
nação delas origina uma onda complexa.
5.6.1.3 Canais de som
Nas primeiras experiências de armazenamento de som ainda em formato 
analógico, as músicas (ou sons) eram armazenadas em um único canal, 
chamado monofônico. Com a sucessiva necessidade de se proporcionar mais 
realidade e envolvimento ao se reproduzir um som, criou-se um segundo canal 
para que se pudesse, através do aparelho reprodutor, transmitir a sensação de 
localização e movimento para o ouvinte em relação ao som emitido.
Aos sistemas capazes de reproduzir tais canais, chamou-se de estéreo 
(stereo). Com a evolução do cinema e grandes salas de teatro, o som estéreo 
tornou-se insuficiente, dando lugar ao chamado som multicanal. A partir daí, 
a quantidade de trilhas de áudio em som digital é identificada por um número 
que indica a quantidade de caixas satélite (aquelas que são distribuídas no 
ambiente) e a caixa de baixa frequência, o subwoofer. Por exemplo: um sistema 
de som 5.1 possui 5 caixas satélites e 1 subwoofer, enquanto um sistema de 
som 2.0 possui apenas 2 caixas (direita/esquerda) e denota um sistema estéreo. 
Veja no item 5.6.2.5, deste capítulo, a disposição física desses canais.
5.6.1.4 Conversão de analógico para digital
Para que um som possa ser armazenado em meio digital, ele precisa 
ser convertido para o formato digital, através de um processo chamado 
sampling (amostragem).
 2 Sampling: é o processo de captar momentos de um sinal analógico 
em transformação (como pequenas “fotografias” digitais), convertê-
– 128 –
Fundamentos da Informática
-los em sinal digital e corrê-los numa 
sucessão contínua, reproduzindo-se, 
dessa forma, o sinal original.
 2 Sampling rate: é a frequência 
(medida em Hertz) das fotografias 
tiradas do sinal analógico. Quanto 
maior for este número, mais perto 
do original será a reprodução digi-
tal. Considerando-se que o ouvido 
humano, como já foi mencionado, 
percebe sons de frequências máximas próximas a 20 KHz, pode-
-se chegar à conclusão de que para se digitalizar um som, bas-
taria fazê-lo à frequência de 20 KHz, ou seja: 20 mil fotografias 
por segundo. Porém, como explica o teorema da amostragem de 
Nyquist–Shannon, para completa reprodução posterior de um 
sinal analógico, este precisa ser digitalizado (“sampleado”) com o 
dobro de sua frequência máxima, no caso: 44KHz. Por esse motivo, 
aliado aos princípios de transmissão de vídeo analógico desde a 
década de 70 do século XX, o sampling rate padrão definido pela 
Sony e Philips, quando da criação do CD de áudio (veja a seção 
4.5.4), é de 44,1KHz, ou seja, são tiradas 44.100 fotografias do 
som por segundo.
 2 Sample size: é o tamanho (medido em bits) da fotografia tirada 
do sinal analógico. Quanto maior for o sample size (ou resolução, 
em analogia às imagens digitais), melhor será a representação do 
original. Um CD tem uma resolução de 16 bits, permitindo valoresentre -32.768 e +32.767 para o tamanho da onda.
Em uma abordagem simplificada, pode-se entender que o sampling rate 
é a resolução horizontal da fotografia, enquanto o sample size é sua resolução 
vertical. Em formatos de arquivos comprimidos, o sample size é apresentado 
como bit rate (taxa de bits).
A figura 28 traz a representação de ondas sonoras em um trecho musical 
em formato digital. À esquerda: a representação gráfica simples de uma única 
amostra da onda, onde cada barra representa a amplitude do sinal de cada 
F
on
te
: D
en
is
 D
ry
as
hk
in
Figura 27 – Scanner de mão.
– 129 –
Dispositivos de Entrada e Saída
frequência emitida; à direita: a representação em 3D de sucessivas amostras 
da onda, ou seja, a execução contínua do som ao longo do tempo.
Figura 28 – Representação gráfica do sampling de uma música.
F
on
te
: E
va
nd
ro
 Z
at
ti
 
5.6.1.5 Compressão X bit rate
Como já foi mencionado, arquivos de áudio sobre os quais são aplicados 
algoritmos de compressão consideram a quantidade de bits por amostra: bit 
rate. O bit rate pode ser definido sob duas formas:
1. CBR (Constant Bit Rate – taxa de bits constante): o usuário ao 
salvar um arquivo de áudio, opta por uma quantidade fixa de bits 
que será utilizada igualmente para todas as amostras ao longo da 
execução. São taxas de bits conhecidas: 32, 48, 96, 128, 160, 192, 
256, 320 bps (bits por segundo).
2. VBR (Variable Bit Rate – taxa de bits variável): neste caso, o 
programa responsável pelo arquivamento do áudio analisa as 
frequências emitidas em cada amostra e utiliza a taxa ótima para 
arquivamento. Por exemplo: o áudio de uma música “voz e violão” é 
bem menos complexo (em termos de frequências e timbres emitidos) 
do que a execução de uma obra sinfônica. A primeira poderia ser 
armazenada com 128 bits e a segunda com 320. Ainda nesta mesma 
linha, segundos de silêncio (ausência de som) podem ser gravados 
– 130 –
Fundamentos da Informática
utilizando-se a taxa mínima: 32 bits. Um arquivo VBR, portanto, 
possui várias resoluções diferentes das fotografias dos sons emitidos 
ao longo de sua execução, reduzindo seu tamanho final.
5.6.1.6 Formatos de áudio digital
Os arquivos de áudio digital podem comportar um ou mais canais de 
som, compactados ou não. Dentre os formatos conhecidos, encontram-se:
 2 PCM (Pulse Code Modulation – Modulação por Código de Pul-
sos) – 44,1 KHz/16 bits – é o formato utilizado em CDs de áudio, 
para o qual não é aplicado nenhum algoritmo de compressão.
 2 MP3 (Motion Picture Experts Group Layer III – Grupo de 
Experts em Figura em Movimento de Camada III) – é o formato 
de arquivo com codificação mais difundido atualmente. Seu 
sampling size (bit rate) pode ser de valor fixo ou variável, 
ficando ao usuário a escolha para um melhor resultado: 
tamanho/qualidade.
 2 WMA (Windows Media Audio – Mídia do Windows® para Áudio) 
– com características similares ao MP3, é o formato proprietário da 
Microsoft® para armazenamento de áudio digital.
 2 AAC (Advanced Audio Compression – Compressão de Áudio 
Avançada) – baseado no MP3, é o formato mais difundido para 
armazenamento de áudio multicanal.
Existem vários outros formatos menos ou mais difundidos, porém todos 
buscam armazenamento de áudio com qualidade superior e tamanho de 
arquivo menor.
5.6.2 Dispositivos de áudio
Os dispositivos de áudio têm como principal objetivo converter os sinais 
analógicos (ondas) de som em dado digital. Esta conversão acontece em dois 
sentidos: na captação do som, em que o microfone vibra, levando dados 
eletromagnéticos ao dispositivo de captura e na emissão do som, em que os 
– 131 –
Dispositivos de Entrada e Saída
dados digitais precisam ser convertidos em vibração para propagação pelo 
falante. O processo é puramente mecânico em ambos os sentidos.
5.6.2.1 Sistemas básicos de som e gerador de tom
O gerador de tom é aquele componente responsável pela emissão dos bips 
de alerta, através de um pequeno falante interno ao PC. Seu funcionamento 
básico é praticamente o mesmo do clock de um microprocessador: emitir uma 
sequência de pulsos em determinada frequência. A emissão desta frequência é 
feita através do liga/desliga de voltagem elétrica. A diferença é que os tons são 
gerados em frequências bem inferiores ao do clock, pois precisam ser audíveis 
pelo ouvido humano. O formato de onda emitido por este dispositivo é sempre 
quadrado, dada a característica do projeto do PC, e independente da frequência 
emitida, o volume (amplitude) é sempre o mesmo. Vale lembrar que é um 
som monofônico, e a saída gerada pelo chip é muito fraca. Portanto, recebe 
um chipset auxiliar para ser amplificada: um amplificador simples, apenas 
com o intuito de tornar o som audível e filtrar algumas ondas desnecessárias. 
O speaker (alto-falante) tem um conector específico padronizado para ser 
encaixado na placa mãe. O conector possui 4 furos, porém utilizam-se apenas 
2 e um deles é selado (ao mesmo tempo em que o pino correspondente na 
placa é cortado) para encaixe correto (figura 29).
Figura 29 – Speaker interno de um PC.
 Fo
nt
e:
 E
va
nd
ro
 Z
at
ti
Ao longo do tempo, algumas melhorias foram implementadas ao sistema 
gerador de tons, inclusive permitindo a execução de sons complexos nas primeiras 
versões do sistema operacional Windows®. Porém, diante das limitações técnicas e 
– 132 –
Fundamentos da Informática
físicas, o gerador de tons está longe de ser considerado um sistema de sons, dando 
lugar a placas e chips dedicados, chamados de placas de som. 
5.6.2.2 Placas de som
As placas de som surgiram para atender à necessidade de emissão de sons 
de alta qualidade. Em meados dos anos 90 do século XX eram comercializadas 
com o que se chamava de kit multimídia: uma placa de som, um CD-ROM 
e um conjunto básico de caixas acústicas (por vezes o kit também incluía 
microfone). Os primeiros modelos de placa de som não visavam, entretanto, 
aplicações multimídia ou jogos. Foram criados nos anos 80 do século XX, 
especificamente para trabalhar com software de música. Além de executarem 
sons digitalizados, possuíam função de sintetizador e, dessa forma, conseguiam 
reproduzir sons que contemplavam múltiplos instrumentos musicais. Os 
principais fabricantes (Ad Lib e Creative Labs) utilizavam o mesmo chip em 
suas placas: Yamaha YM3812 (também conhecido como OPL2), antes mesmo 
da existência do Windows ou adoção de padrões.
5.6.2.3 Interface MIDI
Por permitir a execução de sons sintetizados, nada mais lógico do que 
incorporar às placas de som a interface MIDI (Musical Instrument Digital 
Interface – Interface Digital para Instrumento Musical), uma interface 
padrão, criada na década de 70 do século XX para permitir a interconexão de 
diversos sintetizadores de diferentes fabricantes. A maioria das placas de som 
das décadas de 80 e 90 do século XX trazia uma interface MIDI utilizando 
conexão DIN 5/180º (figura 30).
Figura 30 – Placa de som com interface MIDI.
F
on
te
: E
va
nd
ro
 Z
at
ti
– 133 –
Dispositivos de Entrada e Saída
5.6.2.4 Padronização
Pela mesma dificuldade encontrada com padronização nas placas 
de vídeo antes da criação do consórcio VESA (veja capítulo 5), uma das 
principais desenvolvedoras de jogos para PCs (A Sierra), resolveu investir para 
incentivar uma padronização: além do Yamaha OPL2 também foi incluso o 
Roland MT-32. Estava instituído o padrão que seria adotado por diversos 
fabricantes a partir de então.
Em sua função mais básica, uma placa de som pode tanto capturar 
quanto reproduzir som digital. Tanto a captura quanto a reprodução nos 
modelos iniciais da década de 90 do século XX, seguiam as especificações de 
som dos CDs de áudio: 44,1 KHz a 16 bits.
Em 1997, a Intel resolve criar um padrãode codec (codificador/
decodificador) para execução de som digital, contemplando vários canais e 
sampling rate de 48 KHz: o Audio Codec ‘97, mais conhecido como AC ’97. 
Esse padrão seria adotado a partir de então pela maioria dos fabricantes de 
placas mãe que incorporavam funções de placa de som (on board).
Atualmente, fabricantes renomados, como a Asus e a MSI, incorporam 
chipset AC’97 em suas placas mãe, permitindo a execução de áudio em até 8 
canais (configuração 7.1). A Creative Labs continua comercializando diversos 
modelos de placas de som internas e também modelos externos com conexão 
USB. Outros fabricantes possuem também modelos com drivers próprios ou 
que seguem os principais padrões.
5.6.2.5 Conexões e caixas acústicas
Para levar o som na sua forma nativa (digital) ou convertido para analógico 
às caixas acústicas (speakers) ou outros equipamentos, as placas de som possuem 
algumas conexões padronizadas. Atualmente as conexões analógicas são feitas 
através de conectores chamados minijack de 3,5 mm de diâmetro (o mesmo 
tipo de conector encontrado na maioria dos fones de ouvido). As conexões são 
indicadas por ícones e cores. A exceção fica por conta da saída de áudio digital, 
que em alguns modelos é feita através de uma conexão coaxial do tipo RCA, e em 
outros é através de saída óptica. A figura 31 apresenta uma interface de conexão 
padrão 7.1 e a disposição das caixas acústicas para esta configuração.
– 134 –
Fundamentos da Informática
Figura 31 – Placa e sistema de som 7.1 (8 canais).
Esquerdo
Sub
Central
Direito
Surround
( )Direito
Surround
(Esquerdo)
Traseiro
Surround
(Direito)
Traseiro
Surround
( )Esquerdo
0
0
22
0
30
0
90
0
110
0
135
0
150
0
Microfone
Entrada de linha
Frontal Esquerdo / Direito
e fone de ouvido
Central + Subwoofer
Surround Esquerdo / Direito
Traseiro Esquerdo / Direito
 Da teoria para a prática
Você provavelmente tem em seu computador pessoal arquivos de 
música no formato mp3. Procure na internet algum aplicativo gratuito 
de conversão de formatos que trabalhe com arquivos mp3 e, para 
uma pequena amostra (entre 10 a 20 arquivos), localize os que 
tiverem bitrate constante (CBR) e altere para bitrate variável (VBR), 
verificando ao final qual o ganho total em espaço de armazenamento.
Conclusão
O computador precisa receber dados para processar e gerar informações 
de saída. O usuário o alimenta com dados através dos dispositivos de entrada. 
O teclado é a forma mais básica de interação com o PC, porém dispositivos 
apontadores e de reconhecimento de voz há muito estão presentes para 
complementar essa tarefa.
– 135 –
Dispositivos de Entrada e Saída
Para atender ao ciclo clássico “Entrada-Processamento-Saída”, o 
computador precisa externar os dados processados. Isso é feito através de 
dois componentes principais: a placa de vídeo e o monitor. As características 
técnicas da placa de vídeo irão permitir a apresentação de conteúdo simples, 
como o texto, ou complexos cenários 3D com efeitos de iluminação e 
textura. O monitor, por sua vez, é o mais próximo do usuário nessa cadeia 
de informação visual: é onde o usuário literalmente vê a atividade que está 
desempenhando no PC.
Além do monitor, outra forma de visualizar o que está sendo feito no PC 
é com o uso da impressora. Os primeiros sistemas de computação externavam 
a informação diretamente para o papel. O monitor veio depois. Atualmente, 
em um cenário que prima por comportamento ecológico adequado, imprimir 
é uma opção. E a impressão pode ser feita de diversas maneiras, sendo a tinta 
e o toner os dois principais vilões das árvores.
Mesmo não tendo o objetivo de controlar o PC, os dispositivos de 
aquisição de imagem também são dispositivos de entrada. Uma imagem, para 
adentrar o computador, precisa passar por um processo de digitalização, que 
acontece através de sensores, que convertem luz em informação digital. O 
scanner e a câmera digital são os principais equipamentos para esse fim.
Ouvir música é uma das atividades mais desempenhadas em um PC, 
como hobbie, é claro. Conhecer elementos que caracterizam uma música 
sob o ponto de vista sonoro é importante para correta escolha na gravação 
dos arquivos de áudio digital e da configuração do equipamento de som. Da 
conversão do arquivo digital de áudio para a propagação analógica da onda 
sonora, o processo envolve os formatos de arquivo, qualidade do áudio, placa 
de som e falantes.
6 
Placa mãe e integração 
dos componentes de 
Hardware
Chegou o momento de montar o quebra-cabeça: com o 
entendimento das diversas partes que fazem um microcomputador 
funcionar, este capítulo apresenta o funcionamento de uma placa 
mãe e os componentes específicos que são responsáveis pela 
integração das partes. Também aqui são vistos os elementos que 
permitem classificar as diferentes placas mãe.
– 138 –
Fundamentos da Informática
6.1 Funções e componentes
A função de uma placa mãe é integrar os diversos componentes 
estudados até então: processador e memórias, através do barramento local e os 
periféricos, através dos barramentos de expansão. O conjunto é composto de 
componentes que são fixados (soldados) no circuito impresso, a exemplo dos 
chips de áudio e vídeo, e outros que permitem a conexão com componentes 
que são encaixados, como é o caso do microprocessador e dos pentes de 
memórias. Essa versatilidade permite que sejam conectados processadores e 
memórias de diferentes velocidades e capacidades.
6.1.1 Chipset
Evidentemente essa versatilidade tem limite: assim como carros 
fabricados sobre uma mesma plataforma podem compartilhar peças, nem 
sempre é possível aproveitar peças em diferentes plataformas. No caso dos 
microcomputadores, é necessário que essas peças sejam compatíveis com o 
chipset da placa mãe. O chipset (conjunto de chips) é responsável por permitir 
que as partes interajam. Nas placas mães mais antigas, os chipsets eram 
espalhados pela placa. Atualmente uma placa mãe é dividida em dois chipset: 
north bridge (ponte norte) e south bridge (ponte sul). Também conhecido 
em sistemas Intel como MCH (Memory Controller Hub – Concentrador 
Controlador de Memória), o chipset northbridge (ponte norte) é responsável 
por gerenciar a comunicação entre a 
CPU, memória RAM e barramentos de 
alta velocidade (AGP e PCI Express); 
o chipset southbridge (ponte sul), por 
sua vez, é responsável por controlar os 
barramentos PCI e ISA (já obsoletos), 
os controladores de HD (ATA/IDE e 
SATA) e as portas paralelas, PS/2 e seriais, 
incluindo USB. A figura 1 apresenta um 
diagrama contemplando essas conexões.
O modelo do chipset indica o clock 
do processador, especificações (tipo, 
velocidade e quantidade de pentes) das 
RAMNorthbridge
Southbridge
AGP
CPU
PCI
USB
ISA IDE
BIOS
LEGACY
Figura 1 – Chipsets.
– 139 –
Placa mãe e integração dos componentes de Hardware
memórias, a velocidade máxima entre os barramentos, dentre outros elementos 
básicos que compõem o conjunto. Por exemplo: o chipset Intel® Z77 Express 
permite a conexão entre processadores Intel Core de última geração, USB 
3.0, interface PCI Express 2.0, dentre outras várias especificações.
6.1.2 Soquete
Outro componente, que também define a escolha e classificação de uma 
placa mãe, é o socket (soquete). É um encaixe plástico onde o processador 
é acoplado. O número que acompanha o modelo do soquete normalmente 
indica a quantidade de pinos para o qual ele foi projetado. Por exemplo: uma 
placa com soquete Intel® LGA 1155 aceita microprocessadores com 1155 
pinos. Existem dois tipos de encaixe em soquetes: PGA (Pin Grid Array – 
Matriz de Grade para Pinos), em que o soquete possui furos para encaixe 
dos pinos do processador; e LGA (Land Grid Array – Matriz de Grades paraSuperfície), no qual o soquete possui pinos para encaixe do processador, que 
por sua vez possui os contatos planos em superfície.
6.1.3 Slots de memória
Os slots de memória são encaixes plásticos para que sejam acoplados os 
pentes (módulos) de memória DRAM.
6.1.4 Slots de expansão
Estão diretamente relacionados com o barramento de expansão (PCI, 
AGP, PCIe, ...): são encaixes plásticos que permitem o acoplamento de 
placas de expansão, como placas de vídeo, som, e diversas controladoras 
de periféricos. 
6.1.5 Conectores e portas de dados
São diversos os conectores e portas disponíveis em uma placa mãe. 
Desde os conectores SATA e IDE/ATA, onde são ligados os HDs, até as 
portas para conexão de plugues: PS/2 (teclado e mouse), USB (diversos 
periféricos), Firewire, entre outras. Além dessas portas, uma vez que a maio-
– 140 –
Fundamentos da Informática
ria das placas mãe atuais oferecem recursos onboard (LAN, Audio, etc.), 
a conexão para esses recursos é feita através de um painel único de tama-
nho padrão, chamado de I/O Connectors Panel (Painel de Conectores de 
Entrada e Saída).
6.1.6 Conectores do gabinete
A placa mãe possui conexão com alguns componentes do gabinete, 
alguns que fornecem informação ao usuário, outros que permitem ao usu-
ário interagir com a placa. É o caso das luzes indicadoras (LEDs) de ativi-
dade dos HDs, botões de switch (liga/desliga) e reset (reinicialização), ou 
mostradores (displays).
6.1.7 Fixação
A placa mãe precisa ser fixada ao gabinete (detalhes na seção 6.4). Para 
tanto, as placas recebem perfuração em pontos específicos de sua superfície, 
seguindo padrões que são atendidos pelos gabinetes.
6.1.8 Alimentação
A placa mãe e os componentes a ela acoplados precisam ser alimentados, 
ou seja, receber corrente elétrica. Atualmente o padrão utilizado em fontes e 
gabinetes para intera-
ção com a placa mãe 
é o ATX (Advanced 
Technology eXtended 
– Tecnologia Avan-
çada Estendida). Há 
também o encaixe 
para a bateria (ou 
pilha) que mantém 
as informações da 
CMOS (Comple-
mentary Metal-Oxide 
Semiconductor – 
Semicondutor Metal-
BATERIA
DA CMOS
CONECTORES
SERIAL ATA
SOQUETE DO
PROCESSADOR
CONECTORES
DE RESFRIADORES
SLOTS DE
MEMÓRIA DDR
CONECTOR DE
ALIMENTAÇÃO ATX
CHIPSET
PONTE NORTE
(com dissipador)
CHIPSET
PONTE SUL
(com dissipador)
CONECTORES
DO GABINETE
SLOTs PCI EXPRESS
SLOT PCI
PORTAS
USB 3.0
CONECTOR
PS/2
PORTA
LAN
PORTAS
E-SATA
PORTAS
USB 2.0
CONECTORES
DE AUDIO 7.1
CONECTORES
USB
Figura 2 – Componentes de uma placa mãe
– 141 –
Placa mãe e integração dos componentes de Hardware
-Óxido Complementar). A figura 2 apresenta uma placa mãe com a identifica-
ção dos componentes mencionados neste capítulo.
6.2 Histórico e evolução
Desde os primeiros IBM PCs, as placas mães sofreram constante evolução, 
sempre acompanhando a evolução do microprocessador. Até hoje, o principal 
componente que define a aquisição de uma máquina é o microprocessador e, 
portanto, o principal elemento que também define a evolução de uma placa 
mãe é o tipo de processador para o qual ela foi projetada.
A classificação de uma placa mãe pelo tipo de processador é sempre 
estabelecida através do seu soquete de CPU. Sendo o microprocessador um 
dos componentes mais caros, sua troca/atualização já era prevista desde a 
fabricação de placas mãe para os PCs baseados em processador Intel 80386. 
Porém, somente a partir dos PCs 486 é que se criou um padrão para encaixe 
de processadores, ou seja, um padrão para os soquetes, pelos quais as placas 
mãe passaram a ser identificadas.
O quadro 1 apresenta um histórico com alguns dos principais soquetes 
e suas características.
Quadro 1 – Soquetes de CPU.
Nome do 
soquete / [ano]
Imagem
Processador 
que suporta
Quantidade 
de contatos
Observação
Socket 1
[1989]
Intel® 486 
e derivados.
169
É o primeiro padrão 
de soquete, criado 
para os processadores 
486 e derivados, 
operando em 5 volts.
Socket 2
[1990]
Intel® 486 
e derivados.
238
Uma evolução do socket 
1, também para 486, 
permitia a conexão de 
alguns processadores 
Pentium, também 
operando em 5 volts
– 142 –
Fundamentos da Informática
Nome do 
soquete / [ano]
Imagem
Processador 
que suporta
Quantidade 
de contatos
Observação
Socket 3
[1991]
Intel® 486 
e derivados;
Intel® 
Pentium.
237
Mais uma variação 
de soquete para 486, 
porém com opção 
de 5 ou 3,3 volts.
Socket 4
[1992]
Intel® 
Pentium 60 
e 66 MHz.
273
Criado para uso 
com processadores 
Pentium, a voltagem 
alta (5 volts) causava 
superaquecimento.
Socket 5
[1992]
Intel® 
Pentium 75 
a 133 MHz.
320
Projetado para os 
novos Pentium 
de 3,3 V.
Socket 6
[?]
Intel® 486. 235
Evolução do socket 
3, não chegou a ser 
usado, pois foi projetado 
para processadores 
486 em uma época 
em que os Pentium 
dominavam as vendas.
Socket 7
[1994]
Intel® 
Pentium.
321
Além dos 
processadores Intel 
Pentium, aceitava 
os similares da 
concorrente AMD: 
K6. Operava com 
voltagens entre 
2,5 e 3,3 volts.
– 143 –
Placa mãe e integração dos componentes de Hardware
Nome do 
soquete / [ano]
Imagem
Processador 
que suporta
Quantidade 
de contatos
Observação
Socket 8
[1995]
Intel® Pen-
tium Pro.
487
Rapidamente 
abandonado para dar 
lugar aos slots de 
encaixe do Pentium II. 
Operava com voltagens 
entre 3,1 e 3,3 volts.
Socket 370
[1999]
Intel® 
Celeron;
Intel® 
Pentium III.
370
Substituto dos slots de 
encaixe, uma vez que 
a Intel voltou atrás na 
decisão de utilizar slots 
para seus processadores. 
A partir dele o nome 
dos sockets indica a 
quantidade de furos.
Socket 462
ou Socket A
 [2000]
AMD® 
Athlon; 
AMD® 
Duron.
462
Substituto do Slot A 
da AMD, que também 
recuou na estratégia 
de uso de slots.
Slocket
Intel® 
Celeron;
Intel® 
Pentium III.
370
Nada além de 
um adaptador de 
Socket 370 para ser 
usado em Slot 1.
Socket 423
[2000]
Intel® 
Pentium 4.
423
Foi substituído 
pelo Socket 478.
– 144 –
Fundamentos da Informática
Nome do 
soquete / [ano]
Imagem
Processador 
que suporta
Quantidade 
de contatos
Observação
Socket 478
ou Socket 
N [2000]
Intel® 
Pentium 4.
478
Processador mais 
popular para uso 
em Pentium 4.
Socket 754
[2003]
AMD® 
Athlon 64;
AMD® 
Sempron.
754
Socket 940
[2003]
AMD® 
Athlon 64;
AMD® 
Opteron.
940
Socket 939
[2004]
AMD® 
Athlon 64;
Athlon 
64 X2;
Athlon 
64 FX.
939
Socket T
ou LGA 775
[2004]
Intel® 
Pentium 
4; Intel® 
Celeron; 
Intel® 
Pentium XE; 
Intel® Core 2 
Duo; Intel® 
Core 2 Quad.
775
Primeiro soquete 
do tipo LGA.
– 145 –
Placa mãe e integração dos componentes de Hardware
Nome do 
soquete / [ano]
Imagem
Processador 
que suporta
Quantidade 
de contatos
Observação
Socket J
ou
LGA 771
[2006]
Intel® Xeon 771
Socket H
ou
LGA 1156
[2009]
Intel® Pen-
tium; Intel® 
Celeron;
Intel® 
Core i3;
Intel® Core 
i5; Intel® 
Core i7.
1156
Socket R ou 
LGA 2011 
[2011]
Intel® Core 
i7 e Intel® 
Xeon
Sandy 
Bridge.
2011
O número causa certa 
confusão, uma vez que 
o ano de lançamento 
coincide com o número 
de pontos de contato.
Fonte: o próprio autor (imagens retiradas aleatoriamente da internet).
 Da teoria para a prática
Escolha um computador desktop qualquer (seu ou de um amigo). 
Verifique qual processador, placa mãe e chipset que o equipa. Faça 
um estudo de possibilidade de troca dos componentes, ou seja, 
quais outros processadores poderiamestar nesta mesma placa mãe, 
ou quais placas mães trabalham com o mesmo tipo de soquete.
– 146 –
Fundamentos da Informática
6.3 BIOS
Se a placa mãe é o componente que integra as partes de um computador, 
do processador aos periféricos, pode-se dizer que o BIOS é responsável por 
comandar ou permitir esta integração. O BIOS (Basic Input/Output System 
– Sistema Básico de Entrada/Saída) é um pequeno programa, armazenado 
em memória permanente, que controla as funções básicas de hardware de 
um PC. Esta seção aborda essas funções, explicando o seu funcionamento 
e necessidade.
6.3.1 Elementos do BIOS
Quando o PC é ligado, a primeira coisa que o processador faz é buscar 
o programa que deve ser executado. Inicialmente pode-se pensar que o 
primeiro programa executado é o sistema operacional (Windows® ou Linux, 
por exemplo, abordados com maiores detalhes no capítulo 10). Porém, o 
sistema operacional reside em uma unidade de armazenamento (disco rígido, 
de estado sólido, ou memória flash) e, para que o processador possa ter acesso 
a essas unidades, o “conhecimento” vem do BIOS.
O BIOS de um PC típico contém instruções que testam o hardware 
existente e dão subsídio ao sistema operacional para acessar este hardware. 
Uma vez que o PC é composto de várias partes, dentre CPU e periféricos, o 
BIOS também é dividido em módulos, onde cada módulo é responsável por 
controlar um componente específico.
Originalmente, até pela limitação do próprio PC no desempenho 
de suas atividades, muitas funções eram controladas pelo BIOS. A Apple, 
por exemplo, deixou todo o controle gráfico de seu sistema por conta do 
BIOS durante anos. Porém atualmente a maioria das funções que definem 
o comportamento de um PC foram transferidas para o sistema operacional, 
restando à BIOS apenas o contato mais íntimo com o hardware básico.
6.3.1.1 Firmware
Pequenos programas como o BIOS são normalmente encapsulados em 
memórias ROM ou programáveis. Esses programas, que estão intimamente 
ligados com o hardware, são chamados de firmware. Mas um firmware não 
– 147 –
Placa mãe e integração dos componentes de Hardware
significa necessariamente um programa pequeno. Um sistema operacional 
inteiro poderia ser disponibilizado como um firmware, mas isso não acontece 
pela dificuldade de prover atualizações e a quantidade de memória flash que 
seria necessária para comportar.
6.3.1.2 Inicialização
No momento em que o PC é ligado, o processador busca instruções para 
serem executadas em um endereço absoluto da memória, em que se encontra 
o BIOS. A partir daí, o BIOS faz com que o processador execute instruções 
específicas conforme o tipo de inicialização:
 2 Partida a frio (cold boot): se o PC está sendo inicializado porque 
recebeu energia, ou seja, porque acabou de ser ligado.
 2 Partida a quente (warm boot): se o PC está sendo inicializado por 
uma reinicialização sem interrupção de fornecimento de energia 
(reinicialização pelo sistema operacional, por exemplo).
 Saiba Mais
A tradução literal para a palavra boot é “pontapé”, fazendo alu-
são à expressão “pontapé inicial”, e a tradução mais amplamente 
adotada para o termo é “inicialização”. Porém a combinação 
com as palavras cold ou warm resultou no termo composto que 
utiliza a palavra “partida”.
Para o sistema operacional, qualquer um dos tipos de inicialização causa 
o mesmo efeito: inicialização dos registradores e um novo carregamento 
do sistema. A diferença fica por conta dos componentes (principalmente 
periféricos): na partida a quente, por continuarem energizados, eles podem 
não ter suas memórias totalmente reinicializadas. Isso normalmente não 
representa um problema, mas se um componente periférico originou o 
travamento do sistema, a partida a quente não irá resolver o problema, sendo 
então necessária uma partida a frio.
– 148 –
Fundamentos da Informática
6.3.1.3 Autoteste de partida
Toda vez que o PC é ligado, o BIOS identifica os componentes do 
sistema e realiza testes para saber se estão funcionando corretamente. Essa 
rotina de diagnóstico é chamada de POST (Power-On Self Test – Autoteste 
de partida) e é executada para garantir que todos os componentes básicos 
estejam funcionando.
O teste é relativamente simples: o BIOS envia um sinal para uma porta 
ou registrador do componente que está sendo testado e, se o resultado for o 
esperado, significa que está tudo certo.
Se algo estiver errado, o usuário é informado de duas possíveis formas: 
na primeira delas, um código de erro ou mensagem é apresentado no 
monitor. Dada a limitação de memória onde o BIOS encontra-se instalado, 
não é possível emitir uma grande variedade de mensagens completas sobre o 
erro. Se o sistema básico de vídeo for o problema, torna-se inútil apresentar 
mensagens, então são emitidos bips para sinalizar o erro. Um único bip indica 
que tudo está funcionando, enquanto qualquer outra sequência de bips indica 
que algo está errado, sendo que a quantidade de bips indica o erro.
6.3.1.4 Extensões do BIOS
Depois de testados os componentes principais, o BIOS inicia a rotina 
de testes das placas de expansão. Aqui os testes dependem de cada placa e do 
fabricante, sendo que toda placa possui BIOS próprio que troca informações 
com o BIOS inicial.
6.3.1.5 Armazenamento
O BIOS possui uma área de persistência de dados, seja para 
armazenamento de informações como data e hora do sistema até dados 
pertinentes ao hardware instalado. Nessa área também residem os detalhes 
físicos dos disquetes e discos rígidos (barramento, cilindros, cabeças). A 
maioria desses dados é configurável pelo usuário, e a configuração será 
melhor detalhada mais adiante neste capítulo. Os dados são armazenados 
utilizando tecnologia CMOS, mantidos por uma pequena bateria de lítio. 
O uso massivo dessa tecnologia neste tipo de aplicação fez com que a 
– 149 –
Placa mãe e integração dos componentes de Hardware
própria área de armazenamento do BIOS fosse chamada, ao longo dos anos, 
de CMOS.
6.3.1.6 Carga do programa inicial
Uma vez que o hardware foi verificado e encontra-se apto para uso, ini-
cia-se então a rotina de IPL (Initial Program Load – Carga do Programa Ini-
cial). Nesta rotina, o BIOS procura nas unidades de armazenamento secun-
dário (disquetes ou HDs) pelo setor de inicialização (boot sector), que é onde 
devem residir os arquivos de carga inicial do sistema operacional.
A partir daí, quem toma conta do PC é o sistema operacional, porém com 
uma comunicação contínua com o BIOS para gerenciamento e uso do hardware.
6.3.2 Configuração e overclocking
As opções de configuração do BIOS dependem de uma série de fatores, 
desde o modelo de placa mãe, fabricante, até o tipo de interface utilizada (grá-
fica ou texto). Seria praticamente impossível contemplar todas as variações de 
opções existentes no mercado no capítulo de um livro, portanto esta seção 
tem como objetivo apresentar e explicar os principais itens, que são comuns 
entre a maioria dos modelos.
6.3.2.1 Acesso ao programa e aos menus
Para acessar o programa de configuração do BIOS, normalmente man-
tém-se pressionada uma tela (ou uma combinação) imediatamente após ligar 
o PC, sendo que as teclas mais comumente adotadas pelos fabricantes para 
esta função são: F1, F2, F12, Del e Esc.
Uma vez que o programa é acessado, se a interface é gráfica não tem erro: 
os ícones são acessíveis através do uso do mouse, com movimentação e uso 
dos botões. Quando a interface é textual, utilizam-se as teclas de movimen-
tação de cursor para acessar as opções. Porém a forma de alterar uma confi-
guração é que muda: alguns fabricantes utilizam as teclas F5 e F6 enquanto 
outros utilizam PgUp e PgDwn para navegação entre os valores disponíveis 
de configuração. Sempre há uma opção do menu ou aba disponível para a 
efetivação (armazenamento) das alteraçõesefetuadas.
– 150 –
Fundamentos da Informática
6.3.2.2 Configurações de data e hora
Esta opção, apesar de estar presente em todos os programas de configuração 
de BIOS, atualmente é pouquíssimo utilizada, uma vez que os sistemas 
operacionais atuais se encarregam de atualizar a data e hora do sistema.
6.3.2.3 Discos flexíveis
Apesar de praticamente extintos, os disquetes ainda aparecem como 
opção configurável na maioria dos programas configuração, normalmente 
permitindo escolher entre o tipo de drive, ou simplesmente desabilitá-los.
6.3.2.4 Discos rígidos / controladoras
Em modelos mais antigos de placas mãe, essa era uma das partes mais 
complicadas de se configurar, pois exigia que o usuário tivesse conhecimento 
de características técnicas do HD conectado: capacidade, quantidade de 
setores, de trilhas. Posteriormente foram introduzidas funções de detecção 
automática desses dados e, atualmente, as opções se limitam a algumas 
particularidades adicionais que, na maioria das vezes, resulta em alteração do 
desempenho.
Ainda permanece a escolha do tipo de interface utilizada (IDE/ATA, 
SATA) e a habilitação de alguns recursos que valem a pena serem comentados:
 2 LBA / Large Mode: disponível em BIOS desde 1995, o recurso 
LBA (Logical Block Addressing – Endereçamento de Bloco Lógico) 
foi criado para permitir que os BIOS reconhecessem HDs com 
capacidade acima de 528MB.
 2 PIO Mode (Programmed Input / Output Mode – Modo de 
Entrada / Saída Programado): este é um recurso que permite que 
dados sejam transferidos do periférico para a CPU. É uma técnica 
que utiliza bastante as funções do processador na escrita/leitura de 
dados, contrária ao DMA (explicado a seguir). Os modos de PIO 
são enumerados, indo desde o modo 0 (zero), com taxa de transfe-
rência de 3,3 MB/s até o modo 6, com taxa de 25 MB/s.
 2 DMA Mode (Direct Memory Access Mode – Modo de Acesso 
Direto à Memória): periféricos que trabalham com DMA conse-
– 151 –
Placa mãe e integração dos componentes de Hardware
guem acessar diretamente a memória RAM, sem que o dado tenha 
que passar pelo processador. 
 2 S.M.A.R.T (Self-Monitoring, Analysis and Reporting Techno-
logy – Tecnologia de Automonitoramento, Análise e Relatório): 
este recurso foi criado para guardar estatísticas de funcionamento 
do HD na tentativa de impedir que dados cruciais sejam perdidos 
no caso de falha eminente. O sistema incorpora diversos atributos 
monitorados, desde erro e desempenho de leitura e gravação até 
impacto e vibração no equipamento. Os itens monitorados variam 
entre as marcas e modelos.
 2 Multi-Block / Multi-Sector Transfer (Transferência de Múltiplos 
Blocos / Múltiplos Setores): quando habilitada, esta opção permite 
que, ao se ler um dado, sejam transferidos vários blocos/setores do 
disco, aumentando a velocidade/desempenho. Porém, esta opção 
pode se tornar um incômodo se o HD contiver blocos/setores 
defeituosos e alguma informação útil para ser lida estiver em bloco 
próximo, fazendo com que nem os dados em bom estado sejam 
transferidos. Portanto, em situações de defeito para recuperação de 
dados, esta opção deve ser desabilitada.
6.3.2.5 Dispositivos onboard
Controladores de dispositivos específicos, fabricados incorporados à 
placa mãe (onboard), são listados nas configurações do BIOS em uma tela 
específica, para que possam ser ativados ou desativados. Os principais são: 
HD Audio (placa de som), LAN (placa de rede), porta Serial, porta Firewire.
6.3.2.6 Configurações USB
As portas USB podem ser configuradas para operarem nas velocidades 
pré-determinadas pelo padrão. O capítulo 4 apresentou as variações do 
padrão USB.
6.3.2.7 Overclocking
Realizar overclocking em um dispositivo significa permitir que este 
equipamento trabalhe com frequência superior àquela para qual ele foi 
– 152 –
Fundamentos da Informática
projetado. Antes de explicar o processo, chama-se atenção para duas 
perguntas inerentes: “Qual o principal objetivo?” Resposta: “Aumentar o 
desempenho do dispositivo”; “Por que ele já não é fabricado para operar 
na sua maior frequência?” Resposta: “Normalmente um componente é 
ofertado ao mercado na maior frequência que o permite operar em condições 
de temperatura ambiente, com variações previstas. Quando se realiza 
overclocking, a temperatura de operação do componente sobe e, portanto, 
não se pode garantir que o dispositivo será submetido a condições compatíveis 
de refrigeração.”
Os componentes que podem receber overclock são: processador, 
memória, placa de vídeo e placa mãe; e os elementos numéricos que estão 
envolvidos no processo: clock (frequência) e voltagem.
 Da teoria para a prática
Faça um estudo de overclocking confiável para um PC qualquer 
(seu ou de um amigo). Veja quais os componentes utilizados 
e quais as possibilidades de alteração de frequência e voltagem 
para cada um deles. O estudo pode ser feito também para 
placas de vídeo.
6.4 Gabinetes e fontes
Placa mãe, placas controladoras, HDs, enfim o conjunto precisa ser 
agrupado de alguma forma e, em PCs desktop, isso acontece no gabinete. 
Também é necessário fornecer energia para operação desses componentes, e 
é quando a fonte entra em cena. Esta seção apresenta os principais elementos 
de um gabinete, juntamente com conceitos básicos de eletricidade e 
componentes relacionados à operação da fonte de alimentação.
– 153 –
Placa mãe e integração dos componentes de Hardware
6.4.1 Gabinete
Este é um assunto que poderia ser desconsiderado se em alguns sistemas 
não houvesse a necessidade ou a perspectiva de expansão por parte dos 
usuários. Notebooks, por exemplo, oferecem possibilidades de atualização de 
hardware extremamente restritas, que se limitam praticamente à memória e ao 
HD, e que são realizadas através de algumas aberturas específicas previstas na 
fabricação da sua carcaça. O mesmo acontece em PCs desktop com sistemas 
fechados, como os Apple Mac, cujo projeto não permite adição de novas 
placas, senão alguma customização realizada na própria loja antes mesmo de se 
retirar o produto. Diante disso, esta seção é dedicada aos consumidores de PCs 
desktop chamados “montados”, compostos por peças de diferentes fabricantes.
Os gabinetes não se limitam a acomodar os componentes de um PC. Eles 
também possuem diversos componentes que dão subsídio ao funcionamento 
do conjunto. A figura 3 apresenta um gabinete com seus componentes 
e, na sequência, esta seção explica cada um deles, juntamente com outros 
itens relevantes.
Figura 3 – Componentes de um gabinete.
TAMPA SUPERIOR
MOLDURA
FRONTAL
BAIAS PARA
DRIVES DE 3.5"
BAIAS PARA
DRIVES DE 5.25"
CONECTORES DE
LEDs, SWITCHES
E SPEAKER
FONTE DE
ALIMENTAÇÃO
ENTRADA
DO PLUGUE
DE ENERGIA
BAIAS DE
SLOTS DE
EXPANSÃO
CONEXÕES DE
PERIFÉRICOS
ENTRADA/SAÍDA
ORIFÍCIOS PARA
VENTILAÇÃO
ORIFÍCIOS DOS
RESFRIADORES
( )COOLERS
S
hu
tt
er
st
oc
k.
co
m
.b
r
– 154 –
Fundamentos da Informática
6.4.1.1 Tamanho
O primeiro fator a ser considerado na aquisição de um gabinete é o 
seu tamanho, que está diretamente relacionado à quantidade e ao tamanho 
das peças que podem ser acomodadas dentro dele. É importante destacar 
que gabinetes com dimensões inadequadas, mesmo que comportem 
as peças necessárias, podem prejudicar o fluxo de ventilação, causando 
superaquecimento dos componentes.
Tamanhos reduzidos dificultam o acesso para encaixe dos componentes, 
da mesma forma que tamanhos maiores podem tornar insuficientes os 
comprimentos dos cabos de conexão entre eles.
6.4.1.2 Baias
As baias são lugares físicos destinados à acomodação de componentes 
fechados (que não placas livres), como HDs, leitores de DVDs, entre outros. 
Elas podem acomodar tanto componentes exclusivamente de uso interno, 
que nãonecessitem interação com o usuário (como é o caso dos HDs), 
quanto componentes com os quais o usuário interage fisicamente (como 
leitor de DVDs). As baias com acesso externo normalmente estão localizadas 
na parte frontal do gabinete, chamado painel frontal. Internas ou externas, 
as baias possuem dimensões físicas que atendem a padrões de fabricação dos 
componentes: 5,25”, 3,5”, dentre outras medidas.
6.4.1.3 Espaços dos slots
Ainda que utilizem barramentos (e consequentemente tamanhos) 
diferentes, os slots são posicionados na placa mãe de forma que as placas 
controladoras que ali são encaixadas tenham uma face projetada para a parte 
externa do gabinete e fiquem sempre equidistantes. O gabinete, por sua vez, 
possui espaços (vãos) compatíveis com estes encaixes.
6.4.1.4 Painel de Conexões de E/S
De forma similar aos espaços dos slots, para expor o painel de conectores de 
E/S da placa mãe (seção 6.1.5), o gabinete oferece um único vão.
– 155 –
Placa mãe e integração dos componentes de Hardware
6.4.1.5 Resfriamento
Todo componente eletrônico irradia calor, em maior ou menor intensi-
dade. O conjunto de peças acomodadas pelo gabinete pode gerar tanto calor 
ao ponto de prejudicar o seu funcionamento. Dessa forma, é muito impor-
tante que o conjunto tenha um sistema de resfriamento.
Um cooler (resfriador) prevê duas etapas. O processo inicia com o uso 
do dissipador, uma peça metálica, normalmente de alumínio ou cobre, que é 
acoplada a um componente para conduzir o calor irradiado para onde ele possa 
ser liberado mais facilmente pelo ar. Na sua forma mais simples, é uma peça 
metálica única com base sólida que se subdivide em várias placas finas. Se não 
há fluxo de ar suficiente para remover o calor liberado pelos componentes ou 
até mesmo conduzido pelo dissipador, torna-se necessário o uso de um ventila-
dor (fan), que é a segunda etapa do resfriamento. Tecnicamente o dissipador é 
chamado de cooler passivo, enquanto o ventilador é chamado de cooler ativo. A 
figura 4 apresenta um sistema de resfriamento dissipador e ventilador.
Figura 4 – Sistema de resfriamento (cooler).
S
hu
tt
er
st
oc
k.
co
m
/l
uc
hs
ch
en
Atualmente alguns componentes operam em velocidades tão elevadas 
que o resfriamento por dissipador e ventilador (air cooling) não é suficiente. 
A indústria segue então uma prática já adotada no automobilismo há algumas 
décadas: o resfriamento utilizando água. Conhecido como watercooling, este 
novo sistema de resfriamento prevê o uso de dois módulos: 1) um dissipador 
– 156 –
Fundamentos da Informática
com uma bomba, acoplados ao componente eletrônico gerador de calor; 2) 
Um radiador com ventilador. Através de tubos de borracha, o sistema faz 
com que um líquido especial, não condutor de eletricidade, circule sobre o 
componente aquecido e passe pelo radiador, desta forma dissipando o calor 
com muito mais eficiência, uma vez que o líquido é melhor condutor térmico 
do que o ar.
6.4.1.6 Mostradores e LEDs
Para que o usuário tenha um retorno visível do que acontece em alguns 
componentes internos, o gabinete oferece painéis contendo mostradores (dis-
plays) e/ou LEDs. Estes indicativos possuem conexão com a placa mãe atra-
vés de conectores, abordados na seção seguinte.
6.4.1.7 Conectores do gabinete
Alguns componentes do gabinete necessitam de conexão com a placa 
mãe: LEDs, mostradores, botões, ventiladores, speaker. A ligação é feita atra-
vés de conectores específicos identificados, conforme ilustra a figura 5.
Figura 5 – Conectores do gabinete.
F
on
te
: E
va
nd
ro
 Z
at
ti
6.4.2 Fonte
Normalmente comercializada juntamente com o gabinete, a fonte de 
um PC é um item que merece atenção especial, pois é ela que irá forne-
cer energia para todos os componentes, desde a complexa placa mãe até o 
– 157 –
Placa mãe e integração dos componentes de Hardware
mais simples dos LEDs indicadores. Antes de adentrar seu funcionamento é 
importante uma abordagem de alguns conceitos básicos de eletricidade.
6.4.2.1 Energia elétrica
A energia elétrica chega aos lares domésticos na forma de onda alternada. 
No Brasil, como em diversos países, esta onda oscila a uma frequência de 
60 Hz. Em outros países (como diversos do continente europeu), a onda é 
emitida em 50 Hz. A amplitude desta onda está relacionada à tensão. No caso 
do Brasil, a energia é fornecida a uma tensão de 127 V RMS (Root Medium 
Square – Raiz Média Quadrada). Este é o valor da tensão média, sendo 70% 
da tensão de pico, que é de 180 V. A figura 6 ilustra estes conceitos.
Figura 6 – Onda de energia elétrica alternada.
F
on
te
: E
va
nd
ro
 Z
at
ti
6.4.2.2 Transformação de tensão
A maioria dos equipamentos eletrônicos, pela natureza dos componentes 
empregados, trabalha com tensão contínua bem abaixo da tensão da rede 
elétrica pública. Diante disso, os equipamentos precisam de transformadores 
(chamados de fontes), cuja principal função é converter a tensão de 127 V / 
240 V alternada em tensões contínuas padronizadas. No caso de PCs, estas 
tensões devem ser de +3 V, +-5 V e +-12 V.
Este processo de conversão integra os seguintes elementos:
 2 Entrada: tensão que entra na fonte. É a tensão alternada da rede 
elétrica: 110 / 127 V ou 220 / 240 V (60 Hz ou 50 Hz).
– 158 –
Fundamentos da Informática
 2 Transformador: a tensão é reduzida pelo transformador. Ele apenas 
reduz a tensão, portanto na saída deste, a tensão é ainda alternada.
 2 Retificador: formado por diodos. Pega a parte negativa da tensão 
alternada da saída do transformador e transforma em positiva, em 
forma de onda pulsante.
 2 Filtro: formado por capacitores. Transforma a forma de onda pul-
sante em tensão contínua.
 2 Regulador: formado por diodo zener ou C.I. Remove a oscilação, 
fazendo com que a tensão seja contínua.
 2 Saída: tensão que sai da fonte. São as já citadas tensões contínuas 
padronizadas.
Uma fonte que contemple somente estes elementos atende a grande 
parte dos equipamentos. Mas existe um problema: quanto maior a corrente 
necessária (maior consumo), maior será o transformador. Fontes de PCs, se 
fossem tradicionais, seriam extremamente grandes e pesadas. A solução? Cha-
veamento em alta frequência.
6.4.2.3 Fonte chaveada
Quanto maior a frequência, menores são os componentes: filtro e capa-
citor. Então a solução para evitar tamanhos maiores de fontes é chaveá-las em 
alta frequência. Daí surge o conceito de fonte chaveada.
Na fonte chaveada é adicionado um chaveador antes do transformador: 
a tensão da rede aumenta de 50 / 60 Hz para +- 20KHz.
O diagrama da figura 7 ilustra o processo com os elementos componen-
tes da fonte chaveada.
Figura 7 – Uma fonte chaveada.
Entrada tensão
alternada
Chaveador Transformador Retificador Filtro Regulador
Saída tensão
contínua
– 159 –
Placa mãe e integração dos componentes de Hardware
6.4.2.4 Potência
As fontes são vendidas em potências nominais: 250 W, 300 W, etc. Essa 
é a potência máxima que a fonte pode ter em suas saídas. Para calcular a 
potência consumida pelo PC, basta somar as potências máximas individuais 
de cada componente.
Para saber a potência necessária na alimentação de um componente, 
utiliza-se a fórmula: P = V ∙ I, em que P é a potência, V é a voltagem e I é a 
corrente exigida pelo(s) componente(s).
 Exemplo
Tomando-se como base um gravador de CD que tenha os 
consumos 1,8 A ∙ 5 V (para a placa eletrônica) e 400 mA ∙ 12 
V (para os motores), sendo que 400 mA equivalem a 0,4 A, 
tem-se: (1,8 ∙ 5) + (0,4 ∙ 12) = 13,8 W. Portanto, esse gravador 
irá consumir 13,8 W.
 Da teoria para a prática
Observando um PC qualquer, faça um levantamento de 
consumo de todos os componentes internos e verifique 
se a fonte utilizada neste equipamento está adequada, 
subdimensionadaou superdimensionada.
6.5 Dispositivos de comunicação
Desempenhar uma tarefa em coletividade geralmente é mais produtivo 
do que realizá-la de forma individual: dividem-se os esforços, somam-se as 
– 160 –
Fundamentos da Informática
experiências. Baseando-se nessa premissa, o conceito de coletividade também 
adentrou o mundo dos PCs e surgiram os dispositivos de comunicação.
6.5.1 Transmissão de dados e modem
A transmissão de dados em longa distância entre equipamentos 
eletrônicos data do início do século XX, com o uso de telégrafos e 
teleprinters (teleimpressoras).
Durante a Guerra Fria, a necessidade de comunicação entre as 
diversas bases militares, radares e centros de comando impulsionava a 
comercialização dos primeiros equipamentos de comunicação via linhas 
telefônicas: os modems.
6.5.1.1 Modem
Apesar de ser utilizado atualmente como um substantivo, modem é uma 
sigla, que significa modulador/demodulador (MODulator/DEModulator), 
indicando a principal característica deste equipamento que é modular e 
demodular um sinal, ou seja, converter o sinal de uma forma física para 
outra e vice-versa. Daí a grafia da palavra, quando no plural, terminanda 
em “ms” ao invés de “ns”. No caso dos primeiros modems, a proposta era 
a conversão de sinais analógicos de telefonia para dados digitais, mas com 
a evolução, atualmente a modulação/demodulação não se limita a linhas 
analógicas de telefonia.
Os primeiros modems para utilização em computadores pessoais datam 
da década de 80 e, com algum aperfeiçoamento, são utilizados até hoje. 
O equipamento transforma as sequências binárias em ruídos para serem 
transmitidos dentro da faixa de frequência de operação das linhas telefônicas 
de voz (por volta de 1 KHz). Os primeiros modelos trabalhavam com 
velocidades de transferência de 300 bps, sendo que atualmente os modelos 
mais rápidos operam na faixa de 56 Kbps. Esta é a velocidade nominal, mas 
dependendo do conteúdo, a transferência pode atingir maiores velocidades 
utilizando-se de técnicas de compressão de dados.
Ao deixar a esfera militar e adentrar o meio civil, no princípio a utilização 
de modems ia pouco além da transmissão de dados entre sede e filiais de 
– 161 –
Placa mãe e integração dos componentes de Hardware
empresas. A popularização da internet, em meados de 1990, fez com que 
cada PC comercializado levasse consigo um aparelho de fax/modem, para 
permitir conexão via linha telefônica comum. As funções de fax tiveram 
também seus dias de glória em residências. Com o surgimento de outras 
formas de comunicação para internet (abordadas na sequência), o uso de fax/
modems reduziu drasticamente, porém, no Brasil, ele ainda não foi extinto. 
Atualmente, esses equipamentos são chamados de modems de linha discada 
ou simplesmente modem discado.
6.5.1.2 DSL
O termo DSL (Digital Subscriber Line – Linha Digital para Assinante) 
não tem relação técnica com a tecnologia que é empregada. É atualmente 
uma das soluções de acesso à internet mais utilizadas, e tem como principal 
característica o uso da linha telefônica comum operando em frequência 
diferente da faixa de voz, permitindo que se converse ao telefone ao mesmo 
tempo em que dados são transmitidos. 
No Brasil, uma variação da DSL é utilizada: a ADSL (Assymmetric Digital 
Subscriber Line – Linha Assimétrica Digital para Assinante). Assimétrica 
porque ela permite que a velocidade de transmissão para download (dados 
vindo da internet para o PC) seja diferente da velocidade de upload (dados 
enviados do PC para a internet). Conexões DSL pressupõem uso de modems 
específicos (diferentes dos modems citados na seção anterior), que podem 
transmitir em velocidades superiores a 100Mbps. Linhas de transmissão de 
dados operando em velocidades maiores são conhecidas como banda larga, e 
este é o caso da DSL.
6.5.1.3 Cabo
Aproveitando-se da estrutura utilizada em TVs por assinatura, as 
operadoras passaram também a oferecer internet banda larga através dos 
cabos coaxiais que compreendem a rede de transmissão de imagens. O cable 
modem (modem de cabo), amplamente utilizado como solução de banda 
larga no Brasil e no mundo, apresenta opções similares aos DSL, porém a 
modulação/demodulação é completamente diversa desta última, dada a 
diferença do meio empregado para transmissão. A velocidade de transmissão 
de dados por cabo é similar às oferecidas nas soluções DSL.
– 162 –
Fundamentos da Informática
6.5.1.4 Rádio
Algumas operadoras oferecem transmissão de dados via rádio, normalmente 
para soluções corporativas que necessitem estabelecer comunicação em 
distâncias médias entre suas sedes. Em algumas cidades também são ofertadas 
ao consumidor final como solução para acesso a internet.
6.5.1.5 Fibra óptica
Modems de fibra óptica são quase inexistentes em residências. A 
velocidade máxima possível de transmissão aumenta significativamente 
em relação às outras soluções, porém o custo de instalação ainda é alto. 
São utilizados em soluções corporativas que demandam alta velocidade de 
transferência de dados; com conexões de fibras ópticas, principalmente, 
são construídos os backbones (espinha dorsal), ou seja, conexões de alta 
velocidade e longa distância normalmente utilizadas para tráfego de volumes 
muito grandes de dados (conexões entre países).
6.5.2 LANs e WANs
Em 1972, Robert Metcalfe, então pesquisador do MIT, foi solicitado 
a criar um sistema que permitisse a conexão das estações Xerox Palo Alto 
entre si e com os servidores. A solução apresentada por Metcalfe deu início 
ao protocolo Ethernet, o mais utilizado até hoje em redes locais (detalhes na 
seção 6.5.2.2).
6.5.2.1 Redes locais 
LAN (Local Area Network – Rede de Área Local) é o termo técnico 
utilizado para as redes locais de computadores, comumente chamadas sim-
plesmente de rede. Uma LAN é composta fisicamente de (veja figura 8):
 2 Estação de trabalho: é o computador utilizado para desempenhar 
as tarefas pelo usuário.
 2 Servidor: é um computador, normalmente dotado de mais 
capacidade de processamento e armazenamento, destinado a 
comportar arquivos e/ou programas para serem utilizados nas 
– 163 –
Placa mãe e integração dos componentes de Hardware
estações de trabalho. Em redes domésticas, normalmente não há 
um servidor dedicado, utiliza-se uma das estações de trabalho da 
rede para esta finalidade.
 2 Dispositivos: são os equipamentos envolvidos na interconexão dos 
computadores da rede e o consequente repasse dos dados entre eles 
(detalhes na seção 6.5.3).
Figura 8 – Componentes de uma LAN.
Servidor
Hub/
Switch
Estação de trabalho
(desktop)
Estação de trabalho
(notebook)
Estação de trabalho
6.5.2.2 Protocolo Ethernet
Para que os diversos computadores de uma rede possam estabelecer 
comunicação, é necessário que o façam seguindo um padrão, ou seja, 
um protocolo. As conexões de rede mais utilizadas atualmente seguem 
o protocolo Ethernet. O protocolo Ethernet corresponde à especificação 
802.3 do IEEE (Instituto dos Engenheiros de Eletricidade e Eletrônica), 
publicada pela primeira vez em 1985. Esse protocolo define características 
físicas (abordadas na seção 6.5.3) e lógicas de funcionamento de uma rede, 
seguindo orientações do modelo OSI (Open Systems Interconnection – 
Interconexão de Sistemas Abertos).
– 164 –
Fundamentos da Informática
 Sugestão de Leitura
Para saber mais sobre as especificações do modelo OSI, bem 
como outras informações não abordadas nesta obra, leia:
TANENBAUM, A. S., Redes de Computadores. 4. Ed. Rio 
de Janeiro: Campus, 2003.
6.5.2.3 Identificação
Os computadores que operam em uma mesma rede precisam ser 
identificados. Da mesma forma que as pessoas se chamam pelo nome, os 
computadores também precisam receber identificação para serem únicos. 
Existem algumas formas de identificar umPC:
 2 Por nome: na instalação do sistema operacional, se este permitir a 
identificação por nomes (como é o caso do Windows), é fornecido 
ao computador uma sequência de caracteres pela qual ele será iden-
tificado. Por exemplo: PC-JOÃO.
 2 Por endereço físico: atendendo a protocolos, a interface de rede 
recebe um endereço MAC (Media Access Control – Controle de 
Acesso ao Meio). O endereço MAC é composto de uma sequência 
de 6 bytes, normalmente notados em hexadecimal. Por exemplo: 
FF-5E-48-37-2B-FA. 
 2 Por endereço lógico: também seguindo protocolo, a interface de 
rede está vinculada a um endereço. No caso, o endereçamento uti-
lizado atualmente segue o protocolo TCP/IP (Transmission Con-
trol Protocol – Protocolo de Controle de Transmissão / Internet 
Protocol – Protocolo de Internet), e portanto a interface recebe 
um endereço IP. O endereço IP é composto de uma sequência de 4 
bytes, notados em decimal. Por exemplo: 192.168.255.255.
– 165 –
Placa mãe e integração dos componentes de Hardware
6.5.2.4 Redes de Longa Distância
Quando duas ou mais LANs estão conectadas entre si, significa que elas 
fazem parte de uma WAN (Wide Area Network – Rede de Área Larga, ou 
seja, longa distância).
Com o objetivo de interligar diferentes redes locais, Sandra Lerner e 
Leonard Bosack, da Universidade de Stanford criaram, no início dos anos 80 
do século XX, o roteador (detalhes na seção 6.5.3.5). Essa nova abordagem 
no conceito de redes permitiu a criação e desenvolvimento da internet.
6.5.2.5 A internet
Denomina-se internet o conjunto de computadores interligados 
mundialmente em rede. Inicialmente as informações eram dispostas em 
servidores de BBS (Bulletin Board System – Sistema de Quadro de Avisos), 
organizadas e acessíveis através de aplicativos utilizando o protocolo 
Gopher. Com a criação da World Wide Web, em 1991, e o desenvolvimento 
do navegador (browser) pelo fundador da Netscape, Marc Andreesen, a 
internet deslanchou para se tornar a grande rede mundial de computadores. 
Desde então é mais fácil acessar o conteúdo através de uma interface gráfica 
e hipertexto.
6.5.3 Dispositivos de rede local
A comunicação física entre computadores de uma rede local depende 
do uso de alguns equipamentos, abordados nesta seção. Os equipamentos 
aqui apresentados seguem o protocolo ethernet, utilizado na maioria das 
redes locais.
6.5.3.1 Placa ou interface de rede
Da mesma forma que o modem é o equipamento responsável pela 
comunicação entre computadores em longa distância, nas LANs isso é feito 
através da placa de rede. A placa de rede pode prover o acesso à rede de duas 
formas: por cabo ou wireless (sem fio). A figura 9 apresenta duas interfaces 
de rede padrão Ethernet (por cabo e sem fio) para serem encaixadas em 
– 166 –
Fundamentos da Informática
barramento PCI. A maioria das placas mãe atuais já incorporam adaptador 
ethernet com cabo.
Figura 9 – Adaptadores de rede padrão Ethernet 
por cabo e wireless, respectivamente.
S
hu
tt
er
st
oc
k.
co
m
/I
va
sc
he
nk
o 
R
om
an
 
6.5.3.2 Cabeamento
O padrão Ethernet também especifica o tipo de cabo que é utilizado. 
Originalmente os adaptadores trabalhavam com cabo coaxial. Um 
único cabo percorria toda a rede, passando de adaptador em adaptador. 
Atualmente as interfaces fazem uso do cabo chamado ethernet par 
trançado, onde uma extremidade é conectada à placa de rede e a outra é 
conectada a um concentrador ou switch (abordados nesta seção). O cabo 
par trançado normalmente é comercializado na cor azul, conforme ilustra 
a figura 10.
Figura 10 – Cabo ethernet par trançado com conector RJ-45.
Fonte: Evandro Zatti
6.5.3.3 Hub
O hub (concentrador) é o equipamento responsável por permitir 
a interligação de vários computadores, através das portas em que são 
– 167 –
Placa mãe e integração dos componentes de Hardware
conectados os cabos par trançado. Foi durante muito tempo comercializado 
com diversas opções em número de portas (veja na figura 11).
Figura 11 – Hub ethernet 4 portas.
S
hu
tt
er
st
oc
k.
co
m
/Z
so
lt
 B
ic
zo
Os hubs foram gradativamente sendo substituídos pelos switches.
6.5.3.4 Switch
O switch (comutador) tem forma física parecida com o hub, porém 
seu funcionamento difere basicamente sob dois aspectos: o switch 
trabalha com maior largura de banda e também possui melhor controle 
das colisões de pacotes na transferência de dados. A figura 12 apresenta 
um switch.
Figura 12 – Switch ethernet 8 portas.
Fonte: Evandro Zatti
– 168 –
Fundamentos da Informática
6.5.3.5 Roteador
O roteador, por sua vez, tem forma física parecida com o switch, porém 
implementa uma função crucial para as redes locais que acessam internet: 
permite que os equipamentos interconectados trabalhem em diferentes 
faixas de IP, levando os dados de uma faixa para outra (roteando). São esses 
equipamentos que permitem a conexão entre mais de uma LAN. Dessa 
maneira, computadores de uma rede local conseguem “enxergar” a internet. 
Veja um roteador na figura 13.
Figura 13 – Roteador ethernet 4 portas.
S
hu
tt
er
st
oc
k.
co
m
6.5.3.6 Ponto de acesso à rede sem fio
Um WAP (Wireless Access Point – Ponto de Acesso sem Fio) é um 
equipamento que permite a conexão entre computadores de uma rede local 
por meio de ondas de rádio. É o tipo de equipamento mais utilizado nas redes 
atuais, que visam a extinção do uso de cabos. Veja na figura 14 um WAP.
Figura 14 – Wireless Access Point.
S
hu
tt
er
st
oc
k.
co
m
/s
bk
o
– 169 –
Placa mãe e integração dos componentes de Hardware
A maioria das operadoras de banda larga têm oferecido a seus clientes 
soluções integradas em um único aparelho: modem + roteador + wireless 
access point. Fisicamente o aparelho é muito similar ao WAP, porém com 
antenas para a conexão sem fio, portas para conexão RJ-45 e a porta específica 
para o tipo de conexão banda larga (RJ-11 para telefone ADSL ou coaxial 
para TV a cabo).
 Da teoria para a prática
Utilizando sites de medição, verifique se a velocidade de ope-
ração da internet de sua casa ou escritório é compatível com o 
serviço contratado. Caso não seja, verifique se o que é forne-
cido está dentro dos limites legais de tolerância.
6.6 Especificando um PC
Pense naquele membro da família, já com certa idade, que em um 
domingo qualquer olha para você e diz: “Meu filho, estou querendo comprar 
um computador. Você que é jovem, pode me dar umas dicas?”. Esta seção 
destina-se a auxiliar com os principais elementos que ajudam a resolver esta 
questão, focando em soluções para uso doméstico ou por profissionais liberais.
6.6.1 A escolha dos componentes
Diante dos diversos tipos de atividade que alguém pode desempenhar 
utilizando um PC, é improvável que se consiga especificar um equipamento, 
de forma genérica, que atenda a todas as necessidades. Ao menos não 
se a decisão for racional em termos de custo, pois seria muito fácil 
optar pelo melhor e mais caro modelo de cada peça, resultando em um 
“supercomputador” capaz de desempenhar atividades de qualquer natureza. 
Sim, é possível comprar uma Ferrari 458 Spider para ir à panificadora da 
esquina comprar pão.
– 170 –
Fundamentos da Informática
6.6.1.1 Tipos de usuários
A escolha de componentes para montar um PC deve levar em conta 
o perfil do usuário e o tipo de atividade para o qual o PC será destinado. 
Usuários naturalmente calmos e lentos não precisam de equipamentos 
rápidos, enquanto os mais impacientes sentem a necessidade de PCs com 
tempos de resposta mínimos. Há os que se satisfazem com qualquer solução, 
desde que seja de baixo custo, assim como existem os que usam Ferrari para 
ir à panificadora da esquina.
Identificado o perfil do usuário, deve-se levar emconsideração 
a natureza das atividades que serão desempenhada. Considerando as 
aplicações mais comumente encontradas, podem ser elencados como perfis 
de atividades:
 2 Usuário iniciante: pessoal ou doméstico, costuma utilizar o 
PC para acessar a internet, interagindo nas redes sociais ou 
em conversas de chat e IM (Instant Messenger – Mensageiro 
Instantâneo); ler e responder e-mails; editar textos ou peque- 
nas planilhas.
 2 Usuário médio: faz uso um pouco mais intenso da internet, 
baixando e trocando arquivos; produz uma quantidade significativa 
de documentos (textos e planilhas); utiliza algum aplicativo 
específico para sua área, muitas vezes acessando banco de dados. 
Profissionais liberais e estudantes se enquadram nessa categoria.
 2 Usuário avançado: utiliza todos os recursos de um usuário médio e 
ainda se aventura (normalmente por hobbie) em aplicativos de alto 
desempenho, como os de computação gráfica e edição de vídeo.
 2 Desenvolvedor de software: utiliza ferramentas diversas para 
desenvolvimento de software, normalmente agrupadas em um 
IDE (Integrated Development Environment – Ambiente de 
Desenvolvimento Integrado), adicionando serviços de banco de 
dados e de internet.
 2 Artista gráfico: trabalha quase que exclusivamente com 
aplicativos de alto desempenho, como ferramentas de 
computação gráfica, editoração, edição de vídeo e som. Para 
– 171 –
Placa mãe e integração dos componentes de Hardware
este perfil, é importante avaliar se uma solução PC irá atender 
suas necessidades ou ele deverá partir para outras plataformas 
fechadas, baseadas em Apple Mac ou workstations (esta- 
ções) gráficas.
 2 Gamer: não se contenta com consoles de videogame e faz do seu 
PC a sua diversão.
Seja qual for o perfil de usuário, o conjunto de peças de hardware com-
ponentes de um PC é basicamente o mesmo, porém com bastante divergên-
cia em suas especificações. Esta seção tem por objetivo enquadrar os princi-
pais componentes nas categorias dos perfis citados, justificando e elencando 
sugestões de produtos atualmente comercializados. 
6.6.1.2 Escolhendo processador e placa mãe
Estes são os principais responsáveis pelo custo de um computador. 
Aqui se aplica o ditado “Não adianta colocar motor de Fusca em Ferrari”, 
portanto ambos têm que ser diretamente compatíveis, independente da 
solução adotada: processadores menos potentes sobrevivem com placas mãe 
mais modestas, enquanto processadores de alto desempenho exigem placas 
mãe com chipsets avançados. 
 2 Usuários iniciante e médio possuem necessidades semelhantes em 
termos de processador e placa mãe: o conjunto mais modesto dis-
ponível no comércio irá atendê-los, desde que não seja oriundo de 
estoques encalhados. Solução comercial: processadores dual core, 
como a linha Intel Core i3 ou AMD Athlon, operando na faixa dos 
1,5 a 2 GHz e 1MB de cache.
 2 Usuário avançado e desenvolvedor de software necessitam um 
pouco mais de poder de processamento, permanecendo em uma 
faixa mediana. Solução comercial: processadores quad core, 
contemplados pelos Intel Core i5 ou i7 e AMD Phenom, operando 
na faixa dos 2 a 2,5 GHz e 4 MB de cache.
 2 Artistas gráficos e gamers só irão se contentar com os modelos 
top de linha, pois processamento é a base para o desempenho de 
aplicativos gráficos e jogos. Solução comercial: processadores de 
– 172 –
Fundamentos da Informática
no mínimo 6 núcleos (preferencialmente multiprocessado), como 
Intel Core i7 Sandy Bridge e AMD Phenom II, operando acima 
dos 3 GHz e 12 MB de cache.
6.6.1.3 Escolhendo memória
As memórias SDRAM tiveram seu custo bastante reduzido ao longo 
dos anos. Se no passado elas influenciavam (e muito) no custo total da 
solução, hoje neste quesito são meras coadjuvantes, mas permanecem 
como protagonistas na influência que exercem sobre o desempenho. Como 
solução comercial, as fabricantes Corsair e Kingstom são as top of mind 
(mais lembradas) nesse cenário, independente da quantidade ou velocidade 
dos módulos ofertados.
 2 Usuários iniciante e médio ficarão satisfeitos com módulos DDR3-
800, totalizando 4 GB.
 2 Usuário avançado e desenvolvedor de software exigirão soluções 
com módulos DDR3-1066 e total de 8 GB.
Para os artistas gráficos o céu é o limite nesse quesito. Atualmente os 
sistemas de alto desempenho para uso doméstico suportam até 64 GB com 
DDR3-1600. Os gamers não precisam ser tão exigentes aqui, pois a memória 
que mais os interessa está presente nas controladoras de vídeo (abordadas na 
sequência). Ficarão satisfeitos com 16 GB em módulos DDR3-1333.
6.6.1.4 Escolhendo HD (ou dispositivo 
similar de armazenamento)
A escolha do dispositivo de armazenamento está intimamente 
relacionada com a memória SDRAM, porém com algumas particularidades. 
Comercialmente, considere as marcas Seagate e Samsung. 
 2 Usuários iniciante e médio de uma forma geral serão atendi-
dos com 300 GB de HD, operando em 5400 rpm. Não se pode 
excluir desse perfil os aficionados em downloads: filmes, séries de 
tv, música... Neste caso é bom considerar dispositivos de armazena-
mento na faixa dos terabytes.
– 173 –
Placa mãe e integração dos componentes de Hardware
 2 Usuário avançado e desenvolvedor de software separam-se 
neste tópico: enquanto o usuário avançado irá precisar de boas 
soluções de armazenamento para suas aventuras gráficas (HDs 
na faixa de 1 TB com 7200 rpm), os desenvolvedores se conten-
tam com soluções modestas, uma vez que código de programa-
ção ocupa pouquíssimo espaço: 500 GB com 5400 rpm está de 
bom tamanho.
Conteúdo gráfico (foto ou vídeo) ocupa espaço. Artistas gráficos que 
trabalham somente com imagens poderiam ser enquadrados no perfil de 
usuários que fazem download: considere alguns terabytes. A particularidade 
fica por conta dos que editam vídeo: além da grande capacidade necessária, 
devem possuir obrigatoriamente mais de uma unidade física de disco, pois 
isso aumenta consideravelmente o desempenho dos aplicativos de edição de 
vídeo. Ainda com custo elevado, devem ser considerados os SSDs em soluções 
(ilhas) de edição de vídeo.
Para os gamers: há os que executam seus jogos através de mídias 
removíveis (CDs, DVDs, ...), e para esses uma solução de 500 GB atende. 
Porém, há os que geram imagens (.ISO) das mídias e as armazenam em HDs 
para execução. Neste caso, considere capacidades maiores e bom desempenho 
de gravação/leitura.
6.6.1.5 Escolhendo controladora de vídeo
Usuários iniciantes, médios, e até alguns avançados irão se contentar 
com a mais simples das placas gráficas atuais, com um mínimo de aceleração 
2D/3D. Soluções onboard Intel Graphics os atenderá.
Ainda que possa parecer contraditório, artistas gráficos não necessariamente 
precisam da última geração de placas aceleradoras. Elas ajudam, sim, na pré-
visualização de conteúdo e, muitas vezes, até no processamento da finalização 
de arte, mas o processador ainda é o principal elemento para estes profissionais. 
Talvez seja necessária uma atenção redobrada para atender aos profissionais 
que trabalham com edição de vídeo, que irão precisar de placas que permitam 
captura e processamento de vídeo comprimido.
– 174 –
Fundamentos da Informática
Já os gamers... apresente-lhes a melhor placa aceleradora e eles virão com 
a pergunta: “Roda Crysis?”. Para tentar responder esta pergunta, você deverá 
adentrar o mundo das placas aceleradoras (dominados comercialmente pelas 
nVidia GeForce e AMD Radeon), considerando itens como núcleos e clock 
de GPU, quantidade e clock de memória e APIs e frameworks gráficos (veja 
capítulo 5).
 Da teoria para a prática
Procure alguém (ou você mesmo) que faça uso do computador 
em seu cotidiano (domiciliar ou profissional). Identifique qual 
o perfil de uso dessa pessoa e, buscando informações em sites 
de fabricantes e de comércio eletrônico,sugira uma solução de 
PC, elaborando uma tabela com os principais componentes 
trabalhados neste capítulo e seus respectivos preços de venda 
ao consumidor.
Conclusão
Tão importante quanto o processador que incorpora um PC é a placa 
mãe sobre a qual ele está acoplado. Ao passo que o processador evolui em 
velocidade e conjunto de instruções, a placa mãe precisa acompanhá-lo, 
estabelecendo toda a comunicação física entre ele e os demais componentes, 
como memória (através da ponte norte) e periféricos (pela ponte sul). Cada 
ponte é controlada por um conjunto de chips, chamado de chipset, elemento 
importante na escolha do dispositivo.
Escondido por trás do sistema operacional, o BIOS é um ou mais 
programas que controlam o funcionamento básico do hardware: quais 
componentes estão disponíveis no sistema, quais suas características técnicas, 
se estão funcionando ou não. Alguns BIOS são tão completos que oferecem 
opções avançadas e configurações automáticas para todos os componentes 
– 175 –
Placa mãe e integração dos componentes de Hardware
do PC. A maioria dos BIOS atuais pode receber atualização de firmware, 
portanto é muito importante estar sempre com a versão atualizada.
Um PC precisa de energia elétrica para funcionar. Os milhares de 
componentes eletrônicos que compõem as peças não trabalham na mesma tensão 
elétrica que é fornecida através da rede pública. É necessária uma conversão 
(mudança de tensão), ficando esta função a critério da fonte de alimentação.
A comunicação de dados está presente nos PCs praticamente desde 
sua existência, da troca de dados entre um ponto e outro à coletividade da 
internet. A comunicação entre computadores dentro de um mesmo espaço 
físico consiste em uma rede local (LAN). Quando existe uma distância grande 
entre um ponto e outro da comunicação, configura uma WAN (como é o 
caso da internet).
Tão importante quanto ter tarefas para realizar com o auxílio de um PC 
é saber qual a ferramenta mais adequada para desempenhá-las. Da mesma 
forma que, para apertar um parafuso, escolhe-se a melhor chave, para fazer 
algo com o computador é importante que se tenha o mais adequado. Escolher 
o PC adequado incorre em conhecer o perfil de quem usa o equipamento.
7
Sistemas de numeração
O homem sentiu desde muito cedo a necessidade de quanti-
ficar coisas – objetos, animais do rebanho, dias – como uma forma 
de controlar um pouco o mundo ao seu redor.
No entanto, a representação numérica como conhecemos 
hoje não surgiu do dia para a noite e nem foi fruto da “invenção” 
de apenas uma mente. Provavelmente começou com a utilização 
dos dedos das mãos como grandeza numérica, que logo se mostrou 
insuficiente. Mas, até hoje, é o que primeiro as crianças aprendem 
a utilizar.
– 178 –
Fundamentos da Informática
7.1 Lei de formação
Pedras, nós em cordas, marcas em um osso e símbolos unitários pintados 
nas paredes de cavernas surgiram como outras formas de representação 
numérica. Imagine os homens das cavernas representando o número 15 
nas paredes desse jeito: | | | | | | | | | | | | | | |. É fácil perceber que é uma 
tarefa exaustiva.
Bem mais adiante, apareceram os números romanos (até hoje emprega-
dos para referenciar séculos), utilizados em todo o Império Romano. Quanti-
dades pré-definidas são representadas por letras. (Quadro 1)
Quadro 1: Exemplos de números representados no sistema numérico romano.
Número Símbolo romano
Um I
Dois II
Três III
Quatro IV
Cinco V
Nove IX
Dez X
Cinquenta L
Cem C
Cento e dezesseis CXVI
Quinhentos D
Seiscentos e vinte DCXX
Mil M
Dois mil e oito MMVIII
Apesar de esse sistema ser amplamente utilizado pelo Império Romano, 
apresenta deficiências em operações aritméticas. Outras maneiras de 
representar números sugiram em outras fases da civilização. Uma delas são os 
algarismos arábicos, representados pelos seguintes símbolos:
– 179 –
Sistemas de numeração
Número Símbolo arábico
0 ٠
1 ٩
2 ٨
3 ٧
4 ٦
5 ٥
6 ٤
7 ٣
8 ٢
9 ١
Nessa representação, ao contrário da romana, aparece o número zero, 
uma invenção indoarábica das mais importantes para a humanidade. Aqui, 
dez símbolos diferentes são utilizados para representar qualquer número 
natural. Esse sistema numérico é o mais amplamente conhecido e utilizado 
atualmente. É conhecido como sistema decimal ou sistema numérico posi-
cional de base 10.
Além dele, outros sistemas numéricos são importantes para a 
computação: o binário (sistema numérico posicional de base 2), o octal 
(sistema numérico posicional de base 8) e o hexadecimal (sistema numérico 
posicional de base 16).
Todas as representações posicionais, independente da base, são regidas 
por uma única lei: lei de formação.
Por essa lei, um número é assim composto:
an· b
n + an–1 · b
n–1 + an–2 · b
n–2 + ... + a0 · b
0
em que:
– 180 –
Fundamentos da Informática
b = base do número (exemplo: base 2, 8, 10 ou 16)
n = quantidade de algarismos – 1
an = algarismos de acordo com sua posição (daí o nome sistema posicional)
É a posição do algarismo que define a potência da base.
7.2 Sistema decimal (base 10)
O sistema de base 10 acabou se tornando mais popular em relação aos 
demais por causa da facilidade que as pessoas têm para usar os 10 dedos das 
mãos para contar e fazer pequenos cálculos, desde criança. É, portanto, uma 
maneira familiar de pensar nos números, de zero a nove.
 
Exemplo
O número 1982 no sistema decimal é composto por 
1 milhar, 9 centenas, 8 dezenas e 2 unidades.
1000 + 900 + 80 + 2 = 1982 
Esse número pode ser decomposto 
também da seguinte maneira:
1982 = 1000 + 900 + 80 + 2 
= 1 · 1000 + 9x 100 + 8x 10 + 2x 1 
= 1 · 103 + 9x 102 + 8x 101 + 2x 100
 
Note que a última linha é a representação do número 1982 no sistema 
decimal pela lei de formação. A ideia é adotar pesos diferentes para posições 
diferentes de algarismos (ideia de representação posicional). Assim, quanto 
mais à esquerda, maior seu peso, sempre 10 (base) vezes maior. A seguir, 
veremos detalhes dos sistemas binários, octal e hexadecimal.
– 181 –
Sistemas de numeração
7.3 Sistema binário (base 2)
O sistema decimal (base 10) utiliza dez símbolos diferentes para repre-
sentar qualquer número natural. Já no sistema binário, existem apenas dois 
símbolos: 0 (zero) e 1 (um).
O sistema binário também obedece à lei de formação. 
 
Exemplo
O número 1100, no sistema binário, é assim composto:
1100 = 1x23 + 1x22 + 0x21 + 0x20
O número 10011, no sistema binário, de acordo
Com a lei de formação, é assim composto:
10011 = 1x24 + 0x23 + 0x22 + 1x21 + 1x20
 
Para Ivan Valeije Idoeta e Francisco Gabriel Capuano, que estudam 
os elementos da eletrônica digital, “para representarmos a quantidade zero, 
utilizamos o algarismo 0, para representarmos a quantidade um, utilizamos o 
algarismo 1. E para representarmos a quantidade dois, se nós não possuímos o 
algarismo 2 nesse sistema? É simples. No sistema decimal, nós não possuímos 
o algarismo dez e representamos a quantidade de uma dezena utilizando o 
algarismo 1 seguido do algarismo 0. Neste caso, o algarismo 1 significa que 
temos um grupo de uma dezena e o algarismo 0 nenhuma unidade, o que 
significa dez.” (Idoeta e Capuano, 1998).
Essa mesma ideia está presente também no sistema binário, proveniente 
da lei de formação. Para se representar o número dois, é utilizado o algarismo 
1 seguido do algarismo 0. Assim o algarismo 1 representa dois elementos na 
base 2 (ao invés de 10 do sistema decimal) e 0 representa nenhuma unidade.
Ao contrário do decimal, em que cada posição de algarismo recebe um 
nome (unidade, dezena, centena, milhar, etc.), no binário cada algarismo é 
chamado de bit (binary digit – dígito binário, em português). As denominações 
– 182 –
Fundamentosda Informática
no sistema binário aparecem pela quantidade de bits.(Quadro 2)
Quadro 2: Nibble, byte,word.
Bits Denominação
4 Nibble
8 Byte
16 Word
Uma outra maneira de explicar o sistema binário, para facilitar o enten-
dimento, é apresentada por Bill Gates (Gates, 1995). Imagine um quarto 
com uma única lâmpada de 250 watts. Agora suponha que, ao invés de uma, 
o quarto tenha oito lâmpadas de menor intensidade (de 1 a 128 watts), con-
forme apresentado na Figura 1.
Figura 1 Lâmpadas de intensidades diferentes, com seus interruptores.
Lâmpada de 128 
watts
Lâmpada de 64 
watts
Lâmpada de 32 
watts
Lâmpada de 16 
watts
interruptor interruptor interruptor interruptor
 
Lâmpada de 8 watts Lâmpada de 4 watts Lâmpada de 2 watts Lâmpada de 1 watts
interruptor interruptor interruptor interruptor
Fonte: Gates (1995) 
– 183 –
Sistemas de numeração
No ambiente, há um interruptor para cada lâmpada e elas são arranjadas 
em ordem crescente de potência da direita para a esquerda, ou seja, a de maior 
potência está mais à esquerda e a de menor mais à direita (a mesma ideia dos 
pesos da lei de formação). Assim, ao ligar e desligar os interruptores, é possí-
vel ajustar a iluminação do ambiente.
Se quisermos somente 1 watt de luz, ligaremos somente o interruptor 
mais à direita. Se quisermos 191 watts, ligaremos todos os interruptores, com 
exceção do da lâmpada de 64 watts. Se o objetivo é ajustar a intensidade da 
iluminação para 137 watts, deve-se ligar as lâmpadas de 128, 8 e 1 watts 
(Figura 2).
Figura 2 Interruptores ajustados para produzir 137 watts.
Lâmpada de 128 
watts
Lâmpada de 64 
watts
Lâmpada de 32 
watts
Lâmpada de 16 
watts
interruptor interruptor interruptor interruptor
 
Lâmpada de 8 watts Lâmpada de 4 watts Lâmpada de 2 watts Lâmpada de 1 watts
interruptor interruptor interruptor interruptor
Fonte: Gates (1995) 
– 184 –
Fundamentos da Informática
“Para encurtar ainda mais a notação, você pode registrar cada “desligado” 
com 0 e cada “ligado”com 1. O que significa que, em vez de escrever “ligado, 
desligado, desligado, desligado, ligado, desligado, desligado, ligado”, vale 
dizer, ligue a primeira, a quarta e a oitava das oito lâmpadas e deixe as outras 
desligadas, você escreve a mesma informação como 1, 0, 0, 0, 1, 0, 0,1 ou 
10001001, um número binário. No caso, é 137.” (Gates, 1995)
A ideia de ligar e desligar interruptores é que está por trás do sistema 
binário. A princípio pode até parecer complicado mas, no sistema decimal, 
essa mesma ideia é utilizada, regida pela lei de formação.
7.4 Sistema octal (base 8)
O sistema octal define que existem oito símbolos diferentes para se 
representar qualquer número natural: 0, 1, 2, 3, 4, 5, 6 e 7. O sistema octal 
também obedece à lei de formação. 
 
Exemplo
O número 735 no sistema octal, de acordo com a 
lei de formação, é composto da seguinte forma:
735 = 7x82 + 3x81 + 5x80
 
7.5 Sistema hexadecimal (base 16)
O sistema hexadecimal possui 16 símbolos para representações. Mas, 
se os algarismos arábicos são apenas dez, faltariam ainda seis algarismos. Por 
isso, o sistema hexadecimal é constituído pelos seguintes símbolos ordenados 
em ordem crescente:
0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F
Note que A=10, B=11, C=12, D=13, E=14 e F=15. Outros símbo-
– 185 –
Sistemas de numeração
los poderiam ser utilizados para representar as quantidades maiores que 
nove (Lourenço e outros, 1996). As letras foram escolhidas pela facilidade 
de manuseio.
A lei de formação também rege o sistema hexadecimal, uma vez que ele 
também é um sistema de representação posicional. 
 
Exemplo
O número A29F no sistema hexadecimal, de acordo com 
a lei de formação, é composto da seguinte forma:
A29F = Ax163 + 2x162 + 9x161 + Fx160 
=10x163 + 2x162 + 9x161 + 15x160
 
7.6 Padrões de representação numérica
Existem vários padrões para se representar os números em diferentes 
bases (Lourenço e outros, 1996). Os mais comuns são:
 2 utilizar uma letra após o número para indicar a base;
 2 colocar o número entre parênteses e a base como um índice do número.
 
 Exemplos
• Sistema decimal: 1673D ou (1673)10 
• Sistema binário: 1001B ou (1001)2 
• Sistema octal: 753O ou (753)8 
• Sistema hexadecimal: F3AH ou (F3A)16 
 
7.7 Tabela de conversão entre bases
Os principais sistemas de representação posicional de números são o deci-
– 186 –
Fundamentos da Informática
mal, o binário, o octal e o hexadecimal. Para poder converter números de uma 
base para outra, é muito importante entender a equivalência entre elas (Tabela 1). 
Tabela 1: Tabela de equivalência entre as bases 10, 2, 8 e 16.
Base 10 Base 2 Base 8 Base 16
0 0 0 0
1 1 1 1
2 10 2 2
3 11 3 3
4 100 4 4
5 101 5 5
6 110 6 6
7 111 7 7
8 1000 10 8
9 1001 11 9
10 1010 12 A
11 1011 13 B
12 1100 14 C
13 1101 15 D
14 1110 16 E
15 1111 17 F
Como no sistema decimal, adicionando-se zeros à esquerda de um 
número em qualquer outra base, seu valor não é alterado.
 
Exemplos
43610 = 043610 = 0043610 = 00043610 
– 187 –
Sistemas de numeração
111012 = 0111012 = 00111012 = 000111012
6178 = 06178 = 006178 = 0006178
 F4316 = 0F4316 = 00F4316 = 000F4316
 
7.8 Conversões de qualquer 
base para a base 10
Para se converter um número de qualquer representação posicional para 
a base 10, basta aplicar a lei de formação, substituindo b pela base do número 
a ser convertido e an por seus algarismos.
 
Exemplos
(11011)2:
 b = 2 (base do número) 
n = 5 – 1 = 4 (quantidade de algarismos – 1) 
1x24 + 1x23 + 0x22 + 1x21 + 1x20 
16 + 8 + 0 + 2 + 1 = (27)10 
(3D9)16 : 
b = 16 (base do número) 
n = 3 – 1 = 2 (quantidade de algarismos – 1) 
3x162 + Dx161 + 9x160 
3x256 + 13x16 + 9x1 
768 + 208 + 9 = (985)10
 
– 188 –
Fundamentos da Informática
7.9 Conversão da base 10 para qualquer base
Para se converter um número de qualquer base para o sistema decimal, 
também utilizamos a lei de formação, fazendo, basicamente, sucessivas 
multiplicações dos algarismos por seus pesos. Se queremos o inverso – 
do sistema decimal para as demais bases – precisamos realizar a operação 
matemática inversa, ou seja, a divisão.
Lourenço explica que, “dado um número inteiro escrito na base 10, 
para se obter seu equivalente em uma base b qualquer, divide-se o número 
por b tantas vezes quantas necessárias para que o quociente da divisão 
seja menor que b. O último quociente da divisão e os restos das divisões 
sucessivas, tomados na ordem inversa, correspondem ao número na base b” 
(Lourenço e outros, 1996).
Exemplo
(125)10 : ( ? )2
125 ÷ 2 = 62 e resto = 1
62 ÷ 2 = 31 e resto = 0
31 ÷ 2 = 15 e resto = 1
15 ÷ 2 = 7 e resto = 1
7 ÷ 2 = 3 e resto = 1
3 ÷ 2 = 1 e resto = 1
1 < 2 (base desejada)
Quando o quociente é menor que a base desejada, pára de se efetuar as 
divisões. O resultado da conversão é o último quociente concatenado 
com os restos das divisões do fim para o começo. Dessa forma, obte-
mos (1111101)2.
Esse mesmo exemplo pode ser visto na Figura 3.
– 189 –
Sistemas de numeração
Figura 3: Exemplo de múltiplas divisões na 
conversão do número (125)
10
 para a base 2
125 2
1 62 2
0 31 2
1 15 2
1 7 2
1 3 2
1 1
sentido da leitura
(125)10 = (1111101)2
F
on
te
: 
L
ou
re
nç
o 
e 
ou
tr
os
 (1
9
9
6
).
7.10 Conversão entre base 2 e 16
A conversão entre os sistemas binário e hexadecimal pode ser feita 
diretamente, sem a necessidade de operações aritméticas. Isso ocorre 
porque existe uma estreita relação entre esses dois sistemas posicionais de 
representação. Afinal, o número 16 (base do sistema hexadecimal)pode ser 
expresso como 24 (repare o dois do sistema binário na base). Ou seja, os 
números hexadecimais podem ser vistos como uma representação compacta 
dos números binários. A conversão da base 2 para a base 16 é realizada da 
seguinte forma:
1. segmenta-se o número em partes de 4 (quatro é a potência de 24) 
algarismos, da direita para a esquerda;
2. cada segmento é convertido diretamente para o seu equivalente em 
hexadecimal (Tabela 1).
– 190 –
Fundamentos da Informática
Exemplo
(1010011011)2
0010 1001 1011
2 9 B
Para a conversão da base 16 para a base 2, cada algarismo hexadecimal 
é convertido diretamente para o seu equivalente em binário com quatro bits 
(de acordo com a Tabela 1).
Exemplo
(54B)16
5 4 B
0101 0100 1011
7.11 Conversão entre as bases 2 e 8
A conversão entre as bases 2 e 8 também pode ocorrer diretamente, assim 
como entre as bases 2 e 16. Isso se dá porque também há uma relação entre 
essas duas bases, afinal 8 também pode ser reescrito como 23. A conversão é 
direta. Ao invés de se formar grupos de quatro algarismos, formam-se grupos 
de três algarismos.
Exemplo
(1010011011)2
001 010 011 011
1 2 3 3
– 191 –
Sistemas de numeração
Para a conversão de um número octal em binário, procede-se de modo 
idêntico ao da conversão da base 16 para a base 2. Assim cada algarismo octal 
é convertido diretamente para o seu equivalente em binário de três bits (de 
acordo com a Tabela 1).
Exemplo
(543)8
5 4 3
101 100 011
7.12 Conversão entre as bases 8 e 16
Para converter um número octal em hexadecimal, é preciso realizar um 
passo intermediário por meio do sistema binário (base 2). Isso porque, embora 
não se possa elevar 8 a alguma potência para chegar a 16, é possível estabelecer 
uma relação entre eles com a ajuda do número 2, já que 8=23 e 16=24. 
Exemplo
(543)8
5 4 3
101 100 011
Encontrado o binário, realiza‑se a conversão da base 2 para a base 16.
0001 0110 0011
1 6 3
– 192 –
Fundamentos da Informática
Na conversão inversa (de hexadecimal para octal), também é necessária 
uma etapa intermediária com ajuda do sistema binário. Assim, primeiro se 
converte o número da base 16 para a base 2 e, em seguida, este para a base 8.
Exemplo
(1F4B)16
1 F 4 B
0001 1111 0100 1011
Encontrado o binário, se realiza a conversão da base 2 para a base 8.
001 111 101 001 011
1 7 5 1 3
7.13 Conversão de números fracionários
Os números fracionários também podem ser representados nas bases 2, 
8 e 16. Afinal, esses números podem ser representados pela base 10. Para isso, 
basta ampliar a aplicação da lei de formação:
Número = anb
n + an–1b
n–1 + an–2b
n–2 + ... + a0b
0 + a–1b
–1 + a–2b
–2 + ... + a–mb
–m
Parte inteira Parte fracionária
em que:
b = base do número (exemplo: base 2, 8, 10 ou 16)
n = quantidade de algarismos da parte inteira –1
an = algarismos de acordo com sua posição
m = quantidade de algarismos da parte fracionária
– 193 –
Sistemas de numeração
Exemplos
a) Base 2 para base 10
1101,0112 = 1 · 2
3 + 1 · 22 + 0 · 21 + 1 x 20 + 0 · 2-1 + 1 · 2-2 + 1 · 2-3
 = 8 + 4 + 0 + 1 + (0/2) + (1/4) + (1/8) = 13,37510
b) Base 8 para base 10
51,348 = 5 · 8
1 + 1 · 80 + 3 · 8-1 + 4 · 8-2
 = 40 + 1 + (3/8) + (4/64) = 41,437510
c) Base 16 para base 10
1F,5C016 = 1 · 16
1 + 15 · 160 + 5 · 16-1 + 12 · 16-2 + 0· 16-3
 = 16 + 15 + (5/16) + (12/256) + (0/4096) = 31,35937510
Já para a conversão inversa (da base 10 para as outras bases), o processo 
é um pouco diferente na parte fracionária. A parte inteira é convertida 
separadamente pelas divisões sucessivas. Para a parte fracionária, utiliza-se o 
processo das multiplicações sucessivas pela base desejada.
Exemplos
a) Base 10 para a base 2
 7,2512 = parte inteira: 1112
 parte fracionária:
 0,25 0,50 0,0 final
 x 2 x 2
 0,50 1,00
 
 0 1
7,42710 = 111,012
– 194 –
Fundamentos da Informática
b) Base 10 para a base 2 (dízima periódica)
 6,410 = parte inteira: 1102
 parte fracionária:
 0,4 · 2 = 0,8 0 
 0,8 · 2 = 1,6 1
Repetição 0,6 · 2 = 1,2 1
 0,2 · 2 = 0,4 0
 0,4 · 2 = 0,8 1
6,410 = 110,01100110011001100110...2
Entre os vários sistemas de numeração existentes, os de representação 
posicional (atribuição de pesos para cada posição de algarismo) se destacam 
pela facilidade de realização de operações aritméticas.
Conclusão
O ser humano sempre teve a necessidade de quantificar coisas, e para 
isso criou os sistemas numéricos. Com as representações numéricas, torna-se 
possível realizar de forma trivial tarefas antes complexas. Entre as várias 
representações, destacam-se a decimal (com dez símbolos), a binária (com 
dois símbolos) – amplamente utilizada nos computadores, a octal (com 
oito símbolos) e a hexadecimal (com 16 símbolos). A lei de formação rege 
todas essas representações, e graças a isso é possível converter os números 
de uma base para outra. Basicamente, a lei de formação atribui pesos para 
as posições de cada algarismo de um número (ideia de sistema posicional). 
Os números fracionários também podem se representados seguindo essa 
mesma lógica.
8
 A informática 
e o software
A informática está inserida na vida moderna como uma 
ferramenta de apoio em todas as atividades, das simples às 
complexas. Com a evolução tecnológica e a democratização dos 
equipamentos eletrônicos, esta ferramenta tem um crescimento 
significativo na população mundial.
Os equipamentos informatizados, tais como telefones 
celulares, computadores pessoais, veículos automotores, 
eletrodomésticos, caixas eletrônicos de bancos, constituem alguns 
exemplos dessa ferramenta que estão inseridos na vida moderna. 
Com isso, a sua utilização tornou-se comum em todos os momentos 
e setores da sociedade. Torna-se, portanto, necessária maior interação 
e nível de treinamento quando são utilizados os dispositivos, citados 
anteriormente, no mercado de trabalho.
O profissional da área de informática deve saber que, para se 
destacar no mercado de trabalho, precisa se aperfeiçoar na utilização, 
instalação e configuração de softwares, como sistemas operacionais, 
editores de texto, planilhas de cálculo, softwares de apresentação, 
banco de dados e sistemas especialistas, mas não necessariamente 
em todos ao mesmo tempo.
– 196 –
Fundamentos da Informática
Portanto, conhecer e dominar técnicas dentro da informática e os 
programas que a mesma utiliza é de fundamental importância. Não há um 
caminho único ou apenas um sistema que se deva conhecer profundamente. A 
informática sempre reserva aos seus usuários muitos desafios e cobra dedicação 
e conhecimento, mas proporciona a todos um ambiente de interação nunca 
visto na sociedade contemporânea.
8.1 O que é software?
Software é um conjunto de instruções a serem executadas pelos 
dispositivos eletrônicos para manipulação e interação de dados utilizados pelo 
usuário. Para este e próximos capítulos, deve-se considerar como dispositivo 
eletrônico o computador pessoal (Personal Computer – PC) que, a partir de 
agora, será chamado apenas de computador.
Um computador é formado por duas partes importantes e distintas: 
hardware e software, o hardware é a parte física e o software é a parte lógica.
O software é responsável pelo gerenciamento dos componentes do 
computador e pela interface amigável que possibilita ao usuário a utilização 
das ferramentas disponíveis na área da Tecnologia da Informação (TI).
Na TI tem-se o Processamento de Dados, que consiste na entrada, no 
processamento e na saída de dados, sendo realizado através de dispositivos 
físicos, tais como teclado, mouse, memória, monitor e impressora, que são 
dispositivos físicos acoplados ao computador. Cada software pode gerenciar 
um ou mais dispositivos.
8.2 Categorias de software
O softwarepode ser classificado pelas suas características de utilização; 
com isso se tem as seguintes categorias: sistema operacional, editor de 
texto, planilha de cálculo, software de apresentação, internet, linguagens de 
programação, sistema gerenciador de banco de dados e sistema especialista.
8.2.1 Sistema operacional
O sistema operacional é um software básico, responsável pelo gerencia- 
– 197 –
	 A	informática	e	o	software
mento dos dispositivos de entrada, processamento e saída de dados. 
Também gerencia outros softwares instalados no computador e faz a 
interpretação da linguagem da máquina, transformando-a na linguagem 
do ser humano.
8.2.2 Editor de texto
O editor de texto é um software aplicativo, que se propõe a editar 
textos, facilitando a elaboração de documentos, permitindo implementar 
as necessidades do usuário referentes à criação de cartas, relatórios, livros e 
textos em geral. O mesmo implementa todos os padrões de formatação das 
entidades responsáveis pelas normas técnicas de edição de textos.
Pode-se comparar um editor de texto a uma máquina de escrever, porém 
com facilidades muito maiores quando se necessita incluir ou alterar uma 
cópia existente, pois partes do texto podem ser retiradas, trocadas de lugar, 
adicionadas ou alteradas, e não será necessário reescrever nada daquilo que já 
fora feito corretamente.
Os editores de texto modernos aplicam as normas ortográficas e 
gramaticais relativas aos diversos idiomas, facilitando e proporcionando ganho 
de tempo e um trabalho adequado, tanto para os textos acadêmicos quanto 
para os profissionais.
8.2.3 Planilha de cálculo
Uma planilha de cálculo é composta de linhas e colunas. Sua principal 
função é trabalhar com números, proporcionando ao usuário um modo 
simples de elaborar planilhas para controlar relações de materiais ou de 
pessoas com a possibilidade de automatizar os cálculos necessários para 
finalizar o seu trabalho. 
Com as planilhas pode-se calcular um número muito grande de funções 
aritméticas, matemáticas, juros simples e compostos, além de elaborar gráficos 
para representar visualmente os dados contidos na mesma.
Com a planilha de cálculos consegue-se responder a perguntas, tais como:
– 198 –
Fundamentos da Informática
 2 Qual foi o lucro de uma empresa em um determinado período?
 2 Qual a média dos alunos de uma turma na última avaliação?
 2 Quantas reuniões estão marcadas, em que sala serão realizadas e 
quais as salas disponíveis?
 2 Quanto foi a despesa pessoal com relação ao combustível nos 
últimos meses?
O recurso de automatização de cálculos citado é um dos mais importantes 
de uma planilha de cálculo, pois possibilita reavaliar constantemente as 
funções implementadas na tabela do usuário. Na medida em que os dados são 
inseridos, os cálculos são refeitos instantaneamente de modo que a planilha 
sempre fique atualizada.
8.2.4 Software de apresentação
O software de apresentação tem a finalidade de representar graficamente 
as informações que fazem parte de uma comunicação, que podem ser: um 
treinamento, uma aula, apresentação de um produto, entre outros.
Esta representação gráfica é feita por meio de slides, que são as páginas do 
software de apresentação, substituindo, com muita vantagem, as apresentações 
antigas que precisavam ser impressas e tinham qualidade inferior, visto que 
nas atuais, além da qualidade gráfica superior, pode-se contar com diversos 
recursos de multimídia.
Os softwares de apresentação podem ser utilizados para diversos fins, 
tais como:
 2 Apresentação de slides e vídeos;
 2 Desenvolvimento de trabalhos acadêmicos;
 2 Mostra de fotografias;
 2 Treinamento de funcionários;
 2 Materiais didáticos.
Uma dica muito importante sobre a elaboração de uma apresentação diz 
– 199 –
	 A	informática	e	o	software
respeito à comunicação que se deve ter com o público-alvo. Para tanto, alguns 
cuidados precisam ser tomados:
 2 Conhecer o assunto a ser abordado;
 2 Selecionar a informação que se deve passar ao público;
 2 Considerar somente os pontos importantes a serem tratados;
 2 Planejar a apresentação antes da elaboração dos slides;
 2 Organizar as ideias com começo, meio e fim;
 2 Observar o tempo disponível para a apresentação e distribuir os 
slides dentro desse tempo;
 2 Conhecer o público-alvo, pois é para ele que a apresentação 
deve ser preparada;
 2 Cuidar das cores utilizadas, tanto na combinação quanto na sua 
tonalidade;
 2 Adotar uma identidade visual para facilitar a compreensão e a loca-
lização de informações relevantes;
 2 Adequar a quantidade e o tamanho do texto utilizados no slide, que 
não devem ser excessivos.
8.2.5 Internet
A internet é uma rede global de computadores, interligados por 
equipamentos e protocolos de comunicação. É baseada na troca de informações 
entre computadores, o que possibilita aos usuários transferir arquivos, conversar 
eletronicamente por meio de mensagens escritas ou faladas, compartilhar equipa- 
mentos e softwares.
Com o surgimento da internet, o comportamento das empresas e das 
pessoas mudou. Novas aplicações e soluções foram criadas; isso possibilitou 
novas oportunidades de trabalho e entretenimento.
O compartilhamento favorecido de ideias e informações entre pessoas e 
empresas, em qualquer parte do mundo, força o pensamento global, possibi-
litando às atitudes locais serem facilmente compartilhadas.
– 200 –
Fundamentos da Informática
8.2.6 Comunicação
A comunicação entre computadores é feita por meio de um protocolo 
de comunicação. Protocolo é o nome dado ao conjunto de regras que os 
equipamentos envolvidos no processo devem seguir para que a ligação entre 
os mesmos permaneça estável e funcional. Portanto, os computadores só 
entendem se falarem a mesma língua (o protocolo).
O protocolo mais comum utilizado nas redes de computadores – estru-
turas físicas (equipamentos) e lógicas (programas, protocolos) que permitem 
que dois ou mais computadores possam compartilhar informações – é o 
TCP/IP (Transmission Control Protocol/Internet Protocol). Cada computador 
ligado à rede possui um endereço, chamado Endereço IP, que deve ser único.
O Endereço IP é formado por quatro conjuntos de números que vão de 
0 a 255, separados por três pontos e variando a quantidade de dígitos, como: 
255.255.255.1, 1.1.1.255 ou 17.15.1.203. Dois computadores não podem 
ter, ao mesmo tempo, o endereço IP igual. Para garantir isso, há um sistema 
de atribuição automática para o endereçamento.
Quando um computador se conecta a uma rede TCP/IP, o mesmo recebe 
o endereço IP de um servidor, que é um computador central, localizado na 
empresa ou no provedor que provê o acesso à internet, que também é um 
tipo de rede de computadores. Este servidor não vai atribuir um endereço IP 
repetido a nenhum outro computador que se conectar, enquanto aquele ainda 
permanecer conectado na rede. Após a saída (desconexão) do computador, o 
endereço IP pode ser atribuído a qualquer outro equipamento.
8.2.7 Linguagem de programação
O computador é um equipamento eletrônico que executa tarefas 
predefinidas; para isso é preciso “dizer” o que deve ser executado e como. A 
função das linguagens de programação é exatamente essa, ou seja, servir de 
meio de comunicação entre computadores e humanos.
Basicamente existem dois tipos de linguagens de programação: as de 
baixo e as de alto nível. Os computadores interpretam as tarefas a serem 
executadas como números em base binária, ou seja, só entendem zero e um. 
As linguagens de baixo nível são complexas para se desenvolver, pois possuem 
– 201 –
	 A	informática	e	o	software
uma sintaxe peculiar, bastante diferente da linguagem humana, porém são 
interpretadas diretamente pelo computador, o que aumenta a velocidade de 
execução das mesmas.
As linguagens dealto nível são mais fáceis para programar; os comandos 
são representados por palavras comuns como “faça”, “imprima”, “volte” e 
“pare”. Como padrão é utilizado o idioma inglês para facilitar a memorização 
e a lógica. As linguagens não são interpretadas diretamente pelo computador, 
sendo necessário transformar os comandos para linguagem binária, tarefa 
realizada pelos compiladores.
Programar é escrever um arquivo de texto comum contendo a lógica do 
programa, que são as instruções que deverão ser executadas; programando 
o computador para realizar tarefas específicas. Este texto é chamado de 
código fonte e cada ordem dentro do código é chamada de instrução. 
Após a conclusão do arquivo de texto, é necessário traduzir os comandos 
para a linguagem binária, tarefa do compilador, ou ainda, em algumas 
linguagens que não utilizam compiladores, há uma interpretação dos 
mesmos. Após essa transformação, os programas são disponibilizados para o 
usuário final.
8.2.8 Sistema Gerenciador de banco de dados
Um banco de dados é um repositório de dados para armazenamento e 
extração de informações relevantes ao negócio. Têm-se, nesse contexto, os 
dados que são um elemento ou conjunto de elementos que, isoladamente, 
não possuem significado preciso, e a informação que é o resultado da trans-
formação dos dados em algo útil para o usuário. Esses dados são armazenados 
em um modelo de dados relacional.
O modelo de dados relacional tem como base uma tabela bidimensional 
que é composta de linhas (registros) e colunas (campos). Neste modelo, uma 
tabela é chamada de relação.
Para realizar as tarefas pertinentes a um banco de dados, tem-se o Sis-
tema Gerenciador de Banco de Dados (SGBD), que é um software com várias 
funções, dentre elas a manipulação de objetos e de dados.
– 202 –
Fundamentos da Informática
8.2.9 Sistema especialista
O sistema especialista tem a função de reproduzir a ação humana em 
alguma área do conhecimento, substituindo total ou parcialmente a atividade 
de um especialista no processo de tomada de decisões. O mesmo se justifica 
pela falta ou número reduzido de especialistas no mercado e para que as ações 
envolvidas no processo não sofram atraso e inviabilizem a cadeia de produção.
 Da teoria para a prática
Diante dos desafios cada vez maiores do mercado de trabalho, 
os profissionais precisam estar atentos às novidades do setor de 
informática. Para isso, a leitura de material específico deve ser 
realizada com frequência. A internet é uma fonte abundante 
de informações, portanto é uma das melhores opções para 
a atualização e leitura sobre lançamentos, tendências e 
características dos vários assuntos relacionados ao mundo 
digital, claro, sempre tomando cautela, pois nem sempre as 
fontes da internet são confiáveis. 
Dentre tais assuntos, os softwares aplicativos devem receber uma 
atenção especial, pois, mesmo nas atividades básicas, eles estão 
sempre sendo atualizados e a sua correta utilização é muito bem 
vista e valorizada pelas empresas. Treinamento é outra opção 
válida para se manter atualizado e acompanhar o ritmo frenético 
dos fabricantes de aplicativos, inclusive quando há a necessidade 
da mudança de fabricante, por exemplo, de um editor de texto. 
A grande característica da área de software é entender o conceito 
dos softwares especialistas; com isso, mesmo diante de mudanças 
significativas, a adaptação será mais fácil.
Conclusão
O que é software? Software é um conjunto de instruções a serem 
executadas pelos dispositivos eletrônicos para manipulação e interação de 
– 203 –
	 A	informática	e	o	software
dados utilizados pelo usuário. Foi visto que há um número considerável de 
categorias de software e cada um com suas características e aplicações. 
Sistema operacional, editor de texto, planilha de cálculo, software de 
apresentação, internet, comunicação, linguagem de programação, banco de 
dados e sistemas especialistas são categorias de software feitas para o dia a dia 
de todas as profissões. Conhecer e dominá-las fará com que um profissional 
seja valorizado no mercado, portanto, vejamos a seguir informações mais 
detalhadas sobre cada categoria de software mencionada.
9
Classificação de 
software
O software, popularmente conhecido como “programa de 
computador”, está na essência da computação, visto que é ele que 
determina como o hardware (o computador e seus acessórios) deve 
funcionar, que tarefas executar e como exibir os resultados. Assim, 
criar um software é tarefa sofisticada e que requer conhecimentos 
técnicos específicos da lógica e das linguagens de programação. 
A distribuição e comercialização de um software é tema 
de muitas discussões, já que existem opiniões divergentes sobre 
como isso deveria ser feito. De um lado, os defensores do chamado 
software livre, que pode ser reproduzido e modificado livremente; 
de outro, os que acreditam nos softwares proprietários, cujo uso só 
é permitido com aquisição de uma licença.
Essa divergência gira em torno de direitos autorais e 
intelectuais, e do custo para o desenvolvimento do software incluindo 
a remuneração dos profissionais da área de desenvolvimento 
(gerentes de projeto, analistas de sistemas e programadores 
(MOLINARI, 2007).
– 206 –
Fundamentos da Informática
9.1 Software livre
A partir dos anos 1990, a vertente que defende o software livre começou 
a ganhar considerável força, devido à visão da Free Software Foundation 
(FSF) – uma fundação sem fins lucrativos, criada em 1985, que se dedica à 
eliminação de restrições sobre a cópia, redistribuição, estudo e modificação 
de programas de computadores, além de patrocinar o desenvolvimento de 
um sistema operacional completo e licenciado como software livre, o GNU. 
O nome GNU é um acrônimo para a sigla Gnu is Not Unix (Gnu não é 
Unix, uma brincadeira com o gnu, espécie de antílope africano, e o sistema 
operacional Unix).
Para a FSF, “software livre é uma questão de liberdade, não de preço. 
Para entender o conceito, você deve pensar em liberdade de expressão, não 
em cerveja grátis”. 
Está aí um dos pontos principais do software livre: ele não necessariamente 
é gratuito. A controvérsia sobre “liberdade” e “gratuidade” vem do termo 
original em inglês – free –, que tanto pode ser traduzido como livre 
ou gratuito.
O ponto central do software livre se baseia na ideia de garantir 
liberdade para que usuários executem, copiem, distribuam, estudem, 
aperfeiçoem e modifiquem um software, levando em consideração suas 
características, expectativas e necessidades. Tudo isso contribui para 
uma visão construtivista e evolucionária em que diversas pessoas podem 
trabalhar para torná-lo melhor. (OSI, [s. d.]).
Se a próxima pergunta é “o que posso fazer para torná-lo melhor se 
foi outra pessoa que o criou?”, a resposta orienta. A característica mais 
importante de um software livre é a disponibilização de seu código fonte para 
que outras pessoas possam utilizar, alterar ou mesmo redistribuir o software 
com suas alterações. Isso contribui sensivelmente para que diversas pessoas 
tenham acesso à informação, difundindo conhecimento e incentivando a 
pesquisa científica (FSF, [s. d.]).
A FSF menciona que, para que um software seja considerado livre, ele 
deve necessariamente seguir os quatro princípios da liberdade. São eles:
 2 liberdade n. 0: o usuário deve ter a liberdade de executar o programa, 
– 207 –
Classificação de software
para qualquer propósito;
 2 liberdade n. 1: o usuário deve ter a liberdade de estudar e adaptar o 
programa às suas necessidades. O acesso ao código fonte é um pré 
requisito para essa liberdade;
 2 liberdade n. 2: o usuário deve ter a liberdade de redistribuir cópias 
de modo que possa ajudar ao próximo;
 2 liberdade n. 3: o usuário deve ter a liberdade de aperfeiçoar o 
programa e disponibilizarseus aperfeiçoamentos, de modo a 
beneficiar toda a comunidade. O acesso ao código fonte é um pré 
requisito para essa liberdade.
 Saiba mais
Antes de formar uma opinião acerca de software livre, é bom 
entender mais a fundo os conceitos em torno dele. 
Boas referências sobre o assunto podem ser encontradas nos 
sites da Free Software Foundation (www.fsf.org), do Projeto 
GNU (www.gnu.org) e da Open Source Iniciative (www.
opensource.org).
No entanto, embora o acesso ao código fonte seja um dos pilares para a 
caracterização de um software livre, isso não significa que não possa haver um 
viés comercial. A ideia de se ganhar dinheiro com software livre não está na 
venda de produtos fechados, mas sim na venda de serviços de qualidade que 
estão, a todo o momento, expostos, sendo colocados à prova e ao julgamento 
da comunidade. (Molinari, 2007) 
Um software, quando se diz livre, geralmente está regido pelas regras 
da GPL (Licença Pública Geral, na sigla em inglês), que é uma licença 
para software concedida pela Free Software Foundation, criada por Richard 
Stallman em meados da década de 80. Essa licença atesta que o software segue 
as regras de software livre, atendendo, por exemplo, as quatro liberdades 
mencionadas anteriormente. É utilizado por grandes projetos, como o do 
sistema operacional Linux (FSF, [s. d.]). 
– 208 –
Fundamentos da Informática
O software livre pode ser encarado sob dois aspectos: Open Source e 
Livre Comercial.
9.1.1 Open source
Também conhecido como código aberto, esse tipo de software também 
leva em consideração os preceitos de liberdade descritos para o software 
livre. Sua defesa, porém, a cargo da Open Source Iniciative (OSI), foca mais 
em questões técnicas (até a eventual superioridade em relação aos softwares 
proprietários, de código fechado) e não tanto em questões éticas ou morais 
como as que a FSF prega quando se refere ao software livre.
No open source, o código fonte é acessível e há permissão para que seja 
modificado e redistribuído, mantendo os princípios de liberdade do software 
original. Isso auxilia na prevenção de sua utilização com fins comerciais, 
estando sujeito aos termos da licença GPL. Alguns exemplos de softwares 
open source são o kernel do sistema operacional Linux e o projeto Web Apache 
TomCat, que podem ser alterados e redistribuídos (FSF, [s. d.]).
9.1.2 Livre comercial
O software livre comercial ainda preserva a característica de código 
fonte aberto, mas não exclui a possibilidade de receber um tratamento 
comercial (distribuição mediante pagamento). No entanto, uma vez que 
é regido pelas regras da GPL, que exige a sua distribuição sem ônus para 
o usuário, o software chamado livre comercial encontra outra maneira de 
ser comercializado (FSF, [s. d.]). Na maior parte das vezes, trabalha-se com 
a ideia de agregar valor, diferenciando-o da versão open source. Entre esses 
recursos, está o empacotamento e a venda com outros softwares integrados, 
ou a venda de um hardware que se comporta melhor por ser compatível 
com o software. A distribuição dos softwares Linux RedHat e o Mandrake são 
alguns exemplos. 
O mercado também é fértil em softwares gratuitos, mas nenhum deles 
abre o código fonte. Só por essa característica, fica claro que software gratuito 
não é software livre. A impossibilidade do usuário de modificar e redistribuir 
o software faz com que ele fique indiretamente preso à empresa que o 
– 209 –
Classificação de software
desenvolveu. As versões de software gratuito são duas:
 2 Versões freeware: podem ser utilizados sem limite de tempo, copia-
dos e distribuídos livremente, mas não podem ser alterados porque 
o código fonte não é aberto. Exemplo: Java Sun, Internet Explorer.
 2 Versões adware: são gratuitos, porém utilizam publicidade, como 
banners ou links de patrocinadores, que custeiam o desenvolvimento 
e manutenção em troca de marketing. Como o freeware, podem 
ser copiados e distribuídos livremente, mas sem modificações (pela 
falta do código fonte). Exemplo: Adobe Acrobat.
 
Lembre-se: nem sempre um software gratuito é livre, e nem 
todo software livre deixa completamente de ser comercial.
 
Todos esses exemplos deixam claro que existem diversas possibilidades 
quanto à exploração das características do software livre. Por outro lado, há 
a corrente que prega a utilização de softwares proprietários, nos quais são 
considerados direitos autorais e ideológicos envolvendo custo.
9.2 Software proprietário
A ideologia que embasa os livres vai de encontro à percepção de que 
um software é um produto comercial que envolve pesquisa, custos de 
desenvolvimento e até segredos e estratégias de negócio de grandes empresas. 
Muita gente acredita que o conceito de software livre é uma utopia ou uma 
ideia muito à frente de seu tempo.
Os argumentos em defesa do software proprietário são melhor analisados 
com ajuda de uma analogia. Por exemplo: um grande chef de cozinha, por 
cozinhar muito bem, tem todo o direito de abrir um restaurante e vender suas 
deliciosas iguarias. Ninguém pode obrigá-lo a ensinar ou mesmo a distribuir 
suas receitas gratuitamente para que outros as utilizem. Alguns chefs gostam 
de compartilhar seus conhecimentos, outros fazem questão de cercá-los de 
– 210 –
Fundamentos da Informática
uma aura de segredo. É o cliente quem decide se vai querer pagar ou não para 
degustar as iguarias.
Assim, voltando ao software, o que é fornecido tem um preço que é 
definido de acordo com a utilidade do software para determinada pessoa que 
pague o valor sugerido, mesmo que outros discordem completamente desse 
ponto de vista (Molinari, 2007).
 Saiba mais
Alguns softwares se utilizam de licenças um tanto quanto 
diferentes, como a Postcardware e a Stampware Cardware, nos 
quais o desenvolvedor exige o feedback por parte dos usuários 
da ferramenta por meio de postais ou cartas para só então liberar 
o registro do software.
Um software comercial ou proprietário é distribuído sem a 
disponibilização de seu código fonte. Normalmente, é comercializado sob 
os termos de licença de uso e não de propriedade. O que acontece nesse 
caso é que, ao adquirir um software, uma pessoa está se comprometendo 
somente a utilizá-lo, sem direito algum no âmbito de comercialização ou de 
redistribuição, sob pena de multas severas. Exemplos desse tipo de software 
são o sistema operacional Microsoft Windows e o assistente gráfico Corel Draw.
Uma grande quantidade de softwares proprietários oferece versões 
gratuitas para teste e “degustação”, que podem ser classificadas como:
 2 shareware: software que, após certo tempo de utilização ou de um certo 
número de utilizações, suspende suas funcionalidades. Para continuar 
usando, é necessário o registro, mediante o pagamento de uma taxa ao 
proprietário. Muitas empresas que desenvolvem software optam por 
agregar serviços aos usuários registrados, a fim de fidelizar o cliente;
 2 demo: serve como uma demonstração do produto, para que o 
cliente possa avaliá-lo e julgar se vale ou não a pena adquiri-lo. 
Esta é uma modalidade muito comum no mercado de games, 
em que se oferece acesso a uma ou mais fases de um jogo, por 
– 211 –
Classificação de software
exemplo, para que o cliente em potencial possa ter uma amostra da 
experiência. A versão demo não expira e nem pode ser registrada, 
sendo necessária a substituição de todo o software, caso o usuário 
decida comprá-lo;
 2 trial: é semelhante à distribuição demo, porém se aplica geralmente a 
softwares funcionais, como editores de texto e planilhas eletrônicas. 
Embora permita experimentar quase todos os recursos disponíveis, 
bloqueia alguns pontos-chave, impedindo, por exemplo, a edição 
de trabalhos ou o recurso de salvar os documentos.
 Reflita
Em sua maioria, os softwares proprietários são conhecidos 
como SoftwareBox, ou “softwares de caixinha”. É como 
comprar um produto pronto na prateleira. O usuário tem pouco 
ou nenhum poder de manipulá-lo, alterar suas configurações ou 
personalizá-lo para necessidades específicas.
Essas classificações de software não são as únicas existentes, mas 
as principais e mais utilizadas. Elas refletem as ideias e opiniões dos 
desenvolvedores e proprietários de softwares e seu desejo de como estes 
deveriam ser utilizados. Outros métodos incluem a utilização do software em 
troca de uma doação voluntária por parte do usuário.
A Microsoft, por sua vez, teve a iniciativa de lançar seus produtos sob 
licença shared source, permitindo que parceiros, empresas e governo tenham 
acesso ao código fonte de seus produtos. Segundo alguns, isso minimiza o 
que poderia ser caracterizado como monopólio do mercado. Ainda assim, a 
Microsoft não permite nem a alteração nem a redistribuição de seus produtos 
(OSI, [s. d.]).
As discussões sobre o modelo ideal de distribuição de softwares são 
influenciadas por valores culturais e sociais, e por isso todas as propostas têm 
prós e contras. No entanto, todas contribuem, cada uma à sua maneira, para 
enriquecer a produção de conhecimento e a disseminação de informação.
– 212 –
Fundamentos da Informática
Conclusão
Existem dois tipos básicos de software no mercado: o livre e o proprietário. 
O software livre caracteriza-se por ter seu código fonte aberto (open source), 
que é a linguagem em que ele foi programado. Isso dá aos usuários liberdade 
para utilizar, copiar, distribuir, estudar, aperfeiçoar, modificar e redistribuir 
um software. Porém, essa liberdade não vem necessariamente acompanhada 
de gratuidade. Os programas chamados de livre comercial vêm sempre 
atrelados a “pacotes” de outros programas ou hardware, agregando valor que 
permite a cobrança.
Software gratuito não quer dizer software livre. Sem exibir o código fonte, 
os produtos gratuitos trabalham com versões freeware e adware, permitindo 
seu uso sem custo por determinado tempo ou com patrocínio de anunciantes.
Já o software proprietário concede uma licença de uso apenas, sem abrir 
o código fonte. São os chamados “softwares de caixinha”, pois já vêm prontos 
e impedem o usuário de fazer qualquer modificação ou personalização, exceto 
por questões de usabilidade. Por serem produtos prontos, normalmente 
oferecem versões shareware, demo e trial, que permitem “degustar” o produto 
antes de decidir a compra. 
Entidades como a Free Software Foundation (FSF) e a Open Source 
Iniciative (OSI) contribuem para as discussões e soluções a respeito da 
melhor forma de compartilhar o conhecimento e beneficiar usuários em 
todo o mundo. 
Sistemas operacionais, 
redes de computadores 
e banco de dados
10
Com exceção das instruções básicas do BIOS, o Sistema 
Operacional é o software que está intimamente ligado ao hardware 
em um computador pessoal. É ele o responsável por gerenciar os 
recursos do equipamento, abstraindo esse gerenciamento e subsi-
diando o desenvolvimento de aplicativos que irão permitir ao usu-
ário desempenhar suas tarefas do cotidiano. Uma visão geral desse 
gerenciamento e dos principais sistemas operacionais é abordada 
neste capítulo. 
– 214 –
Fundamentos da Informática
10.1 Sistema Operacional: Conceitos
Um sistema computacional moderno consiste em um ou 
mais processadores, memória principal, discos, impressoras, 
teclado, monitor, interfaces de rede e outros dispositivos de 
entrada e saída. [...] Por isso, os computadores têm um dis-
positivo de software denominado sistema operacional, cujo 
trabalho é gerenciar esses componentes e fornecer aos progra-
mas do usuário uma interface com o hardware mais simples 
(TANENBAUM, 2003, p. 1).
Para garantir um gerenciamento de recursos adequados e proporcionar 
uma boa comunicação entre os aplicativos e o hardware do computador, um 
sistema operacional prevê alguns conceitos, abordados nesta seção.
10.1.1 Abstração de recursos
Imagine se um editor de textos, ao gravar um documento, precisasse 
verificar diretamente quais os setores disponíveis de um disco rígido para 
saber se existe espaço suficiente e em qual posição as agulhas deveriam 
escrever as sequências binárias. O mesmo procedimento deveria ser adotado 
por um editor gráfico ao gravar uma imagem. E todos os aplicativos que 
necessitassem realizar gravação e leitura de arquivos deveriam englobar as 
mesmas funcionalidades. Se, em determinado momento, o usuário resolvesse 
trocar o HD por outro de tamanho diferente, ou até mesmo escolhesse 
outra mídia para gravação de seus documentos, essa alteração deveria ser 
contemplada em todo o processo.
Fica evidente que esse processo de compreensão do hardware em uso é 
tarefa exclusiva do sistema operacional, e que de alguma forma simplificada, irá 
prover subsídios para que aplicativos realizem-na sem maiores preocupações. 
Isto é abstração de recursos: tornar transparente aos aplicativos como gerenciar 
e acessar os recursos de hardware disponíveis (processador, memória, discos, 
etc.), de maneira genérica, sem detalhes de seu funcionamento.
10.1.2 Gerenciamento de recursos
No desempenho de sua função básica, que é a abstração de recursos, 
o sistema deve trabalhar com uma política adequada de gerenciamento dos 
– 215 –
Sistemas operacionais, redes de computadores e banco de dados
mesmos. Dentre os principais recursos gerenciados pelo sistema operacional, 
alguns merecem especial atenção:
 2 Processador: onde são executadas as tarefas (processos) – o 
gerenciamento do processador consiste em distribuir sua capacidade 
de processamento de forma justa entre os processos, garantindo 
também a comunicação e sincronização entre eles.
 2 Memória: gerenciar a memória deve prever a distribuição de 
sua capacidade entre os processos, garantindo o controle de 
compartilhamento e acesso exclusivo pelos processos. Em caso 
de insuficiência de memória principal, fazer uso da memória 
secundária (discos) como alternativa.
 2 Dispositivos: permitir, através de drivers, o uso genérico e o 
controle de entrada/saída de dispositivos como HDs, disquetes, 
pen-drives, etc.
 2 Arquivos: oferecer aos aplicativos subsídios para operações de acesso 
a arquivo (leitura, gravação, exclusão), bem como sua organização 
estruturada (como pastas).
 2 Segurança: estabelecer políticas de acesso a recursos por 
diferentes usuários ou grupos de usuários, mediante autenticação 
e autorização.
10.1.3 Escalonamento de processos
Em sistemas operacionais multitarefa, é importante que haja uma 
política consistente de gerenciamento de recursos entre os processos. 
À medida que as tarefas vão sendo solicitadas pelo usuário ou por outros 
programas em execução, elas vão sendo colocadas em uma fila e o sistema 
operacional precisa decidir qual tarefa será executada por primeiro. O módulo 
do sistema responsável por esta decisão chama-se escalonador e ele obedece a 
um algoritmo de escalonamento.
De acordo com a forma de gerenciamento da fila de execução, um sistema 
pode ser dito preemptivo ou não preemptivo. Nos sistemas não preemptivos 
(pouco utilizados em sistemas modernos), a tarefa entra em execução e assim 
– 216 –
Fundamentos da Informática
permanece até que termine de executar ou que necessite realizar uma operação 
de entrada/saída. Os sistemas preemptivos vão atendendo todas as tarefas ao 
mesmo tempo, alternadamente, e por partes. Para tanto, incorporam dois 
novos conceitos: troca de contexto e quantum. 
Para o sistema atender simultaneamente as diversas tarefas que estão em 
fila para execução, ele o faz por partes, ou seja executa um pouco de uma, 
para, executa um pouco da outra, para, e assim sucessivamente. A fração de 
tempo que o processo fica em execução é chamada de quantum. A troca de 
contexto acontece toda vezque um processo é deixado de lado para dar lugar 
a outro: o processo atual precisa ser removido da memória, dando lugar ao 
próximo, e em momento futuro volta a ocupar a memória para execução de 
mais uma fração. 
Dentre os diversos algoritmos de escalonamento empregados nos 
escalonadores, destacam-se: FCFS (First Come First Served – o primeiro a 
chegar é o primeiro a ser servido), Round Robin, Prioridades, SJF (Shortest 
Job First – tarefa mais curta por primeiro), FSS (Fair Share Scheduling – 
escalonamento por fração justa).
10.1.4 Gerenciamento de memória
Quando um processo entra em execução, ele é colocado em memória 
para ser acessado pelo processador. Ao ocupar a memória, esse processo é 
colocado em um endereço físico e, com o auxílio dos registradores, recebe 
um endereço inicial lógico. Um programa nunca enxerga em qual endereço 
físico da memória está alocado, tendo acesso somente aos endereços lógicos 
dentro do espaço de memória que lhe foi reservado. Os registradores foram 
abordados no capítulo 3.
Existem vários métodos de organização e gerenciamento de memória, 
alguns trabalhando de forma estática e outros de forma dinâmica. São eles: 
alocação contígua simples, overlay (sobreposição), alocação particionada 
estática (absoluta e relocável), alocação particionada dinâmica.
Muitas vezes a quantidade de memória DRAM de um PC não é suficiente 
para alocar os processos que precisam ser executados. Diante dessa situação, 
o sistema operacional reserva uma parte do HD para gravação dos dados que 
– 217 –
Sistemas operacionais, redes de computadores e banco de dados
deveriam residir na DRAM e durante a execução realiza trocas constantes 
entre o que está no HD e o que permanece na DRAM. Esse processo de troca 
é chamado de swapping.
10.1.5 Sistemas de arquivos
De programas executáveis, incluindo o próprio sistema operacional, a 
documentos manipulados por aplicativos, todo software de um PC é baseado 
em sistemas de arquivos.
Os arquivos são sequências de bytes de dados com delimitação de início 
e tamanho dentro da unidade de armazenamento (HD, disquete, etc.) e 
com estrutura própria. Para que seja possível o acesso aos arquivos, eles são 
organizados pelo sistema operacional nas diversas mídias de acordo com o 
que se conhece por sistemas de arquivos. 
A distribuição física dos arquivos (sequências binárias) é organizada 
de forma lógica, na qual cada arquivo recebe um nome (ou também uma 
extensão), residindo normalmente em diretórios (também chamados de 
pastas) que, por sua vez, podem estar dentro de outros diretórios e assim 
sucessivamente, formando uma árvore. Também é o sistema de arquivos que 
permite o controle do espaço disponível na mídia. 
Toda essa organização é armazenada em forma de índices ou tabelas, 
que é basicamente o que difere entre os sistemas. De acordo com o sistema de 
arquivos utilizado, muda a forma de organização, desempenho e segurança 
para acesso aos dados. Os diversos sistemas operacionais comerciais fazem 
uso de seus próprios sistemas de arquivos, alguns oferecendo possibilidade de 
manipulação de outros, a fim de garantir a portabilidade dos dados. Dentre 
os sistemas de arquivos mais conhecidos, podem ser citados:
 2 FAT (File Alocation Table – Tabela de Alocação de Arquivos): pre-
sente nos sistemas operacionais da Microsoft desde o DOS, é reco-
nhecido até hoje pelas versões mais modernas do Windows®, mais 
comumente em variações mais evoluídas do sistema (FAT32 ou 
exFAT).
 2 NTFS (New Technology File System – Sistema de Arquivos de 
Nova Tecnologia): utilizada pelo Windows NT® desde suas primei-
– 218 –
Fundamentos da Informática
ras versões, tornou-se o padrão para os sistemas operacionais da 
Microsoft contemporâneos.
 2 HPFS (High Performance File System – Sistema de Arquivos de 
Alta Performance): sistema de arquivos utilizado pelo famoso, 
porém obsoleto, sistema operacional da IBM, o OS/2.
 2 EXT (Extended File System – Sistema de Arquivos Estendido): 
tendo sido substituído pelo ext2 (second extended file system – 
segundo sistema de arquivos estendido), é adotado pela maioria dos 
sistemas baseados em Unix, como o Linux.
 2 HFS (Hierarchical File System – Sistema de Arquivos Hierárquico): 
não é mais utilizado em sua versão original, mas sim em sua versão 
atual (HFS+ ou HFS Plus), é o sistema adotado pelo Apple OS.
10.1.6 Tipos de sistemas operacionais
De acordo com a natureza de suas aplicações, os sistemas operacionais 
recebem classificações. Estas classificações não são exclusivas, ou seja, um mesmo 
sistema operacional pode se enquadrar em mais de uma categoria. São elas:
 2 Batch: primeiros sistemas operacionais, onde todos os programas 
eram colocados em uma fila para serem executados em sequência.
 2 De rede: a maioria dos sistemas atuais entram nesta classificação, 
pois operam em rede, permitindo compartilhamento de recursos 
entre diferentes computadores.
 2 Distribuído: os recursos são distribuídos em diversas máquinas, 
sendo que para o usuário isso fica transparente, tendo a impressão 
que opera um único computador.
 2 Multiusuário: oferece suporte a mais de um usuário, gerenciando 
tanto a distribuição de recursos quanto as permissões de acesso para 
cada usuário.
 2 Desktop: é o tipo de sistema mais comumente utilizado, pois é o 
que permite a realização de tarefas comuns em rotinas domésticas 
e corporativas.
– 219 –
Sistemas operacionais, redes de computadores e banco de dados
 2 Servidor: gerencia vários recursos, multiusuários com suporte 
a rede.
 2 Embutido: exerce função específica e está presente em dispositivos 
com hardware limitado, como televisores, blu-ray players, etc.
 2 Tempo real: possuem comportamento temporal previsível, ou seja, 
ao se solicitar uma tarefa sabe-se exatamente quanto tempo vai 
levar sua execução e o momento em que irá terminar.
 Sugestão de Leitura
Para saber mais sobre o funcionamento dos sistemas operacio-
nais, recomenda-se a leitura da obra:
TANENBAUM, A. S., Sistemas Operacionais Modernos. 
3. Ed. São Paulo: Pearson Prentice Hall, 2010.
10.2 Principais sistemas operacionais
São inúmeros os sistemas operacionais e variações disponíveis para PCs 
comercializados atualmente, dentro dos quais três se destacam: Microsoft 
Windows®, Linux e Apple Mac OS.
10.2.1 Microsoft Windows®
O capítulo 1 apresentou de forma cronológica a evolução do computador, 
citando William (Bill) Gates e Paul Allen, fundadores da empresa Microsoft 
em 1975. Em 1980, a empresa criou seu primeiro sistema operacional, o 
MS-DOS, que foi vendido à IBM para ser comercializado juntamente com 
seus PCs. Naquela época, os sistemas funcionavam somente com comandos 
de texto, em vídeos monocromáticos.
Em 1983, a Apple (principal concorrente da Microsoft desde a época), 
lança o Apple Lisa, computador com interface gráfica de comandos. Em 1985, 
a Microsoft lança também uma interface gráfica para o seu sistema operacional 
– 220 –
Fundamentos da Informática
MS-DOS. Esta interface recebeu o nome de Windows. Diferente do Lisa, 
o Windows era apenas uma “máscara” gráfica para o MS-DOS (textual). É 
importante ressaltar que, tanto o Windows quanto o sistema operacional da 
Apple, foram cópias de um sistema operacional gráfico criado pela Xerox.
Outras versões dessa interface foram lançadas posteriormente, até que 
a Microsoft resolveu unificar o sistema e a interface, lançando, em 1995, 
o Windows 95. Em paralelo, sempre houve uma versão do Windows para 
escritórios, conhecida como Windows NT, mais robusta e com recursos 
voltados ao trabalho corporativo.
As versões do Windows para uso doméstico consistem em: Windows 1.0, 
2.0 e 3.0, Windows 95, Windows 98, Windows Millenium, Windows XP 
Home, Windows Vista Home, Windows 7 Home e, atualmente, Windows 
8. Ainda há a versão Starter tantopara o Windows Vista quanto para o 
Windows 7, que são versões com recursos bastante reduzidos. Já as versões 
corporativas são: Windows 3.11, Windows NT, Windows 2000, Windows 
XP Pro, Windows Vista Business, Windows 7 Business e Windows 8 Pro.
10.2.2 Linux
Antes de falar propriamente do Linux, faz-se necessário entender a sua 
origem: o Unix. O Unix é um sistema operacional que foi criado na década 
de 70 do século XX para ser utilizado em minicomputadores, a fim de os 
permitir realizar mais de uma tarefa simultaneamente. Ele foi idealizado por 
Ken Thompson, um pesquisador do MIT, que na época trabalhava para a 
Bell Laboratories.
Mais tarde, o projeto ganhou a adesão de outro pesquisador: Dennis 
Ritchie. Thompson e Ritchie publicaram um artigo sobre o sistema, que fez 
com que diversas universidades se interessassem e pedissem uma cópia do 
Unix. A partir daí surgiram diversas outras versões paralelas ao sistema, que 
normalmente eram incompatíveis. Essa falta de padronização inibiu o sucesso 
comercial do Unix. Nos anos 90 do século XX houve algumas tentativas de 
padronização, mas sem sucesso. 
Em 1987, Andrew Tanenbaum criou sua própria versão do Unix: o 
Minix, versão que, com o uso massificado da internet, passou a ser cultuada 
– 221 –
Sistemas operacionais, redes de computadores e banco de dados
em uma comunidade com mais de 40 mil usuários que contribuíam para o 
seu aperfeiçoamento. Mas nem todas as sugestões eram aceitas e isso irritava 
muitos usuários. Dentre esses, havia um estudante finlandês chamado Linus 
Torvalds que resolveu criar sua própria versão do Unix: o Linux. A primeira 
versão do Linux foi liberada em 1991, sendo que a versão 1.0 surgiu em 
1994. Em 1996 foi lançada a versão 2.0 e era bastante compatível com 
o Unix padrão. Isto fez com que diversas empresas se interessassem pelo 
sistema e uma grande quantidade de softwares foi portada para ele: “Uma 
característica não usual do Linux é seu modelo comercial: ele é um software 
livre; pode ser copiado de vários lugares da Internet. [...] Os usuários podem 
usar, copiar, modificar e redistribuir [...] livremente.” (TANENBAUM, A. 
S., 2003, p. 509).
Por se tratar de um sistema livre, o Linux não possui uma única 
interface gráfica, como acontece com o Windows. Diversas interfaces 
foram criadas e redistribuídas para uso livre. Inclusive existem interfaces 
criadas à semelhança do Windows e até do Mac OS (citado a seguir), que 
tornam mais fácil o seu uso. Dentre as interfaces mais conhecidas podem 
ser citadas: Kde, Gnome, AfterStep, Enlightnment, WindowMaker, IceW, 
BlackBox, Fvwm90.
10.2.3 Macintosh Operating System (Mac OS)
É crescente o número de usuários dos computadores Macintosh e, 
portanto, usuários do sistema operacional proprietário da Apple: o Mac OS.
Lançado em sua primeira versão em 1984, logo depois do sucesso do 
Apple Lisa, o sistema operacional da Apple era chamado inicialmente de 
System. Com o lançamento da versão 7.6 passou a se chamar Mac OS. Sua 
atual versão é o Mac OS X Mountain Lion, baseado também numa versão do 
sistema operacional Unix.
10.2.4 Outros sistemas
Além dos três citados sistemas operacionais para PCs, ainda há uma 
série de sistemas menos utilizados ou utilizados em equipamentos específicos, 
como smartphones e tablets.
– 222 –
Fundamentos da Informática
A Microsoft desde 2002 disponibiliza a versão compacta do Windows 
para celulares de terceiros. Originalmente PocketPC, passando a se chamar 
Windows Mobile em 2003 (em uma plataforma que envolve o PocketPC e o 
Windows CE), e em sua versão mais recente Windows Phone 8.
A Apple equipa seus dispositivos móveis com sistema proprietário: o iOS. 
Lançado com a primeira versão do iPhone em 2007, sem nome específico definido 
na época, passou a se chamar iOS a partir de 2010. Atualmente o sistema, na 
versão iOS 6, está presente nas últimas gerações de smartphones, tablets e gadgets 
da Apple (iPhone 3GS, 4, 4S e 5; iPad 2, 3 e 5; iPod Touch 4 e 5).
A Google, assim como a Microsoft, dispõe de um sistema operacional 
para smartphones de terceiros: o Android. Atualmente em sua versão 4 (e 
releases), o Android equipa a grande maioria de telefones das principais 
fabricantes: Samsung, Motorola, HTC e LG.
A maioria dos telefones celulares Nokia e Motorola até pouco tempo 
utilizavam um sistema operacional chamado Symbian, baseado no Unix. 
Com o nascimento do Android, o Symbian e outros sistemas proprietários 
perderam bastante mercado.
10.2.5 Sistema operacional e hardware
Uma vez que o sistema operacional é o software mais próximo do 
hardware, no qual seus módulos interagem com os componentes físicos, sua 
instalação e configuração está intimamente ligada às placas e dispositivos 
que compõem o PC.
A instalação de sistemas operacionais mais antigos (leia-se: até o final 
da década de 80 do século XX, como o MS-DOS) era bastante rápida, pois 
aqueles proviam acesso aos recursos básicos (discos, teclado e monitor) e, se 
algum aplicativo precisasse de hardware específico, ficava a cargo do aplicativo 
controlá-lo. Residia na instalação desses aplicativos específicos por parte do 
consumidor final a configuração específica e era, na maioria das vezes, onerosa: 
várias horas tentando acertar a interrupção ou o endereço adequado. 
Diante dessa dificuldade, o mercado buscava padronização, com foco 
em facilitar o processo de configuração dos dispositivos por parte dos usuários 
menos experientes, então a Microsoft (desenvolvedora do sistema operacional 
– 223 –
Sistemas operacionais, redes de computadores e banco de dados
Windows®) juntamente com os fabricantes de hardware apresentaram ao 
mercado uma solução: o plug and play (ligar e usar). Com essa solução o 
hardware traz identificação de modelo, série, etc., e o sistema operacional, 
de posse dessas informações, busca (em discos locais ou internet) o driver 
adequado. As primeiras experiências não foram tão bem sucedidas, mas com 
o tempo houve significativo aperfeiçoamento e atualmente são raros os equipa- 
mentos que não são reconhecidos automaticamente pelo sistema operacional.
Tanto o Windows® quanto outros sistemas operacionais modernos 
são bem mais complexos e possuem uma camada de abstração mais 
sólida. Isso faz com que seu desenvolvimento tenha um alto grau de 
complexidade, porém quando chega ao consumidor para instalação, o 
processo é bastante facilitado: basta que existam controladores (drivers) 
para examinar as peças sob o sistema em questão e está tudo resolvido. Em 
contrapartida, o processo de instalação sem (ou com pouca) intervenção 
do usuário pode levar horas enquanto o sistema reconhece o hardware em 
que está sendo instalado.
Independente da forma de configuração do hardware (se automática, 
pelo sistema operacional, ou manual, pelo usuário instalador) existe um 
passo anterior que merece atenção especial: “onde” e “como” o sistema irá 
residir. “Onde” refere-se ao disco (HD, SSD, ...) em que o sistema será 
instalado. A maioria dos sistemas atuais são comercializados na forma de 
CD ou DVD, contendo arquivos que serão transferidos para o PC. Para 
que o equipamento possa receber esses arquivos, faz-se necessária uma 
preparação do disco destino: ele precisa ser particionado. Para tanto, deve-se 
escolher o sistema de arquivos (visto na seção 10.1.5 deste capítulo) e criar 
uma partição baseada neste sistema, definindo “como” o sistema terá seus 
arquivos armazenados.
 Da teoria para a prática
Veja qual o sistema operacional utilizado no seu computador 
pessoal e classifique-o, justificando. Lembre-se que um mesmo 
sistema pode se enquadrar em mais de uma categoria.
– 224 –
Fundamentos da Informática
10.3 Redes de computadores e banco de dados
Ao interligar computadores em uma única rede, empresas de diferentes 
portes podem manter seus funcionários em permanentecontato e colabo-
ração, compartilhando documentos, aplicativos e informações sem necessi-
dade de utilizar meios físicos como pen drive, CD ou DVD, nem recorrer 
ao email. 
Aliado a isso, a implantação de bancos de dados permite agrupar de 
maneira lógica todos os dados referentes a uma empresa, garantindo acesso 
fácil e rápido a eles. 
Esses dois poderosos processos corporativos – redes de computadores 
e bancos de dados – aceleram o crescimento das empresas em um tempo de 
globalização. À medida em que cresce nossa capacidade de coletar, processar 
e distribuir informações, torna-se ainda maior a demanda por maneiras cada 
vez mais sofisticadas, seguras e rápidas de fazer tudo isso.
10.3.1 Redes de computadores
Pode-se atribuir o termo “rede de computadores” a dois ou mais compu-
tadores que estejam interconectados e habilitados a trocar informações. Essa 
conexão poderá ser realizada através de vários tipos de meios: par de fios, cabo 
coaxial, fibra ótica, micro-ondas e wi-fi (sem fio). Além disso, os computa-
dores devem possuir um processamento próprio, tornando-os independentes 
um dos outros.
As redes de computadores cada vez mais fazem parte do cotidiano das 
pessoas, que utilizam a interligação dos seus equipamentos para a comunica-
ção pessoal e também como uma ferramenta de trabalho. 
10.3.1.1 Tipos de redes de computadores
As redes estão divididas em três categorias conforme sua abrangência 
geográfica:
 2 rede local (LAN – Local Area Network): normalmente usada por 
uma mesma empresa ou grupo de pessoas, interliga computadores 
na mesma sala, edifício ou condomínio, em uma distância de até 
10 km, com alta velocidade e baixas taxas de erro;
– 225 –
Sistemas operacionais, redes de computadores e banco de dados
 2 rede metropolitana (MAN – Metropolitan Area Network): interliga 
computadores dentro de uma mesma cidade e arredores, possuindo 
alcance de até 100 km;
 2 rede de longa distância (WAN – Wide Area Network): mais pode-
rosa, proporciona interligação entre computadores em cidades, 
estados e até mesmo países diferentes, em distâncias superiores a 
100 km. As redes de longa distância são oferecidas por empresas 
especializadas em telecomunicações.
Também existe a rede de área pessoal (PAN – Personal Area Network), 
que se destina a conectar todos os dispositivos que alguém usa individual-
mente, através de conexão sem fio (usualmente com tecnologia bluetooth). 
Celular, fone de ouvido, computador pessoal, tablet e outros aparelhos são 
exemplos do que pode fazer parte da PAN.
10.3.1.2 Tipos de interligação (topologia de rede)
A topologia de rede, ou como a rede é organizada do ponto de vista físico 
e lógico, influencia pontos críticos de seu desempenho, como flexibilidade, 
segurança e velocidade. Na hora de formar a rede, existem várias maneiras de 
interligar os computadores, sendo as mais comuns as seguintes:
a. barramento: é um tipo de ligação multiponto em que há apenas 
uma única via de conexão e o acesso é compartilhado entre todos os 
computadores nela conectados. Por não haver hierarquia no envio 
de dados nessa topologia de rede, pode ocorrer colisão e mistura de 
dados durante a transmissão. 
Figura 1 Topologia de rede em barramento.
b. anel: os computadores são interligados em sequência na forma de 
um anel. As informações trocadas entre os computadores são prefe-
– 226 –
Fundamentos da Informática
rencialmente unidirecionais, mas podem ser em qualquer direção. 
Um grande problema desse tipo de topologia de rede é que, se um 
falhar, toda a comunicação pode ser comprometida. 
Figura 2 Topologia de rede em anel.
c. estrela: este é um modelo de ligação ponto a ponto,com um 
gerenciador central pelo qual passa toda a comunicação. Isso 
garante que toda informação enviada seja entregue correta-
mente ao seu destino. Esse tipo de topologia de rede é o mais 
usado atualmente. 
Figura 3 Topologia de rede em estrela.
Para cada topologia de rede, existem diferentes meios de transmissão.
– 227 –
Sistemas operacionais, redes de computadores e banco de dados
10.3.1.3 Meios de transmissão em redes de computadores
Computadores, impressoras e outros tipos de hardware e periféricos 
transmitem dados entre si por meio de um sistema físico formado por cabos, 
que podem ser de três tipos: 
a. cabo coaxial: é um cabo de cobre revestido de uma malha ou trança 
metálica isolante que conduz sinais elétricos;
Fonte: Shutterstock.com/ra3rn Fonte: Shutterstock.com/I. Pilon
b. cabo de pares trançado: são cabos entrelaçados em forma de 
espiral com a finalidade de isolar interferências de campos eletro 
magnéticos quando há uma transmissão de dados na condução de 
sinais elétricos. O máximo de comprimento de um cabo de pares 
trançado é de 100 m;
Fonte: Shutterstock.com/deepspacedave Fonte: Shutterstock.com/titelio
c. cabo de fibra óptica: são cabos que transmitem dados por meio de 
feixes de luz e que podem chegar a grandes distâncias. Seu revestimento 
é feito de uma mistura de vidro, plástico e outros componentes.
Fonte: Shutterstock.com/Datskevich AlehFonte: Shutterstock.com/zentilia
– 228 –
Fundamentos da Informática
 Saiba mais
Outro meio físico de comunicação é o ar -- as chamadas redes 
wireless (sem fio) utilizam ondas de rádio digital, satélites e 
espectro de difusão para transmitir dados a grandes distâncias 
e em grandes velocidades. Já o que se chama de wi-fi é um 
padrão de rede sem fio para curta distância, utilizado em resi-
dências, escritórios, restaurantes etc.
10.3.1.4 Dispositivos de transmissão de dados
Para auxiliar a comunicação entre computadores, impressoras, scanners, 
etc., existem dispositivos que facilitam e aceleram a transmissão de dados, e que 
atuam de modo ativo ou passivo. Os dispositivos ativos são equipamentos de rede 
que têm regras pré definidas, podendo escolher o melhor caminho de trans-
missão; já os passivos são equipamentos sem regras pré definidas que funcionam 
somente como um elo entre outros dispositivos. Esses dispositivos são:
a. pontes (bridges): têm como objetivo expandir ou segmentar uma 
rede de computadores que usam o mesmo protocolo. Oferecem 
suporte a diversos tipos de protocolos de rede;
b. roteadores (routers): têm como objetivo interligar redes de 
computadores fisicamente distintas, determinando por qual 
caminho a informação deve seguir para chegar ao seu destinatário;
Fonte: Shutterstock.com/alexRem
c. repetidores (repeaters): têm como objetivo regenerar o sinal 
atenuado pela distância, ou seja, aumenta a potência do sinal para 
que consiga atingir grandes distâncias;
– 229 –
Sistemas operacionais, redes de computadores e banco de dados
d. concentrador (hub): tem como finalidade inter ligar vários computadores 
entre si. Por não comportar grandes volumes de dados, é recomen- 
dado para redes pequenas. Isso ocorre pelo fato de receber um sinal de 
um computador e enviálo a todos os outros computadores da rede;
 Fonte: Shutterstock.com/alarich
e. comutador (switch): é semelhante ao hub, com a diferença de que é 
otimizado, ou seja, o sinal recebido por ele é enviado para um com-
putador específico, sem que os outros recebam essa informação.
Fonte: Shutterstock.com/Sergii Korolko
 Saiba mais
Na comunicação entre esses dispositivos, temos quatro tipos 
de envio de dados: anycast, em que a informação é enviada 
e distribuída ao receptor mais próximo definido pelo roteador; 
broadcast,em que a informação é transmitida a muitos receptores 
ao mesmo tempo; multicast, em que a informação é enviada a 
vários receptores simultaneamente, utilizando a melhor estratégia 
de roteamento; e unicast, em que a transmissão da informação é 
feita a um único receptor (Wikipedia, [s. d.]).
– 230 –
Fundamentos da Informática
10.3.2 Bancos de dados
A tecnologia para comunicaçãoentre computadores caminha lado a 
lado com as soluções cada vez mais sofisticadas para armazenar e manipular 
dados. Com aplicações mais ou menos complexas, os bancos de dados são 
ferramenta indispensável no mundo corporativo, pois permitem a geração de 
informações de vital importância para a gestão do negócio. 
Um banco de dados é um conjunto de dados de mesma natureza, 
guardados em um mesmo local e sob um mesmo padrão de armazenamento, 
cuja manipulação permite gerar informação. A preocupação com a integridade e 
a segurança dos dados, bem como a padronização da semântica, é o que orienta 
um banco de dados.
10.3.2.1 Tipos de banco de dados
Existem quatro tipos básicos de bancos de dados: hierárquico, em 
rede, relacional e orientado ao objeto. Os dois primeiros estão praticamente 
em desuso. Os outros dois servem a Sistemas Gerenciadores de Bancos de 
Dados (SGBD), como MySQL ou PostgreSQL. Os SGBD começaram a ser 
desenvolvidos na década de 60 e são um conjunto de programas que permite 
ao usuário acessar e manipular os dados.
a. hierárquico: é organizado de cima para baixo, como uma árvore. Os 
registros são formados por campos, e cada campo pode conter apenas 
um valor. Esses registros se conectam por ligações. Os registros obe-
decem a uma subordinação – cada registro “pai” pode ter mais de um 
“filho”, mas cada “filho” só pode ter um “pai. Por exemplo, o regis-
tro “cliente” é formado pelos campos “nome” e “endereço”. O registro 
“encomenda” tem os campos “tipo de produto” e “quantidade”. Então, 
o registro “pai” (o cliente) pode ter mais de um “filho” (mais de uma 
encomenda), mas cada “filho” (a encomenda) só pode ter um “pai” (o 
cliente que fez o pedido). Essa estrutura de árvore é difícil de gerenciar 
quando aumenta muito o volume de dados.
– 231 –
Sistemas operacionais, redes de computadores e banco de dados
Departamento
Empregado
31 Pessoal 142
012 M. Santos 320 028 S. Silva 118 029 T. Melo 425
087 J. Furquin 370 093 P. Ferreira 135 098 R. Silva 226
073 F. Prates 497
35 Financeiro 143 38 Técnico 144
b. rede: é semelhante ao modelo hierárquico, com o diferencial de que 
cada registro pode ser subordinado a mais de um registro (como se 
fosse um “filho” ligado a mais de um “pai”);
Departamento
Empregado
012 M. Santos 320
028 S. Silva 118
029 T. Melo 425
087 J. Furquin 370
093 P. Ferreira 135
098 R. Silva 226
073 F. Prates 497
31 Pessoal 142
35 Financeiro 143
38 Técnico 144
c. relacional: os dados são armazenados em tabelas, formadas por 
linhas e colunas, e apresentados por meio de relações. Ao contrário 
do modelo hierárquico, em que é preciso começar pela raiz da 
“árvore”, no modelo relacional pode-se fazer perguntas e colher 
respostas em qualquer ponto. 
– 232 –
Fundamentos da Informática
Num Empregado Nome Empr Salário Departamento
012 M. Santos 1020 012
087 J. Furquin 980 027
028 S. Silva 789 011
093 P. Ferreira 852 013
029 T. Melo 825 009
098 R. Silva 1520 014
073 F. Prates 980 026
Empregado
Num Departamento Nome Departamento Ramal 
31 Pessoal 142
35 Financeiro 143
38 Técnico 144
Departamento
d. orientado a objetos: um objeto é definido por um conjunto de 
dados (atributos) e códigos (métodos). O estado de cada objeto é 
determinado por suas propriedades, que podem ser seus atributos 
próprios, as operações que pode executar ou as relações com outros 
objetos. Esse tipo de banco de dados é bastante adequado para 
tratar dados complexos (gráficos, textos, imagens).
– 233 –
Sistemas operacionais, redes de computadores e banco de dados
Funcionário
+ Matrícula: int
- Data de admissão: Date
+ Consultar vagas (): String
+ Cadastra veídulo (): String
+ emiti ticket(): String
+ Mamter tab de Pre (): String
+ Gerar Relatorio (): String
Estacionamento
+ Endereço: String
+ Qtd vagas: int
Cliente
+ Nome: String
+ CPF: int
Veículo
+ Tipo: String
+ Placa: int
10.3.2.2 Usuários de banco de dados
Para manipular um banco de dados, existem diferentes perfis de usuários, 
com atribuições e permissões de acesso distintas. A Wikipédia define essas 
funções como:
– 234 –
Fundamentos da Informática
a. administrador de banco de dados (data base administrator – DBA): 
tem a função de supervisionar e gerenciar os recursos fornecidos 
que são utilizados pelo banco de dados, além de permitir ou não, 
por parte dos usuários, o acesso aos dados;
b. analistas de banco de dados: são os projetistas, que montam a 
estrutura mais adequada para o armazenamento dos dados. Têm 
uma proximidade maior com os usuários finais para poder moldar 
o banco de dados, de acordo com o que necessitam;
c. usuários finais: são as pessoas que utilizam o banco de dados para 
inserir dados, consultar, modificar e gerar algum tipo de relatório.
10.3.2.3 Sistema de Gerenciamento 
de Banco de Dados (SGBD)
É uma coleção de programas que facilita a manipulação de uma base de 
dados. As principais funções de um SGBD são:
a. controle de redundância: evita que a mesma informação seja 
gravada em locais diferentes, o que ocasionaria um problema na 
atualização dos dados;
b. compartilhamento de dados: utiliza-se de um ambiente multiusu-
ário em que os dados são compartilhados em acessos simultâneos;
c. controle de acesso: cada usuário tem um tipo de permissão para 
acesso ao banco de dados, definido pelo administrador (DBA);
d. controle de transações: toda transação deve ser realizada sem 
falhas ou interrupções, como, por exemplo, a atualização de uma 
conta bancária;
e. múltiplas interfaces: há possibilidade de se programar, realizar consu- 
ltas e interagir por meio de menus em linguagem de fácil compreensão;
f. relacionamento entre dados: os dados são variados e estão 
interconectados de várias maneiras, representando um complexo 
relacionamento entre si;
– 235 –
Sistemas operacionais, redes de computadores e banco de dados
g. backup: recupera falhas e possibilita uma cópia de segurança da 
base de dados, para não haver perda.
Podese observar que um SGDB tem várias funcionalidades para que a 
informação, que é o principal objeto de armazenamento, esteja segura e possa 
ser facilmente acessada e utilizada.
 Saiba mais
Hoje, no mercado, temos muitos SGBDs de grande poder de 
armazenamento e segurança, como MySQL, PostgreSQL, 
Oracle, SQL Server e outros.
Na próxima seção, veremos como é feita a manipulação e definição dos 
dados por meio de comandos que utilizamos para ajudar na construção de 
uma tabela de geração de informação.
10.3.2.4 Structured Query Language (SQL)
A tarefa de manipular dados em um SGBD tornou-se extremamente 
complexa e exigiu uma solução que combinasse comandos lógicos e 
facilidade de uso pelos profissionais e usuários. Assim, a IBM desenvolveu, 
em meados dos anos 60 do século XX, o Structured Query Language (SQL), 
uma linguagem capaz de funcionar como interface e “ponte” entre o usuário 
e o SGBD. 
O SQL é composto de uma série de comandos, como “palavras de 
ordem” (todas de língua inglesa), que servem para:
 2 manipulação – chamado de DDL (Data Definition Language), 
inclui os comandos create e drop;
 2 definição de dados – chamado de DML (Data Manipulation Lan-
guage), como o insert, update, delete e select;
 2 controle de dados – chamado de DCL (Data Control Language), 
tem termos como grant e revoke e ajuda os usuários a construir 
tabelas e gerar informação coerente.
– 236 –
Fundamentos da Informática
O SQL também permite que sejam executadas tarefas como a gravação/
atualização de dados e o cancelamento de uma operação. Por exemplo, quando 
um dado é gravado, a confirmação dessa gravação é dada pelo comando 
commit. No entanto, se houver uma falha no momento dessa gravação, o 
sistema retorna ao passo anterior graças ao comando rollback.
As característicasda linguagem SQL possibilitam:
 2 a manipulação de várias tabelas;
 2 a união de uma instrução SQL dentro de outra instrução SQL;
 2 o uso simples, sem a necessidade de especificar o método de acesso 
aos dados;
 2 o acesso de vários usuários, com diferentes funções e permissões 
(administrador do banco de dados, especialista de banco de dados, 
programadores, usuário final);
 2 a utilização de uma interface para o uso interativo com o banco 
de dados.
Conclusão
Os sistemas operacionais são programas responsáveis por oferecer aos 
aplicativos um acesso facilitado e controlado ao hardware. Ao se salvar um 
documento, em um editor de texto, é o sistema operacional que detém o 
controle de onde este arquivo será armazenado, com que nível de permissão/
acesso, dentre outras características que envolvem uma comunicação mais 
próxima do hardware.
Uma rede é um conjunto de computadores e outros dispositivos 
interligados entre si, mesmo que distantes geograficamente, visando ao 
compartilhamento de recursos e de informações.
As redes são classificadas de acordo com a distância entre os computadores 
conectados a ela e recebem a denominação de redes locais (LAN – Local Area 
Network), redes metropolitanas (MAN – Metropolitan Area Network) e redes 
geograficamente distribuídas (WAN – Wide Area Network).
– 237 –
Sistemas operacionais, redes de computadores e banco de dados
Para estabelecer a conexão entre os computadores de uma rede, podem 
ser utilizadas as ligações em barramento, anel, ou estrela, com o suporte de 
um sistema físico que se utiliza de cabos coaxiais, trançados ou de fibra ótica, 
pelos quais os dados são transmitidos. 
O armazenamento e manipulação de dados cada vez mais complexos e 
em quantidades cada vez maiores é outra demanda do mundo contemporâneo, 
que é atendida pelos Sistemas de Gerenciamento de Banco de Dados (SGBD). 
Podendo ser montados de várias maneiras (hierárquico, rede, relacional e 
orientado ao objeto), os bancos de dados são manipulados por diferentes 
perfis de usuários, cada qual com uma permissão de acesso, do administrador 
com plenos poderes (DBA – data base administrator) até o usuário final, que 
tem direito de fazer apenas consultas.
Como uma coleção de programas que facilita a manipulação de uma 
base de dados, o SGBD tem funcionalidades como evitar a gravação de dados 
em duplicidade, oferecer múltiplas interfaces e gerar uma cópia de segurança 
(backup) de tudo o que é gravado.
Para que o usuário e o banco de dados “conversem” em uma mesma 
linguagem, foi criado o Structured Query Language (SQL), com comandos de 
fácil entendimento para manipulação, definição e controle dos dados.
Sistemas de informação: 
conceito, componentes 
e tipologia
A informação é o cerne de qualquer organização. É com 
base nela que decisões são tomadas, novos negócios são planejados, 
processos são estabelecidos, pessoas são contratadas, objetivos são 
traçados e investimentos são executados. Para tanto, ela tem que ser 
eficiente, precisa, significativa e útil.
Por causa disso, um dos maiores desafios dos chamados 
sistemas de informação (SI) é assegurar a qualidade e agilidade 
dessa informação, já que dela depende o crescimento e o sucesso de 
qualquer empresa. 
11
– 240 –
Fundamentos da Informática
11.1 Dados, informação e sistemas
Um dado é um elemento primário, que por si só não conduz à com-
preensão de um determinado fato ou situação. Ao processar esses dados, 
ou seja, ao reuni-los, organizá-los e analisá-los, é que geramos uma infor-
mação útil.
Assim, informação é um conjunto de dados com algum significado, ou 
seja, que reduz a incerteza ou que aumenta o conhecimento a respeito de 
algo. A informação é uma mensagem com significado útil em um determi-
nado contexto, disponível para o uso e que proporciona orientação às toma-
das de decisão.
Ralph Stair e George Reynolds afirmam, em sua obra Princípios de 
Sistemas de Informação (Stair; Reynolds, 2002), que a informação é um 
conjunto de fatos organizados de tal forma que adquirem valor adicional, 
além do valor do fato em si. Isso significa que, na maioria das vezes, é mais 
importante a maneira como uma informação é utilizada, ou o meio em que 
é aplicada, do que o valor de seu conteúdo. Em outras palavras, a informa-
ção é o dado trabalhado que permite tomar decisões.
Porém, para o processo de transformação de dado em informação, é 
necessário o conhecimento. O conhecimento são regras e procedimentos usa-
dos para selecionar, organizar e manipular os dados, para tornálos úteis e 
para atingir um resultado específico (Stair; Reynolds, 2002). Em resumo, 
a informação pode ser considerada um dado tornado mais útil por meio da 
aplicação do conhecimento.
Já os sistemas são elementos interligados com a função de produzir ou 
obter determinados objetivos ou resultados específicos. 
11.2 Definição de sistemas de informação
Para Jane Price Laudon e Kenneth Laudon, ambos mestres e doutores em 
sistemas de informação pelas renomadas universidades americanas Columbia, 
Stanford e Harvard, sistemas de informação (SI) são “um conjunto de com-
ponentes interrelacionados que trabalham juntos na coleta, recuperação, pro-
cessamento armazenamento e distribuição de informações com a finalidade 
– 241 –
Sistemas de informação: conceito, componentes e tipologia
de facilitar o planejamento, o controle, a coordenação, a análise e o processo 
decisório em organizações” (Laudon; Laudon, 2004).
O principal objetivo de um sistema assim é obter informações que possam 
atender às necessidades de uma organização. Essas necessidades podem ser para 
planejamento, controle de processos e tomada de decisões em diferentes âmbi-
tos, em empresas públicas, privadas, escolas, departamentos de Governo etc.
Stair e Reynolds dizem que os SI são “uma série de elementos ou com-
ponentes interrelacionados que coletam (entrada), manipulam e armazenam 
(processo), disseminam (saída) os dados e informações e fornecem um meca-
nismo de feedback” (Figura 1) (Stair; Reynolds, 2002).
Figura 1 Atividades de um sistema de informação.
Entrada SaídaProcessamento
Ambiente
Feedback
 2 Entrada (input): alimenta o sistema, captando e reunindo da- 
dos primários.
 2 Processamento: é a interação entre os dados que foram inseridos, 
convertendo-os em saídas.
 2 Saída (output): é o resultado do processamento, traduzido em 
informações precisas, apropriadas e atuais.
 2 Feedback: é uma forma usada para refinar ou ajustar se algo estiver 
errado nos dados de entrada.
A qualidade da informação produzida a partir de dados brutos é mais 
importante do que sua quantidade. Para que se garanta essa qualidade, é fun-
damental avaliar os dados que se está inserindo – se eles têm utilidade, se há 
dados demais ou, ao contrário, se são insuficientes. O quadro a seguir traz 
– 242 –
Fundamentos da Informática
alguns exemplos de sistemas de informação em uma empresa.
Quadro 1 Exemplos de sistemas de informação.
Componentes
Funções 
gerenciais
Dados Sistemas de informação
Pessoas Administração de RH
Empregados, cargos, 
qualificação, etc.
Folha de pagamento, 
plano de carreira, etc.
Dinheiro Administração Financeira
Contas a pagar, contas 
a receber, orça-
mento, custos, etc.
Contabilidade, 
custos, orçamento, 
contas a pagar, etc.
Materiais Administração de Materiais
Itens, fornecedores, 
estoques, ordens 
de compra, etc.
Controle de estoques, 
controle de compras, etc.
Sistemas Administração de Sistemas
Programas, roteiros 
de operação, etc.
Controle de 
sistemas, controle de 
operação, controle de 
manutenção, etc.
Mercado Administração de Marketing
Pesquisas, demandas, 
concorrentes, etc.
Maladireta, 
reclamações, 
pesquisas, previsões, etc.
Clientes Administração de VendasClientes, vendas, etc.
Faturamento, estatísticas, 
controle de metas, etc.
Fonte: adaptado de Moreira ([s.d.]) 
11.3 Componentes de sistemas de informação
Há três elementos que trabalham juntos para que um sistema de infor-
mação exista: organizações, pessoas e tecnologias (Laudon; Laudon, 1999).
11.3.1 Organizações
As necessidades de gestão dos diversos aspectos que fazem parte da opera-
ção diária de organizações de qualquer natureza (Governo, empresas privadas, 
organizações não-governamentais etc.) modelam os sistemas de informação 
(SI). São essas demandas e problemas, internos e externos, que determinam 
o que precisa ser feito.
– 243 –
Sistemas de informação: conceito, componentes e tipologia
11.3.2 Pessoas
Em sistemas baseados em computador, as pessoas são o elemento mais 
importante, pois são elas que gerenciam, programam e executam os proces-
sos, administrando todo o SI.
11.3.3 Tecnologias
A tecnologia é o meio utilizado para transformar dados em informa-
ções úteis. De maneira rudimentar, há sistemas manuais, com auxílio de 
caneta e papel, mas bastante limitados à manipulação de uma quantidade 
pequena de dados.
Com tecnologias mais sofisticadas, a sistematização de informações evo-
luiu para o uso do computador como ferramenta. Os sistemas computadori-
zados são compostos por hardware, software, banco de dados, comunicação 
de dados ou redes de dados, pessoas e procedimentos (Stair; Reynolds, 2002). 
 2 Hardware: é o equipamento físico (computador) usado para 
executar as atividades de entrada, processamento e saída em um 
sistema de informação. Os dispositivos de entrada podem ser 
teclado, mouse, câmera, microfone e vários outros. Os dispositivos 
de processamento envolvem unidade central de processamento, 
memória e armazenagem. Já os dispositivos de saída podem ser 
monitor e impressoras.
 2 Software: é um conjunto de instruções que faz o computador 
funcionar. Consiste em programas que permitem ao computador 
processar dados e executar tarefas exigidas pelos sistemas 
de informação.
 2 Banco de dados: é um sistema de armazenamento e organização de 
dados que são utilizados no processamento (conforme já descrito 
no capítulo 10).
 2 Redes de dados: permitem a ligação de diferentes hardwares e são 
usadas para conectar e transferir dados de um ponto a outro. Uma 
rede permite a ligação de dois ou mais hardwares independentemente 
do local em que estejam (conforme já descrito no capítulo 10).
– 244 –
Fundamentos da Informática
 2 Pessoas: são todos os envolvidos com o sistema, ou seja, administra-
dores, usuários, desenvolvedores, etc.
 2 Procedimentos: são as instruções (estratégias, objetivos, métodos, 
regras) para a operação do sistema.
Os sistemas de informação devem servir a um propósito maior do que 
apenas executar tarefas bem definidas – sua missão mais nobre é fornecer 
recursos às pessoas para que executem suas atividades de forma mais eficaz 
e eficiente.
Quando implantam um SI, as empresas buscam alguns benefícios:
 2 maior segurança
 2 vantagens competitivas
 2 menos erros
 2 maior produtividade
 2 redução de custos
11.4 Sistemas de informação: tipologia
Os computadores, no início, eram usados apenas para aplicações simples 
nos negócios, como reduzir custos.
Os professores norteamericanos Jane Price Laudon e Kenneth Laudon, 
ambos doutores em sistemas de informação, descrevem as empresas como uma 
coleção de processos interrelacionados que organizam, coordenam e têm foco 
no trabalho necessário para produzir um produto e/ou serviço de qualidade.
Os sistemas de informação utilizados no universo corporativo servem 
áreas funcionais específicas das organizações. Diversos tipos de sistemas são 
desenvolvidos para resolver diferentes problemas em diferentes níveis das 
organizações (Laudon; Laudon, 1999).
11.4.1 Sistemas organizacionais
O uso dos sistemas organizacionais tem sido uma ferramenta muito 
– 245 –
Sistemas de informação: conceito, componentes e tipologia
importante para as empresas na disputa por uma fatia de mercado em cenários 
complexos e competitivos. Esses sistemas lidam com problemas internos e 
externos e ajudam a programar as melhores decisões em relação à produção, 
ao planejamento, ao desenvolvimento de produtos e novos negócios, ao 
controle de processos e às operações gerenciais.
Uma organização, na opinião de James O’Brien, professor de Ciência da 
Computação da Universidade da California em Berkeley, é um sistema em 
que os recursos econômicos são transformados por processos organizacionais 
em bens e serviços (O’Brien, 2004). Em outras palavras, uma organização se 
baseia em processos de negócios interdependentes que trabalham para gerar 
produtos e/ou serviços.
O papel dos sistemas de informação é agilizar os processamentos 
operacionais, gerenciais e estratégicos nas organizações. Para a Sociedade 
Brasileira de Computação, os sistemas de informação podem ser definidos como 
“uma combinação de recursos humanos e computacionais que interrelacionam 
a coleta, o armazenamento, a recuperação, a distribuição e o uso de dados com o 
objetivo de eficiência gerencial (planejamento, controle, comunicação e tomada 
de decisão) nas organizações. Adicionalmente, os sistemas de informação 
podem também ajudar os gerentes e os usuários a analisar problemas, criar 
novos produtos e serviços e visualizar questões complexas” (SBC, 1998).
11.4.1.1 Gestão da informação
Os sistemas organizacionais se baseiam em informação, que é um ele-
mento crucial em todos os níveis hierárquicos de uma companhia e que 
permite o acompanhamento de processos, as operações diárias e a tomada 
de decisões. O principal desafio é definir a informação correta, em tempo 
hábil e no local adequado. Para tanto, é necessário que a empresa controle 
a busca, a coleta e a manutenção de informações de qualidade sobre seu 
próprio negócio.
Essa estratégia é o que permite a uma empresa, também, conhecer 
melhor o mercado e identificar as vantagens competitivas que podem ser 
exploradas, de modo a expandir e perpetuar seu negócio.
Segundo o professor francês François Jakobiak, autor de livros sobre 
informação estratégica, inteligência econômica e inovação, a gestão da infor-
mação pode ser dividida em quatro níveis: crítica, mínima, potencial e exces-
siva (Jakobiak, 1995).
 2 Informação crítica: vital para a organização, exigida para decidir 
que ações devem ser tomadas para alcançar os objetivos prioritá-
rios, fatores críticos de sucesso.
 2 Informação mínima: essencial para uma boa gestão da organização 
porque permite a execução de boas ações.
 2 Informação potencial: possibilita antecipar e desenvolver vantagens 
competitivas.
 2 Informação excessiva: informação inútil para o desenvolvimento 
da organização.
Define-se gestão da informação como a aplicação de princípios 
administrativos para aquisição, organização, controle, transmissão e uso da 
informação para o funcionamento das organizações (Tarapanoff, [s.d.]). A 
gestão da informação preocupase com a qualidade, com o uso e a segurança 
da informação no desempenho organizacional.
Dentro de uma organização, cada área tem diferentes interesses, neces-
sidades e características, o que exige a adoção de diferentes tipos de sistemas 
para gerenciar as informações. 
11.4.2 Tipologia dos sistemas de informação
Existem vários tipos de sistemas de informação, cada qual com cri-
térios e combinações diferentes, de acordo com o objetivo que pretende 
alcançar. Em comum, no entanto, todos eles têm o papel de apoiar a 
tomada de decisões e as atividades nos diferentes níveis e funções organi-
zacionais.
Os quatro principais níveis de atuação dos sistemas de informação 
podem ser vista na Figura 2.
– 247 –
Sistemas de informação: conceito, componentes e tipologia
Figura 2 Áreasde atuação dos sistemas de informação.
Fonte: adaptado de O’Brien (2004)
Segundo Jane e Kenneth Laudon, os principais tipos de sistemas são: 
Sistemas de Processamento de Transações (SPT), Sistemas de Informação 
Gerencial (SIG), Sistemas de Apoio à Decisão (SAD), Sistemas de Apoio ao 
Executivo (SAE), Sistemas de Automação de Escritório (SAE) e Sistemas de 
Trabalhadores do Conhecimento (STC) (Laudon; Laudon, 1999).
11.4.2.1 Sistemas de Processamento de Transações – SPT
Esses sistemas trabalham no nível operacional da organização e respon-
dem pelo processamento, execução, manutenção e registro das transações 
organizacionais rotineiras, gerando relatórios utilizados por toda a empresa.
 
 
Exemplos de SPT: controle de estoque, ven-
das, contas a receber, folha de pagamento, etc.
 
– 248 –
Fundamentos da Informática
Para que possa fornecer informações corretas e confiáveis, um SPT pre-
cisa ser atualizado continuamente. Suas principais características, conforme 
mostrado na Figura 3, são:
 2 entrada e alimentação de dados;
 2 processamento e armazenamento de dados;
 2 geração de documentos e relatórios.
Figura 3 Modelo de sistema de processamento e transação.
Fonte: Laudon; Laudon (1999).
11.4.2.2 Sistemas de Informação Gerencial – SIG
Esses sistemas de nível gerencial foram concebidos para produzir rela-
tórios sobre áreas funcionais (contabilidade, finanças, marketing, vendas, 
Recursos Humanos) com informações relevantes para gerentes de nível inter-
mediário (Laudon; Laudon, 1999). Geralmente, dependem das informações 
fornecidas pelo SPT (Figura 4).
Figura 4 Utilização dos dados gerados pelo SPT.
 Fo
nt
e:
 a
da
pt
ad
o 
de
 L
au
do
n;
 
L
au
do
n 
(1
9
9
9
).
– 249 –
Sistemas de informação: conceito, componentes e tipologia
Os SIG geram relatórios estruturados e pré-definidos, que servem de 
subsídio para que os níveis gerenciais tomem decisões sobre operações regula-
res e cotidianas de uma empresa.
11.4.2.3 Sistemas de Apoio à Decisão – SAD
Também são sistemas que dão apoio e assistência ao nível gerencial, 
mas para situações que se alteram com rapidez e para as quais não há um 
modelo ou procedimento pré-definido. Os SAD auxiliam na tomada de deci-
são de curto prazo para problemas complexos e específicos, com alto grau de 
imprevisibilidade. Com um SAD, por exemplo, é possível realizar de maneira 
informatizada um diagnóstico médico preliminar baseado nos sintomas do 
paciente, ou planejar e monitorar a irrigação de um campo plantado (época, 
duração, quantidade de água etc.) com base no cruzamento de dados de esta-
ções meteorológicas. Ou seja, quando há cenários que mudam a todo ins-
tante, o SAD é poderosa ferramenta para avaliar esse cenário e poder tomar 
a melhor decisão.
11.4.2.4 Sistemas de Apoio ao Executivo – SAE
Voltados à gerência de alto nível (estratégico), os SAE agrupam dados 
de várias fontes (inclusive externas) e oferecem um ambiente complexo a ser 
considerado, que inclui projeção de tendências, análise dos concorrentes e 
redesenho de processos, dentro de uma abrangente visão mercadológica. Os 
softwares que auxiliam nesse processo normalmente oferecem várias possibi-
lidades de cruzamento de dados e projeção de resultados por meio da visuali-
zação em gráficos, diagramas e outras simulações. Seu foco é o planejamento 
estratégico e exige do profissional raciocínio lógico, avaliação e bom senso na 
análise das informações e tomada de decisões.
11.4.2.5 Sistemas de Automação de Escritório – SAE
A produtividade é o foco dos SAE, que dão suporte aos usuários para a 
organização diária, principalmente em tarefas que envolvem documentos e 
comunicação. Exemplos de SAE são planilhas matemáticas, editores de texto, 
softwares gráficos e navegadores web.
– 250 –
Fundamentos da Informática
11.4.2.6 Sistemas de Trabalhadores do Conhecimento – STC
Os trabalhadores do conhecimento são os profissionais que constroem 
seu conhecimento sobre a base da experiência prática. Seu papel nas organiza-
ções é alimentar a pesquisa, buscar novos conhecimentos e propor inovações. 
Atuam como agentes de mudança, ao fazer uso das mais recentes tecnologias 
e estar antenados com novidades do mercado. Os STC servem como ferra-
mentas para que esses profissionais desenvolvam novos projetos, produtos e 
processos. Exemplos de STC são simuladores de realidade virtual e AutoCAD 
(software para projetos arquitetônicos).
Todos esses sistemas são interdependentes e constituem um amplo dia-
grama de colaboração. Por exemplo, os SPT fornecem informações para vários 
outros sistemas de níveis mais elevados, que por sua vez também atuam como 
fonte para sistemas que atendem níveis hierárquicos superiores (Figura 5).
Figura 5 Modelo de relação entre os sistemas.
F
on
te
: a
da
pt
ad
o 
de
 L
au
do
n 
e 
L
au
do
n 
(1
9
9
9
).
11.4.3 Sistemas mais conhecidos 
Entre os sistemas de informação organizacional, os mais conhecidos são o 
BI, o CRM e o ERP, utilizados por muitas empresas de médio e grande porte.
 2 BI – Business Intelligence, ou Inteligência de Negócios. Sua função 
– 251 –
Sistemas de informação: conceito, componentes e tipologia
é coletar dados de diversas fontes, organizá-los e analisá-los para 
subsidiar a tomada de decisões estratégicas para o negócio. Os 
dados considerados referem-se a todos os processos internos da 
empresa e também ao mercado e aos concorrentes, monitorando 
itens como vantagens competitivas, fraquezas, posicionamento de 
vendas e maneiras de atuação dos principais competidores. Com 
isso, é possível fazer uma avaliação comparativa das decisões e 
escolhas da própria empresa e planejar seu crescimento e sucesso 
de maneira inteligente.
 2 CRM: Customer Relationship Management, ou sistema de geren-
ciamento do relacionamento com o cliente. Esse sistema privile-
gia o cliente como porta de entrada para informações, permitindo 
mapear preferências de consumo, frequência de compra, compor-
tamento e outros dados que facilitam a tarefa de criar e manter 
um bom relacionamento com quem já consome seus produtos ou 
serviços. A partir daí, é possível formular estratégias de negócio, 
entendendo e antecipando as necessidades dos clientes.
 2 ERP: Enterprise Resource Planning, ou sistemas integrados de ges-
tão empresarial. Essa ferramenta integra os diversos setores de uma 
empresa, consolidando em um lugar só o conjunto de informações 
que afeta o negócio. Com esse sistema, o gestor consegue enxergar 
o todo e consolidar o que antes eram “ilhas de informação”. 
Conclusão
Dados, por si só, não levam à compreensão de um determinado fato 
ou situação. Somente quando processados – reunidos, analisados, transfor-
mados – é que podem gerar informação, ou seja, um conjunto com algum 
significado e que aumenta o conhecimento a respeito de algo. Um sistema 
são elementos interligados com a função de produzir ou obter determinados 
objetivos ou resultados específicos.
Os sistemas de informação (SI) dependem de equipamentos, pessoas, 
meios de comunicação e uma série de normas e processos a fim de transfor-
mar dados brutos em informação útil, que possa servir à tomada de decisões 
– 252 –
Fundamentos da Informática
nas empresas. Esses sistemas coletam dados (entrada), manipulam e arma-
zenam (processo) e disseminam (saída) informações, fornecendo ainda um 
mecanismo de feedback.
Três elementos compõem a estrutura de um SI: organizações (estrutu-
radas e hierárquicas), pessoas (administradores dos SI) e tecnologias (meio 
usado para transformar dados em informações úteis).
As tecnologias computadorizadas que hoje atendem as demandas do 
mundo corporativo dependem de seis componentes: hardware (equipamento 
físico usado para executar as atividades de entrada,

Mais conteúdos dessa disciplina