Buscar

logica e organizacao de comput Unid 1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1
UNIDADE 1
HISTÓRICO DA COMPUTAÇÃO
OBJETIVOS DE APRENDIZAGEM
PLANO DE ESTUDOS
A partir desta unidade, você será capaz de:
• conhecer os principais fatos históricos da computação;
• compreender os conceitos fundamentais da computação;
• entender a área de informática de maneira sistêmica.
Esta unidade de ensino está dividida em três tópicos, sendo que no final de 
cada um deles você encontrará atividades que contribuirão para a apropriação 
dos conteúdos.
TÓPICO 1 – BREVE HISTÓRICO
TÓPICO 2 – GERAÇÃO DOS COMPUTADORES
TÓPICO 3 – TIPOS DE COMPUTADORES E SEUS COMPONENTES
2
3
TÓPICO 1
UNIDADE 1
BREVE HISTÓRICO
1 INTRODUÇÃO
Embora os recursos tecnológicos disponíveis atualmente possam parecer 
extremamente novos e atuais, o processo de desenvolvimento da tecnologia percorreu 
um longo caminho para que pudéssemos nos beneficiar de tais tecnologias.
A informática nos permite revolucionar a forma que vivemos e agimos e 
conseguimos cada vez mais benefícios com a sua utilização. Os computadores nos 
auxiliam nas escolas, escritórios, indústrias, hospitais, casas entre outros lugares, 
tornando-se uma ferramenta indipensável para muitas pessoas. 
Se a informática nos auxilia em todos os lugares, por que não entendermos 
algumas das características da evolução do computador?
Vamos à leitura!
2 HARDWARE
Antes de acompanharmos a evolução do hardware, vamos descrever 
hardware. Hardware é a parte física do computador, isto é, tudo o que “pode ser 
tocado”, como, gabinete, monitor, teclado, mouse, processadores, memórias, disco 
rígido etc. 
Sabemos que os computadores estão em constante transformação, por isso 
a importância de conhecermos sua história.
Podemos dividir os acontecimentos de forma cronológica e de acordo com 
seus componetes básicos. Vejamos a divisão:
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
4
 Dispositivos mecânicos.
 Dispositivos eletromecânicos.
 Dispositivos eletrônicos.
 Computadores com vávulas, com transistores, com circuitos integrados e com 
itegração em larga escala.
Agora vamos entender cada etapa desta evolução.
2.1 DISPOSTIVOS MECÂNICOS
Um computador é uma máquina que trabalha com dados e informações 
sob a forma de números. O ser humano desde os primórdios da humanidade até 
a atualidade, buscam constantemente desenvolver ferramentas que auxiliam no 
processo de contagem.
Os homens das cavernas, contavam com as únicas ferramentas de 
contagem que conheciam: seus dedos das mãos e pés. Estas foram consideradas as 
primeiras ferramentas de contagem. Logo o homem percebeu que outros objetos 
poderiam ser usados para fazer a contagem de números maiores. Algumas das 
outras ferramentas de contagem que foram utilizadas ao longo do tempo foram as 
pedras, os nós em cordas, ossos, paus, entre outros. Essas pessoas utilizavam essas 
ferramentas de contagem para contar suas posses e também para a contagem do 
tempo, como nossos calendários nos dias de hoje.
É importante distinguir o início dos ábacos, conhecidos como placas de 
contagem ou calculadora decimal manual. O ábaco é um pedaço de madeira, 
pedra ou metal com sulcos esculpidos ou linhas pintadas entre os quais pérolas, 
pedras ou discos de metal são movidos. Tanto o ábaco como a placa de contagem, 
são auxiliares mecânicos utilizados para contagem, eles não são calculadoras. A 
pessoa que opera o ábaco executa cálculos em sua cabeça e usa o ábaco como um 
auxílio físico para manter o controle da contagem.
O mais velho ábaco é o tablet Salamis (originalmente pensado para ser uma placa 
de jogo), usada pelos babilônios por volta de 300 a.C., descoberto em 1846 na ilha de Salamina.
UNI
TÓPICO 1 | BREVE HISTÓRICO
5
O ábaco foi inventado há cerca de 4.000 anos atrás, pelos chineses. Foi 
a primeira máquina utilizada para contagem e cálculo. É preciso uma grande 
quantidade de tempo e prática para aprender a dominar o uso de um ábaco. 
FIGURA 1 – MODELO DE ÁBACO
FONTE: Monteiro (2014)
No início do século 17, John Napier, um matemático escocês, inventou 
outra ferramenta de cálculo. Ela tinha tiras marcadas de madeira ou osso, lado 
a lado, para multiplicar e dividir. Esta ferramenta tornou-se conhecida como 
"Ossos de Napier". 
Em 1642, com 19 anos de idade, um matemático francês chamado Blaise 
Pascal, inventou a Pascaline. A Pascaline é conhecida como a primeira calculadora 
mecânica e automática. Pascal inventou a Pascaline para facilitar o trabalho de seu 
pai como contador de imposto. A máquina às vezes chamada de La Pascaline ou 
máquina de Pascal, nunca se tornou popular, primeiro porque quebrou muitas 
vezes e seu inventor era a única pessoa que poderia consertá-la. Em segundo lugar, 
era lenta, e em terceiro, os funcionários não a utilizavam porque estavam com 
medo de que poderia substituí-los em seus trabalhos.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
6
FIGURA 2 – BLASE PASCAL
FONTE: Disponível em: <http://educacao.uol.com.br/biografias/blaise-
pascal.htm>. Acesso em: 2 mar. 2016.
Pascal mais tarde tornou-se famoso em matemática e filosofia, mas ele 
ainda é lembrado por seu papel na história do computador. Em sua homenagem, 
há uma linguagem de computador chamada Pascal.
Em 1673, o inventor alemão Gottfried Leibniz aperfeiçoou a calculadora 
Leibniz. Leibniz entrou em uma universidade com 15 anos de idade e recebeu 
seu diploma de bacharel aos 17 anos. Esta máquina também era uma máquina 
de calcular, mas muito superior à de Pascal. Essa calculadora fazia mais do que 
apenas somar e subtrair. A Calculadora Leibniz também poderia multiplicar, 
dividir e encontrar raízes quadradas. 
FIGURA 3 – CALCULADORA LEIBNIZ
FONTE: Disponível em: <http://ds-wordpress.haverford.edu/bitbybit/bit-by-bit-
contents/chapter-one/1-8-leibniz-and-the-stepped-reckoner/>. Acesso em: 2 mar. 
2016.
TÓPICO 1 | BREVE HISTÓRICO
7
Em 1801, Jacquard inventou o tear Jacquard. Era uma máquina de tecelagem 
que foi controlada por cartões perfurados. Enquanto o tear estava sendo bombeado, 
cartões com buracos foram ligados em conjunto de um padrão através do qual cordas 
de fios eram alimentados automaticamente. 
Sua invenção assustou outros tecelões porque com este tear o pano era 
produzido mais rápido e melhor do que com a mão. Por este motivo a casa e tear 
Jacquard foi incendiada.
Anos depois, variações sobre cartões perfurados de Jacquard foram utilizados 
em vários tipos de máquinas, incluindo a representação da música em pianos 
automáticos, bem como o armazenamento de programas para computadores.
FIGURA 4 – TEAR DE JACQUARD
FONTE: Disponível em: <http://addiator.blogspot.com.br/2011/10/jacquards-loom-
and-stored-programme.html>. Acesso em: 2 mar. 2016.
No início da década de 1820, o matemático Inglês Charles Babbage, projetou 
uma máquina de computação chamada de máquina de diferenças. Esta máquina 
era usada no cálculo e impressão de tabelas de matemática simples. Na década 
de 1830, ele projetou uma segunda máquina de computação chamada Máquina 
Analítica. Esta máquina era utilizada no cálculo dos problemas complicados, 
seguindo um conjunto de instruções.
A Máquina Analítica era um computador mecânico que resolvia qualquer 
problema matemático. 
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
8
Mesmo a máquina analítica sendo totalmente mecânica, possuía os mesmos 
componentes de um computador atual, tais como: memória, processador e saída 
para um perfurador de cartões (MONTEIRO, 2014).
FIGURA 5 – MÁQUINA ANALÍTICA
FONTE: Disponível em: <http://history-computer.com/Babbage/AnalyticalEngine.html>. 
Acesso em: 2 mar. 2016.
2.2 DISPOSTIVOS ELETROMECÂNICOS
A partir da invenção do motor elétrico surgiu uma grande quantidade de 
máquinas de somar acionadas por motores elétricos baseados nos princípios do 
funcionamento da máquina de Pascal. 
Em 1890, 50 anos após a morte deCharles Babbage, Herman Hollerith 
inventou uma máquina chamada de máquina de tabulação, usando notas que 
foram deixadas por Babbage.
TÓPICO 1 | BREVE HISTÓRICO
9
Antes desta invenção, demorava quase oito anos para levantar as 
informações do censo nos Estados Unidos. A máquina Tabuladora usava cartões 
perfurados para registrar e classificar dados ou informações. Cada buraco 
perfurado significava algo. Aproximadamente 65 cartões poderiam ser passados 
através deste computador em um minuto, e em 1890 foram necessários apenas 2,5 
anos para completar o Censo EUA.
Hollerith não parou com este invento. Ele começou uma empresa com o 
nome de Tabulating Machine Company. Eventualmente, esta empresa mudou seu 
nome para International Business Machines (IBM) - uma das maiores empresas de 
informática do mundo.
FIGURA 6 – MÁQUINA TABULADORA
FONTE: Disponível em: <http://www.officemuseum.com/data_processing_machines.
htm>. Acesso em: 2 mar. 2016.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
10
2.3 COMPONETES ELETRÔNICOS
Em 1930, Vannevar Bush lançou o primeiro "computador" eletrônico nos 
Estados Unidos. Era um dispositivo analógico, isto é, poderia medir quantidades 
que mudavam de forma contínua, tais como a temperatura e a pressão do ar. Eram 
utilizados tubos a vácuo para alternar sinais elétricos que executavam cálculos. 
A máquina de Bush poderia fazer 25 cálculos em poucos minutos. Para mostrar 
os resultados, uma caneta fixa acima de uma mesa de desenho foi usada para 
desenhar uma curva em um gráfico.
O Analisador Diferencial pesava 100 toneladas, utilizava 2000 tubos a 
vácuo, milhares de relés, motores, e cerca de 200 milhas de arame.
FIGURA 7 – MÁQUINA DE BUSH
FONTE: Disponível em: <http://www.kerryr.net/pioneers/gallery/ns_bush5.htm>. 
Acesso em: 2 mar. 2016.
A próxima grande invenção na história da computação começou em 1937. 
Naquele ano, Howard Aiken delineou um plano para uma máquina que poderia 
executar problemas matemáticos envolvendo números muito grandes. Era um 
dispositivo digital ao invés de analógico.
Em 1944, a IBM pagou engenheiros para construir a máquina de Aiken. 
Chamado Mark I, foi composto por 78 máquinas de somar e calculadoras de mesa 
que foram ligadas por quase 500 milhas de fios. Em um segundo, o Mark I poderia 
adicionar três números de oito dígitos e podia imprimir os seus resultados em 
cartões perfurados ou em uma máquina de escrever elétrica.
TÓPICO 1 | BREVE HISTÓRICO
11
A máquina tinha alguns inconvenientes como: era enorme – 51 pés de 
comprimento e 8 pés de altura. Seus 3.000 interruptores elétricos faziam um 
barulho terrível. O Mark I era caro e complicado para construir. Afinal, ele tinha 
um milhão de peças e pesava cerca de 5 toneladas.
Um dos principais programadores para o Mark I era uma mulher, Grace 
Hopper. Hopper encontrou o primeiro "bug" de computador: uma mariposa 
morta que tinha entrado no Mark II e cujas asas estavam bloqueando a leitura dos 
buracos na fita de papel. A palavra "bug" foi usada para descrever um defeito, pelo 
menos desde 1889, mas Hopper é creditada por inventar a palavra "depuração" 
para descrever o trabalho para eliminar as falhas do programa (DECATUR CITY 
SCHOOLS, 2008). 
12
RESUMO DO TÓPICO 1
Maravilha! Conseguimos um avanço fantástico ao cumprirmos mais esta 
tarefa. Você é a pessoa mais interessada em rever um pouco mais daquilo que 
discutimos neste tópico.
• Neste tópico pudemos rever o conceito de hardware.
• Vimos também que em função da necessidade de tornar as operações 
matemáticas cada vez mais rápidas e precisas surgiram os primeiros dispositivos 
de automação de cálculos, como o ábaco e seus similares. A partir da invenção 
do ábaco estava plantada a pedra fundamental sobre a qual se desenvolveria 
todo o restante da história da informática.
• Um dos primeiros projetos de calculadoras de que há registros foi materializado 
por Blaise Pascal numa calculadora mecânica com capacidade apenas para 
somar e subtrair.
• A partir desta iniciativa, novos pesquisadores se interessaram pelo assunto e 
inicia-se uma trajetória para a evolução.
• Charles Babbage com seu fatástico projeto cria a máquina analítica. 
• Não podemos nos esquecer da primeira programadora da história.
• Através das máquinas tabuladoras nasce a IBM.
• E para completar a evolução daquele período, surgiram os primeiros 
componentes eletrônicos. 
13
AUTOATIVIDADE
1 Os primeiros ábacos eram feitos com fios verticais paralelos pelos quais o 
operador podia fazer deslizar sementes secas. Quem foram os inventores 
do ábaco?
a) Chineses
b) Incas
c) Romanos
d) Índios 
2 A calculadora mecânica desenvolvida por Blaise Pascal é considerada um 
marco no processo de criação e evolução de dispositivos de automação de 
cálculos. Porém, a calculadora de Pascal, denominada Pascalina, permitia 
realizar apenas as operações de soma e subtração. Algum tempo depois, 
outro pesquisador contruiu uma calculadora que efetuava também as 
operações de divisão e multiplicação. Qual o nome deste pesquisador?
3 Descreva o significado da palavra bug, para a área da computação.
14
15
TÓPICO 2
GERAÇÃO DOS COMPUTADORES
UNIDADE 1
1 INTRODUÇÃO
Em 1946, pequenas vias eletrônicas chamadas circuitos começaram a 
realizar a contagem que antes era feita por engrenagens e outras peças mecânicas. 
Com cada nova geração, o circuito tornou-se menor e mais avançado do que a 
geração anterior. Como resultado da miniaturização, a velocidade, potência e 
memória dos computadores aumentaram proporcionalmente. Novas descobertas 
estão sendo constantemente desenvolvidas, as quais afetam a maneira como 
vivemos, trabalhamos e nos divertirmos.
2 PRIMEIRA GERAÇÃO: 1945-1956
Os computadores da primeira geração eram enormes, lentos, caros e muitas 
vezes pouco confiáveis. Em 1946, dois americanos, Presper Eckert e John Mauchly 
construiram o ENIAC (Electronic Numerical Integrator and Computer) computador 
eletrônico que utilizou tubos de vácuo em vez dos interruptores mecânicos. O ENIAC 
usou milhares de tubos de vácuo, que ocupava muito de espaço e emitia uma grande 
quantidade de calor. O ENIAC levou à construção de outros tipos de computadores, 
como do tipo de tubo a vácuo, como o EDVAC (Electronic Discrete Variable Automatic 
Computer) e o UNIVAC I (Universal Automatic Computer). O tubo de vácuo foi um 
passo extremamente importante no avanço dos computadores. Os tubos de vácuo 
foram inventados ao mesmo tempo em que a lâmpada foi inventada por Thomas 
Edison e os tubos trabalhavam de forma semelhante às lâmpadas. O objetivo era de 
agir como um amplificador e um interruptor. Sem partes móveis, os tubos a vácuo 
podiam levar sinais fracos e ampliar o sinal. Os tubos a vácuo também podiam parar 
e iniciar o fluxo de eletricidade instantaneamente (switch). Essas duas propriedades 
fizeram o computador ENIAC possível. O ENIAC exalava tanto calor que teve que 
ser arrefecido por condicionadores de ar gigantescos. No entanto, mesmo com estes 
enormes refrigeradores, os tubos a vácuo ainda superaqueciam regularmente. 
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
16
Ao contrário das ferramentas de contagem anteriores, o ENIAC não tinha 
peças mecânicas e engrenagens. Baseava-se exclusivamente em tubos a vácuo. 
Cada tubo a vácuo continha um circuito eletrônico, um pequeno caminho que 
levava a eletricidade. Cada circuito podia ligar e desligar de maneira parecida 
como uma lâmpada faz.
O ENIAC operava 1000 vezes mais rápido do que Mark I. Ele podia fazer 
5000 adições por segundo e 300 multiplicações. Esta máquina custava cerca de 3 
milhões de dólares.
No entanto, o ENIAC tinha inúmeros problemas. Os 19.000 tubos a vácuo 
ocupavam tanto espaço que exigia uma sala medindo aproximadamente 75 m²! 
Os tubos também produziam uma grande quantidade de calor e estavamsempre 
queimando. Em média, 50 tubos queimavam a cada dia. 
FIGURA 8 – ENIAC
FONTE: Disponível em: <http://www.hnf.de/en/museum/die-erfindung-des-computers/eniac-life-
size-model-of-the-first-vacuum-tube-computer.html>. Acesso em: 2 mar. 2016.
Em 1946, um matemático chamado John von Neumann propôs duas 
alterações no projeto do computador; 1º) as instruções da máquina, deveriam ser 
armazenadas dentro do computador. 2º) uma vez que os circuitos eletrônicos são 
ligados ou desligados, ele sugeriu que as pessoas usassem uma série de 0 ou 1 para 
TÓPICO 2 | GERAÇÃO DOS COMPUTADORES
17
codificar todas as informações que eles colocassem no computador. Um zero estaria 
desligado (sem sinal) e um estaria ligado (com sinal). Este código é chamado de código 
binário e é usado ainda hoje. Mais adiante aprofundaremos o código binário.
Em 1951, Eckert e Mauchly concebeu outro computador chamado de 
UNIVAC (Universal Automatic Computer). Foi o primeiro computador a ser 
vendido para as empresas. UNIVAC continha 5.400 tubos a vácuo e utilizava fitas 
magnéticas para dar instruções ao computador. O UNIVAC foi utilizado para 
prever a eleição presidencial de Dwight Eisenhower. 
FIGURA 9 - UNIVIAC
FONTE: Disponível em: <http://blogs.loc.gov/loc/2008/04/my-first-bloggiversary/univac/>. 
Acesso em: 2 mar. 2016.
3 SEGUNDA GERAÇÃO: 1956-1963
O computador transistor não durou tanto quanto o computador de tubo a 
vácuo, mas não era menos importante no avanço da tecnologia dos computadores. 
Em 1947 três cientistas, John Bardeen, William Shockley e Walter Brattain que 
trabalham na AT & T Bell Labs inventaram o que iria substituir o tubo a vácuo 
para sempre. Esta invenção foi o transistor que funcionava como um tubo a vácuo, 
em que ele podia ser usado para transmitir e comutar sinais eletrônicos.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
18
Houve diferenças óbvias entre o transistor e o tubo a vácuo. O transistor 
foi mais rápido, mais confiável, menor, e muito mais barato de construir do que 
um tubo a vácuo. Um transistor substituiu o equivalente a 40 tubos a vácuo. Estes 
transistores eram feitos de material sólido, alguns dos quais eram de silício, um 
elemento abundante encontrado na areia da praia, e vidro. Portanto, eles foram 
muito mais baratos para produzir. Transistores foram inventados para conduzir 
eletricidade mais rápida e melhor do que os tubos a vácuo. Eles também foram muito 
menores e exalavam praticamente nenhum calor em comparação com os tubos a 
vácuo. Seu uso marcou um novo começo para o computador. Sem essa invenção, 
as viagens espaciais na década de 1960 não teriam sido possíveis. No entanto, uma 
nova invenção iria avançar ainda mais nossa capacidade de usar computadores.
FIGURA 10 – TRANSISTOR
FONTE: Disponível em: <http://www.electronics-lab.com/happy-birthday-transistor-16-
dec-1947/>. Acesso em: 2 mar. 2016.
TÓPICO 2 | GERAÇÃO DOS COMPUTADORES
19
4 TERCEIRA GERAÇÃO: 1965-1970
Os transistores foram um grande avanço para os computadores. No entanto, 
ninguém poderia prever que milhares até milhões de transistores (circuitos) podiam 
ser compactados em um espaço tão pequeno. Robert Noyce da Fairchild Corporation 
e Jack Kilby da Texas Instruments descobriram que colocando grande número 
de transistores em um único chip aumentava imensamente o poder de um único 
computador e baixava consideravelmente seu custo.
Com a invenção de circuitos integrados, o número de transistores que 
poderia ser colocado em um único chip dobrava de dois em dois anos, diminuindo 
o tamanho e o custo dos computadores e ainda aumentando a sua potência. 
Estes computadores de terceira geração podiam executar instruções em 
bilionésimos de segundo. O tamanho destas máquinas caiu para o tamanho 
de armários de arquivo pequenos. No entanto, o grande avanço na era dos 
computadores ainda estava por vir.
FIGURA 11 – CIRCUITOS INTEGRADOS
FONTE: Disponível em: <http://buvenes.blogspot.com.br/2012/01/computer-history-and-
generations.html>. Acesso em: 2 mar. 2016.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
20
5 QUARTA GERAÇÃO: 1971- ATÉ OS DIAS ATUAIS
Esta geração pode ser caracterizada pelo o grande avanço de circuitos 
integrados monolíticos (milhões de transistores colocados sobre uma pastilha de 
circuito integrado) e a invenção do microprocessador (um único chip que podia 
fazer todo o processamento de um computador de grande escala).
No entanto, o que realmente provocou o enorme crescimento dos 
computadores e seu impacto significativo em nossas vidas foi a invenção do 
microprocessador. Ted Hoff, contratado pela Intel (nova empresa Robert Noyce) 
inventou um chip quase do tamanho da borracha que fica na ponta do lápis que 
poderia fazer toda a computação e lógica de trabalho de um computador. O 
microprocessador foi feito para ser usado em calculadoras, não computadores. Ele 
conduziu, no entanto, a invenção de computadores pessoais, ou microcomputadores.
Na década de 1970 as pessoas começaram a comprar computadores para 
uso pessoal. Um dos primeiros computadores pessoais foi o kit de computador 
Altair 8800. Em 1975, você poderia comprar este kit e colocá-lo em conjunto para 
fazer o seu próprio computador pessoal. Em 1977, o Apple II foi vendido ao público 
e, em 1981, a IBM entrou no mercado de PC (computador pessoal).
FIGURA 12 – PRIMEIROS MICROPROCESSADORES
FONTE: Disponível em: <https://delphinemeow.files.wordpress.com/2014/04/ibm-pc.jpg>. 
Acesso em: 2 mar. 2016.
TÓPICO 2 | GERAÇÃO DOS COMPUTADORES
21
6 UM POUCO DA HISTÓRIA DA APPLE
Steven Paul Jobs e Stephen Wozniak eram adolescentes quando o 
microcomputador foi inventado. Eles cresceram no Vale do Silício, uma área perto 
de Palo Alto, Califórnia, conhecida por computadores e indústrias eletrônicas. 
Mais tarde, eles conseguiram emprego lá como engenheiros. Interessados em 
computadores, eles se juntaram ao Homebrew Computer Club e começaram a 
trabalhar sério com os computadores.
Em 1976, Wozniak, que tinha interesse em computadores desde a quarta 
série, decidiu construir um pequeno computador que seria fácil de usar. Seus 
amigos ficaram impressionados com ele, e Jobs queria vendê-lo. Os dois começaram 
seus negócios, Apple Computer Inc., com os US$ 1.300 que receberam com a venda 
de um ônibus Volkswagen e calculadora científica de Wozniak.
O primeiro Apple II, recebeu este nome, em memória aos verões em que 
Jobs passou colhendo maçãs no Noroeste, foi um enorme sucesso. Desde então, a 
Apple tem feito muitos computadores, incluindo o Apple II Plus, Apple IIe, Apple 
II, a Apple IIGS, Macintosh, iMac, iPod e iPhone (DECATUR CITY SCHOOLS, 2008). 
FIGURA 13 – STEVE JOBS
FONTE: Disponível em: <http://lounge.obviousmag.org/advibe/2014/05/jobs.html>. Acesso em: 2 
mar. 2016.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
22
7 UM POUCO DE BILL GATES E A MICROSOFT
Em dezembro de 1974, Paul Allen estava em seu caminho para visitar 
Gates, quando ao longo do caminho ele parou para ver as revistas atuais. O que 
ele viu mudou Bill Gates para sempre. Na capa da Popular Electronics foi uma 
imagem do Altair 8080 e a manchete "Kit primeiro microcomputador do mundo 
para rivalizar Modelos Comerciais." Ambos reconheceram isso como sua grande 
oportunidade. Os dois sabiam que o mercado de computadores domésticos 
estava prestes a explodir e que alguém precisaria desenvolver os softwares para 
as novas máquinas. Dentro de alguns dias, Gates havia chamado a MITS (Micro 
Instrumentation and Telemetry Systems), os fabricantes da Altair. Contou à empresa 
que ele e Allen tinham desenvolvido um programa básico que podia ser utilizado 
no Altair. Esta foi uma mentira. Eles ainda não tinham escrito uma linha de código 
sequer. Eles não tinham nem um Altair nem o chip que funcionava o computador. 
A empresa MITS não sabia disso e estava muito interessada em ver o programa.Assim, Gates e Allen começaram a trabalhar febrilmente sobre o programa que 
haviam prometido. O código para o programa foi deixado em sua maioria para 
Bill Gates, enquanto Paul Allen começou a trabalhar em uma maneira de simular 
a Altair com as escolas PDP-10. Oito semanas depois, os dois sentiram que seu 
programa estava pronto. Allen foi para MITS mostrar sua criação. Um dia depois 
que Allen chegou a MITS, é que foram testar seu programa. Se a simulação do 
Altair não funcionasse ou se qualquer código de Gates estivesse com defeito, a 
demonstração provavelmente teria terminado em fracasso. Este não era o caso, e 
o programa funcionou perfeitamente na primeira vez. Gates estava convencido 
de que o mercado de software tinha nascido. Dentro de um ano, Bill Gates havia 
abandonado Harvard e a Microsoft foi criada (DECATUR CITY SCHOOLS, 2008).
FIGURA 14 – PAUL ALEN E BILL GATES
FONTE: Disponível em: <http://www.blog.shops.kharkov.ua/microsoft/>. Acesso em: 2 mar. 
2016.
TÓPICO 2 | GERAÇÃO DOS COMPUTADORES
23
Assista ao filme Piratas do Vale do Silício para saber mais sobre a história das 
principais empresas que contribuíram para o atual estado da tecnologia da informação.
DICAS
8 QUINTA GERAÇÃO
A quinta geração da computação é chamada de "inteligência artificial", e é 
o objetivo de cientistas e programadores de computador criarem computadores 
mais espertos. Todas as linguagens de alto nível como C e C ++, Java, .Net etc., 
são utilizadas nesta geração.
A inteligência artificial pode ser dividida em cinco categorias distintas: 
os jogos, robótica, sistemas especialistas, redes neurais e de linguagem natural. 
Cada uma destas categorias está sendo desenvolvida independente uma da 
outra. Por exemplo, jogos têm tido grande sucesso ao longo dos últimos 15 
anos, enquanto linguagem natural levou mais tempo para o seu pleno e perfeito 
desenvolvimento (TECHIWAREHOUSE, 2011).
8.1 JOGOS
Um dos maiores avanços da inteligência artificial foi em 1997, quando 
um computador da IBM derrotou com sucesso o campeão mundial de xadrez 
em seu próprio jogo. Foi a primeira vez que um computador tinha batido um 
ser humano.
Em 2011, a IBM introduziu "Watson" para os telespectadores Jeopardy 
nos Estados Unidos. O evento foi concebido como um teste para a sua mais nova 
tecnologia artificial que pôde interpretar a linguagem humana, bem como usar 
a lógica para encontrar as respostas e perguntas comuns e triviais. Sua mais 
recente incursão em inteligência artificial tinha alguns pequenos erros ao ouvir 
a interpretação das perguntas, mas ainda assim conseguiu vencer todos os seus 
adversários no jogo, mesmo o campeão de mais longa duração, Ken Jennings.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
24
Watson: computador com inteligência artificial que derrotou oponentes humanos 
em um programa de televisão chamado Jeopardy, o qual possui perguntas e respostas.
NOTA
8.2 REDES NEURAIS
Uma rede neural tenta reproduzir os pensamentos e ligações físicas de 
cérebros humanos ou animais, e é uma das áreas mais testadas na quinta geração 
de computação. Este é, de fato, o segredo para Watson da IBM: deram-lhe um 
cérebro humano que pudesse entender em grande parte a linguagem e fazer 
pesquisas para responder as perguntas.
Estas redes neurais também estão se tornando importantes em aplicações 
muito menores, como o recurso de reconhecimento de voz em muitos computadores 
pessoais atuais e telefones celulares.
8.3 LINGUAGEM NATURAL
Este é muitas vezes considerado um dos "Santos Graal" da inteligência 
artificial. Atualmente, o tipo de reconhecimento de voz que está disponível para 
os consumidores cai mais na categoria de "ditado" do que "conversa". Isso porque 
o computador pode ouvir as palavras e transcrevê-las em texto, mas ele realmente 
não têm a capacidade de compreender o seu significado ou o seu contexto.
Da mesma forma, a linguagem natural está atualmente limitada a um tom 
de voz, e dispositivos de computação de inteligência mais artificial e não pode 
distinguir entre uma frase de voz suave, e uma sentença de raiva.
8.4 SISTEMAS ESPECIALISTAS
Já fomos vítimas do chamado "erro humano", seja no consultório médico, 
no banco, ou até mesmo enquanto nós estávamos dirigindo o nosso carro para um 
destes lugares. Cada vez mais, os investigadores estão olhando para a inteligência 
artificial como uma espécie de caminho à prova de falhas de diagnóstico de 
pacientes e para fazer as tarefas humanas diárias.
TÓPICO 2 | GERAÇÃO DOS COMPUTADORES
25
Esses chamados sistemas especialistas podem ajudar as pessoas a tomar 
a decisão certa em um ambiente difícil. Sistemas especialistas são capazes de 
armazenar muito mais informações do que o cérebro humano, bem como tê-las 
mais facilmente disponíveis. 
8.5 ROBÓTICA
Esta pode ser a área mais popular da inteligência artificial entre aqueles 
que não estão familiarizados com conceitos mais avançados, como "redes neurais" 
ou "sistemas epecilalistas". Mas estes não são robôs típicos de limpeza. O campo 
da robótica da inteligência artificial é sobre a criação de robôs que podem 
experimentar, e reagir a estímulos externos, tal como os seus homólogos humanos.
Isso significa que esses robôs serão capazes de levar uma vida semiautônoma, 
conscientes de seu entorno e capazes de modificar de forma independente o seu 
comportamento com base no seu ambiente. É uma das áreas mais promissoras e 
mais difíceis da inteligência artificial.
Para conhecer um pouco mais da Inteligência Artificial, assista aos filmes: 
• Uma Odisseia no Espaço;
• O ano em que faremos contato;
• Inteligência Artificial;
• Eu, Robô.
DICAS
26
RESUMO DO TÓPICO 2
 Caro(a) acadêmico(a), neste capítulo você estudou que:
• Existem no total cinco gerações de computador conhecidas até a data. Cada 
geração tem sido discutida em detalhe, juntamente com o seu período de tempo 
e características.
• A primeira geração é marcada pelos tubos a vácuo.
• A segunda geração é marcada pelo transistor.
• A terceira geração é marcada pelos circuitos integrados.
• A quarta geração é marcada pelo microprocessador.
• A quinta geração é marcada pelos estudos da inteligência artificial.
• Uma das empresas mais significativas dos últimos tempos na área da computação 
é a Apple, fundada por Steve Jobs e Steve Wosniak.
• A evolução também foi marcada por Bill Gates e Microsoft.
27
1 O que diferencia os computadores de primeira geração dos da segunda?
2 Por que a quarta geração ficou conhecida como a geração dos 
microprocessadores?
3 Computadores da quinta geração são baseados em:
a) ( ) Tubos a vácuo
b) ( ) Circuitos integrados
c) ( ) Microprocessadores
d) ( ) Inteligência artificial
4 Como vimos, na primeira geração de computadores encontravam-se muitos 
problemas. Analise as afirmativas abaixo e assinale as sentenças corretas:
I. Os computadores desta geração eram enormes;
II. Os computadores desta geração eram caros;
III. Os computadores desta geração transmitiam grande quantidade de calor.
a) ( ) As alternativas I e II estão corretas.
b) ( ) As alternativas II e III estão corretas.
c) ( ) Apenas a alternativa I está correta.
d) ( ) Todas as alternativas estão corretas.
5 Esta invenção foi 1.000 vezes mais rápida do que qualquer máquina construída 
antes dela. Era tão grande que poderia preencher uma casa. Assinale a opção 
correta:
a) Apple I
b) ENIAC
c) Windows
d) Z3
AUTOATIVIDADE
28
29
TÓPICO 3
TIPOS DE COMPUTADORES E SEUS 
COMPONENTES
UNIDADE 1
1 INTRODUÇÃO
Quando as pessoas pensam em computadores, geralmente relacionam 
a um laptop ou desktop. Os computadores são, na verdade, tudo que nos rodeia, 
e podem ser divididos em categorias distintas dependendo do seu tamanho e 
poder de processamento. Algumas definições mudaram ao longodo tempo com 
os avanços rápidos na tecnologia, temos computadores que cabem na palma de 
nossas mãos e que têm poder de processamento imenso. Ainda assim, a maior 
parte das qualificações gerais para cada categoria são as mesmas, juntamente com 
as diversas subcategorias que podem se encaixar.
Então, quais são essas categorias de tipos de computador? Há cinco principais: 
supercomputadores, mainframes, minicomputadores, microcomputadores e 
computadores móveis. 
Além disso, computadores possuem componetes essenciais para seu 
funcionamento. Neste tópico, vamos ver os detalhes de cada um.
2 SUPERCOMPUTADORES
Supercomputador é um termo usado para descrever computadores que têm 
o poder de processamento mais rápido. Os supercomputadores executam centenas 
de milhares de processamentos, capazes de quatrilhões de cálculos de computação 
em apenas alguns nanossegundos. Você provavelmente não vai precisar deste 
tipo de capacidade para acessar o Facebook. Na verdade, os supercomputadores 
são usados em ciência computacional para calcular e realizar uma infinidade de 
tarefas complexas. Modelagem de estruturas moleculares, previsão do tempo, e no 
campo da mecânica quântica, entre outros.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
30
FIGURA 15 – SUPERCOMPUTADORES
FONTE: Disponível em: <http://www.peimag.com/top-10-most-powerful-supercomputers-in-the-
world/>. Acesso em: 2 mar. 2016.
3 COMPUTADORES MAINFRAME
Como os supercomputadores, os computadores mainframe são enormes, 
elevando-se máquinas com lotes de poder de processamento. Mainframes são usados 
principalmente por empresas, agências governamentais e bancos e organizações que 
precisam de uma maneira de armazenar grandes quantidades de informação, tais 
como a Receita Federal do Brasil. A capacidade de processamento de computadores 
de grande porte é medida em MIPS, ou milhões de instruções por segundo. 
Supercomputadores, por outro lado, são medidos em FLOPS, ou operações de ponto 
flutuante por segundo.
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
31
FIGURA 16 – MAINFRAME
FONTE: Disponível em: <https://tegrupo7.wordpress.com/>. Acesso em: 2 mar 2016.
4 MINICOMPUTADORES
Um minicomputador é uma máquina de multiprocessamento que trabalha 
com cerca de 200 usuários ao mesmo tempo. É como um computador mainframe 
menos poderoso, e possui o tamanho parecido com de uma geladeira. Um servidor 
pode ser um exemplo de um minicomputador, mas nem todos os servidores 
são minicomputadores. Apesar do seu nome, um minicomputador não é um 
computador pessoal como a máquina desktop que você pode ter em casa ou no 
trabalho. Eles são muito maiores do que isso. 
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
32
5 MICROCOMPUTADORES
Microcomputadores são os que as pessoas estão mais familiarizadas na 
sua vida diária, não profissional, mas é claro que isso não significa que eles são 
exclusivos para a casa. Microcomputadores são pequenos computadores que 
rodam em microprocessadores em suas unidades de processamento central. 
Eles são muito mais baratos do que os supercomputadores, computadores de 
grande porte e até mesmo minicomputadores, porque eles foram feitos para usos 
diários que são mais práticos do que profissional. A gama de capacidades para 
microcomputadores é vasta. Um editor de filme poderia usar um microcomputador 
para executar muitos programas de edição intensivos de uma só vez, enquanto 
que um aluno pode usar um microcomputador para digitar um texto. 
A maioria das pessoas usa o que chamamos de computadores pessoais, e 
até mesmo dentro desta definição existem diversas variações. Estas incluem:
• Computadores desktop: também conhecidos por computadores de mesa, são 
populares, pois os usuários podem personalizá-los, substituir peças e corrigi-los 
com muito mais facilidade do que seria um laptop. É também mais conveniente 
por ser capaz de se conectar a periféricos como telas, teclados e mouses. Neste 
sentido, computadores de mesa podem ser usados no escritório para tarefas 
profissionais, ou em casa. Computadores de mesa podem ser especializados 
para jogos, bem como, equipados com placas gráficas e mais memória RAM. 
• Consoles de video game: algumas pessoas não pensam consoles de videogame 
como computadores, mas eles são. Eles têm muitos dos mesmos componentes 
de hardware como computadores, mas geralmente são menos avançados, razão 
pela qual eles são capazes de custar muito menos do que um computador de 
jogos de alto nível.
• Diversos: outros exemplos de microcomputadores incluem TVs inteligentes.
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
33
FIGURA 17 – MICROCOMPUTADORES
FONTE: A autora.
6 COMPUTADORES MÓVEIS
Estes são exatamente computadores pequenos e móveis. Você pode 
argumentar que um computador de mesa é móvel, mas computadores móveis 
são os que se destinam a serem transportados e levados de um lugar para outro. 
Se um computador desktop é um microcomputador, em seguida, um laptop é 
um computador móvel. Há muitos tipos diferentes de computadores móveis, 
a seguir está uma lista de dispositivos que poderiam ser classificados como 
computadores móveis.
• Laptops: computadores portáteis destinados a serem transportados de um lugar 
para outro. Todos os seus componentes estão contidos dentro de um painel, que 
funciona também como teclado, e podem ser dobrados. Devido ao seu tamanho 
e conveniência, estes são alguns dos computadores mais populares para o uso 
diário.
• Netbooks: laptops muito menores.
• Tablet: tela que possui a funcionalidade touch-screen para navegação e uso.
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
34
• Console de jogos portátil: Dispositivos como o Game Boy, Game Boy Color, 
Game Boy Advance, Sega Nomad, PlayStation Portable (PSP) e PlayStation Vita são 
consoles de jogos portáteis. Assim como consoles regulares, estes são pequenos 
computadores que permitem que as pessoas joguem jogos em movimento.
• Calculadoras: são computadores que executam tarefas mais básicas dos 
computadores - cálculos! Existem muitos tipos diferentes de calculadoras, 
calculadoras básicas, calculadoras gráficas, calculadoras científicas, calculadoras 
programáveis e calculadoras utilizadas para outros fins financeiros e de 
contabilidade.
• Players portáteis: também conhecidos como leitores de MP3, MP4, MP5. Um 
iPod, por exemplo, é um computador móvel também.
• Celulares e smartphones: smartphones como o iPhone e o Samsung Galaxy, 
entre outros, são exemplos de poderosos smartphones que também são 
computadores móveis. 
FIGURA 18 – COMPUTADORES MÓVEIS
FONTE: A autora.
7 FUNÇÕES PRIMÁRIAS DE UM COMPUTADOR
Todos os computadores, desde os primeiros mainframes até os desktops, 
laptops e PCs de hoje, executam as mesmas operações gerais sobre os dados. O 
que muda ao longo do tempo é o dado manipulado, como ele é tratado, quanto é 
movido, e quanto sua forma é rápida e eficiente.
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
35
As funções básicas que um computador pode executar são:
• Processamento de dados;
• Armazenamentode de dados;
• Movimentação dos dados, e
• Controle.
7.1 PROCESSAMENTO DE DADOS
Quando você pensa sobre um computador e o que ele faz, você naturalmente 
pensa: “sua função é calcular”. E esta é realmente uma parte de seu trabalho. 
O computador gasta grande quantidade de seu tempo realizando operações 
matemáticas, e traduzindo os dados de uma forma para outra.
7.2 ARMAZENAMENTO DE DADOS
O sistema de computador armazena diferentes tipos de dados de 
diferentes maneiras, dependendo do que os dados são e a quantidade de espaço de 
armazenamento que eles exigem, e quão rapidamente eles precisam ser acessados. 
Estes dados são armazenados em memórias.
A memória principal do sistema do computador, também chamada de 
armazenamento primário, contém dados que você ou o computadorestão trabalhando 
naquele instante. Esta é a "memória a curto prazo" do computador, e é projetada para 
ser capaz de alimentar dados para o processador de alta velocidade de modo que o 
processador não atrase demais enquanto espera por isso. No entanto, essa memória de 
curto prazo desaparece quando o computador está desligado.
Armazenamento a longo prazo, também chamado de armazenamento 
secundário, consiste em discos rígidos, cartões de memória, pendrives, HDs externos, nos 
quais os dados são armazenados permanentemente na forma de arquivos, prontos para 
você abrir quando precisar deles. 
7.3 MOVIMENTAÇÃO DOS DADOS
O computador também controla a movimentação dos dados de um 
lugar para outro. Ele lê os dados que você digita no teclado, move na memória e, 
eventualmente, exibe na tela. Esse movimento é chamado de entrada/saída ou E/S e 
é a forma como o computador conversa com dispositivos que estão conectados a ele.
36
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
Movendo dados entre máquinas também é uma parte importante da 
computação. O computador usa componentes de rede, modems e cabos para 
permitir que ele se comunique com outras máquinas.
7.4 CONTROLE
O sistema de computador deve controlar as três funções acima citadas. 
Dentro do computador, uma unidade de controle dirige e coordena a operação 
de todos os outros componentes do computador, proporcionando sinais de 
temporização e de controle e execução das instruções de um programa.
8 PRINCIPAIS COMPONENTES ESTRUTURAIS DE UM 
COMPUTADOR
Os principais elementos de um computador são:
• Unidade Central de Processamento (CPU);
• Memória principal (armazenamento primário);
• Armazenamento Secundário;
• Dispositivos de entrada/saída;
• Interconexão de subsistemas.
FIGURA 19 – SISTEMA DE HARDWARE DE UM MICROPROCESSADOR
FONTE: A autora.
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
37
8.1 CPU
A Unidade Central de Processamento (CPU) é o componente central do PC. 
Este componente é o responsável vital para o funcionamento de cada coisa no PC. 
Os princípios subjacentes a todos os processadores de computador são 
os mesmos. Fundamentalmente, todas eles têm sinais na forma de 0s e 1s (sinais 
binários), manipulados de acordo com um conjunto de instruções, e produzem 
uma saída na forma de 0s e 1s.
A CPU possui três unidades principais:
• Lógica e aritmética (ULA): realiza operações aritméticas e lógicas. Por exemplo, 
pode adicionar em conjunto dois números binários da memória ou de alguns 
dos registros da CPU.
• Unidade de Controle: controla a ação dos outros componentes do computador, 
para que as instruções sejam executadas na sequência correta.
• Registos: armazenamento temporário dentro da CPU. 
FIGURA 20 – CPU
FONTE: A autora.
38
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
8.2 ARMAZENAMENTO DE DADOS / MEMÓRIA
O processador é o cérebro do computador. Todos componentes fundamentais 
para o computador têm lugar no processador. Outros componentes contribuem 
para o cálculo, mas o processador é onde a ação fundamental tem lugar.
No computador possuímos dois tipos fundamentais de memória:
A memória principal usada para armazenar informações para acesso 
imediato pela CPU. Também chamamos a memória principal de armazenamento 
primário. Algumas funções da memória são:
• Estreitamente ligadas ao processador.
• Os conteúdos são mudados rapidamente e facilmente.
• Detém os programas e dados que o processador está trabalhando ativamente.
• Interage com os milhões de processamento por segundo.
Armazenamento secundário: dispositivos fornecem armazenamento 
permanente de grandes quantidades de dados. O armazenamento secundário 
também é chamado de memória secundária, memória externa, armazenamento de 
backup ou armazenamento auxiliar.
Este pode consistir de armazenamento de disco rígido, pendrive, HD 
externo. Algumas de suas características são:
• Ligado à memória principal através de um controlador.
• O conteúdo é facilmente alterado.
• Utilizado para a armazenagem a longo prazo de programas e de dados.
8.2.1 Memória principal
A memória principal é onde os programas e os dados são mantidos quando 
o processador está ativo. Quando os programas e os dados tornam-se ativos, eles 
são copiados da memória secundária para a memória principal, onde o processador 
pode interagir com eles. Uma cópia permanece na memória secundária.
A memória principal pode ser visualizada como um conjunto de ranhuras 
marcadas chamadas locais de memória ou células de memória. Cada posição da 
memória guarda uma palavra de dados e é designada um endereço único. Os 
endereços são palavras binárias que são interpretadas como números começando 
do número 0 e indo para cada local de memória sucessiva. Locais de memória 
podem ser usados para armazenar os dados, tais como caracteres e números, e 
instruções de programa.
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
39
A CPU pode acessar diretamente os dados armazenados na memória 
principal. Quando uma posição de memória é lida o conteúdo da localização da 
memória permanece inalterado (uma cópia exata do conteúdo da localização é 
feita para o processamento pela CPU). Quando uma nova informação é colocada 
em uma posição da memória, os dados existentes são substituídos pelos novos 
dados. Os dados são armazenados em binário (1 e 0).
Os tipos de memória principais são:
• Memória de acesso aleatório (RAM);
• Memória só leitura (ROM).
A memória de acesso aleatório (RAM) é uma área no sistema do computador 
que armazena dados temporariamente antes ou depois de ser processado. A RAM 
pode ser escrita e lida. Por exemplo, quando você entra em um documento, os 
caracteres digitados geralmente não são processados imediatamente. Eles são 
mantidos na RAM até que você diga ao computador para realizar um processo como 
impressão. Mas RAM é volátil, ou seja, quando o computador é desligado todos 
os dados armazenados na memória RAM são destruídos. O termo acesso aleatório 
refere-se à capacidade de acesso a qualquer posição e em qualquer momento.
Memória só de leitura (ROM) armazena dados e é fixa e não pode ser alterada. 
Ela é usada para armazenar dados de referência e programas que serão necessários 
para a aplicação do computador. Por exemplo, quando um computador é ligado, 
um conjunto de instruções armazenadas na ROM chamado BIOS ROM (Basic Input 
Output System) diz ao computador como acessar seus drives de disco como o sistema 
operacional. Então, o computador pode copiar esses arquivos para a RAM.
8.2.2 Armazenamento secundário
A maioria dos sistemas de computador têm dispositivos de armazenamento 
secundário que são utilizados para proporcionar uma capacidade adicional de 
armazenamento de dados. O armazenamento secundário fornece armazenamento 
permanente para os programas e dados que não estejam sendo utilizados.
Os dados na memória secundária não são diretamente acessados pela CPU, 
mas podem ser transferidos para a memória principal antes de serem processados. 
O armazenamento secundário é consideravelmente menos caro do que a memória 
principal, mas requer tempo de acesso significativamente mais longo. Exemplos 
de armazenamento secundário incluem discos rígidos, CD-ROM, pendrive. Na 
história da computação o disco rígido sempre apresentou uma capacidade de 
armazenamento muito superior a da memória principal, contudo, a velocidade de 
processamento do disco rígido é muito menor.
40
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
Mas você deve estar se perguntando por que ter dois tipos de armazenamento. 
A razão para ter dois tipos de armazenamento é dividir as tarefas, enquanto:
• a memória primária é: rápida, com baixa capacidade e possui conexão direta ao 
processador;
• a memória secundária: é lenta, barata, com grande capacidade e não conecta 
diretamente com o processador.
8.3 OS DISPOSITIVOSDE ENTRADA/SAÍDA
Dispositivos de entrada/saída fornecem uma interface entre o computador 
e o usuário. Devendo existir, pelo menos, um dispositivo de entrada (por exemplo 
teclado, mouse) e, pelo menos, um dispositivo de saída (por exemplo, impressora, tela). 
Os dispositivos de entrada e saída, como teclados e impressoras, em conjunto com os 
dispositivos de armazenamento externos, são referidos como periféricos. 
8.4 INTERCONEXÃO DE SUBSISTEMAS
O sistema de computador requer interligações entre os vários 
componentes. Quando estes caminhos de dados transportam mais do que um bit 
simultaneamente a partir de um número de componentes diferentes, é referido 
como um barramento de dados.
Conforme Forouzan e Mosharraf (2011), para essa comunicação há três 
tipos de barramentos distintos:
• Barramento de dados: responsável pela transmissão dos dados entre as unidades;
• Barramento de endereços: responsável por conduzir endereços, indicando a 
origem ou destino dos dados a serem transmitidos;
• Barramento de controle: responsável por realizar a sincronização dos demais 
barramentos, habilitando ou desabilitando o fluxo de dados. 
9 MICROPROCESSADORES / MICROCONTROLADORES / 
SISTEMAS EMBARCADOS
Um microprocessador é uma Unidade Central de Processamento (CPU) 
em um único chip. O microprocessador contém a aritmética, lógica e circuitos 
de controle necessários para interpretar e executar instruções de um sistema de 
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
41
computador. Um microprocessador por si só não é um computador, quando 
combinado com outros componentes que proporcionam o armazenamento de 
dados e programas, frequentemente com uma única base de semicondutores, para 
formar um chip, o microprocessador torna-se o coração de um computador.
Um microcontrolador é um sistema de computador completo, numa única 
pastilha de circuito integrado, otimizado para aplicações de controle. Ele consiste 
em um microprocessador, memórias (RAM, Random Access Memory e ROM, Read 
Only Memory), portas, entrada/saída, e, possivelmente, outras características, tais 
como temporizadores. Sendo o controlador completo em um único chip permite 
o desenho de hardware para ser simples e muito barato. Os microcontroladores 
são cada vez mais utilizados, em produtos variados, como aplicações industriais, 
eletrodomésticos e brinquedos.
Sistemas de computadores se dividem em duas categorias distintas:
• Os computadores de uso geral;
• Sistemas Embarcados.
O primeiro e mais óbvio, é o computador de uso geral (isto é, os PCs). Os 
programas de aplicação determinam a funcionalidade do sistema de computador. 
Para que o computador possa cumprir um novo papel, tudo o que é necessário é 
um novo aplicativo ser carregado.
Em contraste com computadores de uso geral temos o sistema embarcado. 
Sistemas embarcados são sistemas que são dedicados para executar funções 
específicas, com o hardware e software que estão sendo utilizados diretamente para 
o aplicativo. Eles diferem dos sistemas de computador convencionais na medida 
em que não são necessários para ser de uso geral. Sua operação em tempo real 
também é frequentemente muito importante para sistemas embarcados. Alguns 
exemplos de sistemas embarcados são fornos de microondas, CD players, câmeras 
de vídeo, controles remotos, jogos de vídeo, impressoras a laser, máquinas de 
fax, fotocopiadoras, controle automotivo, controle de temperatura nos edifícios, 
aeronaves e veículos espaciais, sintetizadores de música, controladores de tráfego-
luz e caixas registradoras. 
Todos estes sistemas têm um microprocessador, uma memória e os 
dispositivos de entrada e saída. Cada um deles é executado através de software 
específico para controlar a sua aplicação.
42
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
Os processadores utilizados em PCs compõem apenas uma pequena 
percentagem do número total de processadores vendidos. A maioria dos 
processadores feitos são utilizados em aplicações incorporadas. Aplicações 
embarcadas geralmente exigem que o processador (e/ou sistema) tenham alta 
integração (isto é, ser muito compacto), baixo consumo de energia, resposta rápida 
e alto desempenho. Sistemas embarcados não têm a capacidade de executar software 
diferente, como é possível em um computador de uso geral.
10 ARQUITETURA RISC E CISC
Arquiteturas de computadores, em geral, têm evoluído progressivamente 
com maior complexidade, como maiores conjuntos de instruções, mais modos de 
endereçamento, muito mais poder computacional das instruções individuais, mais 
registros especializados, e assim por diante. Máquinas recentes que abrangem tais 
tendências são denominadas de computador com conjunto de intruções complexas 
(Complex Instruction Set Computer - CISC). No entanto, pode-se chegar a um ponto 
em que a adição de um complexo de instruções a um conjunto de instruções afeta a 
eficiência e o custo do processador. Os efeitos de tal instrução devem ser avaliados 
antes de ser adicionada ao conjunto de instruções. 
O senso comum nos diz que as instruções inúteis (ou pouco utilizadas) 
não devem ser adicionadas ao conjunto de instruções. Este conceito básico de não 
adicionar instruções inúteis para o conjunto de instruções invocou um interesse 
crescente em uma abordagem inovadora para a arquitetura de computador, o 
computador com conjunto reduzido de instruções (Reduced Instruction Set Computer 
- RISC). A filosofia da arquitetura RISC diz para adicionar o mínimo de instruções 
para que façam o mínimo possível de operações, na qual resultam em um grande 
ganho de desempenho. Sistemas RISC foram definidos e desenhados por diferentes 
grupos em uma variedade de formas. A primeira máquina RISC foi construída 
em 1982 pela IBM. As características comuns compartilhadas pela maioria destes 
projetos são um conjunto limitado de instruções e simples, um grande número 
de registros, um compilador para maximizar a utilização de registos e, assim, 
minimizar os acessos à memória principal e a ênfase na otimização do pipelining. 
Mais adiante você entenderá o que é pipelining. 
10.1 CAUSAS PARA UMA ARQUITETURA COMPLEXA
Existem várias razões para a tendência em direção progressiva para a 
complexidade. Estas incluem suporte para linguagens de alto nível, a migração 
de funções de software em hardware e compatibilidade. Cada um desses fatores é 
explicado a seguir:
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
43
• Suporte para linguagens de alto nível: ao longo dos anos o ambiente de 
programação mudou de programação em linguagem assembly (baixo nível) 
para a programação em linguagens de alto nível, de modo que os fabricantes 
começaram a fornecer instruções mais poderosas para apoiar a implementação 
eficaz dos programas de linguagem de alto nível. 
• Migração de funções de software em hardware: a única instrução realizada no 
hardware terá um desempenho melhor do que um realizado por uma sequência 
de várias instruções mais simples devido ao maior número de acessos à memória 
e a disparidade entre as velocidades de CPU e memória. Para aumentar a 
velocidade de processamento dos computadores, observa-se o fenômeno da 
migração de funções de software para o firmware e de firmware para hardware. 
(Firmware é uma sequência de microinstruções.) Esta migração de funções do 
domínio de software para o domínio de hardware irá naturalmente aumentar o 
tamanho do conjunto de instruções, o que resulta no aumento da complexidade 
global do computador.
• Compatibilidade: a compatibilidade é frequentemente utilizada pelos 
fabricantes como uma estratégia de marketing, a fim de projetar seus 
computadores como sendo melhor do que outros modelos existentes. Como 
resultado desta estratégia de marketing, por vezes, os fabricantes aumentam 
o número de instruções e o seu poder aumenta, independentemente da 
utilização realdeste conjunto de instruções complexas. Compatibilidade é 
uma maneira de melhorar um projeto adicionando novos e geralmente mais 
complexos recursos (isto é, um novo computador deve ter todas as capacidades 
funcionais de seus antecessores e algo mais). Como resultado, o novo conjunto 
de instruções é um superconjunto de um antigo.
10.2 RISC POR QUE?
Projetistas de computadores têm diferentes pontos de vista, mas os dois 
critérios seguintes são universalmente aceitos para todos os sistemas:
1. Maximizar a velocidade de operação ou minimizar o tempo de execução;
2. Minimizar o custo de desenvolvimento e preço de venda.
Uma maneira de realizar o primeiro objetivo é melhorar a tecnologia dos 
componentes, conseguindo assim o funcionamento de frequências mais elevadas. 
O aumento da velocidade pode ser conseguido através da minimização do número 
médio de ciclos do relógio por instrução e/ou execução de várias instruções, 
simultaneamente. Para realizar ambos os objetivos, os designers originais do RISC 
focaram no aspecto da criação de um circuito integrado combinando-se milhões 
44
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
de transistores em um único chip, este circuito chama-se Very Large Scale Integration 
– VLSI. Como um resultado de menos instruções, modos de endereçamento e 
formatos de instrução, obteve-se um pequeno e simples circuito para a unidade de 
controle. Esta redução relativa do tamanho e da complexidade provocada por chips 
VLSI produz alguns resultados desejáveis para CISC, que são discutidos a seguir.
A principal finalidade da tecnologia VLSI é realizar o processamento em um 
só chip, permitindo reduzir de forma significativa o maior atraso de transmissão 
de um sinal a partir de um chip para outro. Arquiteturas com maior complexidade 
(maior conjunto de instruções, mais modos de endereçamento, formatos de 
instrução variáveis, e assim por diante) precisam ter um meio complexo de 
buscar, decodificar e executar a lógica. Se o processador está microprogramado, 
esta lógica é colocada em microprogramas complexos, resultando em um maior 
armazenamento de microcódigo. Como resultado, se um CISC é desenvolvido 
utilizando a tecnologia VLSI, uma parte substancial da área pode ser consumida 
na realização do armazenamento de microcódigo. A quantidade de área que 
determinada unidade de controle de uma arquitetura CISC pode variar é de 
40% a 60%, enquanto que apenas cerca de 10% da área do chip é consumida no 
caso de uma arquitetura RISC. Esta área restante numa arquitetura RISC pode 
ser utilizada para outros componentes, tais como caches e arquivos de registro 
maiores pelos quais o desempenho do processador pode ser melhorado. Com a 
tecnologia VLSI isso é melhorado, o RISC é sempre um passo à frente em relação 
à CISC. Por exemplo, se um CISC é realizado em um único chip, então RISC pode 
ter algo a mais (ou seja, mais registros, cache etc.), e quando CISC tem bastante 
registros e cache no chip, RISC irá ter mais do que uma unidade de processamento, 
e assim por diante.
Diversas vantagens estão envolvidas quando se discute RISC como 
velocidade de computação, confiabilidade e suporte à linguagem de alto nível. 
Quanto à velocidade de computação, o projeto RISC é adequado à abordagem 
pipelining. Um pipelining permite várias instruções serem processadas ao mesmo 
tempo. O processo de uma instrução é dividido em uma série de fases, tal como 
busca de instrução, decodificação de instrução, busca de operação e execução. 
Enquanto uma instrução está na fase de esforço, outra instrução está em fase de 
descodificação, e assim por diante. 
VLSI relaciona-se com o fato de a unidade de controle RISC ser implementada 
no hardware. 
Por causa do progresso na tecnologia VLSI, muitos microprocessadores 
comerciais têm o seu próprio cache no chip. Esse cache é tipicamente menor do que 
o cache onboard, e serve como o primeiro nível de caches. O cache onboard, que fica 
ao lado do chip do processador, serve como o segundo nível de caches. Geralmente, 
estes dois níveis de caches melhoram o desempenho quando comparados com um 
nível de cache. Além disso, o cache em cada nível pode realmente ser organizado 
como uma hierarquia de caches. Por exemplo, o processador Intel P6 contém dois 
níveis de caches no chip. Finalmente, às vezes cada cache em níveis mais elevados 
é dividido em dois caches: cache de instruções e cache de dados. Processadores 
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
45
que têm caches separados (ou armazenamento) para obter instruções e os dados 
são às vezes chamados arquiteturas baseadas em Harvard. O uso de dois caches, 
um para instruções e outro para dados, em contraste com um único cache pode 
melhorar consideravelmente o tempo de acesso e, consequentemente, melhorar 
o desempenho de um processador, especialmente um que faz uso extensivo de 
canalização, como o processador RISC.
Outra vantagem do RISC é que requer um período mais curto de criação. 
O tempo necessário para a concepção de uma nova arquitetura depende da 
complexidade da arquitetura. Naturalmente, o tempo de design é mais longo para 
arquiteturas complexas (CISC), que exigem a depuração do projeto e remoção 
de erros da unidade de controle microprogramada complexa. No caso de RISC, 
o tempo necessário para testar e depurar a resultante hardware é menor porque a 
microprogramação não está envolvida e o tamanho da unidade de controle é pequeno. 
Um tempo de design mais curto diminui a chance de que o produto final possa se 
tornar obsoleto antes da conclusão. A menos complexa unidade de arquitetura tem 
menos chance de erro de projeto e, portanto, maior confiabilidade. Assim, o projeto 
RISC reduz os custos do projeto e aumenta a confiabilidade de design.
10.3 PIPELINING
O computador utiliza três etapas para o pipelining: busca, decodificação 
e execução para cada instrução. Nos primeiros computadores essas fases eram 
realizadas em série para cada instrução. Os computadores atuais utilizam uma 
técnica chamada pipelining para melhorar o throughput (número total de instruções 
realizadas em cada período de tempo). Se a unidade de controle pode realizar duas 
ou três dessas fases simultaneamente, a próxima instrução pode começar antes que 
a anterior seja concluída (FOROUZAN; MOSHARRAF, 2011).
FIGURA 21 – FUNCIONAMENTO COM E SEM PIPELINING
FONTE: Forouzan e Mosharraf (2011)
46
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
LEITURA COMPLEMENTAR
O Apple II
 
No início de 1976, tínhamos vendido cerca de 150 computadores. Não 
apenas pela Byte Shop, mas através de outras pequenas lojas que vinham surgindo 
por todo o país. Steve e eu dirigíamos pela Califórnia, entrávamos em uma loja e 
perguntávamos se eles queriam ter o Apple I. Vendemos alguns dessa forma.
Mas isso não era nada, porque outras companhias estavam surgindo na 
região do Vale do Silício naquela época. Uma delas, chamada Processor Technology, 
supostamente vendia mais de mil unidades por mês de seu computador SOL-20, 
um sucesso no mundo da computação de uso doméstico. Além disso, era um 
computador que tinha um teclado (que era a forma como eles passaram a ser 
concebidos após eu mostrar o Apple I em uma reunião do Homebrew). O Apple I 
deu início a essa tendência. 
Lee Felsenstein, o mediador dos encontros no Homebrew, projetou o SOL. 
E Gordon French trabalhava na Processor Technology. Então estávamos sempre a 
par das últimas novidades na área. 
Para mim, o computador SOL, da Processor Technology, não era tão 
impressionante assim. Steve e eu tínhamos certeza de poder vender mais do que 
eles. Na época, tínhamos o protótipo do próximo computador da Apple, o Apple 
II, que era dez vezes melhor que o Apple I.
 
Com o novo computador, tínhamos certeza de que se tivéssemos o dinheiro 
necessário para fabricá-lo, poderíamos facilmente vender tantos computadores quanto 
aProcessor Technology. 
O Apple II, no qual comecei a trabalhar quase ao mesmo tempo em que o 
Apple I foi concluído, foi um fantástico aperfeiçoamento de meu projeto anterior. 
Eu queria um computador que processasse cores. E embora tivesse concebido o 
Apple I para poder adicionar cores a ele, pois tinha usado chips que trabalhavam 
nas frequências necessárias para gerar cores em uma televisão americana, decidi 
que em vez disso seria melhor projetar um novo computador. 
Adicionar cores não era apenas uma questão de comprar mais chips, mas 
de eficiência e de elegância de projeto. Eu queria projetar as cores desde o início, 
não apenas acrescentá-las em um computador já existente. Dessa forma, o Apple II 
seria concebido desde o início com tal característica. 
Outro aperfeiçoamento que pensei em inserir no Apple II foi projetar todo 
o novo computador em torno de textos e gráficos, com tudo vindo da própria 
memória do sistema. 
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
47
Portanto, em vez de ter todo um terminal em separado para fazer coisas na 
tela e outra memória para as outras computações, decidi combinar toda a memória em 
um único banco de dados – uma seção da DRAM. Assim, uma porção da DRAM que 
o microprocessador utilizava poderia também ser continuamente aproveitada para 
qualquer coisa que fosse preciso exibir na tela. 
Trabalhando dessa forma, eu sabia que economizaria alguns chips. De fato, 
no final, o Apple II acabou ficando com metade dos chips utilizados pelo Apple I. 
Além de ser bem mais rápido.
 
Lembra-se de que mencionei como o Apple I precisava constantemente 
manter os conteúdos da memória DRAM vivos através de atualizações? Bem, na 
época do Apple II, eu tinha chips DRAM bem mais rápidos para utilizar. Dessa 
forma, em vez de o microprocessador ser capaz de acessar (desenvolver ou ler) a 
RAM a cada milionésimo de segundo, os novos chips que eu estava utilizando na 
época podiam fazê-lo duas vezes a cada microssegundo.
 
De fato, o Apple II até conseguia que o microprocessador acessasse a 
memória RAM na metade de um microssegundo (milionésimo de segundo), 
enquanto os circuitos que atualizavam a RAM podiam acessá-la na outra metade 
do tempo. É por isso que ele rodava mais rápido. Além de ser menor e mais barato. 
O que sempre foi um objetivo meu. 
O Apple II possuía inúmeros aperfeiçoamentos em relação ao Apple I. 
Algumas pessoas consideram o Apple II um segundo projeto elaborado a partir do 
Apple I, mas quero frisar que não é assim. De jeito nenhum. 
O Apple I não foi um computador projetado do zero, mas uma ligeira 
extensão de meu terminal ARPANET para um microprocessador, com praticamente 
nenhuma inovação eletrônica com exceção da memória DRAM. 
O Apple II, por sua vez, foi projetado e teve sua engenharia concebida a partir 
do zero. Também somente por mim. Olhando para trás, eu poderia ter projetado o 
Apple II primeiro – com cores e tudo –, mas escolhi avançar com um projeto que eu 
pudesse desenvolver mais rapidamente. 
É verdade que ambas as máquinas trouxeram incríveis avanços para o 
mundo da informática. O Apple I fez história ao ser o primeiro computador pessoal 
a trabalhar com um teclado e uma tela. Mas o Apple II trouxe cores, gráficos em 
alta resolução, som, e a possibilidade de anexar controles de jogos. Foi o primeiro 
computador que, ao ser ligado, já estava pronto para uso, com o BASIC inserido 
na memória ROM.
Outros computadores chegaram perto do Apple II, mas levaram anos para 
se equiparar ao que eu tinha feito. No final, cada um deles precisaria fornecer a 
mesma lista de características. 
48
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
O Apple II foi o primeiro computador de baixo custo que, de forma notável, 
podia ser usado por pessoas comuns – ninguém precisava ser um geek para utilizá-lo.
Mas àquela altura, ninguém havia visto o Apple II. Eu ainda estava 
finalizando-o, e naquele momento, ainda trabalhávamos em nossas casas: eu 
trabalhava em meu apartamento e Steve trabalhava pelo telefone de seu dormitório 
na faculdade. Ainda testávamos computadores na garagem da casa dos pais dele. E 
eu ainda estava montando calculadoras na HP e pensando que a Apple era apenas 
um hobby. Eu ainda planejava trabalhar na HP para sempre. 
Mas não demorou muito para eu ter um Apple II funcionando logo após a 
entrega das placas do Apple I para Paul Terrell. E como eu disse antes: o Apple II 
não era apenas duas vezes melhor. Era algo como dez vezes melhor.
 
Concluí a placa, que era o núcleo do Apple II, em agosto de 1976. Lembro-
me disso muito bem porque foi nesse mesmo mês que Steve e eu viajamos para a 
mostra PC’ 76, em Atlantic City. 
Pegamos o avião em San Jose e sentamos juntos, levando o Apple I e o 
Apple II conosco a bordo. O aspecto engraçado dessa viagem foi que um bando 
de pessoas que conhecíamos do Homebrew e que agora trabalhavam nas várias 
pequenas empresas de informática concorrentes da Apple estavam naquele 
mesmo voo. Pudemos ouvi-las falando sobre o avanço dos negócios: falavam 
sobre propostas e utilizavam terminologias que nunca havíamos escutado antes. 
Sentimo-nos muito distantes de todas aquelas discussões. 
Mas dentro de nós sabíamos que tínhamos um segredo. Um grande segredo. 
Talvez não fizéssemos parte daqueles grupos de empresários, mas sabíamos que 
possuíamos um computador melhor. Na verdade, possuíamos os dois melhores 
computadores disponíveis no mercado da época. O Apple I e o Apple II. E ninguém 
no mundo sabia ainda do Apple II.
 
Quando a exposição começou em Atlantic City, tive sorte porque não 
precisei empurrar o Apple I em nosso estande. Não tenho perfil de vendedor. 
Steve Jobs e Dan Kottke é que fizeram isso. Fiquei no andar de cima terminando as 
últimas sequências do BASIC.
 
A exposição estava cheia de empresas jovens e mal financiadas como a 
Apple. Os proprietários eram parecidos conosco. Isto é, não eram executivos bem 
vestidos, empresários ou gerentes de empresa participando da mostra. Mas um 
grupo de pessoas bastante desleixado. 
Eles atuavam no mesmo ramo de negócio que o nosso, e muitos eram 
nossos concorrentes diretos. Apesar de sermos todos amigos, ainda assim éramos 
concorrentes. 
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
49
Embora não tenhamos mostrado o Apple II para ninguém durante a 
exposição em Atlantic City, um sujeito que não estava associado a nenhuma 
companhia ou negócio de informática o viu. Ele estava lá preparando um projetor 
de TV para as palestras. Eu e Steve nos apresentamos na primeira noite, e depois 
que todos haviam ido embora, nos encontramos com o tal técnico do projetor. 
Acho que tínhamos pedido para ele ficar. Era provavelmente 9 horas da noite. 
Com o Apple II eu tinha criado um método diferente de gerar cores e ainda estava 
espantado com a quantidade de TVs em que ele funcionava. Mas então imaginei 
que um projetor pudesse ter circuitos diferentes para cores capazes de obstruir 
meu método. Assim, queria ver se o Apple II funcionaria com ele. 
Então conectei o protótipo do Apple II ao projetor daquele sujeito e ele 
funcionou perfeitamente. O técnico, que estava vendo todos os computadores de 
baixo custo do mundo à medida que preparava o equipamento para as palestras, me 
disse que de todos os computadores que ele vira na exposição, o Apple II seria o único 
que ele compraria. Apenas sorri. O Apple II não tinha sido sequer anunciado ainda. 
Depois da exposição, o maior e mais sensacional momento Eureka que já 
tive foi o dia em que fiz o Breakout (o jogo da Atari) funcionar no Apple II. 
Eu tinha inserido capacidade suficiente no BASIC para que o computador 
pudesse ler onde estavam as raquetes do jogo. Ele podia soar nos alto-falantes 
quando necessário e organizar as cores na tela. Portanto, eu estava pronto. 
Sentei um dia com aquela pequenaplaca em branco com chips na parte de 
cima e todos os pequenos fios enrolados em azul e vermelho soldados por baixo e 
a conectei, através de alguns fios e transformadores, à minha TV colorida.
 
Sentei-me e comecei a digitar comandos em BASIC. Eu precisava criar uma 
fileira de tijolos – exatamente como no jogo da Atari – e funcionou! Eu tinha uma 
fileira de tijolos. Experimentei várias combinações de cores até chegar à cor de 
tijolo que ficasse melhor. 
Dispus lado a lado oito fileiras de tijolos. Equacionei as cores corretas e 
estabeleci como os tijolos deveriam aparecer para ficar mais real. Fileiras pares e 
ímpares. Depois comecei a programar a raquete. Fiz a raquete subir e descer na 
tela com o botão de controle do jogo. Depois coloquei a bola. Então comecei a dar 
movimento à bola. Em seguida, passei a dizer para a bola quando ela batia nos 
tijolos como ela deveria se livrar deles, bater e voltar. Quando ela atingia a raquete, 
programei como ela rebateria e mudaria de direção na vertical e na horizontal.
 
Depois brinquei com todos esses parâmetros, e isso tudo levou apenas 
meia hora. Testei dezenas e dezenas de variações diferentes dos componentes até o 
Breakout funcionar por completo no Apple II, mostrando a pontuação e tudo mais. 
Chamei Steve Jobs para ver. Não podia acreditar que havia conseguido 
fazer aquilo tudo; foi fantástico. Pedi a Steve que sentasse e mostrei a ele como o 
50
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
jogo aparecia com a raquete e os tijolos. Depois disse: “Veja isto”. E digitei alguns 
comandos BASIC e mudei a cor da raquete, a cor dos tijolos e local onde ficava a 
pontuação na tela. 
Então disse: “Se tivesse feito toda essa variedade de opções embutidas no 
equipamento da forma que sempre foi feito, eu teria levado dez anos. Agora que 
os jogos estão no software, o mundo inteiro vai mudar”. 
E naquele exato momento foi que me dei conta. Os jogos em software serão 
incrivelmente avançados se comparados com os jogos em hardware – isto é, jogos 
que estão embutidos nos equipamentos tipo fliperama e em sistemas semelhantes.
Atualmente, os gráficos nos jogos são excelentes. Eles ficaram incrivelmente 
complicados e grandes. Se precisassem ser feitos em hardware, não haveria tempo 
suficiente no universo para concebê-los. 
Pensei: Nossa! Ninguém no clube vai acreditar que um jogo de fliperama 
pôde ser escrito em BASIC. O Breakout foi o primeiro no mundo. Inseri também 
um segredo naquele jogo para o Apple II: ao digitar CTRL + Z no teclado, o jogo 
passava para um modo em que a raquete iria sempre se movimentar, mas nunca 
erraria a bola. 
Que recurso fantástico! Ele enganava as pessoas fazendo-as pensar que 
tinham muita sorte em atingir a bola. A raquete ficava tão instável e movimentava-
se tanto que uma pessoa nunca poderia dizer que tal feito não era por sua habilidade 
e que seus próprios movimentos é que estavam acertando a bola. 
Um dia me sentei com John Draper (o Capitão Crunch, lembra?). Estávamos 
no Homebrew logo depois do principal segmento da reunião, quando as pessoas 
podiam fazer suas demonstrações.
 
John nunca havia brincado em um jogo de fliperama antes.
 
Eu disse: “Veja, jogue este”. Então mostrei a ele como virar o botão para 
que a raquete se movimentasse para cima e para baixo. Ele sentou e começou a 
jogar. Todos na sala ficaram olhando para ele por aproximadamente 15 minutos. A 
bola estava muito rápida, e ele, embora não soubesse realmente o que fazer com o 
controle, continuava acertando. As pessoas simplesmente pensaram que John era 
um jogador excepcional. 
Passados cerca de 15 minutos, ele finalmente venceu o jogo. E todos o 
cumprimentaram como se ele fosse o melhor jogador do mundo. Acho que John 
nunca soube que o jogo já estava configurado para ganhar. 
Na primavera de 1976, quando ainda estava trabalhando no Apple II, Steve 
e eu tivemos nossa primeira discussão. Ele não achava que o Apple II devesse 
ter 8 slots, ou seja, conectores para encaixar novas placas de circuito no caso de o 
usuário querer expandir a funcionalidade do computador. Steve queria somente 2 
TÓPICO 3 | TIPOS DE COMPUTADORES E SEUS COMPONENTES
51
slots – um para a impressora e outro para um modem. Ele achava que assim seria 
possível fabricar uma máquina menor e mais barata – e que fosse boa o suficiente 
para as tarefas diárias. 
Mas eu queria mais slots; 8 deles. Porque tinha na cabeça a ideia de 
que as pessoas iriam querer muitas coisas no futuro, e que de forma alguma 
deveríamos limitá-las. 
Normalmente, sou uma pessoa fácil de se relacionar, mas daquela vez disse 
para Steve: “Se é o que quer, vá conseguir outro computador para você”. Eu não 
conseguiria economizar um único chip reduzindo o número de slots de 8 para 2, e 
eu sabia que pessoas iguais a mim poderiam eventualmente descobrir coisas para 
adicionar a qualquer computador. 
Na época, eu estava em posição de agir assim. O que não aconteceria 
sempre. Alguns anos mais tarde, a Apple prosseguiu com o projeto do Apple III, 
que foi simplesmente um desastre – e a máquina tinha menos slots. 
Mas em 1976, ganhei a discussão, e o Apple II foi fabricado e no final saiu 
da maneira que eu queria. 
Lembro-me de um dia chegar à HP – onde ainda estava trabalhando 
– e mostrar o Apple II para os outros engenheiros. Demonstrei-o fazendo um 
redemoinho de cores. E os outros engenheiros se aproximavam para dizer que 
aquele era o melhor produto que já tinham visto. E a HP ainda não havia encontrado 
uma maneira de executar corretamente aquele tipo de projeto.
 
Um dia, meu chefe, Pete Dickinson, disse que algumas pessoas em minha 
divisão de calculadoras haviam criado um novo projeto, que seguiu para a aprovação 
da diretoria, um projeto para desenvolver uma pequena máquina de mesa com um 
microprocessador, memória DRAM, uma pequena tela de vídeo e um teclado. E até 
já tinham designado cinco pessoas para desenvolver o BASIC para ela. 
O horrível de tudo aquilo é que eles sabiam o que eu havia feito com o 
Apple I – e mesmo com o Apple II. Mas mesmo assim começaram o tal projeto sem 
mim! Por quê? Não sei. Acho que perceberam que o projeto deles era igual ao que 
eu já havia feito. 
Mas mesmo assim fui falar com o gerente do projeto, Kent Stockwell. 
Embora tivesse criado computadores como o Apple I e o Apple II, eu queria tanto 
trabalhar em um computador na HP que faria qualquer coisa para isso. Eu poderia 
ser um mero engenheiro da interface da impressora. Algo pequeno. 
Então disse a Kent: “Todo meu interesse na vida tem sido os computadores. 
Não as calculadoras”. 
Após alguns dias, fui recusado novamente. 
52
UNIDADE 1 | HISTÓRICO DA COMPUTAÇÃO
Ainda acho que a HP cometeu um enorme erro em não me deixar participar 
do projeto de computadores. Eu era muito leal à empresa. Queria trabalhar lá para 
sempre. Quando se tem um funcionário que diz que está cansado de calculadoras 
e que é realmente produtivo em computadores, deve-se colocá-lo onde ele é 
produtivo. Onde ele trabalha feliz. A única explicação que posso imaginar é que 
havia gerentes e subgerentes naquele projeto de computador que se sentiram 
ameaçados. Eu já havia feito um computador inteiro sozinho. Talvez por isso eles 
tenham me ignorado. Não sei dizer o que estavam pensando. 
Mas deveriam ter dito para si mesmos: “Como fazer para trazer Steve 
Wozniak a bordo? Vamos colocá-lo como engenheiro da pequena interface com a 
impressora”. Eu teria ficado muito feliz se isso tivesse acontecido, mas ninguém se 
preocupou em me colocar onde eu mais gostava. 
Como disse antes, precisávamos de dinheiro.
 
Assim, no verão de 1976, começamos a falar sobre a Apple com pessoas 
potencialmente endinheiradas, mostrando-lhes o Apple II funcionando com cores 
na garagem de Steve. 
Uma das primeiras pessoas para quem mostramos o novo computador

Continue navegando