Buscar

Livro de Fundamentos da Arquitetura de Computadores

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 158 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 158 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 158 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

FUNDAMENTOS
DA ARQUITETURA DE 
COMPUTADORES
PROF. ESP. ANDERSON DE
CASTRO MOURA
“A Faculdade Católica Paulista tem por missão exercer uma ação integrada de suas atividades educacionais, visando à 
geração, sistematização e disseminação do conhecimento, 
para formar profissionais empreendedores que promovam 
a transformação e o desenvolvimento social, econômico e 
cultural da comunidade em que está inserida.
Missão da Faculdade Católica Paulista
 A v. Cristo Rei, 305 - Banzato, CEP 17515-200 Marília - São Paulo.
 www.uca.edu.br
Nenhuma parte desta publicação poderá ser reproduzida por qualquer meio ou forma 
sem autorização. Todos os gráficos, tabelas e elementos são creditados à autoria, sal-
vo quando indicada a referência, sendo de inteira responsabilidade da autoria a emis-
são de conceitos.
Diretor Geral | Valdir Carrenho Junior
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
SUMÁRIO
AULA 01
AULA 02
AULA 03
AULA 04
AULA 05
AULA 06
AULA 07
AULA 08
AULA 09
AULA 10
AULA 11
AULA 12
AULA 13
AULA 14
AULA 15
AULA 16
COMPUTADORES: UMA FERRAMENTA 
CONSTRUÍDA HISTORICAMENTE
AS GERAÇÕES E OS TIPOS DE COMPUTADORES: OS 
ANALÓGICOS E A TRANSIÇÃO PARA OS DIGITAIS
ARQUITETURA DE VON NEUMANN
SEGUNDA E TERCEIRA GERAÇÃO: 
TRANSISTORES E CIRCUITOS INTEGRADOS
O MUNDO NO PÓS-GUERRA E AS INOVAÇÕES DA IBM
DA QUARTA GERAÇÃO ATÉ OS NOSSOS DIAS
FAMÍLIAS DE COMPUTADORES
VISÃO GERAL
O COMPUTADOR E O PROCESSADOR
INTRODUÇÃO AO BARRAMENTO
BARRAMENTO INTERNO
SISTEMAS DE COMPUTADORES
CODIFICAÇÃO DA INFORMAÇÃO
NÚMEROS BINÁRIOS
CIRCUITOS DIGITAIS E LÓGICA DIGITAL
DESAFIOS DO SÉCULO XXI PARA A 
ARQUITETURA DE COMPUTADORES
6
16
26
34
44
53
62
68
76
89
94
100
112
122
134
142
PIPELINE E ARQUITETURAS CISC E RISC
107
119
129
141
149
FACULDADE CATÓLICA PAULISTA | 4
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
INTRODUÇÃO
Estimado(a) estudante,
o meu prazer em compartilhar com você sobre os Fundamentos da Arquitetura de 
Computadores é tamanho que me faz refletir quanto ao papel de professor e aprendiz.
Digo isso, pois no nosso ramo aprendemos cada vez mais e com todos, de repente 
eu possa estar dialogando com quem trabalha com a computação a mais de 20 anos, 
ou com quem tem o seu primeiro contato com este mundo tão rico através deste mate-
rial. Todavia, o importante é entender que somos eternos aprendizes na nossa área e 
devemos sempre manter a cabeça aberta para tanto.
Trabalho há muito tempo na nossa ciência e todo dia aprendo algo que valha a pena 
transmitir. Assim sendo, ao receber o convite para escrever este livro e dar esta aula 
para vocês eu quis, e sempre vou querer, passar o amor que eu tenho pela nossa área, 
uma vez que me enriqueceu com novos horizontes e possibilidades de crescimento 
profissional, financeiro e, acima de todos, intelectual.
Intelectual, pois aprendo cada dia mais sobre programação, lógica, história, e acima 
de tudo, sobre o contato humano! Sim veremos ao longo do nosso livro que a história 
dos computadores, e como os arquitetamos, é também da história do Homem.
Nós, seres humanos, buscamos sempre controlar e manusear o nosso meio, fazemos 
cálculos para que possamos ter as decisões mais acertadas e concretas, buscamos o 
desenvolvimento de soluções que contemplem o todo e por fim, buscamos respostas 
para as nossas demandas. Não te lembra alguma máquina que realiza tamanho trabalho?
Sim, o computador!
Com ele somos capazes de desenhar cenários para resoluções de problemas e 
conjecturar possibilidades de atuação. Perceba que ao passo que a nossa sociedade 
se tornou mais complexa, mais complexos se tornaram os nossos computadores!
Iniciaremos as nossas aulas em Fundamentos e Arquitetura de Computadores, disci-
plina que vamos entender os requisitos necessários para que um computador funcione 
e como escolher os elementos indispensáveis para a otimização do desempenho.
O objetivo ao final das nossas aulas é de que você consiga entender os atributos 
fundamentais da computação e elementos básicos para que você possa se enveredar 
na programação, pois terá um contato com elementos visíveis a um programador e 
FACULDADE CATÓLICA PAULISTA | 5
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
desenvolvedor e os impactos diretos nas diferentes linguagens. Desta forma, serão 
apresentados a você a noção de instruções e endereçamento, bem como as diferentes 
formas de memória e como potencializá-las.
A proposta pedagógica deste livro se divide em quatro grandes frentes que iremos 
problematizar e contextualizar com o nosso cotidiano:
1. Aspectos históricos: nesta seção iremos resgatar os primórdios da computa-
ção, interessante seja que você note a arquitetura que cada período mostra, iden-
tificando os principais fatos da evolução dos computadores, desde as instruções 
e comandos mais simples para o que temos hoje em dia. O intuito aqui será de 
entendermos a evolução da nossa ciência e área de atuação profissional.
2. O computador na sua completude: o foco destas aulas seria lembrarmos 
o que temos na nossa é apresentar a arquitetura geral de um computador e as 
suas principais funções, destacando elementos necessários para a construção 
da mesma.
3. Sistemas lógicos e digitais: a diferenciação entre os sistemas digitais e ana-
lógicos passa por questões que elencamos em três aulas que serão densas e 
necessitarão de muita atenção, pois nos aprofundaremos em codificação da 
informação e bases matemáticas.
4. O futuro da arquitetura de computadores: achei por bem trazer a luz demandas 
que se mostram emergentes, sobretudo, na arquitetura da computação. A IoT se 
mostra como o mainstream e necessita de desenvolvedores e profissionais que 
a entendam e se mostram motivados(as) para dar respostas e propor melhorias.
Portanto,estudante, espero que você contribua para a nossa área com uma atuação 
profissional ética e com aprofundamento de discussões que lhe serão apresentadas 
ao longo do livro. Te vejo como aluno(a) e também como colega de trabalho e amante 
da informática.
Bons estudos e te vejo em breve!
FACULDADE CATÓLICA PAULISTA | 6
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
AULA 1
COMPUTADORES: UMA 
FERRAMENTA CONSTRUÍDA 
HISTORICAMENTE 
Caro discente,
vamos iniciar a nossa caminhada rumo ao conhecimento por uma breve história da 
informática e de como a mesma ajudou o homem a chegar ao nosso atual estágio de 
desenvolvimento. Algum colega seu pode achar certo preciosismo da minha parte em 
começar desde os primórdios da civilização humana, talvez tenham razão.
Mas o meu intuito é de não apenas te instrumentalizar com esta disciplina, seria 
muito despretensioso da minha parte vir aqui e trazer algumas ferramentas que te 
ajudarão no seu porvir profissional e criarão uma vantagem competitiva perante os 
teus pares e a concorrência. 
Não!
Como professor desta disciplina e alguém que tenha vivência no mundo digital, busco 
também que você seja um formador de opinião e um perito que problematize a sua 
prática, que consiga deixar claro para todos que você não lida apenas com máquinas, 
mas acima de tudo informações.
Um profissional capaz de projetar e estruturar sistemas operacionais, entender os 
requisitos necessários para que um computador, independente do seu porte, tipo ou 
capacidade de armazenamento e processamento das famigeradas informações.
Ao nos apropriarmos dos elementos discutidos ao longo desta aula, espero que 
você, caro(a) aluno(a), consiga entender que o ser humano tem uma necessidade de 
entender e controlar o ambiente em torno de si mesmo para a sobrevivência, ou mesmo 
para ganhos cada vez maiores que podem significar subsistência de algum negócio 
ou ramo que tenha rendimentos monetários.
Enfim, o homem sempre desenvolveu ferramentas que garantiram certa vantagem 
sobre as demais criaturas, desde armamentos rudimentares até instrumentos de 
contageme análise astronômica que facilitam, por exemplo, o manejo da agricultura 
FACULDADE CATÓLICA PAULISTA | 7
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
e a fundação de cidades por meio de um domínio sobre a natureza e o processo de 
sedentarismo humano.
A contar dos agrupamentos humanos, muito da nossa evolução se deve ao tra-
tamento de dados e aos cálculos que precisamos fazer grandes momentos, rotas 
comerciais, descobrimentos e novos mundos, a melhoria substancial da medicina e 
de métodos menos invasivos enfim, tudo isso precisou ser computado e tratado para 
que houvesse e acontecesse.
Bons estudos!
O homem e a máquina
Uma provocação…
Por que temos computadores cada vez mais velozes e mais complexos?
Por que buscamos tanto a performance e respostas rápidas?
Por que os computadores e como eles são construídos e projetadose por que sem-
pre mudam?
Por que os computadores nunca estão à altura das nossas necessidades?
São muitas perguntas que você, aluno, sempre está lidando ou se deparando ao longo 
do seu percurso de vida e profissional. Sabemos bem as respostas, todavia podemos 
revisitar conceitos que muito nos ajudarão no nosso entender sobre a arquitetura e 
organização de computadores.
Devemos notar que ao longo da nossa evolução, enquanto seres humanos, novas 
capacidades e outras complexidades se mostraram como obstáculos e desafios para 
a nossa sobrevivência. Sendo seres viventes, buscamos viver com segurança, conse-
guindo resolver problemas e com os recursos que temos disponíveis. E para tanto se 
faz mister termos a devida sistematização do conhecimento e um sistema que permita 
a alimentação usando de informações que podem ser importantes, desde que saiba-
mos como utilizá-las.
Talvez não fique claro ainda para você o porquê desta aula, de fazer este breve 
retrospecto histórico da computação e de alguns dos principais maquinários que nos 
desenvolvemos ao longo da nossa trajetória, mas a verdade é que aprender a história dos 
computadores é entender a história do homem! Ao passo que temos questionamentos 
FACULDADE CATÓLICA PAULISTA | 8
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
e limitações, temos a necessidade de extrapolar as fronteiras de pensamento e de 
possibilidades de realizações.
Cabe a você, futuro(a) analista e cientista de computadores, descobrir quais as 
demandas humanas que se apresentarão futuramente e quais respostas você dará. 
Como organizar todos os algoritmos para o pleno funcionamento de um sistema e de 
como irão resolver problemas e dar maior segurança aos usuários.
Você, estimado discente, tem a missão de expandir horizontes e trazer à tona solu-
ções para os seus pares, contribuir para o desenvolvimento econômico e intelectual 
de toda a população, logo se faz necessário problematizar também a evolução do 
computador e de como o homem se desenvolveu com a ferramenta que ele mesmo 
criou. Vamos juntos!
Elementos antecedentes da informática
Aqui nesta seção iremos revisitar alguns marcos da história dos computadores e da 
informática, refletindo sobre o papel que o progresso da nossa humanidade exerceu 
sobre as máquinas e sobre o nosso modo de viver. Começamos de forma modesta, 
com instrumentos e ferramentas pouco elaboradas e chegamos ao famoso http://www
Defendo a tese de que o desenvolvimento tecnológico foi concomitante ao desenvol-
vimento humano, ou seja, há uma dialética entre o que o homem é e o que ele produz. 
Não está claro ainda?! Reflita a respeito da seguinte frase: “o ser humano é o único ser 
é capaz de desenvolver uma ferramenta e continua a utilizá-la”.
Guarde bem e reflita sobre a frase supracitada!
Desde que descemos das árvores, nos seres humanos, temos vivido em ambiente 
inóspito o qual nos obrigou a elaborar alternativas para a sobrevivência. Os primeiros 
agrupamentos humanos buscavam locais que lhes fornecem condições objetivas de 
vida e, de repente, se estabelecerem, criando as primeiras comunidades sedentárias.
O modo de vida primitivo e sem a devida sistematização das informações que os 
primeiros humanos se depararam, cobrou um preço altolevando-os a sempre adotar 
medidas não muito racionais diante de problemas.O conhecimento era transmitido de 
forma oral e apenas através da experiência vivenciada por cada membro do bando, os 
instrumentos de cálculos eram muito rudimentares e pouco complexos.
FACULDADE CATÓLICA PAULISTA | 9
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Algumas questões são consideradas como “pontos fora da curva” devido ao alto 
grau de elaboração e nível de aprimoramento matemático, o que alimenta hipóteses 
com dúvidas que ainda permeiam no nosso imaginário por falta de provas conclusi-
vas, a exemplo temos construção de monumentos históricos tais como Stonehenge, 
a necrópole de Gizé e Machu Picchu. Perfeitamente construídos e feitos com cálculos 
e uma exatidão que encontramos apenas na nossa era, com supercomputadores e 
engenheiros altamente preparados.
Por que não começar pelos próprios números não é mesmo? Sem eles não consegui-
mos contabilizar e calcular, os números são frutos de uma necessidade humana para 
dar e/ou obter respostas e estruturar a realidade que vivíamos e que vivemos. Imagine 
o seguinte, será que a computação moderna existiria sem o simples número 0?
Isto está na rede
Os números como os conhecemos levaram algumas centenas de anos para 
que fossem totalmente concebidos. Os denominados números arábicos come-
çaram a ser desenvolvidos há mais de 5000 anos, remontando ao antigo Egito 
e o sistema de contagem de pagamentos para os operários, bem como as 
colheitas realizadas ao longo do Nilo.
Contribuições dos Sumérios, apesar de serem rudimentares, mudaram em 
muito o nosso mundo com a possibilidade do desenvolvimento da escrita e 
de sistemas mais elaborados. A partir deles os números existiram e graças 
aos mesmos nos fora possibilitadaa linguagem e a programação de compu-
tadores por conseguinte.
Sabemos que graças ao sistema binário que temos a possibilidade de termos 
uma computação tão moderna e que vai rompendo ainda mais com os limites 
conhecidos, levando o conhecimento a se multiplicar. Devemos isso graças 
um singelo número, a primeira vista, que sem ele não teríamos um sistema 
de informação tão sofisticado.
Neste sentido trago para vocês uma matéria da BBC de como o número zero 
revolucionou o mundo e possibilitou que estivéssemos aqui!
Segue o link:
shorturl.at/gnL45
Boa leitura e reflexão
FACULDADE CATÓLICA PAULISTA | 10
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Porém, vamos focar em pontos importantes da nossa aula para a compreensão do 
todo e dos principais elementos que construíram o que conhecemos sobre informática. 
Comecemos por um instrumento que todos já viram, conheceram e que já tiveram um 
primeiro contato e que inclusive o utilizaram: o ábaco.
Precisamos ter em mente que tivemos vários tipos de ábacos o romano e o da 
mesopotâmia, porém o mais famoso é o chinês que possibilita cálculos de até 5 alga-
rismos com a mesma velocidade das calculadoras que temos hoje em dia. Ao passo 
que as relações sociais se tornaram mais complexas, especialmente no que tange ao 
comércio de especiarias que os chineses e indianos faziam, a necessidade de ter um 
dispositivo assim preciso os deu certa vantagem comparativa perante aos demais.
Por falar em rotas comerciais, elas contribuíram de forma significativa para moder-
nização da sociedade e ampliação de perspectivas sobre os limites humanos dentro 
da própria natureza. Em nome de um crescimento econômico, as nações e mercadores 
financiaram a ciência e expedições para que as suas buscas fossem instrumentalizadas 
e devidamente rentáveis.
Desde o Império Romano, com seus armamentos sofisticados que lhes conferiram 
um poderio bélico sem que outras nações do mundo conseguissem fazer frente, o 
mundo não via tamanha corrida porinovações e formas de criar riquezas.
Neste cenário temos as grandes navegações que em um primeiro momento busca-
vam novos caminhos para mercados promissores e que poderiam render boas margens 
de lucros. Com o tempo, os objetivos dessas empreitadas foram alterados e começaram 
a buscar “novas terras” e mais matérias-primas para exploração.
Assim sendo, pesquisas em matemática e astronomia foram impulsionadas com 
vistas de otimizar todos os recursos, especialmente os portugueses que tinham a 
estabilidade política e posicionamento geográfico, bem como pelo know-how adquirido 
dos árabes graças à tomada do Ceuta, todavia, pobres em patrimônios e sem poderio 
econômico, inferior aos outros reinos como o Francês e o Britânico. 
Neste sentido, Teixeira (2014, p.90) nos lembra que o pioneirismo português teve 
como um dos pilares justamente o uso das ciências e de instrumentos de medição:
[...] Foram os primeiros a usar os conhecimentos matemáticos para 
aperfeiçoar os instrumentos de navegação e elaborar mapas e car-
tas náuticas que contribuíram notadamente para que os ventos dos 
descobrimentos soprassem a favor de Portugal. Simplificaram e 
adaptaram o astrolábio, instrumento usado pelos árabes na astro-
nomia, para fornecer a posição da embarcação em relação ao Sol; 
FACULDADE CATÓLICA PAULISTA | 11
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
aperfeiçoaram a bússola para não ser afetada pelas interferências 
magnéticas, melhoraram os mapas e tornaram possível o uso de 
cálculos matemáticos para orientação de rotas.
Outro elemento de extrema importância para os primórdios da computação é justa-
mente a sistematização de logaritmos feita por John Napier (1550-1617) que o levou 
a popularizar o ponto decimal e por criar um artefato chamado Ossos de Napier, que 
são tabelas de multiplicação gravadas em marfim, ou ossos, que possibilitava a mul-
tiplicação e a divisão de modo automático.
A Estrutura de Napier possibilitou a criação da Régua de Cálculo criada pelo padre 
William Oughtred (1575-1660) que imperou até a popularização da calculadora que 
teve a sua propagação em idos de 1970. A régua de cálculo tinha como base o uso 
intensivo dos logaritmos. 
Figura 2: Régua de Cálculo de William Oughtred
Fonte: shorturl.at/AFJKR
Por que saber sobre o surgimento dos logaritmos é tão importante para nós? Graças 
a eles conseguimos realizar cálculos do desempenho de sistemas e de programação. 
FACULDADE CATÓLICA PAULISTA | 12
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
O logaritmo pode nos ajudar, por exemplo, em definir o Número de cores e a Profundi-
dade de Cor.
Isto acontece na prática
Acompanhando o matemático Claude Shannon, o pessoal da Informática pre-
fere contar em potências de 2, ou seja, eles preferem usar logaritmo em base 
2. Como um exemplo, vejamos a seguinte tabela que dá as profundidades de 
cor, mais frequentemente usadas, associadas às respectivas quantidades 
de cores possíveis de representar numa tela (monitor) de computador.
NÚMERO DE CORES PROFUNDIDADE DE COR
16 4
256 8
65536 16
16777216 24
Quadro 1 - Relação de Logaritmos e cores de uma tela de PC
Fonte: http://www.mat.ufrgs.br/~portosil/passa1a.html
Isto acontece na prática
Sabemos que o mundo estava em total deslumbre com as conquistas e 
explorações de novas terras, o mundo experimentava uma grande eferves-
cência pelo o que havia de novo, portanto,os investimentos na ciência e o 
contato com outras culturas cativou ainda mais os investidores e estudiosos 
em novas formas de planejar, na criação de mecanismos capazes de rela-
tar, o mais próximo do perfeito, as posições de astros e aprimoramento de 
mapas, levando a cartografia em patamares nunca imaginados e auxiliando, 
em muito, as expedições que buscavam fontes de riquezas.
A exemplo disto temos Wilhelm Schickard que fez carreira como professor 
universitário em Tübingen em áreas como Astronomia e Hebraico. Uma alma 
pensante e inquieta inventou numerosas máquinas para datas astronômi-
cas e para o idioma hebraico, potencializou a cartografia graças ao uso da 
astronomia, fazendo com que os seus mapas fossem muito mais elaborados.
Trazemos ao seu saber este cientista pelo fato que o mesmo foi considerado 
o primeiro inventor de uma máquina a calcular totalmente mecânica, capaz 
FACULDADE CATÓLICA PAULISTA | 13
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
de fazer as 4 operações básicas da matemática 
com números de 6 dígitos e indicando a resposta 
de um jeito peculiar, usando um sino.
• Anotação para o diagramador seria possível 
colocar o retrato de Wilhelm Schickard ao lado 
da sua máquina de calcular? Muito obrigado - 
Figura 4- Máquina de calcular de Wilhelm Schickard
Fonte: shorturl.at/pwCV5
Logo, esta calculadora foi usada por outros teóricos e matemáticos que per-
ceberam a eficácia da mesma, dentre os notórios mestres temos Johannes 
Kepler,cujos estudos a respeito da matemática e física são importantíssimos. 
Esta máquina intrigante por sua forma se faz notar ainda mais por sua his-
tória, a original foi destruída em um incêndio, mas graças aos esboços ela 
pode ser reconstruída, conforme a imagem acima, apenas na década de 60 
do século passado.
Figura 3-Retrato de Wilhelm Schickard
Fonte: shorturl.at/flF36
Figura 3-Retrato de Wilhelm Schickard 
Fonte: https://history-computer.com/
wilhelm-schickard-and-the-rotating-
clock-complete-history/
Figura 4- Máquina de calcular de Wilhelm Schickard
Fonte: https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/
https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/
https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/
https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/
https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/
FACULDADE CATÓLICA PAULISTA | 14
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Anote isso
Você já percebeu que os grandes nomes dos séculos XV e XVI acumulavam 
funções e campos de estudos? Que desenvolviam mais de um projeto e em 
áreas que consideramos diferentes e/ou complementares? Que abordavam 
mais de uma ciência e de um saber?
Isso se deve pela organização das ciências, ou seja, até a Revolução Industrial 
não tínhamos tantas profissões e os campos de estudos eram bem mais 
amplos. Isso quer dizer que o conhecimento não era tão segmentado e tão 
especializado ao ponto de termos tantas formas de tratar o mesmo assunto.
Nos séculos passados os cientistas e pensadores encontravam espaço para 
as suas pesquisas no que a academia convencionou a chamar de Ciências 
Naturais, e como o próprio nome já diz, visa estudar a natureza e o universo 
em seus aspectos mais gerais. Assim sendo, temos os seguintes domínios:
• Astronomia;
• Biologia;
• Física;
• Química;
• Ciência da terra;
• Interdisciplinares.
Portanto, os fundamentos de todas as ciências modernas, aquelas que nasce-
ram graças à Revolução Industrial, são advindas, em grande parte, das ciências 
naturais. Devemos notar que a Filosofia e a Linguística também alicerçava os 
saberes, contudo, há uma discussão quanto à base epistemológica. 
Devemos lembrar que comparando com a nossa atualidade, seria muito 
generalista e devido ao tamanho das informações que temos acesso, para 
que possamos produzir de forma efetiva e eficaz se fez necessário este alto 
grau de especialização.
A exemplo disto temos vários profissionais Front-end e Back-end, todavia, 
poucos como Fullstack, pois exige um saber total e de todas etapas e partes 
do desenvolvimento.
Entenda mais no seguinte link: shorturl.at/gwWX4
Como podemos ver estes foram as principais premissas que levaram à formação 
da nossa ciência e a elaboração dos dispositivos que utilizamos no nosso cotidiano. 
Todavia, como dito, foram apresentados elementosprimários, que inspiraram as nos-
sas supermáquinas.
Entenda mais no seguinte link: https://www.letscode.com.br/blog/front-end-back-end-e-
full-stack-qual-a-diferenca
https://www.letscode.com.br/blog/front-end-back-end-e-full-stack-qual-a-diferenca
https://www.letscode.com.br/blog/front-end-back-end-e-full-stack-qual-a-diferenca
FACULDADE CATÓLICA PAULISTA | 15
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Portanto, se faz necessário que aprendamos as gerações de computadores e 
como podemos diferenciá-los entre os que encontramos na nossa modernidade. 
Mas esta é uma temática para a nossa próxima aula, que apresentaremos a evolu-
ção dessas gerações.
FACULDADE CATÓLICA PAULISTA | 16
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
AULA 2
AS GERAÇÕES E OS TIPOS 
DE COMPUTADORES: OS 
ANALÓGICOS E A TRANSIÇÃO 
PARA OS DIGITAIS
Nobre aluno(a), te convido a se atentar para esta aula com o mesmo afinco que você 
teve com a anterior. O conteúdo que apresentarei nesta aula será focado nas bases 
necessárias para que você entenda a arquitetura dos computadores, portanto conhe-
cer sobre as gerações e os tipos de computadores se faz mister para que consigamos 
conceber da onde saímos e para onde vamos. Como fizemos este salto das roldanas 
e indo até as válvulas.
Nós já aprendemos que o computador foi uma ferramenta construída e desenvolvida 
pela história humana com alguns propósitos, e sem esta máquina a humanidade seria 
incapaz de responder algumas dúvidas importantes para avanços da nossa sociedade.
Contudo, insisto em te fazer pensar caro discente: o que é um computador?
Por favor, reflita mais e me acompanhe ao longo desta aula para que possamos, juntos, 
descobrir o que seria e como poderíamos definir o PC de um modo assertivo e totalizante. 
Levando em conta as suas funções e os mecanismos atuantes para a sua performance.
A aurora da computação realizou-se através do uso de, para os olhos não treinados, 
utensílios singelos de estimativas e facilitadores de cálculos, que inclusive cabiam no 
bolso. Com funções limitadas e poucos artifícios, as ideias por detrás dos dispositivos 
eram inovadoras para aquela época e persistem nos nossos dias.
Com o tempo, os computadores, passaram a demandar mais espaço físico e mais 
tecnologia para que outros cálculos fossem realizados e entregues. Começamos a 
assistir o apogeu de uma nova era e um novo modo do homem responder às suas 
questões e buscar alternativas que maximizem as suas tomadas de decisões.
Sem reservas, vos garanto que muito precisou ser feito para que a informática e a 
computação estivessem no grau de autonomia e aperfeiçoamento como estão hoje, 
FACULDADE CATÓLICA PAULISTA | 17
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
portanto, vamos revisitar alguns grandes impactos provocados por gerações de com-
putadores que, por sua vez, trouxeram modernidade e evolução.
Acompanhe comigo a evolução da informática e as transformações que foram pro-
vocadas no mundo todo e os impactos mais significativos para a memória humana.
Geração Zero: Computadores Mecânicos (1642-1945)
Alguns teóricos se contradizem quanto ao marco inicial da Geração Zero, a literatura 
a respeito não deixa evidente a notória contribuição que Schickard com a sua máquina 
de calcular mecânica deu para a informática. Portanto, trabalharemos com a certeza e 
o nome preponderante como o pioneiro na concepção de máquinas autônomas, Blaise 
Pascal(1623-1662). 
Teórico das ciências naturais e profundo conhecedor do método científico, Pascal 
se mostrou um verdadeiro prodígio inventando a sua primeira máquina de calcular 
aos 19 anos que futuramente se chamaria de Pascalina. Seus escritos abriram novos 
campos de pesquisa e importantes para a informática: a Geometria e a Probabilidade.
Figura 5 - Pascalina
Fonte: shorturl.at/jquY0
FACULDADE CATÓLICA PAULISTA | 18
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Com a Pascalina os cálculos eram feitos com maior precisão e velocidade se com-
parado com o ábaco. O dispositivo que contava com roldanas era capaz de somar, 
subtrair e multiplicar dependendo da quantidade de giros e se o sentido era horário ou 
anti-horário. Essa distinta tecnologia de Pascal é utilizada nos nossos dias através dos 
odômetros de carros, onde o sistema de contagem é o mesmo.
Apesar da sua morte prematura, Pascal deixou um legado que permitiu que a sua 
invenção inspirasse matemáticos de todo o continente europeu, dentre eles temos 
oGottfried Wilhelm Leibniz, que usando a alguns mecanismos da Pascalina como base 
para operações de adição e subtração, criou a sua máquina de calcular adicionando 
ainda a multiplicação e a divisão através de um sistemas de roldanas e que eram acio-
nados de forma humana.
Isto está na rede
A contribuição de Leibniz para a nossa ciência vai além da sua máquina de 
calcular, um pensador por natureza, ele redescobriu o sistema binário antes 
evidenciado por teóricos chineses e pelo indiano Pingala, e fez a sua notação 
utilizando 0 e 1 como usamos ainda hoje.
Por efeito deste aperfeiçoamento de Leibiniz, temos a álgebra Booliana que 
permite fazer operações lógicas e aritméticas usando apenas 2 dígitos, toda 
a eletrônica e computação estão baseadas no sistema binário e na lógica 
de Boole. Não apenas a linguagem de programação, mas também o arma-
zenamento de mídias.
Que tal conhecermos mais sobre a numeração binária?
Clique no link abaixo:
shorturl.at/eksCV
Acredito que este material extra será de muita valia para você.
Ao passo que avançava o desenvolvimento matemático e das engenharias, mais 
máquinas foram concebidas e com maior complexidade, a exemplo disto temos o 
Tear de Jacquar que produzia tecidos de um modo pré-autônomo, quer dizer que este 
equipamento tinha uma programação fornecida através de um cartão com furos. Este 
invento que remonta ao ano de 1804 revolucionou a indústria de tecidos e impulsionou 
a revolução industrial, abrindo perspectivas dos empresários fabris sobre investimentos 
em maquinários e novas tecnologias para obtenção de mais lucros.
FACULDADE CATÓLICA PAULISTA | 19
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Após anos de aplicações em equipamentos um chamou atenção, a Máquina Dife-
rencial de Babbage que encontraria o seu uso na engenharia naval, contando com os 
ineditismos estava no seu output, a perfuração sobre uma chapa de aço, este tipo de 
gravação predizia os disquetes e CD-ROMS. Porém, o orçamento deste projeto estourou 
e o governo britânico achou por bem cancelar. O projeto descritivo ainda está disponível.
Em meados de 1837, Charles Babbage idealiza a máquina analítica que possuía mais 
funções comparadas ao seu invento supracitado, pois tinha os seguintes elementos:
• Armazenagem – memória.
• Entrada - leitora de cartões perfurados com comandos específicos.
• Saída - Perfuradora de cartões com as informações já processadas.
• Unidade de Cálculo ou de processamento de dados.
Todavia, assim como o invento anterior, não saiu do papel e caso fosse montada 
seria do tamanho de uma locomotiva. O fato da máquina não ser montada nos causa 
certa lamentação, pois havia alguém que Babbage muito trocava informações valiosas, 
Ada Byron.
A Condessa de Lovelace era uma matemática pela universidade de Cambridge 
e foi responsável por criar o primeiro algoritmo para ser processado justamente na 
Máquina Analítica de Babbage. Os seus algoritmos levariam a computar valores de 
funções matemáticas e produzir escritos matemáticos que a levariam a ser conhe-
cida como a primeira programadora. Mesmo não sendo tangenciadas, as ideias de 
Babbage foram relevantes para a nossa ciência, apresentou ao mundo a programação 
de computadores através de algoritmos criados por uma cientista que muito cedo 
deixou a comunidade científica.
Contudo, o interesse pela informática e os avanços científicosnão ficavam restritos 
à Europa, os ventos da liberdade de criação e a sede por inovações tecnológicas che-
garam aos Estados Unidos da América e houve também uma corrida por máquinas 
inteligentes. A exemplo disto temos Herman Hollerith que se inspirou em Babbage e 
Jacquar e usou a sua “tabuladora” no censo americano. A máquina de Hollerith, nome 
bem conhecido pelos trabalhadores não é mesmo, era bem completa, possuindo teclado 
e estações de leitura e de perfuração, aperfeiçoando o processamento de dados. O 
empreendedorismo americano, o levou a ser um dos fundadores da IBM.
FACULDADE CATÓLICA PAULISTA | 20
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
A transição - a caminho da Inteligência Artificial
Os computadores da Geração Zero, apesar de serem rudimentares, eram confiáveis 
e com possibilidades medianas de uso, pois a tecnologia dos mesmos era de alguma 
forma simples e direta, porém sem um padrão de treinamento e publicização.
Até o momento, temos aprendido que a computação exigia conhecimentos de 
matemática e de engenharia.
Aqui cabe uma pausa para evidenciarmos uma divisão quanto aos tipos primários: 
analógicos e digitais.
Geração 1 - O uso das válvulas 
Temos aprendido que momentos intensos da história humana são capazes de criar 
circunstâncias para o avanço tecnológico e com os computadores da primeira geração 
não poderia ser diferente. O Colossus de Alan Turing entra em cena com a missão de 
decifrar mensagens que os nazistas trocavam entre si. Apesar de serem interceptadas 
não eram entendidas, pois eram codificadas pelo sistema chamado ENIGMA.
Turing sabia que seria possível “traduzir” as mensagens e as ordens que o exército 
do Führer seguia, todavia seria necessário fazer uma infinidade de cálculos em um 
tempo recorde, portanto seria possível somente com uma supermáquina de cálculos 
para quebrar esses códigos, através da criptoanálise ele foi pioneiro na Inteligência 
artificial e da ciência da computação.
Como foi construído apenas para lidar com a descriptografia de mensagens, não foi, 
portanto, fácil programá-lo e que confirmar a tese de Turing segundo a qual o compu-
tador era mais uma máquina lógica do que uma simples máquina digital.
O terceiro centro de atividades na Inglaterra foi o National Physical Laboratory (NPL), 
onde as inspirações vieram de Alain Mathison Turing. Turing não ficou muito tempo 
com a NPL, mas em 1948 o Pilot ACE que ele desenvolveu iniciou as suas atividades 
que seguiram até 1950, refletindo sua visão de computador. O ACE utilizou memórias 
ultrassônicas e para o para programar era necessário conhecer a estrutura da máquina.
FACULDADE CATÓLICA PAULISTA | 21
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Isto está na rede
Que tal conhecer mais sobre Turing usando outros elementos de aprendizagem?
Sim podemos aprender muito usando ferramentas alternativas e também 
esclarecedoras, tal como o filme que eu irei sugerir para que você consiga 
resgatar o contexto que Turing vivia e como criou o COLOSSUS. Atente-se 
para a Sinopse:
Durante a Segunda Guerra Mundial, o governo 
britânico monta uma equipe que tem por obje-
tivo quebrar o Enigma, o famoso código que 
os alemães usam para enviar mensagens aos 
submarinos. Um de seus integrantes é Alan 
Turing (Benedict Cumberbatch), um matemá-
tico de 27 anos estritamente lógico e focado 
no trabalho que tem problemas de relaciona-
mento com praticamente todos à sua volta. 
Não demora muito para que Turing, apesar de 
sua intransigência, lidere a equipe. Seu grande 
projeto é construir uma máquina que permita 
analisar todas as possibilidades de codifica-
ção do Enigma em apenas 18 horas, de forma 
que os ingleses conheçam as ordens enviadas antes que elas sejam executadas. 
Entretanto, para que o projeto dê certo, Turing terá que aprender a trabalhar em 
equipe e tem Joan Clarke (Keira Knightley) sua grande incentivadora.
Como na Alemanha, nos Estados Unidos a tendência digital sempre continuou. 
Depois da Alemanha e da Inglaterra, a próxima etapa do desenvolvimento das calcula-
doras foram os Estados Unidos, com os militares e universidades de prestígio como as 
da Pennsylvania e Princeton eminentes cientistas e pesquisadores trabalharam pelos 
esforços de desenvolverem uma tecnologia que lhes conferisse vantagem competitiva.
A guerra trouxe consigo muito mais que mortos e rastro de destruição nos países 
europeus e alguns asiáticos, trouxe também novos protagonistas da informática, com 
cientistas se refugiando e fugas de cérebros perseguidos por regimes extremos, os 
Estados Unidos assumiram o protagonismo durante um bom período de tempos, tão 
verdade que usamos muito o inglês nas configurações. 
Figura 6- Capa do Filme “O jogo da imitação”
Fonte: shorturl.at/vFOUW
FACULDADE CATÓLICA PAULISTA | 22
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Ainda precisa ser lembrado que a nação estadunidense se tornou um dos maiores 
clientes de computação e informática, pois o exército necessitava de tabelas de alcance 
para a artilharia pesada. Os cálculos do setor de balística necessitavam ser mais preci-
sos e rápidos, assim sendo as mãos humanas não seriam as mais eficazes, o mundo 
estava em guerra e esperar por resultados por dias era um luxo que ninguém poderia 
se dar. O Analisador Diferencial Bush fazia o seu melhor, contudo ainda era insuficiente.
Desta forma, no ano de 1943 o professor John Mauchley e o seu aluno J. Prespe-
rEckert iniciaram a construção de um “integrador numérico e computador eletrônico” 
com um valor inicial de US$61700.00 e que após adequações e três anos passou a ter 
um orçamento de US$ 486.804.22. Algo para se remarcar.
Neste sentido, Geraldi (2013, p.27) elucida sobre o funcionamento do ENIAC:
O ENIAC entrou em funcionamento no dia 14 de fevereiro de 1946 e 
tinha como objetivo realização de cálculos balísticos para o exército 
dos Estados Unidos. Ele pesava 30 toneladas, possuía 17.468 válvu-
las, 7.200 diodos, 1.500 relés, 70.000 resistores, 10.000 capacitores, 
ocupava uma área de 167 m², consumia entre 100.000 e 200.000 
Watts, devido a esse alto consumo de energia, quando o ENIAC 
estava ligado as luzes da Filadélfia sofriam queda de iluminação. Sua 
capacidade de cálculo era de 5.000 adições e 300 multiplicações por 
segundo, era cerca de 1.000 vezes mais rápido que os outros com-
putadores da época, realizava em 30 segundos os cálculos balísticos 
que demoravam até 12 horas para serem feitos manualmente ou 15 
minutos pelo Analisador Diferencial Bush.
O sucesso foi tamanho que mais inves-
timentos para esta área foram disponibili-
zados pelo governo norte-americano com 
a premissa de ter a vanguarda da era da 
informática, melhor dizendo, em todos os 
setores eles queriam ser os melhores. Pelo 
conflito não ter ocorrido no seu território e 
por conquistar a liderança econômica, os 
EUA passaram ater condições que lhes for-
neciam superioridade perante aos outros 
países, atraia os melhores teóricos para o seu mercado, fazendo com que nenhuma 
outra nação conseguisse fazer frente ao seu nível de expertise.
Figura 7 - O Interior do ENIAC
Fonte: https://tinyurl.com/y4u32yua
FACULDADE CATÓLICA PAULISTA | 23
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Como órgão de entrada e saída, o ENIAC tinha um cartão de leitura perfurado. Para 
o processamento, ele tinha um multiplicador, um divisor, um extrator de raiz quadrada 
e vinte aditivos. ENIAC foi composto de módulos que você tinha que montar sempre 
que quisesse executar um programa. As tabelas de funções e os microinterruptores 
frontais também tiveram que ser redefinidos a cada cirurgia.
Esta máquina para conectar todos os programas necessitava que fosse manuse-
ada por especialistas com alto grau de especialização e conhecimento, o quê poderia 
gerar uma série de demandas. No entanto, foi muito eficaz com o trabalho para o qual 
foi projetado.ENIAC foi mil vezes mais rápido que os computadores de retransmissão 
eletromecânica. Ele precisou duzentos microssegundos para adicionar e 2,8 ms para 
fazer uma multiplicação. A máquina de palavras era um número de dez dígitos que ele 
poderia multiplicar três centavos por segundo, encontrando o valor de cada produto 
em uma tabela de multiplicação armazenada na memória.
A ENIAC começou a operar em 1945, mas não pôde ser inaugurada somente em 
fevereiro de 1946. Esta máquina foi considerada como o primeiro computador eletrônico 
de alta velocidade que foi usado entre 1945 e 1955.
A ENIAC não contribuiu muito durante a guerra, até porque mesmo antes de sua 
inauguração a guerra acabou, mas a ENIAC tornou possível convencer o governo militar 
e federal sobre o uso de eletrônicos para o cálculo. Foi essa visão que continuou após 
a guerra.
ENIAC, entre outros trabalhos sobre meteorologia, e a mecânicatambém foram usa-
das pelos cientistas de Los Alamos que estavam enviando à Universidade da Pensilvânia 
para realizar os principais cálculos secretos sobre as cadeias de reação termonucleares 
que permitiram criar a bomba de hidrogênio.
Em 1971, houve uma controvérsia sobre a autoria do conceito de ENIAC. A alegação 
afirmava que John Vincent Atanassof colocou que esse conceito não existia durante a 
década de 1930 no Iowa StateCollege. Em 1973, o tribunal deu um veredicto ao cons-
trutor que representava Atanassof.
Dada à escala do projeto ENIAC, sua construção exigiu uma grande coragem por 
parte dos tomadores de decisão e da Pesquisa Naval que patrocinou o projeto.
FACULDADE CATÓLICA PAULISTA | 24
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Conceito de programa registrado na memória
A solução foi procurar a máquina automática no sentido amplo do termo. Durante 
a construção de O ENIAC Goldstine teve a chance de conhecer o grande matemático 
John Von Neumann e o interessou no projeto. A grande dificuldade de O ENIAC foi sua 
incapacidade de armazenar muita informação. 
Depois de várias sessões de trabalho com as autoridades da Moore School, Von 
Neumann escreveu um documento em uma máquina capaz de armazenar programas 
e dados na memória. Em 30 de junho de 1945, o conceito de programa armazenado na 
memória era registrado em um documento intitulado “Primeiro rascunho de um relatório 
EDVAC”. Ignorando os detalhes de engenharia, o relatório descreve o computador como 
um sistema de organização lógica e suas unidades funcionais. Assim, pela primeira vez, 
a estrutura lógica e a teoria da noção de computador e programação foi desenvolvida.
Embora a ideia de programas armazenados na memória tenha nascido na ocasião 
da construção do ENIAC, não foi, contudo, os membros da Moore School que tiveram 
que implementar o primeiro programa de computador gravado.
O EDVAC deve ser uma máquina binária muito mais serial econômico em compo-
nentes que o ENIAC, que era um computador decimal onde cada dígito foi representado 
por um flip-flop. É por esse motivo que o EDVAC deve ter metade dos componentes e 
cem vezes mais memória. São estes discussões sobre a melhoria dos conceitos ENIAC 
com novas memórias que levaram à fabricação de EDVAC. 
Receita de sucesso que trouxe da Hungria um homem que revolucionaria a infor-
mática com uma proposta simples e elegante, dividindo bem cada função do sistema, 
arquitetando-o de fato, modelando-o para as necessidades do computador e de quem 
o usa. John Von Neumann é o nome deste gênio revolucionário e que merece uma 
seção à parte para explicar o seu modelo e a sua contribuição.
Introdução ao Modelo de Neumann
Nascido como Margittai Neumann János Lajos em Budapeste, John Von Neumann 
teve o seu real nome alterado algumas vezes por questões semânticas ou mesmo de 
segurança. Oriundo de uma família judia abastada, acostumado ao conforto que o 
FACULDADE CATÓLICA PAULISTA | 25
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
seu pai davae que desde a mais tenra idade mostrava aptidão fora do comum para os 
estudos, o levando a alçar voos maiores.
Com notas e títulos que o colocavam como um estudante brilhante, Neumann logo se 
tornou uma referência no mundo da matemática, a comunidade científica o respeitava 
pelos seus trabalhos, tendo-o como um jovem gênio. Com todas essas credenciais, 
a nação da liberdade o receberia de braços abertos, colocando-o como professor da 
prestigiada Universidade de Princeton em 1930 e continuou lecionando até a sua morte.
Apresentações feitas, vamos demonstrar o modelo de Neumann e veremos que é 
o mesmo utilizado nos dias de hoje, os computadores digitais convencionais seguem 
este padrão como trazem (MURDOCCA; HEURING, 2000):
• Unidade de entrada - abastece com instruções e dados o sistema.
• Unidade de Memória - Armazena os dados do sistema.
• Unidade Lógica e Aritmética - processa os dados.
• Unidade de Controle - controla a execução das instruções e o processamento 
dos dados.
• Unidade de Saída - apresenta os resultados dos dados processados.
Figura 8 - Modelo de Von Neumann
Fonte: do próprio autor
Detalharemos mais a respeito da arquitetura de Von Neumann na próxima aula e 
entenderemos como este modelo revolucionou o mundo da informática.
FACULDADE CATÓLICA PAULISTA | 26
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
AULA 3
ARQUITETURA DE VON NEUMANN
Caro estudante, até aqui focamos em aspectos históricos da informática e da neces-
sidade que o homem sempre teve em aperfeiçoar computadores. Claro que ainda falta 
falarmos sobre mais gerações, todavia entendo que para maior proveito das nossas 
discussões precisamos entender o que foi a arquitetura de Von Neumann e como a 
mesma revolucionou a nossa área.
Este cientista trouxe uma forma diferente de organização dos computadores, influen-
ciando no tamanho das máquinas, desempenho do processamento de dados, na velo-
cidade das respostas e até em linguagem de programação, possibilitando que outros 
algoritmos e possibilidades fossem concretizadas.
Portanto, convido você a começar a refletir no que esta arquitetura foi pioneira e a 
pensar o que ainda temos de herança da mesma. Reflita sobre todo o contexto o qual 
permeia a era da informática e o salto revolucionário que foi proporcionado por esta 
forma diferente de atribuir os usos e atribuições da memória.
PRIMÓRDIOS
Por mais de sessenta anos, a arquitetura dos computadores obedeceu a um padrão 
que pouco mudou desde o início: o chamado modelo “von Neumann”. O nascimento 
deste modelo, sua difusão e suas primeiras implementações são um momento-chave 
na história da computação.
A arquitetura dos computadores atuais é baseada no modelo de Von Neumann. 
John Von Neumann (1903-1957) foi um matemático americano de origem húngara. 
Ele trabalhou como consultor no projeto ENIAC e depois participou da criação da pri-
meira bomba atômica em Los Alamos. Ele viu o potencial das máquinas eletrônicas 
na computação em larga escala.
Von Neumann teve a ideia (que outros provavelmente tinham antes dele) de que a 
memória do computador não deveria ser usada apenas para armazenar dados, mas 
também para armazenar programas, iniciando com o conceito de programação.
FACULDADE CATÓLICA PAULISTA | 27
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
A imagem do que em 1945 ainda não era chamado de computação, apresenta um 
cenário contrastante. Por um lado, a noção de cálculo eficaz encontrou uma estrutura 
rigorosa, graças aos avanços de uma nova disciplina nascida na década de 1930, a 
meta-matemática. O cálculo lambda da igreja matemática Alonzo e a máquina universal 
(abstrata) de Alan Turing, esquemas cuja equivalência demonstrada por Turing foram 
proposta em 1936 como base para a definição do algoritmo, peça central do processo 
computacional. Por outro lado, várias tentativas independentes visam construir máqui-
nas eletrônicas ou eletromecânicas capazes de realizar cálculoscomplexos em alta 
velocidade. Os precursores são John Atanasoff em 1938 nos Estados Unidos e Konrad 
Zuse, em 1941 na Alemanha.
Essas duas correntes, a de matemáticos e lógicos, de um lado, e a de engenheiros, 
de outro lado, vêm de dois mundos separados e se ignoram. O trabalho de Turing, sem 
dúvida, influenciou o design, em 1943-44, da calculadora Colossus em Bletchley Park, na 
Inglaterra, mas é uma máquina especializada cujo único objetivo, que será alcançado 
a propósito, é o descriptografia do código secreto da máquina Lorenz, sucessora do 
Enigma, usada pelo exército alemão.
A guerra terá outros efeitos: as autoridades alemãs apenas apoiarão modestamente 
o trabalho pioneiro de Zuse, enquanto o Departamento de Defesa dos EUA financia 
um projeto ambicioso lançado em 1943 na Universidade da Pensilvânia por J. Presper 
Eckert e John Mauchly. Esse esforço levará à construção de um grande computador 
eletrônico, o ENIAC, que não estará totalmente operacional até 1946. Nesse mesmo 
período (1944), o cientista da computação Howard Aiken lidera outro grande projeto 
em Harvard com a Colaboração da IBM, mas a técnica escolhida é baseada em ele-
tromecânica. Muito mais confiável que os tubos de elétrons, esse caminho não foi 
seguido, mas a experiência adquirida mais tarde seria usada pela IBM no design de 
seus primeiros computadores.
O ENIAC (Eletronic Numerical Integratorand Computer) - Integrador Numérico Eletrônico 
e Computador - foi a primeira calculadora totalmente eletrônica com os mesmos recur-
sos que uma máquina de Turing, com limitações físicas. Tinha dimensões imponentes: 
mais de 20 m de comprimento, 2,50 m de altura, 30 toneladas. Com 18.000 tubos de 
elétrons, consumia 150 quilowatts.
Os dados foram lidos em cartões perfurados, mas o programa foi representado em 
uma mídia externa, na forma de um painel de conexão semelhante ao de um painel de 
distribuição. Para programar um aplicativo (inicialmente o cálculo de tabelas de tiro 
FACULDADE CATÓLICA PAULISTA | 28
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
para artilharia), era necessário planejar as conexões necessárias e prosseguir com a 
fiação física, um trabalho longo, tedioso e propenso a erros. A detecção e correção de 
falhas também foi trabalhosa. Com a confiabilidade reduzida dos tubos eletrônicos, esse 
modo de programação foi o principal ponto fraco do projeto. Cientes dessa fraqueza, 
seus projetistas começaram em 1944 a considerar o próximo passo, mesmo antes da 
entrada em serviço do ENIAC.
Isto está na rede
Estamos habituados em ver que os computadores eram extremamente pesa-
dose muito complexos, exigindo que pessoas trabalhassem dentro deles! 
Contudo, ao refletir sobre o desenvolvimento da informática sabemos que 
o computador na questão de cálculos é muito superior a nós. A evolução 
dos computadores foi tamanha que, muitos de nós, não se acostumaram e 
começam a conjecturar algumas coisas.
Encontramos inúmeros exemplos de conspirações na ficção científica de 
que um dia possamos ser dominados pelas máquinas que criamos. Filmes, 
séries e documentários têm sugerido que as máquinas poderão ter um grau 
de autonomia tamanha que poderá nos sujeitar a elas. 
A neurociência e a exploração do cérebro humano ganham regularmente as 
manchetes. O progresso deles implora uma pergunta cheia de esperança e 
medo: seria possível replicar todo o cérebro humano? Atualmente, os com-
putadores já são superiores em poder de computação, embora o cérebro 
humano tenha um grau de complexidade muito maior: a maré será revertida 
em breve?
Portanto, fica o convite para que você leia este material rico e possa compar-
tilhar com os seus próximos este saber.
Disponível em: shorturl.at/cgrF2
O MODELO
Em 1944, John Von Neumann foi apresentado ao projeto ENIAC por Herman Golds-
tine que forneceu a ligação científica do projeto com o Departamento de Defesa. Von 
Neumann era uma mente universal, cujas contribuições variaram de matemática a 
lógica, física e economia. Ele conhecera Turing e estava familiarizado com seu trabalho. 
FACULDADE CATÓLICA PAULISTA | 29
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Ele estava participando do Projeto Manhattan na época e a History diz que Goldstine 
falou sobre o Projeto ENIAC durante um encontro casual em uma plataforma de trem.
De qualquer forma, Von Neumann aceitou uma posição de consultoria neste pro-
jeto e participou ativamente do trabalho realizado por Eckert e Mauchly no design do 
EDVAC (Electronic Discrete Variable Automatic Computer), sucessor do ENIAC. Em junho 
de 1945, uma primeira versão incompleta de um relatório sobre o design do EDVAC 
foi lançada pela Goldstine, assinada pelo único Von Neumann que o redigiu como 
documento de trabalho.
Em seu artigo seminal intitulado Primeiro rascunho de um relatório sobre o EDVAC 
(30 de junho de 1945, Universidade da Pensilvânia), ele também descreve a organização 
que deveria ser a de um computador moderno:
• a unidade aritmética e lógica processamento: seu papel é executar operações 
básicas, uma unidade de cálculo de CA (parte aritmética central) que hoje chama-
mos de ALU (unidade aritmética e lógica);
• uma unidade de controle CC (dispositivo de controle central);
• a memória que contém os dados e o programa que indicará para a unidade de 
controle, quais são os cálculos a serem feitos nesses dados; A memória é dividida 
entre memória volátil (programas e dados sendo operação) e memória permanente 
(programas e funções básicas da máquina);
• Dispositivos de entrada e saída.
A memória armazena números de 32 bits (números padrão) e instruções (pedidos). 
O bit 31 é 0 se for um número e 1 para uma instrução.
Eckert e Mauchly ficaram, com razão, profundamente chocados eles também entra-
ram em conflito com a Universidade da Pensilvânia por questões de patente e essas 
duas circunstâncias levaram à saída do projeto em março de 1946 para fundar sua 
empresa, a Eckert-Mauchly Computer Corporation. O próprio Von Neumann deixou o 
projeto na mesma época para Princeton, onde trabalhou com Julian Bigelow na calcu-
ladora do IAS (InstituteofAdvancedStudies).
Isto acontece na prática
As entradas e saídas, inicialmente controladas pela unidade central, estão 
desde o início dos anos 60 sob o controle de processadores autônomos 
(canais de entrada e saída e mecanismos similares). Associada à multipro-
gramação (compartilhamento de memória entre vários programas), essa 
FACULDADE CATÓLICA PAULISTA | 30
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
organização possibilitou notavelmente o desenvolvimento de sistemas de 
compartilhamento de tempo.
Os computadores agora têm vários processadores, sejam unidades separa-
das ou de múltiplos “núcleos” em um único chip. Essa organização permite 
que seja alcançado alto poder computacional geral sem aumentar a veloci-
dade de processadores individuais, limitado pelos recursos de remoção de 
calor em circuitos cada vez mais densos.
Esses dois desenvolvimentos têm o efeito de colocar a memória, em vez da unidade 
central de processamento, no centro do computador e aumentar o grau de paralelismo 
no processamento e circulação de informações. Mas eles não questionam os princípios 
básicos da separação entre processamento e controle e a noção de programa gravado.
O acesso dos processadores à memória é feito através de um barramento (não mos-
trado na figura), um canal de troca que garante rápida transferência de informações. 
Porém, com o tempo e por razões tecnológicas, a velocidade do barramento cresceu 
menos rapidamente que a velocidade de acesso à memória e, especialmente, a velo-
cidade dos processadores. 
Daí o fenômeno da espera - o “gargalo de Von Neumann” - que reduz o desempenho, 
estando no canal de transmissão entre a CPU e a memoria, visto que a mesma não 
trabalha nas altas frequências que a CPU. As soluções alternativas são o uso generali-
zado de caches em váriosníveis (acesso rápido à memória, próximo ao processador e 
retenção de dados atuais) e o desenvolvimento de máquinas com memória distribuída, 
mas existem problemas de consistência para os dados em várias cópias.
Uma arquitetura inovadora
The first draft of a rapportof EDVAC é um documento de cento e uma páginas que 
descreve, por um lado, um diagrama da arquitetura de computadores, organizado em 
três elementos (unidade aritmética, unidade de controle e memória contendo programa 
e dados), por outro lado, princípios de realização para esses elementos, em particu-
lar as operações aritméticas. Embora esse último aspecto dependa parcialmente da 
tecnologia conhecida na época e, portanto, necessariamente envelhecida, o modelo 
arquitetônico que marca uma profunda transição com as práticas anteriores, permanece 
FACULDADE CATÓLICA PAULISTA | 31
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
surpreendentemente tópico. Este modelo, ao qual o nome de Von Neumann permanece 
anexado é representado pelo diagrama abaixo:
A primeira inovação é a clara sepa-
ração entre a unidade de controle, que 
organiza o fluxo de sequenciamento 
de instruções e a unidade aritmética, 
responsável pela execução real dessas 
instruções. A segunda inovação, a mais 
fundamental é a ideia do programa gra-
vado: as instruções, em vez de serem 
codificadas em um meio externo (fita, 
cartões, placa de conexão) são grava-
das na memória de acordo com uma 
codificação convencional. Um conta-
dor ordinal contém o endereço da ins-
trução que está sendo executada; é incrementado automaticamente após a execução 
da instrução e modificado explicitamente pelas instruções de ramificação.
Um local de memória pode conter instruções e dados de forma intercambiável, e uma 
das principais consequências (cujo escopo completo provavelmente não foi entendido 
na época) é que um programa pode ser tratado como dados por outros programas. 
Essa ideia, presente em germe na máquina de Turing, encontrou aqui sua concretização.
Anote isso
Estamos habituados em ver que os computadores eram extremamente pesa-
dose muito complexos, exigindo que pessoas trabalhassem dentro deles! 
Contudo, ao refletir sobre o desenvolvimento da informática sabemos que o 
computador na questão de cálculos é muito superior a nós. A evolução dos 
computadores foi tamanha que, muitos de nós, não acostumamos e come-
çamos a conjecturar algumas coisas.
Encontramos inúmeros exemplos de conspirações na ficção científica de 
que um dia possamos ser dominados pelas máquinas que criamos. Filmes, 
séries e documentários têm sugerido que as máquinas poderão ter um grau 
de autonomia tamanha que poderá nos sujeitar a elas. 
A neurociência e a exploração do cérebro humano ganham regularmente as 
manchetes. O progresso deles implora uma pergunta cheia de esperança e 
Figura 9 – Modelo de Von Neumann
Fonte: shorturl.at/ANRTX
FACULDADE CATÓLICA PAULISTA | 32
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
medo: seria possível replicar todo o cérebro humano? Atualmente, os com-
putadores já são superiores em poder de computação, embora o cérebro 
humano tenha um grau de complexidade muito maior: a maré será revertida 
em breve?
Portanto, fica o convite para que você leia este material rico e possa compar-
tilhar com os seus próximos este saber.
Disponível em: shorturl.at/rITWX
Difusão e implementação do modelo
O relatório EDVAC circulou amplamente e teve uma influência significativa em 
muitos trabalhos subsequentes. Em julho e agosto de 1946, o Departamento de 
Defesa fundou uma escola de verão para disseminar o conhecimento adquirido nos 
vários projetos de informática. Organizadas pela Moore School da Universidade da 
Pensilvânia, que abrigava o projeto ENIAC, essas Palestras da Moore School foram 
um instrumento de reflexão sobre os conceitos e técnicas básicas dos computadores 
e, sobretudo, para a divulgação do trabalho realizado nos projetos ENIAC e EDVAC. 
Eckerte Mauchly, assim como Goldstine foram os principais oradores, mas muitos 
outros foram convidados, incluindo Howard Aiken e George Stibitz, que haviam 
construído protótipos de computadores. O único orador não americano foi Douglas 
Hartree da Universidade de Manchester. Os ouvintes, com cerca de 40, já haviam sido 
selecionados e convidados anteriormente.
O projeto EDVAC em si foi bastante interrompido pelas partidas de Eckert e Mauchly, 
seguidas por vários de seus engenheiros e não foi concluído até 1951. Sua arquitetura 
era baseada no modelo apresentado nas aulas da Moore School Lectures que evoluíram 
do documento original. Enquanto isso, foi na Europa que o modelo de Von Neumann 
encontrou suas primeiras realizações.
No início de 1946, Turing iniciou um projeto de computador baseado em programa, 
o Automatic Computing Engine (ACE), no National Physical Laboratory (NPL). Turing não 
pôde relatar o experimento Colossus, protegido pelo segredo militar. Isso, junto com os 
problemas organizacionais, atrasou o progresso e Turing deixou a NPL em 1948 para 
Manchester. O projeto não foi concretizado até 1950.
O projeto IAS, como foi batizado pelo cientista que estudamos aqui, foi iniciado em 
Princeton por Von Neumann em 1946. Seu principal engenheiro era Bigelow. A máquina 
FACULDADE CATÓLICA PAULISTA | 33
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
começou a operar no verão de 1951 e tornou-se operacional um ano depois. Tinha 1024 
locais de memória de 40 bits, fabricados por tubos Williams.
O modelo de Von Neumann exigiu além de genialidade ainda uma quantidade de 
muito trabalho e empenho do cientista que revolucionou a informática. Estrangeiro e 
professor em uma universidade de tradição, ele buscou otimizar o uso da memória e a 
transmissão de informações. Com isto ele trouxe outros materiais igualmente neces-
sários para um desempenho maior. Os veremos nos capítulos a seguir.
FACULDADE CATÓLICA PAULISTA | 34
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
AULA 4
SEGUNDA E TERCEIRA GERAÇÃO: 
TRANSISTORES E CIRCUITOS 
INTEGRADOS
Você achou que os computadores foram a maior invenção do século XX? Pois então, 
sinto te informar, mas na verdade foram os transistores que possibilitaram que as 
maravilhas modernas que desfrutamos pudessem ocorrer.
Explico o porquê:
Inventado pela Bell Laboratories (1947) tinham como foco substituir as válvulas dos 
antigos computadores, o que reduziu não apenas os custos para fabricar as máquinas, 
assim como o calor gerado pelo uso era bem menor. Outra vantagem ainda maior: o 
tamanho deles era bem menor se comparados com as válvulas.
Agora,estudante, peço que você reflita como a utilização tecnologia impacta na 
informática. Pense quanto aos preços, tamanhos dos computadores e o tempo de uso. 
Será que sem os mesmos poderíamos ter computadores nas nossas casas?
O circuito integrado, também chamado chip eletrônico é um componente ele-
trônico que reproduz uma ou mais funções eletrônicas mais ou menos complexas, 
integrando frequentemente vários tipos de componentes eletrônicos básicos em um 
volume reduzido.
Vamos conhecer detalhadamente mais sobre essas gerações e as contribuições 
que as mesmas trouxeram para a computação.
Segunda Geração - Os transistores
Em 1948, a invenção do transistor mudou drasticamente o desenvolvimento do 
computador. O transistor substituiu o pesado tubo de vácuo em televisões, rádios e 
computadores. Como resultado, o tamanho das máquinas eletrônicas vem diminuindo 
desde então. O transistor estava em funcionamento no computador em 1956. 
FACULDADE CATÓLICA PAULISTA | 35
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Juntamente com os primeiros avan-
ços na memória do núcleo magnético, 
os transistores levaram a computadores 
de segunda geração que eram menores, 
mais rápidos, mais confiáveis e mais efi-
cientes em termos de energia do queseus antecessores. As primeiras máqui-
nas de grande escala a aproveitar essa 
tecnologia de transistor foram os pri-
meiros supercomputadores, Stretchby IBM e LARC by Sperry-Rand. Ambos desen-
volvidos para laboratórios de energia atômica, esses computadores podiam lidar 
com uma enorme quantidade de dados, uma capacidade muito requisitada pelos 
cientistas atômicos.
As máquinas eram caras e muitas vezes eram poderosas demais para as necessida-
des de computação do setor comercial, limitando assim sua atratividade. Apenas dois 
LARCs foram instalados; um no Lawrence Radiation Labs, em Livermore, Califórnia, que 
recebeu o nome do computador e o outro no Centro de Pesquisa e Desenvolvimento da 
Marinha dos EUA na sua capital, em Washington. Os computadores de segunda geração 
substituíram a linguagem de máquina pela linguagem assembly, permitindo que códigos 
de programação abreviados substituíssem por muito tempo, códigos binários difíceis.
Durante o início dos anos 60, havia vários computadores de segunda geração comer-
cialmente bem-sucedidos usados em negócios, universidades e governo de empresas 
como Burroughs, Control Data, Honeywell, IBM e Sperry-Rand. Esses computadores de 
segunda geração também tinham design de estado sólido e continham transistores 
em vez de tubos de vácuo. 
Isto está na rede
A segunda geração de computadores é baseada na invenção do transistor em 
1947. Isso tornou possível substituir o tubo de elétrons frágil e volumoso por 
um componente menor e confiável. Apesar do uso de transistores e placas 
de circuito, esses computadores ainda eram volumosos e apenas utilizáveis 
por universidades, governos e grandes corporações.
Quer conhecer mais sobre esses computadores, então acesse o link abaixo 
e deslumbre-se com a história dos nossos computadores:
shorturl.at/FOQW4
Figura 10 - Tipos de transistores
Fonte: shorturl.at/lDPY1
FACULDADE CATÓLICA PAULISTA | 36
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Eles continham todos os componentes que associamos aos computadores moder-
nos - impressoras, armazenamento em fita, armazenamento em disco, memória, sis-
temas operacionais e programas armazenados também. Um exemplo importante foi 
o IBM 1401. Ele foi universalmente aceito em todo o setor e é considerado por muitos 
como o Modelo T do negócio de computadores. Em 1965, a maioria das grandes empre-
sas processava consistentemente informações financeiras usando computadores de 
segunda geração.
Foi o programa armazenado e a linguagem de programação que deram aos compu-
tadores a flexibilidade de finalmente serem rentáveis e produtivos para uso comercial. 
O conceito de programa armazenado significava que as instruções para executar um 
computador para uma função específica (conhecida como programa) eram mantidas 
na memória do computador e podiam ser substituídas rapidamente por um conjunto 
diferente de instruções para uma função diferente. 
Um computador pode imprimir faturas de clientes e minutos depois projetar produ-
tos ou calcular contracheques. Idiomas de alto nível mais sofisticados, como COBOL 
(Common Business-Oriented Language) e FORTRAN (Formula Translator) entraram em uso 
comum durante esse período e se expandiram para os dias atuais. Essas linguagens 
substituíram o código de máquina binário enigmático por palavras, frases e fórmulas 
matemáticas, facilitando muito a programação de um computador. 
Novos tipos de carreiras (programador, analista e especialista em sistemas de compu-
tador) e toda a indústria de software começaram com computadores de segunda geração.
Anote isso
Em 1956, a IBM lançou seu primeiro sistema de disco magnético, RAMAC 
(Método de Contabilidade Aleatória). Ele usou 50 discos de metal de 24 pole-
gadas, com 100 faixas de cada lado. Ele poderia armazenar cinco megabytes 
de dados e custar US $ 10.000 por megabyte.
Terceira Geração - Circuitos Integradores
Alguns destaques da evolução dos circuitos integrados desde a sua criação ilustram 
a vitalidade desse setor, bem como a crescente importância assumida pelas aplicações 
baseadas na vida cotidiana.
FACULDADE CATÓLICA PAULISTA | 37
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
O circuito integrado (IC), também chamado de chip eletrônico é um componente 
eletrônico que reproduz uma ou mais funções eletrônicas mais ou menos complexas, 
integrando frequentemente vários tipos de componentes eletrônicos básicos em um 
pequeno volume, facilitando a implementação do circuito.
Jack Kilby (1923-2005) é o inventor do circuito integrado. Em 1958 esse americano, 
então empregado pela Texas Instruments criou o primeiro circuito integrado, lançando 
as bases do moderno hardware de computador. Para constar Jack Kilby, que acabara 
de ingressar na empresa, fez essa descoberta enquanto a maioria de seus colegas 
desfrutava de férias organizadas pela Texas Instruments. 
Na época Kilby simplesmente conectou diferentes transistores, conectando-os à 
mão. Levara apenas alguns meses para passar do estágio de protótipo para a produ-
ção em massa de chips de silício contendo vários transistores. Esses conjuntos de 
transistores interconectados em circuitos microscópicos no mesmo bloco permitiram 
a realização de memórias, mas também 
de unidades lógicas e aritméticas. Esse 
conceito revolucionário concentrou-se 
em um volume improvável pequeno, no 
máximo de funções lógicas, ao qual o 
exterior acessava através de conexões 
distribuídas na periferia do circuito. Essa 
descoberta rendeu a Kilby um Prêmio 
Nobel de Física em 2000, ainda atuava 
no conselho da Texas Instruments e detinha mais de 60 patentes em seu nome.
No entanto, sua técnica, muito mais complexa, nunca será usada na produção. O 
primeiro circuito integrado CMOS sai simultaneamente dos laboratórios R.C.A. (Radio 
Corporation of America) e Fairchild em 1963, mas não foi até 1968 que foi produzido em 
massa. Hoje a tecnologia CMOS é a mais utilizada na fabricação de circuitos integrados.
Em 1965 Gordon E. Moore, então diretor de pesquisa da Fairchild, enunciou a lei que 
leva seu nome, especulado que o número de componentes eletrônicos em um circuito 
integrado dobraria a cada ano (naquela época, o circuito integrado mais complexo 
consistia em 64 componentes). Corrigida, dez anos depois, a “Lei de Moore” elevou a 
taxa de duplicação do número de componentes para dois anos (o período atualmente 
é de dezoito meses). Essa regra exponencial ainda está se mostrando correta mais de 
quarenta anos após sua formulação. 
Figura 11 - Circuitos Integrados
Fonte: shorturl.at/IKR18 x 
FACULDADE CATÓLICA PAULISTA | 38
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Isto está na rede
Sugestão de leitura para aprofundamento sobre a Lei de Moore:
https://www.tecmundo.com.br/curiosidade/701-o-que-e-a-lei-de-moore-.htm
Em 1964 a IBM anunciou a série 360, a primeira linha de computadores compatíveis. 
A série 360 fez uma enorme contribuição para o estabelecimento de computadores no 
mundo científico e empresarial. 
Em 1966 Robert Dennard, da I.B.M., aperfeiçoou a célula de memória de transistor 
único, cujo conceito ainda é usado em memórias dinâmicas (DRAM ou memória dinâ-
mica de acesso aleatório). O primeiro microprocessador (processador monolítico inte-
grado, ou seja, fabricado em um único componente), comercializado sob a referência 
4004 foi projetado em 1971 por dois engenheiros da empresa Intel (Integrated Electro-
nics). Iremos problematizar mais sobre a IBM e como ela contribuiu para o avanço da 
informática na próxima aula.
Há uma grande variedade desses componentes divididos em duas categorias prin-
cipais: analógica e digital. Vamos conhecer cada uma delas.
Circuito integrado analógico
Os componentes mais simples podem ser 
transistores simples encapsulados um ao lado 
do outro, sem vínculo entre eles, até monta-
gens que reúnem todas as funções necessá-
rias para a operação de um dispositivo do qualé o único componente.
Os amplificadores operacionais são represen-
tantes de complexidade média dessa grande 
família, onde também existem componentes 
reservados para eletrônicos e telecomunicações de alta frequência. Um exemplo de 
circuito analógico: o amplificador operacional LM741 e uma série de primos.
Figura 12 - Imagem de um LM741
Fonte: shorturl.at/lHTW2
FACULDADE CATÓLICA PAULISTA | 39
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Circuito integrado analógico
Os circuitos integrados digitais mais simples são portas lógicas (e, ou não), mais 
complexos são os microprocessadores e mais densas são as memórias. Existem 
muitos circuitos integrados dedicados a aplicações específicas (ASICs para circuitos 
integrados específicos de aplicações), especialmente para processamento de sinais 
(processamento de imagens, compressão de vídeo), então falamos de DSP (para Pro-
cessador de sinais digitais). 
Uma família importante de circuitos integrados é a de componentes lógicos progra-
máveis (FPGA, CPLD). Esses componentes são levados a substituir as portas lógicas 
simples devido à sua alta densidade de integração.
Composição do Circuito Integrado
Temos discutido até então um pouco sobre os circuitos e a sua importância para a 
nossa ciência. Contudo, acredito que seja oportuno que discutamos a sua composição 
para que o conheçamos, afinal isto fará parte dos nossos cotidianos.
CÁPSULA
Os circuitos integrados costumam ser na forma de caixas retangulares sólidas, pre-
tas, equipadas em um ou mais lados ou em um lado, com abas (também chamadas 
ou pinos), permitindo que as conexões elétricas sejam estabelecidas com o exterior 
da habitação. Esses componentes são soldados (soldados, termo impróprio) em um 
circuito impresso ou conectados, para fins de desmontagem, nos suportes soldados 
em um circuito impresso.
Na superfície estão pintados: o logotipo do fabricante, uma referência que identifica 
o componente, um código correspondente a variantes ou revisões e a data de fabri-
cação (4 dígitos codificados AASS: ano e semana). Os avanços na integração são tais 
que os circuitos integrados podem se tornar particularmente pequenos. Seu tamanho 
dificilmente depende da capacidade do gabinete de dissipar o calor produzido pelo 
FACULDADE CATÓLICA PAULISTA | 40
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
efeito Joule e, frequentemente, do número, do tamanho dos pinos de saída do circuito, 
mas também de seu espaçamento.
Diferentes tipos de pacotes permitem que o circuito integrado seja adaptado ao seu 
ambiente de destino. O formato mais antigo é chamado Pacote Dual Inline (DIP ou DIL), 
que se traduz aproximadamente em “caixa com duas linhas”. Com a ajuda da miniatu-
rização, surgiram os chamados circuitos de superfície: o formato SO.
DADO
Uma matriz é a parte elementar, de forma retangular, reproduzida como uma cópia 
de carbono com uma matriz em uma pastilha de silício durante a fabricação. Um dado 
(do inglês) é a parte elementar, de forma retangular, reproduzida como uma cópia de 
carbono com um dado em uma pastilha de silício durante a fabricação. Corresponde 
ao circuito integrado que será então cortado e que chamaremos de chip, antes que 
esse elemento seja encapsulado para fornecer um circuito integrado, pronto para ser 
montado em um cartão.
O termo “chip” é usado corretamente quando o processo de fabricação é concluído 
e a pastilha de silicone foi cortada. O termo dado às vezes é traduzido como dado ou 
quadrado de silício. O chip é assim designado porque, originalmente, na década de 
1960, as dimensões de um circuito não excederem um milímetro e era complexo, para 
agarrar esta extremidade do circuito seria necessária uma pinça. Aconteceu que os 
circuitos escaparam e saltaram como chips.
Escala de integração
A escala de integração define o número de portas por unidade:
• SSI (integração em pequena escala) pequeno: menos de 12
• MSI (média) média: 12 a 99
• LSI (grande) grande: 100 a 9.999
• VLSI particularmente grande (muito grande): 10.000 a 99.999
• ULSI (ultralargo) ultragrande: 100.000 ou mais
FACULDADE CATÓLICA PAULISTA | 41
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
Essas distinções perderam gradualmente sua utilidade com o crescimento expo-
nencial do número de portas. Atualmente, várias centenas de milhões de transistores 
(várias dezenas de milhões de portas) representam uma figura normal (para um micro-
processador ou um circuito integrado gráfico de ponta). Para atingir esses níveis de 
integrações um fluxo de projeto complexo é usado.
Isto acontece na prática
Aprender sobre os circuitos integrados foi muito interessante, todavia, como 
eles são fabricados? Vamos aprender um pouco logo na discussão abaixo:
O número de estágios na fabricação de circuitos integrados cresceu enor-
memente nos últimos 20 anos. Pode chegar a várias dezenas de produções 
especializadas. No entanto, sempre há aproximadamente a mesma série 
de etapas:
Preparação da camada: a bolacha é exposta ao dióxido de oxigênio puro após 
aquecimento para produzir uma camada de óxido (isolante) na superfície, 
depois a bolacha é coberta com um verniz fotossensível.
Transferência: o desenho do circuito a ser reproduzido é transferido para a 
superfície fotossensível com uma máscara, como na pintura com estêncil, 
expondo-o a raios ultravioleta (ou raios X, para as melhores gravuras). O verniz 
não sujeito à radiação é dissolvido usando um solvente específico.
Gravura: o óxido de silício é, portanto, protegido pelo verniz em locais expos-
tos aos raios ultravioletas. Um agente corrosivo cobre com uma camada de 
óxido em locais desprotegidos.
Doping: o verniz exposto é então dissolvido com outro solvente e íons metá-
licos, chamados dopantes são introduzidos no silício exposto no local onde 
o óxido foi escavado, para torná-lo condutor.
Próxima camada: a operação é repetida para criar as sucessivas camadas 
do circuito integrado ou do microprocessador (até 20).
A qualidade da gravação é determinada de acordo com o menor padrão que 
é possível gravar, neste caso, a largura da porta do transistor MOS.
Em 2004, as melhores gravuras em produção foram de 0,13 µm (ou 130 nm) 
e 90 nm.
Em 2006, as melhores gravuras em produção são 60 nm e 30 nm.
O processo de finalização segue as seguintes etapas:
• Um filme de metal é depositado onde o circuito deve estar em contato com 
os pinos de saída.
FACULDADE CATÓLICA PAULISTA | 42
FUNDAMENTOS DA ARQUITETURA
DE COMPUTADORES
PROF. ESP. ANDERSON DE CASTRO MOURA
• Os circuitos integrados são testados diretamente na bolacha. Os chips com 
defeito estão marcados (tinta). Este é o EWS
• A pastilha é finalmente cortada por meio de uma serra circular de diamante 
com uma espessura de 0,02 mm ou por um processo de corte a laser para 
obter matrizes.
• Os chips assim obtidos são inseridos em uma caixa de proteção individual e 
conectados aos pinos, o que permitirá que eles se comuniquem com o exterior.
• Testes de validação severos e individuais são então realizados para qualificar 
os microprocessadores, em termos de frequência e temperatura.
Os sistemas 360 da IBM anunciados em 7 de abril de 1964 inauguraram a terceira 
geração de computadores. Esta série de máquinas não possui inicialmente circuitos 
integrados, mas placas modulares elementos discretos em um substrato cerâmico. A 
IBM queria usar circuitos integrados, mas ela finalmente optou por fabricar em grandes 
quantidades, uma série de 6 máquinas compatíveis. O 360 foi projetado para todas as 
aplicações científicas e gerenciais. Uma inovação.
A maior parte da série 360 foi o uso de firmware para resolver problemas de compati-
bilidade. Cada modelo tem seu conjunto de instruções da ROM que contém o firmware. 
O conceito de firmware foi introduzido por Vincent Maurice Wilkes, um dos pioneiros 
da computação aquele que realmente construiu o primeiro computador do tipo de Von 
Neumann.

Continue navegando