Baixe o app para aproveitar ainda mais
Prévia do material em texto
FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA “A Faculdade Católica Paulista tem por missão exercer uma ação integrada de suas atividades educacionais, visando à geração, sistematização e disseminação do conhecimento, para formar profissionais empreendedores que promovam a transformação e o desenvolvimento social, econômico e cultural da comunidade em que está inserida. Missão da Faculdade Católica Paulista A v. Cristo Rei, 305 - Banzato, CEP 17515-200 Marília - São Paulo. www.uca.edu.br Nenhuma parte desta publicação poderá ser reproduzida por qualquer meio ou forma sem autorização. Todos os gráficos, tabelas e elementos são creditados à autoria, sal- vo quando indicada a referência, sendo de inteira responsabilidade da autoria a emis- são de conceitos. Diretor Geral | Valdir Carrenho Junior FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA SUMÁRIO AULA 01 AULA 02 AULA 03 AULA 04 AULA 05 AULA 06 AULA 07 AULA 08 AULA 09 AULA 10 AULA 11 AULA 12 AULA 13 AULA 14 AULA 15 AULA 16 COMPUTADORES: UMA FERRAMENTA CONSTRUÍDA HISTORICAMENTE AS GERAÇÕES E OS TIPOS DE COMPUTADORES: OS ANALÓGICOS E A TRANSIÇÃO PARA OS DIGITAIS ARQUITETURA DE VON NEUMANN SEGUNDA E TERCEIRA GERAÇÃO: TRANSISTORES E CIRCUITOS INTEGRADOS O MUNDO NO PÓS-GUERRA E AS INOVAÇÕES DA IBM DA QUARTA GERAÇÃO ATÉ OS NOSSOS DIAS FAMÍLIAS DE COMPUTADORES VISÃO GERAL O COMPUTADOR E O PROCESSADOR INTRODUÇÃO AO BARRAMENTO BARRAMENTO INTERNO SISTEMAS DE COMPUTADORES CODIFICAÇÃO DA INFORMAÇÃO NÚMEROS BINÁRIOS CIRCUITOS DIGITAIS E LÓGICA DIGITAL DESAFIOS DO SÉCULO XXI PARA A ARQUITETURA DE COMPUTADORES 6 16 26 34 44 53 62 68 76 89 94 100 112 122 134 142 PIPELINE E ARQUITETURAS CISC E RISC 107 119 129 141 149 FACULDADE CATÓLICA PAULISTA | 4 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA INTRODUÇÃO Estimado(a) estudante, o meu prazer em compartilhar com você sobre os Fundamentos da Arquitetura de Computadores é tamanho que me faz refletir quanto ao papel de professor e aprendiz. Digo isso, pois no nosso ramo aprendemos cada vez mais e com todos, de repente eu possa estar dialogando com quem trabalha com a computação a mais de 20 anos, ou com quem tem o seu primeiro contato com este mundo tão rico através deste mate- rial. Todavia, o importante é entender que somos eternos aprendizes na nossa área e devemos sempre manter a cabeça aberta para tanto. Trabalho há muito tempo na nossa ciência e todo dia aprendo algo que valha a pena transmitir. Assim sendo, ao receber o convite para escrever este livro e dar esta aula para vocês eu quis, e sempre vou querer, passar o amor que eu tenho pela nossa área, uma vez que me enriqueceu com novos horizontes e possibilidades de crescimento profissional, financeiro e, acima de todos, intelectual. Intelectual, pois aprendo cada dia mais sobre programação, lógica, história, e acima de tudo, sobre o contato humano! Sim veremos ao longo do nosso livro que a história dos computadores, e como os arquitetamos, é também da história do Homem. Nós, seres humanos, buscamos sempre controlar e manusear o nosso meio, fazemos cálculos para que possamos ter as decisões mais acertadas e concretas, buscamos o desenvolvimento de soluções que contemplem o todo e por fim, buscamos respostas para as nossas demandas. Não te lembra alguma máquina que realiza tamanho trabalho? Sim, o computador! Com ele somos capazes de desenhar cenários para resoluções de problemas e conjecturar possibilidades de atuação. Perceba que ao passo que a nossa sociedade se tornou mais complexa, mais complexos se tornaram os nossos computadores! Iniciaremos as nossas aulas em Fundamentos e Arquitetura de Computadores, disci- plina que vamos entender os requisitos necessários para que um computador funcione e como escolher os elementos indispensáveis para a otimização do desempenho. O objetivo ao final das nossas aulas é de que você consiga entender os atributos fundamentais da computação e elementos básicos para que você possa se enveredar na programação, pois terá um contato com elementos visíveis a um programador e FACULDADE CATÓLICA PAULISTA | 5 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA desenvolvedor e os impactos diretos nas diferentes linguagens. Desta forma, serão apresentados a você a noção de instruções e endereçamento, bem como as diferentes formas de memória e como potencializá-las. A proposta pedagógica deste livro se divide em quatro grandes frentes que iremos problematizar e contextualizar com o nosso cotidiano: 1. Aspectos históricos: nesta seção iremos resgatar os primórdios da computa- ção, interessante seja que você note a arquitetura que cada período mostra, iden- tificando os principais fatos da evolução dos computadores, desde as instruções e comandos mais simples para o que temos hoje em dia. O intuito aqui será de entendermos a evolução da nossa ciência e área de atuação profissional. 2. O computador na sua completude: o foco destas aulas seria lembrarmos o que temos na nossa é apresentar a arquitetura geral de um computador e as suas principais funções, destacando elementos necessários para a construção da mesma. 3. Sistemas lógicos e digitais: a diferenciação entre os sistemas digitais e ana- lógicos passa por questões que elencamos em três aulas que serão densas e necessitarão de muita atenção, pois nos aprofundaremos em codificação da informação e bases matemáticas. 4. O futuro da arquitetura de computadores: achei por bem trazer a luz demandas que se mostram emergentes, sobretudo, na arquitetura da computação. A IoT se mostra como o mainstream e necessita de desenvolvedores e profissionais que a entendam e se mostram motivados(as) para dar respostas e propor melhorias. Portanto,estudante, espero que você contribua para a nossa área com uma atuação profissional ética e com aprofundamento de discussões que lhe serão apresentadas ao longo do livro. Te vejo como aluno(a) e também como colega de trabalho e amante da informática. Bons estudos e te vejo em breve! FACULDADE CATÓLICA PAULISTA | 6 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA AULA 1 COMPUTADORES: UMA FERRAMENTA CONSTRUÍDA HISTORICAMENTE Caro discente, vamos iniciar a nossa caminhada rumo ao conhecimento por uma breve história da informática e de como a mesma ajudou o homem a chegar ao nosso atual estágio de desenvolvimento. Algum colega seu pode achar certo preciosismo da minha parte em começar desde os primórdios da civilização humana, talvez tenham razão. Mas o meu intuito é de não apenas te instrumentalizar com esta disciplina, seria muito despretensioso da minha parte vir aqui e trazer algumas ferramentas que te ajudarão no seu porvir profissional e criarão uma vantagem competitiva perante os teus pares e a concorrência. Não! Como professor desta disciplina e alguém que tenha vivência no mundo digital, busco também que você seja um formador de opinião e um perito que problematize a sua prática, que consiga deixar claro para todos que você não lida apenas com máquinas, mas acima de tudo informações. Um profissional capaz de projetar e estruturar sistemas operacionais, entender os requisitos necessários para que um computador, independente do seu porte, tipo ou capacidade de armazenamento e processamento das famigeradas informações. Ao nos apropriarmos dos elementos discutidos ao longo desta aula, espero que você, caro(a) aluno(a), consiga entender que o ser humano tem uma necessidade de entender e controlar o ambiente em torno de si mesmo para a sobrevivência, ou mesmo para ganhos cada vez maiores que podem significar subsistência de algum negócio ou ramo que tenha rendimentos monetários. Enfim, o homem sempre desenvolveu ferramentas que garantiram certa vantagem sobre as demais criaturas, desde armamentos rudimentares até instrumentos de contageme análise astronômica que facilitam, por exemplo, o manejo da agricultura FACULDADE CATÓLICA PAULISTA | 7 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA e a fundação de cidades por meio de um domínio sobre a natureza e o processo de sedentarismo humano. A contar dos agrupamentos humanos, muito da nossa evolução se deve ao tra- tamento de dados e aos cálculos que precisamos fazer grandes momentos, rotas comerciais, descobrimentos e novos mundos, a melhoria substancial da medicina e de métodos menos invasivos enfim, tudo isso precisou ser computado e tratado para que houvesse e acontecesse. Bons estudos! O homem e a máquina Uma provocação… Por que temos computadores cada vez mais velozes e mais complexos? Por que buscamos tanto a performance e respostas rápidas? Por que os computadores e como eles são construídos e projetadose por que sem- pre mudam? Por que os computadores nunca estão à altura das nossas necessidades? São muitas perguntas que você, aluno, sempre está lidando ou se deparando ao longo do seu percurso de vida e profissional. Sabemos bem as respostas, todavia podemos revisitar conceitos que muito nos ajudarão no nosso entender sobre a arquitetura e organização de computadores. Devemos notar que ao longo da nossa evolução, enquanto seres humanos, novas capacidades e outras complexidades se mostraram como obstáculos e desafios para a nossa sobrevivência. Sendo seres viventes, buscamos viver com segurança, conse- guindo resolver problemas e com os recursos que temos disponíveis. E para tanto se faz mister termos a devida sistematização do conhecimento e um sistema que permita a alimentação usando de informações que podem ser importantes, desde que saiba- mos como utilizá-las. Talvez não fique claro ainda para você o porquê desta aula, de fazer este breve retrospecto histórico da computação e de alguns dos principais maquinários que nos desenvolvemos ao longo da nossa trajetória, mas a verdade é que aprender a história dos computadores é entender a história do homem! Ao passo que temos questionamentos FACULDADE CATÓLICA PAULISTA | 8 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA e limitações, temos a necessidade de extrapolar as fronteiras de pensamento e de possibilidades de realizações. Cabe a você, futuro(a) analista e cientista de computadores, descobrir quais as demandas humanas que se apresentarão futuramente e quais respostas você dará. Como organizar todos os algoritmos para o pleno funcionamento de um sistema e de como irão resolver problemas e dar maior segurança aos usuários. Você, estimado discente, tem a missão de expandir horizontes e trazer à tona solu- ções para os seus pares, contribuir para o desenvolvimento econômico e intelectual de toda a população, logo se faz necessário problematizar também a evolução do computador e de como o homem se desenvolveu com a ferramenta que ele mesmo criou. Vamos juntos! Elementos antecedentes da informática Aqui nesta seção iremos revisitar alguns marcos da história dos computadores e da informática, refletindo sobre o papel que o progresso da nossa humanidade exerceu sobre as máquinas e sobre o nosso modo de viver. Começamos de forma modesta, com instrumentos e ferramentas pouco elaboradas e chegamos ao famoso http://www Defendo a tese de que o desenvolvimento tecnológico foi concomitante ao desenvol- vimento humano, ou seja, há uma dialética entre o que o homem é e o que ele produz. Não está claro ainda?! Reflita a respeito da seguinte frase: “o ser humano é o único ser é capaz de desenvolver uma ferramenta e continua a utilizá-la”. Guarde bem e reflita sobre a frase supracitada! Desde que descemos das árvores, nos seres humanos, temos vivido em ambiente inóspito o qual nos obrigou a elaborar alternativas para a sobrevivência. Os primeiros agrupamentos humanos buscavam locais que lhes fornecem condições objetivas de vida e, de repente, se estabelecerem, criando as primeiras comunidades sedentárias. O modo de vida primitivo e sem a devida sistematização das informações que os primeiros humanos se depararam, cobrou um preço altolevando-os a sempre adotar medidas não muito racionais diante de problemas.O conhecimento era transmitido de forma oral e apenas através da experiência vivenciada por cada membro do bando, os instrumentos de cálculos eram muito rudimentares e pouco complexos. FACULDADE CATÓLICA PAULISTA | 9 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Algumas questões são consideradas como “pontos fora da curva” devido ao alto grau de elaboração e nível de aprimoramento matemático, o que alimenta hipóteses com dúvidas que ainda permeiam no nosso imaginário por falta de provas conclusi- vas, a exemplo temos construção de monumentos históricos tais como Stonehenge, a necrópole de Gizé e Machu Picchu. Perfeitamente construídos e feitos com cálculos e uma exatidão que encontramos apenas na nossa era, com supercomputadores e engenheiros altamente preparados. Por que não começar pelos próprios números não é mesmo? Sem eles não consegui- mos contabilizar e calcular, os números são frutos de uma necessidade humana para dar e/ou obter respostas e estruturar a realidade que vivíamos e que vivemos. Imagine o seguinte, será que a computação moderna existiria sem o simples número 0? Isto está na rede Os números como os conhecemos levaram algumas centenas de anos para que fossem totalmente concebidos. Os denominados números arábicos come- çaram a ser desenvolvidos há mais de 5000 anos, remontando ao antigo Egito e o sistema de contagem de pagamentos para os operários, bem como as colheitas realizadas ao longo do Nilo. Contribuições dos Sumérios, apesar de serem rudimentares, mudaram em muito o nosso mundo com a possibilidade do desenvolvimento da escrita e de sistemas mais elaborados. A partir deles os números existiram e graças aos mesmos nos fora possibilitadaa linguagem e a programação de compu- tadores por conseguinte. Sabemos que graças ao sistema binário que temos a possibilidade de termos uma computação tão moderna e que vai rompendo ainda mais com os limites conhecidos, levando o conhecimento a se multiplicar. Devemos isso graças um singelo número, a primeira vista, que sem ele não teríamos um sistema de informação tão sofisticado. Neste sentido trago para vocês uma matéria da BBC de como o número zero revolucionou o mundo e possibilitou que estivéssemos aqui! Segue o link: shorturl.at/gnL45 Boa leitura e reflexão FACULDADE CATÓLICA PAULISTA | 10 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Porém, vamos focar em pontos importantes da nossa aula para a compreensão do todo e dos principais elementos que construíram o que conhecemos sobre informática. Comecemos por um instrumento que todos já viram, conheceram e que já tiveram um primeiro contato e que inclusive o utilizaram: o ábaco. Precisamos ter em mente que tivemos vários tipos de ábacos o romano e o da mesopotâmia, porém o mais famoso é o chinês que possibilita cálculos de até 5 alga- rismos com a mesma velocidade das calculadoras que temos hoje em dia. Ao passo que as relações sociais se tornaram mais complexas, especialmente no que tange ao comércio de especiarias que os chineses e indianos faziam, a necessidade de ter um dispositivo assim preciso os deu certa vantagem comparativa perante aos demais. Por falar em rotas comerciais, elas contribuíram de forma significativa para moder- nização da sociedade e ampliação de perspectivas sobre os limites humanos dentro da própria natureza. Em nome de um crescimento econômico, as nações e mercadores financiaram a ciência e expedições para que as suas buscas fossem instrumentalizadas e devidamente rentáveis. Desde o Império Romano, com seus armamentos sofisticados que lhes conferiram um poderio bélico sem que outras nações do mundo conseguissem fazer frente, o mundo não via tamanha corrida porinovações e formas de criar riquezas. Neste cenário temos as grandes navegações que em um primeiro momento busca- vam novos caminhos para mercados promissores e que poderiam render boas margens de lucros. Com o tempo, os objetivos dessas empreitadas foram alterados e começaram a buscar “novas terras” e mais matérias-primas para exploração. Assim sendo, pesquisas em matemática e astronomia foram impulsionadas com vistas de otimizar todos os recursos, especialmente os portugueses que tinham a estabilidade política e posicionamento geográfico, bem como pelo know-how adquirido dos árabes graças à tomada do Ceuta, todavia, pobres em patrimônios e sem poderio econômico, inferior aos outros reinos como o Francês e o Britânico. Neste sentido, Teixeira (2014, p.90) nos lembra que o pioneirismo português teve como um dos pilares justamente o uso das ciências e de instrumentos de medição: [...] Foram os primeiros a usar os conhecimentos matemáticos para aperfeiçoar os instrumentos de navegação e elaborar mapas e car- tas náuticas que contribuíram notadamente para que os ventos dos descobrimentos soprassem a favor de Portugal. Simplificaram e adaptaram o astrolábio, instrumento usado pelos árabes na astro- nomia, para fornecer a posição da embarcação em relação ao Sol; FACULDADE CATÓLICA PAULISTA | 11 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA aperfeiçoaram a bússola para não ser afetada pelas interferências magnéticas, melhoraram os mapas e tornaram possível o uso de cálculos matemáticos para orientação de rotas. Outro elemento de extrema importância para os primórdios da computação é justa- mente a sistematização de logaritmos feita por John Napier (1550-1617) que o levou a popularizar o ponto decimal e por criar um artefato chamado Ossos de Napier, que são tabelas de multiplicação gravadas em marfim, ou ossos, que possibilitava a mul- tiplicação e a divisão de modo automático. A Estrutura de Napier possibilitou a criação da Régua de Cálculo criada pelo padre William Oughtred (1575-1660) que imperou até a popularização da calculadora que teve a sua propagação em idos de 1970. A régua de cálculo tinha como base o uso intensivo dos logaritmos. Figura 2: Régua de Cálculo de William Oughtred Fonte: shorturl.at/AFJKR Por que saber sobre o surgimento dos logaritmos é tão importante para nós? Graças a eles conseguimos realizar cálculos do desempenho de sistemas e de programação. FACULDADE CATÓLICA PAULISTA | 12 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA O logaritmo pode nos ajudar, por exemplo, em definir o Número de cores e a Profundi- dade de Cor. Isto acontece na prática Acompanhando o matemático Claude Shannon, o pessoal da Informática pre- fere contar em potências de 2, ou seja, eles preferem usar logaritmo em base 2. Como um exemplo, vejamos a seguinte tabela que dá as profundidades de cor, mais frequentemente usadas, associadas às respectivas quantidades de cores possíveis de representar numa tela (monitor) de computador. NÚMERO DE CORES PROFUNDIDADE DE COR 16 4 256 8 65536 16 16777216 24 Quadro 1 - Relação de Logaritmos e cores de uma tela de PC Fonte: http://www.mat.ufrgs.br/~portosil/passa1a.html Isto acontece na prática Sabemos que o mundo estava em total deslumbre com as conquistas e explorações de novas terras, o mundo experimentava uma grande eferves- cência pelo o que havia de novo, portanto,os investimentos na ciência e o contato com outras culturas cativou ainda mais os investidores e estudiosos em novas formas de planejar, na criação de mecanismos capazes de rela- tar, o mais próximo do perfeito, as posições de astros e aprimoramento de mapas, levando a cartografia em patamares nunca imaginados e auxiliando, em muito, as expedições que buscavam fontes de riquezas. A exemplo disto temos Wilhelm Schickard que fez carreira como professor universitário em Tübingen em áreas como Astronomia e Hebraico. Uma alma pensante e inquieta inventou numerosas máquinas para datas astronômi- cas e para o idioma hebraico, potencializou a cartografia graças ao uso da astronomia, fazendo com que os seus mapas fossem muito mais elaborados. Trazemos ao seu saber este cientista pelo fato que o mesmo foi considerado o primeiro inventor de uma máquina a calcular totalmente mecânica, capaz FACULDADE CATÓLICA PAULISTA | 13 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA de fazer as 4 operações básicas da matemática com números de 6 dígitos e indicando a resposta de um jeito peculiar, usando um sino. • Anotação para o diagramador seria possível colocar o retrato de Wilhelm Schickard ao lado da sua máquina de calcular? Muito obrigado - Figura 4- Máquina de calcular de Wilhelm Schickard Fonte: shorturl.at/pwCV5 Logo, esta calculadora foi usada por outros teóricos e matemáticos que per- ceberam a eficácia da mesma, dentre os notórios mestres temos Johannes Kepler,cujos estudos a respeito da matemática e física são importantíssimos. Esta máquina intrigante por sua forma se faz notar ainda mais por sua his- tória, a original foi destruída em um incêndio, mas graças aos esboços ela pode ser reconstruída, conforme a imagem acima, apenas na década de 60 do século passado. Figura 3-Retrato de Wilhelm Schickard Fonte: shorturl.at/flF36 Figura 3-Retrato de Wilhelm Schickard Fonte: https://history-computer.com/ wilhelm-schickard-and-the-rotating- clock-complete-history/ Figura 4- Máquina de calcular de Wilhelm Schickard Fonte: https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/ https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/ https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/ https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/ https://history-computer.com/wilhelm-schickard-and-the-rotating-clock-complete-history/ FACULDADE CATÓLICA PAULISTA | 14 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Anote isso Você já percebeu que os grandes nomes dos séculos XV e XVI acumulavam funções e campos de estudos? Que desenvolviam mais de um projeto e em áreas que consideramos diferentes e/ou complementares? Que abordavam mais de uma ciência e de um saber? Isso se deve pela organização das ciências, ou seja, até a Revolução Industrial não tínhamos tantas profissões e os campos de estudos eram bem mais amplos. Isso quer dizer que o conhecimento não era tão segmentado e tão especializado ao ponto de termos tantas formas de tratar o mesmo assunto. Nos séculos passados os cientistas e pensadores encontravam espaço para as suas pesquisas no que a academia convencionou a chamar de Ciências Naturais, e como o próprio nome já diz, visa estudar a natureza e o universo em seus aspectos mais gerais. Assim sendo, temos os seguintes domínios: • Astronomia; • Biologia; • Física; • Química; • Ciência da terra; • Interdisciplinares. Portanto, os fundamentos de todas as ciências modernas, aquelas que nasce- ram graças à Revolução Industrial, são advindas, em grande parte, das ciências naturais. Devemos notar que a Filosofia e a Linguística também alicerçava os saberes, contudo, há uma discussão quanto à base epistemológica. Devemos lembrar que comparando com a nossa atualidade, seria muito generalista e devido ao tamanho das informações que temos acesso, para que possamos produzir de forma efetiva e eficaz se fez necessário este alto grau de especialização. A exemplo disto temos vários profissionais Front-end e Back-end, todavia, poucos como Fullstack, pois exige um saber total e de todas etapas e partes do desenvolvimento. Entenda mais no seguinte link: shorturl.at/gwWX4 Como podemos ver estes foram as principais premissas que levaram à formação da nossa ciência e a elaboração dos dispositivos que utilizamos no nosso cotidiano. Todavia, como dito, foram apresentados elementosprimários, que inspiraram as nos- sas supermáquinas. Entenda mais no seguinte link: https://www.letscode.com.br/blog/front-end-back-end-e- full-stack-qual-a-diferenca https://www.letscode.com.br/blog/front-end-back-end-e-full-stack-qual-a-diferenca https://www.letscode.com.br/blog/front-end-back-end-e-full-stack-qual-a-diferenca FACULDADE CATÓLICA PAULISTA | 15 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Portanto, se faz necessário que aprendamos as gerações de computadores e como podemos diferenciá-los entre os que encontramos na nossa modernidade. Mas esta é uma temática para a nossa próxima aula, que apresentaremos a evolu- ção dessas gerações. FACULDADE CATÓLICA PAULISTA | 16 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA AULA 2 AS GERAÇÕES E OS TIPOS DE COMPUTADORES: OS ANALÓGICOS E A TRANSIÇÃO PARA OS DIGITAIS Nobre aluno(a), te convido a se atentar para esta aula com o mesmo afinco que você teve com a anterior. O conteúdo que apresentarei nesta aula será focado nas bases necessárias para que você entenda a arquitetura dos computadores, portanto conhe- cer sobre as gerações e os tipos de computadores se faz mister para que consigamos conceber da onde saímos e para onde vamos. Como fizemos este salto das roldanas e indo até as válvulas. Nós já aprendemos que o computador foi uma ferramenta construída e desenvolvida pela história humana com alguns propósitos, e sem esta máquina a humanidade seria incapaz de responder algumas dúvidas importantes para avanços da nossa sociedade. Contudo, insisto em te fazer pensar caro discente: o que é um computador? Por favor, reflita mais e me acompanhe ao longo desta aula para que possamos, juntos, descobrir o que seria e como poderíamos definir o PC de um modo assertivo e totalizante. Levando em conta as suas funções e os mecanismos atuantes para a sua performance. A aurora da computação realizou-se através do uso de, para os olhos não treinados, utensílios singelos de estimativas e facilitadores de cálculos, que inclusive cabiam no bolso. Com funções limitadas e poucos artifícios, as ideias por detrás dos dispositivos eram inovadoras para aquela época e persistem nos nossos dias. Com o tempo, os computadores, passaram a demandar mais espaço físico e mais tecnologia para que outros cálculos fossem realizados e entregues. Começamos a assistir o apogeu de uma nova era e um novo modo do homem responder às suas questões e buscar alternativas que maximizem as suas tomadas de decisões. Sem reservas, vos garanto que muito precisou ser feito para que a informática e a computação estivessem no grau de autonomia e aperfeiçoamento como estão hoje, FACULDADE CATÓLICA PAULISTA | 17 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA portanto, vamos revisitar alguns grandes impactos provocados por gerações de com- putadores que, por sua vez, trouxeram modernidade e evolução. Acompanhe comigo a evolução da informática e as transformações que foram pro- vocadas no mundo todo e os impactos mais significativos para a memória humana. Geração Zero: Computadores Mecânicos (1642-1945) Alguns teóricos se contradizem quanto ao marco inicial da Geração Zero, a literatura a respeito não deixa evidente a notória contribuição que Schickard com a sua máquina de calcular mecânica deu para a informática. Portanto, trabalharemos com a certeza e o nome preponderante como o pioneiro na concepção de máquinas autônomas, Blaise Pascal(1623-1662). Teórico das ciências naturais e profundo conhecedor do método científico, Pascal se mostrou um verdadeiro prodígio inventando a sua primeira máquina de calcular aos 19 anos que futuramente se chamaria de Pascalina. Seus escritos abriram novos campos de pesquisa e importantes para a informática: a Geometria e a Probabilidade. Figura 5 - Pascalina Fonte: shorturl.at/jquY0 FACULDADE CATÓLICA PAULISTA | 18 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Com a Pascalina os cálculos eram feitos com maior precisão e velocidade se com- parado com o ábaco. O dispositivo que contava com roldanas era capaz de somar, subtrair e multiplicar dependendo da quantidade de giros e se o sentido era horário ou anti-horário. Essa distinta tecnologia de Pascal é utilizada nos nossos dias através dos odômetros de carros, onde o sistema de contagem é o mesmo. Apesar da sua morte prematura, Pascal deixou um legado que permitiu que a sua invenção inspirasse matemáticos de todo o continente europeu, dentre eles temos oGottfried Wilhelm Leibniz, que usando a alguns mecanismos da Pascalina como base para operações de adição e subtração, criou a sua máquina de calcular adicionando ainda a multiplicação e a divisão através de um sistemas de roldanas e que eram acio- nados de forma humana. Isto está na rede A contribuição de Leibniz para a nossa ciência vai além da sua máquina de calcular, um pensador por natureza, ele redescobriu o sistema binário antes evidenciado por teóricos chineses e pelo indiano Pingala, e fez a sua notação utilizando 0 e 1 como usamos ainda hoje. Por efeito deste aperfeiçoamento de Leibiniz, temos a álgebra Booliana que permite fazer operações lógicas e aritméticas usando apenas 2 dígitos, toda a eletrônica e computação estão baseadas no sistema binário e na lógica de Boole. Não apenas a linguagem de programação, mas também o arma- zenamento de mídias. Que tal conhecermos mais sobre a numeração binária? Clique no link abaixo: shorturl.at/eksCV Acredito que este material extra será de muita valia para você. Ao passo que avançava o desenvolvimento matemático e das engenharias, mais máquinas foram concebidas e com maior complexidade, a exemplo disto temos o Tear de Jacquar que produzia tecidos de um modo pré-autônomo, quer dizer que este equipamento tinha uma programação fornecida através de um cartão com furos. Este invento que remonta ao ano de 1804 revolucionou a indústria de tecidos e impulsionou a revolução industrial, abrindo perspectivas dos empresários fabris sobre investimentos em maquinários e novas tecnologias para obtenção de mais lucros. FACULDADE CATÓLICA PAULISTA | 19 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Após anos de aplicações em equipamentos um chamou atenção, a Máquina Dife- rencial de Babbage que encontraria o seu uso na engenharia naval, contando com os ineditismos estava no seu output, a perfuração sobre uma chapa de aço, este tipo de gravação predizia os disquetes e CD-ROMS. Porém, o orçamento deste projeto estourou e o governo britânico achou por bem cancelar. O projeto descritivo ainda está disponível. Em meados de 1837, Charles Babbage idealiza a máquina analítica que possuía mais funções comparadas ao seu invento supracitado, pois tinha os seguintes elementos: • Armazenagem – memória. • Entrada - leitora de cartões perfurados com comandos específicos. • Saída - Perfuradora de cartões com as informações já processadas. • Unidade de Cálculo ou de processamento de dados. Todavia, assim como o invento anterior, não saiu do papel e caso fosse montada seria do tamanho de uma locomotiva. O fato da máquina não ser montada nos causa certa lamentação, pois havia alguém que Babbage muito trocava informações valiosas, Ada Byron. A Condessa de Lovelace era uma matemática pela universidade de Cambridge e foi responsável por criar o primeiro algoritmo para ser processado justamente na Máquina Analítica de Babbage. Os seus algoritmos levariam a computar valores de funções matemáticas e produzir escritos matemáticos que a levariam a ser conhe- cida como a primeira programadora. Mesmo não sendo tangenciadas, as ideias de Babbage foram relevantes para a nossa ciência, apresentou ao mundo a programação de computadores através de algoritmos criados por uma cientista que muito cedo deixou a comunidade científica. Contudo, o interesse pela informática e os avanços científicosnão ficavam restritos à Europa, os ventos da liberdade de criação e a sede por inovações tecnológicas che- garam aos Estados Unidos da América e houve também uma corrida por máquinas inteligentes. A exemplo disto temos Herman Hollerith que se inspirou em Babbage e Jacquar e usou a sua “tabuladora” no censo americano. A máquina de Hollerith, nome bem conhecido pelos trabalhadores não é mesmo, era bem completa, possuindo teclado e estações de leitura e de perfuração, aperfeiçoando o processamento de dados. O empreendedorismo americano, o levou a ser um dos fundadores da IBM. FACULDADE CATÓLICA PAULISTA | 20 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA A transição - a caminho da Inteligência Artificial Os computadores da Geração Zero, apesar de serem rudimentares, eram confiáveis e com possibilidades medianas de uso, pois a tecnologia dos mesmos era de alguma forma simples e direta, porém sem um padrão de treinamento e publicização. Até o momento, temos aprendido que a computação exigia conhecimentos de matemática e de engenharia. Aqui cabe uma pausa para evidenciarmos uma divisão quanto aos tipos primários: analógicos e digitais. Geração 1 - O uso das válvulas Temos aprendido que momentos intensos da história humana são capazes de criar circunstâncias para o avanço tecnológico e com os computadores da primeira geração não poderia ser diferente. O Colossus de Alan Turing entra em cena com a missão de decifrar mensagens que os nazistas trocavam entre si. Apesar de serem interceptadas não eram entendidas, pois eram codificadas pelo sistema chamado ENIGMA. Turing sabia que seria possível “traduzir” as mensagens e as ordens que o exército do Führer seguia, todavia seria necessário fazer uma infinidade de cálculos em um tempo recorde, portanto seria possível somente com uma supermáquina de cálculos para quebrar esses códigos, através da criptoanálise ele foi pioneiro na Inteligência artificial e da ciência da computação. Como foi construído apenas para lidar com a descriptografia de mensagens, não foi, portanto, fácil programá-lo e que confirmar a tese de Turing segundo a qual o compu- tador era mais uma máquina lógica do que uma simples máquina digital. O terceiro centro de atividades na Inglaterra foi o National Physical Laboratory (NPL), onde as inspirações vieram de Alain Mathison Turing. Turing não ficou muito tempo com a NPL, mas em 1948 o Pilot ACE que ele desenvolveu iniciou as suas atividades que seguiram até 1950, refletindo sua visão de computador. O ACE utilizou memórias ultrassônicas e para o para programar era necessário conhecer a estrutura da máquina. FACULDADE CATÓLICA PAULISTA | 21 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Isto está na rede Que tal conhecer mais sobre Turing usando outros elementos de aprendizagem? Sim podemos aprender muito usando ferramentas alternativas e também esclarecedoras, tal como o filme que eu irei sugerir para que você consiga resgatar o contexto que Turing vivia e como criou o COLOSSUS. Atente-se para a Sinopse: Durante a Segunda Guerra Mundial, o governo britânico monta uma equipe que tem por obje- tivo quebrar o Enigma, o famoso código que os alemães usam para enviar mensagens aos submarinos. Um de seus integrantes é Alan Turing (Benedict Cumberbatch), um matemá- tico de 27 anos estritamente lógico e focado no trabalho que tem problemas de relaciona- mento com praticamente todos à sua volta. Não demora muito para que Turing, apesar de sua intransigência, lidere a equipe. Seu grande projeto é construir uma máquina que permita analisar todas as possibilidades de codifica- ção do Enigma em apenas 18 horas, de forma que os ingleses conheçam as ordens enviadas antes que elas sejam executadas. Entretanto, para que o projeto dê certo, Turing terá que aprender a trabalhar em equipe e tem Joan Clarke (Keira Knightley) sua grande incentivadora. Como na Alemanha, nos Estados Unidos a tendência digital sempre continuou. Depois da Alemanha e da Inglaterra, a próxima etapa do desenvolvimento das calcula- doras foram os Estados Unidos, com os militares e universidades de prestígio como as da Pennsylvania e Princeton eminentes cientistas e pesquisadores trabalharam pelos esforços de desenvolverem uma tecnologia que lhes conferisse vantagem competitiva. A guerra trouxe consigo muito mais que mortos e rastro de destruição nos países europeus e alguns asiáticos, trouxe também novos protagonistas da informática, com cientistas se refugiando e fugas de cérebros perseguidos por regimes extremos, os Estados Unidos assumiram o protagonismo durante um bom período de tempos, tão verdade que usamos muito o inglês nas configurações. Figura 6- Capa do Filme “O jogo da imitação” Fonte: shorturl.at/vFOUW FACULDADE CATÓLICA PAULISTA | 22 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Ainda precisa ser lembrado que a nação estadunidense se tornou um dos maiores clientes de computação e informática, pois o exército necessitava de tabelas de alcance para a artilharia pesada. Os cálculos do setor de balística necessitavam ser mais preci- sos e rápidos, assim sendo as mãos humanas não seriam as mais eficazes, o mundo estava em guerra e esperar por resultados por dias era um luxo que ninguém poderia se dar. O Analisador Diferencial Bush fazia o seu melhor, contudo ainda era insuficiente. Desta forma, no ano de 1943 o professor John Mauchley e o seu aluno J. Prespe- rEckert iniciaram a construção de um “integrador numérico e computador eletrônico” com um valor inicial de US$61700.00 e que após adequações e três anos passou a ter um orçamento de US$ 486.804.22. Algo para se remarcar. Neste sentido, Geraldi (2013, p.27) elucida sobre o funcionamento do ENIAC: O ENIAC entrou em funcionamento no dia 14 de fevereiro de 1946 e tinha como objetivo realização de cálculos balísticos para o exército dos Estados Unidos. Ele pesava 30 toneladas, possuía 17.468 válvu- las, 7.200 diodos, 1.500 relés, 70.000 resistores, 10.000 capacitores, ocupava uma área de 167 m², consumia entre 100.000 e 200.000 Watts, devido a esse alto consumo de energia, quando o ENIAC estava ligado as luzes da Filadélfia sofriam queda de iluminação. Sua capacidade de cálculo era de 5.000 adições e 300 multiplicações por segundo, era cerca de 1.000 vezes mais rápido que os outros com- putadores da época, realizava em 30 segundos os cálculos balísticos que demoravam até 12 horas para serem feitos manualmente ou 15 minutos pelo Analisador Diferencial Bush. O sucesso foi tamanho que mais inves- timentos para esta área foram disponibili- zados pelo governo norte-americano com a premissa de ter a vanguarda da era da informática, melhor dizendo, em todos os setores eles queriam ser os melhores. Pelo conflito não ter ocorrido no seu território e por conquistar a liderança econômica, os EUA passaram ater condições que lhes for- neciam superioridade perante aos outros países, atraia os melhores teóricos para o seu mercado, fazendo com que nenhuma outra nação conseguisse fazer frente ao seu nível de expertise. Figura 7 - O Interior do ENIAC Fonte: https://tinyurl.com/y4u32yua FACULDADE CATÓLICA PAULISTA | 23 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Como órgão de entrada e saída, o ENIAC tinha um cartão de leitura perfurado. Para o processamento, ele tinha um multiplicador, um divisor, um extrator de raiz quadrada e vinte aditivos. ENIAC foi composto de módulos que você tinha que montar sempre que quisesse executar um programa. As tabelas de funções e os microinterruptores frontais também tiveram que ser redefinidos a cada cirurgia. Esta máquina para conectar todos os programas necessitava que fosse manuse- ada por especialistas com alto grau de especialização e conhecimento, o quê poderia gerar uma série de demandas. No entanto, foi muito eficaz com o trabalho para o qual foi projetado.ENIAC foi mil vezes mais rápido que os computadores de retransmissão eletromecânica. Ele precisou duzentos microssegundos para adicionar e 2,8 ms para fazer uma multiplicação. A máquina de palavras era um número de dez dígitos que ele poderia multiplicar três centavos por segundo, encontrando o valor de cada produto em uma tabela de multiplicação armazenada na memória. A ENIAC começou a operar em 1945, mas não pôde ser inaugurada somente em fevereiro de 1946. Esta máquina foi considerada como o primeiro computador eletrônico de alta velocidade que foi usado entre 1945 e 1955. A ENIAC não contribuiu muito durante a guerra, até porque mesmo antes de sua inauguração a guerra acabou, mas a ENIAC tornou possível convencer o governo militar e federal sobre o uso de eletrônicos para o cálculo. Foi essa visão que continuou após a guerra. ENIAC, entre outros trabalhos sobre meteorologia, e a mecânicatambém foram usa- das pelos cientistas de Los Alamos que estavam enviando à Universidade da Pensilvânia para realizar os principais cálculos secretos sobre as cadeias de reação termonucleares que permitiram criar a bomba de hidrogênio. Em 1971, houve uma controvérsia sobre a autoria do conceito de ENIAC. A alegação afirmava que John Vincent Atanassof colocou que esse conceito não existia durante a década de 1930 no Iowa StateCollege. Em 1973, o tribunal deu um veredicto ao cons- trutor que representava Atanassof. Dada à escala do projeto ENIAC, sua construção exigiu uma grande coragem por parte dos tomadores de decisão e da Pesquisa Naval que patrocinou o projeto. FACULDADE CATÓLICA PAULISTA | 24 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Conceito de programa registrado na memória A solução foi procurar a máquina automática no sentido amplo do termo. Durante a construção de O ENIAC Goldstine teve a chance de conhecer o grande matemático John Von Neumann e o interessou no projeto. A grande dificuldade de O ENIAC foi sua incapacidade de armazenar muita informação. Depois de várias sessões de trabalho com as autoridades da Moore School, Von Neumann escreveu um documento em uma máquina capaz de armazenar programas e dados na memória. Em 30 de junho de 1945, o conceito de programa armazenado na memória era registrado em um documento intitulado “Primeiro rascunho de um relatório EDVAC”. Ignorando os detalhes de engenharia, o relatório descreve o computador como um sistema de organização lógica e suas unidades funcionais. Assim, pela primeira vez, a estrutura lógica e a teoria da noção de computador e programação foi desenvolvida. Embora a ideia de programas armazenados na memória tenha nascido na ocasião da construção do ENIAC, não foi, contudo, os membros da Moore School que tiveram que implementar o primeiro programa de computador gravado. O EDVAC deve ser uma máquina binária muito mais serial econômico em compo- nentes que o ENIAC, que era um computador decimal onde cada dígito foi representado por um flip-flop. É por esse motivo que o EDVAC deve ter metade dos componentes e cem vezes mais memória. São estes discussões sobre a melhoria dos conceitos ENIAC com novas memórias que levaram à fabricação de EDVAC. Receita de sucesso que trouxe da Hungria um homem que revolucionaria a infor- mática com uma proposta simples e elegante, dividindo bem cada função do sistema, arquitetando-o de fato, modelando-o para as necessidades do computador e de quem o usa. John Von Neumann é o nome deste gênio revolucionário e que merece uma seção à parte para explicar o seu modelo e a sua contribuição. Introdução ao Modelo de Neumann Nascido como Margittai Neumann János Lajos em Budapeste, John Von Neumann teve o seu real nome alterado algumas vezes por questões semânticas ou mesmo de segurança. Oriundo de uma família judia abastada, acostumado ao conforto que o FACULDADE CATÓLICA PAULISTA | 25 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA seu pai davae que desde a mais tenra idade mostrava aptidão fora do comum para os estudos, o levando a alçar voos maiores. Com notas e títulos que o colocavam como um estudante brilhante, Neumann logo se tornou uma referência no mundo da matemática, a comunidade científica o respeitava pelos seus trabalhos, tendo-o como um jovem gênio. Com todas essas credenciais, a nação da liberdade o receberia de braços abertos, colocando-o como professor da prestigiada Universidade de Princeton em 1930 e continuou lecionando até a sua morte. Apresentações feitas, vamos demonstrar o modelo de Neumann e veremos que é o mesmo utilizado nos dias de hoje, os computadores digitais convencionais seguem este padrão como trazem (MURDOCCA; HEURING, 2000): • Unidade de entrada - abastece com instruções e dados o sistema. • Unidade de Memória - Armazena os dados do sistema. • Unidade Lógica e Aritmética - processa os dados. • Unidade de Controle - controla a execução das instruções e o processamento dos dados. • Unidade de Saída - apresenta os resultados dos dados processados. Figura 8 - Modelo de Von Neumann Fonte: do próprio autor Detalharemos mais a respeito da arquitetura de Von Neumann na próxima aula e entenderemos como este modelo revolucionou o mundo da informática. FACULDADE CATÓLICA PAULISTA | 26 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA AULA 3 ARQUITETURA DE VON NEUMANN Caro estudante, até aqui focamos em aspectos históricos da informática e da neces- sidade que o homem sempre teve em aperfeiçoar computadores. Claro que ainda falta falarmos sobre mais gerações, todavia entendo que para maior proveito das nossas discussões precisamos entender o que foi a arquitetura de Von Neumann e como a mesma revolucionou a nossa área. Este cientista trouxe uma forma diferente de organização dos computadores, influen- ciando no tamanho das máquinas, desempenho do processamento de dados, na velo- cidade das respostas e até em linguagem de programação, possibilitando que outros algoritmos e possibilidades fossem concretizadas. Portanto, convido você a começar a refletir no que esta arquitetura foi pioneira e a pensar o que ainda temos de herança da mesma. Reflita sobre todo o contexto o qual permeia a era da informática e o salto revolucionário que foi proporcionado por esta forma diferente de atribuir os usos e atribuições da memória. PRIMÓRDIOS Por mais de sessenta anos, a arquitetura dos computadores obedeceu a um padrão que pouco mudou desde o início: o chamado modelo “von Neumann”. O nascimento deste modelo, sua difusão e suas primeiras implementações são um momento-chave na história da computação. A arquitetura dos computadores atuais é baseada no modelo de Von Neumann. John Von Neumann (1903-1957) foi um matemático americano de origem húngara. Ele trabalhou como consultor no projeto ENIAC e depois participou da criação da pri- meira bomba atômica em Los Alamos. Ele viu o potencial das máquinas eletrônicas na computação em larga escala. Von Neumann teve a ideia (que outros provavelmente tinham antes dele) de que a memória do computador não deveria ser usada apenas para armazenar dados, mas também para armazenar programas, iniciando com o conceito de programação. FACULDADE CATÓLICA PAULISTA | 27 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA A imagem do que em 1945 ainda não era chamado de computação, apresenta um cenário contrastante. Por um lado, a noção de cálculo eficaz encontrou uma estrutura rigorosa, graças aos avanços de uma nova disciplina nascida na década de 1930, a meta-matemática. O cálculo lambda da igreja matemática Alonzo e a máquina universal (abstrata) de Alan Turing, esquemas cuja equivalência demonstrada por Turing foram proposta em 1936 como base para a definição do algoritmo, peça central do processo computacional. Por outro lado, várias tentativas independentes visam construir máqui- nas eletrônicas ou eletromecânicas capazes de realizar cálculoscomplexos em alta velocidade. Os precursores são John Atanasoff em 1938 nos Estados Unidos e Konrad Zuse, em 1941 na Alemanha. Essas duas correntes, a de matemáticos e lógicos, de um lado, e a de engenheiros, de outro lado, vêm de dois mundos separados e se ignoram. O trabalho de Turing, sem dúvida, influenciou o design, em 1943-44, da calculadora Colossus em Bletchley Park, na Inglaterra, mas é uma máquina especializada cujo único objetivo, que será alcançado a propósito, é o descriptografia do código secreto da máquina Lorenz, sucessora do Enigma, usada pelo exército alemão. A guerra terá outros efeitos: as autoridades alemãs apenas apoiarão modestamente o trabalho pioneiro de Zuse, enquanto o Departamento de Defesa dos EUA financia um projeto ambicioso lançado em 1943 na Universidade da Pensilvânia por J. Presper Eckert e John Mauchly. Esse esforço levará à construção de um grande computador eletrônico, o ENIAC, que não estará totalmente operacional até 1946. Nesse mesmo período (1944), o cientista da computação Howard Aiken lidera outro grande projeto em Harvard com a Colaboração da IBM, mas a técnica escolhida é baseada em ele- tromecânica. Muito mais confiável que os tubos de elétrons, esse caminho não foi seguido, mas a experiência adquirida mais tarde seria usada pela IBM no design de seus primeiros computadores. O ENIAC (Eletronic Numerical Integratorand Computer) - Integrador Numérico Eletrônico e Computador - foi a primeira calculadora totalmente eletrônica com os mesmos recur- sos que uma máquina de Turing, com limitações físicas. Tinha dimensões imponentes: mais de 20 m de comprimento, 2,50 m de altura, 30 toneladas. Com 18.000 tubos de elétrons, consumia 150 quilowatts. Os dados foram lidos em cartões perfurados, mas o programa foi representado em uma mídia externa, na forma de um painel de conexão semelhante ao de um painel de distribuição. Para programar um aplicativo (inicialmente o cálculo de tabelas de tiro FACULDADE CATÓLICA PAULISTA | 28 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA para artilharia), era necessário planejar as conexões necessárias e prosseguir com a fiação física, um trabalho longo, tedioso e propenso a erros. A detecção e correção de falhas também foi trabalhosa. Com a confiabilidade reduzida dos tubos eletrônicos, esse modo de programação foi o principal ponto fraco do projeto. Cientes dessa fraqueza, seus projetistas começaram em 1944 a considerar o próximo passo, mesmo antes da entrada em serviço do ENIAC. Isto está na rede Estamos habituados em ver que os computadores eram extremamente pesa- dose muito complexos, exigindo que pessoas trabalhassem dentro deles! Contudo, ao refletir sobre o desenvolvimento da informática sabemos que o computador na questão de cálculos é muito superior a nós. A evolução dos computadores foi tamanha que, muitos de nós, não se acostumaram e começam a conjecturar algumas coisas. Encontramos inúmeros exemplos de conspirações na ficção científica de que um dia possamos ser dominados pelas máquinas que criamos. Filmes, séries e documentários têm sugerido que as máquinas poderão ter um grau de autonomia tamanha que poderá nos sujeitar a elas. A neurociência e a exploração do cérebro humano ganham regularmente as manchetes. O progresso deles implora uma pergunta cheia de esperança e medo: seria possível replicar todo o cérebro humano? Atualmente, os com- putadores já são superiores em poder de computação, embora o cérebro humano tenha um grau de complexidade muito maior: a maré será revertida em breve? Portanto, fica o convite para que você leia este material rico e possa compar- tilhar com os seus próximos este saber. Disponível em: shorturl.at/cgrF2 O MODELO Em 1944, John Von Neumann foi apresentado ao projeto ENIAC por Herman Golds- tine que forneceu a ligação científica do projeto com o Departamento de Defesa. Von Neumann era uma mente universal, cujas contribuições variaram de matemática a lógica, física e economia. Ele conhecera Turing e estava familiarizado com seu trabalho. FACULDADE CATÓLICA PAULISTA | 29 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Ele estava participando do Projeto Manhattan na época e a History diz que Goldstine falou sobre o Projeto ENIAC durante um encontro casual em uma plataforma de trem. De qualquer forma, Von Neumann aceitou uma posição de consultoria neste pro- jeto e participou ativamente do trabalho realizado por Eckert e Mauchly no design do EDVAC (Electronic Discrete Variable Automatic Computer), sucessor do ENIAC. Em junho de 1945, uma primeira versão incompleta de um relatório sobre o design do EDVAC foi lançada pela Goldstine, assinada pelo único Von Neumann que o redigiu como documento de trabalho. Em seu artigo seminal intitulado Primeiro rascunho de um relatório sobre o EDVAC (30 de junho de 1945, Universidade da Pensilvânia), ele também descreve a organização que deveria ser a de um computador moderno: • a unidade aritmética e lógica processamento: seu papel é executar operações básicas, uma unidade de cálculo de CA (parte aritmética central) que hoje chama- mos de ALU (unidade aritmética e lógica); • uma unidade de controle CC (dispositivo de controle central); • a memória que contém os dados e o programa que indicará para a unidade de controle, quais são os cálculos a serem feitos nesses dados; A memória é dividida entre memória volátil (programas e dados sendo operação) e memória permanente (programas e funções básicas da máquina); • Dispositivos de entrada e saída. A memória armazena números de 32 bits (números padrão) e instruções (pedidos). O bit 31 é 0 se for um número e 1 para uma instrução. Eckert e Mauchly ficaram, com razão, profundamente chocados eles também entra- ram em conflito com a Universidade da Pensilvânia por questões de patente e essas duas circunstâncias levaram à saída do projeto em março de 1946 para fundar sua empresa, a Eckert-Mauchly Computer Corporation. O próprio Von Neumann deixou o projeto na mesma época para Princeton, onde trabalhou com Julian Bigelow na calcu- ladora do IAS (InstituteofAdvancedStudies). Isto acontece na prática As entradas e saídas, inicialmente controladas pela unidade central, estão desde o início dos anos 60 sob o controle de processadores autônomos (canais de entrada e saída e mecanismos similares). Associada à multipro- gramação (compartilhamento de memória entre vários programas), essa FACULDADE CATÓLICA PAULISTA | 30 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA organização possibilitou notavelmente o desenvolvimento de sistemas de compartilhamento de tempo. Os computadores agora têm vários processadores, sejam unidades separa- das ou de múltiplos “núcleos” em um único chip. Essa organização permite que seja alcançado alto poder computacional geral sem aumentar a veloci- dade de processadores individuais, limitado pelos recursos de remoção de calor em circuitos cada vez mais densos. Esses dois desenvolvimentos têm o efeito de colocar a memória, em vez da unidade central de processamento, no centro do computador e aumentar o grau de paralelismo no processamento e circulação de informações. Mas eles não questionam os princípios básicos da separação entre processamento e controle e a noção de programa gravado. O acesso dos processadores à memória é feito através de um barramento (não mos- trado na figura), um canal de troca que garante rápida transferência de informações. Porém, com o tempo e por razões tecnológicas, a velocidade do barramento cresceu menos rapidamente que a velocidade de acesso à memória e, especialmente, a velo- cidade dos processadores. Daí o fenômeno da espera - o “gargalo de Von Neumann” - que reduz o desempenho, estando no canal de transmissão entre a CPU e a memoria, visto que a mesma não trabalha nas altas frequências que a CPU. As soluções alternativas são o uso generali- zado de caches em váriosníveis (acesso rápido à memória, próximo ao processador e retenção de dados atuais) e o desenvolvimento de máquinas com memória distribuída, mas existem problemas de consistência para os dados em várias cópias. Uma arquitetura inovadora The first draft of a rapportof EDVAC é um documento de cento e uma páginas que descreve, por um lado, um diagrama da arquitetura de computadores, organizado em três elementos (unidade aritmética, unidade de controle e memória contendo programa e dados), por outro lado, princípios de realização para esses elementos, em particu- lar as operações aritméticas. Embora esse último aspecto dependa parcialmente da tecnologia conhecida na época e, portanto, necessariamente envelhecida, o modelo arquitetônico que marca uma profunda transição com as práticas anteriores, permanece FACULDADE CATÓLICA PAULISTA | 31 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA surpreendentemente tópico. Este modelo, ao qual o nome de Von Neumann permanece anexado é representado pelo diagrama abaixo: A primeira inovação é a clara sepa- ração entre a unidade de controle, que organiza o fluxo de sequenciamento de instruções e a unidade aritmética, responsável pela execução real dessas instruções. A segunda inovação, a mais fundamental é a ideia do programa gra- vado: as instruções, em vez de serem codificadas em um meio externo (fita, cartões, placa de conexão) são grava- das na memória de acordo com uma codificação convencional. Um conta- dor ordinal contém o endereço da ins- trução que está sendo executada; é incrementado automaticamente após a execução da instrução e modificado explicitamente pelas instruções de ramificação. Um local de memória pode conter instruções e dados de forma intercambiável, e uma das principais consequências (cujo escopo completo provavelmente não foi entendido na época) é que um programa pode ser tratado como dados por outros programas. Essa ideia, presente em germe na máquina de Turing, encontrou aqui sua concretização. Anote isso Estamos habituados em ver que os computadores eram extremamente pesa- dose muito complexos, exigindo que pessoas trabalhassem dentro deles! Contudo, ao refletir sobre o desenvolvimento da informática sabemos que o computador na questão de cálculos é muito superior a nós. A evolução dos computadores foi tamanha que, muitos de nós, não acostumamos e come- çamos a conjecturar algumas coisas. Encontramos inúmeros exemplos de conspirações na ficção científica de que um dia possamos ser dominados pelas máquinas que criamos. Filmes, séries e documentários têm sugerido que as máquinas poderão ter um grau de autonomia tamanha que poderá nos sujeitar a elas. A neurociência e a exploração do cérebro humano ganham regularmente as manchetes. O progresso deles implora uma pergunta cheia de esperança e Figura 9 – Modelo de Von Neumann Fonte: shorturl.at/ANRTX FACULDADE CATÓLICA PAULISTA | 32 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA medo: seria possível replicar todo o cérebro humano? Atualmente, os com- putadores já são superiores em poder de computação, embora o cérebro humano tenha um grau de complexidade muito maior: a maré será revertida em breve? Portanto, fica o convite para que você leia este material rico e possa compar- tilhar com os seus próximos este saber. Disponível em: shorturl.at/rITWX Difusão e implementação do modelo O relatório EDVAC circulou amplamente e teve uma influência significativa em muitos trabalhos subsequentes. Em julho e agosto de 1946, o Departamento de Defesa fundou uma escola de verão para disseminar o conhecimento adquirido nos vários projetos de informática. Organizadas pela Moore School da Universidade da Pensilvânia, que abrigava o projeto ENIAC, essas Palestras da Moore School foram um instrumento de reflexão sobre os conceitos e técnicas básicas dos computadores e, sobretudo, para a divulgação do trabalho realizado nos projetos ENIAC e EDVAC. Eckerte Mauchly, assim como Goldstine foram os principais oradores, mas muitos outros foram convidados, incluindo Howard Aiken e George Stibitz, que haviam construído protótipos de computadores. O único orador não americano foi Douglas Hartree da Universidade de Manchester. Os ouvintes, com cerca de 40, já haviam sido selecionados e convidados anteriormente. O projeto EDVAC em si foi bastante interrompido pelas partidas de Eckert e Mauchly, seguidas por vários de seus engenheiros e não foi concluído até 1951. Sua arquitetura era baseada no modelo apresentado nas aulas da Moore School Lectures que evoluíram do documento original. Enquanto isso, foi na Europa que o modelo de Von Neumann encontrou suas primeiras realizações. No início de 1946, Turing iniciou um projeto de computador baseado em programa, o Automatic Computing Engine (ACE), no National Physical Laboratory (NPL). Turing não pôde relatar o experimento Colossus, protegido pelo segredo militar. Isso, junto com os problemas organizacionais, atrasou o progresso e Turing deixou a NPL em 1948 para Manchester. O projeto não foi concretizado até 1950. O projeto IAS, como foi batizado pelo cientista que estudamos aqui, foi iniciado em Princeton por Von Neumann em 1946. Seu principal engenheiro era Bigelow. A máquina FACULDADE CATÓLICA PAULISTA | 33 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA começou a operar no verão de 1951 e tornou-se operacional um ano depois. Tinha 1024 locais de memória de 40 bits, fabricados por tubos Williams. O modelo de Von Neumann exigiu além de genialidade ainda uma quantidade de muito trabalho e empenho do cientista que revolucionou a informática. Estrangeiro e professor em uma universidade de tradição, ele buscou otimizar o uso da memória e a transmissão de informações. Com isto ele trouxe outros materiais igualmente neces- sários para um desempenho maior. Os veremos nos capítulos a seguir. FACULDADE CATÓLICA PAULISTA | 34 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA AULA 4 SEGUNDA E TERCEIRA GERAÇÃO: TRANSISTORES E CIRCUITOS INTEGRADOS Você achou que os computadores foram a maior invenção do século XX? Pois então, sinto te informar, mas na verdade foram os transistores que possibilitaram que as maravilhas modernas que desfrutamos pudessem ocorrer. Explico o porquê: Inventado pela Bell Laboratories (1947) tinham como foco substituir as válvulas dos antigos computadores, o que reduziu não apenas os custos para fabricar as máquinas, assim como o calor gerado pelo uso era bem menor. Outra vantagem ainda maior: o tamanho deles era bem menor se comparados com as válvulas. Agora,estudante, peço que você reflita como a utilização tecnologia impacta na informática. Pense quanto aos preços, tamanhos dos computadores e o tempo de uso. Será que sem os mesmos poderíamos ter computadores nas nossas casas? O circuito integrado, também chamado chip eletrônico é um componente ele- trônico que reproduz uma ou mais funções eletrônicas mais ou menos complexas, integrando frequentemente vários tipos de componentes eletrônicos básicos em um volume reduzido. Vamos conhecer detalhadamente mais sobre essas gerações e as contribuições que as mesmas trouxeram para a computação. Segunda Geração - Os transistores Em 1948, a invenção do transistor mudou drasticamente o desenvolvimento do computador. O transistor substituiu o pesado tubo de vácuo em televisões, rádios e computadores. Como resultado, o tamanho das máquinas eletrônicas vem diminuindo desde então. O transistor estava em funcionamento no computador em 1956. FACULDADE CATÓLICA PAULISTA | 35 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Juntamente com os primeiros avan- ços na memória do núcleo magnético, os transistores levaram a computadores de segunda geração que eram menores, mais rápidos, mais confiáveis e mais efi- cientes em termos de energia do queseus antecessores. As primeiras máqui- nas de grande escala a aproveitar essa tecnologia de transistor foram os pri- meiros supercomputadores, Stretchby IBM e LARC by Sperry-Rand. Ambos desen- volvidos para laboratórios de energia atômica, esses computadores podiam lidar com uma enorme quantidade de dados, uma capacidade muito requisitada pelos cientistas atômicos. As máquinas eram caras e muitas vezes eram poderosas demais para as necessida- des de computação do setor comercial, limitando assim sua atratividade. Apenas dois LARCs foram instalados; um no Lawrence Radiation Labs, em Livermore, Califórnia, que recebeu o nome do computador e o outro no Centro de Pesquisa e Desenvolvimento da Marinha dos EUA na sua capital, em Washington. Os computadores de segunda geração substituíram a linguagem de máquina pela linguagem assembly, permitindo que códigos de programação abreviados substituíssem por muito tempo, códigos binários difíceis. Durante o início dos anos 60, havia vários computadores de segunda geração comer- cialmente bem-sucedidos usados em negócios, universidades e governo de empresas como Burroughs, Control Data, Honeywell, IBM e Sperry-Rand. Esses computadores de segunda geração também tinham design de estado sólido e continham transistores em vez de tubos de vácuo. Isto está na rede A segunda geração de computadores é baseada na invenção do transistor em 1947. Isso tornou possível substituir o tubo de elétrons frágil e volumoso por um componente menor e confiável. Apesar do uso de transistores e placas de circuito, esses computadores ainda eram volumosos e apenas utilizáveis por universidades, governos e grandes corporações. Quer conhecer mais sobre esses computadores, então acesse o link abaixo e deslumbre-se com a história dos nossos computadores: shorturl.at/FOQW4 Figura 10 - Tipos de transistores Fonte: shorturl.at/lDPY1 FACULDADE CATÓLICA PAULISTA | 36 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Eles continham todos os componentes que associamos aos computadores moder- nos - impressoras, armazenamento em fita, armazenamento em disco, memória, sis- temas operacionais e programas armazenados também. Um exemplo importante foi o IBM 1401. Ele foi universalmente aceito em todo o setor e é considerado por muitos como o Modelo T do negócio de computadores. Em 1965, a maioria das grandes empre- sas processava consistentemente informações financeiras usando computadores de segunda geração. Foi o programa armazenado e a linguagem de programação que deram aos compu- tadores a flexibilidade de finalmente serem rentáveis e produtivos para uso comercial. O conceito de programa armazenado significava que as instruções para executar um computador para uma função específica (conhecida como programa) eram mantidas na memória do computador e podiam ser substituídas rapidamente por um conjunto diferente de instruções para uma função diferente. Um computador pode imprimir faturas de clientes e minutos depois projetar produ- tos ou calcular contracheques. Idiomas de alto nível mais sofisticados, como COBOL (Common Business-Oriented Language) e FORTRAN (Formula Translator) entraram em uso comum durante esse período e se expandiram para os dias atuais. Essas linguagens substituíram o código de máquina binário enigmático por palavras, frases e fórmulas matemáticas, facilitando muito a programação de um computador. Novos tipos de carreiras (programador, analista e especialista em sistemas de compu- tador) e toda a indústria de software começaram com computadores de segunda geração. Anote isso Em 1956, a IBM lançou seu primeiro sistema de disco magnético, RAMAC (Método de Contabilidade Aleatória). Ele usou 50 discos de metal de 24 pole- gadas, com 100 faixas de cada lado. Ele poderia armazenar cinco megabytes de dados e custar US $ 10.000 por megabyte. Terceira Geração - Circuitos Integradores Alguns destaques da evolução dos circuitos integrados desde a sua criação ilustram a vitalidade desse setor, bem como a crescente importância assumida pelas aplicações baseadas na vida cotidiana. FACULDADE CATÓLICA PAULISTA | 37 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA O circuito integrado (IC), também chamado de chip eletrônico é um componente eletrônico que reproduz uma ou mais funções eletrônicas mais ou menos complexas, integrando frequentemente vários tipos de componentes eletrônicos básicos em um pequeno volume, facilitando a implementação do circuito. Jack Kilby (1923-2005) é o inventor do circuito integrado. Em 1958 esse americano, então empregado pela Texas Instruments criou o primeiro circuito integrado, lançando as bases do moderno hardware de computador. Para constar Jack Kilby, que acabara de ingressar na empresa, fez essa descoberta enquanto a maioria de seus colegas desfrutava de férias organizadas pela Texas Instruments. Na época Kilby simplesmente conectou diferentes transistores, conectando-os à mão. Levara apenas alguns meses para passar do estágio de protótipo para a produ- ção em massa de chips de silício contendo vários transistores. Esses conjuntos de transistores interconectados em circuitos microscópicos no mesmo bloco permitiram a realização de memórias, mas também de unidades lógicas e aritméticas. Esse conceito revolucionário concentrou-se em um volume improvável pequeno, no máximo de funções lógicas, ao qual o exterior acessava através de conexões distribuídas na periferia do circuito. Essa descoberta rendeu a Kilby um Prêmio Nobel de Física em 2000, ainda atuava no conselho da Texas Instruments e detinha mais de 60 patentes em seu nome. No entanto, sua técnica, muito mais complexa, nunca será usada na produção. O primeiro circuito integrado CMOS sai simultaneamente dos laboratórios R.C.A. (Radio Corporation of America) e Fairchild em 1963, mas não foi até 1968 que foi produzido em massa. Hoje a tecnologia CMOS é a mais utilizada na fabricação de circuitos integrados. Em 1965 Gordon E. Moore, então diretor de pesquisa da Fairchild, enunciou a lei que leva seu nome, especulado que o número de componentes eletrônicos em um circuito integrado dobraria a cada ano (naquela época, o circuito integrado mais complexo consistia em 64 componentes). Corrigida, dez anos depois, a “Lei de Moore” elevou a taxa de duplicação do número de componentes para dois anos (o período atualmente é de dezoito meses). Essa regra exponencial ainda está se mostrando correta mais de quarenta anos após sua formulação. Figura 11 - Circuitos Integrados Fonte: shorturl.at/IKR18 x FACULDADE CATÓLICA PAULISTA | 38 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Isto está na rede Sugestão de leitura para aprofundamento sobre a Lei de Moore: https://www.tecmundo.com.br/curiosidade/701-o-que-e-a-lei-de-moore-.htm Em 1964 a IBM anunciou a série 360, a primeira linha de computadores compatíveis. A série 360 fez uma enorme contribuição para o estabelecimento de computadores no mundo científico e empresarial. Em 1966 Robert Dennard, da I.B.M., aperfeiçoou a célula de memória de transistor único, cujo conceito ainda é usado em memórias dinâmicas (DRAM ou memória dinâ- mica de acesso aleatório). O primeiro microprocessador (processador monolítico inte- grado, ou seja, fabricado em um único componente), comercializado sob a referência 4004 foi projetado em 1971 por dois engenheiros da empresa Intel (Integrated Electro- nics). Iremos problematizar mais sobre a IBM e como ela contribuiu para o avanço da informática na próxima aula. Há uma grande variedade desses componentes divididos em duas categorias prin- cipais: analógica e digital. Vamos conhecer cada uma delas. Circuito integrado analógico Os componentes mais simples podem ser transistores simples encapsulados um ao lado do outro, sem vínculo entre eles, até monta- gens que reúnem todas as funções necessá- rias para a operação de um dispositivo do qualé o único componente. Os amplificadores operacionais são represen- tantes de complexidade média dessa grande família, onde também existem componentes reservados para eletrônicos e telecomunicações de alta frequência. Um exemplo de circuito analógico: o amplificador operacional LM741 e uma série de primos. Figura 12 - Imagem de um LM741 Fonte: shorturl.at/lHTW2 FACULDADE CATÓLICA PAULISTA | 39 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Circuito integrado analógico Os circuitos integrados digitais mais simples são portas lógicas (e, ou não), mais complexos são os microprocessadores e mais densas são as memórias. Existem muitos circuitos integrados dedicados a aplicações específicas (ASICs para circuitos integrados específicos de aplicações), especialmente para processamento de sinais (processamento de imagens, compressão de vídeo), então falamos de DSP (para Pro- cessador de sinais digitais). Uma família importante de circuitos integrados é a de componentes lógicos progra- máveis (FPGA, CPLD). Esses componentes são levados a substituir as portas lógicas simples devido à sua alta densidade de integração. Composição do Circuito Integrado Temos discutido até então um pouco sobre os circuitos e a sua importância para a nossa ciência. Contudo, acredito que seja oportuno que discutamos a sua composição para que o conheçamos, afinal isto fará parte dos nossos cotidianos. CÁPSULA Os circuitos integrados costumam ser na forma de caixas retangulares sólidas, pre- tas, equipadas em um ou mais lados ou em um lado, com abas (também chamadas ou pinos), permitindo que as conexões elétricas sejam estabelecidas com o exterior da habitação. Esses componentes são soldados (soldados, termo impróprio) em um circuito impresso ou conectados, para fins de desmontagem, nos suportes soldados em um circuito impresso. Na superfície estão pintados: o logotipo do fabricante, uma referência que identifica o componente, um código correspondente a variantes ou revisões e a data de fabri- cação (4 dígitos codificados AASS: ano e semana). Os avanços na integração são tais que os circuitos integrados podem se tornar particularmente pequenos. Seu tamanho dificilmente depende da capacidade do gabinete de dissipar o calor produzido pelo FACULDADE CATÓLICA PAULISTA | 40 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA efeito Joule e, frequentemente, do número, do tamanho dos pinos de saída do circuito, mas também de seu espaçamento. Diferentes tipos de pacotes permitem que o circuito integrado seja adaptado ao seu ambiente de destino. O formato mais antigo é chamado Pacote Dual Inline (DIP ou DIL), que se traduz aproximadamente em “caixa com duas linhas”. Com a ajuda da miniatu- rização, surgiram os chamados circuitos de superfície: o formato SO. DADO Uma matriz é a parte elementar, de forma retangular, reproduzida como uma cópia de carbono com uma matriz em uma pastilha de silício durante a fabricação. Um dado (do inglês) é a parte elementar, de forma retangular, reproduzida como uma cópia de carbono com um dado em uma pastilha de silício durante a fabricação. Corresponde ao circuito integrado que será então cortado e que chamaremos de chip, antes que esse elemento seja encapsulado para fornecer um circuito integrado, pronto para ser montado em um cartão. O termo “chip” é usado corretamente quando o processo de fabricação é concluído e a pastilha de silicone foi cortada. O termo dado às vezes é traduzido como dado ou quadrado de silício. O chip é assim designado porque, originalmente, na década de 1960, as dimensões de um circuito não excederem um milímetro e era complexo, para agarrar esta extremidade do circuito seria necessária uma pinça. Aconteceu que os circuitos escaparam e saltaram como chips. Escala de integração A escala de integração define o número de portas por unidade: • SSI (integração em pequena escala) pequeno: menos de 12 • MSI (média) média: 12 a 99 • LSI (grande) grande: 100 a 9.999 • VLSI particularmente grande (muito grande): 10.000 a 99.999 • ULSI (ultralargo) ultragrande: 100.000 ou mais FACULDADE CATÓLICA PAULISTA | 41 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA Essas distinções perderam gradualmente sua utilidade com o crescimento expo- nencial do número de portas. Atualmente, várias centenas de milhões de transistores (várias dezenas de milhões de portas) representam uma figura normal (para um micro- processador ou um circuito integrado gráfico de ponta). Para atingir esses níveis de integrações um fluxo de projeto complexo é usado. Isto acontece na prática Aprender sobre os circuitos integrados foi muito interessante, todavia, como eles são fabricados? Vamos aprender um pouco logo na discussão abaixo: O número de estágios na fabricação de circuitos integrados cresceu enor- memente nos últimos 20 anos. Pode chegar a várias dezenas de produções especializadas. No entanto, sempre há aproximadamente a mesma série de etapas: Preparação da camada: a bolacha é exposta ao dióxido de oxigênio puro após aquecimento para produzir uma camada de óxido (isolante) na superfície, depois a bolacha é coberta com um verniz fotossensível. Transferência: o desenho do circuito a ser reproduzido é transferido para a superfície fotossensível com uma máscara, como na pintura com estêncil, expondo-o a raios ultravioleta (ou raios X, para as melhores gravuras). O verniz não sujeito à radiação é dissolvido usando um solvente específico. Gravura: o óxido de silício é, portanto, protegido pelo verniz em locais expos- tos aos raios ultravioletas. Um agente corrosivo cobre com uma camada de óxido em locais desprotegidos. Doping: o verniz exposto é então dissolvido com outro solvente e íons metá- licos, chamados dopantes são introduzidos no silício exposto no local onde o óxido foi escavado, para torná-lo condutor. Próxima camada: a operação é repetida para criar as sucessivas camadas do circuito integrado ou do microprocessador (até 20). A qualidade da gravação é determinada de acordo com o menor padrão que é possível gravar, neste caso, a largura da porta do transistor MOS. Em 2004, as melhores gravuras em produção foram de 0,13 µm (ou 130 nm) e 90 nm. Em 2006, as melhores gravuras em produção são 60 nm e 30 nm. O processo de finalização segue as seguintes etapas: • Um filme de metal é depositado onde o circuito deve estar em contato com os pinos de saída. FACULDADE CATÓLICA PAULISTA | 42 FUNDAMENTOS DA ARQUITETURA DE COMPUTADORES PROF. ESP. ANDERSON DE CASTRO MOURA • Os circuitos integrados são testados diretamente na bolacha. Os chips com defeito estão marcados (tinta). Este é o EWS • A pastilha é finalmente cortada por meio de uma serra circular de diamante com uma espessura de 0,02 mm ou por um processo de corte a laser para obter matrizes. • Os chips assim obtidos são inseridos em uma caixa de proteção individual e conectados aos pinos, o que permitirá que eles se comuniquem com o exterior. • Testes de validação severos e individuais são então realizados para qualificar os microprocessadores, em termos de frequência e temperatura. Os sistemas 360 da IBM anunciados em 7 de abril de 1964 inauguraram a terceira geração de computadores. Esta série de máquinas não possui inicialmente circuitos integrados, mas placas modulares elementos discretos em um substrato cerâmico. A IBM queria usar circuitos integrados, mas ela finalmente optou por fabricar em grandes quantidades, uma série de 6 máquinas compatíveis. O 360 foi projetado para todas as aplicações científicas e gerenciais. Uma inovação. A maior parte da série 360 foi o uso de firmware para resolver problemas de compati- bilidade. Cada modelo tem seu conjunto de instruções da ROM que contém o firmware. O conceito de firmware foi introduzido por Vincent Maurice Wilkes, um dos pioneiros da computação aquele que realmente construiu o primeiro computador do tipo de Von Neumann.
Compartilhar