Buscar

História da Computação

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 28 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 28 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 28 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Universidade Federal do Ceará
			Faculdade de Farmácia, Odontologia e Enfermagem
			Departamento de Farmácia
			
Computação Aplicada
História da Computação
Fortaleza – 2013
	De acordo com a história tradicional, a computação evoluiu rapidamente, em curto período de tempo. Os primeiros computadores são as máquinas gigantes instaladas em laboratórios na época da Segunda Guerra Mundial. Os microchips os reduzem a desktops, a Lei de Moore prevê o quanto serão potentes, e a Microsoft capitaliza o software. Por fim, surgem aparelhos pequenos e baratos capazes de negociar ações e transmitir vídeos ao redor do mundo. Essa é uma maneira de abordar a história da computação – a história da eletrônica do estado sólido dos últimos 60 anos.
	Mas a computação existia muito antes do transistor. Astrônomos da Antiguidade desenvolveram maneiras de prever o movimento de corpos celestes. Os gregos deduziram a forma e o tamanho da Terra. Os impostos eram somados; as distâncias, mapeadas. De fato, computar sempre foi uma busca da humanidade. A aritmética, assim como ler ou escrever, era uma habilidade que auxiliava o homem a interpretar o mundo.
	A era da computação nasceu quando o homem procurou ultrapassar os limites práticos da aritmética. Máquinas de somar e caixas registradoras surgiram primeiro, mas era igualmente crítica a busca pela organização de computações matemáticas usando o que hoje chamamos de “programas”. A ideia de um programa surgiu nos anos 1830, um século antes do período tradicionalmente atribuído ao nascimento do computador. Posteriormente, os computadores eletrônicos modernos que surgiram durante a Segunda Guerra Mundial deram origem à noção de um computador universal – uma máquina capaz de processar qualquer tipo de informação, inclusive manipular os próprios programas. Esses são os computadores que movem o mundo atual. E embora pareça que a tecnologia da computação tenha amadurecido a ponto de se tornar onipresente e aparentemente ilimitada, pesquisadores buscam inspiração na mente, em sistemas biológicos e na física quântica para criar tipos completamente novos de máquinas.
A Máquina Diferencial
	Em 1790, logo depois do início da Revolução Francesa, Napoleão Bonaparte decidiu que a república precisava de uma nova série de mapas para estabelecer um sistema justo de tributação imobiliária. Também exigiu a mudança do velho sistema imperial de medidas para o novo sistema métrico. Para auxiliar os engenheiros e matemáticos a fazerem a conversão, a agência cartográfica do Exército francês encomendou um novo conjunto de tabelas matemáticas.
	No século 18, porém, as computações eram feitas à mão. Um “chão-de-fábrica” de 60 a 80 computadores humanos somava e subtraía números para preencher linha após linha das tabelas para o projeto de mapeamento Tables du Cadastre. Era um trabalho simples, não requerendo habilidades especiais além de matemática básica e alfabetização. Na verdade, a maioria dos computadores eram cabeleireiros desempregados – quem tivesse cortes de cabelo aristocráticos poderia perder a cabeça na França revolucionária.
	O projeto levou cerca de dez anos para ser completado, mas, no fim, a república, abalada pela guerra, não tinha mais fundos para publicar o trabalho. O manuscrito ficou esquecido na Académie des Sciences por décadas. Então, em 1819, um jovem matemático britânico chamado Charles Babbage descobriu-o em uma visita a Paris. Babbage tinha 28 anos na época; três anos antes ele havia sido eleito para a Royal Society, a organização científi ca mais importante da Grã-Bretanha. Ele também conhecia bem o mundo dos computadores humanos – por várias vezes supervisionara pessoalmente a construção de tabelas astronômicas e atuariais.
	Quando retornou à Inglaterra, Babbage decidiu reproduzir o projeto francês, não mais usando computadores humanos, mas com o auxílio de máquinas. A Inglaterra estava no auge da Revolução Industrial. Trabalhos geralmente realizados por humanos ou animais estavam perdendo em eficiência para as máquinas. Babbage vislumbrou o potencial da mecanização e percebeu que poderia substituir não apenas o trabalho braçal, mas também o mental.
	Ele propôs a construção de sua máquina de calcular em 1822 e conseguiu financiamento do governo em 1824. Durante a década seguinte Babbage mergulhou no universo da indústria, à procura das melhores tecnologias para construir seu engenho. O ano de 1832 foi o annus mirabilis para Babbage. Não apenas produziu um modelo funcional de sua máquina calculadora (batizada de Máquina Diferencial), mas também publicou sua obra clássica “On the Economy of Machinery and Manufactures” (Sobre a Economia da Maquinaria e da Manufatura), estabelecendo sua reputação de maior economista industrial do mundo. Todos os sábados à noite ele promovia reuniões sociais em sua casa na Dorset Street, em Londres, frequentadas pela nata da sociedade.Nesses encontros a Máquina Diferencial foi exposta, tornando-se o centro das atenções.
	Um ano depois Babbage abandonou a Máquina Diferencial para dar lugar a um projeto mais ousado – a Máquina Analítica. Enquanto a Máquina Diferencial limitava-se à tarefa de fazer tabelas, a Máquina Analítica seria capaz de realizar qualquer cálculo matemático. Como um computador moderno, teria um processador para os cálculos aritméticos (o “moinho”), memória para registrar os números (o “armazém”), e a capacidade de alterar sua função através de comandos do usuário, no caso, cartões perfurados. Em resumo, era um computador
projetado com tecnologia vitoriana.
	A decisão de Babbage de abandonar a inacabada Máquina Diferencial não foi bem recebida, porém, e o governo recusou-se a fornecer verbas adicionais. Inconformado, ele produziu milhares de páginas de anotações detalhadas e desenhos da máquina na esperança de que o governo algum dia financiasse sua construção. Mas foi apenas nos anos 70, em plena era da informação, que pesquisadores estudaram esses artigos pela primeira vez. A Máquina Analítica era, como um dos pesquisadores observou, quase como olhar para o projeto de um computador de outro planeta.
A Idade das Trevas
	A visão de Babbage era, em essência, a da computação digital. Assim como nos equipamentos atuais, suas máquinas manipulam os números (ou dígitos) de acordo com um conjunto de instruções e produzem um resultado numérico preciso.
	No entanto, após o fracasso de Babbage, a computação entrou no que o matemático inglês L. J. Comrie chamou de Idade das Trevas da computação digital – período que durou até a Segunda Guerra Mundial. Nessa fase, a computação por máquinas se fazia basicamente usando os chamados computadores analógicos. Esses aparelhos modelam um sistema utilizando um análogo mecânico. Suponha que, por exemplo, alguém queira prever a ocorrência de um eclipse solar. Para fazer isso digitalmente, é necessário resolver as leis do movimento de Kepler.
	Antes dos computadores digitais, a única maneira prática de fazê-lo era por cálculos manuais usando computadores humanos. (Durante as décadas de 1890 a 1940 o Observatório Harvard costumava empregar apenas equipes de mulheres-computadoras. Também seria possível criar um computador analógico, um modelo do Sistema Solar feito de engrenagens e eixos que avançaria no tempo .
	Antes da Segunda Guerra Mundial, o computador analógico mais importante era o Analisador Diferencial, desenvolvido por Vannevar Bush no Massachusetts Institute of Technology, em 1929. Na época, os Estados Unidos estavam fazendo grandes investimentos em abastecimento elétrico rural. Esses problemas poderiam ser codifi cados em equações diferenciais ordinárias, mas suas resoluções eram muito trabalhosas. O Analisador Diferencial permitia chegar a soluções aproximadas sem qualquer processamento numérico. Era fisicamente grande – ocupando todo um laboratório – e parecia uma daquelas engenhocas complexas de desenhos animados, cheias de engrenagens e eixos rotativos, mas que realizavam tarefas relativamente simples. Para “programar” a máquina, os pesquisadores conectavamvários componentes ao equipamento usando chaves de fenda, martelos e chaves inglesas. Embora fosse trabalhoso prepará-lo, uma vez pronto, o dispositivo conseguia resolver em minutos equações que levariam vários dias para ser calculadas à mão. Uma dúzia de réplicas da máquina foram construídas nos Estados Unidos e Inglaterra.
Uma dessas réplicas pertencia ao Campo de Provas de Aberdeen, do Exército americano, em Maryland, setor responsável pelo preparo de armas alvo a uma distância conhecida, os soldados precisavam ajustar os ângulos vertical e horizontal (altura e azimute) do cano, de modo que o projétil disparado seguisse a trajetória parabólica desejada – elevando-se em direção ao céu antes de cair sobre o alvo. Eles selecionavam os ângulos a partir de uma tabela de tiro que continha diversas entradas correspondentes a diferentes distâncias de alvo e condições operacionais.
	Cada entrada da tabela de tiro dependia da integração de uma equação diferencial ordinária. Um computador humano levaria de dois a três dias para fazer cada cálculo à mão. O Analisador Diferencial, em comparação, precisava de apenas 20 minutos.
Mudança Completa
	Em 7 de dezembro de 1941, as forças japonesas atacaram a base da Marinha americana em Pearl Harbor. Os Estados Unidos entraram em guerra. Com a mobilização, o Exército precisava cada vez mais de tabelas, cada uma contendo cerca de 3.000 entradas.
	Mesmo com o Analisador Diferencial, o acúmulo de cálculos em Aberdeen estava aumentando. A 130 quilômetros de Aberdeen, a Moore School of Electrical Engineering, da University of Pennsylvania, tinha seu próprio analisador diferencial. Na primavera de 1942 um instrutor da escola de 35 anos chamado John W. Mauchly teve uma ideia de como acelerar os cálculos: construir um “computor eletrônico” (sic), que usaria válvulas eletrônicas no lugar de componentes mecânicos. Mauchly, mais voltado à teoria, encontrou seu complemento em um jovem e ativo pesquisador da escola chamado J. Presper (“Pres”) Eckert, que já mostrava lampejos de genialidade em engenharia.
	Um ano depois de Mauchly fazer sua proposta original, e após sucessivos atrasos acidentais e burocráticos, o projeto finalmente deslanchou graças ao tenente Herman Goldstine, Ph.D. em matemática de 30 anos, da University of Chicago, e contato técnico entre Aberdeen e a Moore School. Em poucos dias Goldstine conseguiu a aprovação para o projeto. A construção do Eniac – sigla para Electronic Numerical Integrator and Computer – começou em 9 de abril de 1943. Era o aniversário de 23 anos de Eckert.
	Muitos engenheiros duvidaram do sucesso do Eniac. Sabia-se que a vida útil de uma válvula eletrônica era de cerca de 3 mil horas, e o primeiro projeto do Eniac utilizava 5 mil delas. Dessa maneira, a máquina não funcionaria por mais de cinco minutos sem que uma válvula queimasse, desativando-a. Eckert, porém, estava ciente de que as válvulas falhavam por estresse causado por ciclos de liga/desliga. Ele sabia que, por essa razão, estações de rádio nunca desligavam suas válvulas de transmissão. E se as válvulas operassem significativamente abaixo de sua tensão nominal durariam mais ainda. (O número total de válvulas aumentou para 18 mil quando a máquina ficou completa.)Eckert e sua equipe completaram o Eniac em dois anos e meio. A máquina pronta foi uma grande façanha da engenharia, um gigante de 27 toneladas que consumia 150 quilowatts de energia. Podia fazer 5 mil somas por segundo e calcular uma trajetória mais rápido do que o tempo que um projétil leva para atingir seu alvo. Além disso, é um ótimo exemplo de como o acaso tem um papel importante no campo das invenções: embora a Moore School não fosse um centro de pesquisa em computação de primeira linha, o projeto aconteceu porque ela era o lugar certo, na hora certa e com as pessoas certas.
	Mesmo assim, o Eniac ficou pronto apenas em 1945, tarde demais para auxiliar na guerra. Ele também tinha capacidade limitada. Podia armazenar no máximo 20 números de uma só vez. A programação da máquina levava dias e demandava a manipulação de um emaranhado de cabos que parecia o interior de uma central telefônica. Além do mais, o Eniac foi projetado para resolver equações diferenciais ordinárias. Alguns desafios – como os cálculos necessários para o Projeto Manhattan – exigiam a resolução de equações diferenciais parciais.
	John von Neumann, consultor do Projeto Manhattan, ouviu falar sobre o Eniac em uma visita a Aberdeen no verão de 1944. Nascido em 1903 de uma rica família húngara de banqueiros, Von Neumann era um prodígio matemático. Aos 23 anos havia se tornado o Privatdozent (mais ou menos o equivalente a um professor-associado) mais jovem da história da Universidade de Berlim.Em 1930 emigrou para os Estados Unidos, onde, juntamente com Albert Einstein e Kurt Godel, foi um dos primeiros professores do Institute for Advanced Study em Princeton, Nova Jersey. Naturalizou- se cidadão americano em 1937.
	Von Neumann logo percebeu o potencial da computação eletrônica e, alguns meses após sua visita a Aberdeen, começou a reunir-se com Eckert, Mauchly, Goldstine e Arthur Burks – outro professor da Moore School – para desenvolver o projeto de uma nova máquina, o Electronic Discrete Variable Automatic Computer, ou Edvac.
O Edvac era muito mais avançado do que o Eniac. Von Neumann introduziu as ideias e a nomenclatura de Warren McCullough e Walter Pitts, neurocientistas que tinham desenvolvido uma teoria das operações lógicas do cérebro (daí vem o uso do termo “memória” em computação). Como Von Neumann, McCullough e Pitts foram influenciados por estudos teóricos do matemático britânico Alan Turing, que provou no final dos anos 30 ser possível usar uma máquina simples para executar uma imensa variedade de tarefas complexas. Nesse período ocorreu uma mudança coletiva de percepção do computador, passando de instrumento matemático a uma máquina universal de processamento de informação.
	Von Neumann imaginou a máquina com cinco partes principais: a memória armazenaria não apenas dados numéricos, mas também as instruções de operação. Uma unidade aritmética realizaria os cálculos. Um “órgão” de entrada permitiria a transferência de programas e dados para a memória, e um órgão de saída armazenaria os resultados da computação. Finalmente, uma unidade de controle coordenaria as operações.
	Essa disposição, ou arquitetura, permitiria trocar o programa do computador sem alterar a estrutura física da máquina. Além do mais, um programa poderia manipular as próprias instruções. Essa característica não apenas ajudaria Von Neumann a resolver suas equações diferenciais parciais, mas também geraria uma grande flexibilidade, que é a base da ciência da computação. Em junho de 1945 Von Neumann escreveu seu artigo clássico “Primeiro esboço de relatório sobre o Edvac”, em nome do grupo. Apesar de ser um texto inacabado, rapidamente se difundiu entre os entendidos de computação, o que gerou duas consequências. Primeiro, nunca houve uma segunda versão. E, segundo, Von Neumann acabou ficando com a maior parte do crédito.
Evolução das Máquinas
	Os 60 anos seguintes de difusão do computador na sociedade compõem uma longa história a ser contada em outra ocasião. Talvez o desenvolvimento mais notável tenha sido que o computador – originalmente projetado para cálculos matemáticos – acabou se tornando infinitamente adaptável a diversas aplicações, do processamento de dados de empresas à computação pessoal e à construção de uma rede global de informação.
	Podemos verificar que o desenvolvimento do computador ocorreu em três áreas principais – hardware, software e arquitetura. Os avanços de hardware nos últimos 60 anos são lendários. As válvulas eletrônicas volumosas foram substituídas no final dos anos 50 por transistores “discretos” – isto é, transistores individualmente soldados em seus devidos lugares. Em meados dos anos 60 os microcircuitos eram compostos por vários transistores – que passaram para centenas e, depois, milhares de unidades – em um chip de silício. O microprocessador,desenvolvido no início dos anos 70, continha uma unidade completa de processamento em um chip. O microprocessador deu origem ao PC e agora controla dispositivos tão variados quanto sistemas de sprinklers e mísseis balísticos.
	Os desafios de software foram mais sutis. Em 1947 e 1948 Von Newmann e Goldstine produziram uma série de documentos chamada “Planejamento e problemas de codificação de um instrumento de computação eletrônica”. Nesses artigos, registraram dezenas de rotinas de computação matemática na expectativa de que algum “codificador” com pouca experiência pudesse convertê- las em programas funcionais. Isso não ocorreu. O processo de escrever programas e fazê-los funcionar era extremamente difícil. O primeiro a descobrir isso foi Maurice Wilkes, cientista de computação da University of Cambridge que criou o Edsac, o primeiro computador capaz de armazenar os próprios programas de maneira prática. Em suas memórias, Wilkes lembrou-se pesarosamente do momento em 1949 quando “me dei conta de que boa parte do resto da minha vida seria gasta procurando erros nos meus próprios programas”.
	Ele e outros em Cambridge desenvolveram um método de escrever instruções de computador de forma simbólica, o que facilitava todo o trabalho e diminuía o risco de erros. O computador pegaria essa linguagem simbólica e a transformaria em binária. A IBM introduziu a linguagem de computação Fortran em 1957, que simplificou muito a criação de programas científicos e matemáticos. No Dartmouth College, em 1964, o educador John G. Kemeny e o cientista da computação Thomas E. Kurtz inventaram o Basic, uma linguagem de programação simples, mas poderosa, com o objetivo de democratizar a computação e trazê-la a toda a população universitária. Com o Basic, mesmo crianças em idade escolar – o jovem Bill Gates, entre elas – poderiam começar a escrever os próprios programas.
Por outro lado, a arquitetura do computador – isto é, o arranjo lógico de subsistemas que compõem um computador – praticamente não evoluiu. Quase todas as máquinas em uso hoje em dia compartilham a mesma arquitetura básica do computador de programa armazenado de 1945. A situação parece a dos automóveis movidos a gasolina –muitos refinamentos técnicos e melhorias de eficiência ocorreram em ambos os casos ao longo dos anos, mas a concepção básica é essencialmente a mesma. E embora possa ser possível projetar um equipamento radicalmente melhor, ambos chegaram a um ponto que os historiadores da tecnologia chamam de “casos encerrados”. Investimentos ao longo das décadas produziram ganhos tão altos que ninguém apresentou uma razão convincente para investir em uma alternativa.
	Ainda assim há múltiplas possibilidades de uma evolução radical. Nos anos 80 surgiu grande interesse nas chamadas máquinas maciçamente paralelas, que continham milhares de elementos de computação operando simultaneamente. Essa arquitetura básica é ainda usada em tarefas de computação intensa, como previsão do tempo e pesquisa de armas nucleares. Cientistas da computação também vasculharam o cérebro buscando inspiração. Sabemos agora que a mente contém centros de processamento especializados para diferentes tarefas, como reconhecimento facial e compreensão de fala. Os cientistas estão aproveitando algumas dessas ideias em “redes neurais”, para aplicações como identificação de placas veiculares e reconhecimento de íris.
	Assuntos de pesquisa mais extravagantes incluem a construção de computadores a partir de matéria viva como o DNA e computadores que tiram proveito das esquisitices do mundo quântico . Ninguém sabe como serão os computadores daqui a 50 anos. Talvez suas habilidades ultrapassem até mesmo a capacidade das mentes que os criarem.
Engrenagens da mudança: Charles Babbage produziu um protótipo funcional de sua Máquina Diferencial em 1832. Embora tenha demonstrado a viabilidade de sua ideia, era muito pequeno para ter uso prático. A primeira versão funcional completa da Máquina Diferencial seria construída apenas em 1991, 159 anos mais tarde, pelo Museu de Ciências de Londres, que seguiu as anotações detalhadas do projeto de Babbage.
	Exemplo de computador analógico, o projetor de um planetário é projetado para produzir um análogo físico do movimento das estrelas e planetas. O Planetário Adler, em Chicago, instalou o primeiro exemplar americano em 1930. Embora os projetores não sejam precisos o suficiente para computação na prática, os planetários continuam se aperfeiçoando.
	Os projetores mais modernos podem ser vistos no planetário Hayden em Nova York.
O primeiro computador de programa armazenado foi o Edsac, construído na University of Cambridge por Maurice Wilkes e William Renwick em 1949. Tentativas iniciais de criar um sistema simbólico de programação abriram caminhos para simplificar essa atividade.
Computação moderna
	A computação moderna pode ser definida pelo uso de computadores digitais, que não utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida em várias gerações.
Primeira geração (1946 — 1959)
	A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento. Normalmente, todos os programas eram escritos diretamente na linguagem de máquina. Existiram várias máquinas dessa época, contudo, vamos focar no ENIAC, que foi a mais famosa de todas.
ENIAC
	No ano de 1946, ocorreu uma revolução no mundo da computação com o lançamento do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em torno de mil vezes mais rápida que qualquer outra que existia na época.
	A principal inovação nesta máquina é a computação digital, muito superior aos projetos mecânicos-analógicos desenvolvidos até então. Com o ENIAC, a maioria das operações era realizada sem a necessidade de movimentar peças de forma manual, mas sim pela entrada de dados no painel de controle. Cada operação podia ser acessada através de configurações-padrão de chaves e switches. As dimensões desta máquina são muito grandes, com aproximadamente 25 metros de comprimento por 5,50 metros de altura. O seu peso total era de 30 toneladas. Esse valor representa algo como um andar inteiro de um prédio.
Segunda geração (1959 — 1964)
	Na segunda geração, houve a substituição das  válvulas eletrônicas por transístores, o que diminiu em muito tamanho do hardware. A tecnologia de circuitos impressos também foi criada, evitando que os fios e cabos elétricos ficassem espalhados por todo lugar. É possível dividir os computadores desta geração em duas grandes categorias: supercomputadores e minicomputadores.
IBM 7030
	O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilzado por grandes companhias, custando em torno de 13 milhões de dólares na época.  
	Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo. Dessa maneira, um novo patamar de velocidade foi atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM 7030, eram mais confiáveis. 
	Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais facilidade. Muitos mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM.
PDP-8
	PDP-8 foi um dos minicomputadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais basica do supercomputador, sendo mais atrativo do ponto de vista financeiro (centenas de milhões de dólares a menos). Eram menores do que os supercomputadores,mas mesmo assim ainda ocupavam um bom espaço no cômodo.
Terceira geração (1964 — 1970) 
	Os computadores desta geração foram conhecidos pelo uso de circuitos integrados, ou seja, permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo. Desta maneira, as máquinas se tornaram mais velozes, com um número maior de funcionalidades. O preço também diminuiu consideravelmente.  
	Um dos principais exemplos da terceira geração é o IBM 360/91, lançado em 1967, sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com dispositivos de entrada e saída modernos, como discos e fitas de armazenamento, além da possibilidade de imprimir todos os resultados em papel.  
 	O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, ou seja, as operações usadas por um processador qualquer poderiam ser gravadas através de softwares, sem a necessidade do projetar todo o circuito de forma manual. 
 	No final deste período, houve um preocupação com a falta de qualidade no desenvolvimento de softwares, visto que grande parte das empresas estava só focada no hardware.
Quarta geração (1970 até hoje)
	A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas.
	Os circuitos acabaram se tornando ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware.
Altair 8800
	O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a sua linguagem de programação Altair Basic. O Altair funcionava através de cartões de entradas e saída, sem uma interface gráfica propriamente dita.
Apple, Lisa e Macintosh
	Vendo o sucesso do Altair, Steve Jobs (fundador da Apple) sentiu que ainda faltava algo no projeto: apesar de suas funcionalidades, este computador não era fácil de ser utilizado por pessoas comuns.   
 	Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião, um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976, pode ser considerado como o primeiro computador pessoal, pois acompanhava um pequeno monitor gráfico que exibia o que estava acontecendo no PC. Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma ideia. 
 	Seguindo na mesma linha, os computadores Lisa (1983) e Macintosh (1984) foram os primeiros a usar o mouse e possuir a interface gráfica como nós conhecemos hoje em dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PCs tiveram um sucesso estrondoso, vendendo um número enorme de máquinas. 
Microsoft e os processadores Intel                                             
	Paralelamente à Apple, Bill Gates fundou a Microsoft, que também desenvolvia computadores principiais. No começo de sua existência, no final dos anos 70 e até meados dos anos 80, Gates usou as ideias contidas nas outras máquinas para construir a suas próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da Microsof, MS-DOS, estava muito aquém dos desenvolvidos por Steve Jobs.
Por esse motivo, Bill Gates acabou criando uma parceria com Jobs e, após algum tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema operacional, o Windows. 
 	Desta forma, em meados dos anos 80, O Machintosh e o Windows se tornaram fortes concorrentes. Com a demisão de Steve Jobs da Apple, a empresa acabou muito enfraquecida. Assim, a Microsoft acabou se tornando a líder do mercado de computadores pessoais.
	Desde aquela época, vários processadores da Intel foram lançados, acompanhados de várias versões de Windows. Entre os modelos da  Intel, podemos citar: 8086, 286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo e i7. A AMD entrou no ramo de processadores em 1993, com o K5, lançando posteriormente o K6, K7, Athlon, Duron, Sempron, entre outros.Todos os computadores pessoais que são lançados atualmente são bastante derivados das ideias criadas pela Apple e pela Microsoft.
Multi-core
	Uma das principais tendências dos últimos anos do mercado de desktops é a chamada “multi-core”, que consiste em vários processadores trabalhando paralelamente. Assim, as tarefas podem ser divididas e executadas de maneira mais eficiente. No início da década de 2000, os transístores usados no processador já estavam muito pequenos, causando um aquecimento maior que o normal. Desta maneira, foi necessário dividir a CPU em vários núcleos.
Computação de bolso e tablets
	Finalizando este artigo, vamos falar sobre a computação de bolso, que está cada vez mais presente nas nossas vidas. De alguns anos para cá, cada vez mais computadores móveis são lançados no mercado, os quais podem ser carregados dentro do bolso — por isso o seu nome. 
	Entre esses dispositivos, podemos citar primeiramente os celulares, que cada vez mais executam funções existentes nos computadores, possuindo sistemas operacionais completos, além de palmtops, pendrives, câmeras fotográficas, TVs portáteis etc.  
 	Na verdade, a principal tendência do futuro, que já está ocorrendo agora, é a união
de muitas funcionalidades em um mesmo aparelho. Por isso, após alguns anos, vai ser muito comum que as pessoas tenham somente um único dispositivo portátil, que vai executar todas as tarefas desejadas. A chegada dos tablets ao mercado foi outro grande passo para que isso se tornasse realidade.
RESUMO SOBRE A HISTÓRIA DA COMPUTAÇÃO
4000-1200 A.C. 
· Habitantes da primeira civilização conhecida na Suméria mantém um registro de transações comerciais em tábuas de argila;
3000 A.C.
· O ábaco foi inventado na Babilônia;
250-230 A.C. 
· O crivo de Eratosthenes é usado para determinar os números primos;
79 D.C. 
· O dispositivo de Antikythera, quando posicionado corretamente de acordo com a latitude e dia da semana, fornece alternadamente os meses lunares de 29 e 30 dias;
1300 D.C. 
· O ábaco familiar de fios e contas passa a ser usado pelos chineses;
1612-1614 
· John Napier usa o ponto decimal impresso, inventa o logaritmo, e usa barras numeradas, para cálculo;
1622 
· William Oughtred inventa a régua de cálculo circular, baseada nos logaritmos de Napier;
1623 
· William Schickard projeta um relógio de cálculo com um mecanismo de engrenagem para auxiliar na multiplicação de números multi-dígitos;
1642-1643 
· Blaise Pascal cria um somador baseado no mecanismo de engrenagem chamado “Pascalene”, a primeira máquina somadora mecânica;
1666 
· Na Inglaterra, Samuel Morland produz um calculador mecânico que soma e subtrai;
1674 
· Gottfried Leibniz constrói o “Stepped Reckoner”, uma calculadora usando um cilíndro compassado;
1774 
· Philipp-Matthaus Hahn constrói e vende uma pequena quantidade de máquinas de calcular com precisão de 12 dígitos;
1777 
· O terceiro Conde de Stanhope inventa uma calculadora com multiplicação;
1786 
· J.H.Mueller conjectura sobre um “difference engine” mas não obtém fundos para a sua construção;
 
1801 
· Uma sequência de cartões perfurados controla a tecelagem padronizada no tear de Joseph-Marie Jacquard;
1811 
· Luddites destrói os maquinários que ameaçam eliminar trabalhos;
1820 
· O Arithmometer de Thomas, baseado no princípio de cilindro compassado de Leibniz, é demonstradopara a Academia de Ciência da França; torna-se a primeira calculadora produzida em massa e vendida durante muitos anos;
1822 
· Charles Babbage inicia o projeto e construção do “Difference Engine”;
1829
· William Austin Burt patenteia uma primeira máquina de escrever, na América;
1832
· Babbage e Joseph Clement produzem uma porção do “Difference Engine”;
1834-35 
· Babbage muda a sua meta para o projeto do “Analytical Engine”;
1838 
· Samuel Morse e Alfred Vail demonstram os elementos do sistema de telegrafia;
1842-43 
· Augusta Ada, Condessa de Lovelace, traduz o panfleto de Luigi Menabrea sobre o “Analytical Engine”, adicionando os seus próprios comentários;
1844 
· Samuel Morse transmite uma mensagem telegráfica de Washington a Baltimore;
1847-49 
· Babbage completa 21 projetos para a segunda versão do “Difference Engine” mas não completa a construção;
1854 
· George Boole publica “An Investigation of the Laws of Thought”, descrevendo um sistema para o raciocínio lógico e simbólico que se torna a base para o projeto do computador;
1858 
· Um cabo telegráfico se estende no Oceano Atlântico pela primeira vez e fornece serviços por alguns dias;
1861 
· Uma linha de telegrafia transcontinental conecta as costas do Atlântico e do Pacífico;
1876 
· Alexander Graham Bell inventa e patenteia o telefone;
1876-78 
· Baron Kelvin constrói um analisador harmônico e previsor de marés;
1882 
· William S. Burroughs deixa o seu trabalho de caixa de banco determinado a inventar uma máquina de somar;
1889 
· O Sistema de Tabulação Elétrica de Herman Hollerith é selecionado para uso no censo de 1890;
1893 
· É inventada a primeira calculadora com as quatro operações;
1895 
· Guglielmo Marconi transmite um sinal de rádio;
1896 
· Hollerith estabelece a “Tabulating Machine Company”;
1901 
· O código perfurado aparece e não se altera quase nada durante a próxima metade do século;
1904 
· John A. Fleming patenteia o diodo a vácuo, estabelecendo o estágio para uma melhor comunicação de rádio;
1906
· Lee de Forest adiciona um terceiro elemento no diodo a vácuo de Fleming, para o controle de corrente, criando o triodo a vácuo;
1907 
· A música de gramofone constitui a primeira irradiação regular de rádio de Nova York;
1908 
· O cientista britânico Campbell Swinton descreve um método eletrônico de varredura e prenuncia o uso de tubo de raios catódicos para televisão;
1911 
· A Hollerith’s Tabulating Machines Co. e mais duas outras companhias combinam para formar a C-T-R Calculating, Tabulating, and Recording Co.
1911 
· Um físico holandês Kamerlingh Onnes, na Universidade de Leiden, descobre a supercondutividade;
1912 
· O Institute of Radio Engineers, que futuramente se junta com outras organizações para formar a IEEE, é estabelecida;
1915 
· O uso de microchips é prenunciado quando o físico Manson Benedicks descobre que o cristal de germânio pode ser usado para converter corrente alternada em corrente contínua;
1919 
· Eccles e Jordan, físicos americanos, inventam o flip-flop, circuito de chave eletrônica crítico para sistemas de contagem eletrônica de alta velocidade;
1920-21 
· A palavra “robot” , derivada da palavra checa para trabalho compulsório, é usada pela primeira vez por Karel Câpek;
1924 
· T.J.Watson renomeia CTR para IBM e populariza o slogan “Think”;
1927 
· A face de Herbert Hoover é mostrada na tela durante a primeira demonstração da televisão nos Estados Unidos. A transmissão de voz foi feita através de fio telefônico;
1928 
· O relógio a cristal de quartzo torna possível um controle de tempo com exatidão sem precedentes;
1929 
· Os sinais de televisão a cores são transmitidos com sucesso;
1930 
· O Analisador Diferencial, inventado por Vannevar Bush e colegas do MIT, soluciona várias equações diferenciais;
1931 
· Reynold B.Johnson, um professor de ginásio em Michigan, inventa uma forma para a leitura da folha de resultados dos testes múltipla-escolha sensibilizados por marcas de lápis condutivas. A IBM compra posteriormente a tecnologia;
1934 
· Na Alemanha, Konrad Zuse busca construir uma máquina de calcular melhor que os disponíveis na época;
1935 
· IBM introduz a máquina de cartão perfurado 601, e a máquina de escrever elétrica;
1936 
· Konrad Zuse afirma que os programas compostos de combinações de bits podem ser armazenados, e entra com um processo de registro de patente na Alemanha, da execução automática de cálculos, incluindo uma “combination memory”;
1937 
· Howard Aiken submete à IBM uma proposta de máquina de calcular digital capaz de realizar as quatro operações aritméticas fundamentais e operando numa sequência predeterminada;
· Claude Shannon publica os princípios para um somador elétrico na base dois;
· George Stibitz desenvolve um circuito binário baseado na álgebra Booleana;
· John Vincent Atanasoff passa o inverno desenvolvendo os princípios para um computador digital eletrônico;
· Alan Turing publica o artigo “On Computable Numbers”, que apresenta os conceitos da máquina de Turing;
1938 
· William Hewlett e David Packard formam a Hewlett-Packard numa garagem em Palo Alto, California;
· Zuse completa o Z1, computador binário eletromecânico, e otimiza o projeto no Z2;
1939
· Trabalhando de outubro a novembro, John Vincent Atanasoff, com a ajuda do estudante de graduação Clifford E. Berry, constrói um protótipo de um computador digital eletrônico que usa a aritmética binária;
1940 
· Konrad Zuse completa o Z2, que usa relés telefônicos no lugar de circuitos lógicos mecânicos;
1941 
· Zuse completa Z3, o primeiro computador digital eletromecânico controlado por programa, totalmente funcional;
1943 
· Em 31 de maio de 1943 começa a construção do ENIAC no Moore School of Electrical Engineering, na Philadelphia;
· Em dezembro, Colossus, um computador inglês a tubos de vácuo, torna operacional em Bletchley Park, através de um trabalho conjunto de Alan Turing, Tommy Flowers, e M.H.A.Newman, considerado o primeiro dispositivo de cálculo totamente eletrônico;
1944 
· O Harvard Mark I, projetado por Howard Aiken, é finalizada na Universidade de Harvard;
1945
· J.Presper Eckert e John Mauchly assinam um contrato para construir o EDVAC (Electronic Discrete Variable Automatic Computer);
· Na primavera do ano, o ENIAC está pronto e funcionando;
· John von Neumann introduz o conceito do programa armazenado em 30 de junho, no projeto do EDVAC;
· Z4 de Zuse sobrevive à Segunda Gerra Mundial e ajuda no lançamento de desenvolvimentos pós-guerra de computadores científicos na Alemanha;
· Trabalhando num protótipo do Mark II, no verão, Grace Murray Hopper acha o primeiro “bug” de um computador, um inseto que causara uma falha no relé;
1946
· ENIAC, projetado por J.Presper Eckert e John Mauchly, é revelado na Universidade de Pennsylvania em 14 de fevereiro;
· Arthur Burks, Herman Goldstine e John von Neumann escrevem o artigo: “Preliminary Discussion of the Logic Design of an Electronic Computing Instrument”;
· O American Institute of Electrical Engineers estabelece uma subcomissão sobre Dispositivos de Cálculo em Larga Escala - origem da atual IEEE Computer Society;
· Alan Turing publica uma reportagem sobre o seu projeto para o ACE (Automatic Computing Engine), destacando extração aleatória de informação;
1947
· Em julho, Howard Aiken e seu time completam o Harvard Mark II;
· A memória de cilindro (drum) magnético é introduzido como dispositivo de armazenamento para computadores;
· Em 23 de dezembro, a administração da Bell Labs é informada de que John Bardeen e Walter Brattain, em conjunto com William Shockley, desenvolveram o primeiro transistor;
1948
· Claude Shannon publica “A Mathematical Theory of Communication” formulando um moderno entendimento do processo de comunicação;
· Em 21 de junho, o Manchester Mark I, ou “baby” machine, torna-se o primeiro computador digital de programa-armazenado, operacional, usando circuitos de válvulas, ou tubos de vácuo;
· Richard Hamming inventa umaforma de detectar e corrigir erros em blocos de dados; o código de Hamming é subsequentemente usado em computadores e sistemas de comutação telefônica;
· Em 24 de janeiro o SSEC(Selective Sequence Electronic Calculator), usando ambos, componentes eletrônicos e relés, é finalizada;
1949
· O computador Whirlwind, construido sob a liderança de Jay Forrester no MIT, é o primeiro computador de tempo real, colocado a serviço durante o terceiro quarto do século, contendo 5000 válvulas;
· EDSAC (Electronic Delayed Storage Automatic Computer), um computador a programa-armazenado construído por Maurice Wilkes na Universidade de Cambridge, Inglaterra, realiza o seu primeiro cálculo em 6 de maio;
· Short Order Code, desenvolvido por John Mauchly, deve ser uma primeira linguagem de programação de alto-nível;
1950
· O Pilot ACE é completado no England’s National Physical Laboratory e roda o seu primeiro programa em 10 de maio;
· Remington Rand compra a Eckert-Mauchly Computer Corporation;
· O SWAC (Standard Western Automatic Computer) construido sob a liderança de Harry Huskey, é finalizado em UCLA, em 17 de agosto;
· Alan Turing publica um artigo no jornal Mind estabelecendo um critério para o Teste de Turing de inteligência de máquinas;
1951
· O primeiro UNIVAC I é entregue ao US Census Bureau em março;
· Jay Forrester entra com um pedido de patente para a memória de núcleo de ferrite em 11 de maio;
· William Shockley inventa o transistor de junção;
· David Wheeler, Maurice Wilkes e Stanley Gill introduzem o conceito de subprograma e o “Wheeler jump”como um meio de sua implementação;
· Betty Holberton cria um gerador de sort-merge, um predecessor do compilador;
· Maurice Wilkes origina o conceito de microprogramação, uma técnica para o projeto flexível da unidade de controle de um computador;
· Grace Murray Hopper desenvolve A-0, o primeiro compilador;
1952
· O EDVAC roda o primeiro programa em 28 de janeiro;
· O ILLIAC I é construído na Universidade de Illinois, Urbana-Champaign; ORDVAC é construído pela US Army. Ambos usam a arquitetura de von Neumann;
· John von Neumann completa a máquina IAS em junho, no Instituto de Estudos Avançados de Princeton, New Jersey;
· Thomas Watson Jr. torna-se o presidente da IBM;
· O Institute of Radio Engineers inicia o Transactions of the I.R.E. Electronics Group on Electronic Computers, um predecessor do IEEE Transactions on Computers;
· Na televisão, o UNIVAC I prevê o resultado das eleições presidenciais e expande a consciência pública sobre os computadores;
· O IBM 701 - the Defense Calculator - é introduzido em dezembro;
1953
· Após vários anos de desenvolvimento, LEO, uma versão comercial do EDSAC construído pela Lyons Company na Inglaterra, entra em serviço;
· O IBM 650, conhecido como Magnetic Drum Calculator, torna-se o primeiro computador produzido em massa;
· Kenneth Olsen usa a memória de ferrite de Jay Forrester para construir o Memory Test Computer;
1954
· O Uniprinter de Earl Masterson, ou line printer, desenvolvido para computadores, executa 600 linhas por minuto;
· Texas Instruments introduz o transistor de silício, apontando para um caminho para diminuir o custo de fabricação;
· O Univac 1103A torna-se a primeira máquina comercial com memória de núcleo de ferrite;
1956
· IBM introduz e começa a instalação do RAMAC (random-access method of accounting and control) para o armazenamento de dados em disco rígido;
· John McCarthy e Marvin Minsky coordenam uma reunião no Dartmouth College onde o conceito de inteligência artificial foi desenvolvido;
· Fuji Photo Film Co., no Japão, desenvolve um computador de 1700 válvulas para o cálculo de lentes;
· O computador UNIVAC construído a transistores é projetado e introduzido para uso comercial;
1957
· John Backus e colegas da IBM entregam o primeiro compilador Fortran (formula translator) para a Westinghouse;
· O computador Atlas Guidance da Burroughs, um dos primeiros computadores a transistores, ajuda no controle de lançamento de mísseis;
· Gordon Moore, Robert Noyce e outros, fundam a Fairchaild Semiconductor;
· O Electrotechnical Laboratory do Japão desenvolve um computador a transistor, o ETL Mark III, que usa 130 transistores e 1700 diodos;
· John McCarthy forma o Artificial Intelligence Department do MIT;
· Control Data é incorporada em 8 de julho;
· Russia lança o Sputnik I em órbita em 4 de outubro, e inicia a disputa espacial;
· A Nippon Telegraph and Telephone Corp. desenvolve o Musasino-1, o primeiro computador usando parametron. Usa 519 válvulas e 5400 parametrons - que são elementos lógicos baseados no princípio da excitação paramétrica e inventada por Eiji Goto em 1954;
1958
· É fundada a Digital Equipment Corp. ;
· Na Texas Instruments, Jack Kilby desenvolve um protótipo de IC, circuito integrado semicondutor, enquanto Robert Noyce trabalha separadamente em IC na Fairchaild Semiconductor;
· O projeto Whirlwind é estendido para produzir um sistema de controle de tráfego aéreo;
· O desenvolvimento da Bell do modem habilita as linhas telefônicas a transmitir dados binários;
1959
· É formado o Committee on Data Systems Languages (Codasyl) para criar o Cobol (Common Business Oriented Language);
· John McCarthy desenvolve Lisp (List processing) para aplicações em inteligência artificial;
· Em junho, o primeiro computador comercial a transistor japonês, NEAC 2201, da NEC Corp., é exibido em Paris;
· Xerox introduz a primeira máquina copiadora comercial;
· Jack Kilby, na Texas Instruments, projeta o IC de flip-flop;
· Em 30 de julho, Robert Noyce e Gordon Moore entram com um processo de patente para a tecnologia de circuitos integrados a favor da Fairchaild Semiconductor Corp.;
· UNESCO realiza a primeira conferência internacional sobre computadores;
· A General Electric produz o GE ERMA para processar cheques numa aplicação bancária via reconhecimento de caracteres de tintas magnéticas;
1960
· Trabalhando na Rand Corp., Paul Baran desenvolve o princípio da comutação de pacotes, para comunicação de dados;
· É estabelecido o padrão para o Algol 60, através da união de cientistas de computação dos Estados Unidos e da Europa;
· O LARC (Livermore Advance Research Computer) da Remington Rand é projetado para trabalho científico e usa 60.000 transistores;
· Na Universidade de Cornell, Frank Rosenblatt constrói um computador - o Perceptron - que pode aprender por tentativa e erro através de uma rede neural;
· Em novembro, DEC introduz o PDP-1, primeiro computador comercial com um monitor e teclado como dispositivos de entrada;
1961
· Georg C. Devol patenteia um dispositivo de robótica, que Unimation comercializa como o primeiro robot industrial, que é usado para a automação da manufatura de tubos de TVs;
· Fernando Corbató no MIT desenvolve uma forma para que múltiplos usuários possam compartilhar o tempo de um computador;
· O IBM 7030, ou Stretch, é completado e roda 30 vezes mais rápido que o 704, servindo para o desenvolvimento dos futuros supercomputadores;
1962
· Max V.Mathews lidera um grupo da Bell Lab. no desenvolvimento de software que possa projetar, armazenar e editar música;
· As Universidades de Stanford e Purdue estabelecem os primeiros departamentos de ciência da computação;
· H.Ross Perot funda a Electronic Data Systems, que se torna o maior bureau de serviço de computação do mundo;
· O primeiro video-game é inventado no MIT pelo estudante de pós-graduação Steve Russell;
· O satélite de comunicação Telstar é lançado em 10 de julho e substitui as figuras de televisão Transatlântica;
· O Atlas, considerado o computador mais potente do mundo é inaugurado na Inglaterra em 7 de dezembro. Dentre as inovações são inclusas - memória virtual e operações em pipeline;
1963
· Baseado na idéia de Alan Turing, Joseph Weizenbaum no MIT desenvolve uma psiquiatra mecânica chamada Eliza;
· Em janeiro, Ivan Sutherland introduz o Sketchpad, iniciando a consolidação da computação gráfica;
· O American National Standards Instituteaceita o ASCII, código de 7 bits, para troca de informações;
· O Institute of Radio Engineers e o American Institute of Electrical Engineers fundem para formar a IEEE;
· Na Universidade de Califórnia, Berkeley, Lotfi Zadeh inicia o trabalho sobre lógica nebulosa;
· O sistema SAGE para a defesa militar é totalmente desenvolvido num custo total de 8 bilhões de dólares;
1964
· A IBM anuncia o System/360, linha de computadores de terceira geração;
· O Basic (Beginner’s All-Purpose Symbolic Instruction Code) é desenvolvido em Dartmouth por John Kemeny e Thomas Kurtz;
· O projeto de sete anos da IBM, Sabre, permitindo aos viajantes a reserva de passagens aéreas de qualquer lugar do mundo, é implementado;
· Com uma velocidade de 9 megaflops, o CDC 6600, da Control Data Corp. projetado por Seymour Cray, clama o título de primeiro supercomputador comercial bem sucedido;
· A IBM desenvolve um sistema de projeto auxiliado por computador;
· Doug Engelbart inventa o mouse;
1965
· DEC lança o primeiro minicomputador, o PDP-8;
· O projeto MAC, leva ao sistema operacional MULTICS;
· Maurice Wilkes propõe o uso de uma memória cache baseado na idéia de Gordon Scarott;
· Na Universidade de Belgrado, Rajko Romovic faz uma primeira tentativa de desenvolvimento de um braço mecânico com a sensação do tato;
1967
· Ole-Johan Dahl e Kristen Nygaard do Norwegian Computing Centre completam uma versão de propósito geral da linguagem Simula, a primeira linguagem orientada a objeto;
· Fairchaild introduz o seu chip 3800, 8-bit ALU;
· Na Texas Instruments, Jack Kilby, Jerry Merryman e James Van Tassel inventam uma calculadora de bolso de quatro operações;
· Donald Knuth escreve sobre algoritmos e estruturas de dados, como entidades separadas dos programas;
1968
· Uma conferência promovida pela NATO Science Committee anuncia o “software crisis” e introduz o termo “software engineering”;
· Edsger Dijkstra escreve sobre os efeitos negativos dos comandos goto, e questões interessantes sobre a programação estruturada;
· Os primeiros computadores a incorporar circuitos integrados - B2500 e B3500 - são introduzidos pela Burroughs;
· O Federal Information Processing Standard encoraja o uso do formato de datas de 6 dígitos (YYMMDD) para troca de informações, semeando a crise do ano 2000 ;
· Robert Noyce, Andy Grove e Gordon Moore estabelecem Intel, incorporado em 18 de julho;
· O CDC7600, supercomputador projetado por Seymour Cray, atinge um desempenho de 40 megaflops;
· A Rand Corp. apresenta um conceito de rede de comunicações descentralizado para ARPA;
1969
· O Departamento de Defesa dos USA autoriza a Arpanet para uso em rede de pesquisa, e os primeiros quatro nós tornam operacionais em UCLA, UC Santa Barbara, SRI, e University of Utah;
· Baseado no Projeto MAC, que desenvolveu o Multics, a Bell Labs inicia o desenvolvimento do Unix;
· O padrão RS-232-C é introduzido para facilitar a troca de dados entre computadores e periféricos;
1970
· Unix é desenvolvido no Bell Labs por Dennis Ritchie e Kenneth Thomson;
· A tecnologia MOS (metal-oxide-semiconductor) da RCA promete ICs pequenos e baratos;
· O floppy disk e a impressora daisywheel são introduzidos;
1971
· O time de Ted Hoff, S. Mazor e F.Fagin desenvolve o microprocessador 4004 da Intel, um computador num chip;
· Ray Tomlinson de Bolt Beranek and Newman envia a primeira mensagem de rede, e-mail;
· Niklaus Wirth desenvolve o Pascal, um predecessor para o Modula-2;
1972
· Surge o Intel 8008, primeiro microprocessador de 8 bits, que é logo substituído pelo 8080;
· Smaltalk é desenvolvido pela Xerox PARC’s Learning Research Group;
· Dennis Ritchie desenvolve C na Bell Labs.;
· Alain Colmerauer da Universidade de Marseille desenvolve o Prolog;
· A teoria da complexidade analítica desenvolve a idéia de NP-completeness, mostrando que uma grande classe de problemas de computação, tais como da “traveling salesman problem” pode ser computacionalmente intratável;
· Wang, VYDEC e Lexitron, todos introduzem sistemas de processamento de texto;
· Em Wimbledon, Inglaterra, um tomógrafo axial computadorizado experimental encontra um tumor no cérebro de um paciente;
· PDP 11/45 da DEC é introduzido;
· Trabalhos sobre Protocolo de Controle de Transmissão iniciam-se na Universidade de Stanford, encabeçados por Vinton Cerf;
· Alan Kay desenvolve o precursor do PC. O seu “office computer” baseado no Smaltalk emprega ícones, gráficos e um mouse;
· Pesquisadores da Xerox PARC desenvolvem um PC experimental chamado Alto que usa um mouse, Ethernet, e uma interface de usuário gráfica;
1973
· Através da técnica denominada integração em larga escala, 10.000 componentes são colocados num chip de 1 cm2;
· John Vincent Atanasoff é reconhecido como o criador do computador moderno, quendo um juiz federal invalidou a patente do ENIAC de Eckert e Mauchly;
· Robert Metcalfe escreve um memorando sobre “Ether Acquisition”, que descreve o Ethernet como um Alohanet modificado;
1974
· Um chip D-RAM de 4 Kbit torna comercialmente disponível;
1975
· Michael Jackson descreve um método para tratamento de estrutura do programa como reflexo da estrutura do problema, um precursor do método de Desenvolvimento de Sistema de Jackson;
· John Cocke trabalha no projeto 801 da IBM para o desenvolvimento de um minicomputador com a arquitetura RISC, ainda sem esse nome;
· IBM introduz a impressora a laser;
1976
· O Cray-1 da Cray Research é o primeiro supercomputador com uma arquitetura vetorial;
· Gary Kildall desenvolve o CP/M, sistema operacional para PC’s de 8 bits;
· OnTyme, o primeiro serviço comercial de e-mail, tem um mercado limitado devido ao número pequeno de bases instaladas de potenciais usuários;
· IBM desenvolve a impressora jato de tinta;
· Steve Jobs e Steve Wozniak projetam e constroem o Apple I, constituído basicamente de um único cartão de circuito impresso;
1977
· Apple Computer é incorporado em 3 de janeiro;
· O Apple II é anunciado na primavera e estabelece o benchmark para computadores pessoais;
· Várias empresas começam a pesquisar o uso de cabos de fibra ótica;
· Bill Gates e Paul Allen fundam a Microsoft, estabelecendo a sede comercial em Albuquerque, New Mexico;
1978
· DEC introduz o VAX 11/780, um computador de 32 bits que se torna popular para aplicações científicas e técnicas;
· Wordstar é introduzido, tornando-se um processador de texto largamente usado nos sistemas CP/M e posteriormente sistema DOS;
· É lançado o primeiro processador de 16 bits da Intel, o 8086;
1979
· A primeira planilha eletrônica, Visicalc, de Don Bricklin e Bob Franston, é apresentada em 11 de maio;
· Motorola introduz o chip 68000, que será usado no Macintosh;
· Surgem os videodiscos, frutos de esforços da Sony e Philips;
· Telefones celulares são testados no Japão e Chicago;
1980
· A IBM seleciona o PC-DOS da Microsoft como o sistema operacional do seu novo PC;
· Após um longo período de desenvolvimento, emerge a linguagem Ada;
· Wayne Ratliff desenvolve dBase II, a primeira versão de um programa de banco de dados para PC;
· David A. Patterson da Universidade de Califórnica, Berkeley, começa o uso do termo “reduced-instruction set” e junto com John Hennessy de Stanford, desenvolve o conceito;
1981
· Japão conquista uma grande parte do mercado de chips produzindo chips com 64 Kbits de memória;
· A arquitetura aberta IBM PC é lançada em agosto;
1982
· Columbia Data Products produz o primeiro clone do IBM PC, seguida da Compaq;
· Autodesk é fundada e vende a primeira versão do AutoCAD no mesmo ano;
· Cray X-MP (dois Cray-1 interligados em paralelo) prova ser 3 vezes mais rápido que o Cray-1;
· Japão lança o seu projeto de computação “fifth generation”, focalizando inteligência artificial;
1983
· Lotus 1-2-3 é lançado como planilha eletrônica para o IBM PC;
· É desenvolvida a junção de Josephson baseada na teoria de Brian Josephson, de 1962, trazendo alta velocidade e baixa dissipação de potência a ICs;
· O IBM PC-XT substituio PC Junior;
· O desenvolvimento do TCP/IP marca a criação da Internet;
· Thinking Machines Corp. e Ncube são fundadas, prevendo um reforço no processamento paralelo;
· Na AT&T Bell Labs, Bjarne Stroustrup continua trabalhando no C++, e extensão OO de C;
1984
· Em janeiro, é lançado o Macintosh;
· É desenvolvido o padrão MIDI (Musical Instrument Digital Interface) para interfacear computadores e sintetizadores digitais de música;
· O CD-ROM introduzido pela Sony e Philips fornece uma capacidade significantemente grande de armazenamento para dados digitais;
· Motorola introduz MC68020 com 250.000 transistores;
· NEC fabrica o chip de 256 Kbit, e IBM introduz um chip RAM de IMbit;
· Iniciando em agosto, o chip 80286 de 16 bits da Intel é instalado no novo PC AT da IBM;
1985
· A velocidade dos supercomputadores atinge 1 bilhão de operações por segundo com o lançamento do Cray-2 e processador paralelo da Thinking Machines, Connection Machine;
· Inmos introduz os transputers, para o desenvolvimento de arquiteturas de processamento concorrente;
· A NSF (National Science Foundation) estabelece quatro centros de supercomputação nacionais;
· Com o desenvolvimento do Windows 1.0, Microsoft traz fatores semelhantes ao Macintosh para os computadores compatíveis ao DOS;
· Em outubro, Intel introduz o chip 80386 com processamento de 32 bits e gerenciamento de memória interno;
· O PageMaker de Paul Brainard torna-se o primeiro programa de editoração do PC, largamente usado; 
1986
· Um computador Cray XP de quatro processadores desempenha 713 milhões de operações de ponto-flutuante por segundo;
1987
· São introduzidos chips experimentais de 4 e 16 Mbits;
1988
· A série 88.000 de processadores de 32 bits, RISC, da Motorola, tem um desempenho de processamento de 17 milhões de instruções por segundo;
1989
· Tim Berners-Lee propõe o projeto World Wide Web ao CERN ( European Council for Nuclear Research);
· O chip 80486 da Intel com 1,2 milhões de transistores é introduzido em abril;
· Seymour Cray funda o Cray Computer Corp. e inicia o desenvolvimento do Cray 3 com chips de arseneto de gálio;
· O primeiro conjunto de benchmarks SPEC é introduzido, facilitando comparações de desempenho de máquinas para tarefas de computação científica;
1990
· Microsoft introduz o Windows 3.0 em maio, intensificando a disputa com o sistema operacional da Macintosh;
· Cientistas da Bell Labs. demostram o primeiro processador totalmente ótico em 29 de janeiro;
· Hewlett-Packard e IBM anunciam computadores baseados em RISC;
· i486 e iPSC/860 da Intel, e 68040 da Motorola tornam-se disponíveis;
· Berners-Lee escreve o primeiro protótipo para o World Wide Web, que usa suas outras criações: URLs, HTML e HTTP;
· Arpanet é oficialmente encerrado;
1991
· O Japão abandona o programa para a construção de um computador de quinta geração e planeja o computador de sexta geração, baseado em redes neurais;
· Cray Research revela o Cray Y-MP C90 com 16 processadores e uma velocidade de 16 Gflops;
· IBM, Motorola e Apple se aliam para a construção do PowerPC;
1992
· DEC introduz o primeiro chip para implementar a sua arquitetura RISC Alpha de 64 bits;
1993
· O Pentium da Intel é lançado em março;
· O NCSA Mosaic, uma interface de usuário gráfica, é criada para navegação na Internet, pelos estudantes e profissionais da University of Illinois’National Center for Supercomputing Applications;
1994
· Em abril, Jim Clark e Marc Andreesen fundam a Netscape Communications (originariamente Mosaic Communications);
1995
· Toy Story é o primeiro filme totalmente gerado por computador;
· A linguagem de programação Java, lançada em maio, habilita o desenvolvimento de aplicações independente de plataformas;
· Windows 95 é lançado em 24 de agosto;
1996
· O Pentium Pro da Intel é anunciado.
...
Bibliografia
1. Fonseca Filho, Cléuzio . História da computação : O Caminho do Pensamento e da Tecnologia / Cléuzio Fonseca Filho. – Porto Alegre : EDIPUCRS, 2007. 205 p.
2. http://www.tecmundo.com.br/tecnologia-da-informacao/1697-a-historia-dos-computadores-e-da-computacao.htm
3. IEEE Computer

Continue navegando