Baixe o app para aproveitar ainda mais
Prévia do material em texto
INSTITUTO SUPERIOR DE EDUCAÇÃO FRANCISCANO NOSSA SENHORA DE FÁTIMA CURSO DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS Sistemas Operacionais Histórico da computação Por: Aurélio Guedes Professor: Carlos Maurício de Borges Mello Brasília – DF 2014 Nos últimos séculos, a computação veio a se amadurecer de uma forma muito rápida, com os primeiros indícios de que os computadores estavam por surgir, em 1642 o matemático Blaise Pascal criou uma máquina de somar, para auxiliar o seu pai no processo de arrecadamento de impostos. Mas a máquina de Pascal ainda estava muito limitada, pois realizava apenas um tipo de operação. Com o passar dos anos, novas máquinas foram surgindo, com capacidades cada vez maiores, como exemplo: a invenção de Charles Colmar, desenvolvida em 1820 e que foi a primeira máquina capaz de realizar as quatro operações aritméticas básicas. Em 1833 Charles Babbage que é considerado o pai do computador, progrediu em suas invenções aperfeiçoando sua máquina a realizar qualquer tipo de operação, invenção essa conhecida como Máquina Analítica(Analitical Engine). Junto ao projeto de Babbage, Ada Byron era responsável pela criação das instruções que seriam executadas pela máquina analítica. Ada, foi considerada a primeira programadora da história. Anos se passaram e os inventos na área computacional não pararam de crescer, em 1854, fora então criada por George Boole a lógica booleana que é a base do modelo computacional digital que se utiliza até hoje. Outras tecnologias foram surgindo pelo decorrer dos anos, e no final do século XIX, Herman Hollerith criou um mecanismo de cartões perfurados que foi utilizado para acelerar o processamento do censo de 1980 nos Estados Unidos. A empresa fundada por Hollerith viera a se chamar a atual IBM(International Business Machine) em 1924. Na década de 30, vários pesquisadores tentaram implantar máquinas que se aproximavam do conceito de dispositivos eletrônicos com funcionamento baseado em relés. Década de 1940: Na década de 40, com a segunda guerra mundial, a busca por máquinas que quebrassem códigos de países adversários ganhou força, e os governos começaram a investir cada vez mais na criação de computadores capazes de interceptar as mensagens codificadas pelos adversários. Uma das máquinas desenvolvidas para o fim de decodificar informações dos alemães foi criada e tinha como nome: Colossus. Colossus foi desenvolvida por Alan Turing, que já buscava o desenvolvimento de máquinas na década de 30. O primeiro computador eletromecânico batizado de Mark I foi desenvolvido na universidade de Harvard com o apoio da IBM, sendo utilizado pela marinha americana. Mark I, tinha os mesmos princípios da Máquina Analítica, criada bor Babbage. Na década de 40, os computadores desenvolvidos eram grandes máquinas que ocupavam muito espaço e que consumia uma quantidade imensa de energia. O ENIAC(Eletronic Numerical Integrator And Calculator) ,que é considerado o primeiro computador digital e eletrônico, desenvolvido por engenheiros da universidade da Pensilvânia, fora desenvolvido para a realização de cálculos balísticos. Esse mais tarde também foi utilizado na bomba de hidrogênio, em operação por mais de uma década. Posteriormente, novas máquinas foram desenvolvidas, e novos conceitos surgiram, como o conceito de programa armazenado. Mais um conceito que foi muito importante para a atual arquitetura dos dispositivos computacionais. Década de 1950: Na década de 50, os computadores começaram a ganhar mais recursos avançados como: transistores e memórias magnéticas. Com esses avanços, os computadores começaram a reduzir de tamanho, injetando-se maior capacidade de armazenamento, ficaram mais velozes e de uma breve facilidade no manuseio. Como os computadores começaram a ficar mais complexos e assim ganhando confiança, começaram a ser fabricados para uso corporativo. Nesta época foi desenvolvido o primeiro computador que tinha capacidade de processamento em tempo real. Os computadores executavam os seus programas com um processo chamado de: processamento em batch, esse processamento utilizava cartões perfurados para armazenar as instruções dos programas. O primeiro sistema operacional foi desenvolvido nesse momento, com o nome de “monitor”, o sistema foi desenvolvido por uma equipe de pesquisas da General Motors e testado em uma das máquinas da IBM. Também na década de 50 surgiram as primeiras linguagens de programação de alto nível, o que proporcionava uma programação distante da camada de hardware, facilitando o desenvolvimento de softwares. As linguagens: COBOL, FORTRAM e ALGOL foram destaques na época. Com a facilidade de desenvolvimento nas linguagens de programação recém criadas, os sistemas operacionais começaram a evoluir e a criar camadas que deixava transparente os processos de entrada e saída de informações, provendo uma interface para desenvolvimento em cima de rotinas que antes atrapalhavam a vida dos programadores, pois teriam que conhecer toda a arquitetura do dispositivo computacional para então desenvolverem suas rotinas para executar determinada ação. Década de 60: A década de 60, foi uma das mais importantes no histórico da computação, pois foi nessa década que novas tecnologias surgiram de forma a gerar um impacto no tamanho físico e de processamento de um computador. O conceito de circuitos integrados foi desenvolvido e pode melhorar a capacidade de processamento, tornando as máquinas cada vez menores. O conceito de multiprogramação foi desenvolvido, também gerando um grande impacto na atuação dos sistemas operacionais, pois os antigos sistemas executavam apenas um processo por vez, de forma semelhante a um programa aplicativo que executa o seu processo de forma linear. O conceito de multiprogramação, proporcionou ao processador, agir de forma mais produtiva, pois o processador poderia executar operações adicionais mais rápidas enquanto um outro componente da máquina realizava uma atividade mais demorada, e assim que a atividade de maior tempo precisasse do processamento da UCP, ele então executava a instrução e em seguida continuava com os outros processos, ou seja, o processador começou a executar processos de forma assíncrona. Mesmo com o avanço em novos componentes dos computadores da época, os programadores ainda tinha muita dor de cabeça, pois o tempo de resposta de um processamento demorava muito e a possibilidade de erros ainda era grande. Para resolver os problemas de resposta de processamento, foram desenvolvidas os sistemas de divisão de tempo(time-sharing), o que proporcionava melhor velocidade de resposta pois os programas utilizavam os recursos de forma compartilhada. Também foram desenvolvidas tecnologias que proporcionavam o uso de multiprocessadores melhorando ainda mais o processamento das instruções e retorno de dados e/ou informações. Década de 70: Em 70 as integrações em larga e muito larga escala, levaram a diante o projeto de diminuição no tamanho e barateamento dos componentes computacionais, e então são lançados os primeiros minicomputadores. Em 1971 a Intel Corporation produz o seu primeiro microprocessador e a Zilog torna a sua concorrente logo em seguida também lançando um microprocessador. A tendência dos computadores só tinha a melhorar, pois o tamanho foi drasticamente reduzido e os equipamentos se tornaram menos custosos. Então em 1976, Steve Jobs e Steve Wozniak desenvolvem o computador Apple II tornando-se em sucesso imediato, pois o Apple II poderia ser utilizado por pessoas comuns, o que fez as vendas subirem muito. Neste mesmo espaço de tempo em que a Applefoi criada com o lançamento do Apple II, surgem então a Microsoft Corporation. O desenvolvimento de computadores com a utilização de mais de um microprocessador, e de novas arquiteturas para este tipo de processamento também aumentou a velocidade de resposta dos computadores. Na década de 70 também surgiram novas linguagens de programação de alto nível. Linguagens como Pascal e C foram desenvolvidas, e o sistema operacional Unix deu início ao seu desenvolvimento. Década de 80: Na década de 80 a IBM entrou no mercado de microcomputadores, fornecendo o IBM PC(Personal Computer), nome que é utilizado até hoje para computadores de uso doméstico. Nesta época, os computadores ganharam mais recursos e os sistemas operacionais receberam suporte a multiusuários. A universidade de Berkeley desenvolveu a sua própria distribuição do Unix colocando recursos como TCP/IP(Transmission Control Protocol/ Internet Protocol). Também surgiram os chamados Workstations (Estações de trabalho), que embora não tivesse suporte a múltiplos usuários, era um computador com processamento melhorado em relação aos computadores domésticos tradicionais. Com o aumento na capacidade de processamento dos computadores as interfaces gráficas começaram a surgir, proporcionando melhor interatividade do usuário com o sistema. Os sistemas operacionais também começaram a ter suporte a redes, como exemplo os sistemas Novell Netware e o Microsoft LAN Manager. No Rio de Janeiro, foi desenvolvido um sistema operacional que mais tarde fora comprado pela Intel e depois fornecido com filosofia Unix, de forma gratuita na internet. Década de 90: A década de 90 foi o grande marco para o desenvolvimento de hardware, software e telecomunicações, as aplicações evoluíram muito rápido e diversos componentes presentes nos computadores puderam ser aperfeiçoados. O surgimento da internet tornou o uso de sistemas operacionais com suporte a redes praticamente uma exigência e novas aplicações como: Servidores de aplicação/banco de dados e interfaces gráficas também se tornaram uma exigência de mercado para sistemas operacionais. Microprocessadores e dispositivos de I/O mais portáteis também surgiram. A década de 90 também foi importante para o desenvolvimento de software livres, com o sistema operacional desenvolvido por Línus Torvalds, O línux - que teve seu kernel melhorado por diversos programadores ao redor do mundo - ganhou cada vez mais adeptos. Década de 2000 A década de 2000 deu sequencia ao aprimoramento das interfaces gráficas, e tornou a interação do usuário com a máquina a mais favorável possível. Os processadores estão muito poderosos e tendem a evoluir cada vez mais. Espera-se que novas linguagens de programação venham para facilitar ainda mais o desenvolvimento de aplicações de forma rápida e consistente. As interfaces gráficas estarão cada vez mais intuitivas com os usuários, e os sistemas de processamento de grandes quantidades de dados está e estarão mais aperfeiçoadas, em uma velocidade tão rápida quanto as das décadas anteriores.
Compartilhar