Baixe o app para aproveitar ainda mais
Prévia do material em texto
Centro Universitário de João Pessoa - UNIPÊ Departamento de Ciências Jurídicas Coordenação do Curso de Direito Disciplina: DIREITO DA INFORMÁTICA Código: DJC216 UNIDADE 01 CONCEITOS BÁSICOS DE INFORMÁTICA EVOLUÇÃO TECNOLÓGICA E HISTÓRIA DOS COMPUTADORES Prof. Carlos Melo - UNIPÊ ccaabbddmm@@uuooll..ccoomm..bbrr João Pessoa-PB Fevereiro de 2013 II A pessoa que não lê, mal fala, mal ouve e mal vê. Malba Tahan III Sumário Introdução ................................................................................................................................................6 PARTE I – CONCEITOS BÁSICOS ................................................................................................................6 Informação ...........................................................................................................................................6 Informação e Conhecimento ................................................................................................................7 Informática – Origem do Termo ...........................................................................................................7 Definição de Informática ......................................................................................................................7 Funções da Informática ........................................................................................................................8 Sociedade da Informação .........................................................................................................................9 A natureza jurídica da expressão "sociedade da informação" ..............................................................9 Revolução da Informação .................................................................................................................. 12 Aspectos relevantes da revolução da informação ............................................................................. 12 Tecnologia da Informação ..................................................................................................................... 12 Dados ................................................................................................................................................. 13 Informações ....................................................................................................................................... 13 Conhecimento ................................................................................................................................... 13 Processamento de dados ...................................................................................................................... 13 PARTE II - BREVE HISTÓRIA DO COMPUTADOR ..................................................................................... 14 A pré-história do computador ........................................................................................................... 14 John Napier – 1614 ........................................................................................................................ 14 A Máquina de Pascal ...................................................................................................................... 15 A Máquina de Leibniz..................................................................................................................... 16 O Tear Programável ....................................................................................................................... 17 Teoria de Babbage ......................................................................................................................... 17 A teoria de G. Boole ....................................................................................................................... 19 Conjuntos de “informação” ....................................................................................................... 20 A máquina de Hollerith .................................................................................................................. 21 Válvulas eletrônicas ....................................................................................................................... 22 As máquinas de Conrad Zuze ......................................................................................................... 23 Computação Eletrônica (Século XX) ....................................................................................................... 23 As Cinco Gerações ................................................................................................................................. 36 IV Primeira Geração ............................................................................................................................... 37 Mark I ............................................................................................................................................ 37 Eniac .............................................................................................................................................. 38 COLOSSOS X ENIGMA .................................................................................................................... 39 Teoria da Informação .................................................................................................................... 41 SEGUNDA GERAÇÃO .......................................................................................................................... 42 TERCEIRA GERAÇÃO .......................................................................................................................... 43 QUARTA GERAÇÃO ............................................................................................................................ 45 A CAMINHO DO PC VERDE ............................................................................................................. 51 O FUTURO - O COMPUTADOR QUÂNTICO (SEXTA GERAÇÃO?) ............................................................. 52 COMPUTAÇÃO QUÂNTICA ................................................................................................................ 53 Definição de COMPUTADOR ................................................................................................................. 54 LIMITAÇÕES DOS COMPUTADORES .................................................................................................. 55 PARTE III – COMPUTADORES ELETRÔNICOS MODERNOS...................................................................... 56 CLASSIFICAÇÃO DOS COMPUTADORES ............................................................................................. 56 1. QUANTO AO TIPO DE DADOS PROCESSADOS: ........................................................................... 56 2. QUANTO À FINALIDADE DA UTILIZAÇÃO DOS COMPUTADORES: ............................................. 56 3. QUANTO À POTÊNCIA E NÚMERO DE UTILIZADORES ............................................................... 56 ELEMENTOS DO COMPUTADOR ........................................................................................................ 57 OPERAÇÕES FUNDAMENTAIS ............................................................................................................ 57 ARQUITETURA DO COMPUTADOR ....................................................................................................58 DISPOSITIVOS DE SAÍDA .................................................................................................................... 58 DISPOSITIVOS DE ARMAZENAMENTO ............................................................................................... 58 DISCO RÍGIDO ................................................................................................................................ 59 HARDWARE – ENTRADA .................................................................................................................... 59 TECLADO ........................................................................................................................................ 59 MOUSE .......................................................................................................................................... 60 MODEM (MODULADOR/DEMODULADOR) ................................................................................... 60 WEBCAM ....................................................................................................................................... 60 HARDWARE – SAÍDA .......................................................................................................................... 60 MONITOR ...................................................................................................................................... 60 TIPOS DE MONITORES ................................................................................................................... 61 IMPRESSORA ................................................................................................................................. 61 V PROCESSADOR E MEMÓRIA .......................................................................................................... 62 PROCESSADOR ............................................................................................................................... 62 MEMÓRIA ...................................................................................................................................... 62 MEMÓRIA ROM ............................................................................................................................. 62 MEMÓRIA RAM ............................................................................................................................. 63 TECNOLOGIAS DE MEMÓRIAS ................................................................................................... 64 TIPOS DE ENCAPSULAMENTO ................................................................................................... 66 MÓDULOS DE MEMÓRIA ........................................................................................................... 67 Definição de Sistema ............................................................................................................................. 68 LINGUAGEM DOS PROCESSADORES ...................................................................................................... 69 SOFTWARE ............................................................................................................................................ 69 REDES .................................................................................................................................................... 70 Referências Bibliográficas ..................................................................................................................... 71 6 INTRODUÇÃO O século XX apresentou um vertiginoso progresso na utilização das novas tecnologias da informação, seja através da massificação da Internet, do desenvolvimento da inteligência artificial, da tecnologia digital, como também na popularização dos computadores eletrônicos. É bem verdade que de tais tecnologias, a que tem provocado maiores consequências no plano econômico, cultural e político é a Internet, entendida como a rede mundial de computadores que possibilitou a comunicação global em tempo real a um custo operacional baixíssimo, levando a mudanças substantivas no modo de produção capitalista desde a década de 80. Em relação à Internet e seus impactos no campo jurídico trataremos do assunto em aula específica (terceiro ponto do nosso programa). Neste momento, trataremos do desenvolvimento tecnológico que levou a consolidação da Sociedade da Informação e a nova etapa dessa revolução: a Revolução Digital. Assim, na primeira parte destes apontamentos, partindo de alguns conceitos básicos iniciais, tentaremos situar o desenvolvimento das tecnologias que levaram ao aparecimento da Sociedade da Informação. Na segunda parte, abordaremos uma breve história dos computadores. Na terceira parte, concluiremos com a identificação do hardware e suas funções1. Com isso, pretendemos construir uma base histórica e técnica para os futuros assuntos que trataremos no decorrer da nossa disciplina. É importante entender a tecnologia informática para, em seguida, podermos tratar de Direito da Informática. PARTE I – CONCEITOS BÁSICOS INFORMAÇÃO Informação é aquilo que dá forma (in-forma) alterando o quadro das coisas conhecidas, incluindo o que ainda não o era. É a mensagem suscetível de ser tratada pelos meios informáticos; conteúdo dessa mensagem, produto do processamento de dados. Informação é o resultado do processamento, manipulação e organização de dados de tal forma que represente uma modificação (quantitativa ou qualitativa) no conhecimento do sistema que a recebe2. 1 Quanto a software, trataremos desse assunto na quarta unidade do nosso programa. 2 Informação enquanto conceito, carrega uma diversidade de significados, do uso cotidiano ao 7 A informação sempre surpreende de alguma forma e quanto mais inesperada, mais relevante, pois mais novidade ela carrega. INFORMAÇÃO E CONHECIMENTO Todos os indivíduos com responsabilidades e devidamente educados para viver em sociedade devem ter conhecimentos, ou pelo menos noções, em quatro áreas relacionadas com as tecnologias de informação: 1. Desenvolvimentos do processamento de dados e informação; 2. Conceitos básicos de hardware e software (material e lógica) e dos ambientes específicos que estes geram; 3. Impacto social resultante do uso de computadores; 4. Modos de utilização dos computadores em diferentes áreas do saber. INFORMÁTICA – ORIGEM DO TERMO Segundo o francês Philippe Dreyfus3: “Informação” + “automática”. Jean Yvon Birrien (em “História da Informática”4) assegura que vem do amálgama dos étimos “informação” + “eletrônica”. DEFINIÇÃO DE INFORMÁTICA Alexander Ivanovich Mikhailov (Império Russo, 6 de dezembro de 1905 - Moscou, 6 de fevereiro de 1988) foi um importante teórico ligado a Ciência da informação e principal pesquisador ligado a "vertente" Soviética dessa ciência. Formou-se em 1932 no instituto Mendeleyev em Moscou, seguindo por uma carreira bem sucedida na engenharia de aviões e caças soviéticos durante as décadas de 40 e 50. Por duas vezes vice diretor da Federação Internacional de técnico. Genericamente, o conceito de informação está intimamente ligado às noções de restrição, comunicação, controle, dados, forma, instrução, conhecimento, significado, estímulo, padrão, percepção e representação de conhecimento. É comum nos dias de hoje ouvir-se falar sobre a Era da Informação, o advento da “Erado Conhecimento” ou Sociedade do Conhecimento. Como a “Sociedade da Informação”, a tecnologia da informação, a ciência da informação e a ciência da computação em informática são assuntos e ciências recorrentes na atualidade, a palavra “informação” é frequentemente utilizada sem muita consideração pelos vários significados que adquiriu ao longo do tempo. 3 Philippe Dreyfus é um pioneiro da Informática na França. Depois de obter sua licenciatura em Física em 1950, tornou-se professor da Faculdade de Ciências da Computação na Universidade de Harvard onde teve a oportunidade de utilizar o Mark I, o primeiro computador eletro-mecânico, construído por Howard H. Aiken em 1944. É membro do conselho da ECSA – Associação Europeia de Serviços Informáticos. 4 BIRRIEN, Jean-Yvon. História da Informática, Porto : Editora Rés, 1993. 8 Documentação (FID) (1969-1976 e entre 1981-1988), foi o principal e mais influente teórico russo a tratar da questão da produção e gestão da informação, não só dentro da então URSS, mas de parte considerável do extinto bloco socialista. Em seus estudos e publicações, entre as décadas de 50 e 80, aprimorou e desenvolveu a Informatika, um conceito que se desenvolveu dentro do leste europeu no final dos anos 40. A partir desse conceito, o autor estudava as principais características e princípios da informação científica e questões ligadas a organização e manutenção desse tipo de informação. Mikhailov analisou também o caráter interdisciplinar da Informatika e o impacto das novas tecnologias no profissional ligado ao estudo e pesquisa da informação. Suas duas principais obras são Fundamentos da Informatika (Osvony Informatiki) publicado em 1968 e Comunicação Científica e Informatika (Nauchnye Kommunikacii i Informatika) publicado em 1976, ambas com a colaboração dos autores Arkadii Chernyi e Rudhzero Gilyarevskyi. É dele a seguinte definição: “É a disciplina científica que investiga a estrutura e as propriedades (mas não o conteúdo concreto) das informações científicas, bem como a regularidade da informação científica, sua teoria, história, metodologia e organização. Consiste em desenvolver métodos e meios ótimos de apresentação (registro), coleção, processamento analítico–sintético, armazenagem, recuperação e disseminação da informação científica”. (Mikhailov). Entendemos que Informática é o ramo do conhecimento dedicado ao tratamento da informação mediante o uso de computadores e demais dispositivos de processamento de dados5. Ciência que visa ao tratamento da informação através do uso de equipamentos e procedimentos da área de processamento de dados6. Portanto, trata-se de ciência e estudo dos métodos e modos de processamento e transmissão da informação. FUNÇÕES DA INFORMÁTICA As funções da informática ao lidar com a informação são: PROCESSAR; ARMAZENAR; COMUNICAR. 5 Cfr. Dicionário Eletrônico da Língua Portuguesa – Antonio Houaiss. 6 Cfr. Dicionário Aurélio Eletrônico. 9 SOCIEDADE DA INFORMAÇÃO Sociedade da Informação, também chamada de Sociedade do Conhecimento, é um termo que surge no fim do Século XX, juntamente com o termo Globalização. A NATUREZA JURÍDICA DA EXPRESSÃO "SOCIEDADE DA INFORMAÇÃO" Nos últimos anos, o conceito de "Sociedade da Informação"7 adquiriu importância em escala mundial, fundamentado na crença de que sua consolidação favorece a integração global nos diferentes âmbitos em que se desenvolve a vida humana: na economia, no conhecimento, na cultura, no comportamento humano e nos valores. O termo "Sociedade da Informação" consolidou-se, em verdade, na Europa na Conferência Internacional celebrada em 1980, onde a comunidade econômica europeia reuniu estudiosos para analisarem o futuro de uma nova sociedade assim denominada por convenção, pelo interesse em regulamentação da liberdade de circulação de serviços e de medidas para a implementação de mecanismos de comunicação que permitiriam aos Estados membros da União Europeia estarem informados e terem acesso aos bens e serviços, sob a sigla TIC (Tecnologias de Informação e de Comunicação). A denominação "Sociedade da Informação" é, primordialmente, uma expressão sob o prisma da ciência do direito que traduz um novo conceito de proteção dos direitos humanos fundamentais, uma nova orientação internacional em busca do direito ao desenvolvimento através da interação da comunicação e da telemática, em uma nova era de informações em tempo real, com transmissão global e assimilação simultânea. Percebe-se que os interesses jurídicos e sociais são exatamente os mesmos, isto é, proteger os direitos do indivíduo e os direitos sociais para procurar uma convivência humana estável, em sistemas jurídicos e políticos democráticos em nome do direito ao desenvolvimento. 7 José de Oliveira Ascensão afirmou que a expressão „Sociedade da Informação‟ “não é um conceito técnico: é um slogan. Melhor se falaria até em sociedade da comunicação, uma vez que o que se pretende impulsionar é a comunicação, e só num sentido muito lato se pode qualificar toda a mensagem como informação" (Direito da internet e da Sociedade da Informação, Rio de Janeiro: Forense, 2002, p. 71). A expressão reapareceu com maior força nos início dos anos 80, no contexto do desenvolvimento da internet e das tecnologias da informação e comunicação, ganhando a roupagem atual abordada nesse nosso estudo no início da década de 90. Em 1995, foi incluída na agenda das reuniões do G7 (depois, G8 - onde se reúnem os chefes de Estado ou governos das nações). Foi admitida em fóruns da Comunidade Europeia e adotada também pelo governo dos Estados Unidos da América, bem como por várias agências das Nações Unidas e pelo Banco Mundial. 10 A Declaração sobre o Direito ao Desenvolvimento, de 19868, tem como ponto de partida o reconhecimento de que o desenvolvimento é um processo econômico, social, cultural e político abrangente que visa ao constante incremento do bem estar de toda a população com base em sua participação ativa, livre e significativa no desenvolvimento e na distribuição justa dos benefícios daí resultantes, reconhecendo, por fim, que o direito ao desenvolvimento é também um direito humano e inalienável, pois trata da igualdade de oportunidade, cuja prerrogativa é tanto das nações quanto dos indivíduos que as compõem, conforme estatui o seu art. 1º da Declaração sobre o Direito ao Desenvolvimento9: 1. O direito ao desenvolvimento é um direito humano inalienável em virtude do qual toda pessoa humana e todos os povos estão habilitados a participar do desenvolvimento econômico, social, cultural e político, a ele contribuir e dele desfrutar, no qual todos os direitos humanos e liberdades fundamentais possam ser plenamente realizados. 2. O direito humano ao desenvolvimento também implica a plena realização do direito dos povos de autodeterminação que inclui, sujeito às disposições relevantes de ambos os Pactos Internacionais sobre Direitos Humanos, o exercício de seu direito inalienável de soberania plena sobre todas as suas riquezas e recursos naturais. A natureza jurídica da expressão "Sociedade da Informação" é, nessa análise, um direito humano fundamental reconhecido pelas comunidades internacionais, isto é, o direito à interação e ao desenvolvimento humano seguro pela nova comunicação e telemática virtual, de troca de bens e serviços, pois a soberania plena sobre todas as riquezas e recursos naturais (comunicação e interação humana) é direito inalienável à luz doart. 1º, item 02 da Declaração sobre o Direito ao Desenvolvimento de 1986. Por essa razão, a Organização das Nações Unidas criou a agência da União Internacional das Telecomunicações (UIT) cuja intenção, inicialmente, não é o controle da Internet mundial, tampouco a retirada desse controle pela ICANN (Internet Corporation for Assigned Names and Numbers)10, mas tem como objetivo estabelecer um acordo internacional envolvendo empresas do setor para garantir a paz no ciberespaço, a segurança na rede, principalmente, pelo temor de sua utilização por grupos terroristas. 8 Adotada pela Resolução n. 41/128, da Assembleia Geral das Nações Unidas, de 04.12.1986, tratando-se de declaração de direitos humanos aprovada pelo Brasil. 9 Da mesma forma estabelece o art. 2º, inciso 3, prevendo que: "Os Estados têm o direito e o dever de formular políticas nacionais adequadas para o desenvolvimento, que visem ao constante aprimoramento do bem-estar de toda a população e de todos os indivíduos, com base em sua participação ativa, livre e significativa no desenvolvimento e na distribuição equitativa dos benefícios daí resultantes". 10 A ICANN é uma organização americana privada internacional, sem fins lucrativos, que administra o funcionamento da internet. 11 A igualdade de oportunidade para todos com acesso aos recursos básicos é dever do Estado11 que tem a responsabilização primária de criação das condições nacionais e internacionais favoráveis à realização do direito ao desenvolvimento (art. 3º e 8º), tratando-se, em outras palavras, na questão da necessidade dos indivíduos terem o poder de auto-regulamentação e socialização virtual no novo contexto mundial em que vivenciamos: a internet e os sinais digitais similares. Apesar desses esforços realizados e do entusiasmo mundial, com sustentação nesses direitos humanos, não estão claras as implicações práticas e jurídicas que a "Sociedade da Informação" terá na vida das pessoas. O ritmo acelerado de desenvolvimento descentralizado virtual e as novas e prementes necessidades da vida moderna traduzem uma consequência natural da crise econômica mundial, refletindo também nas relações jurídicas privadas. No conceito de "Sociedade da Informação" existe uma ideia de globalidade, contudo, devemos estender esse conceito na seara jurídica sob o enfoque dos direitos humanos para o fim de adaptarmos o novo desenvolvimento social às particularidades de cada nação, conforme sua legislação interna. Trata-se de uma nova realidade e não uma continuação no mesmo nível, mas de uma questão permeando um novo início, isto é, da entrada em uma dimensão diferente do físico-aéreo para o digital eletrônico, numa nova perspectiva de direito humano social que é, conforme sustentamos, a "Sociedade da Informação". Se a "Sociedade da Informação" é vista como um princípio de natureza socioeconômico, devemos perceber também que se prestando como um elemento jurídico, dando origem a segmentos específicos do direito, com fundamento em pedra angular nos direitos humanos, é inevitável as consequências de suas implicações com outros institutos jurídicos. Deve haver um estudo lastreando-se nos reflexos desse posicionamento científico como poderá acontecer na análise da vontade nas relações contratuais ‘juscibernéticas’12. De fato, a geração, o processamento e a transmissão da informação através de contratos tornam-se as fontes fundamentais de produtividade e poder, o que significa então que, ao invés de uma "Sociedade da Informação", as estruturas de informação e comunicação geraram uma "sociedade informacional", em que a informação é o produto do processo produtivo. Daí porque na "Sociedade da 11 O primeiro passo do governo brasileiro é de criar condições para que haja confiança pública na "Sociedade da Informação", conf. Brasil. Ministério da Ciência e Tecnologia e Governo Federal. Livro verde da Sociedade da Informação no Brasil. Tadao Takahashi (Org.). Brasília, set. 2000, p. 13. O Governo Federal, através do Ministério da Ciência e Tecnologia criou o Programa para a "Sociedade da Informação", adotando diretrizes através da edição do referido Livro Verde da Sociedade da Informação no Brasil, desde 1997, objetivando estimular a evolução tecnológica de forma adequada à estruturação da realidade nacional. 12 O termo cibernética deve ser entendido como “ciência que tem por objeto o estudo comparativo dos sistemas e mecanismos de controle automático, regulação e comunicação nos seres vivos e nas máquinas”. 12 Informação" deve ser analisada a informação, em si, como objeto dos negócios jurídicos eletrônicos, ou seja, é objeto do processo produtivo informacional que permeia sob o enfoque da vontade nesses contratos. Trata-se de uma análise do substrato dos direitos humanos nas relações contratuais, em reconhecimento da autonomia da vontade e suas limitações como uma das facetas do princípio da dignidade humana aplicadas ao direito civil contratual na "infoera". Por outro lado, com o substrato nos direitos humanos, sua importância ganha relevância, pois, sem ferir a soberania nacional das normas internas já existentes, poderão incorporar em nosso ordenamento jurídico os futuros tratados internacionais, através do §3º do art. 5º da Constituição Federal de 198813. REVOLUÇÃO DA INFORMAÇÃO Também chamada de Revolução Técnico-Científica-Informacional, que se caracteriza pela codificação, armazenamento e transmissão da informação. ASPECTOS RELEVANTES DA REVOLUÇÃO DA INFORMAÇÃO Destacam-se os seguintes dois novos e inéditos aspectos surgidos no século XX, fruto das novas Tecnologias da Informação e Comunicação – TICs: 1) Interatividade generalizada; e 2) Separação entre informação e seu substrato material. TECNOLOGIA DA INFORMAÇÃO Três elementos fundamentais devem ser destacados na Tecnologia da Informação. São eles: Dados; Informações; Conhecimento. 13 “§3º Os tratados e convenções internacionais sobre direitos humanos que forem aprovados, em cada Casa do Congresso Nacional, em dois turnos, por três quintos dos votos dos respectivos membros, serão equivalentes às emendas constitucionais. (Incluído pela Emenda Constitucional nº 45, de 2004) (Decreto Legislativo com força de Emenda Constitucional)” 13 DADOS São os elementos básicos da construção do saber, representados por números, palavras ou fatos. INFORMAÇÕES É o resultado de uma organização, transformação ou análise de dados, ou seja, o tratamento de um conjunto de dados, para obtenção de um significado específico. CONHECIMENTO Consiste na interpretação (com argumentos e explicações) de um conjunto de informações. Envolve hipóteses, teorias, modelos e leis. PROCESSAMENTO DE DADOS São às várias operações efetuadas com dados, rumo a produção de informações e conhecimentos e que pode assumir as mais diversas formas e manusear os mais diversos tipos de instrumentos ou ferramentas auxiliares. Estes instrumentos, criados pelo homem com a evolução histórica e tecnológica, são classificados em: Manuais ou não mecânicos; Mecânicos; e Eletrônicos. 14 PARTE II - BREVE HISTÓRIA DO COMPUTADOR A PRÉ-HISTÓRIA DO COMPUTADOR Há quem goste de remontar a história dos computadores e do processamento de dados à pré-história, ligando-a a marcas em ossos ou pedras. Há quem o faça à Antiguidade, com os ábacossumérios, chineses ou romanos. É fato que aprendemos a contar nos dedos, e que os primeiros ábacos têm cerca de 5.000 anos. Os ábacos mais primitivos constituíam-se de simples placas de argila, madeira ou pedra, com sulcos onde pequenos seixos são deslizados, e os mais conhecidos, os de contas em armações de varetas. O termo vem do grego "ábakos", com o significado de tábua, prancha. As demais expressões vêm do latim: dígito de "digitus" (dedo), cálculo de "calculus" (pedrinha, seixo), de onde por sua vez derivam calcular e calculadora; computar, de "computare", justaposição de "cum" (com) e "putare" (contar); contar, por fim, é a ação de utilizar "contas". Essa pequena incursão à origem das nossas atuais palavras, demonstra cabalmente serem esses os instrumentos mais antigos que a nossa cultura conheceu para essa função. O importante é fixar que, desde os primórdios da civilização, a história do processamento de dados, e a do próprio cálculo, liga-se cada vez mais intimamente à evolução da vida econômica e do pensamento lógico do Homem. A complexidade da civilização agrícola e urbana exigiu o aperfeiçoamento do cálculo em geral, e cada cultura encontrou soluções próprias: os orientais até hoje ainda recorrem ao ábaco, que permite operações velozes e confiáveis; os sumérios e egípcios, desenvolveram sistemas de contagem, calendários, e os rudimentos da geometria (além da escrita para registrá-los); os gregos, afamaram-se na geometria; os romanos na engenharia; os hindus inventaram o zero trazido por árabes para o ocidente cristão medieval. Na América pré-colombiana foram desenvolvidas matemáticas complexas ligadas às observações celestiais das quais, mesmo hoje, pouco conhecemos. John Napier – 1614 Na Europa pré-renascentista, as necessidades da burguesia e do capitalismo mercantil desenvolveram uma economia monetária e os rudimentos da Contabilidade. O aumento das receitas (e das despesas) exigiu novos e aperfeiçoados meios de cálculo e de controle, multiplicando as Universidades, 15 impulsionando a pesquisa e a ciência. O sucesso dessa fórmula é atestado pela passagem do capitalismo mercantil para o pré-industrial que redobra as exigências do cálculo, e prepara a fundamentação teórica que leva às máquinas de calcular. Aqui começam normalmente as cronologias dos autores. John Napier14 (1550-1617), matemático escocês, inventa os Logaritmos (1614), recurso lógico que reduz a divisão à subtração e a multiplicação à adição, e os chamados "Ossos de Napier" - tabelas de multiplicação gravadas em cilindros rotativos de madeira. Devido à complexidade de cálculo dos logaritmos, o seu colega inglês William Oughtred (1574-1660) representa-os, para esse fim, em uma escala de madeira: a primeira régua de cálculo de que se tem notícia, e que alguns consideram como o primeiro computador analógico da História. A primeira máquina de calcular de que se tem notícia foi a do astrônomo alemão Wilhelm Schickard (1592-1635). Pouco se sabe desse aparelho, além de que fazia as quatro operações, e se perdeu durante a Guerra dos Trinta Anos (1618-1648). O próprio inventor, morto de peste, não pode defender a sua primazia pelo invento15. A Máquina de Pascal O filósofo, físico e matemático francês Blaise Pascal (1623-1662), que trabalhava com seu pai em um escritório de coleta de impostos, na cidade de Rouen (França), em 1642, aos 19 anos, desenvolveu uma máquina de calcular, para auxiliar o seu trabalho de contabilidade, baseada em 2 conjuntos de discos: um para a introdução dos dados e outro que armazenava os resultados, interligados por 14 A obra de John Napier significou um enorme avanço para a matemática e a astronomia pela formulação do conceito de logaritmo como um artifício capaz de facilitar os cálculos. John Napier, também dito Neper, nasceu no castelo de Merchiston, perto de Edinburgo, Escócia, em 1550. Ingressou aos 13 anos na Universidade de Saint Andrews e interessou-se por teologia e aritmética. Viajou para o continente, mas logo voltou para a terra natal, de onde não mais saiu. Sua única obra de teologia, escrita em 1594, ocupa lugar de destaque na história eclesiástica escocesa. Napier também se dedicou à invenção de artefatos secretos de guerra, inclusive uma peça de artilharia de longo alcance, que ficaram apenas no papel. Foi como matemático, porém, que Napier mais se destacou. Inventou vários artifícios para o ensino da aritmética, estudou a história da notação arábica e manifestou grande interesse pelos princípios que fundamentam a notação dos números. Deve-se a ele uma das primeiras tentativas de desenvolvimento da base dois para a contagem. Destacou-se ainda na geometria, ao criar novos métodos para a trigonometria esférica. Sua mais notável realização foi a descoberta dos logaritmos, artifício que simplificou os cálculos aritméticos e assentou as bases para a formulação de princípios fundamentais da análise. Publicou, em 1614, Mirifici logarithmorum canonis descriptio (Descrição das normas dos logaritmos maravilhosos). De publicação póstuma (1619) foi Mirifici logarithmorum canonis constructio (Cálculo das normas dos logaritmos maravilhosos). Napier morreu no castelo de Merchiston, em 4 de abril de 1617. Os logaritmos neperianos são assim chamados em sua homenagem. 15 Por isso, atribui-se ao matemático e filósofo francês Blaise Pascal (1623-1662) a invenção da primeira máquina – calculadora mecânica que se chamou "Pascaline" (1642), um mecanismo com capacidade para oito dígitos, efetuando apenas a adição e a subtração, construída para auxiliar o seu pai, um coletor de impostos. 16 meios de engrenagens. A máquina utilizava o sistema decimal para os seus cálculos, de maneira que quando um disco ultrapassava o valor 9, retornava ao 0 e aumentava uma unidade no disco imediatamente superior. Assim, Blaise Pascal cria uma máquina de somar de engrenagens que chamou de "Pascaline". A Pascalina, como ficou conhecida, foi a primeira calculadora mecânica do mundo, também considerado o primeiro computador criado pelo homem16. Pascal recebeu uma patente do rei da França para que lançasse sua máquina no comércio. Mas, a comercialização de suas calculadoras foi um completo fracasso devido a seu funcionamento pouco confiável, apesar de Pascal ter construído cerca de 50 versões. Funcionava com agulhas que moviam rodas que alteravam dígitos. A Máquina de Leibniz Gottfried Wilhelm Leibniz17 (1646-1716), alemão, trata de aperfeiçoar a Pascalina, introduzindo o chamado "Cilindro de Leibniz". Projeta ainda (1671), uma máquina que efetua as quatro operações, e que, segundo alguns teria sido apresentada à Royal Society inglesa (1673), segundo outros, teria sido concluída (1694), mas apresentando problemas técnicos. Todas estas máquinas operavam em bases decimais. Calculadoras mecânicas surgem posteriormente, embora aparelhos práticos e confiáveis só estejam disponíveis na segunda metade do século XIX: William S. Burroughs inicia a produção de máquinas de somar (1866), fundando a companhia com o seu nome. Comuns no início do século XX, essas máquinas permaneceram difundidas até serem suplantadas pelas calculadoras eletrônicas no 16 Mas, há quem considere o ábaco um computador. Na verdade era uma calculadora... portanto, um computador manual (não mecânico), enquanto a de Pascal era mecânico... 17 Gottfried Wilhelm Leibniz foi uma das luzes científicas de sua época - o período conhecido como a Idade da Razão. Nasceu na cidade de Leipzig em 1646 a morreu em Hanover em 1716. Durante seussetenta anos de vida descobriu princípios de cálculos, estudou a dinâmica dos corpos e fez contribuições para a geologia, a teologia, a história, a linguística e a filosofia. Além do mais, desenvolveu ideias que viriam a ser fundamentais para a criação do computador. Iniciou suas viagens, aos 20 anos, depois de a Universidade de Leipzig ter-lhe recusado o doutorado em direito, por causa de sua pouca idade. Como matemático, lançou-se ao trabalho de aperfeiçoamento da máquina inventada por Blaise Pascal, em 1642, a pascalina. Leibniz procurou torná-la também capaz de multiplicar a dividir. Para isso, projetou um dispositivo mecânico chamado cilindro de Leibniz. O aparelho foi uma grande novidade para a época. Anteriormente, pela complexidade de operação dos numerais romanos, a multiplicação só era ensinada nas escolas especializadas. Uma máquina que podia multiplicar mecanicamente tornava a aritmética mais acessível. Uma vez aperfeiçoado esse aparelho, Leibniz passou da base aritmética 10 para o exame formal da matemática binária. A maior ambição de Leibniz era idealizar uma linguagem universal que utilizasse a clareza e a precisão da matemática para solucionar os problemas enfrentados pela humanidade. Essa linguagem caracterizava-se pelo uso de símbolos abstratos para representar os "átomos" fundamentais da compreensão, incluindo também um conjunto de normas para o emprego desses símbolos. Sua tentativa não obteve resultado satisfatório, mas suas ideias foram retomadas de maneira mais modesta, no início do século XX, por Bertrand Russell, que procurou explicar a matemática em termos de uma "linguagem" de lógica formal. 17 começo dos anos 70. O Tear Programável A Revolução Industrial traz as bases da economia de escala, e o séc. XVIII convive com vários dispositivos e máquinas para calcular, analógicos para grandezas (réguas de cálculo, relógios, contadores e medidores em geral), e digitais para valores, representados por algarismos, letras ou qualquer outro símbolo (ábacos, calculadoras, etc.)18. O princípio dos maquinismos é idêntico: o usuário alimenta os números girando uma série de botões ou rodas tipo engrenagens, acionando manualmente uma alavanca ou outra roda para efetuar a operação desejada. Esses aparelhos constituíam-se em curiosidades mecânicas, sem aplicação prática, pois o recurso a um calculista hábil era sempre mais prático e veloz. Entretanto mesmo o operador mais hábil e destro comete erros no processamento de operações longas e/ou repetitivas e monótonas. E isso se aplicava aos operários nas linhas de produção das maiores fábricas da época: a indústria de tecidos. Em 1799, numa França que sob Napoleão pretende suplantar o poderio da indústria inglesa, o inventor Joseph-Marie Jacquard (1752-1834) constrói um tear mecânico que reproduz infinitamente padrões coloridos nos tecidos, segundo instruções fornecidas por fileiras de cartões perfurados "lidos" por um sistema de pinos. Os cartões de Jacquard são o exemplo clássico de um algoritmo19 - especificação da sequência ordenada de passos, que deve ser seguida para a realização de uma tarefa, garantindo a sua repetitividade. O sistema é tão prático e perfeito que milhares de tecelões desempregados se revoltam, sabotam as máquinas (do francês "sabot" – tamanco - calçado de madeira utilizado pelos operários para paralisar as engrenagens), e alguns chegam mesmo a tentar matar Jacquard, pioneiro involuntário do desemprego industrial em massa... Teoria de Babbage Napoleão é derrotado em 1815, mas a ideia de Jacquard não, e será 18 Digital - relativo a dedos ou que tem analogia com eles, assume unicamente valores inteiros (diz-se de grandeza). Analógico - forma de medida ou representação de grandezas na qual um sensor ou indicador acompanha de forma contínua, sem hiatos nem lacunas, a variação da grandeza que está sendo medida ou representada. 19 Algoritmo - conjunto das regras e procedimentos lógicos perfeitamente definidos que levam à solução de um problema em um número finito de etapas. 18 aproveitada justamente por um inglês - Charles Babbage20 (1792-1871), membro da Royal Society, professor de matemática em Cambridge, onde ocupa a mesma cadeira que pertencera a Isaac Newton. As tabelas numéricas do Séc. XIX estão cheias de erros, e mesmo que houvessem sido calculadas corretamente, as sucessivas reimpressões perpetuariam nos erros e acrescentariam outros novos. Inventor prolífico, de personalidade ao mesmo tempo excêntrica e genial, Babbage tem a ideia (1811) de construir uma máquina que não apenas calcule, mas também automaticamente imprima as entradas desse tipo de tabelas. Chamando-a de "Difference Engine" por calcular o que em matemática são chamadas Equações Diferenciais, apresenta em 1822 à Royal Society um protótipo que usa 8 posições decimais, e obtém um crédito do governo inglês (1823) para construí-la. Dificuldades levam-no a abandoná-la, entre outros motivos, porque os cartões perfurados de Jacquard sugerem a Babbage uma ideia muito melhor: um 20 "Quisera Deus esses cálculos fossem feitos por uma máquina a vapor!", exclamava Charles Babbage enquanto trabalhava nas tabelas do Almanaque náutico. O século XIX desenvolvera a propulsão a vapor, mas a navegação marítima ainda representava um problema. A posição de um navio era determinada pela observação da Lua e pelo uso de tabelas matemáticas, quase sempre imprecisas. Em 1812, Babbage teve a primeira ideia de construir uma máquina, à qual chamou de “Máquina Diferencial”. Ela seria capaz de realizar os trabalhosos cálculos necessários à confecção das tabelas náuticas. Por volta de 1823, ele já havia concluído um pequeno modelo a recorreu ao governo, a fim de conseguir verbas para construir a máquina em tamanho funcional. O ministro da Fazenda da Grã-Bretanha concedeu-lhe 1.500 libras esterlinas, e ele empenhou-se na construção de um aparelho que eliminaria os erros mediante a impressão automática dos resultados de seus próprios cálculos. A linha de trabalho de toda a vida de Babbage estava, a partir de então, determinada. O projeto consumiu altas somas em dinheiro, pois ele estava trabalhando com o que havia de mais avançado na engenharia da época. Para obter o dinheiro, ele contou com a ajuda do primeiro-ministro, seu amigo, o duque de Wellington. Apesar da segurança de Babbage ("O que quer que a máquina faça, estará correto", dizia ele), o governo acabou desistindo da ideia, depois de ter investido 17.000 libras no empreendimento. O engenheiro contratado por Babbage, Joseph Clement, demitiu-se algum tempo depois, e levou consigo todos os instrumentos especialmente elaborados para a construção da máquina. Babbage partiu em seguida para um projeto mais ambicioso, a “Máquina Analítica”. Esse novo engenho teria todas as funções previstas para a máquina diferencial - e muitas outras. Seu projeto, em vários aspectos, lembra os computadores atuais. Era composto por um armazenamento de memória, um "manipulador" aritmético (equivalente à CPU), e podia fornecer saídas impressas. A máquina podia até ser programada, usando ramificações condicionais. A princípio, as instruções eram controladas por cravos, como os de um realejo; mais tarde, foi adotado o sistema de cartões perfurados que Joseph Jacquard havia introduzido na indústria de tecelagem. Babbage também fez experiências com diversas bases numéricas, mas, como todas as suas máquinas utilizavam procedimentos mecânicos, não havia vantagem no uso do sistema binário. Sua amiga, a condessa Ada Lovelace, matemática talentosa, participou da elaboração desse projeto. Mas elesenfrentaram muitos problemas. Ela perdeu sua fortuna jogando num “infalível” sistema de apostas em corridas de cavalo. Depois de sua morte, aos 36 anos, Babbage prosseguiu sozinho. Homem de energia prodigiosa, ele também inventou o oftalmoscópio médico, coreografou um balé, criou um sistema de iluminação de palco e inventou uma técnica de sinalização marítima. Nos últimos anos de vida, ele tornou-se irritável ao extremo. Embora desejasse a nobreza, recusou o título de barão que lhe foi concedido em reconhecimento pelo seu trabalho. As experiências de Babbage anteciparam a estrutura do moderno computador eletrônico, mas ele não teve condições de desenvolver seus projetos inteiramente. A máquina analítica ficou para sempre inacabada, pois as limitações técnicas do século XIX impediram sua conclusão. 19 aparelho capaz de efetuar quaisquer cálculos de acordo com as instruções de cartões perfurados. A partir de 1834, passará as quatro últimas décadas de sua vida no projeto do que chama "Analytical Engine", composto de quatro partes ou módulos, interligadas: a) Computação: adição, subtração, multiplicação, divisão e uma operação decisória elementar; b) Memória: um banco de mil "registradores", cada um com capacidade para 50 dígitos; c) Alimentação: controle/entrada de dados/instruções por cartões perfurados; d) Saída: relatório impresso automaticamente. Se essa máquina houvesse sido completada, o Séc. XIX teria conhecido o primeiro computador moderno: um dispositivo com memória, controlado por um programa, utilizado para processar dados. É o programa, conjunto ordenado de instruções que determina ao dispositivo o que, como, onde e quando fazer, que o torna diferente de uma calculadora. O governo inglês, sem retorno prático na primeira máquina de Babbage, não se dispôs a repetir o erro com a segunda, que jamais teve um protótipo, haja vista não haver no mercado, naquela época, peças para viabilizar tal invento. Apesar disso, um programa de demonstração foi escrito para sua operação, em 1835, por Lady Ada Lovelace21. Ada, que além da educação formal em idiomas e música, era excelente matemática, com este programa calcularia séries matemáticas de números22. A teoria de G. Boole Em 1815, ano da derrota de Napoleão na batalha de Waterloo, outro acontecimento importante teve lugar na História da humanidade. Nesse ano nasceu George Boole23, em Lincoln, Inglaterra. Filho de um sapateiro, estava destinado a se 21 Ada Augusta Byron, Condessa de Lovelace, única filha legítima do poeta Lorde Byron. 22 É a ela - a primeira programadora - que devemos o estabelecimento de importantes funções em programação: 1) Sub-rotinas - sequências de instruções que podem ser utilizadas várias vezes em diversos contextos; 2) Loops - instruções que retomam a leitura/execução de uma instrução específica, de modo que ela possa ser repetida; e 3) Salto Condicional - instrução cuja satisfação de uma condição permite ou não o "salto" para outra instrução. 23 George Boole em 2 de Novembro de 1815. A sua formação base na escola primária da National Society foi muito rudimentar. Autodidata, fundou aos 20 anos de idade a sua própria escola e dedicou-se ao estudo da Matemática. Em 1840 publicou o seu primeiro trabalho original e em 1844 foi condecorado com a medalha de ouro da Royal Society pelo seu trabalho sobre cálculo de operadores. Em 1847 publica um volume sob o título The Mathematical Analysis of Logic em que introduz os conceitos de lógica simbólica demonstrando que a lógica podia ser representada por equações algébricas. Este trabalho é fundamental para a construção e programação dos 20 tornar um dos gênios que possibilitaram, mais tarde, a invenção do computador. Morreu em 1864, um século antes da revolução do microcomputador; entretanto, sem suas ideias o moderno computador não teria as características que tem hoje. Boole sabia que os nossos processos de raciocínio na vida cotidiana podem ser representados em termos de lógica formal, desenvolvida primeiramente pelos gregos. Ele acreditava que, a rigor, poderíamos mesmo chegar a exprimir o raciocínio humano em termos matemáticos. Boole dispôs-se a fazer exatamente isso: estudou matemática sozinho e iniciou sua pesquisa sobre a lógica dos processos de pensamento. George Boole, que viveu em uma época em que não era possível imaginar os computadores eletrônicos, mesmo assim, é ele um dos fundadores da lógica matemática usada nos computadores de hoje. Estava convicto de que os processos de pensamento de que nos valemos cotidianamente estão fundados na razão e que esta poderia ser depurada até alcançar a forma da lógica matemática. Publicou suas ideias em 1847 e tornou-se famoso da noite para o dia, sendo convidado para primeiro professor de matemática da nova Universidade de Cork, na Irlanda. Conjuntos de “informação” Suponha que uma determinada pessoa vai a uma festa. Ela quer dançar e, na sala de dança, procura um parceiro. Há pessoas ali que estão dançando ou não - porque não podem estar fazendo ambas as coisas ao mesmo tempo. O par procurado será uma mulher ou um homem. Boole examinou essas alternativas de outro modo. Para ele, o salão contém "conjuntos" de pessoas, o conjunto de homens e o conjunto de mulheres, que podem ser simbolizados por H e M. Boole também levou em conta o conjunto das pessoas que estão dançando (D) e o conjunto das que estão esperando (E) para dançar. O parceiro de dança (de um homem) teria de satisfazer duas condições: ser mulher e também estar esperando para dançar. Boole percebeu a importância do conectivo e ("and") que liga as duas condições e atribuiu-lhe um símbolo: a letra U invertida. Com isto, tornou-se possível simbolizar o conjunto de eventuais pares como sendo M ∩ E. Entretanto, se não quisesse dançar, mas apenas conversar com uma pessoa amiga, o homem poderia escolher uma pessoa dos conjuntos H ou M, porque estes dois incluem qualquer pessoa na sala. Aqui, novamente, Boole notou a importância do conectivo ou ("or") a atribuiu-lhe o símbolo U. Assim, em computadores eletrônicos, iniciada cerca de 100 anos mais tarde. 21 sua lógica algébrica, H U M inclui todos os homens e todas as mulheres presentes na sala. As portas lógicas encontradas no computador são representadas de acordo com símbolos criados por Boole, tais como AND e OR. A máquina de Hollerith O processamento de dados propriamente dito, inicia-se nos EUA em 1886, quando o estatístico Hermann Hollerith24, (1860-1929) funcionário do National Census Office, observa que o processamento manual dos dados do censo de 1880, demora cerca de 7 anos e meio para ser concluído. Raciocinando que o censo seguinte, de 1890, não estaria totalmente apurado antes do ano de 1900 devido ao aumento da população, dedica-se à construção de uma máquina para 24 Nascido nos Estados Unidos em 1860, Hollerith graduou-se na Universidade de Columbia, tornando-se depois assistente do National Census Office (NCO), onde ajudou a compilar as estatísticas demográficas de 1880. Nesse tempo, o trabalho era todo feito a mão, meticuloso e demorado - tão lento, de fato, que chegada a ocasião do novo recenseamento, dez anos depois, o departamento americano ainda tabulava os resultados anteriores. Hollerith estava consciente de suas aptidões, e, pretendendo desenvolver sua capacidadepara inovações, deixou o NCO a passou a trabalhar no Departamento de Patentes, em Washington. A primeira ideia de Hollerith foi codificar informação numa fita de papel, marcada a tinta a dividida em "campos". Cada campo representava grupos diferentes - por exemplo, masculino ou feminino, negro ou branco. Um furo no campo masculino/feminino representava indivíduo do sexo masculino, ao passo que a ausência de furo significava sexo feminino, a assim por diante. Esses furos seriam mais tarde “lidos” por uma máquina. Suas primeiras patentes foram obtidas em 1884, e durante os anos seguintes ele aperfeiçoou seu sistema. Começou processando dados estatísticos de saúde pública, trabalho resultante do rápido desenvolvimento das cidades americanas, a fez levantamentos para a administração do exército. Decorridos cinco anos, em 1889, ele aperfeiçoou a ideia da fita de papel perfurada, utilizando cartões para cada indivíduo. Os cartões tinham o tamanho da cédula de 1 dólar - em parte, segundo se diz, porque o único equipamento que poderia ser adaptado tinha sido criado para manejo de dinheiro. Os furos eram originalmente redondos e feitos com perfuradoras usadas por cobradores de ônibus; mais tarde foram produzidas perfuradoras especiais para um furo quadrado de 6 mm. Por este meio, muita informação podia ser contida num único cartão. A vantagem dos cartões individuais sobre a fita continua é que a informação podia ser específica ou genérica. Por exemplo, para encontrar a número de mulheres brancas com 80 anos que viviam em New York, todos os cartões seriam classificados, e aqueles com furos perfurados nos campos que não interessavam seriam mecanicamente separados do resto. As primitivas máquinas apenas produziam um total geral, mas com o tempo Hollerith introduziu a adição a outras operações aritméticas simples. O sucesso comercial veio em 1889, quando o Bureau of Censuses anunciou uma concorrência para instalar um sistema de equipamento processador do censo do ano seguinte. Os sistemas foram testados com nova tabulação dos números anteriores. O equipamento de Hollerith venceu. Suas máquinas estavam protegidas por patente de invenção e por isso ele cobrou a taxa de 65 cents do governo, no processamento de cada conjunto de mil cartões. Apesar de haver um cartão para cada indivíduo, Hollerith levou apenas dois anos para concluir a apuração. Ele anunciou que a população era de 56 milhões, a cobrou do governo o valor equivalente. Na época do censo de 1900, ele tinha desenvolvido um equipamento ainda mais eficiente, mas recusou-se a baixar o preço estipulado pelo trabalho. Quando se esgotou o prazo de validade de sua patente, o governo tentou negociar com algumas companhias, mas Hollerith ganhou a luta criando sua própria empresa, que mais tarde se tornou na IBM - International Business Machines. 22 tabular esses dados. No censo de 1890, 300 de suas máquinas, baseadas nos princípios de Babbage e empregando cartões perfurados, diminuem a demora do processamento de cerca de 55 milhões de habitantes para cerca de 2 anos. O sucesso da máquina leva Hollerith a fundar a própria companhia (1896) para fabricá- la e comercializá-la: a Tabulating Machine Company. Através de uma política comercial agressiva, incorporando três outras empresas, suas máquinas serão vendidas para os Departamentos de Censo de governos de todo o mundo, e mais tarde para companhias particulares de grande porte. Em 1924 o nome da Companhia é alterado para IBM - Industrial Business Machines, pioneira no emprego da eletricidade para a perfuração/leitura de cartões. A tecnologia de cartões perfurados só foi superada depois dos anos 60 do século XX25. Válvulas eletrônicas Lee De Forest26, inventor da válvula radioelétrica (1906), que tornou possível a transmissão radiofônica ao vivo e contribuiu com o principal componente dos aparelhos de rádio, televisão, telefone, radar e computador, nasceu em 26 de agosto de 1873 em Council Bluffs, Iowa, Estados Unidos. Entrou para a Universidade de Yale em 1893 e doutorou-se em física seis anos mais tarde. Interessado em eletricidade e particularmente no estudo da propagação das ondas eletromagnéticas, sua tese sobre a reflexão de ondas hertzianas foi talvez o primeiro trabalho teórico sobre o rádio. Experimentalmente, De Forest desenvolveu um detector eletrolítico das ondas de rádio e, em 1907, patenteou a válvula radioelétrica, com que transmitia programas musicais para a cidade de New York. No ano seguinte, realizou uma emissão do alto da torre Eiffel, em Paris, que foi captada pelos postos militares da região. Além do rádio, De Forest pesquisou equipamentos para gravação e reprodução de sons em filmes, assim como instrumentos de aplicação nos campos da medicina e da telefonia. Lee De Forest morreu em 30 de junho de 1961 em Hollywood, Califórnia. 25 Em 1917, a IBM surgiu no Brasil, ainda funcionando com o nome de Computing Tabulating Recording Company. Nesse mesmo ano, o Sr. Valentim F. Bouças, representante da CTR, firmou o primeiro contrato para a prestação de serviços com a Diretoria de Estatística Comercial. As máquinas daquela época eram: Perfuradoras mecânicas; Separadoras verticais e Tabuladoras standard. Com os excelentes resultados obtidos, o Governo Brasileiro resolveu contratar a CTR para o censo demográfico de 1920. Naquele mesmo ano chegaram ao Brasil as primeiras máquinas impressoras. O ano de 1924 marcou o estabelecimento definitivo da IBM Brasil. Através de decreto do então presidente Arthur Bernardes e com o nome de International Business Machines Co. of Delaware, a IBM, sempre representada pelo Sr. Valentim Bouças, estendeu suas atividades a diversas e importantes organizações privadas da Indústria e do Comércio. 26 Forest foi um físico que pesquisou componentes e aparelhos dedicados a gravação e reprodução de sons, assim como instrumentos de aplicação nos campos da eletromedicina e da telefonia. 23 As máquinas de Conrad Zuze Em Berlim, Alemanha, Conrad Zuze (1910-?), engenheiro aeronáutico, dedica-se a partir de 1936, a um projeto que chama de Z-1. Construído à noite, com a ajuda de amigos na casa onde mora com os pais, o Z-1 efetua as quatro operações aritméticas, calcula raiz quadrada e converte números decimais em notação binária e vice-versa. Desconhecendo os fundamentos de Babbage, Zuze chega a muitas conclusões semelhantes, redescobrindo os princípios da álgebra booleana também. Fixa-se na ideia de Leibniz, de representar os dados e as instruções em forma binária. Uma máquina puramente mecânica não lhe é satisfatória e Zuze considera a hipótese de uma máquina completamente eletrônica, embora a guerra não lhe permita obter os componentes necessários, e em 1941 termina um computador eletromecânico: o Z-2. O governo alemão, engajado no esforço de guerra, não demonstra interesse inicial pelo invento, mas posteriormente fornece recursos para desenvolver o Z-3, um computador elétrico, com relés em lugar das juntas mecânicas utilizadas nos modelos anteriores, com um desenho mais compacto e elegante. Apesar dos bombardeios aliados, que o obrigam a mudar o local da oficina diversas vezes, e do exército alemão que o convoca para o front por dois períodos, o protótipo do Z-3 é concluído. O racionamento de materiais durante a guerra impõe a improvisação de componentes a partir de peças usadas de telefones, e as instruções são alimentadas por velhas películas cinematográficas de 35mm, perfuradas com um código de oito furos por quadro. O Z-3 armazena 64 palavras de 22 bits cada. A informação é introduzida por um teclado, e os resultados exibidos num painel de lâmpadas. Todos os protótipos deZuze são destruídos quando do bombardeio de Berlim na ofensiva final aliada em 1945, mas sabe-se que um dos seus modelos, adaptado, auxiliou os cálculos do projeto da bomba voadora alemã HS-293. O Z- 4, último computador de Zuze no período de guerra, aumenta o tamanho das palavras para 32 bits. Levada para Göttingen quando os aliados marcham sobre Berlim, a máquina acaba em Basiléia, na Suíça, onde opera até 1954. Sem conseguir fabricar computadores na Alemanha ocupada, Zuze concentra-se na teoria, desenvolvendo a linguagem “Plankalkul”. Ao conseguir novamente fabricá- los, monta a Zuze Company, a maior fabricante de computadores alemã até 1969, quando é então incorporada pela Siemens. COMPUTAÇÃO ELETRÔNICA (SÉCULO XX) A partir da II Guerra Mundial o desenvolvimento dos computadores eletrônicos ganhou mais força, quando os governos perceberam o potencial 24 estratégico que estas máquinas ofereciam. Assim, os alemães desenvolveram o Z- 3, computador capaz de projetar aviões e mísseis. Pelo lado britânico, foi desenvolvido o Colossus, utilizado para a decodificação das mensagens alemães criptografadas pela Enigma. A partir do momento que surgiram os primeiros computadores na acepção popular da palavra, divide-se a história dos computadores em cinco gerações distintas. Embora existam diferenças e discordâncias quanto às datas das gerações de computadores, será usada aqui aquela mais amplamente aceita. A disputa pelo título de primeiro computador do mundo é acirrada. Isto porque devemos levar em consideração que os precursores dos primeiros computadores eram máquinas mecânicas. Aos poucos, com a utilização de eletricidade com chaves mecânicas e eletromagnéticas, chegou-se à utilização de computadores eletromecânicos. E surge a questão: as máquinas puramente mecânicas são ou não são computadores? E as eletro-mecânicas, podemos considerá-las computadores? O que podemos considerar como primeiro computador do mundo foi desenvolvido no MIT (Massachussetts Institute of Tecnology) em 1931 por Vannevar Bush. Era analógico e possuía parte mecânicas, tendo sido construído para resolver equações diferenciais simples. Na verdade era mais uma calculadora do que qualquer outra coisa. Porém, a utilização de elementos analógicos era problemática, pois uma variável pode assumir qualquer valor de -¥ a +¥ - como ocorre realmente na natureza. Isto significa que qualquer tipo de ruído, seja qual for a origem, irá inevitavelmente alterar as variáveis e interferir nos dados apresentados. Para que isto fosse contornado, precisava-se diminuir o número de valores que cada variável poderia assumir. Só que, para isto, toda base que estava sendo utilizada teria que ser totalmente descartada! E foi exatamente o que aconteceu. Assim, uma outra base numérica passou a ser utilizada - a binária. Nesta base só existem dois algarismos, "0" ou "1", ao contrário do sistema decimal, no qual temos dez algarismos, de "0" a "9". Esta nova base numérica já era conhecida e já possuía sistemas de subtração, adição, multiplicação e divisão, após pesquisa de Francis Bacon por volta de 1623 e posteriormente Gottfried Wilhelm Leibniz a partir de 1679. Quando criada, tal base numérica não despertou tanto interesse. Porém, todo este sistema numérico serviria como uma luva para o desenvolvimento de computadores, agora não mais analógicos, mas sim digitais. Mas, no caso, cada variável poderia assumir somente dois valores: "0" e "1" o que resulta no sistema binário, portanto, digital binário. Qualquer valor diferente destes seria completamente descartado, eliminando-se o problema do ruído. Fora isto, a lógica digital binária é muito mais simples, já que se baseia em variáveis que assumem 25 dois valores, ao invés de infinitos. A base binária em si não serviria de muita coisa se o matemático inglês George Boole não tivesse criado em 1854 toda uma linha de raciocínio, que complementaria a base binária. Com esta lógica foi possível a criação de portas lógicas, o elemento básico para a criação de computadores. Complementando o simples "sim" e "não", "ligado" e "desligado", etc., que os números "1" e "0" poderiam representar, Boole criou condições especiais, a partir de "verdadeiro" e "falso" que tais números também poderiam representar, juntando a base binária à tradicional teoria dos conjuntos - como a condição "" para a interseção de dois conjuntos e "" para a união de dois conjuntos. Com isto teremos condições suficientes para criar um circuito lógico, um circuito capaz de reagir de acordo com dados entrados, ou seja, dar uma resposta de acordo com a entrada, de uma maneira pré-definida. Como exemplo banal de um circuito lógico poderíamos citar uma calculadora, que é capaz de dar a resposta de uma conta após termos entrado os valores. Desta maneira, a matemática utilizada em circuitos lógicos digitais é chamada de álgebra booleana. Já em 1937, Howard Aiken desenvolveu o que veio a ser o primeiro computador eletromecânico do mundo: o MARK I, apoiado pela IBM (International Business Machines) e pela marinha americana, que o custearam. O tamanho, o MARK I media dezoito metros de comprimento, por dois metros e meio de altura. O projeto do primeiro computador eletrônico do mundo foi o ABC (Atanasoff Berry Computer). Iniciado em 1937, seu criador não conseguiu concluí-lo, tendo abandonado completamente o projeto no ano de 1942. Foi o primeiro computador a utilizar válvulas termo iônicas. Com a chegada da II Guerra Mundial e consequente avanço da eletroeletrônica, os Serviços Secretos de diversos países queriam construir seus computadores, principalmente para serem utilizados na codificação de mensagens. De um lado, a Alemanha de Hitler construiu em 1941 o Z-3. Do lado dos Aliados, a Inglaterra construiu um computador capaz de decifrar as mensagens utilizadas pelos países do eixo, codificadas pelo próprio Z3. Em 1943 foram produzidos dez Colossus, o nome que este computador recebeu. Como o próprio nome sugere, possuía dimensões colossais, gigantescas, com cerca de 1.500 válvulas e era capaz de processar cerca de 5.000 caracteres por segundo. A válvula é um componente que trabalha com tensões elétricas relativamente altas e é basicamente térmica. Portanto, muito comum era alguma válvula se queimar dentro de pouco minutos, fora o super aquecimento que as instalações do computador sofriam. A Guerra fez com que todos percebessem que a hora da criação de tais máquinas tinha chegado. No mesmo ano da criação do Colossus foi iniciado o projeto do ENIAC (Electronic Numeric Integrator And Calculator), o primeiro 26 computador à válvulas dos Estados Unidos, terminado somente após a guerra (1946), também para uso basicamente militar - como cálculo de trajetória de mísseis. Alan Turing, o mesmo criador do Colossus, ajudou neste projeto. O ENIAC tinha cerca de 18.000 válvulas, sendo que de dois em dois minutos uma válvula se queimava! O ENIAC era tão colossal quanto qualquer outro computador desta época. Ocupava uma área de 170 metros quadrados e pesava 30 toneladas. Claro que sua (então) "incrível" performance foi há muito superada por qualquer calculadora de bolso! A partir de 1945, um novo marco foi colocado na história dos computadores com John von Neumann, Arthur Burks e Herman Goldstine. Para se ter uma ideia, a programação do ENIAC era toda feita através de ligação de cabos em conectores, o que demorava literalmente semanas. As ideias de von Neumann - que são utilizadas até hoje - fizeram com que os computadores pudessem ser programados, isto é, funcionavam mediante uso de programas, rotinas demanipulação de dados que se utilizam de instruções próprias do computador. A partir das ideias de von Neumann e sua equipe, os primeiros computadores a utilizarem conceito de programas foram criados: o EDSAC (Electronic Delay Storage Automatic Computer) e o EDVAC (Electronic Discrete Variable Automatic Computer), em 1949. Os computadores passaram a diminuir bastante de tamanho. Mas, além do tamanho gigantesco, essas colossais máquinas eram todas fruto das mais diversas pesquisas de um mercado promissor. E quem operava tais máquinas eram os próprios criadores para um público ainda muito restrito. O primeiro computador a ser produzido em escala comercial foi o UNIVAC (Universal Automated Computer), pelos mesmos criadores do ENIAC. Mas, o primeiro UNIVAC só ficou pronto em 1951. A IBM, por sua vez, passa a dominar o mercado ao construir seus computadores em escala comercial, com o lançamento do IBM 701 em 1953 e, principalmente, do IBM 650 em 1954. Este último vendeu mais de mil unidades, um sucesso absoluto de vendas, e que veio refletir a real necessidade que o mundo teria no uso de computadores. A partir da criação da técnica de circuito impresso, em 1957, os computadores puderam diminuir um pouco mais de tamanho. As placas de circuito impresso são utilizadas na ligação elétrica entre os diversos componentes existentes em um circuito eletrônico. Antes, todas estas ligações eram feitas através de suportes e fios, o que acarretava mal contato e instabilidade. Com o circuito impresso estas ligações são feitas em uma placa rígida, bastante estável e apresentando muito menos problemas de contato, sem contar que os componentes ficam mais bem fixados. Nesse mesmo ano é desenvolvida a linguagem FORTRAN (Formula Translator), a primeira linguagem de alto nível para computadores. 27 O primeiro transistor foi criado em 1947, mas seu uso comercial só ocorreu a partir do final da década de 50. Os transistores vieram a substituir as válvulas. Por ser um componente baseado na tecnologia dos semicondutores - elementos com propriedades físicas especiais, tal como o germânio e o silício - o transistor é um componente em estado sólido e possui a grande vantagem de não se aquecer como as válvulas nem muito menos quebrar por choque físico, além de ter dimensão muito menor. Gradativamente as válvulas passaram a ser substituídas por transistores, fazendo com que a maioria dos equipamentos eletrônicos - e leia- se aí os computadores - passasse a ocupar um menor espaço físico, liberando menos calor e consumindo menos corrente elétrica. Dentre os primeiros computadores totalmente transistorizados destacaram-se o IBM 1401 e o IBM 7094 que juntos, venderam mais de 10.000 unidades, reafirmando mais uma vez a demanda por uma indústria mundial de computadores. Outros computadores como os da DEC (Digital Equipment Corporation) também tiveram grande importância. A série de computadores da DEC recebiam o nome PDP, sendo o PDP-1 lançado em 1959. E em 1963 a DEC criou o primeiro minicomputador, o PDP-5. Em 1962 foram usados, pela primeira vez, discos magnéticos para o armazenamento de dados no computador Atlas. Na época, além de serem gigantescos, os computadores usavam imensas unidades de fita magnética para o armazenamento de informações e uso posterior, além de sistemas de cartões perfurados, onde as informações que se queria passar para o computador eram marcadas através de perfurações feitas nestes para a posterior leitura pelos computadores - processo este extremamente demorado. Obviamente tais discos magnéticos ainda estavam longe de serem parecidos com os novos discos rígidos, os HDs, como conhecemos hoje em dia. Um fato importantíssimo favoreceu a criação dos circuitos integrados e o desenvolvimento da computação em geral na década de 60: a corrida espacial. O governo Americano investiu bilhões de dólares em pesquisas, para que os americanos fossem os primeiros a conquistarem o espaço sideral. A criação de um polo de pesquisas avançadas - a ARPA (Advanced Research Projects Agency) - fez com que surgissem vários conceitos que foram empregados e que refletem direta e indiretamente tudo o que há no mundo da informática hoje. Entre eles podemos destacar a interação homem-máquina, tendo consequências como a criação dos videogames e redes descentralizadas de computadores, possibilitando a criação de redes globais de computadores como a Internet, que hoje conhecemos tão bem. Neste ponto havia a necessidade de serem criados instrumentos confiáveis e, principalmente, que ocupassem pouco espaço físico. Deste modo, em 1963 começou a produção dos primeiros circuitos integrados, com a junção de vários transistores em um só componente, colocando um circuito relativamente grande dentro de uma só pastilha de silício. Um dos primeiros computadores a utilizar circuitos integrados foi o IBM/360, 28 lançado em 1964. Avançadíssimo para a época, fez com que todos os outros computadores fossem considerados totalmente obsoletos, fazendo com que a IBM vendesse mais de 30.000 unidades rapidamente. Mas não só a ARPA era um grande centro de pesquisas na década de sessenta. Outros centros, como o MIT (Massachusetts Institute of Technology) e o SRI (Standford Research Institute) trabalhavam em pesquisas de interação homem-máquina e foram de grandíssima importância para a base do que hoje é a microinformática tal qual a conhecemos, por apresentarem propostas como dispositivos indicadores (o que hoje conhecemos por mouse) e interligação de computadores entre si para a troca de informações: a rede Ethernet tal qual conhecemos hoje. Mais importante ainda foi o PARC (Palo Alto Research Center), criado pela Xerox em 1970. Neste centro foi desenvolvida toda a base da comunicação visual que seria utilizada por computadores dali por diante, através de uma interface gráfica, usando componentes em forma de ícones, janelas e a estrutura WYSIWYG - What You See Is What You Get27, que mostra na tela seu trabalho exatamente da maneira como sairá impresso. A Xerox, apesar de possuir toda essa tecnologia já na década de setenta, não estava interessada na utilização da mesma em computadores pessoais, os PCs. Todas as grandes empresas estavam interessadas somente no mercado dos computadores de grande porte, para serem implantados em empresas. Ainda não existia a visão de pessoas usando computadores em suas casas. Essa tecnologia foi empregada basicamente nos computadores Altos e, mais tarde, no Star, criados logicamente pela própria Xerox. Um passo maior ainda foi dado quando foi desenvolvida, em 1971, a tecnologia LSI (Large Scale Integration), que permitiu a junção de vários circuitos integrados em um só, dando origem aos microprocessadores. Os microprocessadores são circuitos integrados que permitem ser programados a fim de que executem uma determinada tarefa. A empresa americana Intel foi a responsável pela criação dos primeiros microprocessadores, o 4004, que manipulava palavras binárias de 4 bits28 e o 8008, no ano seguinte, que manipulava palavras binárias de 8 bits29. As revistas de eletrônica na época começaram a publicar projetos de circuitos para estes microprocessadores e, de um destes projetos, surgiu o primeiro microcomputador comercial, o Altair 8800, que era vendido sob a forma de Kit. A Intel lança em seguida o primeiro microprocessador "de verdade", o 27 What You See Is What You Get = O que você vê é o que você obtém. 28 Cada algarismo binário - cada "0" e cada "1" presente em uma palavra binária - é chamado de bit - Binary Digit. Ao conjunto
Compartilhar