Buscar

unidade 01 - texto 2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 71 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 71 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 71 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Centro Universitário de João Pessoa - UNIPÊ 
Departamento de Ciências Jurídicas 
Coordenação do Curso de Direito 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Disciplina: DIREITO DA INFORMÁTICA 
Código: DJC216 
 
 
 
 
 
 
 
UNIDADE 01 
 
 
 
 
CONCEITOS BÁSICOS DE INFORMÁTICA 
EVOLUÇÃO TECNOLÓGICA E HISTÓRIA DOS 
COMPUTADORES 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Prof. Carlos Melo - UNIPÊ 
ccaabbddmm@@uuooll..ccoomm..bbrr 
 
 
 
 
 
 
 
 
 
João Pessoa-PB 
Fevereiro de 2013 
 
II 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
A pessoa que não lê, mal fala, mal ouve 
e mal vê. 
Malba Tahan 
 
III 
 
 
 
Sumário 
 
Introdução ................................................................................................................................................6 
PARTE I – CONCEITOS BÁSICOS ................................................................................................................6 
Informação ...........................................................................................................................................6 
Informação e Conhecimento ................................................................................................................7 
Informática – Origem do Termo ...........................................................................................................7 
Definição de Informática ......................................................................................................................7 
Funções da Informática ........................................................................................................................8 
Sociedade da Informação .........................................................................................................................9 
A natureza jurídica da expressão "sociedade da informação" ..............................................................9 
Revolução da Informação .................................................................................................................. 12 
Aspectos relevantes da revolução da informação ............................................................................. 12 
Tecnologia da Informação ..................................................................................................................... 12 
Dados ................................................................................................................................................. 13 
Informações ....................................................................................................................................... 13 
Conhecimento ................................................................................................................................... 13 
Processamento de dados ...................................................................................................................... 13 
PARTE II - BREVE HISTÓRIA DO COMPUTADOR ..................................................................................... 14 
A pré-história do computador ........................................................................................................... 14 
John Napier – 1614 ........................................................................................................................ 14 
A Máquina de Pascal ...................................................................................................................... 15 
A Máquina de Leibniz..................................................................................................................... 16 
O Tear Programável ....................................................................................................................... 17 
Teoria de Babbage ......................................................................................................................... 17 
A teoria de G. Boole ....................................................................................................................... 19 
Conjuntos de “informação” ....................................................................................................... 20 
A máquina de Hollerith .................................................................................................................. 21 
Válvulas eletrônicas ....................................................................................................................... 22 
As máquinas de Conrad Zuze ......................................................................................................... 23 
Computação Eletrônica (Século XX) ....................................................................................................... 23 
As Cinco Gerações ................................................................................................................................. 36 
IV 
 
 
Primeira Geração ............................................................................................................................... 37 
Mark I ............................................................................................................................................ 37 
Eniac .............................................................................................................................................. 38 
COLOSSOS X ENIGMA .................................................................................................................... 39 
Teoria da Informação .................................................................................................................... 41 
SEGUNDA GERAÇÃO .......................................................................................................................... 42 
TERCEIRA GERAÇÃO .......................................................................................................................... 43 
QUARTA GERAÇÃO ............................................................................................................................ 45 
A CAMINHO DO PC VERDE ............................................................................................................. 51 
O FUTURO - O COMPUTADOR QUÂNTICO (SEXTA GERAÇÃO?) ............................................................. 52 
COMPUTAÇÃO QUÂNTICA ................................................................................................................ 53 
Definição de COMPUTADOR ................................................................................................................. 54 
LIMITAÇÕES DOS COMPUTADORES .................................................................................................. 55 
PARTE III – COMPUTADORES ELETRÔNICOS MODERNOS...................................................................... 56 
CLASSIFICAÇÃO DOS COMPUTADORES ............................................................................................. 56 
1. QUANTO AO TIPO DE DADOS PROCESSADOS: ........................................................................... 56 
2. QUANTO À FINALIDADE DA UTILIZAÇÃO DOS COMPUTADORES: ............................................. 56 
3. QUANTO À POTÊNCIA E NÚMERO DE UTILIZADORES ............................................................... 56 
ELEMENTOS DO COMPUTADOR ........................................................................................................ 57 
OPERAÇÕES FUNDAMENTAIS ............................................................................................................ 57 
ARQUITETURA DO COMPUTADOR ....................................................................................................58 
DISPOSITIVOS DE SAÍDA .................................................................................................................... 58 
DISPOSITIVOS DE ARMAZENAMENTO ............................................................................................... 58 
DISCO RÍGIDO ................................................................................................................................ 59 
HARDWARE – ENTRADA .................................................................................................................... 59 
TECLADO ........................................................................................................................................ 59 
MOUSE .......................................................................................................................................... 60 
MODEM (MODULADOR/DEMODULADOR) ................................................................................... 60 
WEBCAM ....................................................................................................................................... 60 
HARDWARE – SAÍDA .......................................................................................................................... 60 
MONITOR ...................................................................................................................................... 60 
TIPOS DE MONITORES ................................................................................................................... 61 
IMPRESSORA ................................................................................................................................. 61 
V 
 
 
PROCESSADOR E MEMÓRIA .......................................................................................................... 62 
PROCESSADOR ............................................................................................................................... 62 
MEMÓRIA ...................................................................................................................................... 62 
MEMÓRIA ROM ............................................................................................................................. 62 
MEMÓRIA RAM ............................................................................................................................. 63 
TECNOLOGIAS DE MEMÓRIAS ................................................................................................... 64 
TIPOS DE ENCAPSULAMENTO ................................................................................................... 66 
MÓDULOS DE MEMÓRIA ........................................................................................................... 67 
Definição de Sistema ............................................................................................................................. 68 
LINGUAGEM DOS PROCESSADORES ...................................................................................................... 69 
SOFTWARE ............................................................................................................................................ 69 
REDES .................................................................................................................................................... 70 
Referências Bibliográficas ..................................................................................................................... 71 
 
 
6 
 
 
 
INTRODUÇÃO 
 
O século XX apresentou um vertiginoso progresso na utilização das novas 
tecnologias da informação, seja através da massificação da Internet, do 
desenvolvimento da inteligência artificial, da tecnologia digital, como também na 
popularização dos computadores eletrônicos. 
É bem verdade que de tais tecnologias, a que tem provocado maiores 
consequências no plano econômico, cultural e político é a Internet, entendida como 
a rede mundial de computadores que possibilitou a comunicação global em tempo 
real a um custo operacional baixíssimo, levando a mudanças substantivas no modo 
de produção capitalista desde a década de 80. 
Em relação à Internet e seus impactos no campo jurídico trataremos do 
assunto em aula específica (terceiro ponto do nosso programa). Neste momento, 
trataremos do desenvolvimento tecnológico que levou a consolidação da Sociedade 
da Informação e a nova etapa dessa revolução: a Revolução Digital. 
Assim, na primeira parte destes apontamentos, partindo de alguns conceitos 
básicos iniciais, tentaremos situar o desenvolvimento das tecnologias que levaram 
ao aparecimento da Sociedade da Informação. Na segunda parte, abordaremos uma 
breve história dos computadores. Na terceira parte, concluiremos com a 
identificação do hardware e suas funções1. 
Com isso, pretendemos construir uma base histórica e técnica para os 
futuros assuntos que trataremos no decorrer da nossa disciplina. É importante 
entender a tecnologia informática para, em seguida, podermos tratar de Direito da 
Informática. 
 
PARTE I – CONCEITOS BÁSICOS 
 
INFORMAÇÃO 
 
Informação é aquilo que dá forma (in-forma) alterando o quadro das coisas 
conhecidas, incluindo o que ainda não o era. É a mensagem suscetível de ser tratada 
pelos meios informáticos; conteúdo dessa mensagem, produto do processamento de dados. 
Informação é o resultado do processamento, manipulação e organização de 
dados de tal forma que represente uma modificação (quantitativa ou qualitativa) no 
conhecimento do sistema que a recebe2. 
 
1
 Quanto a software, trataremos desse assunto na quarta unidade do nosso programa. 
2
 Informação enquanto conceito, carrega uma diversidade de significados, do uso cotidiano ao 
7 
 
 
A informação sempre surpreende de alguma forma e quanto mais 
inesperada, mais relevante, pois mais novidade ela carrega. 
 
INFORMAÇÃO E CONHECIMENTO 
 
Todos os indivíduos com responsabilidades e devidamente educados para 
viver em sociedade devem ter conhecimentos, ou pelo menos noções, em quatro 
áreas relacionadas com as tecnologias de informação: 
 
1. Desenvolvimentos do processamento de dados e informação; 
2. Conceitos básicos de hardware e software (material e lógica) e dos 
ambientes específicos que estes geram; 
3. Impacto social resultante do uso de computadores; 
4. Modos de utilização dos computadores em diferentes áreas do saber. 
 
INFORMÁTICA – ORIGEM DO TERMO 
 
Segundo o francês Philippe Dreyfus3: “Informação” + “automática”. 
Jean Yvon Birrien (em “História da Informática”4) assegura que vem do 
amálgama dos étimos “informação” + “eletrônica”. 
 
DEFINIÇÃO DE INFORMÁTICA 
 
Alexander Ivanovich Mikhailov (Império Russo, 6 de dezembro de 1905 - 
Moscou, 6 de fevereiro de 1988) foi um importante teórico ligado a Ciência da 
informação e principal pesquisador ligado a "vertente" Soviética dessa ciência. 
Formou-se em 1932 no instituto Mendeleyev em Moscou, seguindo por uma 
carreira bem sucedida na engenharia de aviões e caças soviéticos durante as 
décadas de 40 e 50. Por duas vezes vice diretor da Federação Internacional de 
 
técnico. Genericamente, o conceito de informação está intimamente ligado às noções de restrição, 
comunicação, controle, dados, forma, instrução, conhecimento, significado, estímulo, padrão, 
percepção e representação de conhecimento. É comum nos dias de hoje ouvir-se falar sobre a Era 
da Informação, o advento da “Erado Conhecimento” ou Sociedade do Conhecimento. Como a 
“Sociedade da Informação”, a tecnologia da informação, a ciência da informação e a ciência da 
computação em informática são assuntos e ciências recorrentes na atualidade, a palavra 
“informação” é frequentemente utilizada sem muita consideração pelos vários significados que 
adquiriu ao longo do tempo. 
3
 Philippe Dreyfus é um pioneiro da Informática na França. Depois de obter sua licenciatura em Física 
em 1950, tornou-se professor da Faculdade de Ciências da Computação na Universidade de Harvard 
onde teve a oportunidade de utilizar o Mark I, o primeiro computador eletro-mecânico, construído por 
Howard H. Aiken em 1944. É membro do conselho da ECSA – Associação Europeia de Serviços 
Informáticos. 
4
 BIRRIEN, Jean-Yvon. História da Informática, Porto : Editora Rés, 1993. 
8 
 
 
Documentação (FID) (1969-1976 e entre 1981-1988), foi o principal e mais 
influente teórico russo a tratar da questão da produção e gestão da informação, 
não só dentro da então URSS, mas de parte considerável do extinto bloco 
socialista. Em seus estudos e publicações, entre as décadas de 50 e 80, aprimorou 
e desenvolveu a Informatika, um conceito que se desenvolveu dentro do leste 
europeu no final dos anos 40. A partir desse conceito, o autor estudava as 
principais características e princípios da informação científica e questões ligadas a 
organização e manutenção desse tipo de informação. Mikhailov analisou também o 
caráter interdisciplinar da Informatika e o impacto das novas tecnologias no 
profissional ligado ao estudo e pesquisa da informação. Suas duas principais obras 
são Fundamentos da Informatika (Osvony Informatiki) publicado em 1968 e 
Comunicação Científica e Informatika (Nauchnye Kommunikacii i Informatika) 
publicado em 1976, ambas com a colaboração dos autores Arkadii Chernyi e 
Rudhzero Gilyarevskyi. 
É dele a seguinte definição: 
 
“É a disciplina científica que investiga a estrutura e as propriedades (mas 
não o conteúdo concreto) das informações científicas, bem como a 
regularidade da informação científica, sua teoria, história, metodologia e 
organização. Consiste em desenvolver métodos e meios ótimos de 
apresentação (registro), coleção, processamento analítico–sintético, 
armazenagem, recuperação e disseminação da informação científica”. 
(Mikhailov). 
 
Entendemos que Informática é o ramo do conhecimento dedicado ao 
tratamento da informação mediante o uso de computadores e demais dispositivos 
de processamento de dados5. 
Ciência que visa ao tratamento da informação através do uso de 
equipamentos e procedimentos da área de processamento de dados6. 
Portanto, trata-se de ciência e estudo dos métodos e modos de 
processamento e transmissão da informação. 
 
FUNÇÕES DA INFORMÁTICA 
 
As funções da informática ao lidar com a informação são: 
 
 PROCESSAR; 
 ARMAZENAR; 
 COMUNICAR. 
 
 
5
 Cfr. Dicionário Eletrônico da Língua Portuguesa – Antonio Houaiss. 
6
 Cfr. Dicionário Aurélio Eletrônico. 
9 
 
 
SOCIEDADE DA INFORMAÇÃO 
 
Sociedade da Informação, também chamada de Sociedade do 
Conhecimento, é um termo que surge no fim do Século XX, juntamente com o 
termo Globalização. 
 
A NATUREZA JURÍDICA DA EXPRESSÃO "SOCIEDADE DA INFORMAÇÃO" 
 
Nos últimos anos, o conceito de "Sociedade da Informação"7 adquiriu 
importância em escala mundial, fundamentado na crença de que sua consolidação 
favorece a integração global nos diferentes âmbitos em que se desenvolve a vida 
humana: na economia, no conhecimento, na cultura, no comportamento humano e 
nos valores. 
O termo "Sociedade da Informação" consolidou-se, em verdade, na Europa 
na Conferência Internacional celebrada em 1980, onde a comunidade econômica 
europeia reuniu estudiosos para analisarem o futuro de uma nova sociedade 
assim denominada por convenção, pelo interesse em regulamentação da liberdade 
de circulação de serviços e de medidas para a implementação de mecanismos de 
comunicação que permitiriam aos Estados membros da União Europeia estarem 
informados e terem acesso aos bens e serviços, sob a sigla TIC (Tecnologias de 
Informação e de Comunicação). 
A denominação "Sociedade da Informação" é, primordialmente, uma 
expressão sob o prisma da ciência do direito que traduz um novo conceito de 
proteção dos direitos humanos fundamentais, uma nova orientação internacional em 
busca do direito ao desenvolvimento através da interação da comunicação e da 
telemática, em uma nova era de informações em tempo real, com transmissão 
global e assimilação simultânea. 
Percebe-se que os interesses jurídicos e sociais são exatamente os 
mesmos, isto é, proteger os direitos do indivíduo e os direitos sociais para procurar 
uma convivência humana estável, em sistemas jurídicos e políticos democráticos em 
nome do direito ao desenvolvimento. 
 
7
 José de Oliveira Ascensão afirmou que a expressão „Sociedade da Informação‟ “não é um conceito 
técnico: é um slogan. Melhor se falaria até em sociedade da comunicação, uma vez que o que se 
pretende impulsionar é a comunicação, e só num sentido muito lato se pode qualificar toda a 
mensagem como informação" (Direito da internet e da Sociedade da Informação, Rio de Janeiro: 
Forense, 2002, p. 71). A expressão reapareceu com maior força nos início dos anos 80, no contexto 
do desenvolvimento da internet e das tecnologias da informação e comunicação, ganhando a 
roupagem atual abordada nesse nosso estudo no início da década de 90. Em 1995, foi incluída na 
agenda das reuniões do G7 (depois, G8 - onde se reúnem os chefes de Estado ou governos das 
nações). Foi admitida em fóruns da Comunidade Europeia e adotada também pelo governo dos 
Estados Unidos da América, bem como por várias agências das Nações Unidas e pelo Banco 
Mundial. 
10 
 
 
A Declaração sobre o Direito ao Desenvolvimento, de 19868, tem como 
ponto de partida o reconhecimento de que o desenvolvimento é um processo 
econômico, social, cultural e político abrangente que visa ao constante incremento 
do bem estar de toda a população com base em sua participação ativa, livre e 
significativa no desenvolvimento e na distribuição justa dos benefícios daí 
resultantes, reconhecendo, por fim, que o direito ao desenvolvimento é também um 
direito humano e inalienável, pois trata da igualdade de oportunidade, cuja 
prerrogativa é tanto das nações quanto dos indivíduos que as compõem, 
conforme estatui o seu art. 1º da Declaração sobre o Direito ao 
Desenvolvimento9: 
 
1. O direito ao desenvolvimento é um direito humano inalienável em virtude 
do qual toda pessoa humana e todos os povos estão habilitados a 
participar do desenvolvimento econômico, social, cultural e político, a ele 
contribuir e dele desfrutar, no qual todos os direitos humanos e 
liberdades fundamentais possam ser plenamente realizados. 
2. O direito humano ao desenvolvimento também implica a plena realização 
do direito dos povos de autodeterminação que inclui, sujeito às 
disposições relevantes de ambos os Pactos Internacionais sobre Direitos 
Humanos, o exercício de seu direito inalienável de soberania plena sobre 
todas as suas riquezas e recursos naturais. 
 
A natureza jurídica da expressão "Sociedade da Informação" é, nessa 
análise, um direito humano fundamental reconhecido pelas comunidades 
internacionais, isto é, o direito à interação e ao desenvolvimento humano seguro 
pela nova comunicação e telemática virtual, de troca de bens e serviços, pois a 
soberania plena sobre todas as riquezas e recursos naturais (comunicação e 
interação humana) é direito inalienável à luz doart. 1º, item 02 da Declaração sobre 
o Direito ao Desenvolvimento de 1986. 
Por essa razão, a Organização das Nações Unidas criou a agência da União 
Internacional das Telecomunicações (UIT) cuja intenção, inicialmente, não é o 
controle da Internet mundial, tampouco a retirada desse controle pela ICANN 
(Internet Corporation for Assigned Names and Numbers)10, mas tem como objetivo 
estabelecer um acordo internacional envolvendo empresas do setor para garantir 
a paz no ciberespaço, a segurança na rede, principalmente, pelo temor de sua 
utilização por grupos terroristas. 
 
8
 Adotada pela Resolução n. 41/128, da Assembleia Geral das Nações Unidas, de 04.12.1986, 
tratando-se de declaração de direitos humanos aprovada pelo Brasil. 
9
 Da mesma forma estabelece o art. 2º, inciso 3, prevendo que: "Os Estados têm o direito e o dever 
de formular políticas nacionais adequadas para o desenvolvimento, que visem ao constante 
aprimoramento do bem-estar de toda a população e de todos os indivíduos, com base em sua 
participação ativa, livre e significativa no desenvolvimento e na distribuição equitativa dos 
benefícios daí resultantes". 
10
 A ICANN é uma organização americana privada internacional, sem fins lucrativos, que administra 
o funcionamento da internet. 
11 
 
 
A igualdade de oportunidade para todos com acesso aos recursos básicos é 
dever do Estado11 que tem a responsabilização primária de criação das condições 
nacionais e internacionais favoráveis à realização do direito ao desenvolvimento (art. 
3º e 8º), tratando-se, em outras palavras, na questão da necessidade dos indivíduos 
terem o poder de auto-regulamentação e socialização virtual no novo contexto 
mundial em que vivenciamos: a internet e os sinais digitais similares. 
Apesar desses esforços realizados e do entusiasmo mundial, com 
sustentação nesses direitos humanos, não estão claras as implicações práticas e 
jurídicas que a "Sociedade da Informação" terá na vida das pessoas. O ritmo 
acelerado de desenvolvimento descentralizado virtual e as novas e prementes 
necessidades da vida moderna traduzem uma consequência natural da crise 
econômica mundial, refletindo também nas relações jurídicas privadas. 
No conceito de "Sociedade da Informação" existe uma ideia de globalidade, 
contudo, devemos estender esse conceito na seara jurídica sob o enfoque dos 
direitos humanos para o fim de adaptarmos o novo desenvolvimento social às 
particularidades de cada nação, conforme sua legislação interna. Trata-se de uma 
nova realidade e não uma continuação no mesmo nível, mas de uma questão 
permeando um novo início, isto é, da entrada em uma dimensão diferente do 
físico-aéreo para o digital eletrônico, numa nova perspectiva de direito humano 
social que é, conforme sustentamos, a "Sociedade da Informação". 
Se a "Sociedade da Informação" é vista como um princípio de natureza 
socioeconômico, devemos perceber também que se prestando como um elemento 
jurídico, dando origem a segmentos específicos do direito, com fundamento em 
pedra angular nos direitos humanos, é inevitável as consequências de suas 
implicações com outros institutos jurídicos. Deve haver um estudo lastreando-se nos 
reflexos desse posicionamento científico como poderá acontecer na análise da 
vontade nas relações contratuais ‘juscibernéticas’12. 
De fato, a geração, o processamento e a transmissão da informação através 
de contratos tornam-se as fontes fundamentais de produtividade e poder, o que 
significa então que, ao invés de uma "Sociedade da Informação", as estruturas de 
informação e comunicação geraram uma "sociedade informacional", em que a 
informação é o produto do processo produtivo. Daí porque na "Sociedade da 
 
11
 O primeiro passo do governo brasileiro é de criar condições para que haja confiança pública na 
"Sociedade da Informação", conf. Brasil. Ministério da Ciência e Tecnologia e Governo Federal. Livro 
verde da Sociedade da Informação no Brasil. Tadao Takahashi (Org.). Brasília, set. 2000, p. 13. O 
Governo Federal, através do Ministério da Ciência e Tecnologia criou o Programa para a 
"Sociedade da Informação", adotando diretrizes através da edição do referido Livro Verde da 
Sociedade da Informação no Brasil, desde 1997, objetivando estimular a evolução tecnológica de 
forma adequada à estruturação da realidade nacional. 
12
 O termo cibernética deve ser entendido como “ciência que tem por objeto o estudo comparativo dos 
sistemas e mecanismos de controle automático, regulação e comunicação nos seres vivos e nas 
máquinas”. 
12 
 
 
Informação" deve ser analisada a informação, em si, como objeto dos negócios 
jurídicos eletrônicos, ou seja, é objeto do processo produtivo informacional que 
permeia sob o enfoque da vontade nesses contratos. Trata-se de uma análise do 
substrato dos direitos humanos nas relações contratuais, em reconhecimento da 
autonomia da vontade e suas limitações como uma das facetas do princípio da 
dignidade humana aplicadas ao direito civil contratual na "infoera". Por outro lado, 
com o substrato nos direitos humanos, sua importância ganha relevância, pois, sem 
ferir a soberania nacional das normas internas já existentes, poderão incorporar em 
nosso ordenamento jurídico os futuros tratados internacionais, através do §3º do art. 
5º da Constituição Federal de 198813. 
 
REVOLUÇÃO DA INFORMAÇÃO 
 
Também chamada de Revolução Técnico-Científica-Informacional, que se 
caracteriza pela codificação, armazenamento e transmissão da informação. 
 
ASPECTOS RELEVANTES DA REVOLUÇÃO DA INFORMAÇÃO 
 
Destacam-se os seguintes dois novos e inéditos aspectos surgidos no 
século XX, fruto das novas Tecnologias da Informação e Comunicação – TICs: 
 
1) Interatividade generalizada; e 
2) Separação entre informação e seu substrato material. 
 
TECNOLOGIA DA INFORMAÇÃO 
 
Três elementos fundamentais devem ser destacados na Tecnologia da 
Informação. São eles: 
 Dados; 
 Informações; 
 Conhecimento. 
 
 
13
 “§3º Os tratados e convenções internacionais sobre direitos humanos que forem aprovados, em 
cada Casa do Congresso Nacional, em dois turnos, por três quintos dos votos dos respectivos 
membros, serão equivalentes às emendas constitucionais. (Incluído pela Emenda Constitucional nº 
45, de 2004) (Decreto Legislativo com força de Emenda Constitucional)” 
13 
 
 
DADOS 
 
São os elementos básicos da construção do saber, representados por 
números, palavras ou fatos. 
 
INFORMAÇÕES 
 
É o resultado de uma organização, transformação ou análise de dados, ou 
seja, o tratamento de um conjunto de dados, para obtenção de um significado 
específico. 
 
CONHECIMENTO 
 
Consiste na interpretação (com argumentos e explicações) de um conjunto 
de informações. Envolve hipóteses, teorias, modelos e leis. 
 
PROCESSAMENTO DE DADOS 
 
São às várias operações efetuadas com dados, rumo a produção de 
informações e conhecimentos e que pode assumir as mais diversas formas e 
manusear os mais diversos tipos de instrumentos ou ferramentas auxiliares. 
Estes instrumentos, criados pelo homem com a evolução histórica e 
tecnológica, são classificados em: 
 
 Manuais ou não mecânicos; 
 Mecânicos; e 
 Eletrônicos. 
 
 
14 
 
 
PARTE II - BREVE HISTÓRIA DO COMPUTADOR 
 
 
A PRÉ-HISTÓRIA DO COMPUTADOR 
 
 
Há quem goste de remontar a história dos computadores e do 
processamento de dados à pré-história, ligando-a a marcas em ossos ou pedras. Há 
quem o faça à Antiguidade, com os ábacossumérios, chineses ou romanos. É fato 
que aprendemos a contar nos dedos, e que os primeiros ábacos têm cerca de 5.000 
anos. Os ábacos mais primitivos constituíam-se de simples placas de argila, 
madeira ou pedra, com sulcos onde pequenos seixos são deslizados, e os mais 
conhecidos, os de contas em armações de varetas. 
O termo vem do grego "ábakos", com o significado de tábua, prancha. As 
demais expressões vêm do latim: dígito de "digitus" (dedo), cálculo de "calculus" 
(pedrinha, seixo), de onde por sua vez derivam calcular e calculadora; computar, de 
"computare", justaposição de "cum" (com) e "putare" (contar); contar, por fim, é a 
ação de utilizar "contas". 
Essa pequena incursão à origem das nossas atuais palavras, demonstra 
cabalmente serem esses os instrumentos mais antigos que a nossa cultura 
conheceu para essa função. O importante é fixar que, desde os primórdios da 
civilização, a história do processamento de dados, e a do próprio cálculo, liga-se 
cada vez mais intimamente à evolução da vida econômica e do pensamento lógico 
do Homem. 
A complexidade da civilização agrícola e urbana exigiu o aperfeiçoamento 
do cálculo em geral, e cada cultura encontrou soluções próprias: os orientais até 
hoje ainda recorrem ao ábaco, que permite operações velozes e confiáveis; os 
sumérios e egípcios, desenvolveram sistemas de contagem, calendários, e os 
rudimentos da geometria (além da escrita para registrá-los); os gregos, afamaram-se 
na geometria; os romanos na engenharia; os hindus inventaram o zero trazido por 
árabes para o ocidente cristão medieval. Na América pré-colombiana foram 
desenvolvidas matemáticas complexas ligadas às observações celestiais das quais, 
mesmo hoje, pouco conhecemos. 
 
John Napier – 1614 
 
Na Europa pré-renascentista, as necessidades da burguesia e do 
capitalismo mercantil desenvolveram uma economia monetária e os rudimentos da 
Contabilidade. O aumento das receitas (e das despesas) exigiu novos e 
aperfeiçoados meios de cálculo e de controle, multiplicando as Universidades, 
15 
 
 
impulsionando a pesquisa e a ciência. O sucesso dessa fórmula é atestado pela 
passagem do capitalismo mercantil para o pré-industrial que redobra as 
exigências do cálculo, e prepara a fundamentação teórica que leva às máquinas de 
calcular. Aqui começam normalmente as cronologias dos autores. 
John Napier14 (1550-1617), matemático escocês, inventa os Logaritmos 
(1614), recurso lógico que reduz a divisão à subtração e a multiplicação à adição, e 
os chamados "Ossos de Napier" - tabelas de multiplicação gravadas em cilindros 
rotativos de madeira. Devido à complexidade de cálculo dos logaritmos, o seu 
colega inglês William Oughtred (1574-1660) representa-os, para esse fim, em uma 
escala de madeira: a primeira régua de cálculo de que se tem notícia, e que alguns 
consideram como o primeiro computador analógico da História. 
A primeira máquina de calcular de que se tem notícia foi a do astrônomo 
alemão Wilhelm Schickard (1592-1635). Pouco se sabe desse aparelho, além de 
que fazia as quatro operações, e se perdeu durante a Guerra dos Trinta Anos 
(1618-1648). O próprio inventor, morto de peste, não pode defender a sua primazia 
pelo invento15. 
 
A Máquina de Pascal 
 
O filósofo, físico e matemático francês Blaise Pascal (1623-1662), que 
trabalhava com seu pai em um escritório de coleta de impostos, na cidade de Rouen 
(França), em 1642, aos 19 anos, desenvolveu uma máquina de calcular, para 
auxiliar o seu trabalho de contabilidade, baseada em 2 conjuntos de discos: um 
para a introdução dos dados e outro que armazenava os resultados, interligados por 
 
14
 A obra de John Napier significou um enorme avanço para a matemática e a astronomia pela 
formulação do conceito de logaritmo como um artifício capaz de facilitar os cálculos. John Napier, 
também dito Neper, nasceu no castelo de Merchiston, perto de Edinburgo, Escócia, em 1550. 
Ingressou aos 13 anos na Universidade de Saint Andrews e interessou-se por teologia e aritmética. 
Viajou para o continente, mas logo voltou para a terra natal, de onde não mais saiu. Sua única obra 
de teologia, escrita em 1594, ocupa lugar de destaque na história eclesiástica escocesa. Napier 
também se dedicou à invenção de artefatos secretos de guerra, inclusive uma peça de artilharia 
de longo alcance, que ficaram apenas no papel. Foi como matemático, porém, que Napier mais se 
destacou. Inventou vários artifícios para o ensino da aritmética, estudou a história da notação 
arábica e manifestou grande interesse pelos princípios que fundamentam a notação dos números. 
Deve-se a ele uma das primeiras tentativas de desenvolvimento da base dois para a contagem. 
Destacou-se ainda na geometria, ao criar novos métodos para a trigonometria esférica. Sua mais 
notável realização foi a descoberta dos logaritmos, artifício que simplificou os cálculos aritméticos e 
assentou as bases para a formulação de princípios fundamentais da análise. Publicou, em 1614, 
Mirifici logarithmorum canonis descriptio (Descrição das normas dos logaritmos maravilhosos). De 
publicação póstuma (1619) foi Mirifici logarithmorum canonis constructio (Cálculo das normas dos 
logaritmos maravilhosos). Napier morreu no castelo de Merchiston, em 4 de abril de 1617. Os 
logaritmos neperianos são assim chamados em sua homenagem. 
15
 Por isso, atribui-se ao matemático e filósofo francês Blaise Pascal (1623-1662) a invenção da 
primeira máquina – calculadora mecânica que se chamou "Pascaline" (1642), um mecanismo com 
capacidade para oito dígitos, efetuando apenas a adição e a subtração, construída para auxiliar o 
seu pai, um coletor de impostos. 
16 
 
 
meios de engrenagens. 
A máquina utilizava o sistema decimal para os seus cálculos, de maneira 
que quando um disco ultrapassava o valor 9, retornava ao 0 e aumentava uma 
unidade no disco imediatamente superior. Assim, Blaise Pascal cria uma máquina de 
somar de engrenagens que chamou de "Pascaline". A Pascalina, como ficou 
conhecida, foi a primeira calculadora mecânica do mundo, também considerado o 
primeiro computador criado pelo homem16. Pascal recebeu uma patente do rei da 
França para que lançasse sua máquina no comércio. Mas, a comercialização de 
suas calculadoras foi um completo fracasso devido a seu funcionamento pouco 
confiável, apesar de Pascal ter construído cerca de 50 versões. Funcionava com 
agulhas que moviam rodas que alteravam dígitos. 
 
A Máquina de Leibniz 
 
Gottfried Wilhelm Leibniz17 (1646-1716), alemão, trata de aperfeiçoar a 
Pascalina, introduzindo o chamado "Cilindro de Leibniz". Projeta ainda (1671), uma 
máquina que efetua as quatro operações, e que, segundo alguns teria sido 
apresentada à Royal Society inglesa (1673), segundo outros, teria sido concluída 
(1694), mas apresentando problemas técnicos. Todas estas máquinas operavam em 
bases decimais. Calculadoras mecânicas surgem posteriormente, embora aparelhos 
práticos e confiáveis só estejam disponíveis na segunda metade do século XIX: 
William S. Burroughs inicia a produção de máquinas de somar (1866), fundando a 
companhia com o seu nome. Comuns no início do século XX, essas máquinas 
permaneceram difundidas até serem suplantadas pelas calculadoras eletrônicas no 
 
16
 Mas, há quem considere o ábaco um computador. Na verdade era uma calculadora... portanto, um 
computador manual (não mecânico), enquanto a de Pascal era mecânico... 
17
 Gottfried Wilhelm Leibniz foi uma das luzes científicas de sua época - o período conhecido como 
a Idade da Razão. Nasceu na cidade de Leipzig em 1646 a morreu em Hanover em 1716. 
Durante seussetenta anos de vida descobriu princípios de cálculos, estudou a dinâmica dos corpos 
e fez contribuições para a geologia, a teologia, a história, a linguística e a filosofia. Além do mais, 
desenvolveu ideias que viriam a ser fundamentais para a criação do computador. Iniciou suas 
viagens, aos 20 anos, depois de a Universidade de Leipzig ter-lhe recusado o doutorado em 
direito, por causa de sua pouca idade. Como matemático, lançou-se ao trabalho de aperfeiçoamento 
da máquina inventada por Blaise Pascal, em 1642, a pascalina. Leibniz procurou torná-la também 
capaz de multiplicar a dividir. Para isso, projetou um dispositivo mecânico chamado cilindro de 
Leibniz. O aparelho foi uma grande novidade para a época. Anteriormente, pela complexidade de 
operação dos numerais romanos, a multiplicação só era ensinada nas escolas especializadas. Uma 
máquina que podia multiplicar mecanicamente tornava a aritmética mais acessível. Uma vez 
aperfeiçoado esse aparelho, Leibniz passou da base aritmética 10 para o exame formal da 
matemática binária. A maior ambição de Leibniz era idealizar uma linguagem universal que utilizasse 
a clareza e a precisão da matemática para solucionar os problemas enfrentados pela humanidade. 
Essa linguagem caracterizava-se pelo uso de símbolos abstratos para representar os "átomos" 
fundamentais da compreensão, incluindo também um conjunto de normas para o emprego desses 
símbolos. Sua tentativa não obteve resultado satisfatório, mas suas ideias foram retomadas de 
maneira mais modesta, no início do século XX, por Bertrand Russell, que procurou explicar a 
matemática em termos de uma "linguagem" de lógica formal. 
17 
 
 
começo dos anos 70. 
 
 
 
O Tear Programável 
 
A Revolução Industrial traz as bases da economia de escala, e o séc. XVIII 
convive com vários dispositivos e máquinas para calcular, analógicos para 
grandezas (réguas de cálculo, relógios, contadores e medidores em geral), e digitais 
para valores, representados por algarismos, letras ou qualquer outro símbolo 
(ábacos, calculadoras, etc.)18. O princípio dos maquinismos é idêntico: o usuário 
alimenta os números girando uma série de botões ou rodas tipo engrenagens, 
acionando manualmente uma alavanca ou outra roda para efetuar a operação 
desejada. Esses aparelhos constituíam-se em curiosidades mecânicas, sem 
aplicação prática, pois o recurso a um calculista hábil era sempre mais prático e 
veloz. 
Entretanto mesmo o operador mais hábil e destro comete erros no 
processamento de operações longas e/ou repetitivas e monótonas. E isso se 
aplicava aos operários nas linhas de produção das maiores fábricas da época: a 
indústria de tecidos. 
Em 1799, numa França que sob Napoleão pretende suplantar o poderio da 
indústria inglesa, o inventor Joseph-Marie Jacquard (1752-1834) constrói um tear 
mecânico que reproduz infinitamente padrões coloridos nos tecidos, segundo 
instruções fornecidas por fileiras de cartões perfurados "lidos" por um sistema de 
pinos. 
Os cartões de Jacquard são o exemplo clássico de um algoritmo19 - 
especificação da sequência ordenada de passos, que deve ser seguida para a 
realização de uma tarefa, garantindo a sua repetitividade. O sistema é tão prático e 
perfeito que milhares de tecelões desempregados se revoltam, sabotam as 
máquinas (do francês "sabot" – tamanco - calçado de madeira utilizado pelos 
operários para paralisar as engrenagens), e alguns chegam mesmo a tentar matar 
Jacquard, pioneiro involuntário do desemprego industrial em massa... 
 
Teoria de Babbage 
 
Napoleão é derrotado em 1815, mas a ideia de Jacquard não, e será 
 
18
 Digital - relativo a dedos ou que tem analogia com eles, assume unicamente valores inteiros (diz-se 
de grandeza). Analógico - forma de medida ou representação de grandezas na qual um sensor ou 
indicador acompanha de forma contínua, sem hiatos nem lacunas, a variação da grandeza que está 
sendo medida ou representada. 
19
 Algoritmo - conjunto das regras e procedimentos lógicos perfeitamente definidos que levam à 
solução de um problema em um número finito de etapas. 
18 
 
 
aproveitada justamente por um inglês - Charles Babbage20 (1792-1871), membro da 
Royal Society, professor de matemática em Cambridge, onde ocupa a mesma 
cadeira que pertencera a Isaac Newton. 
As tabelas numéricas do Séc. XIX estão cheias de erros, e mesmo que 
houvessem sido calculadas corretamente, as sucessivas reimpressões perpetuariam 
nos erros e acrescentariam outros novos. 
Inventor prolífico, de personalidade ao mesmo tempo excêntrica e genial, 
Babbage tem a ideia (1811) de construir uma máquina que não apenas calcule, 
mas também automaticamente imprima as entradas desse tipo de tabelas. 
Chamando-a de "Difference Engine" por calcular o que em matemática são 
chamadas Equações Diferenciais, apresenta em 1822 à Royal Society um protótipo 
que usa 8 posições decimais, e obtém um crédito do governo inglês (1823) para 
construí-la. Dificuldades levam-no a abandoná-la, entre outros motivos, porque os 
cartões perfurados de Jacquard sugerem a Babbage uma ideia muito melhor: um 
 
20
 "Quisera Deus esses cálculos fossem feitos por uma máquina a vapor!", exclamava Charles 
Babbage enquanto trabalhava nas tabelas do Almanaque náutico. O século XIX desenvolvera a 
propulsão a vapor, mas a navegação marítima ainda representava um problema. A posição de um 
navio era determinada pela observação da Lua e pelo uso de tabelas matemáticas, quase sempre 
imprecisas. Em 1812, Babbage teve a primeira ideia de construir uma máquina, à qual chamou de 
“Máquina Diferencial”. Ela seria capaz de realizar os trabalhosos cálculos necessários à confecção 
das tabelas náuticas. Por volta de 1823, ele já havia concluído um pequeno modelo a recorreu ao 
governo, a fim de conseguir verbas para construir a máquina em tamanho funcional. O ministro 
da Fazenda da Grã-Bretanha concedeu-lhe 1.500 libras esterlinas, e ele empenhou-se na 
construção de um aparelho que eliminaria os erros mediante a impressão automática dos 
resultados de seus próprios cálculos. A linha de trabalho de toda a vida de Babbage estava, a 
partir de então, determinada. O projeto consumiu altas somas em dinheiro, pois ele estava 
trabalhando com o que havia de mais avançado na engenharia da época. Para obter o dinheiro, 
ele contou com a ajuda do primeiro-ministro, seu amigo, o duque de Wellington. Apesar da 
segurança de Babbage ("O que quer que a máquina faça, estará correto", dizia ele), o governo 
acabou desistindo da ideia, depois de ter investido 17.000 libras no empreendimento. O engenheiro 
contratado por Babbage, Joseph Clement, demitiu-se algum tempo depois, e levou consigo todos 
os instrumentos especialmente elaborados para a construção da máquina. Babbage partiu em 
seguida para um projeto mais ambicioso, a “Máquina Analítica”. Esse novo engenho teria todas 
as funções previstas para a máquina diferencial - e muitas outras. Seu projeto, em vários aspectos, 
lembra os computadores atuais. Era composto por um armazenamento de memória, um 
"manipulador" aritmético (equivalente à CPU), e podia fornecer saídas impressas. A máquina podia 
até ser programada, usando ramificações condicionais. A princípio, as instruções eram controladas 
por cravos, como os de um realejo; mais tarde, foi adotado o sistema de cartões perfurados que 
Joseph Jacquard havia introduzido na indústria de tecelagem. Babbage também fez experiências 
com diversas bases numéricas, mas, como todas as suas máquinas utilizavam procedimentos 
mecânicos, não havia vantagem no uso do sistema binário. Sua amiga, a condessa Ada Lovelace, 
matemática talentosa, participou da elaboração desse projeto. Mas elesenfrentaram muitos 
problemas. Ela perdeu sua fortuna jogando num “infalível” sistema de apostas em corridas de 
cavalo. Depois de sua morte, aos 36 anos, Babbage prosseguiu sozinho. Homem de energia 
prodigiosa, ele também inventou o oftalmoscópio médico, coreografou um balé, criou um sistema 
de iluminação de palco e inventou uma técnica de sinalização marítima. Nos últimos anos de vida, 
ele tornou-se irritável ao extremo. Embora desejasse a nobreza, recusou o título de barão que lhe 
foi concedido em reconhecimento pelo seu trabalho. As experiências de Babbage anteciparam a 
estrutura do moderno computador eletrônico, mas ele não teve condições de desenvolver seus 
projetos inteiramente. A máquina analítica ficou para sempre inacabada, pois as limitações técnicas 
do século XIX impediram sua conclusão. 
19 
 
 
aparelho capaz de efetuar quaisquer cálculos de acordo com as instruções de 
cartões perfurados. A partir de 1834, passará as quatro últimas décadas de sua vida 
no projeto do que chama "Analytical Engine", composto de quatro partes ou 
módulos, interligadas: 
 
a) Computação: adição, subtração, multiplicação, divisão e uma operação 
decisória elementar; 
b) Memória: um banco de mil "registradores", cada um com capacidade 
para 50 dígitos; 
c) Alimentação: controle/entrada de dados/instruções por cartões 
perfurados; 
d) Saída: relatório impresso automaticamente. 
 
Se essa máquina houvesse sido completada, o Séc. XIX teria conhecido o 
primeiro computador moderno: um dispositivo com memória, controlado por um 
programa, utilizado para processar dados. É o programa, conjunto ordenado de 
instruções que determina ao dispositivo o que, como, onde e quando fazer, que o 
torna diferente de uma calculadora. O governo inglês, sem retorno prático na 
primeira máquina de Babbage, não se dispôs a repetir o erro com a segunda, que 
jamais teve um protótipo, haja vista não haver no mercado, naquela época, peças 
para viabilizar tal invento. Apesar disso, um programa de demonstração foi escrito 
para sua operação, em 1835, por Lady Ada Lovelace21. Ada, que além da educação 
formal em idiomas e música, era excelente matemática, com este programa 
calcularia séries matemáticas de números22. 
 
A teoria de G. Boole 
 
Em 1815, ano da derrota de Napoleão na batalha de Waterloo, outro 
acontecimento importante teve lugar na História da humanidade. Nesse ano nasceu 
George Boole23, em Lincoln, Inglaterra. Filho de um sapateiro, estava destinado a se 
 
21
 Ada Augusta Byron, Condessa de Lovelace, única filha legítima do poeta Lorde Byron. 
22
 É a ela - a primeira programadora - que devemos o estabelecimento de importantes funções em 
programação: 1) Sub-rotinas - sequências de instruções que podem ser utilizadas várias vezes em 
diversos contextos; 2) Loops - instruções que retomam a leitura/execução de uma instrução 
específica, de modo que ela possa ser repetida; e 3) Salto Condicional - instrução cuja satisfação 
de uma condição permite ou não o "salto" para outra instrução. 
23
 George Boole em 2 de Novembro de 1815. A sua formação base na escola primária da 
National Society foi muito rudimentar. Autodidata, fundou aos 20 anos de idade a sua própria 
escola e dedicou-se ao estudo da Matemática. Em 1840 publicou o seu primeiro trabalho original e 
em 1844 foi condecorado com a medalha de ouro da Royal Society pelo seu trabalho sobre cálculo 
de operadores. Em 1847 publica um volume sob o título The Mathematical Analysis of Logic em que 
introduz os conceitos de lógica simbólica demonstrando que a lógica podia ser representada por 
equações algébricas. Este trabalho é fundamental para a construção e programação dos 
20 
 
 
tornar um dos gênios que possibilitaram, mais tarde, a invenção do computador. 
Morreu em 1864, um século antes da revolução do microcomputador; entretanto, 
sem suas ideias o moderno computador não teria as características que tem hoje. 
Boole sabia que os nossos processos de raciocínio na vida cotidiana 
podem ser representados em termos de lógica formal, desenvolvida primeiramente 
pelos gregos. Ele acreditava que, a rigor, poderíamos mesmo chegar a exprimir o 
raciocínio humano em termos matemáticos. Boole dispôs-se a fazer exatamente 
isso: estudou matemática sozinho e iniciou sua pesquisa sobre a lógica dos 
processos de pensamento. 
George Boole, que viveu em uma época em que não era possível imaginar 
os computadores eletrônicos, mesmo assim, é ele um dos fundadores da lógica 
matemática usada nos computadores de hoje. Estava convicto de que os processos 
de pensamento de que nos valemos cotidianamente estão fundados na razão e 
que esta poderia ser depurada até alcançar a forma da lógica matemática. 
Publicou suas ideias em 1847 e tornou-se famoso da noite para o dia, sendo 
convidado para primeiro professor de matemática da nova Universidade de Cork, 
na Irlanda. 
 
Conjuntos de “informação” 
 
Suponha que uma determinada pessoa vai a uma festa. Ela quer dançar e, 
na sala de dança, procura um parceiro. 
Há pessoas ali que estão dançando ou não - porque não podem estar 
fazendo ambas as coisas ao mesmo tempo. O par procurado será uma mulher ou 
um homem. 
Boole examinou essas alternativas de outro modo. Para ele, o salão contém 
"conjuntos" de pessoas, o conjunto de homens e o conjunto de mulheres, que 
podem ser simbolizados por H e M. Boole também levou em conta o conjunto das 
pessoas que estão dançando (D) e o conjunto das que estão esperando (E) para 
dançar. 
O parceiro de dança (de um homem) teria de satisfazer duas condições: ser 
mulher e também estar esperando para dançar. Boole percebeu a importância do 
conectivo e ("and") que liga as duas condições e atribuiu-lhe um símbolo: a letra U 
invertida. Com isto, tornou-se possível simbolizar o conjunto de eventuais pares 
como sendo M ∩ E. Entretanto, se não quisesse dançar, mas apenas conversar 
com uma pessoa amiga, o homem poderia escolher uma pessoa dos conjuntos H ou 
M, porque estes dois incluem qualquer pessoa na sala. Aqui, novamente, Boole 
notou a importância do conectivo ou ("or") a atribuiu-lhe o símbolo U. Assim, em 
 
computadores eletrônicos, iniciada cerca de 100 anos mais tarde. 
21 
 
 
sua lógica algébrica, H U M inclui todos os homens e todas as mulheres presentes 
na sala. 
As portas lógicas encontradas no computador são representadas de acordo 
com símbolos criados por Boole, tais como AND e OR. 
 
A máquina de Hollerith 
 
O processamento de dados propriamente dito, inicia-se nos EUA em 
1886, quando o estatístico Hermann Hollerith24, (1860-1929) funcionário do 
National Census Office, observa que o processamento manual dos dados do censo 
de 1880, demora cerca de 7 anos e meio para ser concluído. Raciocinando que o 
censo seguinte, de 1890, não estaria totalmente apurado antes do ano de 1900 
devido ao aumento da população, dedica-se à construção de uma máquina para 
 
24
 Nascido nos Estados Unidos em 1860, Hollerith graduou-se na Universidade de Columbia, 
tornando-se depois assistente do National Census Office (NCO), onde ajudou a compilar as 
estatísticas demográficas de 1880. Nesse tempo, o trabalho era todo feito a mão, meticuloso e 
demorado - tão lento, de fato, que chegada a ocasião do novo recenseamento, dez anos depois, 
o departamento americano ainda tabulava os resultados anteriores. Hollerith estava consciente 
de suas aptidões, e, pretendendo desenvolver sua capacidadepara inovações, deixou o NCO a 
passou a trabalhar no Departamento de Patentes, em Washington. A primeira ideia de Hollerith foi 
codificar informação numa fita de papel, marcada a tinta a dividida em "campos". Cada campo 
representava grupos diferentes - por exemplo, masculino ou feminino, negro ou branco. Um furo 
no campo masculino/feminino representava indivíduo do sexo masculino, ao passo que a 
ausência de furo significava sexo feminino, a assim por diante. Esses furos seriam mais tarde 
“lidos” por uma máquina. Suas primeiras patentes foram obtidas em 1884, e durante os anos 
seguintes ele aperfeiçoou seu sistema. Começou processando dados estatísticos de saúde 
pública, trabalho resultante do rápido desenvolvimento das cidades americanas, a fez 
levantamentos para a administração do exército. Decorridos cinco anos, em 1889, ele aperfeiçoou 
a ideia da fita de papel perfurada, utilizando cartões para cada indivíduo. Os cartões tinham o 
tamanho da cédula de 1 dólar - em parte, segundo se diz, porque o único equipamento que 
poderia ser adaptado tinha sido criado para manejo de dinheiro. Os furos eram originalmente 
redondos e feitos com perfuradoras usadas por cobradores de ônibus; mais tarde foram 
produzidas perfuradoras especiais para um furo quadrado de 6 mm. Por este meio, muita 
informação podia ser contida num único cartão. A vantagem dos cartões individuais sobre a fita 
continua é que a informação podia ser específica ou genérica. Por exemplo, para encontrar a 
número de mulheres brancas com 80 anos que viviam em New York, todos os cartões seriam 
classificados, e aqueles com furos perfurados nos campos que não interessavam seriam 
mecanicamente separados do resto. As primitivas máquinas apenas produziam um total geral, mas 
com o tempo Hollerith introduziu a adição a outras operações aritméticas simples. O sucesso 
comercial veio em 1889, quando o Bureau of Censuses anunciou uma concorrência para instalar 
um sistema de equipamento processador do censo do ano seguinte. Os sistemas foram testados 
com nova tabulação dos números anteriores. O equipamento de Hollerith venceu. Suas máquinas 
estavam protegidas por patente de invenção e por isso ele cobrou a taxa de 65 cents do governo, 
no processamento de cada conjunto de mil cartões. Apesar de haver um cartão para cada 
indivíduo, Hollerith levou apenas dois anos para concluir a apuração. Ele anunciou que a população 
era de 56 milhões, a cobrou do governo o valor equivalente. Na época do censo de 1900, ele tinha 
desenvolvido um equipamento ainda mais eficiente, mas recusou-se a baixar o preço estipulado 
pelo trabalho. Quando se esgotou o prazo de validade de sua patente, o governo tentou negociar 
com algumas companhias, mas Hollerith ganhou a luta criando sua própria empresa, que mais tarde 
se tornou na IBM - International Business Machines. 
22 
 
 
tabular esses dados. No censo de 1890, 300 de suas máquinas, baseadas nos 
princípios de Babbage e empregando cartões perfurados, diminuem a demora do 
processamento de cerca de 55 milhões de habitantes para cerca de 2 anos. O 
sucesso da máquina leva Hollerith a fundar a própria companhia (1896) para fabricá-
la e comercializá-la: a Tabulating Machine Company. Através de uma política 
comercial agressiva, incorporando três outras empresas, suas máquinas serão 
vendidas para os Departamentos de Censo de governos de todo o mundo, e mais 
tarde para companhias particulares de grande porte. Em 1924 o nome da 
Companhia é alterado para IBM - Industrial Business Machines, pioneira no 
emprego da eletricidade para a perfuração/leitura de cartões. A tecnologia de 
cartões perfurados só foi superada depois dos anos 60 do século XX25. 
 
Válvulas eletrônicas 
 
Lee De Forest26, inventor da válvula radioelétrica (1906), que tornou possível 
a transmissão radiofônica ao vivo e contribuiu com o principal componente dos 
aparelhos de rádio, televisão, telefone, radar e computador, nasceu em 26 de 
agosto de 1873 em Council Bluffs, Iowa, Estados Unidos. 
Entrou para a Universidade de Yale em 1893 e doutorou-se em física seis 
anos mais tarde. Interessado em eletricidade e particularmente no estudo da 
propagação das ondas eletromagnéticas, sua tese sobre a reflexão de ondas 
hertzianas foi talvez o primeiro trabalho teórico sobre o rádio. 
Experimentalmente, De Forest desenvolveu um detector eletrolítico das 
ondas de rádio e, em 1907, patenteou a válvula radioelétrica, com que transmitia 
programas musicais para a cidade de New York. No ano seguinte, realizou uma 
emissão do alto da torre Eiffel, em Paris, que foi captada pelos postos militares da 
região. Além do rádio, De Forest pesquisou equipamentos para gravação e 
reprodução de sons em filmes, assim como instrumentos de aplicação nos campos 
da medicina e da telefonia. Lee De Forest morreu em 30 de junho de 1961 em 
Hollywood, Califórnia. 
 
 
25
 Em 1917, a IBM surgiu no Brasil, ainda funcionando com o nome de Computing Tabulating 
Recording Company. Nesse mesmo ano, o Sr. Valentim F. Bouças, representante da CTR, firmou o 
primeiro contrato para a prestação de serviços com a Diretoria de Estatística Comercial. As máquinas 
daquela época eram: Perfuradoras mecânicas; Separadoras verticais e Tabuladoras standard. Com 
os excelentes resultados obtidos, o Governo Brasileiro resolveu contratar a CTR para o censo 
demográfico de 1920. Naquele mesmo ano chegaram ao Brasil as primeiras máquinas impressoras. 
O ano de 1924 marcou o estabelecimento definitivo da IBM Brasil. Através de decreto do então 
presidente Arthur Bernardes e com o nome de International Business Machines Co. of Delaware, a 
IBM, sempre representada pelo Sr. Valentim Bouças, estendeu suas atividades a diversas e 
importantes organizações privadas da Indústria e do Comércio. 
26
 Forest foi um físico que pesquisou componentes e aparelhos dedicados a gravação e reprodução 
de sons, assim como instrumentos de aplicação nos campos da eletromedicina e da telefonia. 
23 
 
 
As máquinas de Conrad Zuze 
 
Em Berlim, Alemanha, Conrad Zuze (1910-?), engenheiro aeronáutico, 
dedica-se a partir de 1936, a um projeto que chama de Z-1. Construído à noite, com 
a ajuda de amigos na casa onde mora com os pais, o Z-1 efetua as quatro 
operações aritméticas, calcula raiz quadrada e converte números decimais em 
notação binária e vice-versa. Desconhecendo os fundamentos de Babbage, Zuze 
chega a muitas conclusões semelhantes, redescobrindo os princípios da álgebra 
booleana também. Fixa-se na ideia de Leibniz, de representar os dados e as 
instruções em forma binária. Uma máquina puramente mecânica não lhe é 
satisfatória e Zuze considera a hipótese de uma máquina completamente eletrônica, 
embora a guerra não lhe permita obter os componentes necessários, e em 1941 
termina um computador eletromecânico: o Z-2. 
O governo alemão, engajado no esforço de guerra, não demonstra interesse 
inicial pelo invento, mas posteriormente fornece recursos para desenvolver o Z-3, 
um computador elétrico, com relés em lugar das juntas mecânicas utilizadas nos 
modelos anteriores, com um desenho mais compacto e elegante. Apesar dos 
bombardeios aliados, que o obrigam a mudar o local da oficina diversas vezes, e 
do exército alemão que o convoca para o front por dois períodos, o protótipo do 
Z-3 é concluído. O racionamento de materiais durante a guerra impõe a 
improvisação de componentes a partir de peças usadas de telefones, e as 
instruções são alimentadas por velhas películas cinematográficas de 35mm, 
perfuradas com um código de oito furos por quadro. O Z-3 armazena 64 palavras de 
22 bits cada. A informação é introduzida por um teclado, e os resultados exibidos 
num painel de lâmpadas. 
Todos os protótipos deZuze são destruídos quando do bombardeio de 
Berlim na ofensiva final aliada em 1945, mas sabe-se que um dos seus modelos, 
adaptado, auxiliou os cálculos do projeto da bomba voadora alemã HS-293. O Z-
4, último computador de Zuze no período de guerra, aumenta o tamanho das 
palavras para 32 bits. Levada para Göttingen quando os aliados marcham sobre 
Berlim, a máquina acaba em Basiléia, na Suíça, onde opera até 1954. Sem 
conseguir fabricar computadores na Alemanha ocupada, Zuze concentra-se na 
teoria, desenvolvendo a linguagem “Plankalkul”. Ao conseguir novamente fabricá-
los, monta a Zuze Company, a maior fabricante de computadores alemã até 1969, 
quando é então incorporada pela Siemens. 
 
COMPUTAÇÃO ELETRÔNICA (SÉCULO XX) 
 
A partir da II Guerra Mundial o desenvolvimento dos computadores 
eletrônicos ganhou mais força, quando os governos perceberam o potencial 
24 
 
 
estratégico que estas máquinas ofereciam. Assim, os alemães desenvolveram o Z-
3, computador capaz de projetar aviões e mísseis. Pelo lado britânico, foi 
desenvolvido o Colossus, utilizado para a decodificação das mensagens alemães 
criptografadas pela Enigma. 
A partir do momento que surgiram os primeiros computadores na acepção 
popular da palavra, divide-se a história dos computadores em cinco gerações 
distintas. Embora existam diferenças e discordâncias quanto às datas das gerações 
de computadores, será usada aqui aquela mais amplamente aceita. 
A disputa pelo título de primeiro computador do mundo é acirrada. Isto 
porque devemos levar em consideração que os precursores dos primeiros 
computadores eram máquinas mecânicas. Aos poucos, com a utilização de 
eletricidade com chaves mecânicas e eletromagnéticas, chegou-se à utilização de 
computadores eletromecânicos. E surge a questão: as máquinas puramente 
mecânicas são ou não são computadores? E as eletro-mecânicas, podemos 
considerá-las computadores? 
O que podemos considerar como primeiro computador do mundo foi 
desenvolvido no MIT (Massachussetts Institute of Tecnology) em 1931 por 
Vannevar Bush. Era analógico e possuía parte mecânicas, tendo sido construído 
para resolver equações diferenciais simples. Na verdade era mais uma calculadora 
do que qualquer outra coisa. Porém, a utilização de elementos analógicos era 
problemática, pois uma variável pode assumir qualquer valor de -¥ a +¥ - como 
ocorre realmente na natureza. Isto significa que qualquer tipo de ruído, seja qual for 
a origem, irá inevitavelmente alterar as variáveis e interferir nos dados 
apresentados. Para que isto fosse contornado, precisava-se diminuir o número de 
valores que cada variável poderia assumir. Só que, para isto, toda base que estava 
sendo utilizada teria que ser totalmente descartada! E foi exatamente o que 
aconteceu. 
Assim, uma outra base numérica passou a ser utilizada - a binária. Nesta 
base só existem dois algarismos, "0" ou "1", ao contrário do sistema decimal, no 
qual temos dez algarismos, de "0" a "9". Esta nova base numérica já era conhecida 
e já possuía sistemas de subtração, adição, multiplicação e divisão, após pesquisa 
de Francis Bacon por volta de 1623 e posteriormente Gottfried Wilhelm Leibniz a 
partir de 1679. 
Quando criada, tal base numérica não despertou tanto interesse. Porém, 
todo este sistema numérico serviria como uma luva para o desenvolvimento de 
computadores, agora não mais analógicos, mas sim digitais. Mas, no caso, cada 
variável poderia assumir somente dois valores: "0" e "1" o que resulta no sistema 
binário, portanto, digital binário. Qualquer valor diferente destes seria 
completamente descartado, eliminando-se o problema do ruído. Fora isto, a lógica 
digital binária é muito mais simples, já que se baseia em variáveis que assumem 
25 
 
 
dois valores, ao invés de infinitos. 
A base binária em si não serviria de muita coisa se o matemático inglês 
George Boole não tivesse criado em 1854 toda uma linha de raciocínio, que 
complementaria a base binária. Com esta lógica foi possível a criação de 
portas lógicas, o elemento básico para a criação de computadores. 
Complementando o simples "sim" e "não", "ligado" e "desligado", etc., que os 
números "1" e "0" poderiam representar, Boole criou condições especiais, a partir de 
"verdadeiro" e "falso" que tais números também poderiam representar, juntando a 
base binária à tradicional teoria dos conjuntos - como a condição "" para a 
interseção de dois conjuntos e "" para a união de dois conjuntos. Com isto teremos 
condições suficientes para criar um circuito lógico, um circuito capaz de reagir de 
acordo com dados entrados, ou seja, dar uma resposta de acordo com a entrada, de 
uma maneira pré-definida. Como exemplo banal de um circuito lógico poderíamos 
citar uma calculadora, que é capaz de dar a resposta de uma conta após termos 
entrado os valores. Desta maneira, a matemática utilizada em circuitos lógicos 
digitais é chamada de álgebra booleana. 
Já em 1937, Howard Aiken desenvolveu o que veio a ser o primeiro 
computador eletromecânico do mundo: o MARK I, apoiado pela IBM (International 
Business Machines) e pela marinha americana, que o custearam. O tamanho, o 
MARK I media dezoito metros de comprimento, por dois metros e meio de altura. 
O projeto do primeiro computador eletrônico do mundo foi o ABC (Atanasoff 
Berry Computer). Iniciado em 1937, seu criador não conseguiu concluí-lo, tendo 
abandonado completamente o projeto no ano de 1942. Foi o primeiro computador a 
utilizar válvulas termo iônicas. 
Com a chegada da II Guerra Mundial e consequente avanço da 
eletroeletrônica, os Serviços Secretos de diversos países queriam construir 
seus computadores, principalmente para serem utilizados na codificação de 
mensagens. De um lado, a Alemanha de Hitler construiu em 1941 o Z-3. Do lado 
dos Aliados, a Inglaterra construiu um computador capaz de decifrar as mensagens 
utilizadas pelos países do eixo, codificadas pelo próprio Z3. Em 1943 foram 
produzidos dez Colossus, o nome que este computador recebeu. Como o próprio 
nome sugere, possuía dimensões colossais, gigantescas, com cerca de 1.500 
válvulas e era capaz de processar cerca de 5.000 caracteres por segundo. A 
válvula é um componente que trabalha com tensões elétricas relativamente altas e é 
basicamente térmica. Portanto, muito comum era alguma válvula se queimar dentro 
de pouco minutos, fora o super aquecimento que as instalações do computador 
sofriam. 
A Guerra fez com que todos percebessem que a hora da criação de tais 
máquinas tinha chegado. No mesmo ano da criação do Colossus foi iniciado o 
projeto do ENIAC (Electronic Numeric Integrator And Calculator), o primeiro 
26 
 
 
computador à válvulas dos Estados Unidos, terminado somente após a guerra 
(1946), também para uso basicamente militar - como cálculo de trajetória de 
mísseis. Alan Turing, o mesmo criador do Colossus, ajudou neste projeto. O ENIAC 
tinha cerca de 18.000 válvulas, sendo que de dois em dois minutos uma válvula se 
queimava! O ENIAC era tão colossal quanto qualquer outro computador desta 
época. Ocupava uma área de 170 metros quadrados e pesava 30 toneladas. Claro 
que sua (então) "incrível" performance foi há muito superada por qualquer 
calculadora de bolso! 
A partir de 1945, um novo marco foi colocado na história dos computadores 
com John von Neumann, Arthur Burks e Herman Goldstine. Para se ter uma ideia, a 
programação do ENIAC era toda feita através de ligação de cabos em conectores, o 
que demorava literalmente semanas. As ideias de von Neumann - que são utilizadas 
até hoje - fizeram com que os computadores pudessem ser programados, isto é, 
funcionavam mediante uso de programas, rotinas demanipulação de dados que se 
utilizam de instruções próprias do computador. 
A partir das ideias de von Neumann e sua equipe, os primeiros 
computadores a utilizarem conceito de programas foram criados: o EDSAC 
(Electronic Delay Storage Automatic Computer) e o EDVAC (Electronic Discrete 
Variable Automatic Computer), em 1949. Os computadores passaram a diminuir 
bastante de tamanho. 
Mas, além do tamanho gigantesco, essas colossais máquinas eram todas 
fruto das mais diversas pesquisas de um mercado promissor. E quem operava 
tais máquinas eram os próprios criadores para um público ainda muito restrito. O 
primeiro computador a ser produzido em escala comercial foi o UNIVAC 
(Universal Automated Computer), pelos mesmos criadores do ENIAC. Mas, o 
primeiro UNIVAC só ficou pronto em 1951. 
A IBM, por sua vez, passa a dominar o mercado ao construir seus 
computadores em escala comercial, com o lançamento do IBM 701 em 1953 e, 
principalmente, do IBM 650 em 1954. Este último vendeu mais de mil unidades, um 
sucesso absoluto de vendas, e que veio refletir a real necessidade que o mundo 
teria no uso de computadores. 
A partir da criação da técnica de circuito impresso, em 1957, os 
computadores puderam diminuir um pouco mais de tamanho. As placas de circuito 
impresso são utilizadas na ligação elétrica entre os diversos componentes 
existentes em um circuito eletrônico. Antes, todas estas ligações eram feitas através 
de suportes e fios, o que acarretava mal contato e instabilidade. Com o circuito 
impresso estas ligações são feitas em uma placa rígida, bastante estável e 
apresentando muito menos problemas de contato, sem contar que os componentes 
ficam mais bem fixados. Nesse mesmo ano é desenvolvida a linguagem FORTRAN 
(Formula Translator), a primeira linguagem de alto nível para computadores. 
27 
 
 
O primeiro transistor foi criado em 1947, mas seu uso comercial só ocorreu 
a partir do final da década de 50. Os transistores vieram a substituir as válvulas. Por 
ser um componente baseado na tecnologia dos semicondutores - elementos com 
propriedades físicas especiais, tal como o germânio e o silício - o transistor é um 
componente em estado sólido e possui a grande vantagem de não se aquecer 
como as válvulas nem muito menos quebrar por choque físico, além de ter 
dimensão muito menor. Gradativamente as válvulas passaram a ser substituídas 
por transistores, fazendo com que a maioria dos equipamentos eletrônicos - e leia-
se aí os computadores - passasse a ocupar um menor espaço físico, liberando 
menos calor e consumindo menos corrente elétrica. Dentre os primeiros 
computadores totalmente transistorizados destacaram-se o IBM 1401 e o IBM 7094 
que juntos, venderam mais de 10.000 unidades, reafirmando mais uma vez a 
demanda por uma indústria mundial de computadores. Outros computadores como 
os da DEC (Digital Equipment Corporation) também tiveram grande importância. A 
série de computadores da DEC recebiam o nome PDP, sendo o PDP-1 lançado em 
1959. E em 1963 a DEC criou o primeiro minicomputador, o PDP-5. 
Em 1962 foram usados, pela primeira vez, discos magnéticos para o 
armazenamento de dados no computador Atlas. Na época, além de serem 
gigantescos, os computadores usavam imensas unidades de fita magnética 
para o armazenamento de informações e uso posterior, além de sistemas de 
cartões perfurados, onde as informações que se queria passar para o computador 
eram marcadas através de perfurações feitas nestes para a posterior leitura pelos 
computadores - processo este extremamente demorado. Obviamente tais discos 
magnéticos ainda estavam longe de serem parecidos com os novos discos rígidos, 
os HDs, como conhecemos hoje em dia. 
Um fato importantíssimo favoreceu a criação dos circuitos integrados e o 
desenvolvimento da computação em geral na década de 60: a corrida espacial. O 
governo Americano investiu bilhões de dólares em pesquisas, para que os 
americanos fossem os primeiros a conquistarem o espaço sideral. A criação de um 
polo de pesquisas avançadas - a ARPA (Advanced Research Projects Agency) - fez 
com que surgissem vários conceitos que foram empregados e que refletem direta e 
indiretamente tudo o que há no mundo da informática hoje. Entre eles podemos 
destacar a interação homem-máquina, tendo consequências como a criação dos 
videogames e redes descentralizadas de computadores, possibilitando a criação 
de redes globais de computadores como a Internet, que hoje conhecemos tão 
bem. Neste ponto havia a necessidade de serem criados instrumentos confiáveis e, 
principalmente, que ocupassem pouco espaço físico. Deste modo, em 1963 
começou a produção dos primeiros circuitos integrados, com a junção de vários 
transistores em um só componente, colocando um circuito relativamente grande 
dentro de uma só pastilha de silício. 
Um dos primeiros computadores a utilizar circuitos integrados foi o IBM/360, 
28 
 
 
lançado em 1964. Avançadíssimo para a época, fez com que todos os outros 
computadores fossem considerados totalmente obsoletos, fazendo com que a IBM 
vendesse mais de 30.000 unidades rapidamente. 
Mas não só a ARPA era um grande centro de pesquisas na década de 
sessenta. Outros centros, como o MIT (Massachusetts Institute of Technology) e o 
SRI (Standford Research Institute) trabalhavam em pesquisas de interação 
homem-máquina e foram de grandíssima importância para a base do que hoje é a 
microinformática tal qual a conhecemos, por apresentarem propostas como 
dispositivos indicadores (o que hoje conhecemos por mouse) e interligação de 
computadores entre si para a troca de informações: a rede Ethernet tal qual 
conhecemos hoje. 
Mais importante ainda foi o PARC (Palo Alto Research Center), criado pela 
Xerox em 1970. Neste centro foi desenvolvida toda a base da comunicação visual 
que seria utilizada por computadores dali por diante, através de uma interface 
gráfica, usando componentes em forma de ícones, janelas e a estrutura 
WYSIWYG - What You See Is What You Get27, que mostra na tela seu 
trabalho exatamente da maneira como sairá impresso. A Xerox, apesar de possuir 
toda essa tecnologia já na década de setenta, não estava interessada na 
utilização da mesma em computadores pessoais, os PCs. Todas as grandes 
empresas estavam interessadas somente no mercado dos computadores de grande 
porte, para serem implantados em empresas. Ainda não existia a visão de pessoas 
usando computadores em suas casas. Essa tecnologia foi empregada 
basicamente nos computadores Altos e, mais tarde, no Star, criados logicamente 
pela própria Xerox. 
Um passo maior ainda foi dado quando foi desenvolvida, em 1971, a 
tecnologia LSI (Large Scale Integration), que permitiu a junção de vários circuitos 
integrados em um só, dando origem aos microprocessadores. Os 
microprocessadores são circuitos integrados que permitem ser programados a fim 
de que executem uma determinada tarefa. A empresa americana Intel foi a 
responsável pela criação dos primeiros microprocessadores, o 4004, que 
manipulava palavras binárias de 4 bits28 e o 8008, no ano seguinte, que manipulava 
palavras binárias de 8 bits29. 
As revistas de eletrônica na época começaram a publicar projetos de 
circuitos para estes microprocessadores e, de um destes projetos, surgiu o primeiro 
microcomputador comercial, o Altair 8800, que era vendido sob a forma de Kit. 
A Intel lança em seguida o primeiro microprocessador "de verdade", o 
 
27
 What You See Is What You Get = O que você vê é o que você obtém. 
28
 Cada algarismo binário - cada "0" e cada "1" presente em uma palavra binária - é chamado de bit 
- Binary Digit. Ao conjunto

Outros materiais