Baixe o app para aproveitar ainda mais
Prévia do material em texto
Curitiba 2018 Fundamentos da Informática Alexandre Tadeu Rossini da Silva Eleusa Maria Leão Evanderson S. de Almeida Evandro Alberto Zatti Marcelo Ribeiro de Oliveira Leonel Rocha Ficha Catalográfica elaborada pela Fael. Bibliotecária – Cassiana Souza CRB9/1501 Direitos desta edição reservados à Fael. É proibida a reprodução total ou parcial desta obra sem autorização expressa da Fael. FAEL Direção Acadêmica Francisco Carlos Sardo Coodernação Editorial Raquel Andrade Lorenz Revisão Diógenes Cogo Furlan Projeto Gráfico Sandro Niemicz Capa Vitor Bernardo Backes Lopes Imagem da Capa Shutterstock.com/tcareob72 Arte-Final Evelyn Caroline dos Santos Betim Apresentação A evolução do ser humano foi marcada, ao longo das eras, por sua vontade crescente de se comunicar e de registrar os fatos da vida. Desde as primeiras pinturas rupestres nas cavernas, a linguagem do homem foi ganhando contornos mais sofisticados, na medida em que servia também como ferramenta para o seu desenvolvimento mental, intelectual, social e cultural, diferenciando-o dos demais animais. No século XXI, a necessidade de comunicação ampliou sua abrangência. Informação, armazenamento de dados, compartilhamento à distância, entretenimento e educação são algumas das novas demandas que passaram a exigir duas coisas: pessoas mais preparadas para lidar com um cenário que muda rapidamente e tecnologias capazes de oferecer soluções rápidas, eficientes e viáveis para essas demandas. – 4 – Fundamentos da Informática As chamadas Tecnologias da Informação e Comunicação (TICs) refletem a realidade do século XXI, servindo a propósitos corporativos, educacionais e sociais. Em um mundo digital como é o nosso hoje, em que o acesso à informação se dá em tempo real e a popularização da tecnologia é crescente, estará mais bem preparado o profissional que souber compreender como surgiu e para onde deve nos conduzir esse fenômeno. Esta coletânea Fundamentos da Informática é o passo inicial para esse entendimento. Com textos de fácil compreensão, os autores traçam a evolução histórica da informática, sempre associando-a aos grandes momentos da história da humanidade que alteraram de forma marcante a maneira como trabalhamos, nos relacionamos e pensamos o mundo ao redor. Assim, o livro explora a ligação entre a informática e a sociologia, mostrando como as Tecnologias da Informação e Comunicação influenciam o comportamento, a cultura, as tarefas cotidianas e o modo de ser, pensar e agir das pessoas ao longo dos séculos. E por que associar sociologia e informática? Porque é esse saber – a combinação do conhecimento técnico/tecnológico com a clareza sobre o quanto a nova organização do trabalho e do dia a dia das pessoas é afetada pelas TICs a que elas têm acesso – que hoje é exigido do profissional de informática. Este livro traz os fundamentos teóricos da informática e da computação, explicando as diferenças entre software e hardware, apresentando os princípios de programação, os detalhes do hardware e ampliando a visão do leitor sobre o funcionamento de redes de computadores e banco de dados. Tudo isso para que o leitor possa entender a lógica por trás de qualquer computador – noção fundamental para quem deseja trabalhar na área. A obra também convida a refletir sobre o impacto do uso da tecnologia na sociedade, sobre questões éticas e sobre inclusão digital, ajudando a pensar em alternativas para beneficiar pessoas que hoje não têm acesso a esses recursos tecnológicos. Boa leitura! Sumário Carta ao Aluno | 5 1. História dos computadores | 7 2. Microcomputador | 27 3. Componentes básicos do computador | 33 4. Hardware interno do computador | 41 5. Dispositivos de Entrada e Saída | 87 6. Placa mãe e integração dos componentes de Hardware | 137 7. Sistemas de numeração | 177 8. A informática e o software | 195 9. Classificação de software | 205 10. Sistemas operacionais, redes de computadores e banco de dados | 213 11. Sistemas de informação: conceito, componentes e tipologia | 239 Referências | 255 1 História dos computadores O ser humano sempre processou dados – o homem pré-his- tórico desenhava nas paredes das cavernas, o pastor de ovelhas da antiga Mesopotâmia coletava pedras para representar a quantidade de animais de seu rebanho no ano 4000 a.C., o artesão europeu do ano 1673 utilizava cartões perfurados para controlar o posicio- namento e o movimento de agulhas do tear. E hoje, quando um consumidor na Índia compra um produto alemão pela internet e recebe pelo correio, ou quando duas empresas multinacionais em continentes distintos realizam transações comerciais e financeiras entre si, estamos vendo a manipulação de dados. – 8 – Fundamentos da Informática 1.1 Qual é a diferença entre dado e informação? Dados são fruto da observação de um fato ou objeto e possuem um ou mais significados, mas isoladamente não são capazes de transmitir uma mensagem ou conduzir à compreensão de algo. Normalmente são mensuráveis. Um exemplo é um conjunto de condições climáticas. Podemos saber a pressão atmosférica, intensidade do vento, umidade do ar e tempera- tura, mas isoladamente esses dados não traduzem um conhecimento, não nos permitem fazer a previsão do tempo. Outro exemplo: os símbolos “R”, “$” e “1,50” também não significam muito, como dados separados. A informação é um conjunto de dados tratados, analisados, compa- rados, reunidos a outros e trabalhados, que adquirem um significado mais amplo, levam ao entendimento e à tomada de decisões. Ao analisar as con- dições atmosféricas todas juntas, por exemplo, podemos concluir a pro- babilidade de chover, em que intensidade etc. Ao reunir os três símbolos (dados) citados acima, temos a informação “R$ 1,50”, com um significado (o preço de algo). Informações, portanto, são dados que foram processados, seja por meio eletrônico, mecânico ou manual, gerando um resultado com significado. 1.1.1 Escrita é armazenamento de dados A necessidade de registrar, guardar e transferir informações por meio de símbolos é notada desde os primeiros registros que a arqueologia pode nos fornecer sobre a humanidade. Atribui-se aos sumérios, por volta de 3500 a.C., o mais antigo tipo conhecido de escrita, a cuneiforme (que tem esse nome por ser executada com auxílio de objetos pontiagudos em forma de cunha, sobre placas de argila). Ao longo das eras de evolução da humanidade, o armazenamento e o processamento de dados sempre foi uma maneira encontrada pelo homem para controlar o meio à sua volta. As primeiras inscrições – as pinturas rupestres pré-históricas – eram desenhos que reproduziam, de forma simplificada, conceitos ou cenas vividas. O ábaco, instrumento composto por bolinhas que deslizam em arames paralelos, servia para fazer cálculos rudimentares e é tão antigo – 9 – História dos computadores que há muita divergência sobre sua origem: Babilônia ou Mesopotâmia mais ou menos 3.000 anos antes de Cristo, Egito em 500 a.C. ou China no século II, já em uma versão mais próxima do que conhecemos hoje, popularizado pelo soroban japonês, até hoje utilizado. A história é fértil em exemplos de ferramentas que foram desenvolvidas para registrar e lidar com dados, até chegar à sofisticação da tecnologia de ponta dos computadores atuais. 1.1.2 Dados analógicos e digitais Analógico vem de “análogo”: é a representação mais parecida possível da realidade usando algum meio. Um exemplo de instrumento analógico é o ter- mômetro de mercúrio, com graduações de temperatura que variam de 32oC a 50oC, passando por todos os valores entre eles. É uma medição contínua. Se houvesse graduações suficientes no termômetro e se nosso olhar tivesse uma precisão imensa, poderíamos verificar que a temperaturapassou, por exem- plo, de 37,6324 para 37,6325. É o que acontece também com um relógio analógico. Embora nosso olhar não alcance, os ponteiros medem o intervalo inteiro entre os segundos, “correndo” continuamente entre um segundo e outro e não “saltando” de um segundo para o outro como nos relógios digitais. Então, o analógico é contínuo e pode ser medido em infinitas partes. É, portanto, bastante exato e reproduz a realidade como ela é. No entanto, essa representação exata sofre perdas com o tempo. Um sinal de rádio analógico, por exemplo, sofre interferência e ruído quanto maior for a distância de transmissão. Uma música gravada em fita cassete ou LP tende a perder qualidade com o tempo, por causa do desgaste do meio mecânico em que foi gravada. Já o digital representa alguma coisa em intervalos pré-definidos, através de uma escala (dígitos). Um termômetro digital também varia de 32ºC a 50ºC, mas exibindo apenas os valores da graduação pré-definida. Se a graduação for de 1ºC, por exemplo, o termômetro mostraria que a temperatura subiu de 36ºC para 37ºC. Ou seja, a temperatura “salta” de um grau para o outro, como se não houvesse nenhum valor intermediário. No termômetro analógico vemos a temperatura ir subindo continuamente de um grau para outro. – 10 – Fundamentos da Informática O sinal digital é a representação aproximada de algo, mas não se modi- fica com o tempo nem com a distância. Por exemplo, você pode passar para o seu computador as músicas que baixou de um CD, depois copiá-las em um pen drive, colocar em outro computador e transmitir pela internet para um amigo que mora do outro lado do mundo, que a qualidade não vai se perder. Ele vai ter a música exatamente igual à sua. O sinal analógico é um sinal que varia no tempo, o digital não. O analógico pode assumir qualquer valor entre dois limites, o digital apenas dois, 0 ou 1 (zero ou um) – que é a linguagem dos computadores. 1.1.3 O que concluir sobre dados analógicos e digitais? A informação analógica é infinitamente mais rica e detalhada do que a digital. Porém, um dado ou informação digital, embora limitado, tem a precisão necessária para alcançar um objetivo. Em outras palavras, mesmo que não tenha tantas possibilidades, variações e subdivisões quanto o analógico, o dado digital é suficiente para atender as nossas necessidades. Por exemplo, fotos, vídeos, músicas e textos armazenados em formato digital nos computadores modernos são perfeitamente aceitáveis, porque qualquer imprecisão ou falha torna-se imperceptível para os usuários. 1.2 A evolução da tecnologia – como nasceram os computadores Facilitar a execução de tarefas complexas ou repetitivas. Essa foi a principal motivação de inventores e estudiosos, ao longo dos séculos, para criar máquinas que permitissem armazenar dados e fazer cálculos. A linha do tempo dessas invenções acompanha o desenvolvimento científico, cultural e tecnológico da humanidade. Um dos primeiros instrumentos de cálculo de que se tem notícia é o ábaco, inventado pelos babilônios 3.000 anos antes de Cristo. No entanto, embora os homens já soubessem, naquela época, escrever números e símbolos, os cálculos matemáticos dificilmente eram registrados. Assim, não se poderia guardar uma equação do segundo grau, por exemplo, nem se discretizar alguma teoria, ou seja, dividir um todo em partes individuais de menor – 11 – História dos computadores complexidade e, assim, facilitar os cálculos. Mas, com a ajuda dos hindus, que criaram o zero escrito, isso se tornou possível. 1.2.1 História da computação – uma linha do tempo 1.2.1.1 A era mecânica 2 2000 a.C. – O ábaco chinês é a primeira ferramenta de cálculo de que se tem notícia. É uma calculadora primitiva, composta por varetas e anéis de madeira, representando unidades, dezenas e centenas. Os chineses não sabiam que estavam fornecendo uma grande ajuda teórica na organização dos computadores. O ábaco é muito popular e até hoje ainda é usado, principalmente em países orientais. 2 1614 – O matemático e teólogo escocês John Napier define os loga- ritmos e populariza o uso do ponto decimal, trazendo grande auxí- lio para a execução de operações aritméticas como multiplicações e divisões longas. 2 1622 – Por causa da dificuldade de multiplicar números grandes, o padre inglês William Oughtred desenvolveu a régua de cál- culo, a partir da sobreposição de escalas logarítmicas de Napier. Largamente utilizada até a década de 70 do século XX, a régua de cálculo é considerada precursora das calculadoras eletrônicas, pois se baseia também em logaritmos. No entanto, não fornece resultados precisos, embora suficientes para os cálculos a que se destinava. 2 1623 – O astrônomo e matemático alemão Wilhelm Schickard cria a primeira máquina de calcular, capaz de fazer as quatro operações básicas com seis dígitos. Ela servia para fazer cálculos de tábuas astronômicas, com uma estrutura mecânica baseada em rodas dentadas. Um protótipo desenvolvido por ele se per- deu durante a Guerra dos Trinta Anos (que ocorreu entre 1618 e 1648) e os esboços dos desenhos só foram encontrados no século XIX, por isso atribuía-se a Blaise Pascal a construção da primeira máquina calculadora. – 12 – Fundamentos da Informática Saiba mais Pascal é o nome de uma popular linguagem de programação, batizada assim em homenagem ao físico e matemático. 2 1644 – O francês Blaise Pascal (1623-1662) entrou para a história como o inventor da primeira calculadora mecânica, batizada por ele de La Pascaline. Ele a criou quando tinha apenas 19 anos, para ajudar seu pai no cálculo de impostos. A máquina também usava uma roda dentada contendo dez dentes, um para cada algarismo decimal, e realizava apenas adições e subtrações. 2 1673 – Gottfried Wilhelm Leibnitz (1646-1716), matemático e filósofo, melhorou o projeto da Pascaline, construindo, assim, uma máquina capaz de dividir, multiplicar, subtrair, somar e calcular a raiz quadrada. Os historiadores confirmam seu pensamento: “Ele sonhava que um dia todo o raciocínio pudesse ser substituído pelo girar de uma alavanca”. 2 1801 – Joseph Marie Jacquard (1752-1834) foi um mecânico nascido na França que criou uma máquina mecânica de tear (a primeira máquina programável, controlada por cartões perfurados) capaz de criar bonitos desenhos enredados no próprio tecido. Sua invenção fez muito sucesso na França e, em sete anos, milhares de teares já estavam em operação no país. 1.2.1.2 A era dos dígitos Com a Revolução Industrial (1760-1840), surgem novas necessidades de realizar tarefas repetitivas e rotineiras de modo mais rápido e eficiente, trocando os processos de produção artesanais pela produção por máquinas- ferramentas. Naqueles anos, muitos estudiosos estavam se dedicando a construir máquinas para automação de processos e cálculos complexos. 2 1820 – Charles Babbage (1792-1871), matemático nascido na Inglaterra, projeta a máquina analítica, uma máquina diferencial para calcular polinômios. A máquina tinha a capacidade de rece- – 13 – História dos computadores ber dados, processá-los, armazená-los e exibi-los, com princípios parecidos com os dos computadores modernos, e por isso Babbage ficou conhecido como o pai do computador. A calculadora que ele desenvolveu fazia, além de somas, subtrações e outros cálculos básicos, a conversão automática de números de uma base para outra (da base binária para a decimal, por exemplo). A máquina, cujo desenvolvimento foi financiado por algum tempo pelo governo britânico, era puramente mecânica, sendo composta por um engenho ou “moinho” central (o equivalente a uma CPU moderna), uma memória, engrenagens e alavancas. Utilizava cartões perfurados e possuía dispositivos de entrada e saída de dados. Seu invento, porém, exigia técnicasbastante caras e, dizem alguns historiadores, avançadas demais para a época, o que inviabilizou sua construção. O governo britânico acabou por suspender o finan- ciamento a Babbage e, com isso, a calculadora analítica nunca foi construída. Vale a pena ressaltar que as máquinas, até o século XIX, funcionavam na base decimal (e hoje funcionam na base binária). No final da década de 1980, a máquina de Babbage finalmente foi construída pelo Museu de Ciência de Londres, utilizando a tecno- logia disponível na época do cientista. Saiba mais CPU (Unidade Central de Processamento, na sigla em inglês) é o componente do computador que processa os dados. É considerado o “cérebro” do computador. 2 1842 – Ada Byron ou Ada Lovelace (1815-1852), condessa de Lovelace, filha do poeta Lord Byron, foi considerada a primeira programadora da história, antes mesmo do computador ter sido inventado. Ela escreveu várias instruções para serem interpretadas pela máquina analítica de Babbage. O Conceito de Subrotina par- – 14 – Fundamentos da Informática tiu dela, que também aprendeu a valorizar os laços de repetições (“loop”). Bastava, em algum lugar de um cartão, inserir informações para que a leitora de cartões retornasse para outro cartão anterior, concretizandos e, assim, o efeito de repetição de uma sequência de instruções. Ada também imaginava as vantagens, caso pudesse tra- balhar com os desvios condicionais (“if ”). Hoje, existe até uma lin- guagem batizada de Ada, em sua homenagem. 2 1854 – George Boole (1815-1864) publicou as bases da lógica boo- leana (em referência a seu próprio nome). Tais bases determinam que equações matemáticas algébricas podem expressar os conceitos da lógica, em que variáveis (unidades de memória que armazenam valores) podem assumir os valores 0 ou 1 (ex: verdadeiro ou falso). Graças a essa contribuição de George Boole, os cientistas puderam pensar em um computador que fosse utilizável para qualquer fim. 1.2.1.3 Máquinas de computar Computar é calcular, processar dados para buscar uma solução para algum problema, ampliando a noção inicial de apenas fazer contas da aritmética básica. Com a necessidade crescente de tratar informações de maneira automática, proporcionando resultados mais rápidos, as pesquisas e invenções na área de informática prosseguiram a passos largos. 2 1889 – As ideias de Charles Babbage são mescladas às práticas com cartões perfurados (criadas por Jacquard para os teares, em 1801) por um estatístico americano preocupado com a demora na conta- gem da população. Até então, o censo da população norte ameri- cana levava sete anos para ser concluído. Com sua invenção, Her- man Hollerith (sim, seu nome é sinônimo dos contracheques para pagamento de funcionários) conseguiu reduzir pela metade o tempo necessário para tabular os dados da população. 2 1896 – Com o sucesso de seu invento, Hollerith funda a Tabulating Machine Company (companhia de máquinas de tabular). 2 1904 – A válvula é criada por John A. Fleming. Tal componente é composto por um envoltório de vidro que contém dois eletrodos. A válvula interrompe ou permite a passagem de corrente elétrica, – 15 – História dos computadores dependendo de como a energia passa por dentro dela. Com corrente elétrica, podemos dizer que o valor dessa válvula é “um”; sem cor- rente elétrica, podemos assumir que seu valor é “zero”. 2 1911 – A empresa de Hollerith se funde a outras três companhias, dando origem à Computing Tabulating Recording Co. (CTR). 2 1924 – A CTR, então com apenas 1.400 funcionários, muda seu nome para International Business Machine, hoje mundialmente reconhecida pela sigla IBM e com cerca de 400 mil funcionários em todo o mundo. 2 1937 – Allan M. Turing, utilizando-se da álgebra de Boole, da tecnologia de entrada e saída via cartões perfurados e da válvula, expõe minuciosamente uma máquina computacional de propósito múltiplo. Foi uma iniciativa pioneira no sentido de permitir que o próprio usuário (e não o fabricante) definisse que cálculos ou operações a máquina iria realizar – o que tem tudo a ver com o conceito de programação que temos hoje. 1.3 Gerações de computadores Quatro marcos na evolução dos computadores permitem agrupar os principais acontecimentos nessa história e entender os eventos que represen- taram um salto tecnológico. 1.3.1 Primeira geração: válvula (1945-1955) 2 1943-1946 – John Presper Eckert (1919-1995) e John Mauchly (1907-1980), ambos engenheiros, projetaram o ENIAC – Eletronic Numerical Integrator And Computer (computador integrador numérico eletrônico). Foi o primeiro computador eletrônico de uso geral, capaz de ser reprogramado para diferentes tarefas. Com 18 mil válvulas e 1.500 relés, pesava 30 toneladas, consumia 150Kw de energia e ocupava 167m2. Por seu poder computacional – conseguia realizar cerca de 5.000 operações de soma ou subtração por segundo – e pela possibilidade de reprogramação, atiçou cientistas e industriais. O ENIAC foi projetado para fazer cálculos de balística – 16 – Fundamentos da Informática durante a Segunda Guerra Mundial, mas só foi anunciado ao mercado em 1946, após o término do conflito. Para programar o ENIAC, era preciso ajustar manualmente 6 mil interruptores e conectar uma imensa quantidade de soquetes. Andrew Tanenbaum (Tanenbaum, 2007) compara-o a “uma ver- dadeira floresta de cabos e jumpers.” Jumper é uma ligação móvel entre dois pontos de um circuito eletrônico, que serve para ligar ou desligar o fluxo elétrico. Programar em painéis elétricos realmente era difícil, lento, tedioso e mecânico. 2 1945 - A partir dessas dificuldades, o matemático John Von Neu- mann, que também participara da concepção do ENIAC, propôs um modelo conhecido como Máquina de Von Neumann. Até hoje, os computadores ainda usam como base a arquitetura de funciona- mento proposta por ele. Esse modelo divide um computador em cinco componentes principais: a memória, a unidade de controle, a unidade de lógica e aritmética e dispositivos para entrada e saída de dados. A memória armazena dados e instruções de programas. A unidade de lógica e aritmética e a unidade de controle formavam, juntas, o “cérebro” do computador – hoje combinadas em um único chip chamado CPU (Central Processing Unit, ou Unidade de Proces- samento Central). A CPU busca instruções e dados na memória, executa as instruções e então armazena os resultados de volta na memória. Os dispositivos de entrada (teclado, mouse, microfone) e dispositivos de saída (monitor, altofalantes, impressora) permitem que o usuário interaja com a máquina, fornecendo dados e visuali- zando facilmente os resultados. 1.3.2 Segunda geração: transistores (1955 - 1965) Os transistores, inventados em 1948 por Willian Shockley, Walter Brattain e John Bardeen, substituíram as válvulas e renderam a seus criadores o Prêmio Nobel de Física de 1956. A válvula sempre foi uma grande consumidora de energia elétrica. O transistor é muito mais rápido e barato que a válvula, além de consumir bem menos energia elétrica e ser mais durável. Os Estados – 17 – História dos computadores Unidos conseguiram, por exemplo, com o uso de transistor, sair à frente da antiga União Soviética na corrida espacial. 2 1963 – O teclado aparece comercialmente como um dispositivo para entrada de dados no equipamento de telex ASR-33, que arma- zenava os dados em cartões perfurados. 2 1963 – O monitor de vídeo, o mais relevante periférico de saída, começa a ser usado. Antes dele, os resultados do processamento de dados podiam ser visualizados somente se impressos em papel. 2 1964 – Surge o mouse, apresentado por Douglas Engelbart como um periférico para inserção de dados. Antes dele, a entrada só poderia ser feita por meio do teclado e dos tradicionais cartõesperfurados. Ainda em 1964, John Kemeny cria a linguagem BASIC que, naquele momento, servia como um software que intermediava a relação entre a linguagem de programação e o hardware. Esse papel muito se asse- melha ao desempenhado hoje pelo sistema operacional (popular- mente representado pelo Microsoft Windows ou GNU/Linux). 1.3.3 Terceira geração: circuitos integrados (1965-1980) O circuito integrado foi inventado em 1958 pelo físico norte americano Robert Noyce, depois co-fundador da Intel. Ele não substitui os transistores, porém – ele os reúne e compacta. O circuito integrado é um conglomerado de dezenas ou centenas de transistores, em um diminuto dispositivo de silí- cio, o chip. Nessa fase, verifica-se o fenômeno da miniaturização dos computa- dores. Com o CI (circuito integrado), tornou-se possível a construção de computadores menores, mais rápidos e mais baratos do que os da gera- ção anterior (já com transistores). A mudança foi drástica: computadores que tinham o tamanho de salas foram reduzidos ao tamanho de geladeiras. Ainda eram grandes, se comparados com os de hoje, mas já provocaram impacto significativo na época. 2 1967 – A primeira calculadora digital, precursora das calculadoras – 18 – Fundamentos da Informática de bolso de hoje, é apresentada pela empresa Texas Instruments. A máquina realizava as quatro operações básicas: soma, subtração, multiplicação e divisão. 2 1968 – A empresa Intel (hoje, a maior fabricante de microprocessa- dores do mundo) é criada por Robert Noyce, Andy Groove e Gor- don Moore. 2 1969 – Nasce a rede Arpanet, por meio da interligação de quatro universidades, pelo Departamento de Defesa dos Estados Unidos. A Arpanet é a precursora da World Wide Web (WWW) – rede mun- dial de computadores ou, simplesmente, a internet. 2 1970 – O sistema operacional (SO) UNIX é desenvolvido por Ken Thompson e Dennis Ritchie. O UNIX foi o primeiro SO portável, podendo funcionar em diferentes tipos de computadores. O sistema operacional GNU/Linux de hoje é um UNIX. 1.3.4 Quarta geração: integração em escala muito grande (1973-[1980-?]) Na terceira geração, centenas de transistores foram agrupados em um único chip. Agora, na quarta geração, o princípio do circuito integrado é o mesmo, mas o que muda é a escala. Centenas de milhares e até milhões de transistores são agora compactados em um chip ainda menor (batizado de microchip). Esse nível altíssimo de miniaturização é conhecido como VLSI (Very Large Scale Integration, ou integração em escala muito grande). O microchip permite a construção dos microcomputadores, que passam a ter o tamanho de cadernos (notebooks) e ainda menores. 2 1973 – O termo PC (personal computer, ou computador pessoal) é utilizado pela primeira vez quando a Xerox lança um computador batizado de Alto, para uso pessoal. Esse PC já exibia características dos computadores do século XXI: o conceito de “desktop” (mesa de trabalho), uso de mouse e interface gráfica, ainda que simples. 2 1975 – Chega ao mercado o Altair 8800, cujos diferenciais eram caber sobre uma mesa e ser muito mais rápido que os anteriores. Ainda – 19 – História dos computadores adolescente, o jovem programador Bill Gates adapta a linguagem BASIC para rodar no Altair e em outros microcomputadores. 2 1975 – Bill Gates, com apenas 20 anos, e Paul Allen, com 22, fundam a Microsoft. 2 1976 – Steve Jobs e Stephen Wozniak fundam a Apple. Conhecido pelo lado artístico apurado, Jobs achava que um computador precisava representar de maneira gráfica o que a máquina estava fazendo, ao invés de apenas uma sequência de botões e luzes que acendiam e apagavam. Ele então lança o Apple 1, considerado o primeiro computador a vir já montado, ao qual bastava acrescentar um monitor no qual era possível acompanhar as ações. 2 1977 – O Apple 2, o Atari 500 e o Commodore 64 são lançados respectivamente pelas empresas Apple, Atari e Commodore. O Apple 2 foi consagrado como o primeiro sucesso de mercado na área de computação pessoal, pois já incluía monitor, teclado, placa de som e capacidade de ler dados a partir de um disquete de 5” ¼ . 2 1980 – A arquitetura RISC (Reduced Instruction Set Computing, ou conjunto reduzido de instruções) passa a ser adotada em substituição a instruções complexas e difíceis, conhecidas como CISC. (Os detalhes e diferenças entres esses dois tipos de arquitetura serão abordados no capítulo 3). 2 1981 – É lançado o primeiro computador portátil comercialmente bem-sucedido, o Osborne1, com 11 quilos. 2 1981 – O IBMPC é lançado pela IBM, com processador Intel 8088 e sistema operacional MSDOS, feito pela Microsoft. Esse PC surge com desempenho (velocidade e memória) muito superior ao dos concorrentes e até hoje é um sucesso de vendas, com número expressivo de usuários em todo o mundo. A arquitetura de seu funcionamento foi aberta pela própria IBM, o que resultou em perda de mercado para a empresa mas, ao mesmo tempo, uma massiva popularização do padrão IBM. A consequência é que há no mundo um número muito maior – 20 – Fundamentos da Informática de computadores padrão IBM-PC (aberto) do que padrão Apple (fechado). A Microsoft foi extremamente beneficiada com essa popularidade do IBM-PC, uma vez que, para cada computador em funcionamento, era preciso uma licença do sistema operacional MS-DOS ou, mais tarde, do Windows, que surgiu em 1985 mas só começou a ser tecnicamente considerado como um sistema operacional a partir da versão Windows NT, lançada em julho de 1993. 2 1982 – A Compaq surge no mercado e apresenta seu primeiro produto: um computador portátil totalmente compatível com o sistema operacional de seu principal concorrente na época, o IBM-PC. 2 1984 – A Apple lança o Macintosh, primeiro a usar o mouse e possuir a interface (meios pelos quais um computador e seus programas se comunicam com o usuário) gráfica como nós conhecemos hoje, com pastas, menus e área de trabalho. 2 1985 – A Microsoft lança o Windows, interface com o usuário cujo design e princípios foram inspirados (segundo outras opiniões, copiados mesmo) na Apple, depois que Gates e Jobs foram parceiros por alguns anos. A partir daí, o sistema operacional do Macintosh e o Windows se tornam fortes concorrentes. 2 1992 – O computador Alpha, revolucionário, de 64 bits, é lançado pela Digital Equipment Corporation (DEC), empresa líder nos Estados Unidos na fabricação de computadores e softwares entre os anos 1960 e 1990. Utilizando arquitetura RISC, tinha uma velocidade de processamento muito superior a qualquer outro computador pessoal da época. No entanto, esses computadores RISC de 64 bits só começaram a fazer sucesso no mercado dez anos depois, atuando principalmente como servidores de alto desempenho. 1.4 O século XXI: Novos conceitos para novos cenários Depois de duas ondas tecnológicas (chamadas de plataformas no mundo – 21 – História dos computadores da tecnologia) – a primeira quando a computação migrou dos centros de pesquisa acadêmica para o mundo corporativo e grandes corporações passa- ram a ter mais frames (servidores centrais, computadores que centralizavam serviços a uma rede) para gerenciar seus processos de automação; a segunda quando houve a popularização do computador pessoal e o uso corriqueiro da internet – vivemos, a partir da segunda década do século XXI, a chamada Terceira Plataforma. Quatro elementos marcam a Terceira Plataforma: mobile, cloud, big data e social. Juntos, eles provocaram, e a cada dia ainda provocam, uma revolução na maneira como interagimos com o mundo e buscamos informação, lazer, educação e entretenimento; estabelecemos relacionamentos pessoais e pro- fissionais; criamos hábitos de consumo; gerenciamos processos de trabalho; vivemos nosso dia a dia. Epor que cada um dos quatro aspectos é relevante? 2 Mobile – O que se chama de mobile são os dispositivos móveis pessoais que permitem acesso à internet, como smartphones (celulares inteligentes) e tablets (computador portátil de tela sensível ao toque). Dados compilados pela Teleco em 2013 revelam que existem cerca de 7 bilhões de celulares em uso no mundo. O segundo trimestre de 2013 foi um marcante ponto de virada: pela primeira vez, foram vendidos mais smartphones do que celulares comuns em todo o mundo, uma prova de que as pessoas estão cada vez mais interessadas em estar conectadas via internet. As vendas de smartphones entre abril e junho de 2013 foram 46% maiores do que no mesmo período do ano anterior, chegando a 225 milhões de unidades, e representaram 52% do total de celulares vendidos no período, segundo a Gartner. No Brasil, de acordo com o International Data Corporation (IDC), o fenômeno se repetiu na mesma época. Essa “virada” não tem volta e a adoção dos smartphones só tende a crescer, dada a variedade de modelos e a redução dos custos. O ano de 2013 se encerrou com a expressiva venda de 1,004 bilhão de smar- tphones em todo o mundo,o equivalente a 55% de todos os celulares vendidos naquele ano, diz o IDC. Isso teve grande efeito no mercado de aplicativos para dispositivos móveis. Aplicativos são programas específicos para atender – 22 – Fundamentos da Informática determinadas demandas em computadores, e tornaram-se mais populares em plataformas mobile como smartphones e tablets. São úteis para diferentes propósitos – de um site de banco a um jogo para crianças, de busca de táxi a tratamento de fotografias, de geolocalização a receitas gastronômicas. A consultoria Gartner avalia que houve, em 2013, cerca de 102 bilhões de downloads de aplicativos nas quatro maiores lojas virtuais (as chamadas appstores) – AppStore da Apple, Google Play, Windows Phone Store e BlackBerry World, que juntas oferecem cerca de 1 milhão de aplicativos gratuitos e pagos. Celulares inteligentes permitem às pessoas pagar contas, pesquisar preços e comprar produtos, enviar e receber e-mails, e compartilhar conteúdos em redes sociais, tudo em tempo real, onde quer que estejam. Com a expansão das redes de dados das empresas de telefonia móvel e a disponibilidade de redes sem fio (wi-fi) em locais públicos, o acesso a esses serviços tem sido mais amplo. 2 Cloud computing – Com a quantidade crescente de dados gerados por empresas e pessoas, tem sido cada vez mais complicado gerenciar computadores pessoais e servidores corporativos para guardar um volume tão grande de dados. Além disso, a necessidade de acessar esses dados a partir de qualquer equipamento e em qualquer lugar (exigências da mobilidade e de novos modelos de trabalho, inclusive trabalhar de casa – home office) fez com que fosse adotada uma alternativa mais vantajosa do ponto de pista operacional e financeiro: o armazenamento de dados “na nuvem”, conhecido como cloud computing. A “nuvem” é um lugar virtual que “paira sobre nossas cabeças” onde quer que estejamos, e que podemos acessar com um clique do mouse, desde que tenhamos acesso à internet. Na verdade, são robustos computadores/servidores conectados em rede (pela internet) e espalhados em vários locais do mundo. Os investimentos das empresas nesse tipo de solução tem sido crescente, segundo levantamento do International Data Corporation (IDC). 2 Big data – De que serve uma quantidade imensa de dados se o aproveitamento deles é deficiente? O conceito de big data pressupõe – 23 – História dos computadores uma interpretação detalhada de dados a fim de, por exemplo, personalizar a oferta de produtos e serviços de acordo com o perfil do usuário, visando à satisfação do cliente e ao aumento das vendas. Nessa esteira surgiram, por exemplo, a gigante Amazon (venda online de livros, eletrônicos e outros produtos) e o portal de reservas de hotéis Booking.com, capazes de sugerir opções com base em pesquisas prévias feitas pelo usuário. A rede LinkedIn, que promove relações profissionais (networking), também usa big data para, com base nos dados que o usuário forneceu, identificar pessoas afins para compor sua rede profissional. Como base comum a todas essas empresas, estão novas soluções para o processamento de grandes volumes de dados em alta velo- cidade e arquiteturas que privilegiam agilidade e padronização no acesso aos dados. Essa detecção de padrões, conhecida como mineração de dados (data mining), permite, por exemplo, traçar hábitos de compra dos clientes e prever tendências de consumo, subsidiando a tomada de decisões estratégicas para o negócio. Parte importante desse processo é a aprendizagem de máquina, ou seja, programar o computador para que ele seja capaz de identificar quais dados se transformam em um padrão de comportamento. 2 Social – O ser humano é um ser social. “Estar conectado” é palavra de ordem no século XXI e as novas tecnologias estão muito voltadas a essa demanda. Não à toa, cursos na área de informática passaram a incluir o tema Computação Social, uma mescla de comunicação, sociologia, tecnologia da informação, economia e inteligência artifi- cial, entre outras, a fim de estudar o novo cenário. As mídias sociais mudaram a maneira como as pessoas interagem, compartilham, cooperam no trabalho, buscam entretenimento e definem seus hábitos de consumo. As empresas entenderam que os consumidores desejam muito mais do que apenas comprar; a busca pela “experiência do usuário” e por uma relação mais humanizada entre marcas e pessoas alterou o posicionamento mercadológico de empresas de diversos segmentos, mesmo no B2B (business-to- – 24 – Fundamentos da Informática business, empresa para empresa). Outro ponto que marca o chamado social business é a ligação das empresas com questões mais humanas e menos comerciais, tais como participação em questões sociais, proteção ao meio ambiente, produtos sustentáveis e uma postura não-poluente de modo geral, mais preocupada com o bem estar do ser humano. Dois fenômenos comprovam a nova realidade. No ambiente de trabalho, há uma valorização da cooperação para desenvolvimento de soluções e novos produtos, principalmente por meio do open source – a busca por ideias colaborativas para resolver problemas que afetam muitas pessoas, sem altos custos para apenas uma empresa ou indivíduo. A explosão das redes sociais é o outro fator que impactou enormemente as relações. Inicialmente voltadas ao entretenimento e à conexão entre as pessoas, as redes passaram a ter um papel importante também para estreitar o relacionamento entre marcas e consumidores, entre empresas e parceiros ou fornecedores, entre artistas e escritores e seu público. Ou seja, passaram a ter um viés também de marketing. Em comum, todas trouxeram nova dimensão ao conceito de “estar conectado”. As redes que experimentaram maior popularidade ao redor do mundo são Facebook (compartilhamento de conteúdos e fotos para uma rede de amigos reais ou virtuais), Twitter (microblogging com notícias e mensagens de até 140 caracteres), Instagram (fotos), Google+ (semelhante ao Facebook, com conteúdos variados), You Tube (vídeos) e Pinterest (fotos e imagens sobre temas específicos), todas elas com centenas de milhões de usuários, com exceção do Facebook, que em janeiro de 2014 contava com 1,2 bilhão de usuários. Essas e outras centenas de redes se alternam nos rankings de “rede que mais cresce” e sempre há espaço para mais uma novidade, uma nova rede social que atrai a atenção em dado momento. É importante ressaltar que não bastam dados quantitativos – ao longo do tempo, essas redes veem o perfil de seus usuários se alterar, especialmente pela faixa etária. – 25 – História dos computadores Por fim,um elemento importante na Terceira Plataforma é a conver- gência de dados, com a possibilidade de acessar dados, voz e vídeo em um só dispositivo, seja ele um celular, tablet, notebook ou desktop (computador de mesa). Para isso, os programadores desenvolveram o chamado design res- ponsivo – com isso, é possível identificar de qual tipo de aparelho o usuário está se conectando e automaticamente adaptar o visual de um site para as dimensões da tela. O maior impacto da Terceira Plataforma na humanidade vai muito além de uma renovação tecnológica, provocando uma significativa mudança cultu- ral. Fazer coisas antigas de um jeito novo, fazer novas coisas, e agregar veloci- dade e conteúdo estão por trás dessa mudança. Conclusão A história da computação remonta a 3.000 anos antes de Cristo, quando os babilônios criaram o ábaco para fazer contas, passa pela invenção da primeira calculadora, em 1623, e recebe uma longa lista de contribuições de astrônomos, físicos, matemáticos e engenheiros ao longo dos séculos, até chegar ao microchip, base da tecnologia implantada nos computadores do século XXI. Ao conhecer a história dos computadores, nos damos conta de como tantos cientistas, culturas e indústrias diferentes trabalharam com afinco para se livrar da tediosa tarefa de fazer cálculos e operações repetitivas manualmente, mudando completamente o modo de ser e pensar da humanidade. As quatro gerações de computadores – válvula, transistor, circuitos integrados e integração em larga escala com microchips – foram marcadas por grandes invenções que revolucionaram a tecnologia então em uso e ampliaram o conhecimento sobre como as coisas funcionam. Por exemplo, um dos conceitos mais importantes para os profissionais da área de informática é entender a diferença entre dados analógicos e digitais. A partir do momento em que a tecnologia migrou dos centros acadêmi- cos para o mundo corporativo, o cenário mudou de forma acelerada. De lá para cá, três grandes ondas tecnológicas, chamadas de plataformas, marcam a história. A primeira plataforma é quando os mainframes, volumosos e pesados – 26 – Fundamentos da Informática servidores, passaram a ser adotados por grandes corporações na automatiza- ção de seus processos. A segunda plataforma aparece com a popularização dos computadores pessoais e a disseminação da internet. E a terceira plataforma é a revolução na maneira como interagimos com o mundo (educação, entre- tenimento, consumo, informação, relacionamentos pessoais e profissionais, processos de trabalho, lazer), por causa de tecnologias apoiadas em quatro elementos: mobile, cloudcomputing, big data e redes sociais. Compreender a evolução da computação, até chegar aos incríveis avanços conceituais, técnicos e científicos que tornam possível a existência de sofisticados computadores hoje, nos ajuda a pensar em novos usos e buscar novas tecnologias que possam contribuir para facilitar o trabalho e a vida das pessoas. Desde sua concepção e para cálculos balísticos e transmissões de dados sigilosos de estratégias bélicas, ainda em suas primeiras gerações, o computador chegou à esfera civil, sendo empregado ini- cialmente nos diversos controles administrativos das empresas e, com a popularização e consequente redução de preço de revenda, atin- giu, também, os lares das pessoas. Sendo “computador” um termo atrelado aos colossais equipamentos da computação, as máquinas menores em tamanho e capacidade sugeriam novos termos, como minicomputador e, posteriormente, microcomputador, ou simples- mente micro. No Brasil, durante décadas, o termo “micro” foi larga- mente utilizado, porém aos poucos foi abrindo espaço para o mais globalizado PC (Personal Computer – Computador Pessoal), que é o principal objeto de estudo desta obra. 2 Microcomputador – 28 – Fundamentos da Informática 2.1 Computador pessoal Já conhecemos a sigla CPU, oriunda das gerações iniciais dos compu- tadores para designar somente o chip responsável pela tomada de decisões e cálculos da máquina. Com o passar do tempo, o uso do termo foi sendo ampliado e, há alguns anos, é utilizado para se fazer referência ao conjunto de peças que compõem o gabinete de um computador pessoal. Ainda que inade- quado, chamar esse conjunto de peças de unidade central de processamento não é totalmente errado, uma vez que as tarefas que são realizadas com o auxílio do microcomputador acontecem ali, de fato, mediante entrada e saída de dados pelo usuário, por meio de componentes externos de interação, como teclado, mouse e monitor. Sob uma abordagem contemporânea, um computador pessoal típico pode ser dividido em dois grandes grupos: CPU (conjunto de componentes e placas internos) e periféricos (componentes externos à CPU, de interação direta com o usuário). 2.1.1 Componentes internos Entre os diversos componentes que integram a parte interna de um PC, destacam-se: 2 processador – responsável pelo cálculo, processamento, tomada de decisões e manipulação dos dados em geral; 2 memória – responsável pelo armazenamento dos dados, sendo para uso imediato pelo processador ou para arquivamento; 2 placa mãe – integra os componentes internos do computador e as placas controladoras; 2 placas controladoras – responsáveis pela comunicação dos componentes básicos do computador com o exterior – vídeo, som, rede e tantos outros periféricos. 2.1.2 Componentes externos Os componentes externos, denominados periféricos, são responsáveis pela interação direta com o humano. A diversidade desses componentes está – 29 – Microcomputador diretamente relacionada à evolução do uso do equipamento. Se, no princípio, os computadores eram utilizados para cálculos e dados textuais, ao chegar ao cotidiano do consumidor final, o leque de possibilidades aumentou significativamente. Dos processadores de texto aos editores gráficos, ainda nos antigos monitores de fósforo verde, às emissões dos alertas sonoros, tudo se resumia a: gabinete, monitor e teclado. O potencial gráfico aumentou e popularizou a impressora e o scanner; produzir elementos gráficos com o teclado ficou difícil, então, surgiu o mouse. O som passou a ser polifônico e as aplicações multimídia exigiram placas com caixas de som. A revolução da internet e o aumento da velocidade de conexão permitiram uma comunicação que extrapolava as teclas: webcam e microfone passaram a permitir conversas por vídeo. Milhares de equipamentos surgindo não um após o outro, mas vários paralelamente, para ampliar o uso da máquina. Em cada situação, para cada uso específico do computador, haverá um hardware periférico para atender à necessidade. Cada um desses componentes será detalhado em capítulos posteriores desta obra, a fim de consolidar o entendimento daqueles que são os principais responsáveis pela realização de tarefas tão diversas. A figura 1 a seguir apresenta um computador pessoal em configuração típica com alguns desses elementos. Figura 1 – Computador pessoal contemporâneo S hu tt er st oc k. co m /P ok om ed a – 30 – Fundamentos da Informática 2.1.3 Software Ao se estudar hardware é comum surgir uma analogia direta com a palavra “software”, que é empregada para se fazer referência aos programas que são executados pelo computador. Essa analogia é mais do que justa, pois um computador só é útil se for utilizado para realizar uma determinada tarefa, e isso só é possível por meio das instruções de software. Em contrapartida, um aplicativo é desenvolvido exclusivamente para comandar o funcionamento do hardware. Simples assim: um não existe sem o outro. O software que garante o funcionamento básico de um computador é o sistema operacional, e para se realizar uma tarefa específica, como a edição de um texto, utiliza-se um aplicativo. Da teoriapra a prática Pesquise as tendências de computadores pessoais, nos últimos cinco a dez anos, e elabore um texto com a proposta de prever como será o PC dos próximos dez anos, em termos de compo- nentes, periféricos e software. Conclusão Na área da computação, assim como em diversas outras disciplinas das ciências exatas, a descoberta de novos componentes e o desenvolvimento de novos métodos abrem possibilidades que vão além de uma simples evolução. No caso específico dos computadores, houve uma evolução (ou revolução) de antigas máquinas de calcular. As gerações estão intimamente ligadas às descobertas ou ao desenvolvimento de novos componentes, e a obsolescência é algo espantoso: o que ontem era inovador e caro, hoje não passa de lixo tecnológico. Saindo dos laboratórios acadêmicos e do universo bélico para os lares do cidadão comum, os computadores passaram por diversas adequações. A grande variedade de atividades que fazem parte da rotina de uma pessoa carece de equipamentos que vão além de um teclado e de um monitor. A – 31 – Microcomputador criação de novos periféricos, pensando em possibilidades de uso, e a supressão de outros, que deixam de ter importância por mudanças de comportamento e cultura, são elementos constantes no universo dos microcomputadores. 3 Componentes básicos do computador A história dos computadores nos mostra que muitas das coi- sas criadas no passado continuam tendo sua importância nos dias atuais. Um dos maiores exemplos é a arquitetura dos computadores do século XXI, que até hoje tomam por base a Máquina de Von Neumann, criada pelo matemático John von Neumann em 1945. Esse modelo inclui uma Unidade Central de Processamento/CPU (formada por uma unidade lógica aritmética e uma unidade de con- trole), memória e dispositivos de entrada e saída de dados. Os computadores atuais seguem o mesmo princípio de com- posição. A única diferença em relação ao modelo de von Neumann é que hoje o processador (a CPU) reúne em um único microchip as unidades de controle e de lógica e aritmética. Andrew Tanenbaum (Tanenbaum, 2007) afirma que “um computador digital consiste em um sistema interconectado de pro- cessadores, memórias e dispositivos de entrada/saída. – 34 – Fundamentos da Informática A CPU, a memória e a placa-mãe são os componentes principais. Em poucas palavras, a memória tem a função de armazenar os dados. A CPU, conectada à memória por slots, é responsável por buscar os dados, processá- los e depois enviá-los de volta à memória. E a placa-mãe é o canal de comunicação que interliga todos os componentes do computador e permite que eles “conversem” entre si. 3.1 Periféricos (dispositivos de entrada/saída) Periféricos “são os dispositivos usados para fazer a entrada e a saída dos dados que serão processados”, segundo Cruz (Cruz, 1997). Em outras palavras, os periféricos são os componentes que permitem ao usuário interagir com a máquina, fornecendo-lhe instruções para a execução de determinada tarefa e permitindo a visualização e compreensão do resultado dessas tarefas. Assim, por exemplo, o teclado e o mouse servem para inserir dados (periféricos de entrada), que são processados pelo computador e “traduzidos” para que o usuário veja o resultado, por exemplo na tela do monitor ou no papel que sai da impressora (periféricos de saída). Pode-se considerar, portanto, que o termo “periférico” pode ser aplicado a qualquer equipamento acessório que seja conectado ao computador, com uma função definida. 3.1.1 Tipos de periféricos Existem três tipos de periféricos, que variam conforme sua função e forma de utilização. São eles: os periféricos de entrada, os de saída e os de entrada e saída. a. Periféricos de entrada (input): é responsável pela tradução dos códigos utilizados pelos equipamentos em códigos compreensíveis pelo computador. Ou seja, tudo o que alguém utiliza para fornecer informações ao computador para que este execute alguma tarefa. Entre esses periféricos, estão teclado, mouse, microfone, leitor de código de barras, webcam, identificador digital, scanner de mão, leitor de CD/DVD, mesa digitalizadora, joystick e gamepad, entre outros. – 35 – Componentes básicos do computador b. Periféricos de saída (output): é responsável pela “tradução” dos códigos e dados processados pelo computador para que o operador consiga visualizá-los e compreendêlos. Monitor de vídeo, impressora e caixas de som são alguns exemplos. c. Periféricos de entrada e saída (input/output): servem tanto para fornecer dados ao computador quanto para recebê-los. Entre esses periféricos, estão modem, multifuncionais (scanner, copiadora), monitor touchscreen e dispositivos de imagem. 3.2 Memória principal – RAM O termo RAM, do inglês Random Access Memory (Memória de Acesso Aleatório), referese à memória de trabalho com a qual o processador se comu- nica. O termo aleatório quer dizer que a memória poderá ser acessada para operações de gravação e leitura, em qualquer posição. Existem milhares de posições de memória que dependem da capacidade do pente de memória instalado em sua placa-mãe. Para facilitar a compreensão, podemos comparar uma posição de memória em um pente a um apartamento em um prédio. Cada apartamento pode ter apenas um morador (em termos técnicos, um caractere, por exemplo, a letra “A”). O processador poderá, então, dependendo do programa que está executando, inserir um caractere em uma posição de memória (colocar um morador em um apartamento), retirar um caractere de uma posição, substituir um caractere por outro na mesma posição, copiar um caractere de uma posição de memória para outra. Tudo isso tem que ser feito de maneira muito rápida, uma vez que os computadores realizam milhões de acessos à memória enquanto estão executando alguma operação. Um exemplo didático do que a memória do computador é capaz de fazer seria a sequência abaixo: 1. O processador insere o número 1 na posição de memória 002. 2. O processador insere o número 2 na posição de memória 003. 3. O processador lê o número contido na posição de memória 002. – 36 – Fundamentos da Informática 4. O processador lê o número contido na posição de memória 003. 5. O processador soma os números lidos e armazena o resultado na posição de memória 101. 6. O processador insere o número 3 na posição de memória 003. Qual o resultado da soma armazenado na posição de memória 101? Se você respondeu três, acertou. Uma possível resposta, porém errada, seria quatro. Acontece que, embora o conteúdo da posição 003 tenha sido alterado posteriormente, isso em nada alterou o conteúdo armazenado na posição 101, que era o resultado da operação (soma) executada. A memória principal (RAM) não processa. Ela é um repositório de dados, acessada pelo processador. Ela também é volátil, ou seja, se você desligar o computador, todos os dados contidos nela irão se perder. A propósito, há memória que não se perde. Os documentos que digitamos, por exemplo, e ficam armazenados, são de outra natureza. Textos e planilhas, sistema operacional e outros dados persistentes ficam armazenados em dispositivos de memória de massa, como os discos rígidos, conhecidos também como memória secundária. A memória RAM se comunica com o processador (CPU) por meio da placa-mãe, e é a CPU que pode ser considerada o “cérebro” da máquina, sem o qual nada seria possível. 3.3 Unidade Central de Processamento - UCP ou CPU A Unidade Central de Processamento é o principal componente do computador. Ela é mais conhecida por sua sigla em inglês – CPU (Central Processing Unit) – ou simplesmente pelo termo “processador” . Um computador poderá até sobreviver, conceitualmente, sem memória ou mesmo sem uma placa mãe, mas, se não possuir um processador, não pode ser consideradocomo um computador propriamente dito. Talvez seja outro equipamento como um pendrive, mas nunca um computador. O termo computador nos remete ao verbo computar, que quer dizer calcular ou, mais especificamente, executar cálculos e operações próprias de um computador. – 37 – Componentes básicos do computador Ora, se um computador é aquilo que realiza cálculos, logo presumimos que ele precisará ter uma espécie de cérebro eletrônico, ou uma cabeça eletrônica, que possa pensar ao menos o suficiente para resolver os cálculos para os quais foi designado a realizar. A CPU age, então, como o cérebro do computador. Ela tem a função de obter dados ou instruções de algum lugar que, no caso de um computador, é a memória de trabalho (memória RAM); de verificar essas instruções; e depois executá-las, uma após a outra. Mas é bom que se desmistifique o processador – ele não é um elemento mágico que busca as informações e as processa de forma desconhecida. No parágrafo anterior, utilizamos verbos de ação, como obter, verificar e executar. Para cada um desses verbos, existem barramentos e circuitos elétricos e eletrônicos que desempenham e possibilitam a comunicação entre os componentes internos ao próprio processador. Projetar processadores, bem como circuitos eletrônicos e componentes para computadores, como interfaces de vídeo tridimensionais ou modems para acesso a internet,etc., são objetivos de cursos específicos como Engenharia Eletrônica e Engenharia da Computação. Diferentes partes compõem a UCP: Unidade de Controle (UC), Unidade Lógica Aritmética (ULA) e registradores, que são pequenas memórias de alta velocidade. 3.3.1 Unidade de Controle – UC A Unidade de Controle tem a função de obter dados e instruções na memória principal, determinando sua tipologia. Ela é a porta de entrada e saída que o processador usa para comunicar-se, via sinais elétricos, com a memória principal. Por exemplo, se a ULA precisar armazenar o número binário 0012 na posição de memória 0002, ela solicitará à UC que realize tal procedimento. 3.3.2 Unidade Lógica Aritmética – ULA A Unidade Lógica Aritmética efetua diversas operações matemáticas, como adição e subtração, multiplicação e divisão, e de lógica booleana, como o OR (“ou”) booleano. George Boole foi um matemático que definiu, em – 38 – Fundamentos da Informática 1854, os princípios da lógica binária (0 ou 1) seguindo a ideia de que equações matemáticas podem expressar os conceitos da lógica (ex: verdadeiro ou falso). 3.3.3 Registradores Os registradores são pequenas memórias internas dentro do processador, que servem para auxiliá-lo durante as operações, armazenando temporariamente dados que estão sendo utilizados. Se não fossem os registradores, o processador teria muito mais trabalho, pois precisaria acessar a memória principal, que está fora dele. Existem registradores de uso genérico e outros com funções específicas, mas ambos são maneiras mais rápidas para acessar informações que estão sendo processadas, embora tenham menor capacidade de armazenamento que a memória principal. Exemplos de registradores genéricos são AX e BX, usados para armazenar números binários. Um exemplo de registrador específico é o IP (Instruction Pointer), que indica o ponto de referência na memória principal (RAM) que contém a próxima instrução a ser executada. 3.3.4 Executando uma instrução A memória principal armazena dados que serão buscados pela UC (unidade de controle) da CPU e adicionados nos registradores. Em seguida, a ULA realiza operações sobre os dados que estão nos registradores, também armazenando o resultado das operações neles. Por fim, UC copia o valor dos registradores para dentro de um endereço (posição) de memória principal. A enumeração a seguir, denominada comumente de ciclo buscar decodificar executar, representa uma sequência de pequenas fases que são reproduzidas para cada instrução executada pela CPU. 1. Transportar a próxima instrução da memória principal para o registrador. 2. Modificar o ponteiro de instrução (IP), indicando a instrução seguinte. 3. Estabelecer qual é o tipo da instrução transportada. 4. Estabelecer onde a sequência de dados se encontra, caso a instrução – 39 – Componentes básicos do computador utilize uma sequência de dados na memória principal. 5. Transportar a sequência de dados, se necessário, para algum registra- dor da CPU. 6. Executar a instrução. 7. Retornar à fase 1 (isso fará com que se execute a próxima instrução, contida no registrador IP, alterado pela etapa 2). Os processadores não são todos iguais. Alguns são capazes de executar um conjunto maior de instruções do que outros, como veremos a seguir. 3.3.5 RISC versus CISC Ao longo da história, a Apple e a Intel sempre disputaram mercado com os processadores que projetaram. A Intel, de forma geral, lidera essa concorrência, especialmente no que diz respeito aos computadores pessoais, tendo tornado seus processadores Pentium e Celeron muito populares. Existe uma diferença básica entre os dois processadores dessas duas companhias: a quantidade de instruções que eles são capazes de realizar. A Apple utiliza um conjunto reduzido de instruções (RISC), enquanto a Intel utiliza um conjunto complexo de instruções (CISC). Um processador RISC segue a regra de que, internamente, deverá possuir o menor número de microinstruções possível. Por exemplo, ao invés de conter uma instrução para multiplicar (x), basta possuir a instrução de somar (+) e deixar que o programador que queira multiplicar 5x2 realize a operação 2+2+2+2+2. Isso torna a vida do programador mais difícil, pois terá de codificar instruções complexas para alcançar seu objetivo. O programa resultante, porém, ao ser executado, será feito em alta velocidade pelo processador RISC. Um processador CISC segue a regra de que, internamente, deverá possuir vários conjuntos de instruções para realizar diversas operações. Isso significa que ele possuirá tanto a operação de soma (+), quanto a de multiplicação (x). Isso facilita a vida do programador, que terá à sua disposição um leque de instruções prontas de fábrica a fim de alcançar seus objetivos. Não há como definir qual o melhor dos processadores. Alguns autores – 40 – Fundamentos da Informática defendem o RISC como sendo o mais performático e “puro” dos processa- dores; outros defendem que a complexidade trazida pelo CISC facilita a vida dos desenvolvedores. De fato os processadores RISC costumam ser mais rápi- dos que os processadores CISC. Mais rápido nem sempre significa melhor. Os computadores da Apple (Power PC, Imac) não são tão populares no Brasil, mas sim nos EUA. São preferidos quando o assunto é, por exemplo, processamento de vídeo, som e gráfico, realizado por empresas de jogos eletrônicos, maquetes virtuais, etc. Mesmo assim, o processador Intel é o mais popular por seguir uma regra de retrocompatibilidade com programas construídos para outros processadores da mesma marca, mesmo que ultrapassados. Isso significa que um programa feito para um processador Intel 4x86 (antigo) terá grandes chances de ser executado em um Pentium IV (novo). Ter a vantagem de retrocompatibilidade coloca a Intel em posição comercial privilegiada, uma vez que os programadores de sistemas e aplicativos terão menos trabalho, codificarão uma só vez e verão o seu programa funcionar em várias versões futuras da Intel. Conclusão O computador digital consiste em um sistema interconectado de proces- sadores, memórias e dispositivos de entrada/saída, e esse modelo é baseado na arquitetura concebida pelo matemático John von Neumann em 1945. O processador (CPU) é considerado o cérebro do computador, respon- sável por todos os cálculos e operações matemáticas solicitadas pelo usuário e seus programas. Existem diferentesarquiteturas de processamento (RISC e CISC), que permitem a execução de um número menor ou maior de instru- ções, mas cada qual com vantagens e desvantagens. A memória é um componente que tem como função o armazenamento temporário de dados, funcionando como um repositório para programas do usuário e para o próprio processador. Os dispositivos que permitem inserir dados (entrada) e visualizar resulta- dos processados (saída) são chamados de periféricos e possibilitam ao usuário interagir com o computador. 4 Hardware interno do computador O processador é o que se pode considerar como “o cérebro do computador”. Ele é o responsável pela realização dos cálculos e tomada de decisões. Atualmente comercializada na forma de um microchip envolto por silício, é essa peça que define o poder computacional de um microcomputador e, consequentemente, seu custo ao consumidor. – 42 – Fundamentos da Informática 4.1 Processadores Para melhor entender o funcionamento de um processador, é importante resgatar o conceito de processamento de dados, que consiste em: trabalhar um dado de entrada (input) para gerar uma saída (output). O processador recebe dados de entrada e, para criar uma saída, norteia-se por dois princípios básicos: tomada de decisão e manipulação/armazenamento desses dados. Assim, o processador é o principal responsável pelas ações realizadas pelo microcomputador. Em sua forma física, trata-se de um circuito integrado (microchip), ou seja, uma série de componentes eletrônicos interconectados. Esse microchip recebe os dados de entrada através de pulsos elétricos enviados aos seus pinos de conexão e, por meio de milhares de transistores, realiza as operações que lhe são programadas. Veja na figura 1 um processador. Figura 1: Processador. S hu tt er st oc k. co m /P ok om ed a Os pulsos elétricos consistem nos dados representados por meio do sistema binário de numeração e o resultado das operações a eles atribuídas depende do fluxo percorrido pela corrente elétrica através das chamadas portas lógicas. Cada porta lógica requer, no mínimo, um transistor e, combinada a outras, oferece inúmeras possibilidades de manipulação dos dados para geração da saída. Três são as portas lógicas básicas: E, OU e NÃO. Elas formam a base da tomada de decisões em microcomputadores, por meio da álgebra booleana (explicada na seção 4.1.1 deste capítulo). – 43 – Hardware interno do computador 4.1.1 Álgebra Booleana Como já mencionado, a Álgebra Booleana é a base para a tomada de decisões em microcomputadores. Proposta pelo matemático inglês George Boole, em 1847, ela consiste na redução de proposições a símbolos e opera- dores formais que obedecem a regras matemáticas. Uma proposição é uma declarativa afirmativa, da qual tenha sentido afirmar que seja verdadeira ou falsa. Considere a proposição: “A porta é vermelha”. A partir desta declarativa, pode-se afirmar que ela seja verdadeira ou falsa, pois ou a porta é de fato vermelha, ou não é. Novamente, a representação nos computadores digitais é feita por meio de pulsos elétricos: verdadeiro = 1 = presença; falso = 0 = ausência. Proposições simples são chamadas de átomos que, na álgebra booleana, são representados por uma letra do alfabeto latino. A combinação de mais de uma proposição é feita através de conectivos lógicos que, no processador, são resolvidos através das já mencionadas portas lógicas. Sugestão de Leitura BISPO, C. A. F.; CASTANHEIRA, L. B.; SOUZA FILHO, O. M. Introdução à lógica matemática. São Paulo: Cengage Learning, 2012. 4.2 Elementos básicos de um microprocessador Como mencionado no início deste capítulo, um microprocessador é um circuito que integra vários componentes. Esta seção tem como objetivo apresentar esses componentes e suas funções específicas. 4.2.1 Instruções Se, inicialmente, os computadores eram programados por meio da combinação livre de portas lógicas e entrada de dados, processadores mais – 44 – Fundamentos da Informática modernos vêm pré-programados com conjuntos de instruções conhecidas, ou seja, sequências binárias específicas para realização de determinada operação. Estas sequências são chamadas de instruções e devem ser respeitadas na criação de programas, o que faz com que programas escritos para um determinado processador funcionem somente naquele modelo de processador (ou em modelos que possuam o mesmo conjunto de instruções). 4.2.2 Microcódigo, RISC e CISC Com o intuito de fazer o processador realizar tarefas específicas por meio de um conjunto conhecido de instruções, a IBM trouxe para os microprocessadores o conceito de microcódigo, que consistia em blocos pré- programados de conjuntos de instruções para realização destas tarefas. Em 1974, incentivado pelo grande número de ataques de pesquisadores ao uso de microcódigos em processadores, John Cocke fez um estudo e detectou que, de um número grande de instruções dadas a um microprocessador, dois terços delas eram realizadas utilizando apenas 5% das instruções pré- programadas. Com base nos resultados, projetou um computador baseado neste conjunto reduzido de instruções, conhecido como RISC (Reduced Instruction Set Computer – Computador com Conjunto Reduzido de Instruções). Diante disso, os computadores que utilizavam microprocessadores com microcódigos baseados em conjuntos grandes de instruções passaram a ser denominados CISC (Complex Instruction Set Computer – Computador com Conjunto Complexo de Instruções). 4.2.3 Memória e registradores As portas lógicas podem ser combinadas de forma que o processador consiga persistir, ou seja, armazenar dados temporariamente. E, para trabalhar com esses dados, na realização de uma operação de cálculo, por exemplo, é necessário que se saiba onde, e de que forma estão organizados esses dados. Esta é a função dos registradores: manipulação de dados. A quantidade de registradores varia entre processadores, assim como seu tamanho. Quando se diz que um processador trabalha com 64 bits de dados, essa medida refere-se justamente ao tamanho dos seus – 45 – Hardware interno do computador registradores. Quanto maior o tamanho dos registradores, mais rápido será o processador. 4.2.4 Pipelining Arquiteturas de processamento antigas realizavam operações de uma forma simplificada: leitura da instrução da memória, tratamento passo a passo e então leitura da próxima instrução. Já o conceito de pipelining permite que o microprocessador leia uma instrução e, antes mesmo de terminar o seu tratamento passo a passo, realize a leitura da próxima instrução. Arquiteturas de microprocessadores atuais aplicam esse conceito, aumentando significativamente a velocidade, porém tornando o processo complexo e difícil de ser controlado. 4.2.5 Clock Um processador não realiza qualquer tarefa no momento em que recebe estímulo elétrico por meio de seus conectores. Se assim fosse, o processamento seria desordenado, gerando resultados inesperados. Aqui entra o conceito de clock (relógio): envio de pulsos elétricos regulares ao processador, indicando que está na hora do processador realizar a próxima operação. Esses pulsos acontecem de acordo com uma frequência específica, medida em hertz, a qual define a velocidade de realização das operações. Lembrando: 1 hertz = 1 ciclo por segundo e, assim como as outras unidades de medida, também possui seus múltiplos (kilo, mega, giga, ...). Em analogia, um processador que possui clock de 500 MHz (quinhentos mega-hertz) trabalha a uma velocidade de quinhentos milhões de ciclos por segundo. Uma operação pode demandar mais de um ciclo, o que significa que a frequência não é o único fator que define a velocidade de um processador, ainda que seja um dos principais fatores. 4.2.6 Unidade de I/O, Unidadede Controle e Unidade Lógica/Aritmética Por se tratar de um componente delicado, mas que trabalha em velocidades altíssimas, os sinais elétricos trabalhados internamente no processador possuem – 46 – Fundamentos da Informática corrente diferente dos componentes externos. Como função mais básica, a Unidade de I/O (Input/Output – Entrada/Saída) é responsável pela adequação desses sinais, porém as arquiteturas atuais englobam funções de memória cache (veja seção 4.5) e outras funções mais complexas. A conexão do processador com o restante do circuito, através da Uni- dade de I/O, envolve dois conceitos importantes: barramento de endereços e barramento de dados. A quantidade de bits reservada ao barramento de endereços define a quantidade de memória que o processador poderá geren- ciar, enquanto a largura do barramento de dados está relacionada diretamente com a quantidade de dados que poderão ser trafegados entre processador e memória. Maiores detalhes do funcionamento de barramentos são apresen- tados na seção 4.4. A Unidade de Controle (UC) recebe os dados oriundos da Unidade de I/O, formata e os entrega à Unidade Lógica/Aritmética (ULA), respeitando os ciclos de clock. Em arquiteturas mais modernas, pela existência de várias ULAs, é também a UC que faz o roteamento dos sinais para as outras unidades. A Unidade Lógica/Aritmética é responsável pela realização dos cálculos e tomadas de decisões. Ela recebe os dados através da UC e realiza as operações, se necessário modificando os dados dos registradores, para então devolver o dado processado/calculado para a Unidade de I/O. É importante destacar que existem ULAs diferenciadas para tratamento de cálculos com números inteiros e ponto-flutuante. Este último tipo, responsável diretamente por cálculos matemáticos mais elaborados (como funções trigonométricas), em arquiteturas mais antigas aparecia em um circuito separado, conhecido como coprocessador matemático. Pela terceira vez, a sigla CPU é adequada: neste contexto, o conjunto das Unidades de Controle e Lógicas/Aritméticas também é chamado de CPU. 4.3 Histórico e evolução Uma leitura mais atenciosa sobre a evolução dos computadores permite concluir que os processadores são uma evolução e integração de componentes: desde a válvula, passando pelos transístores e chegando ao circuito integrado. Quando se fala em microprocessador, sua origem é unânime: foi inventado – 47 – Hardware interno do computador por Ted Hoff. Ainda quando os computadores pessoais não eram uma realidade, em 1971, Hoff criou um microprocessador de 4 bits para a Intel, que serviria como base para a construção do que estaria por vir: gerações e gerações de microprocessadores. 4.3.1 Primeira geração Com a padronização do byte como sendo a unidade básica de medida de dados digitais, a Intel rapidamente deixou de lado a comercialização do Intel 4004 (4 bits) e, em 1972, apresentou ao mercado o Intel 8008, que operava com registradores de 8 bits. Com a evolução de componentes e aperfeiçoamento de projeto, em 1974 surge o Intel 8080, também com 8 bits, mas com um conjunto maior de instruções. Uma estratégia da Intel na época deu início a um comportamento padrão: todo novo processador que fosse projetado deveria agregar novo conjunto de instruções sempre mantendo (e nunca substituindo) o conjunto de instruções de seu antecessor, para fins de retro compatibilidade, permitindo assim a execução de programas desenvolvidos anteriormente. Somente em 1978, com o lançamento do Intel 8086 (este com 16 bits), é que se pode entender como sendo o início das gerações de microprocessadores, pois foi o primeiro a integrar computadores pessoais. Um ano depois a Intel lançou o Intel 8088, com barramento de dados de 8 bits (isto contribuiu para que o processador ficasse mais barato e fosse o mais vendido da geração), porém mantendo registradores de 16 bits. Os processadores Intel 8088 trabalhavam com velocidades de clock de 8 e 16 MHz. Com algumas melhorias, ainda operando com 16 bits, foram lançados o Intel 80186 e 80188, que integravam alguns circuitos a mais e que facilitariam a montagem de computadores pessoais. 4.3.2 Segunda geração Criado em 1982, porém somente levado ao mercado em 1984, o Intel 80286 marca o início da segunda geração. Com capacidade para endereçar até 16 MB de RAM (Random Access Memory – Memória de Acesso Aleatório, a qual será abordada na seção 4.5) e velocidades que variavam entre 6 e 24 – 48 – Fundamentos da Informática MHz, o processador em si foi um fracasso: o sistema operacional da época (DOS) não conseguia gerenciar mais do que 1 MB de memória, criando um gargalo para as possibilidades que essa nova geração de microprocessadores oferecia. Ainda que frustrante nas possibilidades, os computadores equipados com microprocessadores 286 eram conhecidos como PC-AT (Advanced Technology – Tecnologia Avançada). 4.3.3 Terceira geração Dentre as inovações que marcam a terceira geração de microproces- sadores, uma merece destaque: tanto endereçamento quanto barramento de dados de 32 bits. Com esta capacidade, era possível o gerenciamento de até 4 GB de RAM (232 = 4.294.967.296), e o mais importante: desta vez haviam sistemas operacionais preparados para fazer uso deste potencial. O processador mais vendido desta geração foi o Intel 80386, posteriormente batizado de 386DX, com o lançamento de uma versão mais econômica que trabalhava com 16 bits de barramento de dados. S denotando o uso de single words e D para double words (medidas vistas no início deste capítulo). Outra grande vantagem desta arquitetura era a possibilidade de execução de vários programas simultâneos, através do uso do modo Virtual 8086, recurso bastante aproveitado pelos sistemas operacionais da época e que a geração anterior não permitia. Nesta geração, emergem as fabricantes de processadores com os mesmos conjuntos de instruções, alguns obtidos através de engenharia reversa com os 386 da Intel, representando grande concorrência. Dentre elas a AMD e a Cyrix. 4.3.4 Quarta geração As melhorias técnicas que marcam a quarta geração de microproces- sadores não foram tão substanciais. As três principais visavam aumento de velocidade: a inclusão de memória cache nível 1 (isto será melhor detalhado na seção 4.5), reduzindo o gargalo proveniente de sistemas lentos de memória; implementação de pipelining para aumentar a eficiência com baixas velocidades de clock; e a adoção de unidades de ponto-flutuante. As terminologias SX e DX da geração anterior também eram utilizadas, ainda que não tivessem mais nada a ver com a capacidade do barramento. Os microprocessadores 486-SX não implementavam unidade de ponto-flutuante (presentes nos DX). – 49 – Hardware interno do computador Com estas melhorias, testes comparativos evidenciavam que os processadores 486 eram, em geral, duas vezes mais rápidos do que os 386. Por exemplo: um 486-DX de 20 MHz operava com a mesma velocidade de um 386-DX 40 MHz. O sucesso da Intel na comercialização de microprocessadores era tão grande que a concorrência a levava junto com suas concorrentes aos tribunais. E a briga por circuitos melhores e mais rápidos apresentou ao mercado microprocessadores 486 de até 120 MHz. 4.3.5 Quinta geração O que difere a quinta geração das quatro anteriores é o uso de arquitetura superescalar: uso de múltiplos pipelines e adoção híbrida de instruções RISC e CISC. Por questões de registro e projeção da marca, todos os microprocessadores Intel a partir da quinta geração trazem de alguma forma o nome Pentium em seus modelos. Enquanto isso, as concorrentes apresentam o número 5 na formação de nomes como AM5x86. Ainda nesta geração a Intel lança processador com instruções específicas para processamento de funções multimídia: Intel Pentium
Compartilhar