Baixe o app para aproveitar ainda mais
Prévia do material em texto
Fundação Biblioteca Nacional ISBN 978-65-5821-083-2 9 786558 210832 MARCOS FELICIO M A RCOS FELICIO INTEGRAÇÃO COM PUTACIONA L DE HA RDW A RE E SOFTW A RE Código Logístico I000159 Integração Computacional de Hardware e Software Marcos Felicio IESDE BRASIL 2021 © 2021 – IESDE BRASIL S/A. É proibida a reprodução, mesmo parcial, por qualquer processo, sem autorização por escrito do autor e do detentor dos direitos autorais. Projeto de capa: IESDE BRASIL S/A Todos os direitos reservados. IESDE BRASIL S/A. Al. Dr. Carlos de Carvalho, 1.482. CEP: 80730-200 Batel – Curitiba – PR 0800 708 88 88 – www.iesde.com.br CIP-BRASIL. CATALOGAÇÃO NA PUBLICAÇÃO SINDICATO NACIONAL DOS EDITORES DE LIVROS, RJ F349i Felicio, Marcos Integração computacional de hardware e software / Marcos Felicio. - 1. ed. - Curitiba [PR] : Iesde, 2021. 74 p. : il. Inclui bibliografia ISBN 978-65-5821-083-2 1. Tecnologia da informação. 2. Software. 3. Computadores - Equipa- mento e acessórios. 4. Computadores - Equipamento de entrada e saída. 5. Sistemas de informação gerencial. 6. Tecnologia - História. 7. Cultura organi- zacional. I. Título. 21-73377 CDD: 004 CDU: 004 Marcos Felicio Mestre em Arquitetura de Sistemas pelo Centre d’excellence sur l’architecture, le management et l’économie des systèmes francês. MBA em Gerenciamento de Projetos pela Faculdade de Informática e Administração Paulista (Fiap). Bacharel em Sistemas de Informação pela Faculdade Módulo Paulista (FMP). Na área acadêmica, possui experiência como professor de pós-graduação no Instituto Israelita de Ensino e Pesquisa Albert Einstein (IIEP), lugar em que ministra a disciplina de Automação da Infraestrutura Hospitalar, além de produzir material didático para cursos nas modalidades presencial e a distância. Na área empresarial, tem mais de 27 anos de experiência, atuando como arquiteto de soluções regional para a América do Sul no segmento de buildings na multinacional francesa Schneider Electric. SUMÁRIO Agora é possível acessar os vídeos do livro por meio de QR codes (códigos de barras) presentes no início de cada seção de capítulo. Acesse os vídeos automaticamente, direcionando a câmera fotográ�ca de seu smartphone ou tablet para o QR code. Em alguns dispositivos é necessário ter instalado um leitor de QR code, que pode ser adquirido gratuitamente em lojas de aplicativos. Vídeos em QR code! SUMÁRIO Agora é possível acessar os vídeos do livro por meio de QR codes (códigos de barras) presentes no início de cada seção de capítulo. Acesse os vídeos automaticamente, direcionando a câmera fotográ�ca de seu smartphone ou tablet para o QR code. Em alguns dispositivos é necessário ter instalado um leitor de QR code, que pode ser adquirido gratuitamente em lojas de aplicativos. Vídeos em QR code! 1 Informática: sua origem e evolução 9 1.1 Origens e histórico dos computadores 9 1.2 Evolução do software 19 1.3 Conceitos básicos de sistemas 24 1.4 Hardware 25 1.5 Software 29 1.6 Tipos de armazenamento de dados 40 2 Fundamentos da computação 44 2.1 Sistemas computacionais 44 3 Sistemas: fundamentos e importância 53 3.1 Teoria geral dos sistemas (TGS) 53 3.2 Fundamentos de sistemas 54 3.3 Fundamentos da Tecnologia da Informação (TI) 56 3.4 O papel da informação 58 4 Sistemas podem salvar organizações 61 4.1 Cultura organizacional e sistemas de informação 61 4.2 Vantagens dos sistemas de informação nas organizações 63 4.3 Classificação dos sistemas de informação 64 5 Resolução das atividades 72 Com esta obra você terá a oportunidade de entrar na história da tecnologia, sendo conduzido desde as primeiras concepções lógico-matemáticas até os softwares que auxiliam na tomada de decisão atualmente nas companhias. Também será provocado em cada capítulo a se colocar no lugar de profissionais de Tecnologia da Informação (TI) de várias áreas, com uma pequena amostra de onde poderá atuar e/ou o que encaram os colegas com os quais deverá interagir. Este livro foi preparado com a intenção de mostrar a base dos principais itens que compõem os Sistemas de Informação, mostrando o que são, como surgiram, quais componentes fazem parte deles e como podem ser utilizados pelos protagonistas no apoio às organizações. O Capítulo 1, um pouco mais extenso, apresenta a história de hardwares e softwares, apontando os elementos principais dos computadores. O Capítulo 2 mostra como os computadores fazem uso do mix entre a eletrônica e as bases numéricas para transformar sinais binários em sistemas. O Capítulo 3 detalha exatamente o que são os sistemas, para que nos capítulos 4 e 5 seja abordado como as empresas fazem uso real da tecnologia da informação para obter os resultados necessários à competitividade do mundo moderno. O estudo é indicado àqueles que pretendem aprender ou consolidar seus conhecimentos sobre a integração computacional de hardware e software, tão necessários no mundo competitivo atual. Bons estudos! APRESENTAÇÃO Vídeo Informática: sua origem e evolução 9 1 Informática: sua origem e evolução Com o estudo deste capítulo, você será capaz de: • conhecer os principais estágios da história dos computadores; • compreender a história e a classificação dos softwares; • saber as partes nas quais se divide um computador; • conhecer algumas linguagens de programação. Objetivos de aprendizagem 1.1 Origens e histórico dos computadores Vídeo Quem vai trabalhar com sistemas de informação ou programação ou apenas gosta de tecnologia deve conhecer o desenrolar da história da área até aqui, bem como os principais impulsionadores de uma ino- vação e os seus ilustres inventores. Este capítulo tem a modesta intenção de conduzi-lo na história, so- bressaltando inventos ou ideias que revolucionaram as suas épocas e nos afetam até os dias de hoje. Espero que este texto te provoque alguns pensamentos, como “ah... então, é daí que vem isso?” ou “puxa, acho que todos deveriam conhecer essa pessoa”. Boa leitura! 1.1.1 “Uma guerra sempre avança a tecnologia...” Quando Renato Russo, vocalista da banda Legião urbana, declara, em uma de suas músicas, que “uma guerra sempre avança a tecnologia, mesmo sendo guerra santa, quente, morna ou fria” (A CANÇÃO..., 1985), sua intenção é evidentemente fazer um protesto; porém, a letra da can- ção também aponta para uma realidade histórica interessante. Nath Teles Destacar 10 Integração Computacional de Hardware e Software Veja: você provavelmente está utilizando um dispositivo para acompanhar esta obra, o qual teve a sua criação ou o seu desenvolvi- mento promovido ou acelerado com intenções militares. Por um lado, nós pacifistas vemos esse fato com tristeza; por outro, tiramos proveito desses avanços. Agora, convido você a relembrar algumas tecnolo- gias, principalmente relacionadas à informática, que foram aceleradas com fins militares. Criptografia É impossível coordenar uma estratégia sem haver comunicação. Sabe-se que desde que o ser humano passou a viver em sociedade, imediatamente nasceram as desavenças, que terminavam em batalhas. Quanto maiores se tornavam os conflitos, maior era a necessidade de comunicação entre as tropas. E não importava o meio, sempre havia uma forma de interceptar as transmissões de “comandos”. É aí que o engenho humano se mostrou, mais uma vez, inventivo. Sabendo que as mensagens poderiam ser interceptadas, surge o conceito da criptografia, que é a arte ou o processo de escrever em ca- racteres secretos ou cifras. Seja no passado ou na atualidade, sempre tivemos os gênios capazes de cifrar uma ordem, de modo que somente quem tiver a “chave” possa lê-la. O problema é que o outro lado tam- bém pode contar com gênios para reverter o que foi cifrado. Um dos casos mais emblemáticos mexeu significativamente não só nas tecno- logias de informação, como também na história do mundo. Já ouviu falar na máquina de Turing? Essacriação foi vital para a derrota dos ale- mães na Segunda Guerra Mundial. Ainda falaremos mais sobre Turing, mas, por ora, saiba que a criptografia gerada para coordenar ataques de guerra é largamente utilizada nos sistemas de informações atuais. GPS Já teve a curiosidade de se imaginar a bordo de uma das caravelas por- tuguesas que singravam os mares na busca pelas especiarias das Índias, no século XVI, apenas com bússolas, astrolábios e mapas mal-elaborados? Atualmente, é difícil até ir ao supermercado sem utilizar o maravilhoso Sistema de Posicionamento Global disponibilizado no celular. O Global Position System, chamado apenas pela sua sigla, GPS, foi inventado nos Estados Unidos, no ano de 1970, com a intenção de substituir os sistemas de navegação imprecisos que existiam até aquele Purplexsu/Shutterstock Nath Teles Destacar Informática: sua origem e evolução 11 momento. GPS até pode ser o nome do dispositivo utilizado para receber as coordenadas de geolocalização, mas estas são enviadas por satélites que giram em órbita da Terra. Se ao menos três mensagens de localiza- ção, data e hora chegarem ao seu dispositivo, este será capaz de execu- tar a triangulação necessária para indicar em que ponto do planeta você está. Quem desenvolveu esse sistema foi o Departamento de Defesa dos Estados Unidos da América (EUA), utilizando inicialmente 24 satélites. Hoje é impossível pensar na tecnologia da informação (TI) sem o uso de satélites. Inclusive, pode ser que você até esteja utilizando um link de internet via satélite para ler esta obra. Transistor Talvez você tenha jogado batalha naval algum dia e saiba exata- mente a dificuldade existente em acertar um alvo em cheio; esse jogo é uma simulação das muitas formas de se tentar traçar a trajetória certeira de um projétil. Muito antes das batalhas navais utilizando ca- nhões, esse desafio já se apresentava no lançamento de rochas, fle- chas, catapultas e outros armamentos para os quais se necessita de habilidade, pontaria e treino. Isso até que alguém, em algum período do tempo, entendeu que se poderia utilizar cálculos para melhorar a pontaria dos projéteis; então, os nerds entraram na guerra. O uso de matemática trouxe uma vantagem imensa às batalhas, tornando indispensável que cálculos fossem executados cada vez mais rapidamente – a velocidade poderia ser a diferença entre a vitória e a derrota. Máquinas calculadoras foram surgindo e, apesar de no princí- pio serem mecânicas controladas pela força humana, foram evoluindo para dispositivos eletromecânicos, para os quais era a eletricidade que definia os movimentos de partida e parada. O componente que exe- cuta essa ação, o transistor, foi inventado em 1947, nos Laboratórios Bell, que era um “braço” da American Telephone and Telegraph, a ain- da presente AT&T. Praticamente tudo o que você vê da eletrônica atual utiliza milhares de transistores. 1.1.2 Desde as réguas de cálculo até o primeiro PC Mas evidentemente que não é só de beligerância que vive a inova- ção, não é verdade? O famoso ditado que diz “a necessidade é a mãe da invenção” tem total razão e respaldo na história. Você já se imaginou Butus/Shutterstock 12 Integração Computacional de Hardware e Software tendo que executar um projeto sem ter um computador para te auxi- liar? Façamos esse exercício em conjunto, viajando no tempo para o século XVII. Nessa viagem, vemo-nos encarregados de executar contas a serviço do rei; para essa tarefa, teremos inúmeros cálculos para efe- tuar, mas com prazos curtos. Adições, subtrações, divisões e multiplicações são cálculos necessá- rios para definir a safra, calcular impostos, mensurar estoques, dividir terras, realizar provisão de recursos para a defesa etc. O ábaco, inventa- do provavelmente na Mesopotâmia, é uma ferramenta largamente uti- lizada por todos os encarregados de apresentar as contas necessárias ao controle do reino. No entanto, esse dispositivo, que é excelente para contas simples, tem as suas limitações quando a complexidade aumenta. Caso o reino precise fazer um empréstimo financeiro, por exemplo, com o uso de juros compostos, a coisa começa a complicar, certo? Outros problemas poderiam ser desafiadores se nos fosse pe- dido para encontrar a raiz quadrada de um número ou, então, para resolver casos em que a trigonometria fosse necessária. Não sei quanto a você, mas ainda bem que foi só um exercício de imaginação, pois eu não gostaria de “estar na pele” desse sujeito, tendo que dar respostas complexas apenas com um ábaco. Aqui, no futuro, nós estamos bem, mas o pessoal da época continuava com o proble- ma, e foi de olho nesse incremento relevante da busca por formas mais rápidas de se chegar aos resultados matemáticos que o físico escocês John Napier descobriu e tabelou os logaritmos (sim, logaritmos foram inventados e tabelados). Ele passou 20 anos da sua vida fazendo as contas e tomando notas dos resultados em uma tabela que é utiliza- da até hoje. Ainda nas três primeiras décadas de 1600, Henry Briggs, Edmund Gunter e Reverend Willian Oughtred aproveitaram a tabela e criaram a ferramenta que proporcionou um impulso gigantesco na tecnologia: a régua de cálculo. A régua de cálculo A régua de cálculo é um dispositivo bem parecido com as nossas ré- guas comuns de medição escolar, porém com muitos campos a mais e uma parte móvel. Em posse de uma dessas, muitos profissionais de enge- nharia, finanças, ciências e outras áreas podiam reduzir seu tempo de cál- culo – exatamente como fazemos hoje com nossos computadores. “Como assim?”, você deve estar se perguntando, e eu vou tentar te explicar. Informática: sua origem e evolução 13 Veja a seguir: De maneira prática, as réguas de cálculo contavam com várias ca- madas nomeadas por letras (A, B, BI, CI, S’, C, D, S, ST, P), e cada uma dessas letras representava um tipo de cálculo. Utilizamos as linhas A e B, por exemplo, para executar multiplicações e divisões, enquanto, na linha D, podemos encontrar a raiz quadrada de um número. Pouco depois da invenção das réguas de cálculo, em 1642, um jo- vem francês chamado Blaise Pascal inventou a Pascalina. Pascalina Foi com a intenção de ajudar o pai, um matemático famoso à épo- ca, que um jovem francês inventou a primeira máquina de calcular. Blaise Pascal teve a ideia de criar um dispositivo que pudesse ace- lerar os cálculos nos quais o pai estava envolvido, e assim concebeu a primeira máquina de calcular da história. Chamada carinhosamente de Pascalina, tratava-se de um aparelho mecânico de seis rodas denta- das, cada uma com algarismos de 0 a 9, e com ela se podia somar três parcelas de uma vez até o valor de 999.999. Ela ainda existe e pode ser vista no museu do Conservatoire des Arts Métiers em Paris. Gottfried Leibniz Trinta anos depois, em 1671, o matemático alemão Gottfried Leibniz incrementou a Pascalina, adicionando ao aparelho a capacidade de multiplicar e dividir. Porém, Leibniz, que era contemporâneo de Isaac Newton, não ficou famoso apenas pelo upgrade da calculadora de Pascal. Foi dele, tam- bém, a concepção das ideias de cálculo diferencial e integral. Apesar de Newton e Leibniz trabalharem na mesma área, com projetos matemá- ticos independentes, a notação de Leibniz passou a ser a mais utilizada. As calculadoras foram seguindo o seu compasso mecânico até que, em 1939, George Stibitz, cientista dos Laboratórios Bell, apresentou o primeiro relay. Gu st av o Vi le la V ar ga s/ W ik im ed ia C om m on s 14 Integração Computacional de Hardware e Software Relay O primeiro relay ou relê era um dispositivo eletrome- cânico que ativava ou desativava um circuito mediante a passagem de energia. Considerados os precursores dos transistores, os relês, apesar de revolucionários, tinham como limitação o seu tamanho excessivo, os preços relati- vamente caros e a lentidão ao desativar os circuitos, supe- rando a casa dos milésimos de segundo. Mesmo sendo limitados, os relês eramfascinantes e tornaram possível a criação do calculador de números complexos (CNC), ou Complex Number Calculator. Complex Number Calculator Em 1940, George Stibitz e Samuel Williams, colegas nos Laboratórios Bell, construíram o Complex Number Calculator (CNC), considerado o precursor do computador digital. O CNC foi apresentado à Sociedade Matemática Americana naquele mesmo ano, com um pouco a mais de inovação – a apresentação aconteceu em New Hampshire e o resultado pôde ser visto em Nova York. Stibitz surpreendeu o grupo de matemá- ticos ao realizar cálculos no CNC, e o resultado foi impresso por meio de linhas telefônicas, a 450 km dali – esse é, provavelmente, o primeiro exemplo de computação de acesso remoto. ENIAC No dia 7 de dezembro de 1941, o inesperado ataque da aviação ja- ponesa contra Pearl Harbor precipitava a entrada dos Estados Unidos na Segunda Guerra, sendo uma virada decisiva para um conflito que se tornou mundial. O exército dos EUA entrou com tudo na batalha, e todo o conhecimento dos cientistas, físicos e matemáticos foi utilizado para encontrar formas de amplificar o poderio bélico. Em 1942, o físico John Mauchly propôs uma máquina de calcular totalmente eletrônica, ao mesmo tempo que as forças armadas pre- cisavam calcular tabelas balísticas complexas. Quando a necessidade encontrou a solução, o resultado foi o ENIAC, que significa Electronic Numerical Integrator And Computer, construído entre 1943 e 1945 – ele foi o primeiro computador de grande escala a funcionar em velocidade Fouad A. Saad/Shutterstock eletrônica, sem ser retardado por nenhuma parte mecânica. Por uma década, até a queda de um raio em 1955, o ENIAC pode ter feito mais cálculos do que toda a humanidade havia feito até aquele momento. Ele foi essencial para inúmeras batalhas; quando a guerra acabou, a prosperidade voltou e, com ela, uma expansão sem precedente histó- rico ocorreu, de modo a trazer muito mais usos para esses cérebros eletrônicos, dando início a era dos computadores pessoais. Computador pessoal A história contada até aqui, a qual podemos chamar de primeira ge- ração de computadores, foi, em sua grande maioria, caracterizada pela utilização dos tubos de vácuo. Com o advento do transistor, inicia-se o que denominamos de se- gunda geração, a qual era mais confiável. Ela teve início em 1951, com a chegada do primeiro computador digital de múltiplo propósito, o Universal Automatic Computer I (UNIVAC I) ou, em português, Compu- tador Automático Universal, fabricado pela Eckert-Mauchly Computer Corporation. Dois anos mais tarde, a International Business Machine (IBM) lança as séries 650 e 700. Essa geração de computadores ficou marcada por ter sido prolífera no surgimento de diversas linguagens de programação, pela diminuição do custo na construção dos computado- res e pela redução dos consumos de energia. A terceira geração surgiu com o advento dos circuitos integrados. Um simples circuito integrado continha mais transistores, capacitores e re- sistores do que todo um circuito da geração anterior. Essa capacidade per- mitiu não só uma incrível redução do tamanho, mas também um aumento da capacidade e confiabilidade dos computadores. É nessa geração que surge o conceito de executar múltiplos programas ao mesmo tempo. Já a quarta geração ficou conhecida como a geração dos computa- dores pessoais. Novamente, a IBM apresentou, em 1981, o Personal Computer (PC) e, desde então, as pessoas puderam pagar para ter, em sua própria casa, uma máquina para uso doméstico. Na sequência, em 1984, a Apple, empresa criada por Steve Jobs, introduziu o famoso Macintosh, com a sua interface de ícones sendo acionados por mouse. Por fim, a quinta e atual geração ocorre a partir do método de inte- gração em larga escala, o Ultra Large Scale Integration (ULSI), por meio do qual se consegue concentrar mais de dez milhões de componentes ele- trônicos em um simples chip. Esse avanço do processo de manufatura automatizado promove a construção de milhões de dispositivos por ano. Everett Collection/Shutterstock Nath Teles Destacar 16 Integração Computacional de Hardware e Software 1.1.3 Desde o primeiro CLP até a Indústria 4.0 Quando o homem deixou de ser caçador coletor para se dedicar à agricultura, acelerou-se a necessidade do uso de ferramentas que au- mentassem a produtividade. O termo tecnologia é a soma dos radicais gregos tekhno, de tékhnē – arte, artesanato, indústria, ciência –, e logía, de lógos – linguagem, proposição – (CUNHA, 1986), ou, como eu gosto de dizer, o estudo de técnicas novas para se fazer algo. Você já parou para pensar que os primeiros humanos que deixaram a vida nômade e começaram a arar a terra para plantar se depararam com uma inconveniente realidade cheia de desafios? Imagine-se, agora mesmo, parado em frente a um campo coberto com vegetação rasteira, ótimo para plantar; a dimensão do campo é pequena, comparada a de um campo de futebol. Imaginou? Então, pense que você precisa remover toda essa vegetação rasteira com as mãos. Complicado, né? A enxada deve ter sido a tecnologia mais pre- miada nos congressos da época. A necessidade humana de ferramentas nunca mais teve fim. Para produzi-las como as vemos hoje, a indústria passou, até agora, por qua- tro grandes revoluções, as quais veremos a seguir. Primeira revolução industrial O motor a vapor A adoção de animais no auxílio de tarefas mais pesadas aconteceu logo após a decisão do ser humano de abandonar a vida nômade e se dedicar à agricultura. Cavalos e bois foram largamente empregados para tarefas de vários portes, mas principalmente para aquelas rela- cionadas ao uso da força. Não é à toa que utilizamos Horse Power (HP) – ou força equivalente a um cavalo – como unidade para definir o quão potente é um motor. A primeira revolução (de 1760 a 1820) ocorre exa- tamente a partir do momento em que os motores, inicialmente mo- vidos a vapor ou à água, passam a ser utilizados no lugar de animais. Segunda revolução industrial Ford e eletricidade No período entre 1871 e 1914, com o avanço nas comunicações, proporcionado pela invenção do telégrafo e das ferrovias, o translado de pessoas e principalmente de ideias teve um incremento considerá- Nath Teles Destacar Nath Teles Destacar Nath Teles Destacar vel, permitindo novas formas de se ver um problema de produção. O método diferenciado de produzir, inventado por Henry Ford, mudou completamente a maneira como a indústria trabalhava até aquele mo- mento. O fordismo, como ficou conhecido, introduziu a produção em massa por meio da especialização da mão de obra, da padronização da produção e do uso de máquinas. Essas máquinas, em muitos casos, passaram a ser impulsionadas pela eletricidade, sendo esta uma nova fonte de energia que alavancou a indústria a um novo patamar. Terceira revolução industrial Revolução digital Com o fim da Segunda Guerra Mundial, uma explosão do consumo aconteceu, forçando a indústria a buscar novas formas de produzir em maior quantidade, mais rápido e com custos me- nores. Esse período, que não por coincidência começa com a in- venção dos relays e dos transistores, é conhecido como revolução digital. Se, no campo da informática, os computadores passaram a fazer parte da vida das pessoas, na área industrial os processos passaram a ser realizados por controladores lógicos programáveis (CLPs), ou programmable logic controller (PLCs) em inglês. O pri- meiro CLP foi inventado por Dick Morley para a General Motors em 1968. Desde então, não há uma manufatura automatizada, incluindo o uso de robôs, que não conte com um CLP embarcado. Quarta revolução industrial Indústria 4.0 Fábricas automatizadas sendo controladas por CLPs que coman- dam braços robóticos, por meio de decisões tomadas com base em sensores e parâmetros predefinidos, é o que caracterizou a revolução digital. Mas, então, o que pode ser mais avançado do que isso? Pois bem. A quarta revolução industrialestá ocorrendo diante dos nossos olhos desde o momento em que a internet passou a fazer parte da vida das fábricas. Desse modo, termos como Industrial Internet of Things (IIoT), ou internet de dispositivos indus- triais, Machine to Machine (M2M), ou comuni- cação de máquinas entre máquinas, e Machine Learning (ML), ou aprendizado de máquinas, são a chave para entender a quarta revolução. Ro m an B el og or od ov l/S hu tte rs to ck Suwin/Shutterstock Informática: sua origem e evoluçãoInformática: sua origem e evolução 1717 Industrial Internet of Things Assim como pessoas se utilizam da internet para trocar informa- ções, armazenar dados e aproveitar recursos que a nuvem pode pro- ver, os dispositivos industriais também usam essas vantagens com as mesmas intenções. Uma vez conectado à internet, um dispositivo pode ter uma programação específica para realizar determinada tarefa, fornecer ou consumir dados da nuvem, fazer autoverificações e alertar mau funcionamento. Quando identificamos essas características, dize- mos que esse dispositivo pertence à categoria de IIoT. Machine to Machine Quando um CLP conversa com outro CLP, ele consome dados da internet, usa informações de dispositivos IIoT, troca dados com o ERP da fábrica, monitora o estado de uma máquina, verifica o processo de entrada de matéria-prima e identifica avanços ou atrasos em outros processos da cadeia produtiva, com pouca ou nenhuma interferência humana. Portanto, estamos descrevendo uma conversa que ocorre de uma máquina para outra. Machine Learning Não é difícil imaginar que, se tivermos milhares de dispositivos fornecendo dados o tempo todo sobre um determinado processo in- dustrial, a quantidade de informação será monstruosa e praticamente inutilizada no caso de ser analisada por uma pessoa, não é verdade? Inspiring/Shutterstock Phonlamai Photo/Shutterstock 1818 Integração Computacional de Hardware e SoftwareIntegração Computacional de Hardware e Software Logo, a quarta revolução só pôde existir após o surgi- mento de formas para se analisar esses dados, as quais utilizassem recursos computacionais capazes de classi- ficar, organizar e identificar desvios de padrão existen- tes em milhares de conjuntos de dados. Esses recursos computacionais filtram as informações irrelevantes e apresentam apenas aquelas que foram identificadas como “desvios” a uma pessoa – normalmente, um espe- cialista, que valida ou não o desvio. Com essas entradas de validação ou bloqueio humano, a máquina passa a aprender e, após a intervenção, vai melhorando o algo- rítmico de avaliação do que é considerado um desvio. Muitos outros termos ainda contribuíram para a revolução industrial 4.0, como: inteligência artificial e Big Data. Citei mais dois apenas para te instigar a buscar mais informações e, quem sabe, te induzir a ser um profissional da quarta revolução da indústria. 1.2 Evolução do software Vídeo Ada Lovelace Talvez você não tenha ouvido falar em Ada Lovelace e é até compreensível, mas com certeza ficará orgulhoso dela. Já passamos por vários estágios da construção do que chamamos hoje de computadores. Tive que tentar escolher, entre muitas peças importantes desse grande quebra-cabeça, aquelas que realmente po- deriam fazer com que você compreendesse como se deu a evolução da régua de cálculo até os PCs. Confesso que, nesse processo, pulei de propósito a máquina analítica. Essa máquina, imaginada por volta de 1837 pelo professor de matemática e pioneiro da ciência da com- putação Charles Babbage, tinha a intenção de executar cálculos mate- máticos complexos de maneira mecânica. O grande diferencial estava, curiosamente, no sequenciamento de instruções necessário para exe- cutar os cálculos. É nesse contexto que entra a nossa heroína. Ada Lovelace era filha do filósofo Lorde Byron com a matemática Annabelle Byron. Como o pai não era um exemplo de marido, pouco após o nascimento de Ada, a mãe se separou e criou a filha sozinha. Sen- do uma matemática talentosa, Annabelle criou a menina no mundo dos Informática: sua origem e evoluçãoInformática: sua origem e evolução 1919 L ib or P íš ka /S hu tte rs to ck Nath Teles Destacar 20 Integração Computacional de Hardware e Software números. Já adulta, ela se destacou muito, a ponto de Charles Babbage reconhecer nela alguém com intelecto de mesmo nível, de modo que começaram a trabalhar juntos imediatamente. Ada é reconhecida principalmente por ter escrito o primeiro algoritmo para ser processado por uma máquina, sendo, portanto, a primeira pessoa da história conhecida como programadora. Babbage ainda instigou Ada a escrever um artigo sobre suas teorias de programa- ção, e esse documento foi utilizado 100 anos depois por outro persona- gem da história da TI, Alan Turing. A máquina de Turing Como já mencionado, a criptografia foi uma artimanha largamente utilizada em períodos de guerra e, na maioria das vezes, o seu uso foi intensificado à sua máxima potência. O exército alemão, utilizando-se de uma máquina cifradora chamada Enigma, codificava as mensagens transmitidas por rádio às suas unidades, de maneira que estas, em posse de instruções claras, conseguiam executar ataques coordenados e letais às forças aliadas. Esses ataques poderiam ter sido evitados caso se soubesse o segredo para decodificar as mensagens. O problema é que a Enigma não tinha esse nome à toa; o código era tão complexo que se levava muito tempo para descobrir as “ordens do dia”. Quando os especialistas em cifras conseguiam quebrar o código para ler as mensa- gens, um novo código já estava disponível para coordenar mais ataques. Para tentar quebrar a criptografia, foi necessária a colaboração daquele que hoje é reverenciado como o “pai da computação”, Alan Turing. A invenção da famo- sa calculadora eletromecânica, conhecida como Bomb (Bomba), incrementou a capacidade de decifração dos códigos da Enigma. Com o poder de interpretar as ordens cifradas, Bomb mudou o destino do mundo, equilibrando a disputa em favor dos aliados. Mas Tu- ring não ficou famoso somente pela criação de Bomb; muito se deve a ele nos campos da inteligência artificial e, também, por ter sido ele quem resgatou e mostrou ao mundo o algoritmo de Ada Lovelace, escrito 100 anos antes. neftali/Shutterstock Informática: sua origem e evolução 21 O aparelho de Turing, utilizando-se da ideia de Ada, era capaz de manipular símbolos em uma fita, de acordo com uma série de regras, para guardar informações. Ter um conjunto de símbolos e números para transmitir as instru- ções desejadas a um computador é exatamente a função das lingua- gens de programação. Algumas são muito próximas da compreensão humana, as quais chamamos de linguagens de alto nível, e outras bem menos inteligíveis, como o Assembler. Linguagens de programação Com o desenvolvimento dos computadores, em 1949 surgiu a lin- guagem Assembler ou Assembly, que exigia um grande esforço inte- lectual do programador e era muito sujeita a erros. Ela consistia em utilizar um comando em substituição a cada instrução de máquina; na Assembly, cada uma dessas instruções equivale a uma instrução do pro- cessador. Em 1954, a IBM apresentou uma maneira mais “inteligível” de se programar: o Fortran – nome que deriva de Formula Translation. No começo, esta linguagem tinha a intenção de traduzir equações científi- cas para códigos de computadores; depois, foi evoluindo e chegou à sua última versão em 2010. Nas décadas de 1970 e 1980, o Fortran inspirou dois matemáticos da Universidade de Dartmouth, nos Estados Unidos, John Kemeny e Thomas Kurtz, a provocar uma evolução considerável da programação; eles deram origem a uma linguagem que poderia ser utilizada por iniciantes, no mundo da instrução em código, podendo, ainda, ser usada para qualquer propósito: Beginner’s All-purpose Sym- bolic Instruction Code (Basic). A evolução da linguagem, entretanto, não poderia levar em consi- deração apenasa simplicidade de se programar. Os anos 1970 eram complicados devido à crescente necessidade de novos cálculos, no- vos computadores e novos softwares, e os custos de memória e pro- cessamento estavam nas alturas. Era preciso que, além de alto nível, uma linguagem de programação conseguisse ser simples no uso, mas com grande poder de comunicação em linguagem de máquina para economizar os caríssimos bytes da época. Foi para suprir essa lacuna que, em 1972, o engenheiro Dennis Ritchie concebeu a Linguagem C, para ser usada no desenvolvimento do sistema operacional Unix nos Laboratórios Bell – na época, perten- cia a AT&T, mas hoje faz parte da Alcatel-Lucent. As linguagens foram 22 Integração Computacional de Hardware e Software se tornando mais poderosas, assim como os computadores. Na década de 1980, alguns desses cérebros eletrônicos receberam o status de su- percomputadores, como foi o caso do Deep Blue da IBM. O poder e o problema do Deep Blue Imagine que você é o gerente de marketing de um supercompu- tador, tentando encontrar um desafio à altura do poder de 256 coprocessadores capazes de analisar aproximadamente 200 milhões de posições por segundo. Imaginou? Pois bem, esse deve ter sido um desafio interessante para o responsável pela publicidade do Deep Blue, o poderoso “monstro” de calcular da IBM na década de 1990. A fórmula descoberta para testar o seu poderio computacional foi o convite feito ao campeão mundial de xadrez da época, Garry Kasparov. A ideia era mostrar ao mundo o quanto as linguagens de programação, somadas à capacidade computacional, estavam próximas do intelecto humano. Os programadores imputaram na base de dados do computador mais de 700 mil partidas de mestres e grandes mestres, e o resultado foi a vitória da máquina sobre o homem. A derrota de Kasparov significava que os computadores chegaram ao mesmo nível que o cérebro do homem? Longe disso. A conclusão foi a de que, com uma ótima capacidade de processamento e uma pro- gramação bem definida, um supercomputador podia fazer jogadas de xadrez, resumidamente matemáticas, muito bem. Caso fosse necessá rio utilizar o Deep Blue para uma partida, por exemplo, de gamão, os programadores teriam que começar tudo de novo. Mas é aí que está a beleza da tecnologia. Barreiras foram quebradas e desafios foram cumpridos, provando que o homem, agora apoiado em uma linguagem de programação e munido de um enorme poder de calcular, poderia ir muito além do que sonhara Ada Lovelace, Babbage e Turing. Ficaria, então, esse poder todo restrito apenas a um único computador? O surgimento da internet Caso tentemos encontrar alguém que tenha idealizado a internet sozinho, acredito que teremos dificuldades, pois a concepção dessa se deu na soma de diversas participações de grandes inventores. Veja, se pensarmos que o grande Nikola Tesla, com a sua incrível ideia de um mundo sem fios ou world wireless system fosse o progenitor da rede, estaríamos sendo injustos com o pensador visionário Paul Otlet, que Ja m es th e ph ot og ra ph er /W ik im ed ia C om m on s gamão: jogo de tabuleiro para dois jogadores, realizado em um caminho unidimensional. Glossário Informática: sua origem e evolução 23 propôs, em 1930, a criação da World City ou Cité Mondiale. A World City foi uma visão utópica de uma cidade que seria como uma exposição universal, a qual reuniria todas as principais instituições do mundo. Em 1960, J.C.R. Licklider formulou a ideia de uma rede global, a qual bati- zou de Intergalactic Computer Network – da primeira e da última palavra é que vem o termo internet. Ainda assim, mesmo com a junção de pequenas ideias que esses e outros gênios do século XX aportaram à criação da internet, nenhum deles foi tão efetivo quanto Tim Berner- s-Lee. O físico inglês propôs, em 1989, um projeto baseado no conceito de hipertexto, para facilitar a partilha e a atualização de informações entre os pesquisadores da Organização Europeia para a Pesquisa Nu- clear (CERN). Nascia ali a rede mundial de computadores, que atual- mente nos permite conectar com pessoas, máquinas e coisas. Inteligência artificial e Machine Learning Inteligência artificial é a teoria e o desenvolvimento de sistemas computacionais capazes de realizar tarefas que normalmente reque- rem inteligência humana, como percepção visual, reconhecimento de fala, tomada de decisão e tradução entre idiomas – isso segundo o di- cionário de Oxford (2021). Mas ela pode ser muito melhor explicada se você já ouviu, ao ligar para a sua operadora de telefonia, uma voz, do outro lado da linha, dizendo “olá, já vi aqui de que número que você está ligando; se você quer atendimento para esse número, pressione 1”, a voz do seu GPS perguntando se ainda há um radar naquela posição ou, ainda, a Alexa, em sua casa, citando quais são as suas tarefas do dia. A humanidade sempre teve o desejo de ter alguém que possa fa- zer as suas tarefas mais repetitivas e aborrecidas. Gregos, chineses e egípcios deixaram vestígios desse desejo em dezenas de autômatos que foram descobertos pela arqueologia. A evolução dos softwares chegou a esse grau de sofisticação, e hoje já é possível dispor de secre- tárias eletrônicas embarcadas em smartphones, carros e residências para executar as tarefas cotidianas. Com essa capacidade de aprender com os dados e as ações que vão sendo solicitados, essas inteligências artificiais vão aprimorando os resultados. Esse “aprender”, também chamado de Machine Learning (ML), vai nos acompanhar daqui para frente, sem previsão de limites. Nath Teles Destacar Nath Teles Destacar Nath Teles Destacar 24 Integração Computacional de Hardware e Software A ponto de despertar a preocupação de muitos e de instigar a ficção, quem leu Isaac Asimov, assistiu ao filme RoboCop ou maratonou a série Black Mirror na Netflix sabe do que estamos falando. Alan Turing (sim, ele de novo) foi o primeiro a questionar se uma máquina conseguiria evoluir tanto a ponto de nos confundir com relação a se estamos falando com um humano; para testar, criou um método que até hoje é utilizado para avaliar a precisão da inteligência artificial: o teste de Turing. Meu conselho é: deixe a ficção de lado e se concentre no real. A inteligência artificial será a interface entre homens e máquinas, e isso só traz pontos positivos. Apesar de parecer tudo muito avançado, esta- mos apenas engatinhando nessa área, e talvez esse seja um campo de desenvolvimento que você poderá trilhar com muito sucesso. 1.3 Conceitos básicos de sistemas Vídeo Segundo o Dicionário Etimológico Online (ONLINE..., 2021, tradução nossa), a palavra ware, entre outras coisas, significa: “‘bens manufaturados, artigo de mercadoria’, inglês antigo waru” e, também, “proteção, guarda”, sendo, portanto, “objeto de cuidado, para manter algo bem protegido”. Hardware e software Se fosse para realizar uma tradução livre dessas duas palavras, eu as interpretaria da seguinte maneira: Aquilo que contém partes físicas (que podem ser tocadas). HARDWARE Aquilo que contém partes lógicas (que não se pode tocar). SOFTWARE Veremos, a seguir, um pouco mais sobre cada um desses itens. 1.4 Hardware Vídeo Agora que você já tem a definição das palavras, iremos conhecer um pouco do que é o hardware e de como ele chegou até os dias atuais, tendo em vista que já visitamos uma série de inventos que foram to- mando corpo do que chamamos hoje de computadores. Nath Teles Destacar O primeiro computador pessoal considerado um sucesso de vendas em massa foi o Macintosh, produzido e comercializado pela Apple de Steve Jobs a partir de 1984. Esse computador pessoal já dispunha dos principais hardwares com os quais estamos acostumados hoje. Vamos, agora, abordar os itens mais relevantes. Placa-mãe Para construir um carro, as peças precisam ser fixadas em uma estrutura principal chamada chassis. Pense na placa-mãe exatamente como sendo a peça estrutural principal de umcomputador, em que podemos conectar todos os outros dispositivos. Processador O processador é a parte responsável por realizar os cálculos matemáticos necessários para praticamente todos os processos computacionais. Memórias O computador, assim como nós, possui dois tipos de memórias: as de acesso rápido e curto espaço e as de acesso mais demorado, entre- tanto com grande capacidade de armazenamento. Para provar que a sua memória também funciona assim, proponho o seguinte desafio: leia o número 76367253831 e guarde-o na memó- ria; depois, feche os olhos e repita o número. Caso eu peça amanhã que repita esse mesmo numeral, existe uma grande chance de você não conseguir repeti-lo, certo? Pois bem, isso significa que não temos memória o suficiente para armazenar esse número? Claro que não; você é capaz de repetir o seu número de CPF agora mesmo e com uma certa tranquilidade. A bs ce nt /S hu tte rs to ck Informática: sua origem e evoluçãoInformática: sua origem e evolução 2525 26 Integração Computacional de Hardware e Software Mas o que aconteceu, então? Você armazenou o 76367253831 na sua memória de acesso rápido. O problema é que ela é usada o tempo todo e precisa ser “esvaziada” para ser utilizada novamente. Para que uma lembrança fique guardada para sempre na outra memória, aquela de longa duração, é preciso que você faça o processo de “save” que a natureza nos proporcionou: dormir. Exato! Para que as informações aprendidas em um dia sejam “guardadas” de maneira definitiva, você precisa dormir; é dormindo que o conteúdo da memória rápida é transferido para a duradoura. Nos computadores, a memória de acesso rápido, mas de pouco espaço, é conhecida como memória RAM ou random access memory (em português, memória de acesso aleatório). Enquanto isso, as me- mórias de acesso mais lento, porém com grande poder de armaze- namento, podem ser conhecidas como HD (hard drive ou disco de armazenamento), memory stick (aquele que chamamos de pendrive, por exemplo) ou SD card, o qual utilizamos para aumentar a capacidade de armazenamento de nossos celulares. Multimídia Os sons que ouvimos nos computadores e as imagens projetadas nos monitores são processados por áreas específicas destinadas a essas tarefas. Processar um som pode parecer algo simples, mas não é. O pri- meiro a captar e reproduzir som na história foi Thomas Edison (aquele da lâmpada elétrica), com o seu fonógrafo, em 1877. E se já é compli- cado armazenar e reproduzir ruídos, imagine imagens. Pois foi o mesmo Edison que, em 1891, apresentou ao mundo o cinetoscópio, um instrumento de projeção interna de filmes. Desde então, arma- zenar e reproduzir sons e imagens passou a fazer parte de nossas vidas e dos computadores. Mas se para reproduzir sons as placas-mãe atuais são autossufi- cientes, o mesmo não se pode dizer do processamento de imagens. Não é possível rodar o GTA 1 sem utilizar uma placa adicional com alto poder de execução. Morph art Creation/Shutterstock Famoso jogo eletrônico de ação e aventura, mas não aconselhável para menores. 1 Informática: sua origem e evolução 27 Periféricos Tendo a placa-mãe centralizado os principais itens em um só invólu- cro, ao qual se habituou chamar de central de processamento unificada (CPU), tudo aquilo que tivermos no entorno ou na periferia definimos como periféricos. Eles podem ser vários, mas os principais são o tecla- do, o mouse, a impressora e a câmera. 1.4.1 Dispositivos de entrada e saída A interação entre o homem e a máquina deverá evoluir para a inteli- gência artificial ou até mesmo para o uso de recursos biônicos, em que os sinais de partes do nosso corpo poderão ser capturados e traduzidos em sinais para os computadores. Entretanto, hoje ainda dependemos de dois dispositivos de entrada muito comuns: o teclado e o mouse. A história do teclado QWERTY Talvez você não tenha sido apresentado a uma máquina de escrever, mas se, de uma forma hipotética, colocássemos uma delas à sua frente, certamente saltaria aos seus olhos algo bem familiar: a organização das teclas. A ordem das letras – que aparece até no teclado virtual do seu celular –, iniciando-se em QWERTY, foi aproveitada quando surgiram os primeiros computadores. A mão de obra treinada na época foi aprovei- tada, de modo que os datilógrafos – “do Latim DATILOS, ‘dedo’, mais o G. GRAPHOS, ‘escrita’” (ORIGEM..., 2021) – não teriam nenhuma dificul- dade em se adaptar. Então, por que as máquinas de escrever tinham essa formação de letras em vez de usar a ordem alfabética? Tentarei explicar. Na máqui- na de escrever, quando uma tecla era acionada, uma aleta metálica contendo a letra desejada na ponta servia de carimbo na folha de papel ao passar por uma fita de tinta. Para escrever uma palavra, várias aletas eram acionadas, com diferenças de milissegundos entre uma e a próxima. Com o teclado organizado em ordem alfabética, era muito comum que as aletas se en- ganchassem diversas vezes em uma única frase, tornando o trabalho moroso e irritante. O inventor americano Christopher Latham Sholes Jonathan Weiss/Shutterstock 28 Integração Computacional de Hardware e Software analisou quais letras, nas palavras americanas, eram as mais utilizadas e quais eram as menos. Em seguida, fez um rearranjo e apresentou ao mundo o formato que é replicado em qualquer dispositivo hoje que necessite de entrada de dados escritos 2 . A história do mouse Apesar de o Macintosh ter sido o primeiro PC a ser vendido em mas- sa, a noção de computador pessoal recebeu contribuições de inúmeras companhias. Uma delas merece destaque por ter contribuído com o conceito de ícones organizados em janelas: a Xerox (sim, aquela mes- ma das máquinas de fotocópias). Antes da inovação de se ter ícones representando aplicativos que se abrem após um clique, o acesso aos programas funcionava pela digi- tação de comandos no teclado. Caso você quisesse abrir um aplicativo para escrita, por exemplo, digitaria na linha de comando algo como Nome-Do-Aplicativo.exe e, em alguns segundos, estaria escrevendo o seu texto. Acontece que, com a quantidade de aplicativos crescendo de maneira exponencial, guardar o nome de cada aplicação passou a ser algo complicado. Logo, surgiu o conceito de organização em “janelas” (em inglês, windows), em que ícones representavam o aplicativo dese- jado. Essa nova forma foi apresentada ao mundo pela empresa Xerox na década de 1970. Foi revolucionário, mas ainda não era perfeito, afi- nal o conceito facilitava a organização, porém dificultava o uso apenas do teclado. Esse desconforto deu espaço para a inovação do mouse. O primeiro mouse comercial foi oferecido ao mercado pela Telefunken e se tratava de um dispositivo que possuía uma “bola deslizante” – rollkugel em alemão, nome dado por seu criador Douglas Engelbart –, que registrava as coordenadas X e Y do cursor e as representava na tela. A ideia de ícones organizados em janelas, sendo acionadas por uma re- presentação lógica, gerada por meio do elemento físico mouse, definiu o conceito principal da interação homem-máquina, o qual foi replicado por todos os outros fabricantes de software que vieram depois. Os mouses atuais sofreram poucas alterações, como a troca da bola deslizante por um laser óptico e a perda da cauda – item que lhe confe- riu o apelido de mouse, por se parecer com um camundongo com rabo –, tornando-se “sem fio”. Fora essas duas transformações, os mouses permaneceram até hoje com a sua utilidade de ser os “dedos virtuais” Não se pode esque- cer que o inventor do protótipo da máquina de escrever foi o padre brasi- leiro paraibano Francisco João de Azevedo, que, no Brasil, é amplamente reconhecido. “Sua notável invenção era um móvel de jacarandá equipado com teclado de dezesseis tipos e pedal, de aparência de um piano. Cada tecla de sua máquina acionava uma haste comprida com uma letra na ponta. Combinando-se duas ou mais teclas era possível reproduzir todoo alfabe- to, além dos outros sinais ortográficos. O pedal servia para o datilógrafo mudar de linha no papel. A máquina era um suces- so por onde passava e em uma exposição do Rio de Janeiro, em 1861, na presença do imperador Pedro II, o padre recebeu uma medalha de ouro dos juízes em reconhecimento a seu projeto revolucioná- rio” (HISTÓRIA..., 2021). 2 Nor Gal/Shutterstock Informática: sua origem e evolução 29 do operador. As teclas touch screen e os comandos por voz ameaçam esse conceito, mas possivelmente o bom e velho “ratinho” ainda terá uma ou até duas décadas pela frente. O que seria dos youtubers sem os periféricos Teclado e mouse são os principais dispositivos de entrada de dados para um computador, mas existem outros. O reconhecimento biométrico em que se pode utilizar as digitais, os olhos ou o formato do rosto, por exemplo, também é uma forma de se trazer informações para dentro do computador, assim como as câmeras que capturam a imagem e a reproduzem internamente. Já os dispositivos de saída são aqueles que fazem o caminho inverso, pegando dados do computador e levando-os para fora – é o caso do monitor e das impressoras, por exemplo. Para saber o quanto os dispositivos de entrada e saída são importantes, tente imaginar como seria a vida de um youtuber sem todos esses recursos interligados em um processo só. 1.5 Software Vídeo Segundo o dicionário Houaiss (2018), software é um “conjunto de componentes lógicos de um computador ou sistema de processamen- to de dados; programa, rotina ou conjunto de instruções que contro- lam o funcionamento de um computador; suporte lógico”. Além dessa definição, o verbete poderia incluir, na explicação, que estamos cercados de softwares por todos os lados. Pense em um dispositivo qualquer utilizado hoje em dia – não precisa ser os óbvios celulares, as smart TVs, os smartwatches e os Ipads. Podemos nos direcionar para os normalmente invisíveis, como controles de se- máforo, painéis de comando dos veículos, controles de cafeteira ou micro-ondas, pois todos esses se utilizam de softwares para funcionar. Praticamente, nenhum ou quase nenhum produto oferecido hoje no mercado não conta ou não passou pelo uso de programação lógica. Como já falamos sobre a relevância de Ada Lovelace e Alan Turing, vamos trabalhar, agora, os acontecimentos mais recentes, para que você possa compreender melhor essa importante categoria da informática. 30 Integração Computacional de Hardware e Software Do Pong ao Minecraft Sabe-se que os computadores foram produzidos devido à urgência em aumentar a capacidade de processamento de cálculos necessários para a resolução de conflitos, em sua maioria bélicos. Mas, em tempos de paz, os computadores puderam ser utilizados para outras finalida- des, sendo uma delas considerada maravilhosa: os videogames. Estudantes do Massachusetts Institute of Technology (MIT) criaram, em 1962, um dos primeiros jogos de computador, inspirado em his- tórias de ficção científica: Spacewar. O jogo logo se espalhou entre os pesquisadores, porém só podia ser jogado nos computadores de grande porte das universidades. Quando os microchips chegaram, em 1970, barateando o custo dos computadores utilizados para jogos, despertou-se também o interesse por parte dos programadores de software de se dedicarem à arte do entretenimento. Mas não se engane; não há diferenças entre a progra- mação para os jogos ou para a construção de uma estação espacial. As habilidades necessárias para a criação de um são exatamente as mesmas para a construção do outro. Os primeiros programadores a realmente ganhar dinheiro com a pro- dução de software para jogos foram Nolan Bushnell e Ted Dabney, que fundaram a Atari, empresa criadora do Pong, o primeiro videojogo a fazer sucesso comercial e abrir as portas para uma indústria bilionária, empregando milhares de programadores mundo afora. O campeão de vendas Minecraft, ótimo jogo para crianças, vendeu sozinho mais de 200 milhões de cópias. Além disso, é bem provável que o responsável pela gestão financeira da Atari tenha utilizado muito as planilhas eletrô- nicas que estavam aparecendo na época – uma delas o VisiCalc. Do VisiCalc ao Excel Uma vez que os computadores saíram do universo acadêmico mi- litar e passaram a fazer parte da vida das pessoas, fica fácil imaginar que os softwares criados para facilitar as tarefas diárias começaram a aparecer aos montes – até porque os trabalhos repetitivos, que consu- miam e consomem ainda muito tempo da vida dos profissionais, são muitos. Controlar fluxos de caixa, gerir pagamentos, organizar esto- ques, controlar as vendas etc. são alguns dos exemplos em que o uso Informática: sua origem e evolução 31 de planilhas eletrônicas é altamente indicado. A ideia de um aluno de Harvard, o Daniel Bricklin, de utilizar computadores para a execução de planilhas deu origem ao VisiCalc, softwa- re com essa característica. O VisiCalc só perdeu sua posição quando, em 1983, a Lotus Corporation apresentou um progra- ma integrado que, além de planilhas, gerava gráficos e tratava dados como uma ferramenta de base de dados. O Lotus 1-2-3 foi o pacote integrado de softwares que dominou o mercado. Em 1985, após visualizar o poder que os pacotes de software possuíam, Bill Gates, fundador da Microsoft, apresenta ao mun- do o seu conjunto de programas, em que figurava a planilha eletrônica Excel, a qual venceu todos os outros concorrentes e mantém um mono- pólio até hoje. Hello, World! Como vimos, os softwares, juntamente com os hardwares, foram crescendo e entrando na vida das pessoas para nunca mais sair. Os profissionais que ambicionam entrar para esse seleto grupo de pessoas que fizeram a diferença e impulsionaram os avanços tecnoló- gicos até aqui têm muito em comum, pois avistaram na necessidade uma forma de inovar. Todos esses indivíduos passaram por diversos desafios ao criar seus softwares, e não é por acaso que existe uma certa “tradição” entre os programadores, a qual exige que o primeiro programa feito em uma linguagem nova deva ser uma mensagem de saudação, a famosa “Hello World!” ou “Olá, mundo!” se preferir. E aí? Já fez o seu “Hello, World!” em alguma linguagem de programação? 1.5.1 Classificação de software Os softwares podem ser classificados de maneira genérica, olhando de modo mais simplista e dividindo em dois tipos: básicos e aplicativos. Aqueles voltados ao básico, em que se busca o controle dos itens físicos do computador, gerando as condições necessárias para a operação; é o caso dos sistemas operacionais e dos drivers de hardware. Básicos Aqueles que têm funções específicas destinadas a apoiar os usuários em tarefas cotidianas; por exemplo, editores de texto, planilhas eletrônicas, edição de áudio, vídeo, desenho etc. Aplicativos Ti nx i/S hu tte rs to ck 32 Integração Computacional de Hardware e Software Entretanto, essa maneira simplista pode não exprimir de uma forma adequada todos os modelos. Logo, devemos classificar os softwares com um pouco mais de critério, como listado a seguir. Figura 1 Classificação dos softwares Coleção de programas escritos para fornecer serviços a outros programas. Software de sistema Programas stand-alone (que rodam sem internet ou outros recursos em rede), que resolvem um problema de negócio específico. Software de aplicativo Programas focados em grandes processamentos numéricos, como astronomia, biologia molecular e outras áreas com essa característica. Software de engenharia (científico) Programas contidos dentro de um produto ou sistema e usados para controlar o equipamento e fornecer funcionalidades ao usuário final. Software embutido Programas focados em rede, abrangendo muitas aplicações acessadas por um navegador a partir de computadores e dispositivos móveis. Aplicações web Programas que usam algoritmos não numéricos para resolver problemas complexos que podem ser resolvidos por técnicas convencionais de computação.Software de inteligência artificial Software projetado para fornecer capacidades específicas para serem utilizadas por diferentes consumidores. Por exemplo, o Microsoft Office provê ferramentas de uma linha de produtos que são usadas massivamente por diversas áreas do mercado. Software para linha de produtos Fonte: Adaptado de Pressman, 2014. De todos os softwares citados, é preciso que você entenda bem o conceito de software aplicativo, pois existe uma grande chance de ele ser a sua porta de entrada no mundo da programação. Informática: sua origem e evolução 33 1.5.2 Software aplicativo Como mencionado, um software aplicativo deve oferecer um serviço ao usuário final, e este serviço pode ser de uso geral, como os tradicio- nais Word, Excel, Corel Draw, Photoshop etc. ou de uso específico. Há, ainda, os softwares aplicativos feitos sob medida para uma determina- da empresa, com a intenção de controlar estoques, produção, clientes, recursos financeiros, vendas, entre outros. 1.5.3 Customização e personalização de software A decisão entre comprar um programa ou contratar alguém para produzir algo sob medida é tão complicada quanto a de ir a uma loja para comprar aquela roupa que foi produzida pensando na média do brasileiro ou contratar um costureiro que produzirá uma roupa com as suas medidas. A customização ou personalização tem suas vanta- gens e desvantagens. Se você está contratando um profissional para desenvolver um software feito sob medida, certamente receberá um produto bem próximo do que precisa, entretanto deverá desembolsar um valor maior que a média e terá que aguardar um período maior para poder utilizar o programa contratado. Além do mais, se você for o contratado, tenha em mente que deverá entregar um produto que compense o fato de ter sido escolhido para a tarefa. Prepare-se para isso, utilizando-se de metodologias adequa- das para ouvir o seu cliente, entender o que ele precisa, considerar todos os envolvidos e colocar a mão na massa. Uma das tarefas mais importantes do trabalho na construção de um software personalizado está na escolha de qual linguagem de programação utilizar. 1.5.4 Linguagens de programação Já comentamos sobre o Assembler – uma linguagem que possibilitou aos programadores sair das fórmulas matemáticas para um linguajar um pouco mais compreensível que o das máquinas –, entendendo que o Basic trouxe essa conversa para ainda mais próximo de nós. Mas como se parecem essas linguagens? 34 Integração Computacional de Hardware e Software Veja, a seguir, alguns exemplos. Portugol Comecemos por uma pseudolinguagem criada com fins acadêmi- cos para ensinar programação por meio do uso da mistura da língua portuguesa com algoritmos. O problema pede que o programador desenvolva um algoritmo para somar dois valores inteiros, por exemplo: 10 + 5. Início inteiro: x,y,z; //Declara três variáveis inteiras x <− 10; //atribui 10 para a variável x y <− 5; //atribui 5 para a variável y z <− x + y; //soma x e y, o resultado é z Fim BASIC Um programa em Basic tem, normalmente, suas linhas numeradas com valores de 10 em 10, com o objetivo de facilitar a introdução de linhas intermediárias caso necessário. 10 A=10 //atribui 10 para a variável A 15 A=A+5 //soma 5 a variável A 20 PRINT A //mostra na tela o valor de A Linguagem C Um programa em C é composto por um conjunto de funções. A função pela qual o programa começa a ser executado chama-se main. Após cada comando em C, deve-se colocar um ponto e vírgula (;). Além disso, um programa em C deve ser identado (organizado por tab ou espaços) para que possa ser lido com mais facilidade. void main() { int a; // declara a variável “a” como inteiro a = 10 + 5; // soma 10 com 5 } Informática: sua origem e evolução 35 Linguagem C++ A primeira pergunta que todos fazem ao se deparar com C e C++ é: qual a diferença entre essas linguagens? De maneira genérica, C é uma linguagem mais poderosa, por estar mais próxima da lingua- gem de máquinas; portanto, é mais rápida. O problema está quando o programa se torna mais complexo, pois o programador deverá tomar cuidado com as entradas e saídas para não provocar os crashes e as telas azuis, que são causados pela má gestão das interrupções. Já C++ tem um maior controle de inputs e outputs (I/O); logo, reduz os riscos desse tipo de erro. Outra característica importante é que C++ trabalha com orientação a objetos, tema que veremos um pouco mais à frente. #include <stdio.h> //Declaração de biblioteca #include <conio.h> //Declaração de biblioteca main() { float a,b,s; //Declara 3 variáveis float printf(“digite um numero a”); //Mostra texto scanf(“%f”,&a); //Captura entrada do teclado printf(“digite um numero b”); //Mostra texto scanf(“%f”,&b); //Captura entrada do teclado s=(a+B); //Soma printf(“ a soma é= %f”,s); //Mostra texto getch(): //Aguarda uma tecla } Java Java é o nome da marca de café, produzida na ilha homônima, que era a predileta dos programadores que inventaram a linguagem. Apesar de ter uma estrutura semelhante à linguagem C, de onde é derivado, o Java se assemelha bastante à C++ por ser, também, orientado a objetos. Porém, diferentemente da C e da C++, o Java conta com um conceito de execução diferente, em que o código-fonte é pré-compilado em uma estrutura chamada de bytecode. O bytecode precisa de uma máquina virtual Java para ser executado. 36 Integração Computacional de Hardware e Software public class Numero { public static void main(String args[]) { /* Método principal */ double x,y; // estes sao numeros reais de dupla precisao // System.out.print(“x = 2.0”); /* inicializando o “x” */ x = 2; y = 3.0; /* iniciando o y, e fazendo y = y+x; */ y = y + x; // escrevendo a soma System.out.println(“x+y = “ + (x+y)); } } /* fim de Numero */ JavaScript Antes de você se confundir, vamos explicar a diferença. Como mencionado, no Java escrevemos um código e este é pré-compilado no formato bytecode; então, utilizamos uma máqui- na virtual Java para executar o programa. Assim, o JavaScript é uma linguagem de programação criada para dar dinamismo às páginas de internet, logo a programação feita será executada pelos navegadores de internet. Não sem razão, essa linguagem foi construída pelo mesmo criador do browser Mozilla, Brendan Eich. Em seguida, observe um exemplo de script que gera um relógio em tempo real em uma página web. <script type=”text/javascript”> function startTime() { var today=new Date(); var h=today.getHours(); var m=today.getMinutes(); var s=today.getSeconds(); // add a zero in front of numbers<10 m=checkTime(m); s=checkTime(s); document.getElementById(‘txt’).innerHTML=h+”:”+m+”:”+s; t=setTimeout(‘startTime()’,500); (Continua) Informática: sua origem e evolução 37 } function checkTime(i) { if (i<10) { i=”0” + i; } return i; } </script> <div id=”txt”> <script type=”text/javascript”>document. write(startTime())</script> </div> PHP Outra linguagem produzida para dar mais recursos ao simplificado HTML das páginas de internet foi o PHP – o acrônimo já responde a essa vocação, já que PHP é abreviação de Personal Home Page. Ela foi criada por Rasmus Lerdorf com o intuito de incluir utilidades, como contagens de acesso de visitantes e outros itens que facilitam a operação de sites. <!DOCTYPE HTML> <html> <head> <title>Exemplo</title> </head> <body> <?php echo “Olá, eu sou um script PHP!”; ?> </body> </html> 38 Integração Computacional de Hardware e Software Python Python é uma linguagem de uso geral muito utilizada em Data Science, Machine Learning, desenvolvimento de web, desenvolvimento de aplicativos, automação de scripts e outros. def Soma1aN(N): if N==1: return(1) else: return (N+Soma1aN(N-1)) # note-se a ativação recursiva # Uso da função N=int(input(‘Entre com o valor de N: ‘)) print(‘A soma de 1 a’, N, ‘é’, Soma1aN(N)) 1.5.5Sistemas operacionais Quando estudamos a classificação dos softwares, mencionamos aqueles que são a base para a utilização dos computadores, isto é, os responsáveis por preparar cada elemento de uma máquina em seus itens mais básicos, como o gerenciamento de memória, o processamento, as entradas e as saídas. Os primeiros Operating Systems (OS) datam de 1960, produzidos para os grandes computadores da IBM. Logo, os que veremos a seguir foram preparados para atender ao mercado de PC. Microsoft Basic O computador pessoal começou, por volta da década de 1970, ape- nas como um hobby. O Altair 8800, por exemplo, tido como o responsável pelo sucesso dos computadores pessoais, iniciou sendo oferecido ao mercado como um kit montagem. Esse PC nem tinha tanta utilidade assim, até que Paul Allen e Bill Gates tiveram a ideia de portar o Basic para dentro do aparelho, e a fagulha virou um “incêndio”. Os fabricantes do Altair se prepara- ram para vender algumas centenas, mas os pedidos chegavam aos milhares. Com o Microsoft Basic incorporado, os “hobbys- tas” podiam, agora, criar os seus próprios programas. Na esteira do Altair 8800, outra empresa ficou co- nhecida por fabricar computadores pessoais, a Apple. A empresa de Steve Jobs apresentou ao mercado o Anton_Ivanov/Shutterstock Informática: sua origem e evolução 39 Apple II, e este sim veio com um sistema operacional de verdade, cha- mado de Disk Operating System (DOS). Esse PC fez tanto sucesso que cha- mou atenção da grande IBM, que só vendia os computadores gigantes, instigando-os a lançar no mercado o PC-IBM, que também precisava de um sistema operacional. Foi quando William Gates II fez uma recomenda- ção para os advogados e outros responsáveis pela IBM quanto à empresa de seu filho, a Microsoft, já conhecida por portar o Basic para o Altair e por desenvolver alguns programas para Apple II. MS-DOS O lobby do pai funcionou e a IBM contratou a Microsoft para desenvolver um sistema operacional para o PC-IBM. Acontece que Bill Gates e seus sócios não tinham o produto esperado, mas tinham sor- te, pois uma empresa de nome Seattle Computers havia desenvolvido um sistema operacional e estava disposta a vendê-lo. Feitos a compra e alguns ajustes, o mundo conheceu o MS-DOS. Este sistema opera- cional da Microsoft passou a ser utilizado por todos os PC-IBM e as suas réplicas piratas. MacOS Após visitas ao centro de pesquisas da Xerox, Steve Jobs voltou “ins- pirado” e assumiu pessoalmente um projeto interno da Apple, chama- do de Macintosh (posteriormente, conhecido como MacOs Classic). Tratava-se de um revolucionário sistema operacional, que possuía uma interface homem-máquina incrível, com ícones organizados em janelas e acionados por um novo dispositivo de entrada: o mouse. Durante o lançamento do MacOS, muitas empresas foram convida- das a produzir aplicativos para esse novo sistema operacional, dentre elas a Microsoft de Bill Gates. Windows As primeiras versões do Windows nem eram sistemas ope- racionais, mas sim interfaces gráficas rodando sobre o MS-DOS. O primeiro a ser realmente um SO foi o Windows NT. Devido à concorrência das muitas réplicas do PC-IBM, os custos foram re- duzindo e a Microsoft lucrando, tornando-se o líder absoluto de mercado durante as décadas seguintes. ni ne fo to st ud io v/ Sh ut te rs to ck 40 Integração Computacional de Hardware e Software Linux Muitos foram os gênios que participaram da história dos sistemas operacionais, sendo a maioria deles com ideais comerciais. Porém, Linus Torvalds não me parece pertencer a essa categoria. Ele foi o criador do Linux, um sistema operacional que tinha a intenção de ser melhor que Unix e Minix – sistemas operacionais para computadores de grande porte. A prova da falta de intenções financeiras está na decisão de abrir o código-fonte para que qualquer pessoa pudesse ler, copiar e contri- buir com alterações que visassem a melhorias no sistema. Com o código aberto, diversas distribuições foram produzidas; as mais conhecidas são: Mandriva, Ubuntu, CentOS, Solus, Arch Linux, Fedora, SUSE e RedHat. Além disso, como o Android, sistema operacional da maioria dos celu- lares hoje, é uma distribuição Linux, podemos dizer que Linus venceu todos os outros gênios com o seu projeto de sistema operacional aberto. 1.6 Tipos de armazenamento de dados Vídeo Guardar e recuperar dados sempre foi um grande desafio, desde os primórdios da informática. No princípio, os cartões perfurados foram a saída, depois chegaram as fitas magnéticas e, por fim, os hard drives. O tamanho da capacidade de armazenamento foi aumentando inversa- mente proporcional ao dos dispositivos de armazenagem. A uma certa altura, já se era possível guardar dados em formato de texto. O bom e velho TXT e o CSV Guardar dados em um arquivo texto foi uma revolução. A partir da- quele momento, passou-se a poder guardar informações e recuperá-las de maneira prática e eficiente. Cartas, memorandos, relatórios listas e afins podiam ser arquivados de maneira eletrônica. Mas o progresso pe- dia mais. O problema dos arquivos TXT residia na dificuldade em realizar buscas nos arquivos internos; para tal, era necessário subir o arquivo in- teiro na escassa memória para encontrar o trecho ou dado a ser alterado. Logo, o método era ótimo para os textos, porém péssimo para o armazenamento de planilhas, por exemplo. Foi aí que surgiu a ideia de armazenar os dados no arquivo texto, separando-os por uma vírgula. Nasceu, assim, o arquivo Comma Separated Value (CSV), ou valores se- parados por vírgula. Nath Teles Destacar Informática: sua origem e evolução 41 Dbase Os arquivos CSV auxiliaram na gestão de dados até certa quantidade de bytes; quando o volume aumentou, surgiu a necessidade de geren- ciar dados de um modo diferente, pelo Sistema de Gerenciamento de Base de Dados (SGBD). O primeiro a ser vendido em escala industrial foi o Dbase. Os usuários de Apple II, Macintosh, PC-IBM e seus clones fizeram as vendas desse SGBD dispararem, mantendo-se no topo por muitos anos. Oracle Mesmo com a IBM desenvolvendo muitas versões de softwares que usam uma linguagem de consulta estruturada ou Structured Query Language (SQL), quem lançou no mercado o primeiro SGBD baseado em SQL foi a Oracle. A SQL é uma linguagem de programação para lidar com banco de dados relacional (baseado em tabelas), criada para que vários desenvolvedores pudessem acessar e modificar dados simulta- neamente, de maneira descomplicada e unificada. MS-SQL Microsoft e Sybase montaram uma parceria, em 1988, com a intenção de desenvolver um SGBD, e apresentaram ao mercado o SQL Server. Em 1993, a parceria foi dissolvida e cada empresa levou uma cópia consigo. Sybase SQL Server e Microsoft SQL Server se tornaram um produto idênti- co, mas com nomes diferentes. Mais adiante, a Sybase foi comprada pela alemã SAP, hoje estando entre os quatro melhores gerenciadores de base de dados, e a Microsoft se tornou líder de mercado com o seu MS-SQL. NoSQL Os SGBD foram a resposta para quando o volume de dados cresceu, não sendo mais possível se utilizar de arquivos texto. Considere, por exemplo, o caso de um banco que precise armazenar todas as transações financeiras executadas por cartões de crédito ao redor do mundo – a quantidade de interações com o banco de dados é imensa, certo? Mas pense agora em aplicações, como o Facebook ou Google, que gerenciam não um, mas vários SGBD de uma só vez, com bilhões de interações por segundo. Nesse caso, somente a linguagem de consulta 42 Integração Computacional de Hardware e Software estruturada não é o suficiente; então, outro método pode ser utilizado: o NoSQL. A sigla começou como No SQL, ou seja, não utiliza SQL, porém evoluiu para Not Only SQL, isto é, não somente SQL, de modo a empre- gar técnicas além do SQL, principalmente para o uso com Big Data. Big Data O termo Big Data ainda não figura em muitos dicionários,mas uma definição simplificada pode ser apresentada, dizendo que são da- dos multivariados, com grande dimensão, normalmente gerados em tempo real, além de possuírem um crescimento exponencial em uma escala temporal (GE; BANGUI; BUHNOVA, 2018). Ou, ainda, da forma que eu gosto de expressar: uma coleção imensa de dados coletados com um propósito comum. Esses dados, todos colecionados na nuvem, utilizam-se de técnicas de separação, como os Data Lakes. Data Lake Data Lake ou lago de dados são formas de se armazenar dados “crus” em clusters, para que os softwares de inteligência artificial possam pescar os dados e montar as análises, as quais foram progra- madas. Um Data Lake pode incluir dados estruturados de bancos de dados relacionais (linhas e colunas), dados semiestruturados (CSV, logs, XML e JSON), dados não estruturados (e-mails, documentos e PDFs) e dados binários (imagens, áudios e vídeos). CONCLUSÃO Com isso, concluímos nosso primeiro capítulo, no qual passamos por momentos históricos de invenções e inovações do universo da tecnologia da informação. Agora que foram apresentadas algumas figuras icônicas, bem como as invenções de hardware e software, convido você a se ima- ginar figurando nas páginas de algum livro no futuro, em que um histo- riador narra o seu sucesso na produção de uma inovação que mude os rumos e os caminhos da TI. Que tal? Além disso, não imponha ou permita que lhe coloquem barreiras. Você é capaz! Siga com a certeza de que quem faz o seu próprio destino é você. Informática: sua origem e evolução 43 ATIVIDADES Atividade 1 Como vimos neste capítulo, as réguas de cálculo foram as ante- cessoras das calculadoras eletrônicas e, por sua vez, dos com- putadores. Como atividade, tente realizar uma conta simples de multiplicação (2 x 5 = 10) em um simulador de réguas de cálculo. Para isso, utilize o seguinte link: https://www.sliderules.org/react/ faber_castell_2_82n.html. REFERÊNCIAS A CANÇÃO do senhor da guerra. Compositor: Renato Russo. Intérprete: Legião Urbana. Rio de Janeiro: EMI, 1985. CUNHA, A. G. da. Dicionário etimológico Nova Fronteira da língua portuguesa. Rio de Janeiro: Nova Fronteira, 1986. GE, M; BANGUI, H; BUHNOVA, B. Big Data for the Internet of Things: a survey. Future Generation Computer Systems, v. 87, p. 601-614, 2018. HISTÓRIA da máquina de escrever. Portal São Francisco, 2021. Disponível em: https:// www.portalsaofrancisco.com.br/historia-geral/historia-da-maquina-de-escrever. Acesso em: 6 set. 2021. HOUAISS, A. (org.). Houaiss eletrônico. Rio de Janeiro: Objetiva, 2009. [CD-ROM]. ONLINE Etymology Dictionary. 2021. Disponível em: https://www.etymonline.com. Acesso em: 6 set. 2021. ORIGEM da palavra. Etimologia, 2021. Disponível em: https://origemdapalavra.com.br. Acesso em: 6 set. 2021. OXFORD Learner’s Dictionaries. 2021. Disponível em: https://www. oxfordlearnersdictionaries.com/. Acesso em: 6 set. 2021. PRESSMAN, R. S. Software Engineering: a practitioner’s approach. 8. ed. Nova York: McGraw- Hill, 2014. 44 Integração Computacional de Hardware e Software 2 Fundamentos da computação Ao final do estudo deste capítulo, você será capaz de: • Conhecer a definição de sistemas computacionais; • Compreender os sistemas numéricos; • Entender as mudanças de bases. Objetivos de aprendizagem Neste capítulo, vamos conhecer melhor como os dados são arma- zenados nos dispositivos de memória e de que forma esses dados po- dem ser manipulados pelos programadores a fim de transformá-los em informação. Para trabalharmos nessa tarefa, devemos compreender o conceito de sistemas computacionais, quais são os sistemas numéricos e o que são eles, além de aprender como realizar mudanças simples de bases numéricas. 2.1 Sistemas computacionais Vídeo Segundo a professora Lêda Monteiro, da Universidade Federal do Pará (UFPA), um sistema computacional “é aquele que automatiza ou auxilia a realização de atividades humanas por meio do processamento de informações”. Esse processamento acontece utilizando-se hardwa- res e softwares que trabalharão com um conjunto de dados, para deles extrair informações. 2.1.1 Sistemas numéricos e representação de dados Quando falamos sobre memória no capítulo passado, não expli- quei, de propósito, como são contabilizadas as informações dentro da memória. Para melhorar a compreensão de sistemas numéricos, será importante entendermos o conceito de bits e bytes. Fundamentos da computação 45 Bit, byte, caractere, palavra e dígito Bit Segundo a universidade de Stanford, o binary digit (dígito binário) é a menor unidade de informação que podemos armazenar e/ou trans- mitir de forma eletrônica. Como parte do nome diz, o bit só pode as- sumir 2 estados: “0” ou “1”; ou se preferir: “estou energizado” ou “não tenho energia”. O que chamamos de memória nada mais são do que recipientes que armazenam esses bits em pequenos pacotes, ou em agrupamentos de 8 unidades, chamados bytes. Byte Byte deve ser entendido como um caractere 1 . Para formar a letra J, por exemplo, foram consumidos 8 bits, sendo assim ela represen- ta 1 byte. A unidade byte é utilizada para casos de números maiores, empregando múltiplos do byte, como quilobyte, megabyte, gigabyte, terabyte etc. • 1 Quilobyte = 1 KB = 1024 Bytes; • 1 Megabyte = 1 MB = 1024 KBytes; • 1 Gigabyte = 1 GB = 1024 MBytes; • 1 Terabyte = 1 TB = 1024 GBytes. Palavra Por convenção, nos referimos a um conjunto de caracteres ou nú- meros como palavra ou word. Normalmente é o tipo de processador que define qual tamanho uma palavra pode ter, e, na maioria das vezes, é o tamanho da palavra que vai determinar a estrutura do programa. Por fim, a arquitetura do processador é o que determina o tamanho das palavras. Quanto mais potente for o processador, maior será o ta- manho de uma word. Se você já jogou videogames, lembrará que, em suas evoluções, sempre aparecia uma informação da arquitetura do processador sendo utilizado. O famoso Nintendinho tinha a arquitetu- ra de 8-bits; já o Super Nintendo 16-bits; o primeiro PlayStation contava com a arquitetura de 32 bits; e o Nintendo 64 podia ter jogos em que as words comportavam 64-bits. A palavra caractere deriva do grego charaktér e do latim character, no sentido de gravado. 1 46 Integração Computacional de Hardware e Software Dígito Usamos dígito para definir os números de 0-9, seja na informática, seja fora dela, como no caso dos seus documentos, por exemplo, o CPF. A palavra dígito vem do latim digitem, que significa dedos, sendo rela- cionada à forma de contar usando os dedos das mãos, vem daí o nosso mais comum sistema de numeração de base 10, o decimal. Base de um sistema de numeração No sistema numérico, o que chamamos de base é o número de valo- res diferentes que são apresentados em um conjunto antes de se repetir. Se estivermos falando de decimais, por exemplo, os dez valores de 0 a 9 seguem em sequência, e, ao final, acrescentamos um número a mais para indicar o crescimento. Na base octal, o mesmo ocorre com os números de 0 até 7; terminando a sequência, um número é acrescido para apontar que o conjunto cresceu. Veja a seguir como se compor- tam as principais bases numéricas mais utilizadas no mundo de TI. Sistema decimal Se você tentasse imaginar em qual momento o homem passou a ter a necessidade de contar, fatalmente regrediríamos ao momento em que deixamos de ser caçadores coletores. O divertido livro O homem que calculava, de Malba Tahan, fortemente recomendado para adoles- centes e para quem quer passar a ver a matemática com outros olhos, conta casos muito interessantes sobre a necessidade de fazer cálculos desde o princípio. Aliás, a palavra cálculo já possui muitos significados; em grego, por exemplo, cálculo significa pedra. Isso se deve ao fato de que era acumulando pedrinhas que os primeiros pastores sabiam quantas ovelhas do rebanho foram pastar e quantas retornaram. Ao sair pela manhã, o pastor empilhava uma pedra para
Compartilhar