Baixe o app para aproveitar ainda mais
Prévia do material em texto
Infraestrutura de Tecnologia da Informação Material Teórico Responsável pelo Conteúdo: Prof. Esp. Antonio Eduardo Marques da Silva Revisão Textual: Prof.ª Esp. Kelciane da Rocha Campos Virtualização • Introdução; • Compreendendo a Importância da Virtualização; • Tipos de Virtualização; • Funções de um Administrador de Infraestrutura de TIC; • Entendendo Diferentes Tipos de Hipervisores (Hypervisor); • Entendendo a Virtualização Local e a Nuvem; • Hiperconvergência.. • Compreender e abordar os conceitos fundamentais do que é virtualização de servi- dores e de rede, quais seriam suas aplicações e benefícios de utilização em uma in- fraestrutura de tecnologia da informação e comunicação. OBJETIVO DE APRENDIZADO Virtualização Orientações de estudo Para que o conteúdo desta Disciplina seja bem aproveitado e haja maior aplicabilidade na sua formação acadêmica e atuação profissional, siga algumas recomendações básicas: Assim: Organize seus estudos de maneira que passem a fazer parte da sua rotina. Por exemplo, você poderá determinar um dia e horário fixos como seu “momento do estudo”; Procure se alimentar e se hidratar quando for estudar; lembre-se de que uma alimentação saudável pode proporcionar melhor aproveitamento do estudo; No material de cada Unidade, há leituras indicadas e, entre elas, artigos científicos, livros, vídeos e sites para aprofundar os conhecimentos adquiridos ao longo da Unidade. Além disso, você tam- bém encontrará sugestões de conteúdo extra no item Material Complementar, que ampliarão sua interpretação e auxiliarão no pleno entendimento dos temas abordados; Após o contato com o conteúdo proposto, participe dos debates mediados em fóruns de discus- são, pois irão auxiliar a verificar o quanto você absorveu de conhecimento, além de propiciar o contato com seus colegas e tutores, o que se apresenta como rico espaço de troca de ideias e de aprendizagem. Organize seus estudos de maneira que passem a fazer parte Mantenha o foco! Evite se distrair com as redes sociais. Mantenha o foco! Evite se distrair com as redes sociais. Determine um horário fixo para estudar. Aproveite as indicações de Material Complementar. Procure se alimentar e se hidratar quando for estudar; lembre-se de que uma Não se esqueça de se alimentar e de se manter hidratado. Aproveite as Conserve seu material e local de estudos sempre organizados. Procure manter contato com seus colegas e tutores para trocar ideias! Isso amplia a aprendizagem. Seja original! Nunca plagie trabalhos. UNIDADE Virtualização Introdução A infraestrutura de centros de dados de hoje depende de várias tecnologias e téc- nicas específicas para funcionar corretamente e com uma melhor performance, se- gurança e redução de custos. Com certeza, uma dessa tecnologias é a virtualização de ambientes de TIC. Nesta unidade, vamos conhecer melhor a definição do que é virtualização e os tipos de técnicas de virtualização mais utilizadas em ambientes corporativos, bem como entenderemos os principais benefícios da implementação de sistemas virtualizados. Nos últimos cinquenta anos, certas tendências-chave criaram mudanças funda- mentais na forma como serviços de computação são fornecidos. O processamento de mainframe (computador de grande porte centralizado) foi uma realidade nos anos sessenta e setenta, e os computadores pessoais e o nascimento de minicom- putadores e servidores de rede nos anos oitenta e noventa. Com o crescimento da Internet, ocorreu um grande boom, que vem crescendo até hoje em dia, principal- mente com as novas tendências de IoT (Internet das Coisas) e Big Data. No meio dessas tendências tecnológicas, surge o modelo de virtualização. A virtualização é uma tecnologia disruptiva, quebrando o status de como os com- putadores físicos são manipulados, os serviços são entregues e os orçamentos são alocados. Para entender por que a virtualização teve um efeito tão profundo sobre o am- biente de computação de hoje, precisamos entender melhor o que aconteceu no passado. A palavra virtual sofreu uma mudança nos últimos anos. Não a palavra em si, é claro, mas sua utilização foi expandida em conjunto com a expansão da computação, especialmente com o uso generalizado da Internet e telefonia inte- ligente. As aplicações online nos permitiram comprar em lojas virtuais, examinar potenciais locais para onde se pretende viajar nas férias e até mesmo adquirir livros em bibliotecas virtuais. Muitas pessoas investem tempo e dinheiro em como explo- rar esse mercado. A virtualização na computação geralmente se refere à abstração de alguns com- ponentes em um objeto lógico. Ao virtualizar um objeto, você pode obter maior medida de utilidade do recurso que o objeto fornece. Por exemplo, LANs (redes lo- cais) virtuais, ou apenas VLANs, fornecem maior desempenho de rede, melhor se- gurança e melhor capacidade de gerenciamento por serem separadas do hardware físico. Da mesma forma, as redes de área de armazenamento (SANs) fornecem maior flexibilidade, disponibilidade melhorada e uso mais eficiente dos recursos de armazenamento dos dispositivos físicos em objetos lógicos que podem ser manipu- lados de maneira mais fácil e rápida (COMER, 2016). A primeira virtualização convencional foi realizada em mainframes da IBM na década de 1960, mas os pesquisadores Gerald J. Popek e Robert P. Goldberg co- dificaram a estrutura que descreve os requisitos de um sistema de computador para suportar a virtualização. Seu artigo, de 1974, “Requisitos formais para a terceira 8 9 geração de arquiteturas virtualizadas” descreve as funções e propriedades das má- quinas virtuais e monitores de máquinas virtuais que ainda utilizamos até hoje em dia. Por suas definições, uma máquina virtual (VM) pode virtualizar todos os recur- sos de hardware, incluindo conectores, memória, armazenamento e conectividade de rede. Um monitor de máquina virtual (VMM), que hoje é comumente chama- do de hipervisor, é o software que fornece o ambiente no qual as VMs operam (VERAS, 2015). Figura 1 – Monitor de Máquina Virtual (VMM) Fonte: usenix.org De acordo com Popek e Goldberg, um VMM precisa exibir três propriedades a fim de satisfazer corretamente a sua definição: • Fidelidade: o ambiente criado para a VM é essencialmente idêntico ao da má- quina física original (hardware); • Isolamento e Segurança: o VMM deve ter controle completo do sistema e seus recursos; • Desempenho: deve haver pouca ou nenhuma diferença no desempenho en- tre a VM e seu equivalente físico. O sistema operacional Microsoft Windows foi desenvolvido durante os anos 1980, porém outros existiam, como, por exemplo, o CPM e OS/2, mas como todos nós sabemos o Windows acabou dominando o mercado de computação da época e até hoje em dia continua sendo muito implantando, principalmente em computadores pessoais (PCs). Durante esse mesmo período de tempo, as empresas dependiam cada vez mais de computadores para suas operações e nesse mesmo período utilizavam os grandes minicomputadores e mainframes, que eram mais personalizados para tais ambientes. Esses computadores geralmente executavam sistemas operacionais, tornando-se difícil, se não impossível, para empresas e pro- fissionais poderem transferir facilmente informações entre sistemas não compatí- veis, ou seja, os sistemas operacionais em sua grande maioria eram proprietários naquele momento. Isto levou à necessidade de padrões e métodos acordados para o intercâmbio de informações, mas também à ideia de que os mesmos sistemas 9 UNIDADE Virtualização operacionais e programas similares deveriam ser capazes de rodar no hardware de muitos fornecedores diferentes. Os primeiros destes eram os sistemas operacionais UNIX, comercialmente disponíveis pela Bell Laboratories. As empresas tinham PCs baseados em Windows e outros sistemas operacionais internos, gerenciados e mantidos por suas equipes de TIC, mas não era rentável treinar equipes de TIC emvárias plataformas. Quantidades crescentes de memó- ria, processadores mais rápidos, subsistemas de armazenamento maiores e mais rápidos fizeram com que algumas aplicações não fossem mais suportadas pelos grandes mainframes, mas sim por computadores servidores que possuíam siste- mas operacionais Windows ou Unix. Isso funcionou bem para as empresas, por- que elas já tinham experiência em Windows em casa e não mais se exigiu várias equipes para suportar sua infraestrutura existente de TIC. Este movimento, no entanto, também levou a uma série de desafios. Porque o Windows foi originalmente projetado para ser um sistema operacional de usuário único. O comportamento de se executar várias aplicações em um mesmo servi- dor levou muitos designers de aplicativos, desenvolvedores e profissionais de TIS a adotarem um servidor de aplicação, como “best practice”. Então, para cada aplicativo que foi implantado, um ou mais servidores precisavam ser adquiridos, provisionados e gerenciados individualmente. Outro fator que impulsionou a crescente população de servidores foi a política corporativa. As várias organizações dentro de uma única empresa não queriam ne- nhuma infraestrutura particular, pois os custos de montagem e gerência dos gran- des centros de dados eram muito altos, não somente na instalação de hardware e software que suportavam os recursos de TIC, mas também nos sistemas de ali- mentação elétrica e refrigeração desses grandes ambientes sensíveis, sem falar dos grandes espaços físicos dedicados a tais soluções (COMER, 2016). Como as empresas dependiam cada vez mais da tecnologia para impulsionar seus negócios, elas adicionaram muito mais servidores para suportar essa necessidade. Eventualmente, essa expansão criou os data centers mais modernos. Um data center pode ter qualquer tamanho, de uma sala de informática maior a um andar inteiro em um edifício, ou até mesmo um edifício construído e dedicado à saúde e ao bem-estar das empresas em uma infraestrutura de computação. Edifícios in- teiros existiam apenas para suportar servidores e depois, no final do século XX, a internet floresceu o “E-business ou fora do negócio”, que impulsionou até mesmo o tráfego dos dados em uma rede, pois com essas tecnologias fora do ambiente local, surgiu a necessidade de conexões remotas mais rápidas. Para acompanhar a concorrência on-line, as empresas existentes implantaram ainda mais servidores à medida que eles são habilitados para aplicações web. Novas grandes empresas, como Amazon e Google, surgiram do nada, criando modelos de negócios que dependiam de grandes fazendas de servidores (server farms) para entregar rapi- damente milhões de páginas da web preenchidas com petabytes de informações. Este tipo de infraestrutura crescia rapidamente, e só ia piorar. Novos serviços baseados no consumidor foram entregues não apenas através de canais on-line, 10 11 mas de dispositivos mais novos, como telefones celulares e o crescimento de data centers. Entre 2000 e 2006, a Agência Proteção Ambiental (EPA) informou que o uso de energia pelos data centers dos Estados Unidos dobrou e que nos cinco anos seguintes esperava que voltasse a duplicar. Não só isso, mas servidores estavam consumindo cerca de 2% da eletricidade total produzida no país, e a energia usa- da para resfriá-los consumia aproximadamente a mesma quantidade. Era, então, necessário e drástico o surgimento de novas tecnologias que pudessem evitar um grande consumo de energia elétrica e refrigeração e também que pudessem dar uma melhor economia dos recursos de implantação de TIC e melhor utilização dos serviços computacionais; surgem, então, as técnicas de virtualização mais moder- nas e que usamos mais recentemente. Compreendendo a Importância da Virtualização Houve uma explosão selvagem de sobrecarga de dados nos servidores; mas, com o passar do tempo, em uma combinação do efeito da Lei de Moore e o modelo “um servidor, uma aplicação”, esses servidores tradicionais já não eram mais uma realidade. Felizmente, a ajuda estava a caminho na forma de virtualização desses ambientes. A ideia e a execução da virtualização não eram novas. Ela foi executada em mainframes IBM no início dos anos 1970, mas foi atualizada para sistemas de computador mais modernos, como é o caso dos servidores de alta performance. A primeira solução comercialmente disponível para fornecer virtualização em computadores x86 veio da VMware em 2001. Uma oferta paralela de código aber- to chamada Xen chegou dois anos depois. Estas soluções (VMMs, ou hypervisors) assumiram a forma de uma camada de software que aplicada entre um sistema operacional e as máquinas virtuais (VMs) se comportava como um hardware isola- do ou “bare-metal”. Fundamentos da Virtualização – VMware em: https://youtu.be/-9fcJ8KVeuw Ex pl or O que a virtualização trouxe para esses centros de dados sobrecarregados e su- butilizados foi a capacidade de condensar vários servidores físicos em um servidor que executaria muitas máquinas virtuais, permitindo que o servidor físico fosse executado em taxa muito mais alta de utilização. Essa condensação de servidores é chamada de consolidação. Uma medida de consolidação é chamada de proporção ou taxa de consolidação e é calculada pela contagem do número de VMs em um servidor físico. Por exemplo, um servidor que tem oito VMs em execução, nele há uma taxa de consolidação de 8:1 (lê-se 8 para 1). A consolidação foi uma benção 11 UNIDADE Virtualização para data centers e gerentes de operações, porque resolveu uma série de proble- mas cruciais. Figura 2 – Consolidação de Servidores Fonte: Acervo do Conteudista Em data centers maiores, onde centenas ou até milhares de servidores eram alojados, a virtualização forneceu uma maneira de desativar uma grande parte dos servidores físicos. Isso reduziu a área de cobertura geral de um data center, reduziu a energia e requisitos de resfriamento e eliminou a necessidade de adicionar ou construir centros de dados maiores (locação de grandes ambientes). Por extensão, com menos servidores, reduziu a capacidade de uma empresa ter custos de manu- tenção de hardware e reduziu o tempo que os administradores tinham para execu- tar muitas outras tarefas de rotina e de gerência (MARIN, 2011). Além da consolidação, ocorreu um segundo desenvolvimento. Como as em- presas começaram a ver os benefícios da virtualização, elas não compraram mais hardware novo quando os seus arrendamentos (locação) acabaram ou, se eles pos- suíam o equipamento, quando as licenças de manutenção de hardware expiraram. Em vez disso, eles virtualizaram esses servidores em cargas de trabalho. Isso é cha- mado de contenção. A contenção beneficiou corporações de várias maneiras. Eles não precisavam mais atualizar grandes quantidades de hardware nem ter todos os custos de gerenciar e manter esses servidores, como energia, resfriamento, etc. As taxas de consolidação da primeira geração de x86 hipervisores estavam na faixa de 5:1. Com o tempo e o desenvolvimento de novas tecnologias, como chips e memória mais poderosa, permitiram taxas de consolidação muito mais altas. Atualmente, um único servidor físico poderia hospedar dezenas ou centenas de 12 13 VMs. Em vez de remover três dos quatro servidores, a virtualização hoje pode remover confortavelmente nove de dez dispositivos ou, com servidores suficiente- mente configurados, noventa e nove de cem. Como resultado, a maioria dos data centers corporativos recuperou grande parte do espaço físico que eles haviam perdido antes das técnicas de virtualização. Vamos, então, conhecer um pouco sobre os tipos de virtualização existentes e mais utilizados por grandes corporações. Tipos de Virtualização Hoje, o termo virtualização é amplamente aplicado a vários conceitos, alguns dos quais são descritos abaixo: • virtualização de servidores; • virtualização de cliente e área de trabalho; • serviços e virtualização de aplicativos; • virtualização de rede; • virtualizaçãode armazenamento. Vamos, então, discutir cada um desses tipos de virtualização com mais detalhes e enten- der as técnicas e aplicações mais recomendadas em ambientes de infraestrutura de TIC. Virtualização de servidores Este tipo de virtualização é o mais clássico, nele estamos virtualizando a infra- estrutura dos servidores de rede e por consequência conseguimos utilizar melhor seus recuross e prover economia significativa nos ambientes de data center, como, por exemplo, menor consumo de energia elétrica, menor consumo de sistemas de refrigeração, melhoria na administração e outras (VERAS, 2016). Virtualização de Servidores, disponível em: https://goo.gl/b6ZPdm Ex pl or Recursos avançados de disponibilidade A virtualização de servidores também permite que os administradores aprovei- tem mais as funcionalidades avançadas de um data center do que seria possível com um centro de dados puramente físico. Aqui estão alguns exemplos: • Backup de virtualização: backup de virtualização faz a proteção de dados fácil, porque pode facilmente fazer backup apenas da alteração dos blocos de armazenamento em disco de uma VM e enviá-los para a fita magnética ou até mesmo para uma outra VM de backup. As VMs podem ser recuperadas em outros servidores, conforme necessário, e o hardware subjacente é abstraído. 13 UNIDADE Virtualização Como resultado, as VMs podem facilmente ser restauradas em um servidor físico de uma forma muito mais rápida que a tradicional; • Replicação: a replicação pode ser feita toda em software para qualquer VM ou um grupo de VMs que precise de proteção de dados externos; • Balanceamento de Consumo de Recursos: consumo de recursos na infra- estrutura virtual pode ser dinamicamente balanceado dentro do cluster para garantir que cada VM obtenha os recursos de que necessita para executar seus aplicativos. VMware vSphere (Inglês), disponível em: https://youtu.be/JlYDL_L-uPI. Ex pl or Virtualização de desktops clientes É uma técnica de virtualização semelhante à virtualização de servidores, mas desta vez no ambiente do usuário final, onde se pode virtualizar os desktops com o intuito de poder “rodar” mais aplicações nos desktops e melhorar com isso o de- sempenho e utilização desses computadores. Em alguns ambientes, são utilizadas também as máquinas “thin clientes”, que são uma espécie de terminal que acessa os recursos de data centers. Virtualização de Desktops Clientes, disponível em: https://goo.gl/65LWnm Ex pl or Conceitos sobre virtualização de desktops, disponível em: https://youtu.be/Sf_ewo8RQjM Ex pl or Virtualização de serviços e aplicativos A tecnologia de virtualização isola aplicativos do sistema operacional subjacente e de outras aplicações, para aumentar a compatibilidade e a capacidade de ge- renciamento. Por exemplo: ambientes de docker podem ser utilizados para esse propósito (VERAS, 2015). 14 15 App 1 Bins/Libs App 2 Bins/Libs App 3 Bins/Libs Docker Engine Operating System Physical Server Application Virtualizer Figura 3 – Virtualização de aplicações Virtualização de rede É com certeza um tipo de virtualização extremamente utilizado em ambientes corporativos, pois tem como objetivo fazer a interligação tanto de máquinas físicas como de máquinas virtualizadas. Nesse caso, podemos virtualizar ambientes locais de redes, como é o caso das VLANs, switches virtuais, roteadores virtuais e outras técnicas aplicadas na rede de comunicação. Virtualização de redes, disponível em: https://goo.gl/jFJAt7 Ex pl or Virtualização de armazenamento Essas técnicas são amplamente utilizadas em Data Centers nos quais você tem um grande sistema de armazenamento (storages), essa virtualização permite que se possa criar, deletar, copiar e manipular de uma forma simples e rápida uma grande base de dados armazenados através das redes de comunicação (VERAS, 2015). Virtualização de armazenamento, disponível em: https://goo.gl/Z2z3wq Ex pl or Funções de um Administrador de Infraestrutura de TIC Administradores de infraestrutura costumam usar muitos chapéus diferentes. Aqui estão apenas algumas das funções e atividades com que um administrador de infraestrutura pode ter que lidar: 15 UNIDADE Virtualização • administração de hipervisor; • administração de rede com redundância total; • administração da SAN (por exemplo: conexões, destinos, LUNs, vários cami- nhos, etc.) ou administração de NAS; • gerenciamento de listas de compatibilidade de hardware (HCL); • correção e atualização de vários sistemas e firmware relacionados; • lidar com vários grupos de suporte a fim de identificar e corrigir problemas de infraestrutura; • Manutenção de múltiplos contratos de manutenção, o que é oneroso e demo- rado para o time de administração. Entendendo Diferentes Tipos de Hipervisores (Hypervisor) Como já vimos, um hipervisor é uma fina camada de software que intercepta as chamadas do sistema operacional para o hardware. Ele também é chamado de Virtual Machine Monitor (VMM). Cria uma plataforma virtual no computador host, sobre o qual vários sistemas operacionais residentes são executados e monitorados. Os hipervisores são de dois tipos: • Hipervisor Nativo ou Bare Metal; • Hipervisor Hospedado. Vamos conhecê-los um pouco mais com maiores detalhes. Hipervisor hospedado Os hipervisores hospedados são projetados para serem executados em um siste- ma operacional tradicional. Em outras palavras, um hipervisor hospedado adiciona uma camada de software distinta sobre o funcionamento do sistema do host, en- quanto o sistema operacional convidado se torna um terceiro nível de software aci- ma do hardware. Um bom exemplo bem conhecido de um hipervisor hospedado seria o Oracle VM VirtualBox. Outros incluem o VMWare Server e Workstation, Microsoft Virtual PC, KVM, QEMU e Parallels. What is a hypervisor? (inglês) em: https://youtu.be/VtXNIy_noWg Ex pl or Hipervisor Nativo ou Bare-Metal Os hipervisores nativos ou bare-metal são sistemas de software que são execu- tados diretamente no hardware do host para controlar o hardware e monitorar os 16 17 Sistemas Operacionais Convidados. O sistema operacional convidado é executado em um nível separado acima do hipervisor. Todos eles têm um Virtual Machine Manager. Exemplos dessa arquitetura de máquina virtual são o Oracle VM, o Microsoft Hyper-V, o VMWare ESX e o Xen. Hosted Architecture OS 1 OS 2 Hypervisor Software (VMM) Host OS Hardware Bare-Metal Architecture OS 1 OS 2 Hypervisor Software (VMM) Hardware Figura 8 – Arquitetura de Host e Arquitetura de Bare-Metal Entendendo a Virtualização Local e a Nuvem A virtualização é uma das tecnologias fundamentais que faz a computação em nuvem funcionar. No entanto, a virtualização não é computação em nuvem. A com- putação em nuvem é um serviço que é diferente, fornecido por provedores com base em alguns custos. Em redes corporativas, a virtualização e a computação em nuvem costumam ser utilizadas juntas para construir uma infraestrutura de nuvem pública ou privada. Em pequenas empresas, cada tecnologia será implantada separadamente para ob- ter benefícios mensuráveis. De diferentes maneiras, virtualização e a computação em nuvem podem ajudar as empresas a manterem pequenos gastos com equi- pamentos e obter melhor uso possível do equipamento computacional existente (COMER, 2016). Como mencionado anteriormente, o software de virtualização permite que um ser- vidor físico execute vários ambientes de computação individuais. Na prática, é como obter vários servidores para cada servidor físico adquirido. Essa tecnologia é fundamen- tal para a computação em nuvem. Fornecedores de nuvem têm grandes data centers cheios de servidores para alimentar suas ofertas de nuvem, mas eles não são capazes de dedicar um único servidor a cada cliente. Assim, eles virtualmente dividem os dados no servidor, permitindo que cada cliente trabalhe com uma instância “virtual” separada, que pode ser uma rede privada, um server-farmde servidores, etc. (VERAS, 2015). As pequenas empresas são mais propensas a adotar a computação em nuvem ao se inscrever em serviços de TIC. Os maiores provedores de computação em nuvem são a Microsoft com o Azure e Amazon. 17 UNIDADE Virtualização Hiperconvergência No nível mais alto e mais abstrato, a hiperconvergência pode ser entendida por ser a combinação (ou convergência) de muitas potenciais plataformas disparatadas em uma única plataforma. Em relação ao hardware físico, isso significa colocar computação (CPU e memória) e armazenamento (unidades de disco e de estado sólido - SSDs) em um único servidor. De uma perspectiva de software, isso significa que, no mínimo, todos os componentes do sistema são gerenciados a partir de uma interface comum. Dependendo do ofertado, isso pode ser uma interface de usuário personalizada criada pelo fabricante, ou pode ser um complemento ou extensão do hipervisor existente do software de gerenciamento. Como já vimos, o hipervisor é o software que permite várias máquinas virtuais (VMs) serem executadas em uma única peça de hardware. Uma definição comu- mente entendida de hiperconvergência afirma que é “Uma plataforma que reúne armazenamento conectado diretamente e elimina a necessidade para uma matriz de armazenamento”. What is Hyperconverged Infrastructure (HCI)? (inglês) em: https://youtu.be/jOewMqQlxo8 Ex pl or O hardware físico é uma peça importante do quebra-cabeça, mas a mais gran- diosa imagem de hiperconvergência é realmente focada no simplificado geren- ciamento da infraestrutura do data center, objetivo da hiperconvergência para eliminar silos de gerenciamento. Uma característica da hiperconvergência é que ela se expande em porções finitas e previsíveis. Estas porções são frequentemente representadas como blocos de construção. Como um administrador adiciona blo- cos de construção (também chamados de nós, tijolos, ou vários outros termos que significam “uma única unidade”) para o cluster, todos os componentes de infraes- trutura relevantes são escalados juntos (VERAS, 2015). O modelo de infraestrutura hiperconvergente (IHC) contrasta com um modelo de data center em que a capacidade de armazenamento pode ser adicionada em um ponto e, em seguida, RAM adicional, nós da CPU e assim por diante seriam adicionados alguns meses abaixo desse recurso. Com a hiperconvergência, todos os recursos podem ser dimensionados de uma só vez. No entanto, é ainda possível dimensionar recursos independentemente, caso seja necessário para uma determinada infraestrutura de TIC. 18 19 Material Complementar Indicações para saber mais sobre os assuntos abordados nesta Unidade: Livros Virtualização: Tecnologia central do data center VERAS, M. Virtualização: tecnologia central do data center. 2ª ed. São Paulo: Editora Brasport, 2016. Computação em nuvem VERAS, M. Computação em nuvem. 1ª ed. São Paulo: Editora Brasport, 2015. Redes de computadores WHITE, C. M. Redes de computadores. 1ª ed. São Paulo: Editora Cengage Learning, 2013. Armazenamento e gerenciamento das informações SERVICES, EMC Education. Armazenamento e gerenciamento das informações. 1ª ed. São Paulo: Editora Bookman, 2010. 19 UNIDADE Virtualização Referências CHAGAS, M. W. S. Sistemas de energia e climatização: aplicações práticas em telecomunicações e data center. 1ª ed. São Paulo: Editora Érica, 2014. COMER, D. E. Redes de computadores e internet. 6ª ed. Porto Alegre: Editora Bookman, 2016. MARIN, P. S. Data centers: desvendando cada passo - conceitos, projeto, infraes- trutura física e eficiência energética. 1ª ed. São Paulo: Editora Érica, 2011. 20
Compartilhar