Buscar

Unidade II - Virtualização

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 22 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 22 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 22 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Infraestrutura de 
Tecnologia da Informação
Material Teórico
Responsável pelo Conteúdo:
Prof. Esp. Antonio Eduardo Marques da Silva
Revisão Textual:
Prof.ª Esp. Kelciane da Rocha Campos
Virtualização
• Introdução;
• Compreendendo a Importância da Virtualização;
• Tipos de Virtualização;
• Funções de um Administrador de Infraestrutura de TIC;
• Entendendo Diferentes Tipos de Hipervisores (Hypervisor);
• Entendendo a Virtualização Local e a Nuvem;
• Hiperconvergência..
• Compreender e abordar os conceitos fundamentais do que é virtualização de servi-
dores e de rede, quais seriam suas aplicações e benefícios de utilização em uma in-
fraestrutura de tecnologia da informação e comunicação.
OBJETIVO DE APRENDIZADO
Virtualização
Orientações de estudo
Para que o conteúdo desta Disciplina seja bem 
aproveitado e haja maior aplicabilidade na sua 
formação acadêmica e atuação profissional, siga 
algumas recomendações básicas:
Assim:
Organize seus estudos de maneira que passem a fazer parte 
da sua rotina. Por exemplo, você poderá determinar um dia e 
horário fixos como seu “momento do estudo”;
Procure se alimentar e se hidratar quando for estudar; lembre-se de que uma 
alimentação saudável pode proporcionar melhor aproveitamento do estudo;
No material de cada Unidade, há leituras indicadas e, entre elas, artigos científicos, livros, vídeos e 
sites para aprofundar os conhecimentos adquiridos ao longo da Unidade. Além disso, você tam-
bém encontrará sugestões de conteúdo extra no item Material Complementar, que ampliarão 
sua interpretação e auxiliarão no pleno entendimento dos temas abordados;
Após o contato com o conteúdo proposto, participe dos debates mediados em fóruns de discus-
são, pois irão auxiliar a verificar o quanto você absorveu de conhecimento, além de propiciar o 
contato com seus colegas e tutores, o que se apresenta como rico espaço de troca de ideias e 
de aprendizagem.
Organize seus estudos de maneira que passem a fazer parte 
Mantenha o foco! 
Evite se distrair com 
as redes sociais.
Mantenha o foco! 
Evite se distrair com 
as redes sociais.
Determine um 
horário fixo 
para estudar.
Aproveite as 
indicações 
de Material 
Complementar.
Procure se alimentar e se hidratar quando for estudar; lembre-se de que uma 
Não se esqueça 
de se alimentar 
e de se manter 
hidratado.
Aproveite as 
Conserve seu 
material e local de 
estudos sempre 
organizados.
Procure manter 
contato com seus 
colegas e tutores 
para trocar ideias! 
Isso amplia a 
aprendizagem.
Seja original! 
Nunca plagie 
trabalhos.
UNIDADE Virtualização
Introdução
A infraestrutura de centros de dados de hoje depende de várias tecnologias e téc-
nicas específicas para funcionar corretamente e com uma melhor performance, se-
gurança e redução de custos. Com certeza, uma dessa tecnologias é a virtualização 
de ambientes de TIC. Nesta unidade, vamos conhecer melhor a definição do que 
é virtualização e os tipos de técnicas de virtualização mais utilizadas em ambientes 
corporativos, bem como entenderemos os principais benefícios da implementação 
de sistemas virtualizados.
Nos últimos cinquenta anos, certas tendências-chave criaram mudanças funda-
mentais na forma como serviços de computação são fornecidos. O processamento 
de mainframe (computador de grande porte centralizado) foi uma realidade nos 
anos sessenta e setenta, e os computadores pessoais e o nascimento de minicom-
putadores e servidores de rede nos anos oitenta e noventa. Com o crescimento da 
Internet, ocorreu um grande boom, que vem crescendo até hoje em dia, principal-
mente com as novas tendências de IoT (Internet das Coisas) e Big Data.
No meio dessas tendências tecnológicas, surge o modelo de virtualização. 
A virtualização é uma tecnologia disruptiva, quebrando o status de como os com-
putadores físicos são manipulados, os serviços são entregues e os orçamentos 
são alocados.
Para entender por que a virtualização teve um efeito tão profundo sobre o am-
biente de computação de hoje, precisamos entender melhor o que aconteceu no 
passado. A palavra virtual sofreu uma mudança nos últimos anos. Não a palavra 
em si, é claro, mas sua utilização foi expandida em conjunto com a expansão da 
computação, especialmente com o uso generalizado da Internet e telefonia inte-
ligente. As aplicações online nos permitiram comprar em lojas virtuais, examinar 
potenciais locais para onde se pretende viajar nas férias e até mesmo adquirir livros 
em bibliotecas virtuais. Muitas pessoas investem tempo e dinheiro em como explo-
rar esse mercado.
A virtualização na computação geralmente se refere à abstração de alguns com-
ponentes em um objeto lógico. Ao virtualizar um objeto, você pode obter maior 
medida de utilidade do recurso que o objeto fornece. Por exemplo, LANs (redes lo-
cais) virtuais, ou apenas VLANs, fornecem maior desempenho de rede, melhor se-
gurança e melhor capacidade de gerenciamento por serem separadas do hardware 
físico. Da mesma forma, as redes de área de armazenamento (SANs) fornecem 
maior flexibilidade, disponibilidade melhorada e uso mais eficiente dos recursos de 
armazenamento dos dispositivos físicos em objetos lógicos que podem ser manipu-
lados de maneira mais fácil e rápida (COMER, 2016).
A primeira virtualização convencional foi realizada em mainframes da IBM na 
década de 1960, mas os pesquisadores Gerald J. Popek e Robert P. Goldberg co-
dificaram a estrutura que descreve os requisitos de um sistema de computador para 
suportar a virtualização. Seu artigo, de 1974, “Requisitos formais para a terceira 
8
9
geração de arquiteturas virtualizadas” descreve as funções e propriedades das má-
quinas virtuais e monitores de máquinas virtuais que ainda utilizamos até hoje em 
dia. Por suas definições, uma máquina virtual (VM) pode virtualizar todos os recur-
sos de hardware, incluindo conectores, memória, armazenamento e conectividade 
de rede. Um monitor de máquina virtual (VMM), que hoje é comumente chama-
do de hipervisor, é o software que fornece o ambiente no qual as VMs operam 
(VERAS, 2015).
Figura 1 – Monitor de Máquina Virtual (VMM)
Fonte: usenix.org
De acordo com Popek e Goldberg, um VMM precisa exibir três propriedades a 
fim de satisfazer corretamente a sua definição:
• Fidelidade: o ambiente criado para a VM é essencialmente idêntico ao da má-
quina física original (hardware);
• Isolamento e Segurança: o VMM deve ter controle completo do sistema e 
seus recursos;
• Desempenho: deve haver pouca ou nenhuma diferença no desempenho en-
tre a VM e seu equivalente físico.
O sistema operacional Microsoft Windows foi desenvolvido durante os anos 
1980, porém outros existiam, como, por exemplo, o CPM e OS/2, mas como 
todos nós sabemos o Windows acabou dominando o mercado de computação da 
época e até hoje em dia continua sendo muito implantando, principalmente em 
computadores pessoais (PCs). Durante esse mesmo período de tempo, as empresas 
dependiam cada vez mais de computadores para suas operações e nesse mesmo 
período utilizavam os grandes minicomputadores e mainframes, que eram mais 
personalizados para tais ambientes. Esses computadores geralmente executavam 
sistemas operacionais, tornando-se difícil, se não impossível, para empresas e pro-
fissionais poderem transferir facilmente informações entre sistemas não compatí-
veis, ou seja, os sistemas operacionais em sua grande maioria eram proprietários 
naquele momento. Isto levou à necessidade de padrões e métodos acordados para 
o intercâmbio de informações, mas também à ideia de que os mesmos sistemas 
9
UNIDADE Virtualização
operacionais e programas similares deveriam ser capazes de rodar no hardware de 
muitos fornecedores diferentes. Os primeiros destes eram os sistemas operacionais 
UNIX, comercialmente disponíveis pela Bell Laboratories.
As empresas tinham PCs baseados em Windows e outros sistemas operacionais 
internos, gerenciados e mantidos por suas equipes de TIC, mas não era rentável 
treinar equipes de TIC emvárias plataformas. Quantidades crescentes de memó-
ria, processadores mais rápidos, subsistemas de armazenamento maiores e mais 
rápidos fizeram com que algumas aplicações não fossem mais suportadas pelos 
grandes mainframes, mas sim por computadores servidores que possuíam siste-
mas operacionais Windows ou Unix. Isso funcionou bem para as empresas, por-
que elas já tinham experiência em Windows em casa e não mais se exigiu várias 
equipes para suportar sua infraestrutura existente de TIC.
Este movimento, no entanto, também levou a uma série de desafios. Porque o 
Windows foi originalmente projetado para ser um sistema operacional de usuário 
único. O comportamento de se executar várias aplicações em um mesmo servi-
dor levou muitos designers de aplicativos, desenvolvedores e profissionais de TIS 
a adotarem um servidor de aplicação, como “best practice”. Então, para cada 
aplicativo que foi implantado, um ou mais servidores precisavam ser adquiridos, 
provisionados e gerenciados individualmente.
Outro fator que impulsionou a crescente população de servidores foi a política 
corporativa. As várias organizações dentro de uma única empresa não queriam ne-
nhuma infraestrutura particular, pois os custos de montagem e gerência dos gran-
des centros de dados eram muito altos, não somente na instalação de hardware 
e software que suportavam os recursos de TIC, mas também nos sistemas de ali-
mentação elétrica e refrigeração desses grandes ambientes sensíveis, sem falar dos 
grandes espaços físicos dedicados a tais soluções (COMER, 2016).
Como as empresas dependiam cada vez mais da tecnologia para impulsionar seus 
negócios, elas adicionaram muito mais servidores para suportar essa necessidade. 
Eventualmente, essa expansão criou os data centers mais modernos. Um data 
center pode ter qualquer tamanho, de uma sala de informática maior a um andar 
inteiro em um edifício, ou até mesmo um edifício construído e dedicado à saúde 
e ao bem-estar das empresas em uma infraestrutura de computação. Edifícios in-
teiros existiam apenas para suportar servidores e depois, no final do século XX, a 
internet floresceu o “E-business ou fora do negócio”, que impulsionou até mesmo 
o tráfego dos dados em uma rede, pois com essas tecnologias fora do ambiente 
local, surgiu a necessidade de conexões remotas mais rápidas. Para acompanhar 
a concorrência on-line, as empresas existentes implantaram ainda mais servidores 
à medida que eles são habilitados para aplicações web. Novas grandes empresas, 
como Amazon e Google, surgiram do nada, criando modelos de negócios que 
dependiam de grandes fazendas de servidores (server farms) para entregar rapi-
damente milhões de páginas da web preenchidas com petabytes de informações.
Este tipo de infraestrutura crescia rapidamente, e só ia piorar. Novos serviços 
baseados no consumidor foram entregues não apenas através de canais on-line, 
10
11
mas de dispositivos mais novos, como telefones celulares e o crescimento de data 
centers. Entre 2000 e 2006, a Agência Proteção Ambiental (EPA) informou que o 
uso de energia pelos data centers dos Estados Unidos dobrou e que nos cinco anos 
seguintes esperava que voltasse a duplicar. Não só isso, mas servidores estavam 
consumindo cerca de 2% da eletricidade total produzida no país, e a energia usa-
da para resfriá-los consumia aproximadamente a mesma quantidade. Era, então, 
necessário e drástico o surgimento de novas tecnologias que pudessem evitar um 
grande consumo de energia elétrica e refrigeração e também que pudessem dar 
uma melhor economia dos recursos de implantação de TIC e melhor utilização dos 
serviços computacionais; surgem, então, as técnicas de virtualização mais moder-
nas e que usamos mais recentemente.
Compreendendo a Importância 
da Virtualização
Houve uma explosão selvagem de sobrecarga de dados nos servidores; mas, 
com o passar do tempo, em uma combinação do efeito da Lei de Moore e 
o modelo “um servidor, uma aplicação”, esses servidores tradicionais já não 
eram mais uma realidade. Felizmente, a ajuda estava a caminho na forma de 
virtualização desses ambientes. A ideia e a execução da virtualização não eram 
novas. Ela foi executada em mainframes IBM no início dos anos 1970, mas 
foi atualizada para sistemas de computador mais modernos, como é o caso dos 
servidores de alta performance.
A primeira solução comercialmente disponível para fornecer virtualização em 
computadores x86 veio da VMware em 2001. Uma oferta paralela de código aber-
to chamada Xen chegou dois anos depois. Estas soluções (VMMs, ou hypervisors) 
assumiram a forma de uma camada de software que aplicada entre um sistema 
operacional e as máquinas virtuais (VMs) se comportava como um hardware isola-
do ou “bare-metal”.
Fundamentos da Virtualização – VMware em: https://youtu.be/-9fcJ8KVeuw
Ex
pl
or
O que a virtualização trouxe para esses centros de dados sobrecarregados e su-
butilizados foi a capacidade de condensar vários servidores físicos em um servidor 
que executaria muitas máquinas virtuais, permitindo que o servidor físico fosse 
executado em taxa muito mais alta de utilização. Essa condensação de servidores é 
chamada de consolidação. Uma medida de consolidação é chamada de proporção 
ou taxa de consolidação e é calculada pela contagem do número de VMs em um 
servidor físico. Por exemplo, um servidor que tem oito VMs em execução, nele há 
uma taxa de consolidação de 8:1 (lê-se 8 para 1). A consolidação foi uma benção 
11
UNIDADE Virtualização
para data centers e gerentes de operações, porque resolveu uma série de proble-
mas cruciais.
Figura 2 – Consolidação de Servidores
Fonte: Acervo do Conteudista
Em data centers maiores, onde centenas ou até milhares de servidores eram 
alojados, a virtualização forneceu uma maneira de desativar uma grande parte dos 
servidores físicos. Isso reduziu a área de cobertura geral de um data center, reduziu 
a energia e requisitos de resfriamento e eliminou a necessidade de adicionar ou 
construir centros de dados maiores (locação de grandes ambientes). Por extensão, 
com menos servidores, reduziu a capacidade de uma empresa ter custos de manu-
tenção de hardware e reduziu o tempo que os administradores tinham para execu-
tar muitas outras tarefas de rotina e de gerência (MARIN, 2011).
Além da consolidação, ocorreu um segundo desenvolvimento. Como as em-
presas começaram a ver os benefícios da virtualização, elas não compraram mais 
hardware novo quando os seus arrendamentos (locação) acabaram ou, se eles pos-
suíam o equipamento, quando as licenças de manutenção de hardware expiraram. 
Em vez disso, eles virtualizaram esses servidores em cargas de trabalho. Isso é cha-
mado de contenção. A contenção beneficiou corporações de várias maneiras. Eles 
não precisavam mais atualizar grandes quantidades de hardware nem ter todos os 
custos de gerenciar e manter esses servidores, como energia, resfriamento, etc.
As taxas de consolidação da primeira geração de x86 hipervisores estavam na 
faixa de 5:1. Com o tempo e o desenvolvimento de novas tecnologias, como chips 
e memória mais poderosa, permitiram taxas de consolidação muito mais altas. 
Atualmente, um único servidor físico poderia hospedar dezenas ou centenas de 
12
13
VMs. Em vez de remover três dos quatro servidores, a virtualização hoje pode 
remover confortavelmente nove de dez dispositivos ou, com servidores suficiente-
mente configurados, noventa e nove de cem.
Como resultado, a maioria dos data centers corporativos recuperou grande 
parte do espaço físico que eles haviam perdido antes das técnicas de virtualização. 
Vamos, então, conhecer um pouco sobre os tipos de virtualização existentes e mais 
utilizados por grandes corporações.
Tipos de Virtualização
Hoje, o termo virtualização é amplamente aplicado a vários conceitos, alguns 
dos quais são descritos abaixo:
• virtualização de servidores;
• virtualização de cliente e área de trabalho;
• serviços e virtualização de aplicativos;
• virtualização de rede;
• virtualizaçãode armazenamento.
Vamos, então, discutir cada um desses tipos de virtualização com mais detalhes e enten-
der as técnicas e aplicações mais recomendadas em ambientes de infraestrutura de TIC.
Virtualização de servidores
Este tipo de virtualização é o mais clássico, nele estamos virtualizando a infra-
estrutura dos servidores de rede e por consequência conseguimos utilizar melhor 
seus recuross e prover economia significativa nos ambientes de data center, como, 
por exemplo, menor consumo de energia elétrica, menor consumo de sistemas de 
refrigeração, melhoria na administração e outras (VERAS, 2016).
Virtualização de Servidores, disponível em: https://goo.gl/b6ZPdm
Ex
pl
or
Recursos avançados de disponibilidade
A virtualização de servidores também permite que os administradores aprovei-
tem mais as funcionalidades avançadas de um data center do que seria possível 
com um centro de dados puramente físico. Aqui estão alguns exemplos:
• Backup de virtualização: backup de virtualização faz a proteção de dados 
fácil, porque pode facilmente fazer backup apenas da alteração dos blocos de 
armazenamento em disco de uma VM e enviá-los para a fita magnética ou até 
mesmo para uma outra VM de backup. As VMs podem ser recuperadas em 
outros servidores, conforme necessário, e o hardware subjacente é abstraído. 
13
UNIDADE Virtualização
Como resultado, as VMs podem facilmente ser restauradas em um servidor 
físico de uma forma muito mais rápida que a tradicional;
• Replicação: a replicação pode ser feita toda em software para qualquer VM 
ou um grupo de VMs que precise de proteção de dados externos;
• Balanceamento de Consumo de Recursos: consumo de recursos na infra-
estrutura virtual pode ser dinamicamente balanceado dentro do cluster para 
garantir que cada VM obtenha os recursos de que necessita para executar 
seus aplicativos.
VMware vSphere (Inglês), disponível em: https://youtu.be/JlYDL_L-uPI.
Ex
pl
or
Virtualização de desktops clientes
É uma técnica de virtualização semelhante à virtualização de servidores, mas 
desta vez no ambiente do usuário final, onde se pode virtualizar os desktops com o 
intuito de poder “rodar” mais aplicações nos desktops e melhorar com isso o de-
sempenho e utilização desses computadores. Em alguns ambientes, são utilizadas 
também as máquinas “thin clientes”, que são uma espécie de terminal que acessa 
os recursos de data centers.
Virtualização de Desktops Clientes, disponível em: https://goo.gl/65LWnm
Ex
pl
or
Conceitos sobre virtualização de desktops, disponível em: https://youtu.be/Sf_ewo8RQjM
Ex
pl
or
Virtualização de serviços e aplicativos
A tecnologia de virtualização isola aplicativos do sistema operacional subjacente 
e de outras aplicações, para aumentar a compatibilidade e a capacidade de ge-
renciamento. Por exemplo: ambientes de docker podem ser utilizados para esse 
propósito (VERAS, 2015).
14
15
App 1
Bins/Libs
App 2
Bins/Libs
App 3
Bins/Libs
Docker Engine
Operating System
Physical Server
Application Virtualizer
Figura 3 – Virtualização de aplicações
Virtualização de rede
É com certeza um tipo de virtualização extremamente utilizado em ambientes 
corporativos, pois tem como objetivo fazer a interligação tanto de máquinas físicas 
como de máquinas virtualizadas. Nesse caso, podemos virtualizar ambientes locais 
de redes, como é o caso das VLANs, switches virtuais, roteadores virtuais e outras 
técnicas aplicadas na rede de comunicação.
Virtualização de redes, disponível em: https://goo.gl/jFJAt7
Ex
pl
or
Virtualização de armazenamento
Essas técnicas são amplamente utilizadas em Data Centers nos quais você tem 
um grande sistema de armazenamento (storages), essa virtualização permite que se 
possa criar, deletar, copiar e manipular de uma forma simples e rápida uma grande 
base de dados armazenados através das redes de comunicação (VERAS, 2015).
Virtualização de armazenamento, disponível em: https://goo.gl/Z2z3wq
Ex
pl
or
Funções de um Administrador 
de Infraestrutura de TIC
Administradores de infraestrutura costumam usar muitos chapéus diferentes. 
Aqui estão apenas algumas das funções e atividades com que um administrador de 
infraestrutura pode ter que lidar:
15
UNIDADE Virtualização
• administração de hipervisor;
• administração de rede com redundância total;
• administração da SAN (por exemplo: conexões, destinos, LUNs, vários cami-
nhos, etc.) ou administração de NAS;
• gerenciamento de listas de compatibilidade de hardware (HCL);
• correção e atualização de vários sistemas e firmware relacionados;
• lidar com vários grupos de suporte a fim de identificar e corrigir problemas 
de infraestrutura;
• Manutenção de múltiplos contratos de manutenção, o que é oneroso e demo-
rado para o time de administração.
Entendendo Diferentes Tipos 
de Hipervisores (Hypervisor)
Como já vimos, um hipervisor é uma fina camada de software que intercepta 
as chamadas do sistema operacional para o hardware. Ele também é chamado de 
Virtual Machine Monitor (VMM). Cria uma plataforma virtual no computador host, 
sobre o qual vários sistemas operacionais residentes são executados e monitorados.
Os hipervisores são de dois tipos:
• Hipervisor Nativo ou Bare Metal;
• Hipervisor Hospedado.
Vamos conhecê-los um pouco mais com maiores detalhes.
Hipervisor hospedado
Os hipervisores hospedados são projetados para serem executados em um siste-
ma operacional tradicional. Em outras palavras, um hipervisor hospedado adiciona 
uma camada de software distinta sobre o funcionamento do sistema do host, en-
quanto o sistema operacional convidado se torna um terceiro nível de software aci-
ma do hardware. Um bom exemplo bem conhecido de um hipervisor hospedado 
seria o Oracle VM VirtualBox. Outros incluem o VMWare Server e Workstation, 
Microsoft Virtual PC, KVM, QEMU e Parallels.
What is a hypervisor? (inglês) em: https://youtu.be/VtXNIy_noWg
Ex
pl
or
Hipervisor Nativo ou Bare-Metal
Os hipervisores nativos ou bare-metal são sistemas de software que são execu-
tados diretamente no hardware do host para controlar o hardware e monitorar os 
16
17
Sistemas Operacionais Convidados. O sistema operacional convidado é executado 
em um nível separado acima do hipervisor. Todos eles têm um Virtual Machine 
Manager. Exemplos dessa arquitetura de máquina virtual são o Oracle VM, o 
Microsoft Hyper-V, o VMWare ESX e o Xen.
Hosted Architecture
OS 1 OS 2
Hypervisor Software (VMM)
Host OS
Hardware
Bare-Metal Architecture
OS 1 OS 2
Hypervisor Software (VMM)
Hardware
Figura 8 – Arquitetura de Host e Arquitetura de Bare-Metal
Entendendo a Virtualização Local e a Nuvem
A virtualização é uma das tecnologias fundamentais que faz a computação em 
nuvem funcionar. No entanto, a virtualização não é computação em nuvem. A com-
putação em nuvem é um serviço que é diferente, fornecido por provedores com 
base em alguns custos.
Em redes corporativas, a virtualização e a computação em nuvem costumam 
ser utilizadas juntas para construir uma infraestrutura de nuvem pública ou privada. 
Em pequenas empresas, cada tecnologia será implantada separadamente para ob-
ter benefícios mensuráveis. De diferentes maneiras, virtualização e a computação 
em nuvem podem ajudar as empresas a manterem pequenos gastos com equi-
pamentos e obter melhor uso possível do equipamento computacional existente 
(COMER, 2016).
Como mencionado anteriormente, o software de virtualização permite que um ser-
vidor físico execute vários ambientes de computação individuais. Na prática, é como 
obter vários servidores para cada servidor físico adquirido. Essa tecnologia é fundamen-
tal para a computação em nuvem. Fornecedores de nuvem têm grandes data centers 
cheios de servidores para alimentar suas ofertas de nuvem, mas eles não são capazes 
de dedicar um único servidor a cada cliente. Assim, eles virtualmente dividem os dados 
no servidor, permitindo que cada cliente trabalhe com uma instância “virtual” separada, 
que pode ser uma rede privada, um server-farmde servidores, etc. (VERAS, 2015).
As pequenas empresas são mais propensas a adotar a computação em nuvem 
ao se inscrever em serviços de TIC. Os maiores provedores de computação em 
nuvem são a Microsoft com o Azure e Amazon.
17
UNIDADE Virtualização
Hiperconvergência
No nível mais alto e mais abstrato, a hiperconvergência pode ser entendida por 
ser a combinação (ou convergência) de muitas potenciais plataformas disparatadas 
em uma única plataforma. Em relação ao hardware físico, isso significa colocar 
computação (CPU e memória) e armazenamento (unidades de disco e de estado 
sólido - SSDs) em um único servidor. De uma perspectiva de software, isso significa 
que, no mínimo, todos os componentes do sistema são gerenciados a partir de uma 
interface comum. Dependendo do ofertado, isso pode ser uma interface de usuário 
personalizada criada pelo fabricante, ou pode ser um complemento ou extensão do 
hipervisor existente do software de gerenciamento.
Como já vimos, o hipervisor é o software que permite várias máquinas virtuais 
(VMs) serem executadas em uma única peça de hardware. Uma definição comu-
mente entendida de hiperconvergência afirma que é “Uma plataforma que reúne 
armazenamento conectado diretamente e elimina a necessidade para uma matriz 
de armazenamento”.
What is Hyperconverged Infrastructure (HCI)? (inglês) em: https://youtu.be/jOewMqQlxo8
Ex
pl
or
O hardware físico é uma peça importante do quebra-cabeça, mas a mais gran-
diosa imagem de hiperconvergência é realmente focada no simplificado geren-
ciamento da infraestrutura do data center, objetivo da hiperconvergência para 
eliminar silos de gerenciamento. Uma característica da hiperconvergência é que 
ela se expande em porções finitas e previsíveis. Estas porções são frequentemente 
representadas como blocos de construção. Como um administrador adiciona blo-
cos de construção (também chamados de nós, tijolos, ou vários outros termos que 
significam “uma única unidade”) para o cluster, todos os componentes de infraes-
trutura relevantes são escalados juntos (VERAS, 2015).
O modelo de infraestrutura hiperconvergente (IHC) contrasta com um modelo 
de data center em que a capacidade de armazenamento pode ser adicionada em 
um ponto e, em seguida, RAM adicional, nós da CPU e assim por diante seriam 
adicionados alguns meses abaixo desse recurso.
Com a hiperconvergência, todos os recursos podem ser dimensionados de uma 
só vez. No entanto, é ainda possível dimensionar recursos independentemente, 
caso seja necessário para uma determinada infraestrutura de TIC.
18
19
Material Complementar
Indicações para saber mais sobre os assuntos abordados nesta Unidade:
 Livros
Virtualização: Tecnologia central do data center
VERAS, M. Virtualização: tecnologia central do data center. 2ª ed. São Paulo: 
Editora Brasport, 2016.
Computação em nuvem
VERAS, M. Computação em nuvem. 1ª ed. São Paulo: Editora Brasport, 2015.
Redes de computadores
WHITE, C. M. Redes de computadores. 1ª ed. São Paulo: Editora Cengage 
Learning, 2013.
Armazenamento e gerenciamento das informações
SERVICES, EMC Education. Armazenamento e gerenciamento das informações. 
1ª ed. São Paulo: Editora Bookman, 2010.
19
UNIDADE Virtualização
Referências
CHAGAS, M. W. S. Sistemas de energia e climatização: aplicações práticas em 
telecomunicações e data center. 1ª ed. São Paulo: Editora Érica, 2014.
COMER, D. E. Redes de computadores e internet. 6ª ed. Porto Alegre: Editora 
Bookman, 2016.
MARIN, P. S. Data centers: desvendando cada passo - conceitos, projeto, infraes-
trutura física e eficiência energética. 1ª ed. São Paulo: Editora Érica, 2011.
20

Continue navegando