Buscar

apostila

Prévia do material em texto

VIRTUALIZAÇÃO DE INFRAESTRUTURA 1 
 
 
Virtualização de 
Infraestrutura 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 2 
Virtualização de Infraestrutura 
 
Tecnologia da Informação - Conceitos 
 
A Tecnologia da Informação (TI) inicia-se com os computadores gigantes 
que ocupavam espaços enormes que não tinham o poder de 
processamento, armazenamento nem de memória, sendo uma ferramenta 
exclusiva das instituições governamentais e algumas grandes empresas. 
O processo evolutivo da TI se caracterizou com a diminuição dos 
equipamentos e o aumento do poder de processamento, armazenamento e 
memória. Podemos destacar, nessa mesma época, a chagada da internet 
e, consequentemente, a evolução das telecomunicações. Hoje contamos 
com equipamentos móveis, pequenos e poderosos, que executam centenas 
de tarefas remotamente. 
 
A TI pode ser definida como um conjunto de todas as atividades e soluções 
providas por recursos computacionais que visam ao gerenciamento de 
dados e informações. 
 
Conceitos de Informação e Dados 
 
Como introdução a esse tópico, devemos explorar o conceito de dados. 
Muitos autores os definem como a matéria-prima da informação – o 
somatório contextualizado dos dados forma a informação. O dado, de 
maneira isolada, não representa nada para nós, usuários; porém, para um 
sistema de computação, ele pode ser agregado a outros e formar dados 
processados – o que se conhece por informação. 
 
A definição de informação é um conjunto de dados tratados; porém, vale 
ressaltar que essas informações se apresentam, na maioria das vezes, sob 
a forma de relatórios que auxiliam a tomada de decisão. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 3 
Segundo Almeida (1999, p. 307), há uma relação íntima entre informação 
e decisão, visto que decisões são tomadas no presente sobre eventos que 
se concretizarão no futuro. 
 
Componentes da TI 
 
Segundo REZENDE e ABREU (2000, p. 76), a TI está fundamentada nos 
seguintes componentes: 
 
 Hardware e seus dispositivos e periféricos; 
 Software e seus recursos; 
 Sistemas de telecomunicações; 
 Gestão de dados e informações. 
 
Conceitos Fundamentais de um Banco de Dados 
 
Não é objetivo dessa disciplina abordar linguagens de estruturação de 
banco de dados nem seus códigos de implementação, mas abordar os 
conceitos de um Sistema de Gerenciamento de Banco de Dados (SGBD). 
Banco de dados é definido como uma coleção de dados interligados que 
formam um todo organizado, sob a forma de informação estruturada dentro 
de categorias específicas. 
 
Para gerenciar, manipular e visualizar as informações, é necessário o 
software de SGBD, que, por meio de uma interface gráfica e inteligente, 
permite ao usuário incluir, gravar, editar e executar funções dentro do 
banco de dados. 
 
O SGBD é um organizador de dados que estabelece uma ordenação com 
base em quatro principais modelos: 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 4 
 Modelo hierárquico: os registros de dados são organizados 
estruturalmente em forma de árvore, com cada registro pertencendo a um 
hierarquicamente superior; 
 Modelo em rede: é, na verdade, uma versão do hierárquico, sendo que 
um registro-filho pode ser filiado a mais de um registro-pai. 
 Modelo relacional: nesse modelo, os dados são organizados em tabelas 
relacionadas entre si. 
 Modelo orientado a objetos: esse SGBD identifica as informações como 
objetos, pois, assim, é possível relacionar a esse banco dados complexos 
que são usados pelas linguagens orientadas a objetos. Ex: 
C++, C#, Java, Delphi. 
 
A linguagem Strutured Query Language (SQL) é um padrão para consulta e 
manipulação de banco de dados relacional, que possui muitas 
funcionalidades e separa os dados em tabelas distintas, para que não ocorra 
redundância. 
 
Introdução aos Sistemas de Informação 
 
A sociedade mundial já passou por muitas mudanças tecnológicas, porém, 
nas últimas três décadas, essas mudanças impactaram diretamente nossa 
rotina de vida – e incluídas nessa revolução tecnológica estão as empresas, 
que antes registravam suas transações em pilhas e pilhas de papeis, mas 
hoje contam com uma poderosa ferramenta, chamada Sistema de 
Informação (SI). 
 
A chegada do SI trouxe uma reorganização no que tange aos aspectos 
estrutural, funcional, comportamental e de desempenho. Atualmente, a 
maioria das empresas valoriza a informação como um poderoso diferencial 
competitivo, buscando novas tendências e tecnologias para melhor se 
adaptar ao novo cenário mercadológico atual. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 5 
 
Rosini e Palmisano (2008, p.10) afirmam que a “cultura organizacional das 
empresas é que acaba sendo fator determinante para a implementação de 
processos de aquisição de conhecimento, além de influenciar na escolha do 
tipo de tecnologia a ser utilizada”. 
 
O SI é definido como um conjunto de componentes interligados que 
concorrem a um objetivo comum, e nessa infraestrutura destacamos os 
componentes de hardware, software, instalações de redes, banco de dados 
e o recurso humano (Figura 1). 
 
Figura 1 – Componentes de um BD 
 
Fonte: 
www.devmedia.com.br 
 
Laudon e Laudon (1999, p. 4) definem SI como um conjunto de 
componentes inter-relacionados e trabalhando juntos para coletar, 
recuperar, processar, armazenar e distribuir informação com a finalidade 
de facilitar o planejamento, o controle, a coordenação, a análise e o 
processo decisório em empresas e outras organizações. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 6 
OBS: Um SI tem como atividades entradas e saídas; assim, quando uma 
saída retorna ao sistema como entrada, visando desempenho, temos 
Feedback ou Retroalimentação. 
 
Estrutura Sistêmica da Organização 
 
As empresas têm a informação como um bem intangível, que agrega valor 
e representa, atualmente, o principal componente da infraestrutura 
organizacional. Desse modo, devemos destacar a importância do SI, que é 
o responsável pela coleta, pelo processamento, controle, armazenamento 
e distribuição dessa informação. 
 
A estrutura sistêmica da informação é organizada, hierarquicamente, nas 
empresas com subsistemas interligados, visando ao processamento dos 
dados e, consequentemente, à transformação em informações prontas para 
uma tomada de decisão clara e precisa. 
 
A Figura 2 apresenta como um sistema de informação pode ser 
hierarquicamente: 
 
 Sistema de processamento de transações (SPT): fica 
posicionado na base da pirâmide e tem a função de alimentar o sistema 
por meio de registros das transações e informações necessárias para o 
funcionamento da organização; 
 Sistema de informações gerenciais (SIG): desenvolve relatórios 
sobre o desempenho atual da organização, permitindo monitorar e 
controlar a empresa e até mesmo prevendo seu desempenho futuro; 
 Sistema de apoio à decisão (SAD): foca em problemas únicos 
alterando-se com rapidez e que não possui procedimentos de resoluções 
predefinidos. Esse sistema utiliza informações obtidas pelo SPT e SIG, 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 7 
além de informações externas que auxiliam na análise e na resolução do 
problema; 
 Sistema de Informação Estratégica (SIE): aproveita-se dos 
dados processados, que se transformam em relatórios e filtros 
específicos para potencializar sua vantagem competitividade e se 
adequar à dinamicidade do mercado. 
 
OBS: alguns autores consideram o nível do conhecimento como sendo o 
responsável pela produção de mídias e pela manipulação de novas 
tecnologias. 
 
Exemplo: E-commerce, E-business, softwaresaplicativos, portal 
corporativo. 
Figura 2 – Níveis hierárquicos de um SI 
 
 
 
 
 
 
 
 
 
 
 
 
 
Telecomunicações e Rede de Computadores 
 
As redes de computadores foram criadas por volta da década de 1950, junto 
com a segunda geração de sistemas computacionais e acompanhadas pelo 
Fonte:https://kaang.wordpress.com/category/sistem
as-de-informacao/ 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 8 
padrão de processamento time-sharing, que objetivava compartilhar 
tarefas e espaço em disco de computadores centrais, chamado de 
mainframe, o qual centralizava as operações entre “terminais burros”. 
As empresas, em princípio, começaram a investir em sistemas 
computacionais, e consequentemente tornou-se necessário interligá-los a 
fim de compartilhar os recursos computacionais; assim, criou-se a junção 
da informática com a estrutura das telecomunicações, chamada de 
teleinformática. 
 
O crescimento das redes de computares trouxe o conceito de LAN, MAN, 
WAN e, principalmente, SAN. 
 
 LAN (local Area Network): definida por sua extensão de abrangência, que 
geralmente ocupa estruturas físicas próximas, onde os computadores são 
interligados por cabos do tipo pares trançados e ondas eletromagnéticas. 
Exemplo: Ethernet, TokenRing, Token Bus; 
 MAN (Metropolitan Area Network): é, na verdade, a ampliação de uma LAN, 
podendo estender-se em centenas de quilômetros entre cidades e com 
velocidades consideráveis. Exemplo: FDDI, ATM; 
 WAN (Wide Area Network): não possui definição padrão de extensão de 
abrangência, podendo abranger grandes distâncias e interligar redes entre países 
e até continentes; 
 SAN: rede de armazenamento de grande volume de dados, que conecta muitas 
estações de trabalho a dispositivos de armazenamento (storage), oferecendo 
flexibilidade, dispositivo e escalabilidade. 
 
Meios de Comunicações 
Podem ser chamados de meios físicos ou enlaces físicos e são definidos 
como as ligações físicas que interligam os equipamentos em uma rede de 
computadores. 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 9 
Exemplos de meio físico: par de fios de cobre trançado, cabo coaxial, cabo 
de fibra ótica, espectro de rádio terrestre e espectro de rádio por satélite. 
 
Topologia de Rede 
 
 A topologia refere-se às conexões de rede e à organização dos enlaces 
físicos, junto com os equipamentos de comutação. 
 
Principais modelos de topologia de rede: 
 
 Anel: não possui um equipamento central no auxílio da comunicação 
entre os computadores, que se interligam diretamente uns aos outros de 
forma unidirecional; 
 Barra: nessa topologia os computadores estão conectados a uma barra, 
meio físico, que compartilha largura de banda entre os nós da rede; 
 Estrela: atualmente, a topologia utilizada em LANs e caracterizada por 
possuir um equipamento central (Hub ou Switch) que interliga os 
computadores da rede. 
 
TOPOLOGIA PONTOS POSITIVOS PONTOS NEGATIVOS 
 
BARRAMENTO 
 
Estrutura bem simples, 
não requer muitos cabos. 
Em períodos de muita 
demanda a rede pode 
ficar bem lenta, difícil 
localização de falhas. 
 
 
ANEL 
 
Instalação razoavelmente 
simples, apresenta 
desempenho uniforme 
sob condições diversas 
de tráfego. 
 
Na falha de um ponto da 
rede toda rede para de 
funcionar. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 10 
 
ESTRELA 
Preço acessível, tolerante 
a falhas, fácil instalação. 
 
Requer mais cabeamento 
 
 
Ponto a Ponto e Multiponto 
 
O ponto a ponto se caracteriza pelo fato de os equipamentos serem 
conectados diretamente uns aos outros. Já a ligação multiponto permite a 
conectividade de muitos para muitos (Figura 3). 
 
 
Figura 3 - Ligação ponto a ponto e multiponto 
 
Fonte: Elaborado pelo autor 
 
 
Modelo OSI 
 
Para iniciarmos nossa abordagem sobre o modelo OSI (em inglês Open Systems 
Interconnection), assim 
TCP/IP, devemos definir o que é um protocolo de comunicação. Trata-se de um 
conjunto padronizado de regras que estabelece a comunicação entre os dispositivos 
de uma rede de computadores, principalmente a internet. 
 
 
 
 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 11 
Considerado um modelo-padrão dos protocolos de comunicação que 
garante a compatibilidade, na comunicação end to end, entre sistemas 
distintos e suas aplicações, o Modelo OSI foi lançado em 1984 pela 
Organização Internacional para a Normalização e divide-se em sete (07) 
camadas de abstração, onde seus respectivos protocolos inserem suas 
funcionalidades em prol da mensagem transmitida entre origem e destino. 
O Modelo OSI é composto por 7 camadas, cada uma delas realizando 
determinadas funções. As camadas são: Aplicação, Apresentação, Sessão, 
Transporte, Rede, Dados e Física. 
 
Modelo TCP/IP 
 
O modelo TCP/IP é uma arquitetura aberta, utilizada na internet e que apoia 
a comunicação entre as aplicações distribuídas. Esse modelo estabelece 
hierarquicamente cinco (05) camadas distintas, onde cada uma, por meio 
dos seus respectivos protocolos, oferece seus serviços à camada 
imediatamente superior. São elas: 
 
 Camada de Aplicação: na origem, essa camada inicia a comunicação 
entre as aplicações distribuídas na internet. 
Exemplos de protocolos: HTTP, FTP, SMTP. 
 Camada de Transporte: uma das principais camadas desse modelo, 
pois possui serviços que garantem e entrega dos pacotes no destino. Porém, vale 
destacar os principais protocolos dessa camada: TCP e UDP. 
 
o O TCP (Protocolo de Controle de Transmissão) se destaca por fornecer comunicação 
lógica entre processos de aplicação que rodam em hospedeiros diferentes e pela 
confiança oferecida às aplicações, oferece um serviço orientado de conexão, isto 
significa que o TCP garante a entrega confiável do pacote no destino. 
Observação: o TCP não roda em equipamentos intermediários (roteador, switch, 
hub); somente em sistemas finais. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 12 
o O UDP (Protocolo de Datagrama de Usuário) é o contrário do seu companheiro de 
camada; destaca-se pela velocidade que oferece às aplicações, mas é caracterizado 
como um protocolo que oferece um serviço não confiável e não orientado à conexão. 
Em suma, a responsabilidade principal da camada de transporte é ampliar o serviço 
de entrega IP, ou seja, essa camada executa multiplexação/demultiplexação. 
 
 Camada rede: é uma camada complexa e responsável, principalmente, pelo repasse 
e roteamento do datagrama IP, dentro de um roteador. O universo de um roteador é 
o ambiente nativo dessa camada, pois o endereçamento do datagrama é 
responsabilidade do protocolo IP, presente na camada em questão. 
 
 Camada de enlace: para falarmos dessa camada, é preciso destacar que há dois 
tipos de canais de enlace: broadcast e ponto a ponto. Uma vez que essa camada é 
responsável pelo compartilhamento do canal entre os nós de uma LAN e oferece 
através de seus protocolos, serviços fundamentais ao datagrama IP, são eles o 
controle fluxo, controle de erros, entrega confiável, detecção de erros, correção de 
erros e transmissão half-duplex e full-duplex. 
 
 Camada Física: Na verdade, nem representa uma camada,pois não possui 
protocolos e é representada pelo respectivo meio físico. 
 
Internet, Intranet e Extranet 
 
Em 1991 o Brasil, por meio da Fundação de Amparo à Pesquisa de São 
Paulo (Fapesp), conseguiu sua primeira conexão com a rede mundial de 
computadores. Atualmente a internet faz parte da nossa vida e é 
considerada o principal meio de comunicação, pois provê conectividade para 
as aplicações distribuídas na internet. 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 13 
Em se tratando da Infraestrutura da Internet, podemos considerar três 
componentes vitais: provedores de backbones; provedores locais de 
serviços; e usuários finais. 
 
Backbone (espinha dorsal) é uma rede com capacidade para transmitir um 
grande volume de dados, que dá o suporte para os backbones locais 
poderem oferecer largura de banda aos usuários. 
 
Ainda com relação à internet, é importante dizer que se trata de um 
ambiente de muitas aplicações distribuídas, que executam serviço confiável 
orientado para conexão e um serviço não confiável não orientado para 
conexão. 
 
A intranet é uma rede dentro da organização que utiliza tecnologias da 
internet, ou seja, é uma internet interna à empresa, porém pode ser 
acessada por outras intranets de clientes, fornecedores e outros parceiros; 
nesse caso, temos a extranet. Assim, a intranet e extranet são formas 
estratégicas de uma empresa poder construir e fortalecer relações com 
clientes e fornecedores. 
 
Infraestrutura TI para Virtualização – Visão Geral 
 
A infraestrutura de TI pode ser considerada o alicerce do modelo 
operacional da organização baseada na informação. O objetivo da TI 
corporativa é oferecer suporte adequado e necessário para que os 
processos de negócio cresçam e funcionem sem grandes interrupções. 
 
A evolução da comunicação via internet se deu com a melhoria da estrutura 
de TI, que inclui, principalmente, as tecnologias de redes, sistemas 
operacionais e recurso humano. Porém devemos destacar a governança de 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 14 
TI, que é a prática de alinhar as estratégias de TI com a estratégia da 
organização. 
 
O Open ID Connect (OIDC) estima que, em 2020, o universo digital será 44 
vezes maior que em 2009, saindo de 0,8 ZB para 35 ZB. Assim, podemos 
ter uma ideia de quanto precisaremos dessa infraestrutura. Atualmente, o 
termo veiculado no ambiente de TI é o Big Data, que significa um volume 
imenso de dados que impactam diretamente uma organização, trazendo 
transtornos para o negócio. 
 
A dependência das organizações com relação à TI é cada vez maior. Logo, 
deve existir uma gestão eficiente na questão de planejamento e decisões 
que garantam a saúde financeira dessa empresa; porém, vale ressaltar que 
o investimento em infraestrutura é muito demorado e pouco incentivado, 
por parte das empresas, pois os executivos não acreditam, por ignorância, 
na eficiência da TI para a empresa. 
 
Devemos destacar dois componentes que são fundamentais e pertencem à 
infraestrutura de TI: o datacenter e a virtualização. O datacenter é o 
componente central da infraestrutura, e a virtualização permite otimizar 
espaços físicos, recursos computacionais e recursos humanos. 
 
Investimento em Infraestrutura de TI 
 
Os mais importantes investimentos, que a TI necessita, são: 
 
 Pôr mais dinheiro nos problemas de TI 
 Cortar os gastos com TI 
 Demitir o CIO 
 Terceirizar o problema da TI 
 Remover os sistemas legados 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 15 
O investimento em TI, atualmente, conta com os modelos de governança 
que prioriza o alinhamento estratégico, e este visa à ligação entre os planos 
de negócio e a TI, definindo e validando a proposta eficiente dessa 
infraestrutura. É importante a implantação de portfólio de projetos de TI 
que envolvem todos os custos de hardware, software, redes e recurso 
humano. 
 
A consultoria McKinsey & Company também realizou uma pesquisa em 
grandes empresas americanas que sugeriu que 25% do orçamento de TI de 
grandes empresas dos Estados Unidos vai para o datacenter. 
 
Governança TI – Conceitos ITIL e TCO 
 
A governança tem como principal fundamento o alinhamento dos negócios 
da empresa com a estratégia de TI. Essa relação recai, diretamente, sobre 
o custo em dinheiro que vai para a TI (Figura 4). A governança tem o 
objetivo de criar boas práticas de uso da TI com orçamento, às vezes, bem 
reduzido. 
 
Vale ressaltar que, desse percentual investido, 25% é destinado aos 
datacenters, pois é o responsável pelo armazenamento e processamento 
de boa parte dos dados e informações. 
 
 
 
 
 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 16 
Figura 4 – Governança TI 
 
Fonte: Elaborado pelo autor 
 
ITIL – Biblioteca de Infraestrutura da Tecnologia da Informação 
 
Na década de 1980, a qualidade da infraestrutura de TI era precária. No 
entanto, com o aumento da demanda de serviços e da própria utilização da 
internet, houve a necessidade de se desenvolver uma prática que 
aperfeiçoasse o uso dos recursos já existentes na empresa antes de se 
adquirirem novos equipamentos e tecnologias, pois de nada adiantaria ter 
uma infraestrutura complexa e cara, se os serviços fossem aindaprecários. 
Esse esforço resultou na criação da Biblioteca de Infraestrutura da 
Tecnologia da Informação (ITIL, do inglês, Information Technology 
Infrastructure Library), desenvolvida em 1989 e 1995, que consistia 
inicialmente de 31 livros que cobriam todos os aspectos do gerenciamento 
de serviços. 
 
A ITIL tem algumas outras versões, todas funcionando como padrão de 
boas práticas de gerência de serviços TI, considerando a atividade e a 
necessidade do negócio. Pesquisa realizada pela FGV(GVcia), em 2007, 
verificou a intensidade do uso de práticas de gerenciamento de serviços de 
TI no Brasil. O estudo sugere o amplo domínio da ITIL (50,4%) quando se 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 17 
trata do uso de boas práticas de gerenciamento de serviços de TI 
reconhecidas pelo mercado. Em resumo, a ITIL e suas versões são 
frameworks e não softwares; são, na verdade, uma coletânea de livros que 
auxiliam as empresas quanto aos projetos de TI. 
 
TCO – Custo Total de Propriedade 
 
Foi um processo demorado a adequação da infraestrutura de TI à empresa, 
pois as inovações nessa área eram bem rápidas, o que tornava 
equipamentos, recursos e práticas desatualizados em pouco tempo de uso. 
 
Logo, o custo para aquisição, implantação e gerenciamento era perdido, 
gerando contas a pagar. 
O conceito de TCO foi popularizado pelo Gartner Group em 1987 e vem 
ganhando adeptos, pois é comprovadamente eficiente e abrangente. 
O TCO tem dois principais componentes: 
 
 Custos diretos: os mais fáceis de se mensurar; 
 Custos indiretos: possuem natureza “invisível” e são mais difíceis de se 
mensurar. 
 
Novas soluções, tecnologias e situações estão surgindo e impactando diretamente a 
análise e os resultados do TCO. Dentre elas, podemos destacar os softwares sem 
licença (open source), que têm, inicialmente, custo de licença zero, mas que agregam 
outros valores indiretos, como treinamentos e profissionais capacitados. 
 
Já a Cloud Computing oferece toda uma estrutura remota em que é possível 
uma redução considerável no custo da banda larga e no armazenamento devido à 
segurança adotada. Derivado da Cloud Computing, o SaaS é o responsável pela maior 
parcela de economia visualizada em um TCO, pois, além de englobar todos os custos 
indiretos, relacionados à entrega/ disponibilização da tecnologia, também elimina 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 18 
despesas ocultas, tais quais energia elétrica, climatização, espaço físico, custos de 
capital, depreciação. 
 
Impactos da Virtualização 
 
Todas as mudanças ocorridas nos últimos anos no Brasil e no mundo exigem 
das organizações processos mais flexíveis e inovadores; portanto, devem 
contar com uma infraestrutura de TI cada vez mais adaptável. 
 
As organizações precisam de uma plataforma digital estável que possibilite 
a produção de resultados eficientes mesmo sob condições adversas; porém, 
não é o que se vê na maioria das empresas. 
 
A virtualização é uma peça-chave nesse processo de transição, pois 
possibilita alterar a infraestrutura rapidamente, utilizando ferramentas 
lógicas e desvinculando as aplicações dos recursos físicos que acabam por 
agilizar e promover o aparecimento de uma nova arquitetura virtual e 
transparente. 
 
A virtualização é uma tecnologia que transforma todo aparato físico em uma 
base autoconfigurável, a qual se molda de acordo com a demanda das 
aplicações e dos negócios. 
 
Infraestrutura de TI como Serviço 
 
A infraestrutura de TI como serviço é a capacidade que as empresas têm 
de oferecer processamento e armazenamento de forma transparente. Essa 
infraestrutura se caracteriza por deixar de lado hardware e software e 
passar a utilizá-los de maneira virtual via internet. 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 19 
Conceitos de Computação em Nuvem 
 
Trata-se de um conjunto de recursos virtuais facilmente utilizáveis e 
acessíveis, tais como hardware, software, plataformas de desenvolvimento 
e serviços. Esses recursos podem ser dinamicamente reconfigurados para 
se juntarem a uma carga de trabalho (workload) variável, permitindo a 
otimização do uso dos recursos. Esses recursos são tipicamente explorados 
por um modelo de serviço, na nuvem, do tipo “pague pelo uso”, onde as 
garantias são asseguradas pelo provedor, do serviço, por meio de acordos 
de níveis pré-estabelecidos contratualmente. 
 
A nuvem oferece funcionalidades e serviços desenvolvidos utilizando novas 
tecnologias, como virtualização, arquiteturas de aplicação e infraestrutura 
orientadas a serviço e tecnologia baseadas na internet. 
 
A computação em nuvem centraliza aplicações e recursos em ambientes de 
larga escala, que chamamos de elasticidade. 
 
Elasticidade é o conceito em que a demanda de recursos solicitados à 
nuvem sempre está adequada e sem desperdício, sendo os serviços 
oferecidos em sua exatidão, de forma transparente e econômica. 
 
Segundo o National Institute of Standards and Technology (Nist), 
computação em nuvem é um modelo que possibilita o acesso à rede de 
forma onipresente, conveniente e sob demanda, pois é um conjunto 
compartilhado de recursos de computação configuráveis alocados e liberado 
com o mínimo de esforço de gerenciamento. 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 20 
Características Essenciais da Computação em Nuvem 
 
A nova arquitetura de computação deve agregar características essenciais 
de orientação para serviços, a saber: 
 
 Serviço sob demanda: as funcionalidades computacionais são providas 
automaticamente sem a interação humana; 
 Amplo acesso aos serviços de rede: recursos computacionais estão 
disponíveis pela internet e são acessados via mecanismos padronizados; 
 Pool de recursos: recursos físicos e virtuais são utilizados para servir 
múltiplos usuários, sendo alocados sob demanda; 
 Elasticidade rápida: as funcionalidades devem ser rápidas e elásticas. 
Deve parecer que os recursos são ilimitados; 
 Medição de serviços: os sistemas de gerenciamento controlam e 
monitoram automaticamente os recursos para cada tipo de serviço. 
 
Modelos de Serviços para Computação em Nuvem 
 
Na prática, a organização cliente aluga infraestrutura em nuvem – 
servidores, armazenamento e rede sob demanda. Isso significa que o 
cliente terá seus recursos de forma otimizada e sem desperdício, à medida 
que ele passa a utilizar somente a infraestrutura necessária. 
 
Existem três principais modelos de serviço em computação em nuvem: 
 
 Infraestrutura como um serviço (IaaS): capacidade em que as empresas provedoras 
fornecem serviços de processamento e armazenamento de forma totalmente 
transparente. Esse serviço não dá o controle da infraestrutura física, mas os softwares 
de virtualização possibilitam o controle sobre sistemas operacionais, armazenamento, 
aplicações e recursos de rede; 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 21 
 Software como um serviço (SaaS): aplicações de interesse de uma grande quantidade 
de usuários são hospedadas na nuvem como uma alternativa ao processamento local. 
Ex: AppEngine do Google e o SalesForce.com; 
 
 Plataforma como um serviço (PaaS): plataforma oferecida pelo provedor para o 
desenvolvimento de aplicações que serão executadas e disponibilizadas na nuvem. 
 
Modelos de Implantação de Computação em Nuvem 
 
A Figura 5 apresenta os três principais modelos de implantação existentes 
da computação em nuvem. São eles: 
 
 Nuvem privada (private cloud): caracterizada pelo uso, exclusivo, por parte do cliente 
dos serviços adquiridos na nuvem, nada sendo disponibilizado forado ambiente 
interno da empresa. Pesquisa realizada pela Forbes Insights com 235 CIOs e outros 
executivos de grandes companhias americanas aponta que 52% das organizações 
estão avaliando a adoção de nuvens privadas; 
 
 Nuvem pública (public cloud): disponibilizada publicamente através do modelo “pague 
por uso”. É oferecida por organizações públicas ou por grandes grupos industriais que 
possuem ampla capacidade de processamento e armazenamento; 
 
 Nuvem híbrida (hybrid cloud): a infraestrutura é única, porém composta de duas ou 
mais nuvens (privadas ou públicas). 
 
 
 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 22 
Figura 5 - Modelos de Implantação de Computação em Nuvem 
 
Fonte: Elaborado pelo autor 
 
Por ser uma arquitetura totalmente nova, diversos modelos estão surgindo 
com o objetivo de criar uma referência-padrão de uso. Podemos destacar 
algumas arquiteturas importantes, a saber: 
 
 Nist Cloud Computing Reference Architecture; 
 IBM Cloud Reference Architecture; 
 Cisco Cloud Reference Architecture Framework; 
 Cloud Reference Model da Cloud Security Alliance. 
 
Os Principais Atores do Modelo de Referência NIST são: 
 
 Consumidor: indivíduo ou organização que adquire os produtos e serviços da nuvem; 
 Provedor: indivíduo ou organização responsável por disponibilizar os serviços e 
produtos; 
 Integrador: entidade que faz a mediação gerenciada entre consumidor e provedor; 
 Auditor: parte responsável por avaliar imparcialmente os serviços de nuvem, 
operações do sistema de informação, desempenho e segurança na nuvem; 
 Operador: elemento intermediário que fornece a conectividade e transporte de 
serviços de nuvem. 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 23 
Impactos da Virtualização na Infraestrutura como Serviço 
 
Do contexto da computação em nuvem e, consequentemente, da 
virtualização, devemos destacar o fato de que não adiantam investimentos 
pesados em infraestrutura para melhoria dos serviços, se o modelo utilizado 
no gerenciamento e oferta dos serviços de TI não for orientado pela 
demanda. 
 
O investimento deve ser pontual e incidir, de forma planejada, o datacenter 
e a sua estrutura. Diversos provedores de internet, por exemplo, 
possuidores de grandes datacenters, ainda não conseguem entregar a 
banda, o armazenamento e o processamento adequadamente e usam a 
virtualização de forma comedida. 
 
A virtualização é, ou pelo menos deveria ser, a tecnologia central desse 
novo modelo de serviços, porém os provedores devem melhorar a 
elasticidade dos serviços sob demanda. Essa não adequação na entrega dos 
serviços gera impactos negativos para quem entrega e quem recebe o 
serviço, já que o modelo é conhecido como “pague à medida que utilizar”. 
 
Tecnologia de Virtualização – Conceitos Gerais 
 
Em linhas gerais, a virtualização transforma servidores físicos, 
principalmente, em servidores virtuais, ou seja, o que antes era um 
conjunto de servidores distribuídos em uma estrutura física grandiosa pode 
ser substituído hoje por uma sala-cofre com medidas mínimas e que abriga 
todo o datacenter de uma empresa de grande porte. Segundo Veras (2011), 
a ideia da virtualização nasceu com a publicação de um artigo na 
Conferência Internacional de Processamento de Informação. 
Posteriormente, a IBM implementou esse conceito em seus mainframes. 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 24 
A Forrester Consulting fez uma pesquisa em que entrevistou vice-
presidentes e diretores do nível C em 29 grandes empresas e constatou que 
a virtualização de servidores trouxe os seguintes benefícios: 
 
 A TI se tornou mais eficiente; 
 A empresa passou a ter um time to market mais adequado; 
 Os serviços de TI tornaram-se mais previsíveis; 
 Houve redução de custos a longo prazo. 
Geralmente, as empresas deixam de obter tais serviços de virtualização 
devido ao investimento inicial nos parques de servidores, que são valores 
grandiosos. Porém, pesquisas apontam que o retorno do investimento pode 
ocorrer em até menos de 12 meses, e os benefícios adquiridos são redução 
de custos de hardware, em primeiro lugar, e melhores condições de 
recuperação de desastres e continuidade do negócio, em segundo. 
Pesquisas do IDC dão conta de que só 15% da capacidade dos servidores 
são utilizados nas empresas que não usam a virtualização, e os 85% 
restantes ficam ociosos. 
Tipos de Virtualização: servidores, desktop, armazenamento, aplicações e 
rede. 
 
Conceitos de Workload e Throughput 
 
Temos de ressaltar a importância de dois conceitos fundamentais no 
contexto da virtualização: o Workload (carga de trabalho) e o Throughput 
(taxa de transferência). 
 
O Workload (carga de trabalho) constitui-se, basicamente, dos dados 
processados e de instruções executadas; tal tarefa define a qualidade de 
serviço percebida pelo usuário. Essa carga é totalmente variável, portátil e 
oscila de acordo com as aplicações utilizadas. Representa uma unidade 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 25 
escalável e totalmente imprescindível ao controle da tecnologia de 
virtualização. 
 
São características dessa unidade de desempenho: 
 
 Pode variar drasticamente de um segundo para outro ou de um dia para 
outro, não havendo uma regularidade estabelecida; 
 Possui variações, às vezes, imprevisíveis que impactam diretamente o 
desempenho do sistema de informação e suas aplicações; 
 Representa uma unidade de escalabilidade de desempenho, totalmente 
imprescindível ao controle da tecnologia de virtualização. 
 
Outra unidade de desempenho fundamental para as transações na nuvem 
é o Throuoghput (taxa de transferência), que define a capacidade do 
hardware e software. 
 
São parâmetros para a medição de tal unidade a velocidade de entrada e a 
saída, a velocidade de CPU, as capacidades de paralelismo e a eficiência do 
sistema operacional (SO). Logo, pode-se concluir que o núcleo do SO, o 
espaço em disco, os controladores de cache e o microcódigo são exemplos 
dos recursos a serem avaliados para que se defina o Throughput. 
 
Máquina Virtual 
 
A Figura 6 apresenta a virtualização, um particionamento de um servidor 
físico em vários servidores lógicos – também conhecidos por máquinas 
virtuais (uma camada de abstração entre hardware e software e que serve 
de proteção ao acesso do hardware). 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 26 
Figura 6 – Transformação máquina física em várias máquinas lógicas 
 
Fonte: https://www.jorgedelacruz.es/2014/04/18/vmware-vcenter-converter-
standalone-5-5-1/ 
 
A camada de virtualização de servidores mais conhecida é o hypervisor ou 
monitor de máquina virtual – VMM. Em resumo, um servidor físico pode 
rodar várias VMs, cada qual com o seu sistema operacional e suas 
respectivas aplicações. 
 
Após essa breve introdução, podemos definir uma máquina virtual como 
um conjunto de softwares localizado, isoladamente, dentro de um servidor 
físico com capacidade independente de executar seu próprio sistema 
operacional e suas aplicações. Vale destacar que uma VM tem todas as 
características lógicas de um servidor e possui, também, CPU, memória, 
disco rígido e NIC virtuais baseados em softwares. Pode ser definida, 
também, como uma cópia fiel da máquina real que a hospeda. 
 
Uma VM é composta exclusivamente por software, e assim se torna 
totalmente transparente, não podendo ser notada por um sistema 
operacional, muito menos por aplicações e outros equipamentos da rede. 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 27 
Benefícios e LimitaçõesDiante de tantos argumentos utilizados neste material didático, podemos 
considerar a virtualização uma nova tendência no uso da TI. 
 
Os especialistas de TI comprovam a eficiência dessa tecnologia, e muitos já 
priorizam usar a TI de forma virtualizada para o crescimento dos negócios, 
pois confere maior flexibilidade dos recursos, redução do consumo de 
energia, redução do número de servidores e espaço físico para storage e 
backup, padronização das plataformas, melhor disponibilidade dos 
sistemas, gerenciamento centralizado, mitigação dos riscos da mudança, 
redução do tempo de implantação de servidores e a possibilidade de se 
fazer mais com menos. 
 
A alteração da infraestrutura tradicionalmente física em uma infraestrutura 
virtual representa um desafio para o projeto de virtualização, pois se deve 
considerar um fator essencial para a continuidade do funcionamento do 
datacenter: buscar o mínimo de paralisações das operações do negócio, 
mesmo com limitações impostas pela transição. 
 
Os benefícios se potencializam à medida que as soluções de virtualização 
avançam nos aspectos referentes a balanceamento de carga dinâmica, 
recuperação de falhas, segurança e interoperabilidade de sistemas 
diferentes. 
 
Como todas as novas implantações, a virtualização conta com limitações e 
dificuldades, a saber: 
 
 Aplicativos de carga excessiva: dentre as aplicações que impõem dificuldades à 
virtualização, podemos destacar os gerenciadores de bancos de dados (SGBD). 
Geralmente os projetos não contemplam a virtualização desse servidor, pois a 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 28 
demanda sobre ele é muito grandiosa, sendo, portanto, destinado um servidor físico 
para esse serviço. Porém, não há uma regra para essa alocação; tudo dependerá da 
situação e dos atores envolvidos; 
 
 Gerenciamento do licenciamento: é necessário saber a regra para cada aplicação, pois 
o fabricante descreve regras de uso complexas; 
 
 Falta de profissionais especializados: Por ser a virtualização uma tecnologia nova, 
poucos profissionais possuem competência de uso e manutenção. 
 
Técnicas 
 
Considerando que a virtualização se dá, obrigatoriamente, em sistemas de 
computação, é importante abordarmos os principais componentes que 
participam efetivamente da técnica de virtualização: hardware, sistema 
operacional, aplicativos e usuários. Vamos considerar uma maior 
importância para o sistema operacional, que é o responsável por receber as 
camadas de virtualização, os sistemas convidados e o hardware, que se 
subdivide em camadas menores para estabelecer as VMs. 
 
Podemos citar o servidor como sendo um exemplo de hardware e considerar 
que este é dividido logicamente em camadas de abstração independentes. 
Isso significa que cada subsistema executa suas funções sem que seus 
detalhes internos sejam expostos. 
 
Hardware 
 
Dentro do contexto de um sistema de computação, destacamos que a sua 
arquitetura pode ser descrita de forma lógica e funcional, e ser dividida em 
três grandes partes: 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 29 
 Conjunto de instruções de máquina: define a abstração do processador por 
meio de uma linguagem específica, desenvolvida por assembly. Dentre as instruções, 
podemos destacar modos de endereçamento e os registradores do processador; 
 Projeto do sistema: trata, especificamente, dos componentes que auxiliam o 
processador na sua árdua missão. Dentre os principais componentes, temos 
barramento, memória, controladores, subsistemas de I/O, todos operando em 
sincronicidade para o melhor desempenho do processador; 
 Microarquitetura: descreve a arquitetura interna do processador, pois reflete 
diretamente o nível de abstração entre hardware e o sistema operacional. 
O conjunto de instruções é classificado em modo usuário e modo kernel. 
 User (usuário): formado por todas as instruções de máquina que representam 
o usuário, ou seja, modo não privilegiado; 
 System (ou modo Kernel): formado por instruções, privilegiadas, que definem 
a configuração do processador e de alguns componentes de hardware. 
 
Sistema Operacional 
 
A funcionalidade de um sistema operacional é bem semelhante entre os 
vários sistemas presentes no mercado, ou seja, ele atua gerenciando 
recursos do sistema computacional a fim de executar tarefas. 
 
O sistema operacional é iniciado por um programa chamado “bootstrap”, 
que o coloca na memória principal. A partir dessa situação, os processos, 
que são programas em execução, presentes nessa memória, começam uma 
concorrência por recursos, na qual incluímos o próprio processador, que 
inicia um processamento virtual para atender a toda a demanda de 
processos. 
 
Sistemas operacionais funcionam baseados em processo. Um processo é uma 
abstração que representa um programa em execução. Cada processo é um ambiente 
de execução isolado dos demais processos que executa sobre um processador lógico, 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 30 
isto é, um processador virtual, vinculado a si no momento da criação do processo. 
Cabe ao núcleo do sistema operacional, através de seu escalonador, alternar os 
diferentes processadores lógicos (virtuais) sobre um processador físico. A ilusão de 
paralelismo é criada pelo chaveamento rápido entre os processos. 
(CARISSIMI, 2009). 
 
Categorias de Virtualização 
 
De que maneira a virtualização abstrai o hardware e o sistema operacional? 
A virtualização nada mais é do que a extensão ou a substituição de recursos 
de TI, de modo a imitar seu comportamento via softwares de virtualização, 
que são classificados em: 
 
 Software de nível de hardware: essa camada de virtualização é posta 
diretamente sobre a máquina física, deixando parecer às camadas superiores como 
sendo hardwares abstratos, idênticos aos originais; 
 Software de nível de sistema operacional: essa camada de virtualização 
possibilita a partição lógica da memória, que recebe outro sistema operacional, 
chamado “convidado”, e este simula de forma idêntica uma máquina isolada; 
 Software de nível de linguagens de programação: essa camada de 
virtualização é um programa do sistema operacional, com o objetivo de criar uma VM 
sobre a qual rodará uma aplicação desenvolvida em linguagem de programação de 
alto nível. 
 
Máquina Virtual de Sistema ou Hypervisor 
 
A máquina virtual é um ambiente de execução dentro de uma plataforma 
de hardware que executa, independentemente, múltiplos sistemas 
operacionais chamados de hóspedes ou convidados, sendo um para cada 
VM. 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 31 
As principais funções do Hypervisor consistem em agendamento, gerência 
da memória e manutenção do estado da VM, criação de partições isoladas 
para as VM, segurança sobre os recursos virtualizados e agilidade de 
reconfigurar recursos computacionais sem interromper as operações do 
servidor de VMs. 
 
Classificação do Hypervisor 
 
Hypervisor Tipo 1 – bare-metal 
 
Roda diretamente no hardware do servidor, controlando o hardware e o 
acesso do sistema operacional convidado. O papel do hypervisor convidado 
é compartilhar os recursos (CPU, memória, dispositivos de armazenamento 
e de entrada e saída) entre máquinas virtuais distintas de forma que cada 
uma delas pareça ser uma máquina completa e única. 
 
O Hypervisor do Tipo 1 se classifica em dois tipos distintos: 
 
 Hypervisor monolítico – caracterizado por oferecer uma grande 
quantidade de códigos para mediar a comunicação entre recursos de hardware e as 
VMs; 
 Hypervisor microkernelizado – que utiliza drivers na própria VM, 
oferecendo,assim, maior segurança à arquitetura. 
 
Hypervisor Tipo 2 – Hosted 
 
É executado como aplicação e fornece um ambiente de execução para 
outras aplicações. É carregado sobre um sistema operacional nativo, como 
se fosse uma tarefa simples. A camada de virtualização possui um sistema 
operacional convidado e um hardware virtual. Exemplo: Máquina Virtual 
Java – JVM. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 32 
 
Observação: a implementação das máquinas virtuais não é uma tarefa tão 
simples. Além da preocupação direta com o desempenho, existe o problema 
de como os recursos físicos da máquina são compartilhados entre o sistema 
nativo e o sistema convidado, sem que um interfira no outro. 
 
Tipos de Virtualização de Servidores 
 
Virtualização total 
 
Como o nome já diz, essa técnica realiza a completa abstração do sistema 
físico e cria um sistema virtual completo. Não são necessárias modificações 
lógicas, o que facilita a migração de VM entre servidores físicos, 
estabelecendo maior segurança devido ao isolamento das VMs. 
 
Devemos considerar como déficit de desempenho o fato em que o 
Hypervisor controla todo o processo de virtualização, isto é, recebido como 
carga de processamento no servidor físico. 
 
Paravirtualização 
Veio para suprir as desvantagens da virtualização total, porém requer uma 
modificação do sistema operacional convidado. Podemos destacar o sistema 
Xen Open Source, que é baseado na paravirtualização, modifica o kernel do 
Linux e virtualiza os dispositivos de I/O. O problema acontece sempre que 
o sistema convidado pretende executar instruções do núcleo. Isso 
representa uma dificuldade no uso da paravirtualização. 
 
Observação: fazendo uma análise comparativa entre as duas técnicas 
apresentadas, devemos considerar um melhor desempenho da 
paravirtualização, pois o sistema operacional nativo era alterado para o 
acesso às instruções privilegiadas, que se encontram no núcleo do sistema. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 33 
Vale lembrar que a virtualização total conta com processadores 
diferenciados, os quais possuem instruções de virtualização que amenizam 
as tarefas do sistema. 
 
Arquitetura e Infraestrutura de Servidores 
 
A virtualização conta com uma arquitetura e uma infraestrutura de apoio 
que podem ser muito simples, com pequenas instalações, ou muito 
complexas, com grandes instalações, dependendo do tamanho da empresa 
e da quantidade de dados, informações e transações de negócio que a 
empresa viabiliza para seus clientes e usuários. O mercado de virtualização 
conta hoje com softwares que possibilitam a obtenção de níveis de serviços 
adequados para as aplicações em termos de disponibilidade e segurança. 
Em regra geral, o software de virtualização deve aperfeiçoar o uso do 
processamento, armazenamento e operações de entrada e saída, a fim de 
distribuir a carga de trabalho e aperfeiçoar o uso dos recursos da 
infraestrutura de TI existente. 
 
Vale destacar que um projeto de virtualização pode aproveitar todo ou 
algum equipamento de hardware que já exista, porém isso não é uma regra. 
Em alguns casos, a empresa deve adquirir novos equipamentos para que 
assim o projeto de virtualização se conclua de maneira eficiente. Vale 
destacar, também, que o projeto pode trazer implicações para os outros 
componentes da TI e para a arquitetura utilizada no Datacenter, pois a 
virtualização altera algumas regras de funcionamento. Então tudo deverá 
ser analisado friamente antes da implementação definitiva de um projeto 
desse porte. 
 
A virtualização traz impactos para o projeto de engenharia de um 
datacenter tradicional, pois altera a densidade de energia, níveis de 
refrigeração, aquisição de novos equipamentos, ou seja, a virtualização 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 34 
recai diretamente sobre servidores, recursos de redes, gerenciamento, 
segurança. 
 
Arquitetura Física do Datacenter 
 
Geralmente um datacenter, do ponto de vista da TI, é construído sobre a 
arquitetura hierárquica do projeto de redes, só alterando as camadas de 
abstração da virtualização. 
 
A arquitetura física do datacenter disponibiliza alguns recursos que devem 
ser destacados: 
 
 Recursos de processamento e memória incluindo servidores e Clusters; 
 Recursos de armazenamento; 
 Recursos de conectividade. 
 
A estrutura física de um datacenter é composta, por padrão, de uma sala-cofre com 
refrigeração adequada, itens de segurança física, biometria para acesso, planos de 
recuperação de desastres, câmeras entre vários outros procedimentos. 
 
Arquitetura Virtual do Datacenter 
 
 Em um único ou mais racks, são concentrados poucos equipamentos que 
centralizam toda a infraestrutura lógica de um datacenter com blades e 
suas VMs, conjunto de servidores e clusters para o armazenamento do 
storage. As funcionalidades de rede também são disponibilizadas 
virtualmente. Os recursos virtuais são destinados a determinadas máquinas 
virtuais que passam a gerenciar os recursos como se fossem um simples 
PC (personal computer). O administrador do datacenter fica responsável 
por fazer as devidas configurações das VMs, determinando quantidade de 
processamento, memória, armazenamento, conectividade e o sistema 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 35 
operacional. O projeto virtual de um datacenter conta, também, com 
ferramentas de redundância de todos os recursos desse pool, incluindo a 
energia que alimenta a estrutura. 
 
Blades como Servidores 
 
Esses servidores estão cada vez mais populares devido, principalmente, ao 
seu design de hardware, conhecido como “lâminas”; também se destacam 
pela otimização dos espaços físicos, que hoje estão cada vez mais limitados. 
O objetivo desse servidor é tão somente oferecer processamento e 
capacidade de memória, pois isoladamente não dispõe de fonte de energia, 
dispositivos de rede nem armazenamento. Todos esses recursos são 
compartilhados entre todos os blades do chassi de servidores. Chassi é o 
nome dado à estrutura que comporta fisicamente os servidores, composto 
de fontes de energia, cooler para refrigeração, interface de armazenamento 
e switch redundante com cabeamento de rede. Esses servidores são 
encaixados como cartuchos e conectados a um backbone do próprio chassi. 
 
O diferencial desse conjunto de servidores blade é o fato de poderem ser 
substituídos sem que haja necessidade de desligamento de todo o conjunto; 
além disso, diminuem a densidade de energia dentro do datacenter, 
simplificam o monitoramento e gerenciamento do datacenter, reduzem a 
utilização do espaço físico e a integração dos componentes. 
 
Observação: vale salientar que o chassi de servidores blade pode possuir 
características diferentes, pois há fabricantes diferentes. 
 
Rede 
 
O ideal para um projeto de virtualização de datacenter é que as 
configurações sejam mantidas, mesmo em se tratando de VMs, já que a 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 36 
localização física pouco importa. Devemos destacar o problema gerado com 
relação aos switchs que aparecem em vários níveis da virtualização, 
tornando a camada de acesso de difícil gerenciamento. 
 
Cada fabricante resolveu buscar soluções, que são basicamente a criação 
de dispositivos de rede virtuais, ou seja, vSwitch e vNIC se conectando e 
permitindo que a máquina virtual envie e trafegue nessa interface, sendo 
que, quando o pacote é direcionado ao meio externo, o switch de acesso 
entra em ação, tornando a tarefa de endereçamento bem complicada. 
 
As redes definidas por software da arquitetura SDN (software definednetworking) têm sua funcionalidade definida pela separação da rede virtual 
da rede física por meio de uma camada de software que isola a topologia 
física das aplicações. A configuração e o gerenciamento ficam mais simples, 
pois não precisam de roteadores e switch tradicionais. 
 
Para o funcionamento dessa abstração, é necessário um protocolo chamado 
de OpenFlow, que auxilia a arquitetura SDN na rápida configuração da rede 
conforme a demanda de serviços e negócios, uma característica marcante 
da virtualização. Além disso, a comunicação com a nuvem é, também, mais 
rápida e eficiente. 
 
Para finalizar as considerações sobre a arquitetura SDN, destacaremos 
brevemente o quesito segurança – uma grande preocupação, uma vez que 
são acrescentados novos alvos de ataque, e, por isso, o software 
controlador é um ponto central que requer ainda mais segurança. 
Storage 
 
O termo pode parecer estranho, porém significa apenas armazenamento. 
Considerado um ponto crítico dos projetos de virtualização de infraestrutura 
TI, essa técnica tem sua funcionalidade definida pelo fato de que múltiplos 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 37 
equipamentos de armazenamento são reconhecidos como um só, e 
sabemos que há uma discrepância entre a evolução de desempenho dos 
processadores para as tecnologias de armazenamento. Os discos 
mecânicos, por exemplo, ainda são padrões dentre os datacenters, o que 
traz algumas limitações no desempenho das operações de leitura e escrita. 
Algumas dessas soluções são os discos HDD (hard disk drives), os quais 
são eficientes, mas apresentam custo proibitivo. Há ainda o SSD (disk solid-
state) baseado em memória não volátil e com alguns benefícios. 
 
Os sistemas de armazenamento contam com três componentes principais: 
 
 Servidores: possuem os aplicativos de armazenamento e recuperação de 
dados; 
 Storage: o principal componente desse sistema, pois é compatível com 
dispositivos de meio magnético e estado sólido; 
 Conectividade: interconexão, via protocolo SCSI, entre o servidor e o 
dispositivo de armazenamento, storage. 
 
 
Características gerais do sistema de armazenamento Storage: 
 
 Possibilita movimentar os dados entre HDs diferentes, a fim de otimizar 
desempenho e espaço; 
 Opera com Raid (conjunto de discos redundantes); 
 Permite espelhamento; 
 Confere segurança e confiabilidade por meio da redundância. Se um 
disco falhar, outro continua a funcionar de forma transparente. 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 38 
Alta Disponibilidade e Recuperação de Desastres 
 
Em se tratando de um datacenter virtual, deve-se considerar a alta 
disponibilidade dos dados e a recuperação deles – quesitos essenciais para 
a continuidade de um negócio. Sabemos que um datacenter é composto de 
muitos recursos, ou seja, camadas de dados, plataforma, aplicação e site. 
 
Software de Virtualização – VMWARE vSPHERE 
 
A virtualização é amparada quase totalmente pelo software de 
virtualização. A escolha desse software depende muito das necessidades do 
projeto TI que será implantado. 
 
Podemos destacar alguns softwares mais utilizados, tais como: Hiper-V 
(Microsoft), VMware (VMware), XENServer (Linux), VirtualBox (SUN). 
Com esse procedimento, é possível rodar vários sistemas operacionais 
dentro de outro, sem a necessidade de particionamento de disco e sem 
perdas de informações. 
 
Nesta apostila, abordaremos o software conhecido como vSphere, uma 
solução de virtualização desenvolvida pela empresa VMware, baseada em 
Hypervisor. Pioneiro na virtualização de TI, é um sistema operacional que 
visa transformar todo um datacenter físico em uma estrutura totalmente 
virtual funcionando na nuvem. Os softwares de virtualização oferecem 
serviços e recursos mais flexíveis, confiáveis, mais baratos e mais seguros. 
O VMware vSphere é um software que disponibiliza o Hypervisor ESXi e o 
software de gerenciamento Vcenter Server. 
O Vcenter Server pode ser definido como um comutador que gerencia, de 
forma centralizada, o ambiente virtual VMware vSphere. Sua interface 
possui ferramentas de controle que reduz a complexidade da configuração 
das VMs. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 39 
 
A proposta do Vware Vcenter Server é permitir, de forma fácil, a 
escalabilidade dos recursos virtuais, trazendo muitos benefícios para o 
adquirente. 
 
 Gerenciamento centralizado: monitoramento do desempenho das 
máquinas virtuais, por meio de uma interface única; 
 Controle de acesso: algoritmos confiáveis na permissão de acesso às 
máquinas virtuais; 
 Níveis mais altos de segurança: aplicação automática que faz a varredura 
de vulnerabilidades; 
 Eficiência de energia automatizada: minimização do consumo de energia 
com o VMware Distributed Power maneger. 
 
O VMware vSphere representa uma camada de virtualização eficiente capaz 
de abstrair os recursos de hardware do servidor e compartilhar entre as 
máquinas virtuais. Oferece ferramentas inteligentes que otimizam o 
desempenho dos recursos, por exemplo, faz o balanceamento automático 
da carga de trabalho (workload) entre os hosts virtuais, elimina o tempo de 
inatividade de alguns aplicativos, configuram automaticamente o ambiente 
virtual de cada VM de acordo com a sua demanda de trabalho, ou seja, a 
eficiência é a marca do software, sem falar que a máquina virtual é um 
arquivo como qualquer outro que pode ser deletado, copiado, transferido e 
salva em qualquer mídia de armazenamento. 
 
O vSphere possui algumas tarefas que se destacam, entre elas: 
 
 Permite que vários sistemas operacionais rodem simultaneamente; 
 Otimiza recursos e faz o balanceamento de carga entre múltiplas máquinas 
físicas; 
 Confere maior controle da TI por meio da automação do nível de serviço; 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 40 
 Possibilita que o conceito de gerenciamento de um datacenter seja 
automatizado e oferece disponibilidade, segurança e escalabilidade. 
 
A TI com possibilidades de escolha, por meio desse software de 
virtualização, permite que as empresas suportem toda a demanda 
inconstante de serviços, dando maior liberdade ao setor de TI na escolha 
do hardware, aplicativos, sistema operacional e infraestrutura como um 
todo. 
 
A utilização do vSphere é voltada, principalmente, para frear o aumento 
dos servidores e, consequentemente, otimizar recursos de armazenamento 
e rede. Um quesito muito importante é a continuidade dos negócios por 
meio de alta disponibilidade de recursos e a rápida recuperação de 
desastres. Essa tarefa de utilização é amparada naturalmente pela 
tecnologia eficiente de rede e a redundância inteligente de dados. 
 
Benefícios e Utilização 
 
 Garantia de continuidade de negócios e TI sempre disponível; 
• Redução da área de TI e simplificação do gerenciamento; 
• Economia nos custos de hardware de TI; 
• Melhoria da qualidade de aplicativos e dos níveis de serviço; 
• Aumento da segurança e da proteção de dados. 
 
Componentes do vSphere 
 
Entre os componentes desse software de virtualização, temos as seguintes 
camadas: de interface, de gerenciamento e de virtualização. Cada camada 
proporciona serviços específicos de processamento, armazenamento e 
rede, que, juntos, formam toda a proposta de virtualização da 
infraestrutura TI. 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 41 
 
A computação virtual, por meio do VMware EXSi, oferece uma virtualização 
robusta, que abstrai os recursos de hardware do servidor e os compartilha 
entre as VMs. 
 
O VMware Distributed Resource Scheduler (DRS) distribui,organizadamente entre as VMs, dados em clusters de armazenamento por 
prioridade dos negócios. 
 
Já o armazenamento é tratado diretamente pelo VMware vStorage, 
basicamente representado pelo VMware vStorage Virtual Machine File 
System (VMFS), que é o sistema de arquivo do vSphere e que permite um 
compartilhamento eficiente e, pelas VMs, a gerência ao acesso simultâneo 
aos dados. 
 
O gerenciamento da rede virtual é realizado pelo VMware vNetwork, que 
inclui as ferramentas vSphere Distributed Switch (vDS), as quais fazem as 
vezes do switch físico na função de endereçamento único e exclusivo às 
VMs, oferecendo ainda a compatibilização entre outros vDS, a comunicação 
privada entre VMs e a configuração automatizada das VMs quando são 
movimentadas entre servidores ou bBlades (lâminas). 
 
VMware hypervisor EXSi 
 
É a solução de virtualização que abstrai a carga de trabalho do hardware e 
cria um conjunto de recursos que podem ser deslocados dinamicamente 
em resposta às mudanças nas condições do negócio, sendo possível que 
vários aplicativos funcionem juntos sem que um prejudique o outro. É a 
arquitetura Hypervisormais recente da VMware, também considerada o núcleo da virtualização 
da vSphere, que pode operar sozinho no gerenciamento das VMs de forma 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 42 
simples e segura. A segurança e confiabilidade se baseiam na diminuição 
do código de programação, tornando a “superfície de ataque” também 
pequena e com menos códigos para corrigir. 
 
O funcionamento do EXSi é instalado no hardware do servidor como uma 
camada de virtualização entre o sistema operacional e o hardware. O 
servidor é dividido entre as VMs de forma segura e funcionam lado a lado, 
sem problemas de sincronicidade. Cada VM conta com processadores, 
memória, rede, armazenamento e BIOS, ou seja, uma máquina completa e 
virtual. Vale destacar aqui a arquitetura bare-metal, que possibilita a 
instalação do EXSi diretamente sobre o hardware, ou seja, sem a presença 
de um sistema operacional nativo, sendo, ainda assim, possível o controle 
total sobre os recursos alocados a cada VM com transparência, desempenho 
e escalabilidade. 
 
 
Os recursos gerais do Vware EXSi são os seguintes: 
 
 Arquitetura de 64 bits em até 1TB de RAM; 
 Otimizações de desempenho para carga de trabalho, em banco de dados 
Oracle, SQL Server e correio eletrônico; 
 Suporte a VMs maiores e hardware de servidor potente; 
 VMware VMsafe, tecnologia de segurança para cargas virtualizadas; 
 Melhor gerenciamento de energia com escalabilidade de voltagem. 
 
 
 
 
 
 
 
 
 
VIRTUALIZAÇÃO DE INFRAESTRUTURA 43 
Referência bibliográficas 
 
Bibliografia básica: 
 
CARISSIMI, A. Virtualização– princípios básicos e aplicações. Porto 
Alegre: UFRGS, 2009. 
REZENDE, Denis Alcides; ABREU, Aline França de. Tecnologia da informação 
aplicada a sistemas de informação empresariais: o papel estratégico da 
informação e dos sistemas de informação nas empresas. São Paulo: Atlas, 2000. 
VERAS, M. Datacenter - componente central da infraestrutura de TI. Brasport, 
2011. 
 
 
Bibliografia complementar: 
 
ALMEIDA, Maria Elizabeth Bianconcini de. Informática e formação de 
professores. Coleção Informática Aplicada na Educação. São Paulo: 
MEC/SEED/PROInfo, 1999. 
 
KUROSE, J. F.; ROSS, K. Redes de Computadores e a Internet. 5. ed., 
Pearson, 2010. 
LAUDON, Kenneth C.; LAUDON, Jane Price. Sistemas de informação. 4. 
ed. LTC: Rio de Janeiro,1999. 
 
ROSINI, A.M.; PALMISANO, A. Administração de sistemas de 
informação e a gestão do conhecimento. São Paulo: CENGAGE 
Learning, 2008. 
 
VERAS, M. Virtualização de Servidores. Rio de Janeiro, 2011.

Continue navegando