Baixe o app para aproveitar ainda mais
Prévia do material em texto
VIRTUALIZAÇÃO DE INFRAESTRUTURA 1 Virtualização de Infraestrutura VIRTUALIZAÇÃO DE INFRAESTRUTURA 2 Virtualização de Infraestrutura Tecnologia da Informação - Conceitos A Tecnologia da Informação (TI) inicia-se com os computadores gigantes que ocupavam espaços enormes que não tinham o poder de processamento, armazenamento nem de memória, sendo uma ferramenta exclusiva das instituições governamentais e algumas grandes empresas. O processo evolutivo da TI se caracterizou com a diminuição dos equipamentos e o aumento do poder de processamento, armazenamento e memória. Podemos destacar, nessa mesma época, a chagada da internet e, consequentemente, a evolução das telecomunicações. Hoje contamos com equipamentos móveis, pequenos e poderosos, que executam centenas de tarefas remotamente. A TI pode ser definida como um conjunto de todas as atividades e soluções providas por recursos computacionais que visam ao gerenciamento de dados e informações. Conceitos de Informação e Dados Como introdução a esse tópico, devemos explorar o conceito de dados. Muitos autores os definem como a matéria-prima da informação – o somatório contextualizado dos dados forma a informação. O dado, de maneira isolada, não representa nada para nós, usuários; porém, para um sistema de computação, ele pode ser agregado a outros e formar dados processados – o que se conhece por informação. A definição de informação é um conjunto de dados tratados; porém, vale ressaltar que essas informações se apresentam, na maioria das vezes, sob a forma de relatórios que auxiliam a tomada de decisão. VIRTUALIZAÇÃO DE INFRAESTRUTURA 3 Segundo Almeida (1999, p. 307), há uma relação íntima entre informação e decisão, visto que decisões são tomadas no presente sobre eventos que se concretizarão no futuro. Componentes da TI Segundo REZENDE e ABREU (2000, p. 76), a TI está fundamentada nos seguintes componentes: Hardware e seus dispositivos e periféricos; Software e seus recursos; Sistemas de telecomunicações; Gestão de dados e informações. Conceitos Fundamentais de um Banco de Dados Não é objetivo dessa disciplina abordar linguagens de estruturação de banco de dados nem seus códigos de implementação, mas abordar os conceitos de um Sistema de Gerenciamento de Banco de Dados (SGBD). Banco de dados é definido como uma coleção de dados interligados que formam um todo organizado, sob a forma de informação estruturada dentro de categorias específicas. Para gerenciar, manipular e visualizar as informações, é necessário o software de SGBD, que, por meio de uma interface gráfica e inteligente, permite ao usuário incluir, gravar, editar e executar funções dentro do banco de dados. O SGBD é um organizador de dados que estabelece uma ordenação com base em quatro principais modelos: VIRTUALIZAÇÃO DE INFRAESTRUTURA 4 Modelo hierárquico: os registros de dados são organizados estruturalmente em forma de árvore, com cada registro pertencendo a um hierarquicamente superior; Modelo em rede: é, na verdade, uma versão do hierárquico, sendo que um registro-filho pode ser filiado a mais de um registro-pai. Modelo relacional: nesse modelo, os dados são organizados em tabelas relacionadas entre si. Modelo orientado a objetos: esse SGBD identifica as informações como objetos, pois, assim, é possível relacionar a esse banco dados complexos que são usados pelas linguagens orientadas a objetos. Ex: C++, C#, Java, Delphi. A linguagem Strutured Query Language (SQL) é um padrão para consulta e manipulação de banco de dados relacional, que possui muitas funcionalidades e separa os dados em tabelas distintas, para que não ocorra redundância. Introdução aos Sistemas de Informação A sociedade mundial já passou por muitas mudanças tecnológicas, porém, nas últimas três décadas, essas mudanças impactaram diretamente nossa rotina de vida – e incluídas nessa revolução tecnológica estão as empresas, que antes registravam suas transações em pilhas e pilhas de papeis, mas hoje contam com uma poderosa ferramenta, chamada Sistema de Informação (SI). A chegada do SI trouxe uma reorganização no que tange aos aspectos estrutural, funcional, comportamental e de desempenho. Atualmente, a maioria das empresas valoriza a informação como um poderoso diferencial competitivo, buscando novas tendências e tecnologias para melhor se adaptar ao novo cenário mercadológico atual. VIRTUALIZAÇÃO DE INFRAESTRUTURA 5 Rosini e Palmisano (2008, p.10) afirmam que a “cultura organizacional das empresas é que acaba sendo fator determinante para a implementação de processos de aquisição de conhecimento, além de influenciar na escolha do tipo de tecnologia a ser utilizada”. O SI é definido como um conjunto de componentes interligados que concorrem a um objetivo comum, e nessa infraestrutura destacamos os componentes de hardware, software, instalações de redes, banco de dados e o recurso humano (Figura 1). Figura 1 – Componentes de um BD Fonte: www.devmedia.com.br Laudon e Laudon (1999, p. 4) definem SI como um conjunto de componentes inter-relacionados e trabalhando juntos para coletar, recuperar, processar, armazenar e distribuir informação com a finalidade de facilitar o planejamento, o controle, a coordenação, a análise e o processo decisório em empresas e outras organizações. VIRTUALIZAÇÃO DE INFRAESTRUTURA 6 OBS: Um SI tem como atividades entradas e saídas; assim, quando uma saída retorna ao sistema como entrada, visando desempenho, temos Feedback ou Retroalimentação. Estrutura Sistêmica da Organização As empresas têm a informação como um bem intangível, que agrega valor e representa, atualmente, o principal componente da infraestrutura organizacional. Desse modo, devemos destacar a importância do SI, que é o responsável pela coleta, pelo processamento, controle, armazenamento e distribuição dessa informação. A estrutura sistêmica da informação é organizada, hierarquicamente, nas empresas com subsistemas interligados, visando ao processamento dos dados e, consequentemente, à transformação em informações prontas para uma tomada de decisão clara e precisa. A Figura 2 apresenta como um sistema de informação pode ser hierarquicamente: Sistema de processamento de transações (SPT): fica posicionado na base da pirâmide e tem a função de alimentar o sistema por meio de registros das transações e informações necessárias para o funcionamento da organização; Sistema de informações gerenciais (SIG): desenvolve relatórios sobre o desempenho atual da organização, permitindo monitorar e controlar a empresa e até mesmo prevendo seu desempenho futuro; Sistema de apoio à decisão (SAD): foca em problemas únicos alterando-se com rapidez e que não possui procedimentos de resoluções predefinidos. Esse sistema utiliza informações obtidas pelo SPT e SIG, VIRTUALIZAÇÃO DE INFRAESTRUTURA 7 além de informações externas que auxiliam na análise e na resolução do problema; Sistema de Informação Estratégica (SIE): aproveita-se dos dados processados, que se transformam em relatórios e filtros específicos para potencializar sua vantagem competitividade e se adequar à dinamicidade do mercado. OBS: alguns autores consideram o nível do conhecimento como sendo o responsável pela produção de mídias e pela manipulação de novas tecnologias. Exemplo: E-commerce, E-business, softwaresaplicativos, portal corporativo. Figura 2 – Níveis hierárquicos de um SI Telecomunicações e Rede de Computadores As redes de computadores foram criadas por volta da década de 1950, junto com a segunda geração de sistemas computacionais e acompanhadas pelo Fonte:https://kaang.wordpress.com/category/sistem as-de-informacao/ VIRTUALIZAÇÃO DE INFRAESTRUTURA 8 padrão de processamento time-sharing, que objetivava compartilhar tarefas e espaço em disco de computadores centrais, chamado de mainframe, o qual centralizava as operações entre “terminais burros”. As empresas, em princípio, começaram a investir em sistemas computacionais, e consequentemente tornou-se necessário interligá-los a fim de compartilhar os recursos computacionais; assim, criou-se a junção da informática com a estrutura das telecomunicações, chamada de teleinformática. O crescimento das redes de computares trouxe o conceito de LAN, MAN, WAN e, principalmente, SAN. LAN (local Area Network): definida por sua extensão de abrangência, que geralmente ocupa estruturas físicas próximas, onde os computadores são interligados por cabos do tipo pares trançados e ondas eletromagnéticas. Exemplo: Ethernet, TokenRing, Token Bus; MAN (Metropolitan Area Network): é, na verdade, a ampliação de uma LAN, podendo estender-se em centenas de quilômetros entre cidades e com velocidades consideráveis. Exemplo: FDDI, ATM; WAN (Wide Area Network): não possui definição padrão de extensão de abrangência, podendo abranger grandes distâncias e interligar redes entre países e até continentes; SAN: rede de armazenamento de grande volume de dados, que conecta muitas estações de trabalho a dispositivos de armazenamento (storage), oferecendo flexibilidade, dispositivo e escalabilidade. Meios de Comunicações Podem ser chamados de meios físicos ou enlaces físicos e são definidos como as ligações físicas que interligam os equipamentos em uma rede de computadores. VIRTUALIZAÇÃO DE INFRAESTRUTURA 9 Exemplos de meio físico: par de fios de cobre trançado, cabo coaxial, cabo de fibra ótica, espectro de rádio terrestre e espectro de rádio por satélite. Topologia de Rede A topologia refere-se às conexões de rede e à organização dos enlaces físicos, junto com os equipamentos de comutação. Principais modelos de topologia de rede: Anel: não possui um equipamento central no auxílio da comunicação entre os computadores, que se interligam diretamente uns aos outros de forma unidirecional; Barra: nessa topologia os computadores estão conectados a uma barra, meio físico, que compartilha largura de banda entre os nós da rede; Estrela: atualmente, a topologia utilizada em LANs e caracterizada por possuir um equipamento central (Hub ou Switch) que interliga os computadores da rede. TOPOLOGIA PONTOS POSITIVOS PONTOS NEGATIVOS BARRAMENTO Estrutura bem simples, não requer muitos cabos. Em períodos de muita demanda a rede pode ficar bem lenta, difícil localização de falhas. ANEL Instalação razoavelmente simples, apresenta desempenho uniforme sob condições diversas de tráfego. Na falha de um ponto da rede toda rede para de funcionar. VIRTUALIZAÇÃO DE INFRAESTRUTURA 10 ESTRELA Preço acessível, tolerante a falhas, fácil instalação. Requer mais cabeamento Ponto a Ponto e Multiponto O ponto a ponto se caracteriza pelo fato de os equipamentos serem conectados diretamente uns aos outros. Já a ligação multiponto permite a conectividade de muitos para muitos (Figura 3). Figura 3 - Ligação ponto a ponto e multiponto Fonte: Elaborado pelo autor Modelo OSI Para iniciarmos nossa abordagem sobre o modelo OSI (em inglês Open Systems Interconnection), assim TCP/IP, devemos definir o que é um protocolo de comunicação. Trata-se de um conjunto padronizado de regras que estabelece a comunicação entre os dispositivos de uma rede de computadores, principalmente a internet. VIRTUALIZAÇÃO DE INFRAESTRUTURA 11 Considerado um modelo-padrão dos protocolos de comunicação que garante a compatibilidade, na comunicação end to end, entre sistemas distintos e suas aplicações, o Modelo OSI foi lançado em 1984 pela Organização Internacional para a Normalização e divide-se em sete (07) camadas de abstração, onde seus respectivos protocolos inserem suas funcionalidades em prol da mensagem transmitida entre origem e destino. O Modelo OSI é composto por 7 camadas, cada uma delas realizando determinadas funções. As camadas são: Aplicação, Apresentação, Sessão, Transporte, Rede, Dados e Física. Modelo TCP/IP O modelo TCP/IP é uma arquitetura aberta, utilizada na internet e que apoia a comunicação entre as aplicações distribuídas. Esse modelo estabelece hierarquicamente cinco (05) camadas distintas, onde cada uma, por meio dos seus respectivos protocolos, oferece seus serviços à camada imediatamente superior. São elas: Camada de Aplicação: na origem, essa camada inicia a comunicação entre as aplicações distribuídas na internet. Exemplos de protocolos: HTTP, FTP, SMTP. Camada de Transporte: uma das principais camadas desse modelo, pois possui serviços que garantem e entrega dos pacotes no destino. Porém, vale destacar os principais protocolos dessa camada: TCP e UDP. o O TCP (Protocolo de Controle de Transmissão) se destaca por fornecer comunicação lógica entre processos de aplicação que rodam em hospedeiros diferentes e pela confiança oferecida às aplicações, oferece um serviço orientado de conexão, isto significa que o TCP garante a entrega confiável do pacote no destino. Observação: o TCP não roda em equipamentos intermediários (roteador, switch, hub); somente em sistemas finais. VIRTUALIZAÇÃO DE INFRAESTRUTURA 12 o O UDP (Protocolo de Datagrama de Usuário) é o contrário do seu companheiro de camada; destaca-se pela velocidade que oferece às aplicações, mas é caracterizado como um protocolo que oferece um serviço não confiável e não orientado à conexão. Em suma, a responsabilidade principal da camada de transporte é ampliar o serviço de entrega IP, ou seja, essa camada executa multiplexação/demultiplexação. Camada rede: é uma camada complexa e responsável, principalmente, pelo repasse e roteamento do datagrama IP, dentro de um roteador. O universo de um roteador é o ambiente nativo dessa camada, pois o endereçamento do datagrama é responsabilidade do protocolo IP, presente na camada em questão. Camada de enlace: para falarmos dessa camada, é preciso destacar que há dois tipos de canais de enlace: broadcast e ponto a ponto. Uma vez que essa camada é responsável pelo compartilhamento do canal entre os nós de uma LAN e oferece através de seus protocolos, serviços fundamentais ao datagrama IP, são eles o controle fluxo, controle de erros, entrega confiável, detecção de erros, correção de erros e transmissão half-duplex e full-duplex. Camada Física: Na verdade, nem representa uma camada,pois não possui protocolos e é representada pelo respectivo meio físico. Internet, Intranet e Extranet Em 1991 o Brasil, por meio da Fundação de Amparo à Pesquisa de São Paulo (Fapesp), conseguiu sua primeira conexão com a rede mundial de computadores. Atualmente a internet faz parte da nossa vida e é considerada o principal meio de comunicação, pois provê conectividade para as aplicações distribuídas na internet. VIRTUALIZAÇÃO DE INFRAESTRUTURA 13 Em se tratando da Infraestrutura da Internet, podemos considerar três componentes vitais: provedores de backbones; provedores locais de serviços; e usuários finais. Backbone (espinha dorsal) é uma rede com capacidade para transmitir um grande volume de dados, que dá o suporte para os backbones locais poderem oferecer largura de banda aos usuários. Ainda com relação à internet, é importante dizer que se trata de um ambiente de muitas aplicações distribuídas, que executam serviço confiável orientado para conexão e um serviço não confiável não orientado para conexão. A intranet é uma rede dentro da organização que utiliza tecnologias da internet, ou seja, é uma internet interna à empresa, porém pode ser acessada por outras intranets de clientes, fornecedores e outros parceiros; nesse caso, temos a extranet. Assim, a intranet e extranet são formas estratégicas de uma empresa poder construir e fortalecer relações com clientes e fornecedores. Infraestrutura TI para Virtualização – Visão Geral A infraestrutura de TI pode ser considerada o alicerce do modelo operacional da organização baseada na informação. O objetivo da TI corporativa é oferecer suporte adequado e necessário para que os processos de negócio cresçam e funcionem sem grandes interrupções. A evolução da comunicação via internet se deu com a melhoria da estrutura de TI, que inclui, principalmente, as tecnologias de redes, sistemas operacionais e recurso humano. Porém devemos destacar a governança de VIRTUALIZAÇÃO DE INFRAESTRUTURA 14 TI, que é a prática de alinhar as estratégias de TI com a estratégia da organização. O Open ID Connect (OIDC) estima que, em 2020, o universo digital será 44 vezes maior que em 2009, saindo de 0,8 ZB para 35 ZB. Assim, podemos ter uma ideia de quanto precisaremos dessa infraestrutura. Atualmente, o termo veiculado no ambiente de TI é o Big Data, que significa um volume imenso de dados que impactam diretamente uma organização, trazendo transtornos para o negócio. A dependência das organizações com relação à TI é cada vez maior. Logo, deve existir uma gestão eficiente na questão de planejamento e decisões que garantam a saúde financeira dessa empresa; porém, vale ressaltar que o investimento em infraestrutura é muito demorado e pouco incentivado, por parte das empresas, pois os executivos não acreditam, por ignorância, na eficiência da TI para a empresa. Devemos destacar dois componentes que são fundamentais e pertencem à infraestrutura de TI: o datacenter e a virtualização. O datacenter é o componente central da infraestrutura, e a virtualização permite otimizar espaços físicos, recursos computacionais e recursos humanos. Investimento em Infraestrutura de TI Os mais importantes investimentos, que a TI necessita, são: Pôr mais dinheiro nos problemas de TI Cortar os gastos com TI Demitir o CIO Terceirizar o problema da TI Remover os sistemas legados VIRTUALIZAÇÃO DE INFRAESTRUTURA 15 O investimento em TI, atualmente, conta com os modelos de governança que prioriza o alinhamento estratégico, e este visa à ligação entre os planos de negócio e a TI, definindo e validando a proposta eficiente dessa infraestrutura. É importante a implantação de portfólio de projetos de TI que envolvem todos os custos de hardware, software, redes e recurso humano. A consultoria McKinsey & Company também realizou uma pesquisa em grandes empresas americanas que sugeriu que 25% do orçamento de TI de grandes empresas dos Estados Unidos vai para o datacenter. Governança TI – Conceitos ITIL e TCO A governança tem como principal fundamento o alinhamento dos negócios da empresa com a estratégia de TI. Essa relação recai, diretamente, sobre o custo em dinheiro que vai para a TI (Figura 4). A governança tem o objetivo de criar boas práticas de uso da TI com orçamento, às vezes, bem reduzido. Vale ressaltar que, desse percentual investido, 25% é destinado aos datacenters, pois é o responsável pelo armazenamento e processamento de boa parte dos dados e informações. VIRTUALIZAÇÃO DE INFRAESTRUTURA 16 Figura 4 – Governança TI Fonte: Elaborado pelo autor ITIL – Biblioteca de Infraestrutura da Tecnologia da Informação Na década de 1980, a qualidade da infraestrutura de TI era precária. No entanto, com o aumento da demanda de serviços e da própria utilização da internet, houve a necessidade de se desenvolver uma prática que aperfeiçoasse o uso dos recursos já existentes na empresa antes de se adquirirem novos equipamentos e tecnologias, pois de nada adiantaria ter uma infraestrutura complexa e cara, se os serviços fossem aindaprecários. Esse esforço resultou na criação da Biblioteca de Infraestrutura da Tecnologia da Informação (ITIL, do inglês, Information Technology Infrastructure Library), desenvolvida em 1989 e 1995, que consistia inicialmente de 31 livros que cobriam todos os aspectos do gerenciamento de serviços. A ITIL tem algumas outras versões, todas funcionando como padrão de boas práticas de gerência de serviços TI, considerando a atividade e a necessidade do negócio. Pesquisa realizada pela FGV(GVcia), em 2007, verificou a intensidade do uso de práticas de gerenciamento de serviços de TI no Brasil. O estudo sugere o amplo domínio da ITIL (50,4%) quando se VIRTUALIZAÇÃO DE INFRAESTRUTURA 17 trata do uso de boas práticas de gerenciamento de serviços de TI reconhecidas pelo mercado. Em resumo, a ITIL e suas versões são frameworks e não softwares; são, na verdade, uma coletânea de livros que auxiliam as empresas quanto aos projetos de TI. TCO – Custo Total de Propriedade Foi um processo demorado a adequação da infraestrutura de TI à empresa, pois as inovações nessa área eram bem rápidas, o que tornava equipamentos, recursos e práticas desatualizados em pouco tempo de uso. Logo, o custo para aquisição, implantação e gerenciamento era perdido, gerando contas a pagar. O conceito de TCO foi popularizado pelo Gartner Group em 1987 e vem ganhando adeptos, pois é comprovadamente eficiente e abrangente. O TCO tem dois principais componentes: Custos diretos: os mais fáceis de se mensurar; Custos indiretos: possuem natureza “invisível” e são mais difíceis de se mensurar. Novas soluções, tecnologias e situações estão surgindo e impactando diretamente a análise e os resultados do TCO. Dentre elas, podemos destacar os softwares sem licença (open source), que têm, inicialmente, custo de licença zero, mas que agregam outros valores indiretos, como treinamentos e profissionais capacitados. Já a Cloud Computing oferece toda uma estrutura remota em que é possível uma redução considerável no custo da banda larga e no armazenamento devido à segurança adotada. Derivado da Cloud Computing, o SaaS é o responsável pela maior parcela de economia visualizada em um TCO, pois, além de englobar todos os custos indiretos, relacionados à entrega/ disponibilização da tecnologia, também elimina VIRTUALIZAÇÃO DE INFRAESTRUTURA 18 despesas ocultas, tais quais energia elétrica, climatização, espaço físico, custos de capital, depreciação. Impactos da Virtualização Todas as mudanças ocorridas nos últimos anos no Brasil e no mundo exigem das organizações processos mais flexíveis e inovadores; portanto, devem contar com uma infraestrutura de TI cada vez mais adaptável. As organizações precisam de uma plataforma digital estável que possibilite a produção de resultados eficientes mesmo sob condições adversas; porém, não é o que se vê na maioria das empresas. A virtualização é uma peça-chave nesse processo de transição, pois possibilita alterar a infraestrutura rapidamente, utilizando ferramentas lógicas e desvinculando as aplicações dos recursos físicos que acabam por agilizar e promover o aparecimento de uma nova arquitetura virtual e transparente. A virtualização é uma tecnologia que transforma todo aparato físico em uma base autoconfigurável, a qual se molda de acordo com a demanda das aplicações e dos negócios. Infraestrutura de TI como Serviço A infraestrutura de TI como serviço é a capacidade que as empresas têm de oferecer processamento e armazenamento de forma transparente. Essa infraestrutura se caracteriza por deixar de lado hardware e software e passar a utilizá-los de maneira virtual via internet. VIRTUALIZAÇÃO DE INFRAESTRUTURA 19 Conceitos de Computação em Nuvem Trata-se de um conjunto de recursos virtuais facilmente utilizáveis e acessíveis, tais como hardware, software, plataformas de desenvolvimento e serviços. Esses recursos podem ser dinamicamente reconfigurados para se juntarem a uma carga de trabalho (workload) variável, permitindo a otimização do uso dos recursos. Esses recursos são tipicamente explorados por um modelo de serviço, na nuvem, do tipo “pague pelo uso”, onde as garantias são asseguradas pelo provedor, do serviço, por meio de acordos de níveis pré-estabelecidos contratualmente. A nuvem oferece funcionalidades e serviços desenvolvidos utilizando novas tecnologias, como virtualização, arquiteturas de aplicação e infraestrutura orientadas a serviço e tecnologia baseadas na internet. A computação em nuvem centraliza aplicações e recursos em ambientes de larga escala, que chamamos de elasticidade. Elasticidade é o conceito em que a demanda de recursos solicitados à nuvem sempre está adequada e sem desperdício, sendo os serviços oferecidos em sua exatidão, de forma transparente e econômica. Segundo o National Institute of Standards and Technology (Nist), computação em nuvem é um modelo que possibilita o acesso à rede de forma onipresente, conveniente e sob demanda, pois é um conjunto compartilhado de recursos de computação configuráveis alocados e liberado com o mínimo de esforço de gerenciamento. VIRTUALIZAÇÃO DE INFRAESTRUTURA 20 Características Essenciais da Computação em Nuvem A nova arquitetura de computação deve agregar características essenciais de orientação para serviços, a saber: Serviço sob demanda: as funcionalidades computacionais são providas automaticamente sem a interação humana; Amplo acesso aos serviços de rede: recursos computacionais estão disponíveis pela internet e são acessados via mecanismos padronizados; Pool de recursos: recursos físicos e virtuais são utilizados para servir múltiplos usuários, sendo alocados sob demanda; Elasticidade rápida: as funcionalidades devem ser rápidas e elásticas. Deve parecer que os recursos são ilimitados; Medição de serviços: os sistemas de gerenciamento controlam e monitoram automaticamente os recursos para cada tipo de serviço. Modelos de Serviços para Computação em Nuvem Na prática, a organização cliente aluga infraestrutura em nuvem – servidores, armazenamento e rede sob demanda. Isso significa que o cliente terá seus recursos de forma otimizada e sem desperdício, à medida que ele passa a utilizar somente a infraestrutura necessária. Existem três principais modelos de serviço em computação em nuvem: Infraestrutura como um serviço (IaaS): capacidade em que as empresas provedoras fornecem serviços de processamento e armazenamento de forma totalmente transparente. Esse serviço não dá o controle da infraestrutura física, mas os softwares de virtualização possibilitam o controle sobre sistemas operacionais, armazenamento, aplicações e recursos de rede; VIRTUALIZAÇÃO DE INFRAESTRUTURA 21 Software como um serviço (SaaS): aplicações de interesse de uma grande quantidade de usuários são hospedadas na nuvem como uma alternativa ao processamento local. Ex: AppEngine do Google e o SalesForce.com; Plataforma como um serviço (PaaS): plataforma oferecida pelo provedor para o desenvolvimento de aplicações que serão executadas e disponibilizadas na nuvem. Modelos de Implantação de Computação em Nuvem A Figura 5 apresenta os três principais modelos de implantação existentes da computação em nuvem. São eles: Nuvem privada (private cloud): caracterizada pelo uso, exclusivo, por parte do cliente dos serviços adquiridos na nuvem, nada sendo disponibilizado forado ambiente interno da empresa. Pesquisa realizada pela Forbes Insights com 235 CIOs e outros executivos de grandes companhias americanas aponta que 52% das organizações estão avaliando a adoção de nuvens privadas; Nuvem pública (public cloud): disponibilizada publicamente através do modelo “pague por uso”. É oferecida por organizações públicas ou por grandes grupos industriais que possuem ampla capacidade de processamento e armazenamento; Nuvem híbrida (hybrid cloud): a infraestrutura é única, porém composta de duas ou mais nuvens (privadas ou públicas). VIRTUALIZAÇÃO DE INFRAESTRUTURA 22 Figura 5 - Modelos de Implantação de Computação em Nuvem Fonte: Elaborado pelo autor Por ser uma arquitetura totalmente nova, diversos modelos estão surgindo com o objetivo de criar uma referência-padrão de uso. Podemos destacar algumas arquiteturas importantes, a saber: Nist Cloud Computing Reference Architecture; IBM Cloud Reference Architecture; Cisco Cloud Reference Architecture Framework; Cloud Reference Model da Cloud Security Alliance. Os Principais Atores do Modelo de Referência NIST são: Consumidor: indivíduo ou organização que adquire os produtos e serviços da nuvem; Provedor: indivíduo ou organização responsável por disponibilizar os serviços e produtos; Integrador: entidade que faz a mediação gerenciada entre consumidor e provedor; Auditor: parte responsável por avaliar imparcialmente os serviços de nuvem, operações do sistema de informação, desempenho e segurança na nuvem; Operador: elemento intermediário que fornece a conectividade e transporte de serviços de nuvem. VIRTUALIZAÇÃO DE INFRAESTRUTURA 23 Impactos da Virtualização na Infraestrutura como Serviço Do contexto da computação em nuvem e, consequentemente, da virtualização, devemos destacar o fato de que não adiantam investimentos pesados em infraestrutura para melhoria dos serviços, se o modelo utilizado no gerenciamento e oferta dos serviços de TI não for orientado pela demanda. O investimento deve ser pontual e incidir, de forma planejada, o datacenter e a sua estrutura. Diversos provedores de internet, por exemplo, possuidores de grandes datacenters, ainda não conseguem entregar a banda, o armazenamento e o processamento adequadamente e usam a virtualização de forma comedida. A virtualização é, ou pelo menos deveria ser, a tecnologia central desse novo modelo de serviços, porém os provedores devem melhorar a elasticidade dos serviços sob demanda. Essa não adequação na entrega dos serviços gera impactos negativos para quem entrega e quem recebe o serviço, já que o modelo é conhecido como “pague à medida que utilizar”. Tecnologia de Virtualização – Conceitos Gerais Em linhas gerais, a virtualização transforma servidores físicos, principalmente, em servidores virtuais, ou seja, o que antes era um conjunto de servidores distribuídos em uma estrutura física grandiosa pode ser substituído hoje por uma sala-cofre com medidas mínimas e que abriga todo o datacenter de uma empresa de grande porte. Segundo Veras (2011), a ideia da virtualização nasceu com a publicação de um artigo na Conferência Internacional de Processamento de Informação. Posteriormente, a IBM implementou esse conceito em seus mainframes. VIRTUALIZAÇÃO DE INFRAESTRUTURA 24 A Forrester Consulting fez uma pesquisa em que entrevistou vice- presidentes e diretores do nível C em 29 grandes empresas e constatou que a virtualização de servidores trouxe os seguintes benefícios: A TI se tornou mais eficiente; A empresa passou a ter um time to market mais adequado; Os serviços de TI tornaram-se mais previsíveis; Houve redução de custos a longo prazo. Geralmente, as empresas deixam de obter tais serviços de virtualização devido ao investimento inicial nos parques de servidores, que são valores grandiosos. Porém, pesquisas apontam que o retorno do investimento pode ocorrer em até menos de 12 meses, e os benefícios adquiridos são redução de custos de hardware, em primeiro lugar, e melhores condições de recuperação de desastres e continuidade do negócio, em segundo. Pesquisas do IDC dão conta de que só 15% da capacidade dos servidores são utilizados nas empresas que não usam a virtualização, e os 85% restantes ficam ociosos. Tipos de Virtualização: servidores, desktop, armazenamento, aplicações e rede. Conceitos de Workload e Throughput Temos de ressaltar a importância de dois conceitos fundamentais no contexto da virtualização: o Workload (carga de trabalho) e o Throughput (taxa de transferência). O Workload (carga de trabalho) constitui-se, basicamente, dos dados processados e de instruções executadas; tal tarefa define a qualidade de serviço percebida pelo usuário. Essa carga é totalmente variável, portátil e oscila de acordo com as aplicações utilizadas. Representa uma unidade VIRTUALIZAÇÃO DE INFRAESTRUTURA 25 escalável e totalmente imprescindível ao controle da tecnologia de virtualização. São características dessa unidade de desempenho: Pode variar drasticamente de um segundo para outro ou de um dia para outro, não havendo uma regularidade estabelecida; Possui variações, às vezes, imprevisíveis que impactam diretamente o desempenho do sistema de informação e suas aplicações; Representa uma unidade de escalabilidade de desempenho, totalmente imprescindível ao controle da tecnologia de virtualização. Outra unidade de desempenho fundamental para as transações na nuvem é o Throuoghput (taxa de transferência), que define a capacidade do hardware e software. São parâmetros para a medição de tal unidade a velocidade de entrada e a saída, a velocidade de CPU, as capacidades de paralelismo e a eficiência do sistema operacional (SO). Logo, pode-se concluir que o núcleo do SO, o espaço em disco, os controladores de cache e o microcódigo são exemplos dos recursos a serem avaliados para que se defina o Throughput. Máquina Virtual A Figura 6 apresenta a virtualização, um particionamento de um servidor físico em vários servidores lógicos – também conhecidos por máquinas virtuais (uma camada de abstração entre hardware e software e que serve de proteção ao acesso do hardware). VIRTUALIZAÇÃO DE INFRAESTRUTURA 26 Figura 6 – Transformação máquina física em várias máquinas lógicas Fonte: https://www.jorgedelacruz.es/2014/04/18/vmware-vcenter-converter- standalone-5-5-1/ A camada de virtualização de servidores mais conhecida é o hypervisor ou monitor de máquina virtual – VMM. Em resumo, um servidor físico pode rodar várias VMs, cada qual com o seu sistema operacional e suas respectivas aplicações. Após essa breve introdução, podemos definir uma máquina virtual como um conjunto de softwares localizado, isoladamente, dentro de um servidor físico com capacidade independente de executar seu próprio sistema operacional e suas aplicações. Vale destacar que uma VM tem todas as características lógicas de um servidor e possui, também, CPU, memória, disco rígido e NIC virtuais baseados em softwares. Pode ser definida, também, como uma cópia fiel da máquina real que a hospeda. Uma VM é composta exclusivamente por software, e assim se torna totalmente transparente, não podendo ser notada por um sistema operacional, muito menos por aplicações e outros equipamentos da rede. VIRTUALIZAÇÃO DE INFRAESTRUTURA 27 Benefícios e LimitaçõesDiante de tantos argumentos utilizados neste material didático, podemos considerar a virtualização uma nova tendência no uso da TI. Os especialistas de TI comprovam a eficiência dessa tecnologia, e muitos já priorizam usar a TI de forma virtualizada para o crescimento dos negócios, pois confere maior flexibilidade dos recursos, redução do consumo de energia, redução do número de servidores e espaço físico para storage e backup, padronização das plataformas, melhor disponibilidade dos sistemas, gerenciamento centralizado, mitigação dos riscos da mudança, redução do tempo de implantação de servidores e a possibilidade de se fazer mais com menos. A alteração da infraestrutura tradicionalmente física em uma infraestrutura virtual representa um desafio para o projeto de virtualização, pois se deve considerar um fator essencial para a continuidade do funcionamento do datacenter: buscar o mínimo de paralisações das operações do negócio, mesmo com limitações impostas pela transição. Os benefícios se potencializam à medida que as soluções de virtualização avançam nos aspectos referentes a balanceamento de carga dinâmica, recuperação de falhas, segurança e interoperabilidade de sistemas diferentes. Como todas as novas implantações, a virtualização conta com limitações e dificuldades, a saber: Aplicativos de carga excessiva: dentre as aplicações que impõem dificuldades à virtualização, podemos destacar os gerenciadores de bancos de dados (SGBD). Geralmente os projetos não contemplam a virtualização desse servidor, pois a VIRTUALIZAÇÃO DE INFRAESTRUTURA 28 demanda sobre ele é muito grandiosa, sendo, portanto, destinado um servidor físico para esse serviço. Porém, não há uma regra para essa alocação; tudo dependerá da situação e dos atores envolvidos; Gerenciamento do licenciamento: é necessário saber a regra para cada aplicação, pois o fabricante descreve regras de uso complexas; Falta de profissionais especializados: Por ser a virtualização uma tecnologia nova, poucos profissionais possuem competência de uso e manutenção. Técnicas Considerando que a virtualização se dá, obrigatoriamente, em sistemas de computação, é importante abordarmos os principais componentes que participam efetivamente da técnica de virtualização: hardware, sistema operacional, aplicativos e usuários. Vamos considerar uma maior importância para o sistema operacional, que é o responsável por receber as camadas de virtualização, os sistemas convidados e o hardware, que se subdivide em camadas menores para estabelecer as VMs. Podemos citar o servidor como sendo um exemplo de hardware e considerar que este é dividido logicamente em camadas de abstração independentes. Isso significa que cada subsistema executa suas funções sem que seus detalhes internos sejam expostos. Hardware Dentro do contexto de um sistema de computação, destacamos que a sua arquitetura pode ser descrita de forma lógica e funcional, e ser dividida em três grandes partes: VIRTUALIZAÇÃO DE INFRAESTRUTURA 29 Conjunto de instruções de máquina: define a abstração do processador por meio de uma linguagem específica, desenvolvida por assembly. Dentre as instruções, podemos destacar modos de endereçamento e os registradores do processador; Projeto do sistema: trata, especificamente, dos componentes que auxiliam o processador na sua árdua missão. Dentre os principais componentes, temos barramento, memória, controladores, subsistemas de I/O, todos operando em sincronicidade para o melhor desempenho do processador; Microarquitetura: descreve a arquitetura interna do processador, pois reflete diretamente o nível de abstração entre hardware e o sistema operacional. O conjunto de instruções é classificado em modo usuário e modo kernel. User (usuário): formado por todas as instruções de máquina que representam o usuário, ou seja, modo não privilegiado; System (ou modo Kernel): formado por instruções, privilegiadas, que definem a configuração do processador e de alguns componentes de hardware. Sistema Operacional A funcionalidade de um sistema operacional é bem semelhante entre os vários sistemas presentes no mercado, ou seja, ele atua gerenciando recursos do sistema computacional a fim de executar tarefas. O sistema operacional é iniciado por um programa chamado “bootstrap”, que o coloca na memória principal. A partir dessa situação, os processos, que são programas em execução, presentes nessa memória, começam uma concorrência por recursos, na qual incluímos o próprio processador, que inicia um processamento virtual para atender a toda a demanda de processos. Sistemas operacionais funcionam baseados em processo. Um processo é uma abstração que representa um programa em execução. Cada processo é um ambiente de execução isolado dos demais processos que executa sobre um processador lógico, VIRTUALIZAÇÃO DE INFRAESTRUTURA 30 isto é, um processador virtual, vinculado a si no momento da criação do processo. Cabe ao núcleo do sistema operacional, através de seu escalonador, alternar os diferentes processadores lógicos (virtuais) sobre um processador físico. A ilusão de paralelismo é criada pelo chaveamento rápido entre os processos. (CARISSIMI, 2009). Categorias de Virtualização De que maneira a virtualização abstrai o hardware e o sistema operacional? A virtualização nada mais é do que a extensão ou a substituição de recursos de TI, de modo a imitar seu comportamento via softwares de virtualização, que são classificados em: Software de nível de hardware: essa camada de virtualização é posta diretamente sobre a máquina física, deixando parecer às camadas superiores como sendo hardwares abstratos, idênticos aos originais; Software de nível de sistema operacional: essa camada de virtualização possibilita a partição lógica da memória, que recebe outro sistema operacional, chamado “convidado”, e este simula de forma idêntica uma máquina isolada; Software de nível de linguagens de programação: essa camada de virtualização é um programa do sistema operacional, com o objetivo de criar uma VM sobre a qual rodará uma aplicação desenvolvida em linguagem de programação de alto nível. Máquina Virtual de Sistema ou Hypervisor A máquina virtual é um ambiente de execução dentro de uma plataforma de hardware que executa, independentemente, múltiplos sistemas operacionais chamados de hóspedes ou convidados, sendo um para cada VM. VIRTUALIZAÇÃO DE INFRAESTRUTURA 31 As principais funções do Hypervisor consistem em agendamento, gerência da memória e manutenção do estado da VM, criação de partições isoladas para as VM, segurança sobre os recursos virtualizados e agilidade de reconfigurar recursos computacionais sem interromper as operações do servidor de VMs. Classificação do Hypervisor Hypervisor Tipo 1 – bare-metal Roda diretamente no hardware do servidor, controlando o hardware e o acesso do sistema operacional convidado. O papel do hypervisor convidado é compartilhar os recursos (CPU, memória, dispositivos de armazenamento e de entrada e saída) entre máquinas virtuais distintas de forma que cada uma delas pareça ser uma máquina completa e única. O Hypervisor do Tipo 1 se classifica em dois tipos distintos: Hypervisor monolítico – caracterizado por oferecer uma grande quantidade de códigos para mediar a comunicação entre recursos de hardware e as VMs; Hypervisor microkernelizado – que utiliza drivers na própria VM, oferecendo,assim, maior segurança à arquitetura. Hypervisor Tipo 2 – Hosted É executado como aplicação e fornece um ambiente de execução para outras aplicações. É carregado sobre um sistema operacional nativo, como se fosse uma tarefa simples. A camada de virtualização possui um sistema operacional convidado e um hardware virtual. Exemplo: Máquina Virtual Java – JVM. VIRTUALIZAÇÃO DE INFRAESTRUTURA 32 Observação: a implementação das máquinas virtuais não é uma tarefa tão simples. Além da preocupação direta com o desempenho, existe o problema de como os recursos físicos da máquina são compartilhados entre o sistema nativo e o sistema convidado, sem que um interfira no outro. Tipos de Virtualização de Servidores Virtualização total Como o nome já diz, essa técnica realiza a completa abstração do sistema físico e cria um sistema virtual completo. Não são necessárias modificações lógicas, o que facilita a migração de VM entre servidores físicos, estabelecendo maior segurança devido ao isolamento das VMs. Devemos considerar como déficit de desempenho o fato em que o Hypervisor controla todo o processo de virtualização, isto é, recebido como carga de processamento no servidor físico. Paravirtualização Veio para suprir as desvantagens da virtualização total, porém requer uma modificação do sistema operacional convidado. Podemos destacar o sistema Xen Open Source, que é baseado na paravirtualização, modifica o kernel do Linux e virtualiza os dispositivos de I/O. O problema acontece sempre que o sistema convidado pretende executar instruções do núcleo. Isso representa uma dificuldade no uso da paravirtualização. Observação: fazendo uma análise comparativa entre as duas técnicas apresentadas, devemos considerar um melhor desempenho da paravirtualização, pois o sistema operacional nativo era alterado para o acesso às instruções privilegiadas, que se encontram no núcleo do sistema. VIRTUALIZAÇÃO DE INFRAESTRUTURA 33 Vale lembrar que a virtualização total conta com processadores diferenciados, os quais possuem instruções de virtualização que amenizam as tarefas do sistema. Arquitetura e Infraestrutura de Servidores A virtualização conta com uma arquitetura e uma infraestrutura de apoio que podem ser muito simples, com pequenas instalações, ou muito complexas, com grandes instalações, dependendo do tamanho da empresa e da quantidade de dados, informações e transações de negócio que a empresa viabiliza para seus clientes e usuários. O mercado de virtualização conta hoje com softwares que possibilitam a obtenção de níveis de serviços adequados para as aplicações em termos de disponibilidade e segurança. Em regra geral, o software de virtualização deve aperfeiçoar o uso do processamento, armazenamento e operações de entrada e saída, a fim de distribuir a carga de trabalho e aperfeiçoar o uso dos recursos da infraestrutura de TI existente. Vale destacar que um projeto de virtualização pode aproveitar todo ou algum equipamento de hardware que já exista, porém isso não é uma regra. Em alguns casos, a empresa deve adquirir novos equipamentos para que assim o projeto de virtualização se conclua de maneira eficiente. Vale destacar, também, que o projeto pode trazer implicações para os outros componentes da TI e para a arquitetura utilizada no Datacenter, pois a virtualização altera algumas regras de funcionamento. Então tudo deverá ser analisado friamente antes da implementação definitiva de um projeto desse porte. A virtualização traz impactos para o projeto de engenharia de um datacenter tradicional, pois altera a densidade de energia, níveis de refrigeração, aquisição de novos equipamentos, ou seja, a virtualização VIRTUALIZAÇÃO DE INFRAESTRUTURA 34 recai diretamente sobre servidores, recursos de redes, gerenciamento, segurança. Arquitetura Física do Datacenter Geralmente um datacenter, do ponto de vista da TI, é construído sobre a arquitetura hierárquica do projeto de redes, só alterando as camadas de abstração da virtualização. A arquitetura física do datacenter disponibiliza alguns recursos que devem ser destacados: Recursos de processamento e memória incluindo servidores e Clusters; Recursos de armazenamento; Recursos de conectividade. A estrutura física de um datacenter é composta, por padrão, de uma sala-cofre com refrigeração adequada, itens de segurança física, biometria para acesso, planos de recuperação de desastres, câmeras entre vários outros procedimentos. Arquitetura Virtual do Datacenter Em um único ou mais racks, são concentrados poucos equipamentos que centralizam toda a infraestrutura lógica de um datacenter com blades e suas VMs, conjunto de servidores e clusters para o armazenamento do storage. As funcionalidades de rede também são disponibilizadas virtualmente. Os recursos virtuais são destinados a determinadas máquinas virtuais que passam a gerenciar os recursos como se fossem um simples PC (personal computer). O administrador do datacenter fica responsável por fazer as devidas configurações das VMs, determinando quantidade de processamento, memória, armazenamento, conectividade e o sistema VIRTUALIZAÇÃO DE INFRAESTRUTURA 35 operacional. O projeto virtual de um datacenter conta, também, com ferramentas de redundância de todos os recursos desse pool, incluindo a energia que alimenta a estrutura. Blades como Servidores Esses servidores estão cada vez mais populares devido, principalmente, ao seu design de hardware, conhecido como “lâminas”; também se destacam pela otimização dos espaços físicos, que hoje estão cada vez mais limitados. O objetivo desse servidor é tão somente oferecer processamento e capacidade de memória, pois isoladamente não dispõe de fonte de energia, dispositivos de rede nem armazenamento. Todos esses recursos são compartilhados entre todos os blades do chassi de servidores. Chassi é o nome dado à estrutura que comporta fisicamente os servidores, composto de fontes de energia, cooler para refrigeração, interface de armazenamento e switch redundante com cabeamento de rede. Esses servidores são encaixados como cartuchos e conectados a um backbone do próprio chassi. O diferencial desse conjunto de servidores blade é o fato de poderem ser substituídos sem que haja necessidade de desligamento de todo o conjunto; além disso, diminuem a densidade de energia dentro do datacenter, simplificam o monitoramento e gerenciamento do datacenter, reduzem a utilização do espaço físico e a integração dos componentes. Observação: vale salientar que o chassi de servidores blade pode possuir características diferentes, pois há fabricantes diferentes. Rede O ideal para um projeto de virtualização de datacenter é que as configurações sejam mantidas, mesmo em se tratando de VMs, já que a VIRTUALIZAÇÃO DE INFRAESTRUTURA 36 localização física pouco importa. Devemos destacar o problema gerado com relação aos switchs que aparecem em vários níveis da virtualização, tornando a camada de acesso de difícil gerenciamento. Cada fabricante resolveu buscar soluções, que são basicamente a criação de dispositivos de rede virtuais, ou seja, vSwitch e vNIC se conectando e permitindo que a máquina virtual envie e trafegue nessa interface, sendo que, quando o pacote é direcionado ao meio externo, o switch de acesso entra em ação, tornando a tarefa de endereçamento bem complicada. As redes definidas por software da arquitetura SDN (software definednetworking) têm sua funcionalidade definida pela separação da rede virtual da rede física por meio de uma camada de software que isola a topologia física das aplicações. A configuração e o gerenciamento ficam mais simples, pois não precisam de roteadores e switch tradicionais. Para o funcionamento dessa abstração, é necessário um protocolo chamado de OpenFlow, que auxilia a arquitetura SDN na rápida configuração da rede conforme a demanda de serviços e negócios, uma característica marcante da virtualização. Além disso, a comunicação com a nuvem é, também, mais rápida e eficiente. Para finalizar as considerações sobre a arquitetura SDN, destacaremos brevemente o quesito segurança – uma grande preocupação, uma vez que são acrescentados novos alvos de ataque, e, por isso, o software controlador é um ponto central que requer ainda mais segurança. Storage O termo pode parecer estranho, porém significa apenas armazenamento. Considerado um ponto crítico dos projetos de virtualização de infraestrutura TI, essa técnica tem sua funcionalidade definida pelo fato de que múltiplos VIRTUALIZAÇÃO DE INFRAESTRUTURA 37 equipamentos de armazenamento são reconhecidos como um só, e sabemos que há uma discrepância entre a evolução de desempenho dos processadores para as tecnologias de armazenamento. Os discos mecânicos, por exemplo, ainda são padrões dentre os datacenters, o que traz algumas limitações no desempenho das operações de leitura e escrita. Algumas dessas soluções são os discos HDD (hard disk drives), os quais são eficientes, mas apresentam custo proibitivo. Há ainda o SSD (disk solid- state) baseado em memória não volátil e com alguns benefícios. Os sistemas de armazenamento contam com três componentes principais: Servidores: possuem os aplicativos de armazenamento e recuperação de dados; Storage: o principal componente desse sistema, pois é compatível com dispositivos de meio magnético e estado sólido; Conectividade: interconexão, via protocolo SCSI, entre o servidor e o dispositivo de armazenamento, storage. Características gerais do sistema de armazenamento Storage: Possibilita movimentar os dados entre HDs diferentes, a fim de otimizar desempenho e espaço; Opera com Raid (conjunto de discos redundantes); Permite espelhamento; Confere segurança e confiabilidade por meio da redundância. Se um disco falhar, outro continua a funcionar de forma transparente. VIRTUALIZAÇÃO DE INFRAESTRUTURA 38 Alta Disponibilidade e Recuperação de Desastres Em se tratando de um datacenter virtual, deve-se considerar a alta disponibilidade dos dados e a recuperação deles – quesitos essenciais para a continuidade de um negócio. Sabemos que um datacenter é composto de muitos recursos, ou seja, camadas de dados, plataforma, aplicação e site. Software de Virtualização – VMWARE vSPHERE A virtualização é amparada quase totalmente pelo software de virtualização. A escolha desse software depende muito das necessidades do projeto TI que será implantado. Podemos destacar alguns softwares mais utilizados, tais como: Hiper-V (Microsoft), VMware (VMware), XENServer (Linux), VirtualBox (SUN). Com esse procedimento, é possível rodar vários sistemas operacionais dentro de outro, sem a necessidade de particionamento de disco e sem perdas de informações. Nesta apostila, abordaremos o software conhecido como vSphere, uma solução de virtualização desenvolvida pela empresa VMware, baseada em Hypervisor. Pioneiro na virtualização de TI, é um sistema operacional que visa transformar todo um datacenter físico em uma estrutura totalmente virtual funcionando na nuvem. Os softwares de virtualização oferecem serviços e recursos mais flexíveis, confiáveis, mais baratos e mais seguros. O VMware vSphere é um software que disponibiliza o Hypervisor ESXi e o software de gerenciamento Vcenter Server. O Vcenter Server pode ser definido como um comutador que gerencia, de forma centralizada, o ambiente virtual VMware vSphere. Sua interface possui ferramentas de controle que reduz a complexidade da configuração das VMs. VIRTUALIZAÇÃO DE INFRAESTRUTURA 39 A proposta do Vware Vcenter Server é permitir, de forma fácil, a escalabilidade dos recursos virtuais, trazendo muitos benefícios para o adquirente. Gerenciamento centralizado: monitoramento do desempenho das máquinas virtuais, por meio de uma interface única; Controle de acesso: algoritmos confiáveis na permissão de acesso às máquinas virtuais; Níveis mais altos de segurança: aplicação automática que faz a varredura de vulnerabilidades; Eficiência de energia automatizada: minimização do consumo de energia com o VMware Distributed Power maneger. O VMware vSphere representa uma camada de virtualização eficiente capaz de abstrair os recursos de hardware do servidor e compartilhar entre as máquinas virtuais. Oferece ferramentas inteligentes que otimizam o desempenho dos recursos, por exemplo, faz o balanceamento automático da carga de trabalho (workload) entre os hosts virtuais, elimina o tempo de inatividade de alguns aplicativos, configuram automaticamente o ambiente virtual de cada VM de acordo com a sua demanda de trabalho, ou seja, a eficiência é a marca do software, sem falar que a máquina virtual é um arquivo como qualquer outro que pode ser deletado, copiado, transferido e salva em qualquer mídia de armazenamento. O vSphere possui algumas tarefas que se destacam, entre elas: Permite que vários sistemas operacionais rodem simultaneamente; Otimiza recursos e faz o balanceamento de carga entre múltiplas máquinas físicas; Confere maior controle da TI por meio da automação do nível de serviço; VIRTUALIZAÇÃO DE INFRAESTRUTURA 40 Possibilita que o conceito de gerenciamento de um datacenter seja automatizado e oferece disponibilidade, segurança e escalabilidade. A TI com possibilidades de escolha, por meio desse software de virtualização, permite que as empresas suportem toda a demanda inconstante de serviços, dando maior liberdade ao setor de TI na escolha do hardware, aplicativos, sistema operacional e infraestrutura como um todo. A utilização do vSphere é voltada, principalmente, para frear o aumento dos servidores e, consequentemente, otimizar recursos de armazenamento e rede. Um quesito muito importante é a continuidade dos negócios por meio de alta disponibilidade de recursos e a rápida recuperação de desastres. Essa tarefa de utilização é amparada naturalmente pela tecnologia eficiente de rede e a redundância inteligente de dados. Benefícios e Utilização Garantia de continuidade de negócios e TI sempre disponível; • Redução da área de TI e simplificação do gerenciamento; • Economia nos custos de hardware de TI; • Melhoria da qualidade de aplicativos e dos níveis de serviço; • Aumento da segurança e da proteção de dados. Componentes do vSphere Entre os componentes desse software de virtualização, temos as seguintes camadas: de interface, de gerenciamento e de virtualização. Cada camada proporciona serviços específicos de processamento, armazenamento e rede, que, juntos, formam toda a proposta de virtualização da infraestrutura TI. VIRTUALIZAÇÃO DE INFRAESTRUTURA 41 A computação virtual, por meio do VMware EXSi, oferece uma virtualização robusta, que abstrai os recursos de hardware do servidor e os compartilha entre as VMs. O VMware Distributed Resource Scheduler (DRS) distribui,organizadamente entre as VMs, dados em clusters de armazenamento por prioridade dos negócios. Já o armazenamento é tratado diretamente pelo VMware vStorage, basicamente representado pelo VMware vStorage Virtual Machine File System (VMFS), que é o sistema de arquivo do vSphere e que permite um compartilhamento eficiente e, pelas VMs, a gerência ao acesso simultâneo aos dados. O gerenciamento da rede virtual é realizado pelo VMware vNetwork, que inclui as ferramentas vSphere Distributed Switch (vDS), as quais fazem as vezes do switch físico na função de endereçamento único e exclusivo às VMs, oferecendo ainda a compatibilização entre outros vDS, a comunicação privada entre VMs e a configuração automatizada das VMs quando são movimentadas entre servidores ou bBlades (lâminas). VMware hypervisor EXSi É a solução de virtualização que abstrai a carga de trabalho do hardware e cria um conjunto de recursos que podem ser deslocados dinamicamente em resposta às mudanças nas condições do negócio, sendo possível que vários aplicativos funcionem juntos sem que um prejudique o outro. É a arquitetura Hypervisormais recente da VMware, também considerada o núcleo da virtualização da vSphere, que pode operar sozinho no gerenciamento das VMs de forma VIRTUALIZAÇÃO DE INFRAESTRUTURA 42 simples e segura. A segurança e confiabilidade se baseiam na diminuição do código de programação, tornando a “superfície de ataque” também pequena e com menos códigos para corrigir. O funcionamento do EXSi é instalado no hardware do servidor como uma camada de virtualização entre o sistema operacional e o hardware. O servidor é dividido entre as VMs de forma segura e funcionam lado a lado, sem problemas de sincronicidade. Cada VM conta com processadores, memória, rede, armazenamento e BIOS, ou seja, uma máquina completa e virtual. Vale destacar aqui a arquitetura bare-metal, que possibilita a instalação do EXSi diretamente sobre o hardware, ou seja, sem a presença de um sistema operacional nativo, sendo, ainda assim, possível o controle total sobre os recursos alocados a cada VM com transparência, desempenho e escalabilidade. Os recursos gerais do Vware EXSi são os seguintes: Arquitetura de 64 bits em até 1TB de RAM; Otimizações de desempenho para carga de trabalho, em banco de dados Oracle, SQL Server e correio eletrônico; Suporte a VMs maiores e hardware de servidor potente; VMware VMsafe, tecnologia de segurança para cargas virtualizadas; Melhor gerenciamento de energia com escalabilidade de voltagem. VIRTUALIZAÇÃO DE INFRAESTRUTURA 43 Referência bibliográficas Bibliografia básica: CARISSIMI, A. Virtualização– princípios básicos e aplicações. Porto Alegre: UFRGS, 2009. REZENDE, Denis Alcides; ABREU, Aline França de. Tecnologia da informação aplicada a sistemas de informação empresariais: o papel estratégico da informação e dos sistemas de informação nas empresas. São Paulo: Atlas, 2000. VERAS, M. Datacenter - componente central da infraestrutura de TI. Brasport, 2011. Bibliografia complementar: ALMEIDA, Maria Elizabeth Bianconcini de. Informática e formação de professores. Coleção Informática Aplicada na Educação. São Paulo: MEC/SEED/PROInfo, 1999. KUROSE, J. F.; ROSS, K. Redes de Computadores e a Internet. 5. ed., Pearson, 2010. LAUDON, Kenneth C.; LAUDON, Jane Price. Sistemas de informação. 4. ed. LTC: Rio de Janeiro,1999. ROSINI, A.M.; PALMISANO, A. Administração de sistemas de informação e a gestão do conhecimento. São Paulo: CENGAGE Learning, 2008. VERAS, M. Virtualização de Servidores. Rio de Janeiro, 2011.
Compartilhar