Prévia do material em texto
Respostas dos Exercícios 1 Respostas dos Exercícios Capítulo 1 1. Data centers podem ser de� nidos como ambientes de missão crítica, ou seja, são am- bientes que abrigam equipamentos responsáveis pelo processamento e armazenamen- to de informações cruciais para a continuidade de negócios nos mais variados tipos de organização, sejam empresas, instituições de ensino, indústrias, órgãos governamen- tais, hospitais, hotéis, entre outros. 2. Os principais sistemas envolvidos no projeto de data centers são: sala de computadores (computer room); ar condicionado e controle ambiental; distribuição elétrica e UPS (Uninterruptable Power Supply); automação do edifício; detecção e supressão de incêndio; segurança e controle; espaços de suporte, entre outros. 3. Há três tipos de data centers basicamente, que são enterprise, Internet e collocation. 4. Os data centers enterprise são aqueles usados para atender às necessidades de um único cliente (uma única empresa) e não são compartilhados por outros clientes. Os data cen- ters enterprise podem ser entendidos como data centers próprios, ou seja, são montados e operados pelo proprietário. Algumas características desse tipo de data center são: O data center é normalmente instalado na mesma localidade em que a empresa está estabelecida. Em geral apresenta pouca redundância de componentes e sistemas. O custo de instalação, operação e manutenção da infraestrutura é normalmente o principal fator de escolha de um data center próprio. Data Centers Desvendando cada passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 1a Edição - código: 519 Autor: Dr. Paulo Sérgio Marin 2 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 5. Os data centers Internet, como o nome sugere, oferecem o ambiente de data center, incluindo a infraestrutura física, equipamentos de TI, storage (armazenamento de da- dos), bem como serviços adicionais com o gerenciamento das operações de proces- samento de dados de seus clientes. Os data centers Internet normalmente têm vários clientes e são responsáveis por oferecer toda a infraestrutura física necessária para as suas necessidades de processamento e armazenamento de informações. Algumas ca- racterísticas dos data centers Internet são: Possuem uma grande densidade de equipamentos críticos de TI. Possuem maior redundância de componentes e sistemas para garantir a continui- dade dos negócios de seus clientes em casos de falhas da infraestrutura do site. A disponibilidade da infraestrutura do data center é o principal fator de projeto do site. 6. Os data centers collocation entregam a infraestrutura física pronta (espaço, instalações elétricas, ar condicionado, segurança etc.) para a instalação dos equipamentos críti- cos de TI do cliente. Nesses ambientes, os clientes são responsáveis pela instalação e operação de seus equipamentos e sistemas. Entre as características de um data center collocation, podemos citar as seguintes: São sites que ocupam, em geral, espaços maiores (em metros quadrados) que os data centers enterprise e Internet. Têm normalmente menor densidade de equipamentos na computer room. Apresentam campos de terminação centralizada de cabeamento, bem como equi- pamentos de rede também centralizados. A segurança do site e dos equipamentos críticos de TI dos clientes são os princi- pais parâmetros de projeto de data centers collocation. Isso se deve ao fato de que os clientes devem ter acesso aos equipamentos e isso deixa a sala de computadores vulnerável à ação de intrusos. 7. O data center é um ambiente que pode ser considerado de aplicação comercial, porém os critérios de projeto da infraestrutura de um data center diferem daqueles usados no projeto da infraestrutura de edifícios comerciais típicos. O projeto da infraestrutura de um data center começa pela identi� cação dos requisitos de tecnologia, incluindo os seguintes itens: redes; servidores; equipamentos de storage (armazenamento de dados); conectividade. Ao contrário do projeto tradicional (conforme de� nido para os espaços comerciais tí- picos), o projeto da infraestrutura de um data center é desenvolvido por um engenhei- ro e o foco está nos requisitos de engenharia e não na arquitetura do site. Respostas dos Exercícios 3 8. São basicamente dois: método de projeto independente e método turn-key. O méto- do de projeto independente é aquele no qual as atividades de projeto e de instalação são separadas, ou seja, o projetista é um pro� ssional ou uma entidade responsável ex- clusivamente pelo projeto, � cando a instalação e integração sob a responsabilidade de outras empresas e/ou pro� ssionais. Neste caso, o usuário � nal ou contratante mantém contratos separados para o projeto e para a instalação da infraestrutura do data center. No método turn-key há uma única empresa ou entidade responsável pelo projeto com- pleto, incluindo a arquitetura, engenharia e serviços de construção e implementação em um único contrato. Cada projeto demanda diferentes quantidades de trabalho a ser desenvolvido pelo contratado único e apresenta um escopo diferente. Quando o método de projeto turn-key é adotado, a contratada é responsável por montar uma equipe experiente para concluir o projeto, conforme especi� cado pelo usuário ou contratante. Normalmente o método turn-key é adotado quando o prazo é o fator mais im- portante para o sucesso do projeto, uma vez que o contratante terá de interagir com uma única entidade ou pro� ssional. Assim, neste caso toda a responsabilidade de coordenação de todas as equipes envolvidas no projeto, bem como a responsabilidade pela entrega de serviços dessas equipes dentro dos prazos previstos, é atribuída ao contratado. 9. As fases do projeto podem ser divididas, basicamente, em quatro, conforme a seguir: conceitos e planejamento; projeto esquemático; desenvolvimento do projeto; documentos de construção. 10. O projeto tecnológico pode ser entendido como a parte do projeto da infraestrutu- ra do data center que considera todos os seus subsistemas associados à tecnologia (ar condicionado, sistema elétrico, redes, cabeamento etc.) com exceção da parte de enge- nharia civil e arquitetura do site. As fases do projeto tecnológico de um data center são as seguintes: Assessment Análise do projeto Aquisição Implementação Comissionamento 11. O sucesso de um projeto de infraestrutura de um data center depende de um gerencia- mento de projeto e� ciente. O gerenciamento do projeto deve ser adotado nos estágios iniciais, ou seja, na fase de desenvolvimento. Ele assegura que todas as etapas do pro- jeto sejam executadas de acordo com o planejamento e é essencial para a qualidade da instalação. 4 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 12. A carga de projeto � nal do site será de 901,81kW. Ano Carga inicial (kW) Carga final (kW) Primeiro ano 560,00 + 56,0 616,00 Segundo ano 616,00 + 61,6 677,60 Terceiro ano 677,60 + 67,7 745,30 Quarto ano 745,3 + 74,53 819,83 Quinto ano 819,83 + 81,98 901,81 13. Para a aquisição do projeto tecnológico do data center, uma RFP (Request For Proposal) deve ser elaborada. Ela deve trazer todas as informações necessárias para a aquisição de produtos e serviços de tecnologia, incluindo especi� cações e desenhos detalhados. A RFP é enviada aos fornecedores potenciais para a entrega de propostas para a implementação do projeto. Deve detalhar todos os produtos, atividades envolvidas no projeto, serviços, imple- mentação, além de questões legais e burocráticas que sejam relevantes para a boa im- plementação do projeto. 14. Os equipamentos críticos de TI têm ciclos de vidaentre 5 e 7; isso se aplica a servido- res, switches, equipamentos de storage, entre outros. Esses ciclos de vida estão relacio- nados, basicamente, às gerações de novas tecnologias de rede. 15. O comissionamento é importante por ser o processo de con� rmação de que os siste- mas foram projetados, instalados, testados de forma adequada e podem ser operados e mantidos de acordo com o projeto desenvolvido, revisado e aprovado previamente. Inicialmente, o comissionamento em data centers era associado aos sistemas mecâni- cos e de ar condicionado apenas. Atualmente, o comissionamento tem se tornado um processo de controle de qualidade importante que se aplica a todos os sistemas e sub- sistemas do data center. Os sistemas que compõem a infraestrutura de um data center devem ser comissionados de acordo com normas e melhores práticas do mercado. Capítulo 2 1. Um data center é classi� cado, primordialmente, por suas características de disponibi- lidade, con� abilidade e redundância. Por se tratar de ambientes de missão crítica, os data centers devem estar aptos a operar com níveis de disponibilidade próximos de 100%, o que signi� ca uma garantia de operação ininterrupta mesmo em casos adver- sos (como falhas do hardware dos equipamentos críticos de TI, falhas no fornecimen- to de energia elétrica, do ar condicionado, entre outras). Para a garantia desses níveis de disponibilidade, os data centers devem contar com sistemas redundantes capazes de suprir a falta de seus sistemas principais em casos Respostas dos Exercícios 5 de falhas ou paradas por motivos conhecidos (manutenção preventiva, testes pro- gramados etc.) ou desconhecidos (erros humanos ou falhas de operação de modo geral). 2. A disponibilidade de um determinado sistema é o tempo durante o qual ele está em operação em relação ao tempo em que se espera que ele esteja em operação. A dispo- nibilidade do sistema pode ser calculada da seguinte forma: Sendo: MTBF (Mean Time Between Failures), tempo médio entre falhas; MTTR (Mean Time To Repair), tempo médio de reparo. 3. Uma disponibilidade de 99,999% signi� ca um site com o nível de disponibilidade teo- ricamente ideal, já que uma disponibilidade de 100% não é possível. Na prática, esses números são ainda altos, porém bem diferentes. 4. A infraestrutura de um data center deve oferecer, em geral, uma disponibilidade mí- nima de 99,67%. Cada “nove” adicional aumenta a ordem de grandeza de disponi- bilidade em um fator de 10. Assim, um aumento de 99,99% para 99,999% é bastante importante da disponibilidade do sistema. No entanto, o custo de um “nove” adicio- nal pode também representar um custo dez vezes superior no investimento no sistema (infraestrutura, equipamentos, so� ware, serviços etc.). 5. A disponibilidade de um data center será expressa como uma porcentagem (ao longo de um período de um ano) e se aplica a um componente ou sistema. Para sistemas compostos por vários elementos ou componentes com diferentes MTBFs, ou seja, em um sistema híbrido (como é a infraestrutura de um data center) a disponibilidade de cada sistema (ou componente) deve ser então calculada para cada um, considerando sua topologia híbrida que pode ser em série ou paralela. É importante entender que a disponibilidade da infraestrutura sempre se refere ao sistema como um todo. 6. Os subsistemas e componentes de um data center podem ser con� gurados em série ou em paralelo. 7. A disponibilidade de um sistema paralelo pode ser calculada conforme a seguinte ex- pressão: Disponibilidadeparalelo = (S1+S2) – (S1.S2) 6 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética Neste caso, como S1 tem uma disponibilidade de 45 e S2 de 65%, teremos: Disponibilidadeparalelo = (0,45 + 0,65) – (0,45 x 0,65) = 0,8075 = 80,75% 8. A con� abilidade pode ser entendida como a distribuição do tempo entre falhas de um sistema ou componente. É normalmente especi� cada pelo MTBF de componentes ou sistemas. A alta con� abilidade de um sistema signi� ca que ele contém muitos compo- nentes con� áveis que juntos constituem um sistema con� ável. A con� abilidade é es- peci� cada como a probabilidade de um sistema não apresentar falhas antes de uma quantidade de horas bem determinada (t). A expressão a seguir pode ser usada para determinar a con� abilidade de um sistema. 9. Para um período de um ano, a con� abilidade do sistema em questão pode ser calcula- da da seguinte forma: 10. A redundância em data centers pode ser entendida como a duplicidade de partes, mó- dulos, encaminhamentos, componentes e sistemas com a � nalidade de evitar o downti- me (tempo de parada) de um site devido a: falhas técnicas; falhas humanas (que causam erros de operação); manutenção preventiva ou corretiva. 11. Sistema de classi� cação de tiers do � e Uptime Instutute; ANSI/TIA-942: Infraestrutura de telecomunicações para data centers; ANSI/BICSI-002: Projeto de data centers e práticas recomendadas. 12. Data center básico (N) Data center com redundância N+1 Data center com redundância N+2 Data center com redundância 2N Data center com redundância 2(N+1) 13. Signi� ca ter duas unidades adicionais, módulos, encaminhamentos de distribuição ou sistemas em relação ao mínimo necessário para atender os requisitos básicos do site. A falha ou manutenção de quaisquer duas unidades isoladas, módulos ou encaminha- mentos não causa interrupção das operações. Respostas dos Exercícios 7 14. Data center TR1: Básico Data center TR2: Componentes redundantes Data Center TR 3: Sustentabilidade concomitante Data Center TR 4: Tolerante a falhas 15. Um data center de nível TR3 tem duas vias de distribuição de energia, sendo uma ati- va e uma reserva (standby), com gerador, UPS, HVAC e quadros de distribuição re- dundantes. Para grandes data centers que utilizam água gelada, signi� ca ter dois conjuntos de bombas e tubulações independentes ou redundância em anel. O mesmo se aplica aos tanques e sistemas de alimentação de combustível. Sites TR3 devem ter cabeamento dedicado (estruturado) que atenda às condições de redundância projetada do site e piso elevado. Esses sites devem ter entradas de prove- dor de acesso redundantes. 16. Data centers classe F0: infraestrutura básica Data centers classe F1: infraestrutura básica para a carga crítica de TI Data centers classe F2: risco de parada moderado Data centers classe F3: manutenção concomitante Data centers classe F4: operação contínua 17. Data center tier I: Data center básico Data center tier II: Data center com componentes redundantes Data center tier III: Data center com manutenção e operação simultâneas Data center tier IV: Infraestrutura tolerante a falhas 18. São o � e Uptime Institute e a TÜV Rheinland. As principais características são apre- sentadas a seguir. � e Uptime Institute: • O Th e Uptime Institute emite um selo de certifi cação tier para data centers com base em suas disponibilidades, conforme de� nido pelo instituto. • Oferece dois tipos de certifi cação, uma que se aplica ao projeto do data center e outra que se aplica à infraestrutura do site propriamente dita. • A certifi cação do projeto é feita por meio da avaliação da documentação do projeto, ou seja, do projeto executivo e de seu memorial descritivo. • Uma vez aprovado, o projeto recebe um selo de certifi cação referido como “Design” para identi� car que ele está certi� cado dentro de uma das quatro clas- si� cações tier, conforme estabelecido pela instituição. 8 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética • A certifi cação do site é feita por meio de uma auditoria realizada por auditores do � e Uptime Institute. • Comprovado que o site foiimplementado de acordo com o projeto previa- mente certi� cado, a certi� cação do site é então concedida e referida como “Facility”. • O Th e Uptime Institute não tem requisitos quanto à periodicidade da renova- ção das certi� cações concedidas (tanto de Design quanto de Facility). TÜV Rheinland: • A TÜV tem um sistema de certifi cação para data centers baseado na norma americana ANSI/TIA-942, porém aplica os conceitos e princípios de disponibi- lidade e segurança de forma ampla. • A certifi cação da TÜV baseia-se nos critérios de disponibilidade, segurança e e� ciência. • O processo de certifi cação da TÜV envolve quatro fases principais: - A fase 1 é a avaliação do projeto, ou seja, a análise de toda a documentação do empreendimento com base multidisciplinar. - A fase 2 consiste na avaliação da obra, ou seja, na análise da obra civil, insta- lações dos equipamentos, bem como do desempenho dos sistemas. - A fase 3 consiste na avaliação da operação e treinamento, ou seja, na avalia- ção do site em operação para assegurar que as pessoas estejam efetivamente treinadas e capacitadas para utilizar os procedimentos estabelecidos, cum- prir os planos de manutenção e treinamento, tomar as decisões adequadas e oferecer as condições necessárias para que o data center atinja os objetivos planejados. - A fase 4 consiste na revalidação ou manutenção da certi� cação que é feita por meio de auditorias semestrais realizadas para veri� car se o data center está mantendo as mesmas condições iniciais da certi� cação, se os planos de ma- nutenção e segurança estão sendo corretamente aplicados e se o data center está operando de acordo com os procedimentos estabelecidos. - De acordo com a TÜV, um data center pode receber uma das seguintes clas- si� cações: TR1, TR2, TR3 ou TR4. 19. Esta questão deve ser discutida em classe. Não há resposta de� nitiva, uma vez que isso depende da avaliação e opinião de cada um. Respostas dos Exercícios 9 Capítulo 3 1. A ocupação dos espaços dentro de um data center é uma das questões mais críticas do projeto e implementação de um data center. A área de um data center deve ser di- mensionada levando em consideração os vários subsistemas que serão instalados nesse espaço. Assim, espaços devem ser considerados para abrigar o seguinte: a) sistemas elétricos (distribuição elétrica); b) espaços de suporte (sala de impressão, NOC, salas de reuniões, sala de baterias, entrada de telecomunicações etc.); c) sala de computadores (computer room). 2. O planejamento do espaço para a instalação do sistema elétrico deve levar em conta que os comprimentos dos cabos entre os alimentadores e os quadros elétricos (PDU, Power Distribution Unit) devem ser os mínimos possíveis por questões de custo, dissi- pação de calor, bem como ocupação da infraestrutura de distribuição no data center. O encaminhamento dos cabos elétricos pelas dependências do data center é mais um ponto de certa complexidade. Há diversos subsistemas no data center que têm suas distribuições e conexões feitas por cabos, tais como cabeamento estruturado, subsis- tema de segurança, subsistema de detecção e extinção de incêndio, entre outros. Por esta razão, o projetista de um data center deve conhecer os subsistemas que serão im- plementados em um dado projeto e interagir com representantes e pro� ssionais dos diversos subsistemas nele envolvidos. Entre os equipamentos que compõem o sistema elétrico de um data center estão os seguintes: entrada do sistema elétrico; subestação; quadro elétrico primário; grupos geradores; quadros elétricos dos geradores; painéis de distribuição elétrica; chaves de transferência automática; transformadores; sistemas UPS; baterias, entre outros equipamentos e componentes. 10 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 3. O espaço dedicado às máquinas e componentes do ar condicionado do data center também deve ser dimensionado de acordo com as características do data center e é um ponto crítico e que requer muita atenção. O projetista deve considerar que o ar condi- cionado deve ser projetado para retirar o calor proveniente dos equipamentos de TI instalados na computer room, mantendo assim a temperatura em níveis seguros para a operação dos equipamentos críticos de TI. O sistema de climatização deve prever espaço para a instalação dos seguintes compo- nentes e equipamentos no data center: equipamentos de ar condicionado; unidades CRAC (Computer Room Air Conditioning); sistemas de resfriamento baseado em chillers; torres de resfriamento; unidades de armazenamento térmico; sistemas de resfriamento baseados em líquidos diretamente em racks; tubulações e canalizações de água; bombas, entre outros equipamentos e componentes do sistema de climatização. 4. Centro de operações Sala de impressão Doca para carga e descarga 5. O centro de operações do data center deve ser implementado fora da sala de computadores. Os equipamentos terminais nas áreas de trabalho do centro de operações devem ser conectados ao subsistema de cabeamento adequado e não diretamente ao distribuidor principal (MD/MDA) do cabeamento do data center. As conexões para monitoramento de rede do data center podem ser feitas direta- mente no MD/MDA. Sistemas de CATV podem ser implementados no centro de operações. Esse espaço não tem uma relação direta com a área da sala de compu- tadores (em metros quadrados). 6. O projetista deve considerar um espaço dedicado para a instalação de impressoras, que deve ser localizado fora da computer room (sala de computadores). Esse espaço deve ter um sistema de ar condicionado separado do ar condicionado da computer room. Um espaço auxiliar próximo à sala de impressão deve ser considerado para o armazenamento de papel e suprimentos; parâmetros como umidade e temperatura de- vem ser controlados na sala de impressão. 7. Esses espaços devem ser localizados de tal forma que permitam acesso às salas de de- pósito e testes de equipamentos (presentes em data centers grandes, porém pouco co- muns em sites de pequeno porte) e à computer room ou computer rooms, em sites com mais de uma sala de computadores. Dois tipos de espaços para carga e descarga devem ser considerados: Respostas dos Exercícios 11 Espaços sem requisitos críticos de segurança: para recebimentos e despachos em geral. Espaços com requisitos críticos de segurança: para recebimento e despacho de equi- pamentos e produtos de alto valor. Neste caso deve haver uma área fechada e protegida para o estacionamento de caminhões, bem como carga e descarga. Esse espaço deve ser monitorado pelo sistema de circuito fechado de TV (CCTV) do data center. 8. Há basicamente quatro espaços destinados a telecomunicações e cabeamento, que são: infraestrutura de entrada; área destinada à distribuição principal (MD/MDA); área destinada à distribuição de zona (ZD/HDA); área destinada à distribuição de equipamentos de TI no data center (EO/EDA). 9. Esse espaço deve ser projetado e implementado próximo à sala de computadores e de- vem ser previstos também espaços para os equipamentos dos provedores de serviços e acessos. Encaminhamentos separados e protegidos podem ser necessários entre a in- fraestrutura de entrada e os equipamentos desses provedores. O espaço de infraestrutura de entrada pode ser dividido em áreas para oferecer uma separação segura entre os equipamentos do data center e os equipamentos dos prove- dores de acesso e serviços. Se esse espaço for dividido, recomenda-se sua divisão em dois novos espaços; um para o proprietário ou operador do data center e outro para todos os provedores de acesso e serviços. Os espaços separados podem ser divididos por paredes ou cercas metálicas(muito usadas em data centers para esta � nalidade). 10. A área de distribuição principal do data center abriga o distribuidor principal do ca- beamento da computer room (MD/MDA), onde são instalados os equipamentos core da rede do data center, ou equipamentos de uso comum. Quando o cabeamento do data center deve ter conexões ao cabeamento do edifício onde se encontra (em casos nos quais o data center não é implementado em um edifício dedicado exclusivamen- te a este � m), o MD/MDA deve oferecer meios de conexão deste ao distribuidor de piso (FD, Floor Distributor) do edifício. Esse espaço é localizado dentro da computer room e pode ser também implementado isoladamente, em espaço dedicado e com segurança no caso de edifícios que abrigam mais de um data center ou computer room. Deve haver pelo menos uma área de distri- buição principal com um distribuidor principal (MD/MDA) em um data center. Os equipamentos comumente instalados nesse espaço são o switch Ethernet core, o ro- teador core, switches SAN (Storage Area Network) core e equipamentos para a distri- buição de serviços de voz (switches para serviços de voz sobre IP, VoIP e PABX). 11. A área de distribuição de zona do data center abriga o distribuidor de zona (ZD/HDA) do cabeamento do data center. Esse espaço deve estar dentro da computer room e per- mitir conexões entre o distribuidor de zona e o distribuidor principal, bem como entre o distribuidor de zona e a tomada de equipamento do data center. Eventualmente, a 12 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética área de distribuição de zona pode estar localizada em espaço isolado e seguro em um edifício dedicado a abrigar um data center. Nesse espaço são instalados os equipamen- tos de TI que entregarão serviços aos equipamentos de TI instalados na área de to- madas de equipamentos (EO/EDA). Portanto, os equipamentos instalados comumente nesse espaço são switches Ethernet, dispositivos KVM (Keyboard, Video and Mouse), entre outros. Em edifícios destinados ao uso exclusivo de data centers (mais do que uma única computer room em um mesmo edifício), deve ser prevista uma área de distribuição de zona para a instalação de distribuidores de zona (ZD/HDA) em cada pavimento ou área deste responsável pela distribuição do cabeamento horizontal no data center. Data centers típicos necessitam de várias áreas de distribuição de zona; sites peque- nos, por outro lado, podem não precisar de áreas para a instalação de distribuidores de zona (ZD/HDA). 12. Os equipamentos de TI do data center ou, mais especi� camente, servidores (conven- cionais e blade), bem como os equipamentos de storage, devem ser instalados em áreas dedicadas a eles, denominadas áreas de equipamentos. Nesses espaços estão as toma- das de equipamentos (EO/EDA) normalmente montadas nos racks ou gabinetes em que serão instalados esses equipamentos. Esses espaços devem ser dedicados à insta- lação dos equipamentos de TI da computer room e não devem ser usados como dis- tribuidores. Quando utilizados os pontos de distribuição local (LDP/ZDA) entre um distribuidor de zona e uma tomada de equipamento (EO/EDA), esse dispositivo deve ser montado próximo às áreas de equipamentos e não pode haver conexões cruzadas adicionais entre o ZD/HDA e a EO/EDA. 13. A estrutura de fixação do piso elevado deve ser montada sobre a laje em que será instalada a computer room. A espessura da laje precisa ser de 14cm, no mí- nimo, e deve ser projetada para suportar uma carga de piso mínima de 7,2KPA (732,36kgf/m2). No caso de data centers de alta densidade, a laje deve ter uma es- pessura de 20cm e a carga de piso mínima a ser suportada precisa ser de 12KPA (1.220,6036kgf/m2). O sistema de piso elevado deve ser contínuo, de modo a oferecer uma boa capacida- de de transferência lateral do peso ao longo da estrutura. A estrutura do piso elevado deve estar aterrada para evitar o acúmulo de carga estática tanto no piso quanto nos equipamentos, o que pode levar os equipamentos de TI à operação instável e até mes- mo à queima. 14. A porta de entrada principal da computer room deve ser dupla e com uma abertura mínima de 1,80m (em duas folhas de 0,90m cada). Essas portas não devem ter ne- nhum elemento separador e a abertura livre deve ser de 1,80m. Elas devem ser de ma- deira sólida, com uma espessura mínima de 4,50cm ou de aço. Independentemente do material, as portas devem ser montadas em batentes de aço, com uma altura livre mínima de 2,10m. Respostas dos Exercícios 13 As demais portas do data center podem ter abertura livre de 1,10m, com uma única folha e altura livre mínima de 2,10m. Portas duplas também podem ser usadas em ou- tros espaços do data center; neste caso, as folhas devem ter largura mínima de 0,90m cada e a altura livre deve ser, no mínimo, de 2,30m. As portas duplas com aberturas preenchidas por vidro transparente devem utilizar vi- dros que tenham a mesma classi� cação quanto a chamas que as portas utilizadas. 15. As seguintes especi� cações e recomendações se aplicam à computer room: Deve ser implementada em uma localidade no edifício que permita sua expansão. Deve ser implementada em localidade e posição que permitam transportar equi- pamentos de grande porte para dentro da sala sem a remoção de portas ou quais- quer outras partes ou peças do data center. Deve ser implementada em uma localidade segura do ponto de vista da interfe- rência eletromagnética de fontes potenciais, como transformadores elétricos, equi- pamentos de transmissão de rádio, subestações retransmissoras que operam em frequências próximas a micro-ondas etc. Deve ser implementada em uma localidade no edifício não compartilhada com outros sistemas ou serviços. 16. O tamanho da computer room deve ser determinado em função das quantidades e tipos de equipamentos de TI, bem como racks e gabinetes a serem instalados. Não há normas especí� cas nem especi� cações em normas vigentes para a determina- ção do tamanho da computer room. As paredes da computer room devem ser preferivelmente claras para melhorar a distribuição de luz no espaço. A iluminação deve ser projetada para oferecer 500 lux de intensidade no mínimo (no plano horizontal) e 200 lux no vertical. O acesso à computer room deve facilitar a entrada, movimentação e retirada de equipamentos de TI e ser protegida contra o acesso de pessoas não autorizadas. 17. Recomenda-se que seja feita em sistema de coordenadas X e Y. A NBR 14565:2011 re- comenda que a coordenada X seja marcada com letras (A, B, C, D, ... AA, AB, AC etc.) e a Y com números (01, 02, 03, 04 etc.). A � gura seguinte apresenta um esquema de identi� cação da computer room em sistema de coordenadas e mostra um gabinete de equipamentos de TI na posição I-03. 18. Os limites para os parâmetros ambientais da computer room variam conforme a norma que se utiliza como referência. A tabela seguinte apresenta os limites estabelecidos pe- las normas NBR-14565:2011 e ANSI/TIA-942. 14 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética Recomendações Normas NBR 14565:2011 ANSI/TIA-942 Temperatura ambiente 18°C a 27°C 20°C a 25°C Ponto de condensação Entre 5,5° e 15°C 25°C Troca máxima de calor 5°C/h 5°C/h Umidade relativa do ar Entre 30% e 60% Entre 40% e 50% Medições A cada 3 metros ao longo da linha central dos corredores frios e no ponto de retorno do ar condicionado Entre três e seis metros ao longo da linha central dos corredores frios e nos pontos de entrada do ar condicionado 19. As seguintes recomendações devem ser observadas pelo projetista com relação aos as- pectos de localização geográ� ca da computer room: O local de instalação do data center não deve estar sujeito a inundações (devemser evitados locais próximos a rios, lagos, oceanos, fundos de vales etc.). Deve-se evitar localidades próximas a cabeceiras de pistas de aeroportos por riscos de acidentes potenciais. Evitar locais sujeitos a abalos sísmicos (isso é relativamente raro no Brasil, porém nor- mas desenvolvidas em países como os Estados Unidos apontam para esta questão). Evitar localidades muito próximas a linhas de transmissão elétrica. Locais com fácil acesso a rodovias são recomendados. Locais próximos às concessionárias de energia elétrica são recomendados. Locais próximos a centros de serviços são também recomendados. Condomínios comerciais específicos para abrigar data centers também po- dem ser boas localidades para instalar um novo site (normalmente eles já foram construídos levando os aspectos anteriormente citados em considera- ção). 20. Quanto aos aspectos da construção propriamente dita, algumas normas, como a NBR 14565:2011, a ANSI/TIA-BICSI-002 e a ANSI/TIA-942, trazem recomendações que podem auxiliar o projetista na determinação de alguns fatores construtivos do site. Como exemplo, há recomendações de que a computer room seja construída no interior do edifício sem paredes entre ela e o meio externo e que suas paredes, quando interfa- ceando o ambiente com o meio externo, sejam de concreto e com espessura especí� ca (que varia dependendo de cada norma e do local da construção). Respostas dos Exercícios 15 Outra recomendação é que a computer room não tenha janelas para o meio exter- no, por motivos de segurança. Caso o ambiente a ser utilizado tenha janelas, elas devem ser bloqueadas internamente com placas que resistam a tiros de armas de fogo de grosso calibre e que sejam resistentes à propagação de chamas (a classifi- cação quanto a chamas também varia conforme a norma utilizada). O uso de vi- dros blindados também é sugerido em ambientes que tenham janelas entre o meio externo e a computer room. Essa recomendação não se aplica a paredes de vidro ou janelas internas entre, por exemplo, o NOC e a computer room. Ainda com relação a aspectos construtivos, outra recomendação é que, sempre que possível, a compu- ter room seja localizada no piso térreo do edifício. Isso facilita a entrada e a saída de equipamentos do site. Capítulo 4 1. Não há sistemas de distribuição elétrica de baixa tensão especificamente projeta- dos para atender às necessidades de alimentação de data centers. Na verdade, isso nem é necessário, uma vez que as etapas de geração e distribuição de energia elé- trica são capazes de atender a todos os tipos de usuários, residenciais, comerciais e industriais. 2. A distribuição elétrica no data center é crítica e deve garantir a operação segura e con- � ável do site. Isso pode requerer sistemas so� sticados, e quanto maiores os requisitos de uptime e redundância, mais so� sticados e complexos serão esses sistemas. De qual- quer forma, o sistema elétrico de um data center deve contar com os seguintes elemen- tos básicos: entrada de alimentação elétrica proveniente da concessionária; grupo motor-gerador (referido simplesmente como gerador); chaveadores (chaves de comutação); sistema UPS (Uninterruptible Power Supply); quadros/painéis de distribuição (PDU, Power Distribution Unit); sistema de aterramento. 3. Os sistemas elétricos dos data centers levam em consideração os requisitos de normas quanto às classificações dos data centers em relação à disponibilidade e redundância. A tabela seguinte apresenta as normas aplicáveis e as classificações definidas por elas. 16 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética Normas/Procedimentos ANSI/BICSI-002 ANSI/TIA-942 TÜV Rheinland Uptime Institute Características Classificações Classe F0 Disponibilidade <90% - - - Básico (N) Classe F1 Disponibilidade =90% Tier 1 TR1 Tier I Básico (N) Classe F2 Tier 2 TR2 Tier II Componentes redundantes (N+1) Classe F3 Tier 3 TR3 Tier III Sustentabilidade concomitante (N+1), (N+2) Classe F4 Tier 4 TR4 Tier IV Tolerante a falhas 2N 2(N+1) 4. A e� ciência de projeto do sistema elétrico do data center está associada ao dimensio- namento da topologia do sistema elétrico do site. A e� ciência de operação está relacio- nada às características dos componentes, dispositivos ou sistemas isolados. 5. A e� ciência de projeto desse sistema poder ser determinada pela aplicação da seguinte expressão: e1(p=(carga requerida(kW) / (potência instalada (kW)) e1(p=(carga requerida(kW) / (potência instalada (kW)) a. Três módulos de 300kVA: ep = ⋅ = 300 900 100 33 3(%) , % b. Seis módulos de 80kVA: ep = ⋅ = 300 480 100 62 5(%) , % c. Sete módulos de 60kVA: ep = ⋅ = 300 420 100 71 4(%) , % Respostas dos Exercícios 17 6. Trata-se de um data center com sistema elétrico com classi� cação tier III. De acor- do com as classi� cações de� nidas pelo � e Uptime Institute, em localidades nas quais não é possível ter o site alimentado por duas concessionárias elétrica diferentes, gru- pos geradores instalados de forma adequada podem ser considerados como um prove- dor de eletricidade independente e redundante. 7. O esquema de distribuição elétrica tier 3 com redundância N+2 deve ter a topologia apresentada na � gura a seguir. Quanto ao balanceamento de cargas, isso vai depender da distribuição em níveis mais detalhados (por exemplo, em nível de PDU). O importante, neste caso, é adotar crité- rios de projeto e implementação do sistema levando em consideração que este 1MVA, no caso deste exemplo, refere-se às cargas críticas de TI do site. 8. Há, basicamente, cinco tipos de sistemas UPS que podem ser usados em instalações de data centers. O sistema mais adequado para data centers é o paralelo-redundante por apresentar sempre um módulo adicional à quantidade necessária para suportar a carga, de forma que um módulo com defeito (UPS ou bateria) possa ser substituído sem interrom per a alimentação da carga. UPS o� -line (UPS Standby): esse tipo de UPS é também conhecido como sistema back-up ou UPS standby. Sob circunstâncias normais, a entrada do UPS é alimen- 18 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética tada por meio de um � ltro e a carga é conectada à sua saída por chaves mecânicas. O carregador das baterias mantém o estado de carga delas e há um circuito de de- tecção que monitora o estado da entrada do UPS. UPS estático: há basicamente dois tipos de UPS estáticos no mercado, sendo de linha interativa (line interactive) e de conversão dupla (true on-line). Um UPS es- tático consiste normalmente de um conjunto de baterias para prover alimentação para a carga, um reti� cador/carregador para manter a carga das baterias e para alimentar a entrada do inversor quando há energia elétrica proveniente da conces- sionária local; um inversor para prover alimentação elétrica para a carga durante a operação normal; uma chave estática para transferir a carga automaticamente em casos de manutenção do UPS, transformadores isoladores de entrada e saída, bem como � ltros para oferecer isolação adequada e atenuação de distúrbios, além de sensores e circuitos de controle. UPS rotativo (� ywheel): um equipamento chamado � ywheel é usado para aplica- ções que requerem um tempo de transferência muito curto em casos de falta de energia elétrica do site ou quedas abruptas de tensão provenientes da concession- ária. Um sistema UPS baseado em � ywheel normalmente não utiliza baterias e sua autonomia é da ordem de alguns segundos a poucos minutos. O uso de grupos geradores juntamente com sistemas UPS � ywheel pode oferecer autonomia in- de� nida em caso de falta de energia elétrica proveniente da concessionáriae man- ter, além das cargas críticas (equipamentos de TI), os sistemas de ar condicionado e iluminação do data center. UPS rotativo híbrido: nesse tipo de sistema, a tensão de alimentação das cargas pode ser obtida a partir de módulos � ywheel e também de baterias convencionais (opcional). As seguintes características se aplicam a esses sistemas: • oferecem dois ramos para suprir alimentação para a carga; • utilizam � ywheel e baterias (opcional); • podem ser projetados para suprir a carga a partir de duas fontes independentes; • as baterias podem suportar a carga se ambos os ramos de alimentação falha- rem. UPS paralelo-redundante: esse sistema oferece redundância N+1 (no mínimo) e usa um arranjo de sistemas UPS que operam em modo paralelo. Em geral, haverá pelo menos um módulo adicional à quantidade necessária para suportar a carga, de modo que um módulo com defeito (UPS ou bateria) possa ser substituído sem interromper a alimen tação da carga. Respostas dos Exercícios 19 9. a. Considerar os consumos de equipamentos conforme a Tabela 1, a seguir. Equipamento Tipo/Observação Consumo (W) Servidores do tipo blade Chassis/10RU (unidade de rack) 5.600W por chassis Storage (array) 12 hard disks por array 520W por array Switch Ethernet Switch Core/4608 portas 7.500W por switch b. Para o dimensionamento do sistema elétrico da computer room com os equipa- mentos apresentados na Tabela 1, podemos levantar a tabela de cargas totais con- forme a Tabela 2, a seguir. Equipamento Quantidade Consumo individual (W) Consumo total (carga, W) Servidores do tipo blade 150 (15 chassis) 5.600 84.000 Disk array 40 (480 HDs) 520 20.800 Switch Ethernet 8 (switches core) 7.500 60.000 Carga total de TI (W) 164.800 Carga total de TI (kW) 164,8 c. Antes de prosseguirmos com os cálculos, precisamos aplicar o fator de crescimen- to de 6,5% para 10 anos. Assim, teremos: Cargafutura = Cargainicial . Fatorcrescimento = 164,8 . 1,065 = 175,5 kW d. Determinação da carga dos espaços de suporte do data center. Cargaespaços suporte = Cargainicial . Fatorcarga = 164,8 . 0,15 = 24,7 kW e. Determinação da carga de iluminação da computer room. Para isso, precisamos considerar uma densidade média de iluminação na computer room de 21,7W/m². A área total da computer room deste exemplo é de 124,20m². Cargailum.computer room = Áreacomputer room. Densidadepot.ilum.(kW) Cargailum.computer room = 124,20 . 21,7 = 2.695,14 ≅ 2,7 (kW) f. Determinação da carga referente à iluminação dos espaços de suporte. Em geral, adota-se a carga de iluminação dos espaços de suporte como a mesma a ser desti- nada à computer room. Assim, teremos: Cargailum.espaço suporte = Cargailum.computer room = 2,7 (kW) 20 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética g. Determinação da carga de iluminação total do site. Cargailuminação total = Cargailum.computer room + 2,7 Cargailum.espaço suporte = = 2,7 + 2,7 = 5,4kW 2,7 + 2,7 = 5,4kW h. Determinação da carga de UPS e baterias. Adota-se um fator de cargas de 25% para as baterias e um fator de ine� ciência de 15%. Assim, teremos: CargaUPS = (Cargafutura . Fatorcarga baterias) + (Cargafutura . Fatorine� ciência) CargaUPS = (175,5 . 0,20) + (175,5 . 0,15) = 35,10 + 26,3 = 61,4 kW i. Carga dos sistemas mecânicos do site. Para a determinação da carga a ser destina- da ao sistema de climatização, vamos primeiramente avaliar a carga total do site, determinada até o momento. A tabela a seguir resume essas cargas. Sistema Carga (kW) Equipamentos de TI 175,5 Fator de crescimento 10,7 Espaços de suporte 24,7 Iluminação do site 5,4 Sistema UPS e baterias 61,4 Carga total do site (kW) 277,7 Como o sistema mecânico tem e� ciência típica em torno de 70%, teremos a seguinte carga destinada a esse sistema no exemplo: Cargasistema mecânico = Cargatotal data center . Fatorcarga sistema mecânico Cargasistema mecânico = 277,7 . 0,70 = 194,40kW Respostas dos Exercícios 21 Com a carga mecânica determinada, teremos a carga total do sistema do site do exem- plo, conforme apresentado na tabela em seguida. Sistema Carga (kW) Equipamentos de TI 175,5 Fator de crescimento 10,7 Espaços de suporte 24,7 Iluminação do site 5,4 Sistema UPS e baterias 61,4 Sistema mecânico 194,4 Carga total do site (kW) 472,1 j. Determinação da entrada de serviço elétrico do site. O dimensionamento da en- trada de serviço elétrico do data center consiste na determinação da corrente de entrada do alimentador elétrico. Para isso, normalmente se utiliza um fator de so- brecarga ou fator de pico, que no exemplo vamos adotar como sendo 25%. Assim, teremos: CargaSE = Cargatotal site . Fatorsobrecarga (kW) CargaSE = 472,1 . 1,25=590,12 (kW) Determinação da corrente do alimentador. Considerando uma alimentação elétrica tri- fásica em 380V (CA) e o fator de potência igual a 1,0, a corrente do alimentador será: [17] Para � nalizar, o data center do exemplo necessita de um barramento de distribuição (busway) com uma capacidade de corrente de 897,65A (ou, aproximadamente, 900A) a partir do qual será feita a distribuição elétrica do site. 10. Chave de transferência é um dispositivo usado para conectar uma ou duas fontes de alimentação a uma carga comum. Em geral, as chaves de transferência atuam entre a concessionária e o gerador back-up, ou entre outros tipos de fontes de energia elétrica disponíveis. 22 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética Quando a fonte de alimentação normal falha, a chave de transferência automática (ATS, Automatic Transfer Switch) é um dispositivo que detecta essa falha e envia um comando de partida para o gerador, que assumirá a carga. 11. O sistema de aterramento de um data center deve ser implementado de acordo com normas técnicas aplicáveis e apresentar os seguintes elementos: sistema de aterramento do edifício; aterramento do sistema elétrico (cargas não relacionadas aos equipamentos de TI); sistema de aterramento da computer room; aterramento de “sinal” (Signal Reference Grid, SGR). A � gura seguinte apresenta um esquema de aterramento para a computer room. 12. A malha de referência de terra ou SRG (Signal Reference Grid) equaliza os potenciais de forma e� ciente dentro de uma ampla escala de frequências, desde níveis CC até mega-hertz (MHz). Assim, a função da malha de referência de sinal é minimizar as diferenças de tensões entre equipamentos interconectados por meio de um plano de terra equipotencial para altas frequências e baixos níveis de tensão de ruído. 13. O termo PDU (Power Distribution Unit) é utilizado para vários tipos de componen- tes diferentes de sistemas elétricos. Um PDU pode ser desde uma “régua de tomadas” (conjuntos de tomadas elétricas montadas em um suporte para alimentar várias car- gas) até um equipamento so� sticado montado dentro de um gabinete, passando por um quadro elétrico. Normalmente, utiliza-se o termo PDU para painéis, quadros e ga- binetes montados dentro da computer room para alimentar os racks de equipamentos. O termo quadro elétrico é mais utilizado como referência ao quadro de distribuição principal, que alimenta os sistemas UPS e os PDUs. Os PDUs mais complexos e montados em gabinetes possuem as seguintes características: São equipamentos complexos que incluem quadros elétricos com disjuntores prin- cipais e regulagem de tensão. Podem ter uma combinação de transformadores e painéis de distribuição na mes- ma unidade de distribuição. Sempre têm painéis de distribuição para proteger os circuitos secundários que ali- mentam as cargas. Podem ter dispositivos de proteção para painéis remotos. São usados disjuntores para proteção dos circuitossecundários derivados do PDU. Podem ter transformadores isoladores. Podem ser equipamentos standalone ou acoplados por meio de uma chave estática para gerenciamento de cargas com fontes simples ou duplas. Podem ter uma única entrada ou entrada dupla, dependendo da topologia do sis- tema elétrico de distribuição. Respostas dos Exercícios 23 14. Sites tier 3 e tier 4 (ou tier III e tier IV) podem ser implementados no Brasil sem qualquer restrição. As normas que de� nem as classi� cações de data centers (prin- cipalmente a do � e Uptime Institute) quanto à sua disponibilidade e redundân- cia requerem duas entradas locais de alimentação elétrica. Onde for possível, duas concessionárias diferentes devem alimentar o site; em locais onde não há opções de concessionárias de serviços elétricos, geradores a diesel podem ser utilizados como segunda entrada elétrica. 15. O � ywheel é uma boa opção para aplicações que requerem tempo de transfe rência muito curto em casos de falta de energia elétrica do site ou quedas abruptas de ten- são provenientes da concessionária. Entre os principais benefícios podemos citar os seguintes: a. São mais con� áveis que baterias. b. Ocupam um espaço mais inferior no data center que aquele ocupado pelos bancos de baterias em salas de baterias. c. Apresentam tempo de transição inferior, ou seja, são mais rápidos que os sistemas UPS que operam com baterias. d. tem um fator de ine� ciência inferior aos das baterias. Capítulo 5 1. O foco do projeto de climatização deve estar na computer room, na qual estão os equipamentos críticos da infraestrutura que geram muito calor e podem colocar o funcionamento dos equipamentos ativos em risco se o sistema não for bem dimen- sionado, tanto em termos de carga térmica quanto em termos de disponibilidade e redundância. 2. A � gura seguinte apresenta o ciclo de climatização e os principais componentes envol- vidos. O primeiro passo para a remoção de calor de um dado ambiente é a evaporação. No evaporador acontece o processo de transferência de calor à pressão e temperatura constantes (T0, P0). O calor transferido ao refrigerante nessa etapa do processo não al- tera a temperatura do refrigerante, apenas seu estado (de líquido para gasoso). Na etapa de compressão, que é um processo reversível, a compressão do refrigeran- te ocorre à entropia constante. O refrigerante ingressa no compressor à pressão do evaporador (P0) e é então comprimido até atingir a pressão de condensação, estando agora aquecido a uma temperatura T2, maior que a temperatura de condensação (TC). O gás comprimido tem a propriedade de aumentar sua temperatura; esse aumento de temperatura resultante da compressão é que permite que o calor retirado da computer room seja transportado para fora dela. 24 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética No condensador acontece o processo de rejeição de calor do refrigerante pela diminui- ção da temperatura T2 (da saída do compressor) para a temperatura de condensação (TC), e então rejeição de calor à temperatura TC até que todo vapor tenha sido conver- tido em líquido saturado à pressão de condensação, PC. Nessa etapa o condensador transfere calor a outro meio, neste caso o ambiente externo (o gás em alta temperatura, T2, é resfriado ao passar pelo condensador, transferindo o calor do refrigerante para o ambiente externo). O condensador é montado na parte externa do edifício. O último passo do ciclo de refrigeração é a expansão do líquido refrigerante. Na válvu- la de expansão acontece um processo irreversível à entalpia constante, desde a pressão constante de condensação (PC) e líquido saturado até atingir a pressão do evaporador, P0. Como o processo é irreversível, a entropia do refrigerante, ao sair da válvula de expansão, é maior que a entropia do refrigerante ao entrar nela. A válvula de expansão é posicionada próximo à entrada do evaporador. É responsável por regular o � uxo do refrigerante que ingressará em baixa pressão no evaporador a uma taxa capaz de man- ter a diferença de pressão dentro de limites ótimos, para garantir que todo refrigerante seja evaporado antes de sair do evaporador. A função do refrigerante é, então, o transporte do calor ao longo do ciclo de climatização. 3. As principais arquiteturas dos sistemas de ar condicionado são: a. Distribuição de ar pelo teto (overhead) Essa arquitetura de distribuição de ar na computer room é uma boa opção quando não se utiliza piso elevado; o tipo de equipamento adequado a este propósito deve ser utilizado. A distribuição de ar overhead deve ser dimensionada para insuflar o ar frio diretamente no corredor frio pela parte superior do corredor. O ar quente resultante da refrigeração dos equipamentos de TI forma os corredores quentes, nos quais devem ser posicionados os exaustores para a retirada do ar quente da computer room. b. Distribuição de ar sob o piso elevado Essa arquitetura de climatização oferece certa � exibilidade na distribuição da car- ga térmica, bem como no posicionamento das unidades CRAC dentro da computer room. Em relação à arquitetura overhead convencional (aquela em que o ar é insu- � ado por cima no corredor frio e retirado do corredor quente por um sistema de dutos), a distribuição sob o piso não requer um sistema de dutos para a exaustão do ar quente do ambiente; o próprio ambiente é usado para este � m. É comum a utili- zação de unidades CRAC com extensões de dutos montadas sobre elas para oferecer melhor encaminhamento do ar quente de retorno às unidades CRAC para exaustão. 4. O projeto do sistema de ar condicionado do data center deve levar em consideração os seguintes fatores: tamanho da sala; densidade de carga, kW por gabinete (ou por m2); Respostas dos Exercícios 25 número de unidades CRAC (Computer Room Air Conditioner); localização da sala no edifício; pé-direito (espaço entre o piso acabado e o teto); características do piso elevado, quando existente; expansão futura; requisitos de con� abilidade; manutenção; características do clima local. 5. Unidades CRAH (Computer Room Air Handling) e unidades CRAC (Computer Room Air Conditioner) são os equipamentos de ar condicionado utilizados na computer room em data centers. A diferença fundamental entre uma unidade CRAH e uma unidade CRAC é que a primeira não possui compressor e condensador montados nela, e apenas insu� a ar frio na sala, � cando as etapas de condensação e troca de calor sob responsabili- dade do chiller, montado na casa de máquinas do data center. 6. Porque os data centers atuais têm densidade de carga muito alta e a adoção de uma densidade de carga de projeto baseada na área da computer room pode resultar uma carga total muito inferior à carga real do site. Como os servidores de hoje, bem como os demais equipamentos críticos de TI, são instalados em racks, é mais e� ciente tratar a densidade de carga da sala de computadores por rack. Há racks que podem ter car- gas da ordem de 20 a 25kW. 7. São, basicamente, a temperatura ambiente, a taxa de troca de calor do ambiente e a umidade relativa do ar. 8. O conceito de corredores frios e quentes em data centers tem sido adotado com suces- so, independentemente do tipo de distribuição de ar utilizado na computer room (sob o piso elevado ou insu� ado pela parte superior dos racks e gabinetes etc.). Para que corredores frios e quentes sejam con� gurados de forma adequada, as unidades CRAC devem ser posicionadas na computer room de forma estratégica. Para a criação dos corredores frios, os racks ou gabinetes devem ser posicionados de tal forma que os equipamentos de TI (basicamente servidores e storage) � quem com a frente (para aspirar o ar frio) orientada para esse corredor. Assim, o corredorfrio se con� gura com o posicionamento dos equipamentos de TI orientados sempre de frente (a frente de um posicionada para a frente do outro). O corredor quente é gerado na parte posterior (traseira) dos racks ou gabinetes em que há a saída do ar que passou pela eletrônica para retirar o calor gerado devido à sua operação. 9. O � uxo de ar na computer room deve ser tal que o ar frio seja insu� ado nos corredores frios e o ar quente proveniente dos corredores quentes seja retirado da sala pelo siste- ma de climatização. A � gura seguinte apresenta um exemplo de � uxo de ar na compu- ter room. 26 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 10. Em um sistema de insu� ação de ar pelo piso, o ar frio deve ser insu� ado nos corre- dores frios e a coleta de ar quente deve acontecer nos corredores quentes. Assim, a melhor posição para a instalação das unidades CRAC na computer room é em alinha- mento com os corredores quentes. A � gura apresentada na resposta da questão 9 ilus- tra essa con� guração. 11. Essa técnica consiste no uso de um so� ware especí� co que é alimentado com os pa- râmetros de projeto. Portanto, é muito importante que o so� ware seja alimentado com informações precisas para gerar um resultado preciso. A � gura seguinte mostra um exemplo da aplicação de CFD ao projeto de climatização de um data center. 12. Distribuição overhead: é uma boa opção quando não se utiliza piso elevado; o tipo de equipamento adequado a esse propósito deve ser utilizado. A distribuição de ar overhead deve ser dimensionada para insu� ar o ar frio diretamente no corredor frio pela parte superior do corredor. O ar quente resultante da refrigeração dos equipa- mentos de TI forma os corredores quentes, nos quais devem ser posicionados os exaustores para a retirada do ar quente da computer room. Distribuição sob o piso elevado: é a técnica mais comumente adotada em data. Essa ar- quitetura de climatização oferece certa � exibilidade na distribuição da carga térmica, bem como no posicionamento das unidades CRAC dentro da computer room. Em relação à arquitetura overhead convencional, a distribuição sob o piso não requer um sistema de dutos para a exaustão do ar quente do ambiente; o próprio ambiente é usado para este � m. É comum a utilização de unidades CRAC com extensões de dutos monta- das sobre elas para oferecer melhor encaminhamento do ar quente de retorno às unidades CRAC para exaustão. Sistemas de climatização baseados nessa arquitetura costumam apre- sentar desempenho melhor. No entanto, em alguns ambientes, devido à falta de um vão adequado sob o piso elevado, essa arquitetura pode não ser recomendada. Portanto, não há uma arquitetura melhor e outra pior; vai depender do ambiente e de suas condições. 13. Essa arquitetura de climatização também é conhecida como arquitetura mista, ou seja, além do uso de unidades CRAC ou CRAH devidamente instaladas na computer room, outros sistemas são utilizados em conjunto para melhorar a e� ciência do seu sistema de climatização. Os sistemas suplementares são normalmente obtidos com o uso de módulos de climatização overhead ou de racks refrigerados diretamente pela passagem de um líquido refrigerante. Outros sistemas suplementares também podem ser usados. Os sistemas suplementares de climatização são considerados em situações em que o sistema de climatização atual não é capaz de retirar toda a carga térmica do ambiente. 14. Em sistemas de climatização que utilizam o piso elevado como duto, o vão livre é fator crítico e deve ser levado em consideração nas etapas de projeto e implementação. A altura livre do piso elevado deve estar adequada a uma determinada vazão de ar e den- sidade de calor na computer room. Não há valores especi� cados em normas, porém a � gura seguinte apresenta as recomendações da ANSI/TIA-942 para a estrutura de piso elevado em data centers. Respostas dos Exercícios 27 15. As placas perfuradas não devem ser usadas em conjunto com grelhas no mesmo am- biente para a conformação dos corredores frios. Isso é devido às diferenças entre es- ses componentes no que diz respeito ao � uxo de ar que cada uma suporta. As grelhas deixam passar um � uxo de ar maior que as placas perfuradas e são utilizadas quando uma grande massa de ar frio deve ser direcionada a um determinado rack ou gabinete, por exemplo. 16. O � uxo de ar por rack em um data center pode ser calculado pela aplicação da seguin- te expressão: Considerando os dados deste exemplo, teremos: 17. As seguintes considerações devem ser observadas quando o ar frio é insu� ado sob o piso elevado em data centers: As câmaras de ar formadas pelos vãos livres sob o piso elevado devem ser manti- das sem obstruções abaixo dos corredores frios. A manutenção de um � uxo de ar uniforme pode ser difícil sob o piso elevado. A distribuição de ar frio pode não ser uniforme em toda a computer room. A recirculação de ar quente devido a racks e gabinetes de alturas diferentes e o bai- xo pé-direito da computer room pode afetar o desempenho do sistema. Placas perfuradas não devem ser usadas em conjunto com grelhas no mesmo am- biente para a conformação dos corredores frios. As aberturas para passagens de cabos para dentro dos racks devem ser seladas. O ar frio deve ser sempre insu� ado no corredor pela frente dos racks e gabinetes e não por baixo deles. Há alguns equipamentos que não podem receber ar frio diretamente pela base do rack ou gabinete, por isso o projeto deve prever sempre a insu� ação de ar frio no corredor frio. 18. Segundo a norma ANSI/BICSI-002, essa abertura deve ser de 63%. No entanto, outras normas podem ter requisitos e recomendações diferentes. 19. Sistemas que usam refrigeração com chillers são normalmente mais e� cientes que aqueles que utilizam outros métodos de refrigeração; isso vale apenas para salas de computadores muito grandes. Quando utilizados chillers, deve haver dois encanamen- tos para todas as unidades CRAC/CRAH para garantir o desempenho adequado do sistema em casos de falhas no sistema de distribuição de água gelada para esses equi- pamentos. Deve-se considerar também a implementação de redundância de chillers. 20. Trata-se de clusters que podem ser implementados dentro da computer room ou po- dem fazer a função dela (utilização menos comum). De qualquer forma, esses sistemas são utilizados para a climatização de regiões bem de� nidas dentro dos data centers onde há equipamentos críticos de TI instalados. 28 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 21. O free cooling é uma arquitetura de climatização que tem a proposta de reduzir o con- sumo de energia do data center pela utilização do ar à temperatura ambiente para a refrigeração do data center. O free cooling pode ser aplicado a data centers de vários portes, porém sua utilização mais frequente é em sites pequenos. O free cooling pode ser implementado dentro de contêineres ou em salas de computa- dores convencionais. 22. a. Determinação da carga térmica do data center. A carga térmica desse data center será a mesma que a de equipamentos críticos de TI. Assim, sua carga térmica será de 350kW. b. Determinação da carga térmica de PDUs. Aplicamos a seguinte expressão: Carga térmicaPDU = (0,02.carga nominal do site) . (0,04 carga crítica de TI) Carga térmicaPDU = (0,02 . 600) . (0,04 . 350) = 26kW c. Determinação da carga térmica do sistema UPS e baterias: Carga térmicaUPS = (0,04.carga nominal do site) . (0,06. carga crítica de TI) bat Carga térmicaUPS = (0,04 . 600) . (0,06 . 350) = 45 kW bat d. Determinação da carga térmica de iluminação do data center: Carga térmicailuminação = 20 . (área da computer room) Carga térmicailuminação= 20 . (400) = 8kW e. A Tabela 1, em seguida, apresenta as cargas térmicas do data center do exemplo, bem como sua carga térmica total. Sistema Carga elétrica (kW) Carga térmica (kW) Equipamentos de TI 350 350 PDU (distribuição elétrica) (0,02 x 600) + (0,04 x 350) 26 UPS e baterias (0,04 x 600) + (0,06 x 350) 45 Iluminação 0,02 x 400 8 Carga total (kW) 429 Respostas dos Exercícios 29 23. As práticas a seguir são recomendadas para melhorar a e� ciência energética do siste- ma de climatização de data centers: Evitar posicionar o cabeamento (tanto de elétrica quanto o estruturado) sob as placas perfuradas; isso causa obstrução à passagem do ar e perda de e� ciência do sistema de climatização da computer room. Evitar posicionar o cabeamento sob os racks e gabinetes; isso di� culta o acesso ao cabeamento para manutenção e retro� t. O fechamento das passagens de cabos ajuda a melhorar a e� ciência do sistema de climatização da computer room. Aberturas deixadas nos racks e gabinetes causam a recirculação de ar quente pelo corredor frio, reduzindo a e� ciência do sistema de climatização da computer room. A instalação de painéis cegos para fechar as aberturas de racks e gabinetes ajuda a manter a e� ciência da climatização da computer room por não permitir o retorno de ar quente pelo corredor frio. As portas dos gabinetes devem oferecer uma área total de abertura para uma pas- sagem de ar ótima equivalente a 63% da área total da porta. 24. A sala de baterias não requer climatização, no entanto deve haver exaustão para li- mitar a concentração de hidrogênio no ambiente. Exaustores redundantes devem ser considerados na sala, bem como sistemas de detecção de hidrogênio devem ser consi- derados nesses ambientes. 25. A pressurização da sala de computadores com ar proveniente do ambiente externo é a forma mais e� ciente de controlar a in� ltração de partículas que poderiam vir de am- bientes adjacentes. Filtros adequados devem ser usados para evitar a entrada de partículas contaminantes na sala de computadores. As diretrizes térmicas da ASHRAE especi� cam limites e recomendações ambientais para quatro classes de ambientes e a NEBS (Network Equipment Building System) es- peci� ca limites para equipamentos em operação e desligados. Além disso, as seguintes diretrizes devem ser observadas: Temperatura e umidade dos espaços usados para o armazenamento de � tas e dis- cos: recomenda-se a Classe F1 ASHRAE como padrão na maioria dos data centers. Limites para a umidade relativa do ar e taxas de troca devem ser considerados. Ponto de condensação máximo na computer room: uma consideração prática no que diz respeito ao ponto de condensação na computer room é que superfícies geladas devem ser evitadas nesse espaço. Quando equipamentos são instalados nesse ambiente com a temperatura abaixo do ponto de condensação máximo, há condensação na superfície desses equipamentos. O mesmo ocorre com os com- ponentes da construção da sala quando há isolação térmica insu� ciente das pa- redes e do teto. 30 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 26. As seguintes normas se aplicam ao projeto e instalação de sistemas de climatização para data centers: ANSI/TIA-942; ANSI/BICSI-002; Várias normas ASHRAE. 27. Não como um requisito. Essa norma especifica sistemas de cabeamento estrutura- do para data centers apenas. Em um de seus anexos, entretanto, ela traz recomen- dações sobre a infraestrutura para data centers de forma mais ampla e apresenta algumas diretrizes térmicas alinhadas com outras normas internacionais. 28. Para melhorar a e� ciência do sistema de climatização. Quando há aberturas que im- pedem que o � uxo de ar seja direcionado de forma adequada (para manter a topologia de corredores frios e quentes), o sistema de climatização é forçado a retirar mais calor do ambiente e, portanto, consome mais energia para isso. 29. Sim. Aplicações mais recentes têm demonstrado que mesmo em algumas cidades de países como o Brasil, o free cooling pode ser uma boa opção. De forma geral, com uma temperatura ambiente de até 22°C é possível utilizar essa técnica. Mesmo que a temperatura varie dentro de certos limites em uma dada região, o free cooling pode ser adotado em conjunto com outras arquiteturas de climatização. Por exemplo, po- de-se utilizá-lo durante os horários do dia em que as temperaturas estejam abaixo (ou em 22°C), comutando a climatização do site para outro sistema ou mesmo utili- zando climatização suplementar, nos horários de temperaturas mais elevadas. Capítulo 6 1. A seguinte topologia de cabeamento deve ser adotada. 2. A Tabela 1, a seguir, apresenta as nomenclaturas mais utilizadas para o cabeamento estruturado de data centers. Elas são baseadas em normas NBR e ANSI. Nomenclatura ABNT (NBR) Nomenclatura ANSI/TIA Descrição MD (Distribuidor principal) MDA (Área de distribuição principal) Distribuidor principal: gera o subsistema de backbone do data center. ZD (Distribuidor de zona) HDA (Área de distribuição horizontal) Distribuidor de zona: gera o subsistema de cabeamento horizontal do data center. LDP (Ponto de distribuição local) ZDA (Área de distribuição de zona) Distribuição local; equivalente ao CP em um cabeamento convencional. EO (Tomada de equipamento) EDA (Área de distribuição de equipamentos) Tomada de equipamento: onde é conectado o equipamento do data center (servidor ou storage, tipicamente). A EO fica localizada dentro da EDA conforme a TIA-942. Respostas dos Exercícios 31 3. Distribuidor principal é aquele que gera o subsistema de backbone do data center. 4. Por de� nição de normas aplicáveis, os elementos funcionais do cabeamento de um data center são: interface de rede externa (ENI); cabo de acesso à rede; distribuidor principal (MD/MDA); cabeamento de backbone; distribuidor de zona (ZD/HDA); cabeamento horizontal; ponto de distribuição local (LDP/ZDA); cabo do ponto de distribuição local (cabo do LDP, cabo da ZDA); tomada de equipamento (EO). 5. Os subsistemas em um sistema de cabeamento estruturado em data centers são: Cabeamento horizontal. Cabeamento de backbone. Cabeamento de acesso à rede. 6. O cabeamento horizontal em um data center é a parte do sistema de cabeamento que conecta um distribuidor de zona (ZD/HDA) às tomadas de equipamentos (EO, Equipment Outlet) onde são instalados os equipamentos de TI. O esquema a seguir apresenta esse subsistema do cabeamento estruturado em um data center. 7. O esquema apresentado em seguida ilustra os componentes do subsistema de cabea- mento horizontal em um data center. 8. Cabeamento horizontal: 100m (canal completo) independente do meio físico uti- lizado. Cabeamento de backbone: é dependente do meio físico utilizado (cabo), bem como de requisitos da aplicação que deve ser implementada nesse subsistema de cabeamento. 9. As normas NBR-14565:2011, ISO/IEC 24764 reconhecem os seguintes cabos para uso no subsistema de cabeamento horizontal em data centers: cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria 6A/Classe EA (600MHz); cabos ópticos multimodo OM3 (50/125µm), otimizados para transmissão laser; cabos ópticos monomodo; arranjos de cabos do tipo trunking (para cobre e � bra) e com conectores MPO (para � bras apenas). 32 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética A norma ANSI/TIA-942 reconhece as seguintes opções de meios físicos para o cabea- mento horizontal em data centers: cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria 5e/Classe D e Categoria 6/Classe E; cabos ópticos multimodo OM1 (62,5/125µm)e OM3 (50/125µm); cabos ópticos monomodo; arranjos de cabos do tipo trunking não são reconhecidos por esta norma. 10. Resposta: Assim como em edifícios comerciais, em data centers há duas formas per- mitidas para a interconexão do equipamento de TI (os switches, por exemplo) ao ca- beamento horizontal, que são: por meio de conexões cruzadas; por meio de interconexão. A conexão cruzada con� gura-se basicamente pelo espelhamento das saídas do equipa- mento de TI em um patch panel ou grupos de patch panels de acordo com a quanti- dade de portas. Esse tipo de con� guração oferece a possibilidade de separação entre os equipamentos ativos de TI (switches, por exemplo) e os componentes de distribuição do cabeamento (patch panels, por exemplo). A separação pode ser requerida por ques- tões associadas à segurança e/ou à organização e gerenciamento das conexões. O método de interconexão, Figura 6.6, pode também ser utilizado para a conexão do equipamento ativo de TI ao cabeamento horizontal. Neste caso, os equipamentos ati- vos têm as extremidades dos patch cords (cordões de equipamentos neste caso) direta- mente conectadas às suas saídas (portas RJ45, normalmente) e as outras às respectivas portas do patch panel correspondente. 11. Quando utilizado um LDP/ZDA no cabeamento horizontal (é importante enfatizar que essa técnica não é reconhecida no subsistema de cabeamento de backbone), ele pode ser utilizado conforme esquematizado na � gura seguinte. O esquema apresentado em (a) consiste no uso de cabos sólidos entre o ZD/HDA e o LDP/ZDA e entre este e a EO/EDA. Nessa con� guração, os segmentos de cabos ho- rizontais terminam em tomadas de equipamentos (EO), às quais são conectados os equipamentos de TI por meio de patch cords (cordões de equipamentos, neste caso). Note que esses patch cords (mais aqueles usados no distribuidor) não podem exceder 10m. Por consequência, o subsistema de cabeamento horizontal completo está limita- do a um comprimento de 100m. No esquema apresentado em (b), temos segmentos de cabos sólidos interconectando o ZD/HDA ao LDP/ZDA e segmentos de cabos � exíveis multi� lares (como os cabos normalmente utilizados em patch cords) interligando o LDP/ZDA aos equipamentos de TI diretamente, ou seja, sem haver uma tomada de equipamento (EO) para a cone- xão dos equipamentos de TI ao subsistema de cabeamento horizontal, como acontece no esquema apresentado em (a). Respostas dos Exercícios 33 12. Neste caso, o comprimento dos patch cords (cordões de equipamentos) pode ser maior que o convencional. Como a atenuação dos cabos de pares trançados � exíveis sofre degradação em, aproximadamente, 20% em relação aos mesmos parâmetros para cabos construídos com condutores sólidos, as normas aplicáveis desenvolvidas pela ABNT, ISO/IEC e ANSI/TIA, entre outras, desenvolveram as fórmulas semelhantes à apresentada a seguir, para a determinação do comprimento máximo do cordão do equipamento de TI no cabeamento horizontal quando utilizado um LDP/ZDA, con- forme o esquema da � gura (b) da resposta anterior: Em que: C é o comprimento máximo permitido, incluindo os patch cords presentes no dis- tribuidor de zona (ZD/HDA) e o cordão de equipamento de TI na EDA; H é o comprimento de cabo horizontal (H + C < 100m); D é o fator de degradação devido à atenuação dos cabos � exíveis e seus valores são 0,2 para cabos UTP ou F/UTP de bitola 24 AWG e 0,5 para cabos F/UTP de 26 AWG; EDA é o comprimento máximo do cordão de equipamento de TI a ser utilizado na EDA; ZD é o comprimento total dos cabos � exíveis no distribuidor de zona (ZD/HDA) tipicamente com comprimento máximo de cinco metros. Assim, o projetista deve considerar a aplicação da expressão [1] para a determinação do comprimento máximo do cordão de equipamentos quando utilizada essa topologia de distribuição de cabeamento no data center. 13. Sim; o segmento de cabo entre o distribuidor de zona ZD/HDA e o ponto de distribui- ção local LDP/ZDA não pode ser inferior a 15m. 14. Este é o conceito das redes FTTD (Fiber To � e Desk, Fibra até a mesa do usuário) que consiste no cabeamento óptico conectando o equipamento de TI ao distribuidor principal do data center (MD/MDA) e então às tomadas de equipamentos (EO) dire- tamente sem a utilização de conversores óptico/elétrico (transceivers), ou seja, toda a rede é baseada completamente em componentes ópticos (ativos e passivos). Conforme de� nido em normas aplicáveis, o cabeamento óptico centralizado aplica-se somente a instalações dentro de um único data center. A interconexão de dois ou mais data centers em um mesmo campus, utilizando essa técnica como diretriz de projeto, não está prevista em normas aplicáveis, portanto não é recomendada. Em outras pala- vras, a técnica de cabeamento óptico centralizado aplica-se somente ao subsistema de cabeamento horizontal e ao subsistema de backbone dentro do data center (equiva- lente ao backbone de edifício em sistemas de cabeamento em edifícios comerciais). A implementação dessa técnica pode ser obtida utilizando os seguintes métodos: interconexão/emenda; pull-through (passagem direta). 34 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 15. O comprimento máximo do cabeamento óptico nessa topologia de distribuição com o método pull-through é de 100m. Isso é devido ao subsistema de cabeamento imple- mentado ser o horizontal, cujo comprimento máximo não pode exceder 100m inde- pendentemente do tipo de cabo utilizado (cobre ou óptico). 16. As � bras ópticas reconhecidas pelas normas aplicáveis para utilização em uma topolo- gia de cabeamento óptico centralizado são as seguintes: � bra óptica multimodo de 62,5/125µm; � bra óptica multimodo de 50/125µm; � bra óptica multimodo de 50/125µm, otimizada para laser (OM3 e OM4). 17. O cabeamento de backbone é a parte do sistema de cabeamento que interconecta o distribuidor principal (MD/MDA) ao distribuidor de zona (ZD/HDA), conforme ilus- trado na � gura seguinte. 18. A topologia adotada para a implementação do backbone em data centers é a estrela com até dois níveis hierárquicos. A � gura a seguir apresenta essa topologia. 19. As conexões entre os distribuidores de edifício e de piso podem ser con� guradas de modo a oferecer redundância. A � gura seguinte apresenta como isso pode ser feito. 20. Cabeamento horizontal: as normas NBR-14565:2011, ISO/IEC 24764 reconhe- cem os seguintes cabos para uso no subsistema de cabeamento horizontal em data centers: • cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria 6A/Classe EA (600MHz); • cabos ópticos multimodo OM3 (50/125µm), otimizados para transmissão laser; • cabos ópticos monomodo; • arranjos de cabos trunking (para cobre e � bra) e com conectores MPO (para � bras apenas). A norma ANSI/TIA-942 reconhece as seguintes opções de meios físicos para o ca- beamento horizontal em data centers: • cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria 5e/Classe D e Categoria 6/Classe E; • cabos ópticos multimodo OM1 (62,5/125µm) e OM3 (50/125µm); • cabos ópticos monomodo; • arranjos de cabos do tipo trunking não são reconhecidos por esta norma. Respostas dos Exercícios 35 Cabeamento de backbone: as normas NBR-14565:2011, ISO/IEC 24764 reconhe- cem os seguintes cabos para uso no subsistema de cabeamento de backbone em data centers: • cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria 6A/Classe EA (600MHz); • cabos ópticos multimodo OM3, OM4 (50/125µm), otimizados para transmis- são laser; • cabos ópticos monomodo; • arranjos de cabos trunking (para cobre e � bra) e com conectores MPO (para � bras apenas). A norma ANSI/TIA-942 reconhece as seguintes opções de meios físicos para o cabea-mento de backbone em data centers: • cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria 5e/Classe D e Categoria 6/Classe E; • cabos ópticos multimodo OM1 (62,5/125µm) e OM3 (50/125µm); • cabos ópticos monomodo; • arranjos de cabos do tipo trunking não são reconhecidos por esta norma. 21. Os cabos trunking ópticos são segmentos de cabos montados com conectores MPO em ambas as extremidades. Eles permitem uma instalação fácil e rápida e vêm sendo usados com frequência em instalações de cabeamento óptico em data centers. Os ca- bos trunking ópticos são encomendados em comprimentos sob medida (especi� cados pelo cliente), montados e testados em fábrica, e quando associados aos cassetes com conectores ópticos, permitem uma instalação segura, prática e rápida. 22. As montagens seguem três con� gurações: Tipo A, Tipo B e Tipo C. Na con� guração Tipo A, as � bras são terminadas em ordem direta em ambos os extremos e as tra- vas são posicionadas em contraposição (para cima em uma extremidade do enlace e para baixo na extremidade oposta) para manutenção da polaridade quando os cabos trunking são conectados aos cassetes, conforme mostrado na � gura seguinte. 23. Os cabos trunking podem ser terminados diretamente em cassetes (neste caso, os fa- bricantes especi� cam o tipo de con� guração de terminação utilizado) ou ser conec- tados aos adaptadores fan-out (ou transições ópticas) dentro dos distribuidores ou bastidores ópticos. A � gura seguinte apresenta exemplos de adaptadores fan-out ou transição óptica. A principal aplicação de cabos fan-out é na implementação de distribuidores ópticos utilizando conectores MPO. 24. Vários tipos de conectores ópticos podem ser utilizados no cabeamento óptico de um data center. No entanto, os requisitos de desempenho para determinados parâ- metros ópticos, conforme especi� cados por normas aplicáveis, devem ser atendidos. 36 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 25. Sim; de acordo com a ANSI/TIA-568-C.3, as emendas ópticas mecânicas ou por fusão devem atender aos seguintes requisitos, conforme a Tabela 2: Perda de inserção dB (atenuação) Norma de teste Nota 0,3 ANSI/EIA/TIA-453-34-A Método A (testes de fábrica) 0,3 ANSI/EIA/TIA-455-B Método B (testes de campo) 26. Em data centers não há áreas de trabalho, conforme de� nido em normas de cabea- mento para edifícios comerciais. No entanto, de forma análoga, há os espaços nos quais os equipamentos terminais de TI (normalmente servidores ou equipamentos de storage) interagem com a infraestrutura de cabeamento. Esses espaços são denomi- nados EDA (Equipment Distribution Area, Área de distribuição de equipamentos) ou simplesmente EO (Equipment Outlet, Tomada de equipamento). Tecnicamente, EO/EDA é o espaço em um sistema de cabeamento para data centers em que os cabos provenientes do distribuidor de zona (ZD/HDA) são terminados em tomadas acessíveis aos equipamentos de TI para a conexão à rede do data center. 27. Há basicamente dois tipos ou topologias de distribuição; para data centers típicos (de grande porte) e para data centers de pequeno porte. Em data centers de grande porte, a distribuição é feita da seguinte forma: MD/MDA conectado a um ZD/HDA, que por sua vez termina em uma EO/EDA (com ou sem um LDP/ZDA entre o ZD/HDA e a EO/EDA). Em data centers de pequeno porte, a seguinte distribuição pode ser adotada: MD/MDA conectado diretamente a EO/EDA (neste caso não há o distribuidor de zona ZD/HDA nem o ponto de distribuição local LDP/ZDA). 28. Os conectores e tomadas permitidos na EO/EDA são basicamente os mesmos permiti- dos em outros subsistemas de cabeamento do data center, ou seja, tomadas para a ter- minação de cabos de cobre, bem como conectores ópticos reconhecidos por normas aplicáveis. Normalmente, para cabeamento em cobre são usadas as tomadas RJ45 blin- dadas ou não e para cabeamento óptico os conectores ópticos dos mais variados tipos, bem como arranjos ópticos do tipo trunking e conectores MPO. 29. Quando usadas tomadas metálicas, ambas as con� gurações de terminação T568A e T568B são reconhecidas por normas aplicáveis. Respostas dos Exercícios 37 30. A Tabela 3, a seguir, apresenta um resumo dos tipos de cabo, bem como categorias e classes, reconhecidos por normas aplicáveis a data centers. Norma Cobre Categoria/Classe Fibras ópticas Tipo Cabos trunking ISO/IEC 24764 NBR-14565:2011 6A/EA (mínimo) OM3 São reconhecidos ANSI/TIA-942 5e/D (mínimo) 6/E (recomendado) OM1/OM3 Não reconhecidos ANSI/BICSI-002 6/E (mínimo) 6A/EA (recomendado) OM2/OM3 OM4 (recomendado) São reconhecidos 31. O projeto do sistema de cabeamento do data center deve levar em consideração alguns fatores como topologia de distribuição (que deve ser adequada ao tamanho e caracte- rísticas físicas e até de redundância e disponibilidade do site), bem como as melhores práticas de instalação. 32. A � gura a seguir apresenta a topologia de cabeamento dentro da computer room, bem como sua conexão com o meio externo. Note que as áreas de suporte não precisam estar, necessariamente, na mesma infraestrutura de cabeamen- to que a da computer room, no entanto devem estar conectadas ao mesmo sis- tema de cabeamento. Em um data center típico, a conexão entre as áreas de suporte e a computer room, neste caso, é feita pelo distribuidor (um FD, Floor Distributor do edifício, por exemplo) presente na sala de telecomunicações (TR, Telecommunications Room) que atende ao cabeamento dessas áreas. Outro ponto importante a observar é que deve haver previsão para a entrada de serviços e aces- so redundantes no data center (via EF, Entrance Facilities, na figura anterior). O esquema ora apresentado e discutido é baseado na topologia de cabeamento, con- forme definido pela norma americana ANSI/TIA-942. 33. O esquema da � gura seguinte apresenta a topologia de cabeamento para um data cen- ter de grande porte. A principal diferença entre as topologias apresentadas na resposta da questão anterior (data center típico) e nesta (data center de grande porte) é a pre- sença de redundância de infraestrutura de entrada (EF) nesta última para aumentar a redundância e, consequentemente, a disponibilidade de serviços do site. A topologia apresentada na � gura seguinte é conhecida como distribuída, conforme de� nido ini- cialmente pela norma americana ANSI/TIA-942. 34. A figura seguinte apresenta uma topologia reduzida de cabeamento para data cen- ters. No esquema apresentado há conexões diretas entre o distribuidor principal (MD/MDA) e as tomadas de equipamentos (EO/EDA). Pode haver um ponto de distribuição local (LDP/ZDA) entre um MD/MDA e grupos de tomadas de equi- pamentos (EO/EDA). Neste caso, o sistema de cabeamento do data center terá 38 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética apenas o subsistema de cabeamento horizontal. Note que as áreas (ou escritórios) de suporte são conectadas diretamente ao cabeamento da computer room por meio do distribuidor principal, assim como as entradas dos provedores de acessos e ser- viços. 35. As seguintes recomendações devem ser observadas com relação aos encaminhamentos de cabos em data centers: Os encaminhamentos metálicos devem ser conectados ao sistema de aterramento do data center/edifício. Interferências mecânicas com outros sistemas do data center (ar condicionado, elétrica, controle etc.) devem ser evitadas e coordenadas pelo gerente de projeto. Quando lançadas pelo piso, as rotas usadas para o cabeamento devem ser dedi- cadas ao cabeamento do data center e não devem ser compartilhadas com outros sistemas do site. Deve haver uma separação segura entre o cabeamento estruturado/telecomunica- çõese a distribuição elétrica do site (a ANSI/TIA-942 recomenda que a Tabela 6.15 seja usada como referência para a separação entre os sistemas elétrico e de cabea- mento estruturado). 36. Da mesma forma que para o cabeamento óptico, há componentes e arranjos de cabos do tipo trunking para cabeamento em cobre. Esses arranjos têm como principal � na- lidade facilitar a instalação, otimizar os espaços utilizados na distribuição do cabea- mento nas calhas, bandejas, sob o piso elevado ou em distribuição aérea. Instalações que utilizam arranjos trunking em cobre seguem, basicamente, a mesma mecânica de montagem utilizada pelos sistemas ópticos. Capítulo 7 1. Os projetistas devem considerar os seguintes tópicos, no que diz respeito à segurança, automação e proteção contra incêndio em data centers: automação do edifício; sala de controle; monitoramento e CFTV; cabeamento BAS (Building Automation System); sistema de controle e gerenciamento elétrico; gerenciamento do cabeamento; sensores de vazamento e fumaça; detecção e alarme de incêndio, entre outros. Respostas dos Exercícios 39 2. Os seguintes sistemas são considerados como parte da segurança física do site: Controle de acesso (monitorado/eclusa) Projeto do edifício (projeto civil) Detecção e alarmes (invasão, incêndio etc.) Vigilância - CFTV (Circuito Fechado de TV) 3. Os seguintes sistemas são parte da segurança eletrônica do site: Controle de acesso (biométrico, cartão magnético, de aproximação etc.) Monitoramento do site (sensores e câmeras 24x7) Detecção e alarmes (proteção patrimonial, incêndio, acesso indevido) Vigilância (CFTV analógica, câmeras IP etc.) 4. Para que altos níveis de disponibilidade sejam alcançados, um sistema completo de monitoramento remoto, bem como gerenciamento em tempo integral (24x7x365, ou vinte e quatro horas por dia, sete dias por semana e trezentos e sessenta e cinco dias por ano), deve ser implementado. Uma rápida revisão de alguns dos princípios fun- damentais pode ajudar a entender as várias dinâmicas envolvidas nesse processo. Por exemplo, qualquer equipamento, uma vez instalado, imediatamente começa a ter seu nível de desempenho comprometido ou degradado. Um programa adequado de ma- nutenção é essencial para mantê-lo operando como em suas condições iniciais. 5. Os seguintes sistemas podem ser monitorados em data centers: Monitoramento do sistema UPS e baterias Monitoramento de PDUs Monitoramento do sistema de ar condicionado Monitoramento e controle de iluminação Sistemas de segurança • CFTV (Circuito Fechado de TV) • Controle de acesso • Sensores biométricos • Sensores de saída • Sistemas de alarme • Controle de portas 6. Muitas falhas nos sistemas de TI são diretamente atribuídas a aspectos da infraestrutu- ra física do site, conforme apresentado em seguida: falta de energia fornecida por distribuidores, � utuações, blackouts, transientes; infraestrutura de energia elétrica, chaves de transferência automática (ATS, Automatic Transfer Switch), chaves estáticas (STS, Static Transfer Switch), gerado- res, disjuntores; 40 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética UPSs, baterias, unidades de distribuição de energia elétrica (PDU, Power Distribution Unit), fontes de alimentação de corrente contínua; causas ambientais, como fogo, intempéries, condicionadores de ar; problemas físicos de segurança, invasões, vandalismo, entre outros. 7. Os sistemas de automação predial podem ser implementados sobre o cabeamento es- truturado. Esta é uma aplicação interessante em data centers, apesar de não ser ainda muito comum. Normalmente, os sistemas de monitoramento, automação, vigilância etc. são implementados em sistemas próprios e utilizam um cabeamento também pro- prietário. Isso não é necessariamente um problema, mas o fato é que quanto maior a integração que o projetista puder considerar em um projeto de infraestrutura de au- tomação, controle e monitoramento de um data center, mais e� ciente e prático será o gerenciamento das funções do site. 8. A vigilância do site é dividida normalmente em dois tipos, sendo vigilância física, feita por pessoas (seguranças), e vigilância eletrônica, feita por meio de equipamentos ele- trônicos e com a ajuda dos circuitos fechados de TV (CFTV), que podem ser analógi- cos ou digitais (baseados em câmeras IP, neste caso). Os sistemas de CFTV devem apresentar as seguintes funções em data centers: permitir a segurança e o monitoramento de pessoas; centralizar o monitoramento de forma simultânea de todas as imagens em uma sala de controle; manter um registro visual das áreas monitoradas durante eventos de alarme e acesso indesejado ou não; manter a gravação de evidências de ações criminosas como provas em caso de ne- cessidade; manter gravações de imagens de áreas monitoradas e a atividade de empregados. 9. As câmeras do sistema de CFTV em data centers devem ser projetadas de modo a co- brir as seguintes áreas: áreas de circulação e acesso comum; espaços de serviço e manutenção; salas técnicas (ar condicionado, telecomunicações e redes, cabines primárias, perí- metros internos e externos); elevadores, escadas e halls; computer room. 10. A intensidade de luz para a e� ciência do sistema de vigilância por câmeras é também um fator crítico (com exceção das câmeras infravermelho que podem registrar ima- gens em ambientes escuros). A norma ANSI/BICSI-002 traz os seguintes requisitos quanto à iluminação de certos espaços do data center para a operação adequada de sistemas CFTV convencionais, conforme mostrado na Tabela 1. Respostas dos Exercícios 41 Espaço do data center Luminosidade mínima (lux) Perímetros externos 1,5 Perímetros internos 4 Entradas de veículos 10 Espaços de acesso restrito 20 Estacionamentos 10 11. As paredes que separam a sala de computadores (computer room) onde estão os servido- res, storage e outros equipamentos críticos de TI dos demais espaços do data center, bem como as salas de distribuição de alimentação elétrica, sala de baterias, salas mecânicas e salas de telecomunicações, devem retardar a queima em, no mínimo, uma hora em um evento de incêndio. Salas acima e abaixo da computer room devem suportar o fogo sem propagá-lo a outras dependências do edifício por, no mínimo, duas horas. A Tabela 2, a seguir, apresenta os requisitos mínimos de retardo à propagação de fogo em eventos de incêndios para os espaços de um data center. Espaço Classificação mínima quanto ao retardo àpropagação de fogo em eventos de incêndio Parede que isola a computer room de outros espaços do data center 1 hora (de laje a laje) Computer room 1 hora Aplica-se às paredes entre a computer room e outros espaços do data center Sala de controle (NOC) 1 hora Aplica-se às paredes entre esse espaço e outros espaços do data center Sala de impressão 1 hora Aplica-se às paredes entre a sala de impressão e outros espaços do data center Armazenamento de materiais críticos 2 horas Sala de distribuição e serviço elétrico 1 hora Sala de baterias 1 hora Sala de armazenamento de materiais não críticos Sem classificação; recomenda-se 1 hora Infraestrutura de entrada 1 hora Aplica-se às paredes entre a infraestrutura de entrada e outros espaços do data center 42 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 12. As seguintes classi� cações são adotadas para cabos de telecomunicações quanto à � a- mabilidade e são apresentadas em ordem hierárquica, ou seja, da maior classi� cação para a menor quanto ao retardo à propagação de fogo, fumaça e gases tóxicos. 1) LSZH (Low Smoke Zero Halogen, Limited Smoke ZeroHalogen) 2) CMP (Plenum Communication Cable) 3) CMR (Riser Communication Cable) 4) CMG e CM (General Purpose Communication Cable) 5) CMX (Communication Cable, Limited Use) 13. Um sistema de proteção de incêndio deve ter, basicamente, os seguintes elementos: Detecção: que pode ser de fumaça, calor e fogo. Supressão: sistemas de extinção de fogo, que podem ser sprinklers (sistemas com água) ou gases inertes não in� amáveis (como, por exemplo, o FM-200). Sistema: inclui os sistemas de detecção, bem como meios de acionar avisos sono- ros e visuais (alarmes), além de noti� car o departamento pertinente e acionar sis- temas automáticos de contenção do incêndio. 14. Uma sala segura oferece ambiente estanque e com todos os subsistemas para garantir a operação contínua e segura do data center. Essas salas são montadas com placas que suportam um evento de incêndio por um tempo previamente determinado, normalmente 120 minutos (2h), e possuem sistemas de extinção de incêndio baseados em gases e não em água (embora a extinção de in- cêndio com água em data centers seja reconhecida por normas técnicas aplicáveis). O leitor pode estar se perguntando se duas horas de resistência ao fogo são su� cientes para proteger um data center. Na verdade, espera-se que o incêndio seja extinto muito antes desse tempo, o que é perfeitamente viável em sites de missão crítica que têm pro- cedimentos predeterminados para ações corretivas de emergência, como eventos de incêndios. Se, em uma dada situação, o fogo não for extinto em menos de duas horas, há uma probabilidade muito grande de que ele consuma todo o ambiente (edifício, an- dar de um edifício, área de um edifício etc.) e, neste caso, não haveria proteção capaz de garantir a integridade do site de nenhuma forma. 15. Não. As salas seguras são projetadas para abrigar e proteger a carga crítica de TI den- tro um data center. Elas podem ser utilizadas como uma computer room, mas não substituem um data center na maioria dos casos. 16. Os sistemas instalados em uma célula estanque são a unidade CRAC, bem como racks com equipamentos críticos de TI, PDU, cabeamento sob o piso elevado, sistema de de- tecção e contenção de incêndio, iluminação, entre outros subsistemas. Além disso, to- das as paredes, portas e teto são montados com placas que retardam a propagação de incêndio, e todas as aberturas para passagens de cabos são vedadas com materiais cor- ta-fogo (� restopping) adequados. A � gura seguinte apresenta esses subsistemas dentro de uma célula estanque. Respostas dos Exercícios 43 17. Para impedir (ou retardar) a propagação de gases tóxicos pelas aberturas utilizadas para a passagem de cabos entre a célula estanque e o ambiente externo. 18. ANSI/ICEA-S-90-661-2002: padrão para cabos de uso interno de pares trançados sem blindagem individual Categorias 3, 5 e 5e (com ou sem uma blindagem geral) para uso em sistemas de cabeamento para comunicações, requisitos técnicos. ANSI/ICEA-S-102-700-2004: padrão para cabos de uso interno de pares tran- çados sem blindagem individual Categoria 6 (com ou sem uma blindagem geral) para uso em sistemas de cabeamento para comunicações, requisitos técnicos. ICEA-S-103-701-2005: cabos riser, requisitos técnicos. NFPA 72, National Fire Alarm Code, 1999: código nacional de alarme de in- cêndio. NFPA 75 Standard for the Protection of Information Technology Equipment: proteção de equipamento de tecnologia da informação). NFPA-76, Recommended Practice for the Fire Protection of Telecommunications Facilities, 2002. Capítulo 8 1. Inicialmente, o comissionamento em data centers era associado aos sistemas mecâni- cos e de ar condicionado apenas. Hoje em dia, vem sendo considerado um processo de controle de qualidade importante que se aplica a todos os sistemas e subsistemas do data center. 2. O assessment, genericamente falando, consiste em uma avaliação que pode inclusi- ve ser aplicada ao projeto da infraestrutura. Este livro discute aspectos do assessment da infraestrutura do site, que deve ser feita logo após a entrega das instalações, como pode também ser uma atividade de consultoria independente para a avaliação das condições de uma dada infraestrutura. O assessment pode ser considerado também a etapa que antecede o comissionamento, porém muitas vezes ele e o comissionamento se sobrepõem e � ca até difícil identi� car qual é um e qual é outro. 3. Pela avaliação dos diversos sistemas e subsistemas que compõem a infraestrutura físi- ca do site. 4. O comissionamento pode ser feito em várias etapas do projeto, desde o comissiona- mento do projeto propriamente dito até o comissionamento da instalação entregue. 5. O comissionamento deve ser aplicado aos seguintes sistemas da infraestrutura do data center: sistemas elétricos, UPS e baterias; 44 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética sistemas de climatização; sistemas de detecção e supressão de incêndio; sistemas de cabeamento estruturado; sistemas de aterramento. 6. Sim. Com base nas informações obtidas por meio da coleta de dados de campo, bem como por meio da análise de outros documentos da infraestrutura do site para a iden- ti� cação de sua provável classi� cação tier, o assessment da infraestrutura do site pode ser uma excelente ferramenta. 7. Um site classe F2, conforme de� nido pela ANSI/BICSI-002, deve apresentar redun- dância para componentes críticos. Assim, considerando a situação em questão, o sis- tema de UPS e baterias deve ser redimensionado e instalado de modo a apresentar redundância de módulos UPS, bem como baterias. 8. Porque independentemente de procurar uma certi� cação, o assessment ajuda a veri� - car as reais condições do site avaliado. Mesmo que uma certi� cação não seja preten- dida, o assessment da infraestrutura ajuda a identi� car que sistemas, subsistemas ou componentes necessitam de alguma correção ou reparo. 9. Os sistemas que devem ser avaliados, quando o objetivo é obter uma certi� cação tier ou TR, são: o sistema de ar condicionado; o sistema elétrico. Capítulo 9 1. Porque os data centers são grandes consumidores de energia elétrica nas corporações. 2. O conceito de green data center não é o� cial, como é o conceito de green building. De qualquer forma, um edifício ou um data center green deve basicamente aplicar concei- tos de projeto e implementação que ofereçam economia, ou de forma mais abrangen- te, otimização do uso da energia dentro do data center. Assim, na prática, green data center é aquele que leva em conta em sua fase de projeto, implementação e operação métodos e� cientes de economia e otimização em seu uso de energia. 3. No Brasil, quase 98% da energia elétrica gerada é proveniente de centrais hidrelétricas, uma forma bastante limpa de geração de energia elétrica. A � gura seguinte apresenta os dados de geração de energia elétrica no Brasil segundo a ANEEL (Agência Nacional de Energia Elétrica). 4. Nos Estados Unidos, o consumo de energia elétrica é uma das principais fontes de emissão de gás carbônico na atmosfera daquele país. A � gura seguinte apresenta os dados da geração de energia de energia elétrica nos Estados Unidos. Respostas dos Exercícios 45 5. O Brasil apresenta uma geração de energia mais limpa que os Estados Unidos. Como a maior parte da energia elétrica no Brasil é produzida sem a emissão de gás carbônico na atmosfera, podemos considerar esse cenário. 6. PUE (Power Usage E� ciency) e DCiE DCE (Data Center E� ciency) DCPE (Data Center Performance E� ciency) 7. O PUE, ou e� ciência do uso de energia elétrica do data center, é de� nido como a carga total do data center dividida pela carga crítica de TI instalada no data center, conforme a expressão seguinte:Em que: Cinfraestrutura é a carga total da infraestrutura (ou carga total do site), em kW. CTI é a carga total dos equipamentos de TI instalados no site, em kW. 8. A DCiE (Data Center infrastructure E� ciency, e� ciência da infraestrutura do data cen- ter) é de� nida como o inverso da PUE, conforme a expressão seguinte: Em que: CTI é a carga total dos equipamentos de TI instalados no site, em kW. Cinfraestrutura é a carga total da infraestrutura (ou carga total do site), em kW. 9. Uma PUE entre 1,60 e 2,00 pode ser considerada boa. 10. A DCE é o oposto da PUE, da mesma maneira que a DCiE, porém expressa em núme- ros absolutos (não em porcentagem, como no caso da DCiE). Na verdade, ambas são interpretadas da mesma forma. A DCE pode ser calculada pela seguinte expressão: Em que: CTI é a carga total dos equipamentos de TI instalados no site, em kW. Cinfraestrutura é a carga total da infraestrutura (ou carga total do site), em kW. 46 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética 11. A DCPE pode ser considerada uma melhoria da PUE e da DCE e de� nida da seguinte forma: [7] Em que: Tútil é o trabalho útil dos processos do data center (processamento de informações). Cinfraestrutura é a carga total da infraestrutura do data center, em kW. 12. Outra métrica desenvolvida para avaliar a e� ciência energética de data centers é a CADE (Corporate Average Datacenter E� ciency), desenvolvida pela instituição ame- ricana McKinsey&Company. A CADE tem quatro componentes, sendo dois relacio- nados à TI e dois relacionados à infraestrutura do data center, conforme indicado em seguida: a. E� ciência de energia da infraestrutura do data center: é de� nida como a carga dos equipamentos de TI dividida pela energia total consumida pelo data center. b. Utilização dos equipamentos do data center: refere-se à carga real dos equipa- mentos de TI incluindo servidores, dispositivos de armazenamento de dados e equipamentos de rede dividida pela capacidade (carga) do site. c. E� ciência de energia dos equipamentos de TI: esse parâmetro está � xado em 5% para os servidores atuais. As próximas versões da CADE incluirão parâmetros para mainframes, equipamentos de armazenamento de dados e dispositivos de rede. d. Utilização dos equipamentos de TI: na versão atual da CADE isso se refere à uti- lização média dos processadores dos servidores. As próximas versões da CADE in- cluirão valores para equipamentos de armazenamento de dados e dispositivos de rede. 13. É a PUE. Os pro� ssionais de TI preferem utilizar a PUE por se tratar de uma métrica de fácil aplicação, bem como interpretação dos resultados. Além disso, ela relaciona os dois parâmetros diretamente associados ao consumo de energia elétrica do site. Respostas dos Exercícios 47 14. a. Determinação da carga total do site. Sistema Carga (kW) Equipamentos críticos de TI 345 Climatização (ar condicionado) 460 Iluminação 12 UPS e baterias 75 Carga total do site (kW) 892 b. A PUE (e� ciência de uso de energia elétrica do data center) pode ser então calcu- lada pela aplicação da equação seguinte: 15. Os seguintes métodos podem ser adotados: O monitoramento do sistema elétrico do data center é uma forma e� ciente de co- nhecer o real consumo de energia elétrica do site e também de subsistemas indivi- dualmente. A substituição de equipamentos de TI mais antigos por outros mais modernos também pode ser um bom método de economia de energia. O aumento da temperatura do site entre 4 e 5 graus Celsius tem se mostrado e� - ciente do ponto de vista de climatização. Práticas de free cooling têm sido adotadas como medidas bastante e� cientes para a redução do consumo de energia elétrica do data center. A virtualização de servidores é uma técnica que ajuda a obter consumo ótimo de energia elétrica no data center. 16. O free cooling é uma arquitetura de climatização que tem a proposta de reduzir o con- sumo de energia do data center pela utilização do ar à temperatura ambiente para a re- frigeração do data center. Ele pode ser aplicado a data centers de vários portes, porém sua utilização mais frequente é em sites pequenos. Pode ser implementado dentro de contêineres ou em salas de computadores convencionais. Sim. Aplicações mais recentes têm demonstrado que mesmo em algumas cidades de países como o Brasil, o free cooling pode ser uma boa opção. De forma geral, com uma temperatura ambiente de até 22°C é possível utilizar essa técnica. Mesmo que a tem- peratura varie dentro de certos limites em uma dada região, o free cooling pode ser adotado em conjunto com outras arquiteturas de climatização. Por exemplo, pode-se 48 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética utilizá-lo durante os horários do dia em que as temperaturas estejam abaixo (ou em 22°C), comutando a climatização do site para outro sistema ou mesmo utilizando cli- matização suplementar, nos horários de temperaturas mais elevadas. 17. A virtualização pode ser de� nida como uma técnica usada para dividir os recursos de algumas máquinas (alguns servidores, por exemplo) em vários ambientes de execução (máquinas virtuais). 18. As máquinas virtuais podem ser usadas para consolidar a carga de trabalho de alguns servidores subutilizados em algumas poucas máquinas ou até mesmo em uma única máquina, o que se conhece como consolidação de servidor. Os benefícios são a redu- ção da complexidade da infraestrutura física de servidores e a redução dos custos ope- racionais, já que menos equipamentos são necessários, e a consequente economia de energia elétrica. Com a virtualização, um determinado processo num ambiente virtual aparenta ser executado em uma máquina real, � sicamente instalada em uma dada posição dentro do data center. Fisicamente, o acesso aos recursos do sistema (monitor, teclado, hard disk etc.) é geralmente restrito, ou seja, os usuários podem não ter acesso (ou ter aces- so limitado) a alguns dispositivos periféricos, dependendo da política de acesso imple- mentada no computador host de virtualização.