Buscar

Data Centers - Desvendando cada passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 48 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 48 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 48 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Respostas dos Exercícios 1
Respostas dos Exercícios
Capítulo 1
1. Data centers podem ser de� nidos como ambientes de missão crítica, ou seja, são am-
bientes que abrigam equipamentos responsáveis pelo processamento e armazenamen-
to de informações cruciais para a continuidade de negócios nos mais variados tipos de 
organização, sejam empresas, instituições de ensino, indústrias, órgãos governamen-
tais, hospitais, hotéis, entre outros.
2. Os principais sistemas envolvidos no projeto de data centers são:
  sala de computadores (computer room);
  ar condicionado e controle ambiental;
  distribuição elétrica e UPS (Uninterruptable Power Supply);
  automação do edifício;
  detecção e supressão de incêndio;
  segurança e controle;
  espaços de suporte, entre outros.
3. Há três tipos de data centers basicamente, que são enterprise, Internet e collocation.
4. Os data centers enterprise são aqueles usados para atender às necessidades de um único 
cliente (uma única empresa) e não são compartilhados por outros clientes. Os data cen-
ters enterprise podem ser entendidos como data centers próprios, ou seja, são montados 
e operados pelo proprietário. Algumas características desse tipo de data center são:
  O data center é normalmente instalado na mesma localidade em que a empresa 
está estabelecida.
  Em geral apresenta pouca redundância de componentes e sistemas.
  O custo de instalação, operação e manutenção da infraestrutura é normalmente o 
principal fator de escolha de um data center próprio.
Data Centers
Desvendando cada passo:
Conceitos, Projeto, Infraestrutura Física
e Eficiência Energética
1a Edição - código: 519
Autor: Dr. Paulo Sérgio Marin
2 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
5. Os data centers Internet, como o nome sugere, oferecem o ambiente de data center, 
incluindo a infraestrutura física, equipamentos de TI, storage (armazenamento de da-
dos), bem como serviços adicionais com o gerenciamento das operações de proces-
samento de dados de seus clientes. Os data centers Internet normalmente têm vários 
clientes e são responsáveis por oferecer toda a infraestrutura física necessária para as 
suas necessidades de processamento e armazenamento de informações. Algumas ca-
racterísticas dos data centers Internet são:
  Possuem uma grande densidade de equipamentos críticos de TI.
  Possuem maior redundância de componentes e sistemas para garantir a continui-
dade dos negócios de seus clientes em casos de falhas da infraestrutura do site.
  A disponibilidade da infraestrutura do data center é o principal fator de projeto do 
site.
6. Os data centers collocation entregam a infraestrutura física pronta (espaço, instalações 
elétricas, ar condicionado, segurança etc.) para a instalação dos equipamentos críti-
cos de TI do cliente. Nesses ambientes, os clientes são responsáveis pela instalação e 
operação de seus equipamentos e sistemas. Entre as características de um data center 
collocation, podemos citar as seguintes:
  São sites que ocupam, em geral, espaços maiores (em metros quadrados) que os 
data centers enterprise e Internet.
  Têm normalmente menor densidade de equipamentos na computer room.
  Apresentam campos de terminação centralizada de cabeamento, bem como equi-
pamentos de rede também centralizados.
  A segurança do site e dos equipamentos críticos de TI dos clientes são os princi-
pais parâmetros de projeto de data centers collocation. Isso se deve ao fato de que 
os clientes devem ter acesso aos equipamentos e isso deixa a sala de computadores 
vulnerável à ação de intrusos.
7. O data center é um ambiente que pode ser considerado de aplicação comercial, porém 
os critérios de projeto da infraestrutura de um data center diferem daqueles usados no 
projeto da infraestrutura de edifícios comerciais típicos. O projeto da infraestrutura 
de um data center começa pela identi� cação dos requisitos de tecnologia, incluindo os 
seguintes itens:
  redes;
  servidores;
  equipamentos de storage (armazenamento de dados);
  conectividade.
 Ao contrário do projeto tradicional (conforme de� nido para os espaços comerciais tí-
picos), o projeto da infraestrutura de um data center é desenvolvido por um engenhei-
ro e o foco está nos requisitos de engenharia e não na arquitetura do site.
Respostas dos Exercícios 3
8. São basicamente dois: método de projeto independente e método turn-key. O méto-
do de projeto independente é aquele no qual as atividades de projeto e de instalação 
são separadas, ou seja, o projetista é um pro� ssional ou uma entidade responsável ex-
clusivamente pelo projeto, � cando a instalação e integração sob a responsabilidade de 
outras empresas e/ou pro� ssionais. Neste caso, o usuário � nal ou contratante mantém 
contratos separados para o projeto e para a instalação da infraestrutura do data center.
 No método turn-key há uma única empresa ou entidade responsável pelo projeto com-
pleto, incluindo a arquitetura, engenharia e serviços de construção e implementação 
em um único contrato. Cada projeto demanda diferentes quantidades de trabalho a ser 
desenvolvido pelo contratado único e apresenta um escopo diferente.
Quando o método de projeto turn-key é adotado, a contratada é responsável por montar 
uma equipe experiente para concluir o projeto, conforme especi� cado pelo usuário ou 
contratante. Normalmente o método turn-key é adotado quando o prazo é o fator mais im-
portante para o sucesso do projeto, uma vez que o contratante terá de interagir com uma 
única entidade ou pro� ssional. Assim, neste caso toda a responsabilidade de coordenação 
de todas as equipes envolvidas no projeto, bem como a responsabilidade pela entrega de 
serviços dessas equipes dentro dos prazos previstos, é atribuída ao contratado.
9. As fases do projeto podem ser divididas, basicamente, em quatro, conforme a seguir:
  conceitos e planejamento;
  projeto esquemático;
  desenvolvimento do projeto;
  documentos de construção.
10. O projeto tecnológico pode ser entendido como a parte do projeto da infraestrutu-
ra do data center que considera todos os seus subsistemas associados à tecnologia (ar 
condicionado, sistema elétrico, redes, cabeamento etc.) com exceção da parte de enge-
nharia civil e arquitetura do site. As fases do projeto tecnológico de um data center são 
as seguintes: 
  Assessment
  Análise do projeto 
  Aquisição 
  Implementação 
  Comissionamento
11. O sucesso de um projeto de infraestrutura de um data center depende de um gerencia-
mento de projeto e� ciente. O gerenciamento do projeto deve ser adotado nos estágios 
iniciais, ou seja, na fase de desenvolvimento. Ele assegura que todas as etapas do pro-
jeto sejam executadas de acordo com o planejamento e é essencial para a qualidade da 
instalação.
4 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
12. A carga de projeto � nal do site será de 901,81kW.
Ano Carga inicial (kW) Carga final (kW)
Primeiro ano 560,00 + 56,0 616,00
Segundo ano 616,00 + 61,6 677,60
Terceiro ano 677,60 + 67,7 745,30
Quarto ano 745,3 + 74,53 819,83
Quinto ano 819,83 + 81,98 901,81
13. Para a aquisição do projeto tecnológico do data center, uma RFP (Request For 
Proposal) deve ser elaborada. Ela deve trazer todas as informações necessárias para a 
aquisição de produtos e serviços de tecnologia, incluindo especi� cações e desenhos 
detalhados. A RFP é enviada aos fornecedores potenciais para a entrega de propostas 
para a implementação do projeto.
 Deve detalhar todos os produtos, atividades envolvidas no projeto, serviços, imple-
mentação, além de questões legais e burocráticas que sejam relevantes para a boa im-
plementação do projeto.
14. Os equipamentos críticos de TI têm ciclos de vidaentre 5 e 7; isso se aplica a servido-
res, switches, equipamentos de storage, entre outros. Esses ciclos de vida estão relacio-
nados, basicamente, às gerações de novas tecnologias de rede.
15. O comissionamento é importante por ser o processo de con� rmação de que os siste-
mas foram projetados, instalados, testados de forma adequada e podem ser operados 
e mantidos de acordo com o projeto desenvolvido, revisado e aprovado previamente. 
Inicialmente, o comissionamento em data centers era associado aos sistemas mecâni-
cos e de ar condicionado apenas. Atualmente, o comissionamento tem se tornado um 
processo de controle de qualidade importante que se aplica a todos os sistemas e sub-
sistemas do data center. Os sistemas que compõem a infraestrutura de um data center 
devem ser comissionados de acordo com normas e melhores práticas do mercado.
Capítulo 2
1. Um data center é classi� cado, primordialmente, por suas características de disponibi-
lidade, con� abilidade e redundância. Por se tratar de ambientes de missão crítica, os 
data centers devem estar aptos a operar com níveis de disponibilidade próximos de 
100%, o que signi� ca uma garantia de operação ininterrupta mesmo em casos adver-
sos (como falhas do hardware dos equipamentos críticos de TI, falhas no fornecimen-
to de energia elétrica, do ar condicionado, entre outras). 
 Para a garantia desses níveis de disponibilidade, os data centers devem contar com 
sistemas redundantes capazes de suprir a falta de seus sistemas principais em casos 
Respostas dos Exercícios 5
de falhas ou paradas por motivos conhecidos (manutenção preventiva, testes pro-
gramados etc.) ou desconhecidos (erros humanos ou falhas de operação de modo 
geral). 
2. A disponibilidade de um determinado sistema é o tempo durante o qual ele está em 
operação em relação ao tempo em que se espera que ele esteja em operação. A dispo-
nibilidade do sistema pode ser calculada da seguinte forma:
Sendo:
MTBF (Mean Time Between Failures), tempo médio entre falhas;
MTTR (Mean Time To Repair), tempo médio de reparo.
3. Uma disponibilidade de 99,999% signi� ca um site com o nível de disponibilidade teo-
ricamente ideal, já que uma disponibilidade de 100% não é possível. Na prática, esses 
números são ainda altos, porém bem diferentes. 
4. A infraestrutura de um data center deve oferecer, em geral, uma disponibilidade mí-
nima de 99,67%. Cada “nove” adicional aumenta a ordem de grandeza de disponi-
bilidade em um fator de 10. Assim, um aumento de 99,99% para 99,999% é bastante 
importante da disponibilidade do sistema. No entanto, o custo de um “nove” adicio-
nal pode também representar um custo dez vezes superior no investimento no sistema 
(infraestrutura, equipamentos, so� ware, serviços etc.). 
5. A disponibilidade de um data center será expressa como uma porcentagem (ao longo 
de um período de um ano) e se aplica a um componente ou sistema. Para sistemas 
compostos por vários elementos ou componentes com diferentes MTBFs, ou seja, em 
um sistema híbrido (como é a infraestrutura de um data center) a disponibilidade de 
cada sistema (ou componente) deve ser então calculada para cada um, considerando 
sua topologia híbrida que pode ser em série ou paralela. É importante entender que a 
disponibilidade da infraestrutura sempre se refere ao sistema como um todo.
6. Os subsistemas e componentes de um data center podem ser con� gurados em série ou 
em paralelo.
7. A disponibilidade de um sistema paralelo pode ser calculada conforme a seguinte ex-
pressão:
Disponibilidadeparalelo = (S1+S2) – (S1.S2)
6 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
Neste caso, como S1 tem uma disponibilidade de 45 e S2 de 65%, teremos:
Disponibilidadeparalelo = (0,45 + 0,65) – (0,45 x 0,65) = 0,8075 = 80,75%
8. A con� abilidade pode ser entendida como a distribuição do tempo entre falhas de um 
sistema ou componente. É normalmente especi� cada pelo MTBF de componentes ou 
sistemas. A alta con� abilidade de um sistema signi� ca que ele contém muitos compo-
nentes con� áveis que juntos constituem um sistema con� ável. A con� abilidade é es-
peci� cada como a probabilidade de um sistema não apresentar falhas antes de uma 
quantidade de horas bem determinada (t). A expressão a seguir pode ser usada para 
determinar a con� abilidade de um sistema.
 
9. Para um período de um ano, a con� abilidade do sistema em questão pode ser calcula-
da da seguinte forma:
 
10. A redundância em data centers pode ser entendida como a duplicidade de partes, mó-
dulos, encaminhamentos, componentes e sistemas com a � nalidade de evitar o downti-
me (tempo de parada) de um site devido a:
  falhas técnicas;
  falhas humanas (que causam erros de operação);
  manutenção preventiva ou corretiva.
11. 
  Sistema de classi� cação de tiers do � e Uptime Instutute;
  ANSI/TIA-942: Infraestrutura de telecomunicações para data centers;
  ANSI/BICSI-002: Projeto de data centers e práticas recomendadas.
12. Data center básico (N)
 Data center com redundância N+1
 Data center com redundância N+2
 Data center com redundância 2N
 Data center com redundância 2(N+1)
13. Signi� ca ter duas unidades adicionais, módulos, encaminhamentos de distribuição ou 
sistemas em relação ao mínimo necessário para atender os requisitos básicos do site. 
A falha ou manutenção de quaisquer duas unidades isoladas, módulos ou encaminha-
mentos não causa interrupção das operações.
Respostas dos Exercícios 7
14. Data center TR1: Básico
 Data center TR2: Componentes redundantes
 Data Center TR 3: Sustentabilidade concomitante 
 Data Center TR 4: Tolerante a falhas 
15. Um data center de nível TR3 tem duas vias de distribuição de energia, sendo uma ati-
va e uma reserva (standby), com gerador, UPS, HVAC e quadros de distribuição re-
dundantes. Para grandes data centers que utilizam água gelada, signi� ca ter dois 
conjuntos de bombas e tubulações independentes ou redundância em anel. O mesmo 
se aplica aos tanques e sistemas de alimentação de combustível. 
 Sites TR3 devem ter cabeamento dedicado (estruturado) que atenda às condições de 
redundância projetada do site e piso elevado. Esses sites devem ter entradas de prove-
dor de acesso redundantes.
16. Data centers classe F0: infraestrutura básica
 Data centers classe F1: infraestrutura básica para a carga crítica de TI
 Data centers classe F2: risco de parada moderado
 Data centers classe F3: manutenção concomitante
 Data centers classe F4: operação contínua
17. Data center tier I: Data center básico 
 Data center tier II: Data center com componentes redundantes
 Data center tier III: Data center com manutenção e operação simultâneas
 Data center tier IV: Infraestrutura tolerante a falhas
18. São o � e Uptime Institute e a TÜV Rheinland. As principais características são apre-
sentadas a seguir.
  � e Uptime Institute: 
• O Th e Uptime Institute emite um selo de certifi cação tier para data centers com 
base em suas disponibilidades, conforme de� nido pelo instituto.
• Oferece dois tipos de certifi cação, uma que se aplica ao projeto do data center e 
outra que se aplica à infraestrutura do site propriamente dita. 
• A certifi cação do projeto é feita por meio da avaliação da documentação do 
projeto, ou seja, do projeto executivo e de seu memorial descritivo.
• Uma vez aprovado, o projeto recebe um selo de certifi cação referido como 
“Design” para identi� car que ele está certi� cado dentro de uma das quatro clas-
si� cações tier, conforme estabelecido pela instituição.
8 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
• A certifi cação do site é feita por meio de uma auditoria realizada por auditores 
do � e Uptime Institute. 
• Comprovado que o site foiimplementado de acordo com o projeto previa-
mente certi� cado, a certi� cação do site é então concedida e referida como 
“Facility”. 
• O Th e Uptime Institute não tem requisitos quanto à periodicidade da renova-
ção das certi� cações concedidas (tanto de Design quanto de Facility). 
  TÜV Rheinland:
• A TÜV tem um sistema de certifi cação para data centers baseado na norma 
americana ANSI/TIA-942, porém aplica os conceitos e princípios de disponibi-
lidade e segurança de forma ampla.
• A certifi cação da TÜV baseia-se nos critérios de disponibilidade, segurança e 
e� ciência.
• O processo de certifi cação da TÜV envolve quatro fases principais:
- A fase 1 é a avaliação do projeto, ou seja, a análise de toda a documentação 
do empreendimento com base multidisciplinar.
- A fase 2 consiste na avaliação da obra, ou seja, na análise da obra civil, insta-
lações dos equipamentos, bem como do desempenho dos sistemas.
- A fase 3 consiste na avaliação da operação e treinamento, ou seja, na avalia-
ção do site em operação para assegurar que as pessoas estejam efetivamente 
treinadas e capacitadas para utilizar os procedimentos estabelecidos, cum-
prir os planos de manutenção e treinamento, tomar as decisões adequadas e 
oferecer as condições necessárias para que o data center atinja os objetivos 
planejados.
- A fase 4 consiste na revalidação ou manutenção da certi� cação que é feita por 
meio de auditorias semestrais realizadas para veri� car se o data center está 
mantendo as mesmas condições iniciais da certi� cação, se os planos de ma-
nutenção e segurança estão sendo corretamente aplicados e se o data center 
está operando de acordo com os procedimentos estabelecidos.
- De acordo com a TÜV, um data center pode receber uma das seguintes clas-
si� cações: TR1, TR2, TR3 ou TR4.
19. Esta questão deve ser discutida em classe. Não há resposta de� nitiva, uma vez que isso 
depende da avaliação e opinião de cada um. 
Respostas dos Exercícios 9
Capítulo 3
1. A ocupação dos espaços dentro de um data center é uma das questões mais críticas 
do projeto e implementação de um data center. A área de um data center deve ser di-
mensionada levando em consideração os vários subsistemas que serão instalados nesse 
espaço. Assim, espaços devem ser considerados para abrigar o seguinte:
a) sistemas elétricos (distribuição elétrica);
b) espaços de suporte (sala de impressão, NOC, salas de reuniões, sala de baterias, 
entrada de telecomunicações etc.);
c) sala de computadores (computer room).
2. O planejamento do espaço para a instalação do sistema elétrico deve levar em conta 
que os comprimentos dos cabos entre os alimentadores e os quadros elétricos (PDU, 
Power Distribution Unit) devem ser os mínimos possíveis por questões de custo, dissi-
pação de calor, bem como ocupação da infraestrutura de distribuição no data center. 
O encaminhamento dos cabos elétricos pelas dependências do data center é mais um 
ponto de certa complexidade. Há diversos subsistemas no data center que têm suas 
distribuições e conexões feitas por cabos, tais como cabeamento estruturado, subsis-
tema de segurança, subsistema de detecção e extinção de incêndio, entre outros. Por 
esta razão, o projetista de um data center deve conhecer os subsistemas que serão im-
plementados em um dado projeto e interagir com representantes e pro� ssionais dos 
diversos subsistemas nele envolvidos.
 Entre os equipamentos que compõem o sistema elétrico de um data center estão os 
seguintes:
  entrada do sistema elétrico;
  subestação;
  quadro elétrico primário;
  grupos geradores;
  quadros elétricos dos geradores;
  painéis de distribuição elétrica;
  chaves de transferência automática;
  transformadores;
  sistemas UPS; 
  baterias, entre outros equipamentos e componentes.
10 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
3. O espaço dedicado às máquinas e componentes do ar condicionado do data center 
também deve ser dimensionado de acordo com as características do data center e é um 
ponto crítico e que requer muita atenção. O projetista deve considerar que o ar condi-
cionado deve ser projetado para retirar o calor proveniente dos equipamentos de TI 
instalados na computer room, mantendo assim a temperatura em níveis seguros para a 
operação dos equipamentos críticos de TI.
 O sistema de climatização deve prever espaço para a instalação dos seguintes compo-
nentes e equipamentos no data center:
  equipamentos de ar condicionado;
  unidades CRAC (Computer Room Air Conditioning);
  sistemas de resfriamento baseado em chillers;
  torres de resfriamento;
  unidades de armazenamento térmico;
  sistemas de resfriamento baseados em líquidos diretamente em racks;
  tubulações e canalizações de água;
  bombas, entre outros equipamentos e componentes do sistema de climatização.
4. Centro de operações
 Sala de impressão
 Doca para carga e descarga
5. O centro de operações do data center deve ser implementado fora da sala de 
computadores. Os equipamentos terminais nas áreas de trabalho do centro de 
operações devem ser conectados ao subsistema de cabeamento adequado e não 
diretamente ao distribuidor principal (MD/MDA) do cabeamento do data center. 
As conexões para monitoramento de rede do data center podem ser feitas direta-
mente no MD/MDA. Sistemas de CATV podem ser implementados no centro de 
operações. Esse espaço não tem uma relação direta com a área da sala de compu-
tadores (em metros quadrados).
6. O projetista deve considerar um espaço dedicado para a instalação de impressoras, 
que deve ser localizado fora da computer room (sala de computadores). Esse espaço 
deve ter um sistema de ar condicionado separado do ar condicionado da computer 
room. Um espaço auxiliar próximo à sala de impressão deve ser considerado para o 
armazenamento de papel e suprimentos; parâmetros como umidade e temperatura de-
vem ser controlados na sala de impressão.
7. Esses espaços devem ser localizados de tal forma que permitam acesso às salas de de-
pósito e testes de equipamentos (presentes em data centers grandes, porém pouco co-
muns em sites de pequeno porte) e à computer room ou computer rooms, em sites com 
mais de uma sala de computadores. Dois tipos de espaços para carga e descarga devem 
ser considerados: 
Respostas dos Exercícios 11
  Espaços sem requisitos críticos de segurança: para recebimentos e despachos em 
geral.
  Espaços com requisitos críticos de segurança: para recebimento e despacho de equi-
pamentos e produtos de alto valor. Neste caso deve haver uma área fechada e protegida 
para o estacionamento de caminhões, bem como carga e descarga. Esse espaço deve 
ser monitorado pelo sistema de circuito fechado de TV (CCTV) do data center.
8. Há basicamente quatro espaços destinados a telecomunicações e cabeamento, que são:
  infraestrutura de entrada;
  área destinada à distribuição principal (MD/MDA);
  área destinada à distribuição de zona (ZD/HDA);
  área destinada à distribuição de equipamentos de TI no data center (EO/EDA).
9. Esse espaço deve ser projetado e implementado próximo à sala de computadores e de-
vem ser previstos também espaços para os equipamentos dos provedores de serviços e 
acessos. Encaminhamentos separados e protegidos podem ser necessários entre a in-
fraestrutura de entrada e os equipamentos desses provedores.
 O espaço de infraestrutura de entrada pode ser dividido em áreas para oferecer uma 
separação segura entre os equipamentos do data center e os equipamentos dos prove-
dores de acesso e serviços. Se esse espaço for dividido, recomenda-se sua divisão em 
dois novos espaços; um para o proprietário ou operador do data center e outro para 
todos os provedores de acesso e serviços. Os espaços separados podem ser divididos 
por paredes ou cercas metálicas(muito usadas em data centers para esta � nalidade).
10. A área de distribuição principal do data center abriga o distribuidor principal do ca-
beamento da computer room (MD/MDA), onde são instalados os equipamentos core 
da rede do data center, ou equipamentos de uso comum. Quando o cabeamento do 
data center deve ter conexões ao cabeamento do edifício onde se encontra (em casos 
nos quais o data center não é implementado em um edifício dedicado exclusivamen-
te a este � m), o MD/MDA deve oferecer meios de conexão deste ao distribuidor de 
piso (FD, Floor Distributor) do edifício.
 Esse espaço é localizado dentro da computer room e pode ser também implementado 
isoladamente, em espaço dedicado e com segurança no caso de edifícios que abrigam 
mais de um data center ou computer room. Deve haver pelo menos uma área de distri-
buição principal com um distribuidor principal (MD/MDA) em um data center.
 Os equipamentos comumente instalados nesse espaço são o switch Ethernet core, o ro-
teador core, switches SAN (Storage Area Network) core e equipamentos para a distri-
buição de serviços de voz (switches para serviços de voz sobre IP, VoIP e PABX).
11. A área de distribuição de zona do data center abriga o distribuidor de zona (ZD/HDA) 
do cabeamento do data center. Esse espaço deve estar dentro da computer room e per-
mitir conexões entre o distribuidor de zona e o distribuidor principal, bem como entre 
o distribuidor de zona e a tomada de equipamento do data center. Eventualmente, a 
12 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
área de distribuição de zona pode estar localizada em espaço isolado e seguro em um 
edifício dedicado a abrigar um data center. Nesse espaço são instalados os equipamen-
tos de TI que entregarão serviços aos equipamentos de TI instalados na área de to-
madas de equipamentos (EO/EDA). Portanto, os equipamentos instalados comumente 
nesse espaço são switches Ethernet, dispositivos KVM (Keyboard, Video and Mouse), 
entre outros. 
 Em edifícios destinados ao uso exclusivo de data centers (mais do que uma única 
computer room em um mesmo edifício), deve ser prevista uma área de distribuição 
de zona para a instalação de distribuidores de zona (ZD/HDA) em cada pavimento 
ou área deste responsável pela distribuição do cabeamento horizontal no data center. 
Data centers típicos necessitam de várias áreas de distribuição de zona; sites peque-
nos, por outro lado, podem não precisar de áreas para a instalação de distribuidores de 
zona (ZD/HDA).
12. Os equipamentos de TI do data center ou, mais especi� camente, servidores (conven-
cionais e blade), bem como os equipamentos de storage, devem ser instalados em áreas 
dedicadas a eles, denominadas áreas de equipamentos. Nesses espaços estão as toma-
das de equipamentos (EO/EDA) normalmente montadas nos racks ou gabinetes em 
que serão instalados esses equipamentos. Esses espaços devem ser dedicados à insta-
lação dos equipamentos de TI da computer room e não devem ser usados como dis-
tribuidores. Quando utilizados os pontos de distribuição local (LDP/ZDA) entre um 
distribuidor de zona e uma tomada de equipamento (EO/EDA), esse dispositivo deve 
ser montado próximo às áreas de equipamentos e não pode haver conexões cruzadas 
adicionais entre o ZD/HDA e a EO/EDA.
13. A estrutura de fixação do piso elevado deve ser montada sobre a laje em que 
será instalada a computer room. A espessura da laje precisa ser de 14cm, no mí-
nimo, e deve ser projetada para suportar uma carga de piso mínima de 7,2KPA 
(732,36kgf/m2). No caso de data centers de alta densidade, a laje deve ter uma es-
pessura de 20cm e a carga de piso mínima a ser suportada precisa ser de 12KPA 
(1.220,6036kgf/m2). 
 O sistema de piso elevado deve ser contínuo, de modo a oferecer uma boa capacida-
de de transferência lateral do peso ao longo da estrutura. A estrutura do piso elevado 
deve estar aterrada para evitar o acúmulo de carga estática tanto no piso quanto nos 
equipamentos, o que pode levar os equipamentos de TI à operação instável e até mes-
mo à queima.
14. A porta de entrada principal da computer room deve ser dupla e com uma abertura 
mínima de 1,80m (em duas folhas de 0,90m cada). Essas portas não devem ter ne-
nhum elemento separador e a abertura livre deve ser de 1,80m. Elas devem ser de ma-
deira sólida, com uma espessura mínima de 4,50cm ou de aço. Independentemente 
do material, as portas devem ser montadas em batentes de aço, com uma altura livre 
mínima de 2,10m.
Respostas dos Exercícios 13
 As demais portas do data center podem ter abertura livre de 1,10m, com uma única 
folha e altura livre mínima de 2,10m. Portas duplas também podem ser usadas em ou-
tros espaços do data center; neste caso, as folhas devem ter largura mínima de 0,90m 
cada e a altura livre deve ser, no mínimo, de 2,30m.
 As portas duplas com aberturas preenchidas por vidro transparente devem utilizar vi-
dros que tenham a mesma classi� cação quanto a chamas que as portas utilizadas. 
15. As seguintes especi� cações e recomendações se aplicam à computer room:
  Deve ser implementada em uma localidade no edifício que permita sua expansão.
  Deve ser implementada em localidade e posição que permitam transportar equi-
pamentos de grande porte para dentro da sala sem a remoção de portas ou quais-
quer outras partes ou peças do data center.
  Deve ser implementada em uma localidade segura do ponto de vista da interfe-
rência eletromagnética de fontes potenciais, como transformadores elétricos, equi-
pamentos de transmissão de rádio, subestações retransmissoras que operam em 
frequências próximas a micro-ondas etc.
  Deve ser implementada em uma localidade no edifício não compartilhada com 
outros sistemas ou serviços.
16. 
  O tamanho da computer room deve ser determinado em função das quantidades e 
tipos de equipamentos de TI, bem como racks e gabinetes a serem instalados. Não 
há normas especí� cas nem especi� cações em normas vigentes para a determina-
ção do tamanho da computer room.
  As paredes da computer room devem ser preferivelmente claras para melhorar a 
distribuição de luz no espaço. A iluminação deve ser projetada para oferecer 500 
lux de intensidade no mínimo (no plano horizontal) e 200 lux no vertical.
  O acesso à computer room deve facilitar a entrada, movimentação e retirada de 
equipamentos de TI e ser protegida contra o acesso de pessoas não autorizadas.
17. Recomenda-se que seja feita em sistema de coordenadas X e Y. A NBR 14565:2011 re-
comenda que a coordenada X seja marcada com letras (A, B, C, D, ... AA, AB, AC etc.) 
e a Y com números (01, 02, 03, 04 etc.). A � gura seguinte apresenta um esquema de 
identi� cação da computer room em sistema de coordenadas e mostra um gabinete de 
equipamentos de TI na posição I-03.
18. Os limites para os parâmetros ambientais da computer room variam conforme a norma 
que se utiliza como referência. A tabela seguinte apresenta os limites estabelecidos pe-
las normas NBR-14565:2011 e ANSI/TIA-942.
14 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
Recomendações Normas
NBR 14565:2011 ANSI/TIA-942
Temperatura ambiente 18°C a 27°C 20°C a 25°C
Ponto de condensação Entre 5,5° e 15°C 25°C
Troca máxima de calor 5°C/h 5°C/h
Umidade relativa do ar Entre 30% e 60% Entre 40% e 50%
Medições
A cada 3 metros ao longo da linha 
central dos corredores frios e no ponto 
de retorno do ar condicionado 
Entre três e seis metros ao longo da 
linha central dos corredores frios e nos 
pontos de entrada do ar condicionado
19. As seguintes recomendações devem ser observadas pelo projetista com relação aos as-
pectos de localização geográ� ca da computer room:
  O local de instalação do data center não deve estar sujeito a inundações (devemser evitados locais próximos a rios, lagos, oceanos, fundos de vales etc.).
  Deve-se evitar localidades próximas a cabeceiras de pistas de aeroportos por riscos 
de acidentes potenciais.
  Evitar locais sujeitos a abalos sísmicos (isso é relativamente raro no Brasil, porém nor-
mas desenvolvidas em países como os Estados Unidos apontam para esta questão).
  Evitar localidades muito próximas a linhas de transmissão elétrica.
  Locais com fácil acesso a rodovias são recomendados.
  Locais próximos às concessionárias de energia elétrica são recomendados.
  Locais próximos a centros de serviços são também recomendados.
  Condomínios comerciais específicos para abrigar data centers também po-
dem ser boas localidades para instalar um novo site (normalmente eles já 
foram construídos levando os aspectos anteriormente citados em considera-
ção).
20. Quanto aos aspectos da construção propriamente dita, algumas normas, como a NBR 
14565:2011, a ANSI/TIA-BICSI-002 e a ANSI/TIA-942, trazem recomendações que 
podem auxiliar o projetista na determinação de alguns fatores construtivos do site. 
Como exemplo, há recomendações de que a computer room seja construída no interior 
do edifício sem paredes entre ela e o meio externo e que suas paredes, quando interfa-
ceando o ambiente com o meio externo, sejam de concreto e com espessura especí� ca 
(que varia dependendo de cada norma e do local da construção). 
Respostas dos Exercícios 15
 Outra recomendação é que a computer room não tenha janelas para o meio exter-
no, por motivos de segurança. Caso o ambiente a ser utilizado tenha janelas, elas 
devem ser bloqueadas internamente com placas que resistam a tiros de armas de 
fogo de grosso calibre e que sejam resistentes à propagação de chamas (a classifi-
cação quanto a chamas também varia conforme a norma utilizada). O uso de vi-
dros blindados também é sugerido em ambientes que tenham janelas entre o meio 
externo e a computer room. Essa recomendação não se aplica a paredes de vidro ou 
janelas internas entre, por exemplo, o NOC e a computer room. Ainda com relação 
a aspectos construtivos, outra recomendação é que, sempre que possível, a compu-
ter room seja localizada no piso térreo do edifício. Isso facilita a entrada e a saída 
de equipamentos do site.
Capítulo 4
1. Não há sistemas de distribuição elétrica de baixa tensão especificamente projeta-
dos para atender às necessidades de alimentação de data centers. Na verdade, isso 
nem é necessário, uma vez que as etapas de geração e distribuição de energia elé-
trica são capazes de atender a todos os tipos de usuários, residenciais, comerciais e 
industriais.
2. A distribuição elétrica no data center é crítica e deve garantir a operação segura e con-
� ável do site. Isso pode requerer sistemas so� sticados, e quanto maiores os requisitos 
de uptime e redundância, mais so� sticados e complexos serão esses sistemas. De qual-
quer forma, o sistema elétrico de um data center deve contar com os seguintes elemen-
tos básicos:
  entrada de alimentação elétrica proveniente da concessionária; 
  grupo motor-gerador (referido simplesmente como gerador);
  chaveadores (chaves de comutação);
  sistema UPS (Uninterruptible Power Supply);
  quadros/painéis de distribuição (PDU, Power Distribution Unit);
  sistema de aterramento.
3. Os sistemas elétricos dos data centers levam em consideração os requisitos de 
normas quanto às classificações dos data centers em relação à disponibilidade e 
redundância. A tabela seguinte apresenta as normas aplicáveis e as classificações 
definidas por elas.
16 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
Normas/Procedimentos ANSI/BICSI-002 ANSI/TIA-942 TÜV Rheinland
Uptime 
Institute Características
Classificações
Classe F0
Disponibilidade 
<90%
- - - Básico (N)
Classe F1
Disponibilidade 
=90%
Tier 1 TR1 Tier I Básico (N)
Classe F2 Tier 2 TR2 Tier II
Componentes
redundantes (N+1)
Classe F3 Tier 3 TR3 Tier III
Sustentabilidade
concomitante
(N+1), (N+2)
Classe F4 Tier 4 TR4 Tier IV
Tolerante a falhas 
2N 2(N+1)
4. A e� ciência de projeto do sistema elétrico do data center está associada ao dimensio-
namento da topologia do sistema elétrico do site. A e� ciência de operação está relacio-
nada às características dos componentes, dispositivos ou sistemas isolados.
5. A e� ciência de projeto desse sistema poder ser determinada pela aplicação da seguinte 
expressão:
 e1(p=(carga requerida(kW) / (potência instalada (kW))
 e1(p=(carga requerida(kW) / (potência instalada (kW))
a. Três módulos de 300kVA:
 
ep = ⋅ =
300
900
100 33 3(%) , %
b. Seis módulos de 80kVA:
 
ep = ⋅ =
300
480
100 62 5(%) , %
c. Sete módulos de 60kVA:
 
ep = ⋅ =
300
420
100 71 4(%) , %
Respostas dos Exercícios 17
6. Trata-se de um data center com sistema elétrico com classi� cação tier III. De acor-
do com as classi� cações de� nidas pelo � e Uptime Institute, em localidades nas quais 
não é possível ter o site alimentado por duas concessionárias elétrica diferentes, gru-
pos geradores instalados de forma adequada podem ser considerados como um prove-
dor de eletricidade independente e redundante.
7. O esquema de distribuição elétrica tier 3 com redundância N+2 deve ter a topologia 
apresentada na � gura a seguir.
Quanto ao balanceamento de cargas, isso vai depender da distribuição em níveis mais 
detalhados (por exemplo, em nível de PDU). O importante, neste caso, é adotar crité-
rios de projeto e implementação do sistema levando em consideração que este 1MVA, 
no caso deste exemplo, refere-se às cargas críticas de TI do site.
8. Há, basicamente, cinco tipos de sistemas UPS que podem ser usados em instalações 
de data centers. O sistema mais adequado para data centers é o paralelo-redundante 
por apresentar sempre um módulo adicional à quantidade necessária para suportar a 
carga, de forma que um módulo com defeito (UPS ou bateria) possa ser substituído 
sem interrom per a alimentação da carga.
  UPS o� -line (UPS Standby): esse tipo de UPS é também conhecido como sistema 
back-up ou UPS standby. Sob circunstâncias normais, a entrada do UPS é alimen-
18 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
tada por meio de um � ltro e a carga é conectada à sua saída por chaves mecânicas. 
O carregador das baterias mantém o estado de carga delas e há um circuito de de-
tecção que monitora o estado da entrada do UPS. 
  UPS estático: há basicamente dois tipos de UPS estáticos no mercado, sendo de 
linha interativa (line interactive) e de conversão dupla (true on-line). Um UPS es-
tático consiste normalmente de um conjunto de baterias para prover alimentação 
para a carga, um reti� cador/carregador para manter a carga das baterias e para 
alimentar a entrada do inversor quando há energia elétrica proveniente da conces-
sionária local; um inversor para prover alimentação elétrica para a carga durante a 
operação normal; uma chave estática para transferir a carga automaticamente em 
casos de manutenção do UPS, transformadores isoladores de entrada e saída, bem 
como � ltros para oferecer isolação adequada e atenuação de distúrbios, além de 
sensores e circuitos de controle.
  UPS rotativo (� ywheel): um equipamento chamado � ywheel é usado para aplica-
ções que requerem um tempo de transferência muito curto em casos de falta de 
energia elétrica do site ou quedas abruptas de tensão provenientes da concession-
ária. Um sistema UPS baseado em � ywheel normalmente não utiliza baterias e sua 
autonomia é da ordem de alguns segundos a poucos minutos. O uso de grupos 
geradores juntamente com sistemas UPS � ywheel pode oferecer autonomia in-
de� nida em caso de falta de energia elétrica proveniente da concessionáriae man-
ter, além das cargas críticas (equipamentos de TI), os sistemas de ar condicionado 
e iluminação do data center.
  UPS rotativo híbrido: nesse tipo de sistema, a tensão de alimentação das cargas 
pode ser obtida a partir de módulos � ywheel e também de baterias convencionais 
(opcional). As seguintes características se aplicam a esses sistemas:
• oferecem dois ramos para suprir alimentação para a carga;
• utilizam � ywheel e baterias (opcional);
• podem ser projetados para suprir a carga a partir de duas fontes independentes;
• as baterias podem suportar a carga se ambos os ramos de alimentação falha-
rem.
  UPS paralelo-redundante: esse sistema oferece redundância N+1 (no mínimo) e 
usa um arranjo de sistemas UPS que operam em modo paralelo. Em geral, haverá 
pelo menos um módulo adicional à quantidade necessária para suportar a carga, 
de modo que um módulo com defeito (UPS ou bateria) possa ser substituído sem 
interromper a alimen tação da carga. 
Respostas dos Exercícios 19
9. 
a. Considerar os consumos de equipamentos conforme a Tabela 1, a seguir.
Equipamento Tipo/Observação Consumo (W)
Servidores do tipo blade Chassis/10RU (unidade de rack) 5.600W por chassis
Storage (array) 12 hard disks por array 520W por array
Switch Ethernet Switch Core/4608 portas 7.500W por switch
b. Para o dimensionamento do sistema elétrico da computer room com os equipa-
mentos apresentados na Tabela 1, podemos levantar a tabela de cargas totais con-
forme a Tabela 2, a seguir.
Equipamento Quantidade Consumo individual (W) Consumo total (carga, W)
Servidores do tipo blade 150 (15 chassis) 5.600 84.000
Disk array 40 (480 HDs) 520 20.800
Switch Ethernet 8 (switches core) 7.500 60.000 
Carga total de TI (W) 164.800
Carga total de TI (kW) 164,8
c. Antes de prosseguirmos com os cálculos, precisamos aplicar o fator de crescimen-
to de 6,5% para 10 anos. Assim, teremos: 
Cargafutura = Cargainicial . Fatorcrescimento = 164,8 . 1,065 = 175,5 kW
d. Determinação da carga dos espaços de suporte do data center.
Cargaespaços suporte = Cargainicial . Fatorcarga = 164,8 . 0,15 = 24,7 kW
e. Determinação da carga de iluminação da computer room. Para isso, precisamos 
considerar uma densidade média de iluminação na computer room de 21,7W/m². 
A área total da computer room deste exemplo é de 124,20m².
Cargailum.computer room = Áreacomputer room. Densidadepot.ilum.(kW)
Cargailum.computer room = 124,20 . 21,7 = 2.695,14 ≅ 2,7 (kW)
f. Determinação da carga referente à iluminação dos espaços de suporte. Em geral, 
adota-se a carga de iluminação dos espaços de suporte como a mesma a ser desti-
nada à computer room. Assim, teremos:
Cargailum.espaço suporte = Cargailum.computer room = 2,7 (kW)
20 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
g. Determinação da carga de iluminação total do site.
Cargailuminação total = Cargailum.computer room + 2,7 Cargailum.espaço suporte =
= 2,7 + 2,7 = 5,4kW 2,7 + 2,7 = 5,4kW
h. Determinação da carga de UPS e baterias. Adota-se um fator de cargas de 25% 
para as baterias e um fator de ine� ciência de 15%. Assim, teremos:
CargaUPS = (Cargafutura . Fatorcarga baterias) + (Cargafutura . Fatorine� ciência)
CargaUPS = (175,5 . 0,20) + (175,5 . 0,15) = 35,10 + 26,3 = 61,4 kW
i. Carga dos sistemas mecânicos do site. Para a determinação da carga a ser destina-
da ao sistema de climatização, vamos primeiramente avaliar a carga total do site, 
determinada até o momento. A tabela a seguir resume essas cargas.
Sistema Carga (kW)
Equipamentos de TI 175,5
Fator de crescimento 10,7
Espaços de suporte 24,7
Iluminação do site 5,4
Sistema UPS e baterias 61,4
Carga total do site (kW) 277,7
Como o sistema mecânico tem e� ciência típica em torno de 70%, teremos a seguinte 
carga destinada a esse sistema no exemplo:
Cargasistema mecânico = Cargatotal data center . Fatorcarga sistema mecânico
Cargasistema mecânico = 277,7 . 0,70 = 194,40kW
Respostas dos Exercícios 21
Com a carga mecânica determinada, teremos a carga total do sistema do site do exem-
plo, conforme apresentado na tabela em seguida.
Sistema Carga (kW)
Equipamentos de TI 175,5
Fator de crescimento 10,7
Espaços de suporte 24,7
Iluminação do site 5,4
Sistema UPS e baterias 61,4
Sistema mecânico 194,4
Carga total do site (kW) 472,1
j. Determinação da entrada de serviço elétrico do site. O dimensionamento da en-
trada de serviço elétrico do data center consiste na determinação da corrente de 
entrada do alimentador elétrico. Para isso, normalmente se utiliza um fator de so-
brecarga ou fator de pico, que no exemplo vamos adotar como sendo 25%. Assim, 
teremos:
CargaSE = Cargatotal site . Fatorsobrecarga (kW)
CargaSE = 472,1 . 1,25=590,12 (kW)
Determinação da corrente do alimentador. Considerando uma alimentação elétrica tri-
fásica em 380V (CA) e o fator de potência igual a 1,0, a corrente do alimentador será:
 
[17]
Para � nalizar, o data center do exemplo necessita de um barramento de distribuição 
(busway) com uma capacidade de corrente de 897,65A (ou, aproximadamente, 900A) 
a partir do qual será feita a distribuição elétrica do site. 
10. Chave de transferência é um dispositivo usado para conectar uma ou duas fontes de 
alimentação a uma carga comum. Em geral, as chaves de transferência atuam entre a 
concessionária e o gerador back-up, ou entre outros tipos de fontes de energia elétrica 
disponíveis. 
22 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
 Quando a fonte de alimentação normal falha, a chave de transferência automática 
(ATS, Automatic Transfer Switch) é um dispositivo que detecta essa falha e envia um 
comando de partida para o gerador, que assumirá a carga.
11. O sistema de aterramento de um data center deve ser implementado de acordo com 
normas técnicas aplicáveis e apresentar os seguintes elementos:
  sistema de aterramento do edifício; 
  aterramento do sistema elétrico (cargas não relacionadas aos equipamentos de TI);
  sistema de aterramento da computer room;
  aterramento de “sinal” (Signal Reference Grid, SGR).
A � gura seguinte apresenta um esquema de aterramento para a computer room.
12. A malha de referência de terra ou SRG (Signal Reference Grid) equaliza os potenciais 
de forma e� ciente dentro de uma ampla escala de frequências, desde níveis CC até 
mega-hertz (MHz). Assim, a função da malha de referência de sinal é minimizar as 
diferenças de tensões entre equipamentos interconectados por meio de um plano de 
terra equipotencial para altas frequências e baixos níveis de tensão de ruído. 
13. O termo PDU (Power Distribution Unit) é utilizado para vários tipos de componen-
tes diferentes de sistemas elétricos. Um PDU pode ser desde uma “régua de tomadas” 
(conjuntos de tomadas elétricas montadas em um suporte para alimentar várias car-
gas) até um equipamento so� sticado montado dentro de um gabinete, passando por 
um quadro elétrico. Normalmente, utiliza-se o termo PDU para painéis, quadros e ga-
binetes montados dentro da computer room para alimentar os racks de equipamentos. 
O termo quadro elétrico é mais utilizado como referência ao quadro de distribuição 
principal, que alimenta os sistemas UPS e os PDUs. 
 Os PDUs mais complexos e montados em gabinetes possuem as seguintes características:
  São equipamentos complexos que incluem quadros elétricos com disjuntores prin-
cipais e regulagem de tensão.
  Podem ter uma combinação de transformadores e painéis de distribuição na mes-
ma unidade de distribuição.
  Sempre têm painéis de distribuição para proteger os circuitos secundários que ali-
mentam as cargas.
  Podem ter dispositivos de proteção para painéis remotos.
  São usados disjuntores para proteção dos circuitossecundários derivados do PDU.
  Podem ter transformadores isoladores.
  Podem ser equipamentos standalone ou acoplados por meio de uma chave estática 
para gerenciamento de cargas com fontes simples ou duplas.
  Podem ter uma única entrada ou entrada dupla, dependendo da topologia do sis-
tema elétrico de distribuição. 
Respostas dos Exercícios 23
14. Sites tier 3 e tier 4 (ou tier III e tier IV) podem ser implementados no Brasil sem 
qualquer restrição. As normas que de� nem as classi� cações de data centers (prin-
cipalmente a do � e Uptime Institute) quanto à sua disponibilidade e redundân-
cia requerem duas entradas locais de alimentação elétrica. Onde for possível, duas 
concessionárias diferentes devem alimentar o site; em locais onde não há opções de 
concessionárias de serviços elétricos, geradores a diesel podem ser utilizados como 
segunda entrada elétrica.
15. O � ywheel é uma boa opção para aplicações que requerem tempo de transfe rência 
muito curto em casos de falta de energia elétrica do site ou quedas abruptas de ten-
são provenientes da concessionária. Entre os principais benefícios podemos citar os 
seguintes:
a. São mais con� áveis que baterias.
b. Ocupam um espaço mais inferior no data center que aquele ocupado pelos bancos 
de baterias em salas de baterias.
c. Apresentam tempo de transição inferior, ou seja, são mais rápidos que os sistemas 
UPS que operam com baterias.
d. tem um fator de ine� ciência inferior aos das baterias.
Capítulo 5
1. O foco do projeto de climatização deve estar na computer room, na qual estão os 
equipamentos críticos da infraestrutura que geram muito calor e podem colocar o 
funcionamento dos equipamentos ativos em risco se o sistema não for bem dimen-
sionado, tanto em termos de carga térmica quanto em termos de disponibilidade e 
redundância.
2. A � gura seguinte apresenta o ciclo de climatização e os principais componentes envol-
vidos.
 O primeiro passo para a remoção de calor de um dado ambiente é a evaporação. No 
evaporador acontece o processo de transferência de calor à pressão e temperatura 
constantes (T0, P0). O calor transferido ao refrigerante nessa etapa do processo não al-
tera a temperatura do refrigerante, apenas seu estado (de líquido para gasoso). 
 Na etapa de compressão, que é um processo reversível, a compressão do refrigeran-
te ocorre à entropia constante. O refrigerante ingressa no compressor à pressão do 
evaporador (P0) e é então comprimido até atingir a pressão de condensação, estando 
agora aquecido a uma temperatura T2, maior que a temperatura de condensação (TC). 
O gás comprimido tem a propriedade de aumentar sua temperatura; esse aumento de 
temperatura resultante da compressão é que permite que o calor retirado da computer 
room seja transportado para fora dela. 
24 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
 No condensador acontece o processo de rejeição de calor do refrigerante pela diminui-
ção da temperatura T2 (da saída do compressor) para a temperatura de condensação 
(TC), e então rejeição de calor à temperatura TC até que todo vapor tenha sido conver-
tido em líquido saturado à pressão de condensação, PC. Nessa etapa o condensador 
transfere calor a outro meio, neste caso o ambiente externo (o gás em alta temperatura, 
T2, é resfriado ao passar pelo condensador, transferindo o calor do refrigerante para o 
ambiente externo). O condensador é montado na parte externa do edifício. 
 O último passo do ciclo de refrigeração é a expansão do líquido refrigerante. Na válvu-
la de expansão acontece um processo irreversível à entalpia constante, desde a pressão 
constante de condensação (PC) e líquido saturado até atingir a pressão do evaporador, 
P0. Como o processo é irreversível, a entropia do refrigerante, ao sair da válvula de 
expansão, é maior que a entropia do refrigerante ao entrar nela. A válvula de expansão 
é posicionada próximo à entrada do evaporador. É responsável por regular o � uxo do 
refrigerante que ingressará em baixa pressão no evaporador a uma taxa capaz de man-
ter a diferença de pressão dentro de limites ótimos, para garantir que todo refrigerante 
seja evaporado antes de sair do evaporador.
 A função do refrigerante é, então, o transporte do calor ao longo do ciclo de climatização. 
3. As principais arquiteturas dos sistemas de ar condicionado são:
a. Distribuição de ar pelo teto (overhead)
 Essa arquitetura de distribuição de ar na computer room é uma boa opção quando 
não se utiliza piso elevado; o tipo de equipamento adequado a este propósito deve 
ser utilizado. A distribuição de ar overhead deve ser dimensionada para insuflar o 
ar frio diretamente no corredor frio pela parte superior do corredor. O ar quente 
resultante da refrigeração dos equipamentos de TI forma os corredores quentes, 
nos quais devem ser posicionados os exaustores para a retirada do ar quente da 
computer room. 
b. Distribuição de ar sob o piso elevado
 Essa arquitetura de climatização oferece certa � exibilidade na distribuição da car-
ga térmica, bem como no posicionamento das unidades CRAC dentro da computer 
room. Em relação à arquitetura overhead convencional (aquela em que o ar é insu-
� ado por cima no corredor frio e retirado do corredor quente por um sistema de 
dutos), a distribuição sob o piso não requer um sistema de dutos para a exaustão do 
ar quente do ambiente; o próprio ambiente é usado para este � m. É comum a utili-
zação de unidades CRAC com extensões de dutos montadas sobre elas para oferecer 
melhor encaminhamento do ar quente de retorno às unidades CRAC para exaustão. 
4. O projeto do sistema de ar condicionado do data center deve levar em consideração os 
seguintes fatores:
  tamanho da sala; 
  densidade de carga, kW por gabinete (ou por m2);
Respostas dos Exercícios 25
  número de unidades CRAC (Computer Room Air Conditioner);
  localização da sala no edifício; 
  pé-direito (espaço entre o piso acabado e o teto); 
  características do piso elevado, quando existente; 
  expansão futura; 
  requisitos de con� abilidade; 
  manutenção; 
  características do clima local.
5. Unidades CRAH (Computer Room Air Handling) e unidades CRAC (Computer Room 
Air Conditioner) são os equipamentos de ar condicionado utilizados na computer room 
em data centers. A diferença fundamental entre uma unidade CRAH e uma unidade 
CRAC é que a primeira não possui compressor e condensador montados nela, e apenas 
insu� a ar frio na sala, � cando as etapas de condensação e troca de calor sob responsabili-
dade do chiller, montado na casa de máquinas do data center.
6. Porque os data centers atuais têm densidade de carga muito alta e a adoção de uma 
densidade de carga de projeto baseada na área da computer room pode resultar uma 
carga total muito inferior à carga real do site. Como os servidores de hoje, bem como 
os demais equipamentos críticos de TI, são instalados em racks, é mais e� ciente tratar 
a densidade de carga da sala de computadores por rack. Há racks que podem ter car-
gas da ordem de 20 a 25kW. 
7. São, basicamente, a temperatura ambiente, a taxa de troca de calor do ambiente e a 
umidade relativa do ar.
8. O conceito de corredores frios e quentes em data centers tem sido adotado com suces-
so, independentemente do tipo de distribuição de ar utilizado na computer room (sob 
o piso elevado ou insu� ado pela parte superior dos racks e gabinetes etc.). Para que 
corredores frios e quentes sejam con� gurados de forma adequada, as unidades CRAC 
devem ser posicionadas na computer room de forma estratégica.
 Para a criação dos corredores frios, os racks ou gabinetes devem ser posicionados de 
tal forma que os equipamentos de TI (basicamente servidores e storage) � quem com 
a frente (para aspirar o ar frio) orientada para esse corredor. Assim, o corredorfrio se 
con� gura com o posicionamento dos equipamentos de TI orientados sempre de frente 
(a frente de um posicionada para a frente do outro). O corredor quente é gerado na 
parte posterior (traseira) dos racks ou gabinetes em que há a saída do ar que passou 
pela eletrônica para retirar o calor gerado devido à sua operação.
9. O � uxo de ar na computer room deve ser tal que o ar frio seja insu� ado nos corredores 
frios e o ar quente proveniente dos corredores quentes seja retirado da sala pelo siste-
ma de climatização. A � gura seguinte apresenta um exemplo de � uxo de ar na compu-
ter room.
26 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
10. Em um sistema de insu� ação de ar pelo piso, o ar frio deve ser insu� ado nos corre-
dores frios e a coleta de ar quente deve acontecer nos corredores quentes. Assim, a 
melhor posição para a instalação das unidades CRAC na computer room é em alinha-
mento com os corredores quentes. A � gura apresentada na resposta da questão 9 ilus-
tra essa con� guração.
11. Essa técnica consiste no uso de um so� ware especí� co que é alimentado com os pa-
râmetros de projeto. Portanto, é muito importante que o so� ware seja alimentado 
com informações precisas para gerar um resultado preciso. A � gura seguinte mostra 
um exemplo da aplicação de CFD ao projeto de climatização de um data center.
12. Distribuição overhead: é uma boa opção quando não se utiliza piso elevado; o tipo 
de equipamento adequado a esse propósito deve ser utilizado. A distribuição de ar 
overhead deve ser dimensionada para insu� ar o ar frio diretamente no corredor frio 
pela parte superior do corredor. O ar quente resultante da refrigeração dos equipa-
mentos de TI forma os corredores quentes, nos quais devem ser posicionados os 
exaustores para a retirada do ar quente da computer room. 
 Distribuição sob o piso elevado: é a técnica mais comumente adotada em data. Essa ar-
quitetura de climatização oferece certa � exibilidade na distribuição da carga térmica, 
bem como no posicionamento das unidades CRAC dentro da computer room. 
 Em relação à arquitetura overhead convencional, a distribuição sob o piso não requer um 
sistema de dutos para a exaustão do ar quente do ambiente; o próprio ambiente é usado 
para este � m. É comum a utilização de unidades CRAC com extensões de dutos monta-
das sobre elas para oferecer melhor encaminhamento do ar quente de retorno às unidades 
CRAC para exaustão. Sistemas de climatização baseados nessa arquitetura costumam apre-
sentar desempenho melhor. No entanto, em alguns ambientes, devido à falta de um vão 
adequado sob o piso elevado, essa arquitetura pode não ser recomendada. Portanto, não há 
uma arquitetura melhor e outra pior; vai depender do ambiente e de suas condições. 
13. Essa arquitetura de climatização também é conhecida como arquitetura mista, ou seja, 
além do uso de unidades CRAC ou CRAH devidamente instaladas na computer room, 
outros sistemas são utilizados em conjunto para melhorar a e� ciência do seu sistema 
de climatização. Os sistemas suplementares são normalmente obtidos com o uso de 
módulos de climatização overhead ou de racks refrigerados diretamente pela passagem 
de um líquido refrigerante. Outros sistemas suplementares também podem ser usados.
 Os sistemas suplementares de climatização são considerados em situações em que o 
sistema de climatização atual não é capaz de retirar toda a carga térmica do ambiente.
14. Em sistemas de climatização que utilizam o piso elevado como duto, o vão livre é fator 
crítico e deve ser levado em consideração nas etapas de projeto e implementação. A 
altura livre do piso elevado deve estar adequada a uma determinada vazão de ar e den-
sidade de calor na computer room. Não há valores especi� cados em normas, porém a 
� gura seguinte apresenta as recomendações da ANSI/TIA-942 para a estrutura de piso 
elevado em data centers.
Respostas dos Exercícios 27
15. As placas perfuradas não devem ser usadas em conjunto com grelhas no mesmo am-
biente para a conformação dos corredores frios. Isso é devido às diferenças entre es-
ses componentes no que diz respeito ao � uxo de ar que cada uma suporta. As grelhas 
deixam passar um � uxo de ar maior que as placas perfuradas e são utilizadas quando 
uma grande massa de ar frio deve ser direcionada a um determinado rack ou gabinete, 
por exemplo.
16. O � uxo de ar por rack em um data center pode ser calculado pela aplicação da seguin-
te expressão:
 Considerando os dados deste exemplo, teremos:
17. As seguintes considerações devem ser observadas quando o ar frio é insu� ado sob o 
piso elevado em data centers: 
  As câmaras de ar formadas pelos vãos livres sob o piso elevado devem ser manti-
das sem obstruções abaixo dos corredores frios.
  A manutenção de um � uxo de ar uniforme pode ser difícil sob o piso elevado.
  A distribuição de ar frio pode não ser uniforme em toda a computer room.
  A recirculação de ar quente devido a racks e gabinetes de alturas diferentes e o bai-
xo pé-direito da computer room pode afetar o desempenho do sistema.
  Placas perfuradas não devem ser usadas em conjunto com grelhas no mesmo am-
biente para a conformação dos corredores frios.
  As aberturas para passagens de cabos para dentro dos racks devem ser seladas.
  O ar frio deve ser sempre insu� ado no corredor pela frente dos racks e gabinetes e 
não por baixo deles.
  Há alguns equipamentos que não podem receber ar frio diretamente pela base do 
rack ou gabinete, por isso o projeto deve prever sempre a insu� ação de ar frio no 
corredor frio.
18. Segundo a norma ANSI/BICSI-002, essa abertura deve ser de 63%. No entanto, outras 
normas podem ter requisitos e recomendações diferentes.
19. Sistemas que usam refrigeração com chillers são normalmente mais e� cientes que 
aqueles que utilizam outros métodos de refrigeração; isso vale apenas para salas de 
computadores muito grandes. Quando utilizados chillers, deve haver dois encanamen-
tos para todas as unidades CRAC/CRAH para garantir o desempenho adequado do 
sistema em casos de falhas no sistema de distribuição de água gelada para esses equi-
pamentos. Deve-se considerar também a implementação de redundância de chillers. 
20. Trata-se de clusters que podem ser implementados dentro da computer room ou po-
dem fazer a função dela (utilização menos comum). De qualquer forma, esses sistemas 
são utilizados para a climatização de regiões bem de� nidas dentro dos data centers 
onde há equipamentos críticos de TI instalados. 
28 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
21. O free cooling é uma arquitetura de climatização que tem a proposta de reduzir o con-
sumo de energia do data center pela utilização do ar à temperatura ambiente para a 
refrigeração do data center. O free cooling pode ser aplicado a data centers de vários 
portes, porém sua utilização mais frequente é em sites pequenos. 
 O free cooling pode ser implementado dentro de contêineres ou em salas de computa-
dores convencionais.
22. 
a. Determinação da carga térmica do data center. A carga térmica desse data center 
será a mesma que a de equipamentos críticos de TI. Assim, sua carga térmica será 
de 350kW.
b. Determinação da carga térmica de PDUs. Aplicamos a seguinte expressão:
Carga térmicaPDU = (0,02.carga nominal do site) . (0,04 carga crítica de TI)
Carga térmicaPDU = (0,02 . 600) . (0,04 . 350) = 26kW
c. Determinação da carga térmica do sistema UPS e baterias:
Carga térmicaUPS = (0,04.carga nominal do site) . (0,06. carga crítica de TI)
 bat
Carga térmicaUPS = (0,04 . 600) . (0,06 . 350) = 45 kW
 bat
d. Determinação da carga térmica de iluminação do data center:
Carga térmicailuminação = 20 . (área da computer room)
Carga térmicailuminação= 20 . (400) = 8kW
e. A Tabela 1, em seguida, apresenta as cargas térmicas do data center do exemplo, 
bem como sua carga térmica total.
Sistema Carga elétrica (kW) Carga térmica (kW)
Equipamentos de TI 350 350 
PDU (distribuição elétrica) (0,02 x 600) + (0,04 x 350) 26
UPS e baterias (0,04 x 600) + (0,06 x 350) 45 
Iluminação 0,02 x 400 8 
Carga total (kW) 429 
Respostas dos Exercícios 29
23. As práticas a seguir são recomendadas para melhorar a e� ciência energética do siste-
ma de climatização de data centers:
  Evitar posicionar o cabeamento (tanto de elétrica quanto o estruturado) sob as 
placas perfuradas; isso causa obstrução à passagem do ar e perda de e� ciência do 
sistema de climatização da computer room.
  Evitar posicionar o cabeamento sob os racks e gabinetes; isso di� culta o acesso ao 
cabeamento para manutenção e retro� t.
  O fechamento das passagens de cabos ajuda a melhorar a e� ciência do sistema de 
climatização da computer room.
  Aberturas deixadas nos racks e gabinetes causam a recirculação de ar quente pelo 
corredor frio, reduzindo a e� ciência do sistema de climatização da computer room.
  A instalação de painéis cegos para fechar as aberturas de racks e gabinetes ajuda a 
manter a e� ciência da climatização da computer room por não permitir o retorno 
de ar quente pelo corredor frio.
  As portas dos gabinetes devem oferecer uma área total de abertura para uma pas-
sagem de ar ótima equivalente a 63% da área total da porta.
24. A sala de baterias não requer climatização, no entanto deve haver exaustão para li-
mitar a concentração de hidrogênio no ambiente. Exaustores redundantes devem ser 
considerados na sala, bem como sistemas de detecção de hidrogênio devem ser consi-
derados nesses ambientes.
25. A pressurização da sala de computadores com ar proveniente do ambiente externo é a 
forma mais e� ciente de controlar a in� ltração de partículas que poderiam vir de am-
bientes adjacentes. 
 Filtros adequados devem ser usados para evitar a entrada de partículas contaminantes 
na sala de computadores. 
 As diretrizes térmicas da ASHRAE especi� cam limites e recomendações ambientais 
para quatro classes de ambientes e a NEBS (Network Equipment Building System) es-
peci� ca limites para equipamentos em operação e desligados. Além disso, as seguintes 
diretrizes devem ser observadas:
  Temperatura e umidade dos espaços usados para o armazenamento de � tas e dis-
cos: recomenda-se a Classe F1 ASHRAE como padrão na maioria dos data centers. 
Limites para a umidade relativa do ar e taxas de troca devem ser considerados.
  Ponto de condensação máximo na computer room: uma consideração prática 
no que diz respeito ao ponto de condensação na computer room é que superfícies 
geladas devem ser evitadas nesse espaço. Quando equipamentos são instalados 
nesse ambiente com a temperatura abaixo do ponto de condensação máximo, há 
condensação na superfície desses equipamentos. O mesmo ocorre com os com-
ponentes da construção da sala quando há isolação térmica insu� ciente das pa-
redes e do teto.
30 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
26. As seguintes normas se aplicam ao projeto e instalação de sistemas de climatização 
para data centers:
  ANSI/TIA-942;
  ANSI/BICSI-002;
  Várias normas ASHRAE.
27. Não como um requisito. Essa norma especifica sistemas de cabeamento estrutura-
do para data centers apenas. Em um de seus anexos, entretanto, ela traz recomen-
dações sobre a infraestrutura para data centers de forma mais ampla e apresenta 
algumas diretrizes térmicas alinhadas com outras normas internacionais.
28. Para melhorar a e� ciência do sistema de climatização. Quando há aberturas que im-
pedem que o � uxo de ar seja direcionado de forma adequada (para manter a topologia 
de corredores frios e quentes), o sistema de climatização é forçado a retirar mais calor 
do ambiente e, portanto, consome mais energia para isso.
29. Sim. Aplicações mais recentes têm demonstrado que mesmo em algumas cidades de 
países como o Brasil, o free cooling pode ser uma boa opção. De forma geral, com 
uma temperatura ambiente de até 22°C é possível utilizar essa técnica. Mesmo que a 
temperatura varie dentro de certos limites em uma dada região, o free cooling pode 
ser adotado em conjunto com outras arquiteturas de climatização. Por exemplo, po-
de-se utilizá-lo durante os horários do dia em que as temperaturas estejam abaixo 
(ou em 22°C), comutando a climatização do site para outro sistema ou mesmo utili-
zando climatização suplementar, nos horários de temperaturas mais elevadas.
Capítulo 6
1. A seguinte topologia de cabeamento deve ser adotada.
2. A Tabela 1, a seguir, apresenta as nomenclaturas mais utilizadas para o cabeamento 
estruturado de data centers. Elas são baseadas em normas NBR e ANSI.
Nomenclatura
ABNT (NBR)
Nomenclatura
ANSI/TIA
Descrição
MD (Distribuidor principal) MDA (Área de distribuição principal)
Distribuidor principal: gera o subsistema 
de backbone do data center.
ZD (Distribuidor de zona) HDA (Área de distribuição horizontal)
Distribuidor de zona: gera o subsistema 
de cabeamento horizontal do data center.
LDP (Ponto de distribuição local) ZDA (Área de distribuição de zona)
Distribuição local; equivalente ao CP 
em um cabeamento convencional.
EO (Tomada de equipamento)
EDA (Área de distribuição de
equipamentos)
Tomada de equipamento: onde é
conectado o equipamento do data
center (servidor ou storage,
tipicamente). A EO fica localizada
dentro da EDA conforme a TIA-942.
Respostas dos Exercícios 31
3. Distribuidor principal é aquele que gera o subsistema de backbone do data center.
4. Por de� nição de normas aplicáveis, os elementos funcionais do cabeamento de um 
data center são:
  interface de rede externa (ENI);
  cabo de acesso à rede;
  distribuidor principal (MD/MDA);
  cabeamento de backbone;
  distribuidor de zona (ZD/HDA);
  cabeamento horizontal;
  ponto de distribuição local (LDP/ZDA);
  cabo do ponto de distribuição local (cabo do LDP, cabo da ZDA);
  tomada de equipamento (EO).
5. Os subsistemas em um sistema de cabeamento estruturado em data centers são:
  Cabeamento horizontal.
  Cabeamento de backbone.
  Cabeamento de acesso à rede.
6. O cabeamento horizontal em um data center é a parte do sistema de cabeamento 
que conecta um distribuidor de zona (ZD/HDA) às tomadas de equipamentos (EO, 
Equipment Outlet) onde são instalados os equipamentos de TI. O esquema a seguir 
apresenta esse subsistema do cabeamento estruturado em um data center.
7. O esquema apresentado em seguida ilustra os componentes do subsistema de cabea-
mento horizontal em um data center.
8. 
  Cabeamento horizontal: 100m (canal completo) independente do meio físico uti-
lizado.
  Cabeamento de backbone: é dependente do meio físico utilizado (cabo), bem 
como de requisitos da aplicação que deve ser implementada nesse subsistema de 
cabeamento. 
9. As normas NBR-14565:2011, ISO/IEC 24764 reconhecem os seguintes cabos para uso 
no subsistema de cabeamento horizontal em data centers:
  cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria
6A/Classe EA (600MHz);
  cabos ópticos multimodo OM3 (50/125µm), otimizados para transmissão laser;
  cabos ópticos monomodo;
  arranjos de cabos do tipo trunking (para cobre e � bra) e com conectores MPO 
(para � bras apenas).
32 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
A norma ANSI/TIA-942 reconhece as seguintes opções de meios físicos para o cabea-
mento horizontal em data centers:
  cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria
5e/Classe D e Categoria 6/Classe E;
  cabos ópticos multimodo OM1 (62,5/125µm)e OM3 (50/125µm);
  cabos ópticos monomodo;
  arranjos de cabos do tipo trunking não são reconhecidos por esta norma.
10. Resposta: Assim como em edifícios comerciais, em data centers há duas formas per-
mitidas para a interconexão do equipamento de TI (os switches, por exemplo) ao ca-
beamento horizontal, que são:
  por meio de conexões cruzadas;
  por meio de interconexão.
A conexão cruzada con� gura-se basicamente pelo espelhamento das saídas do equipa-
mento de TI em um patch panel ou grupos de patch panels de acordo com a quanti-
dade de portas. Esse tipo de con� guração oferece a possibilidade de separação entre os 
equipamentos ativos de TI (switches, por exemplo) e os componentes de distribuição 
do cabeamento (patch panels, por exemplo). A separação pode ser requerida por ques-
tões associadas à segurança e/ou à organização e gerenciamento das conexões.
O método de interconexão, Figura 6.6, pode também ser utilizado para a conexão do 
equipamento ativo de TI ao cabeamento horizontal. Neste caso, os equipamentos ati-
vos têm as extremidades dos patch cords (cordões de equipamentos neste caso) direta-
mente conectadas às suas saídas (portas RJ45, normalmente) e as outras às respectivas 
portas do patch panel correspondente.
11. Quando utilizado um LDP/ZDA no cabeamento horizontal (é importante enfatizar 
que essa técnica não é reconhecida no subsistema de cabeamento de backbone), ele 
pode ser utilizado conforme esquematizado na � gura seguinte.
 O esquema apresentado em (a) consiste no uso de cabos sólidos entre o ZD/HDA e o 
LDP/ZDA e entre este e a EO/EDA. Nessa con� guração, os segmentos de cabos ho-
rizontais terminam em tomadas de equipamentos (EO), às quais são conectados os 
equipamentos de TI por meio de patch cords (cordões de equipamentos, neste caso). 
Note que esses patch cords (mais aqueles usados no distribuidor) não podem exceder 
10m. Por consequência, o subsistema de cabeamento horizontal completo está limita-
do a um comprimento de 100m.
 No esquema apresentado em (b), temos segmentos de cabos sólidos interconectando 
o ZD/HDA ao LDP/ZDA e segmentos de cabos � exíveis multi� lares (como os cabos 
normalmente utilizados em patch cords) interligando o LDP/ZDA aos equipamentos 
de TI diretamente, ou seja, sem haver uma tomada de equipamento (EO) para a cone-
xão dos equipamentos de TI ao subsistema de cabeamento horizontal, como acontece 
no esquema apresentado em (a).
Respostas dos Exercícios 33
12. Neste caso, o comprimento dos patch cords (cordões de equipamentos) pode ser 
maior que o convencional. Como a atenuação dos cabos de pares trançados � exíveis 
sofre degradação em, aproximadamente, 20% em relação aos mesmos parâmetros para 
cabos construídos com condutores sólidos, as normas aplicáveis desenvolvidas pela 
ABNT, ISO/IEC e ANSI/TIA, entre outras, desenvolveram as fórmulas semelhantes 
à apresentada a seguir, para a determinação do comprimento máximo do cordão do 
equipamento de TI no cabeamento horizontal quando utilizado um LDP/ZDA, con-
forme o esquema da � gura (b) da resposta anterior:
Em que:
  C é o comprimento máximo permitido, incluindo os patch cords presentes no dis-
tribuidor de zona (ZD/HDA) e o cordão de equipamento de TI na EDA;
  H é o comprimento de cabo horizontal (H + C < 100m);
  D é o fator de degradação devido à atenuação dos cabos � exíveis e seus valores são 0,2 
para cabos UTP ou F/UTP de bitola 24 AWG e 0,5 para cabos F/UTP de 26 AWG;
  EDA é o comprimento máximo do cordão de equipamento de TI a ser utilizado na 
EDA;
  ZD é o comprimento total dos cabos � exíveis no distribuidor de zona (ZD/HDA) 
tipicamente com comprimento máximo de cinco metros.
Assim, o projetista deve considerar a aplicação da expressão [1] para a determinação 
do comprimento máximo do cordão de equipamentos quando utilizada essa topologia 
de distribuição de cabeamento no data center.
13. Sim; o segmento de cabo entre o distribuidor de zona ZD/HDA e o ponto de distribui-
ção local LDP/ZDA não pode ser inferior a 15m.
14. Este é o conceito das redes FTTD (Fiber To � e Desk, Fibra até a mesa do usuário) 
que consiste no cabeamento óptico conectando o equipamento de TI ao distribuidor 
principal do data center (MD/MDA) e então às tomadas de equipamentos (EO) dire-
tamente sem a utilização de conversores óptico/elétrico (transceivers), ou seja, toda a 
rede é baseada completamente em componentes ópticos (ativos e passivos).
Conforme de� nido em normas aplicáveis, o cabeamento óptico centralizado aplica-se 
somente a instalações dentro de um único data center. A interconexão de dois ou mais 
data centers em um mesmo campus, utilizando essa técnica como diretriz de projeto, 
não está prevista em normas aplicáveis, portanto não é recomendada. Em outras pala-
vras, a técnica de cabeamento óptico centralizado aplica-se somente ao subsistema de 
cabeamento horizontal e ao subsistema de backbone dentro do data center (equiva-
lente ao backbone de edifício em sistemas de cabeamento em edifícios comerciais). A 
implementação dessa técnica pode ser obtida utilizando os seguintes métodos:
  interconexão/emenda;
  pull-through (passagem direta).
34 Data Centers - Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética
15. O comprimento máximo do cabeamento óptico nessa topologia de distribuição com 
o método pull-through é de 100m. Isso é devido ao subsistema de cabeamento imple-
mentado ser o horizontal, cujo comprimento máximo não pode exceder 100m inde-
pendentemente do tipo de cabo utilizado (cobre ou óptico).
16. As � bras ópticas reconhecidas pelas normas aplicáveis para utilização em uma topolo-
gia de cabeamento óptico centralizado são as seguintes:
  � bra óptica multimodo de 62,5/125µm;
  � bra óptica multimodo de 50/125µm;
  � bra óptica multimodo de 50/125µm, otimizada para laser (OM3 e OM4).
17. O cabeamento de backbone é a parte do sistema de cabeamento que interconecta o 
distribuidor principal (MD/MDA) ao distribuidor de zona (ZD/HDA), conforme ilus-
trado na � gura seguinte.
18. A topologia adotada para a implementação do backbone em data centers é a estrela 
com até dois níveis hierárquicos. A � gura a seguir apresenta essa topologia.
19. As conexões entre os distribuidores de edifício e de piso podem ser con� guradas de 
modo a oferecer redundância. A � gura seguinte apresenta como isso pode ser feito.
20. 
  Cabeamento horizontal: as normas NBR-14565:2011, ISO/IEC 24764 reconhe-
cem os seguintes cabos para uso no subsistema de cabeamento horizontal em data 
centers:
• cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria
6A/Classe EA (600MHz);
• cabos ópticos multimodo OM3 (50/125µm), otimizados para transmissão laser;
• cabos ópticos monomodo;
• arranjos de cabos trunking (para cobre e � bra) e com conectores MPO (para 
� bras apenas).
A norma ANSI/TIA-942 reconhece as seguintes opções de meios físicos para o ca-
beamento horizontal em data centers:
• cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria
5e/Classe D e Categoria 6/Classe E;
• cabos ópticos multimodo OM1 (62,5/125µm) e OM3 (50/125µm);
• cabos ópticos monomodo;
• arranjos de cabos do tipo trunking não são reconhecidos por esta norma.
Respostas dos Exercícios 35
  Cabeamento de backbone: as normas NBR-14565:2011, ISO/IEC 24764 reconhe-
cem os seguintes cabos para uso no subsistema de cabeamento de backbone em 
data centers:
• cabos balanceados de quatro pares, 100 ohms, blindados ou não, Categoria
6A/Classe EA (600MHz);
• cabos ópticos multimodo OM3, OM4 (50/125µm), otimizados para transmis-
são laser;
• cabos ópticos monomodo;
• arranjos de cabos trunking (para cobre e � bra) e com conectores MPO (para 
� bras apenas).
A norma ANSI/TIA-942 reconhece as seguintes opções de meios físicos para o cabea-

Outros materiais