Prévia do material em texto
vSphere Storage Atualizar 3 VMware vSphere 7.0 VMware ESXi 7.0 vCenter Server 7.0 Este documento foi traduzido automaticamente do inglês. Se você observar algum erro de tradução, deixe seu feedback na parte inferior da página específica da publicação no VMware Docs. Você pode encontrar a documentação técnica mais atualizada no site da VMware, em: https://docs.vmware.com/br/ VMware, Inc. 3401 Hillview Ave. Palo Alto, CA 94304 www.vmware.com VMware Brasil Rua Surubim, 504 4º andar CEP 04571-050 Cidade Monções São Paulo SÃO PAULO: 04571-050 Brasil Tel: +55 11 55097200 Fax: + 55. 11. 5509-7224 www.vmware.com/br Copyright © 2009-2021 VMware, Inc. Todos os direitos reservados. Informações sobre direitos autorais e marca registrada. vSphere Storage VMware, Inc. Traduzido automaticamente 2 https://docs.vmware.com/br/ https://docs.vmware.com/copyright-trademark.html https://docs.vmware.com/copyright-trademark.html Conteúdo Sobre o vSphere Storage 14 Informações atualizadas 15 1 Introdução ao armazenamento 16 Modelos de virtualização de armazenamento tradicionais 16 Modelos de armazenamento definido por software 18 APIs de armazenamento do vSphere 19 2 Introdução a um modelo de armazenamento tradicional 21 Tipos de armazenamento físico 21 Armazenamento local 21 Armazenamento em rede 22 Representações de destino e de dispositivo 27 Como o Virtual Mac aprimora o Access Storage 28 Características do dispositivo de armazenamento 29 Comparando tipos de armazenamento 32 Adaptadores de armazenamento compatíveis 33 Exibir informações do adaptador de armazenamento 33 Características do repositório de dados 35 Exibir Informações do Repositório de Dados 37 Usando a memória persistente 38 Monitorar as estatísticas do repositório de dados PMem 40 3 Visão geral do uso do ESXi com uma SAN 42 ESXi e casos de uso de SAN 43 Específicos do uso do armazenamento SAN com ESXi 44 ESXi Hosts e várias matrizes de armazenamento 44 Tomando decisões de LUN 44 Usar o esquema preditivo para tomar decisões LUN 45 Usar o esquema adaptativo para tomar decisões LUN 46 Selecionando locais de máquina virtual 46 Aplicativos de gerenciamento de terceiros 47 Considerações de backup do armazenamento SAN 47 Usando pacotes de backup de terceiros 48 4 Usando o ESXi com Fibre Channel SAN 50 Conceitos de SAN Fibre Channel 50 VMware, Inc. Traduzido automaticamente 3 Portas em SAN Fibre Channel 51 Tipos de matriz de armazenamento Fibre Channel 51 Usando o zoneamento com SANs Fibre Channel 52 Como as máquinas virtuais acessam dados em uma SAN Fibre Channel 53 5 Configurando o armazenamento Fibre Channel 54 ESXi Requisitos de SAN Fibre Channel 54 ESXi Restrições à SAN Fibre Channel 55 Definindo alocações de LUN 55 Definindo HBAs Fibre Channel 56 Etapas de instalação e configuração 56 Virtualização de ID de porta N 56 Como o acesso ao LUN baseado em NPIV funciona 57 Requisitos para usar o NPIV 57 Recursos e limitações de NPIV 58 Configurar ou modificar atribuições WWN 58 6 Configurando o Fibre Channel sobre Ethernet 60 Adaptadores Fibre Channel over Ethernet 60 Diretrizes de configuração para o FCoE de software 61 Configurar a rede para o FCoE de software 62 Adicionar Adaptadores FCoE de Software 63 7 Inicializando ESXi pela SAN Fibre Channel 65 Benefícios da inicialização a partir de SAN 65 Requisitos e considerações ao inicializar do SAN Fibre Channel 66 Preparando-se para a inicialização a partir da SAN 66 Configurar componentes de SAN e sistema de armazenamento 67 Configurar o adaptador de armazenamento para inicializar a partir da SAN 68 Configurar o sistema para inicializar a partir da mídia de instalação 68 Configurar o Emulex HBA para inicializar a partir da SAN 69 Ativar o prompt do BootBIOS 69 Ativar o BIOS 69 Configurar o QLogic HBA para inicializar a partir da SAN 70 8 Inicializando ESXi com o Software FCoE 72 Requisitos e considerações para inicialização FCoE de software 72 Configurar a inicialização FCoE do software 73 Configurar os parâmetros de inicialização do FCoE do software 74 Instalar e inicializar ESXi a partir do software FCoE LUN 74 Solucionando problemas de inicialização do a partir do software FCoE para um host ESXi 75 vSphere Storage VMware, Inc. Traduzido automaticamente 4 9 Boas práticas para armazenamento Fibre Channel 76 Prevenção de problemas de SAN Fibre Channel 76 Desativar o registro automático do host ESXi 77 Otimizando o desempenho do armazenamento SAN Fibre Channel 78 Desempenho da matriz de armazenamento 78 Desempenho do servidor com Fibre Channel 78 10 Usando o ESXi com o iSCSI SAN 80 Sobre iSCSI SAN 80 Caminhos múltiplos iSCSI 81 Nós e portas na SAN iSCSI 82 convenções de nomenclatura iSCSI 82 Iniciadores iSCSI 83 Usando o protocolo iSER com ESXi 84 Estabelecendo conexões iSCSI 85 Tipos de sistema de armazenamento iSCSI 85 Descoberta, autenticação e controle de acesso 86 Como as máquinas virtuais acessam dados em uma SAN iSCSI 87 Correção de erros 88 11 Configurando o armazenamento e os adaptadores iSCSI e iSER 90 ESXi Recomendações e restrições da iSCSI SAN 91 Configurando parâmetros iSCSI para adaptadores 91 Configurar adaptadores iSCSI de hardware independentes 93 Exibir adaptadores iSCSI de hardware independentes 93 Editar configurações de rede para iSCSI de hardware 94 Configurar adaptadores iSCSI de hardware dependente 95 Considerações sobre iSCSI de hardware dependente 96 Exibir Adaptadores iSCSI de Hardware Dependente 97 Determinar a associação entre iSCSI e adaptadores de rede 98 Configurar o adaptador iSCSI de software 98 Ativar ou desativar o adaptador iSCSI de software 99 Configurar o iSER com ESXi 100 Instalar e exibir um adaptador de rede compatível com RDMA 101 Habilite o VMware adaptador iSER 102 Modificar propriedades gerais para adaptadores iSCSI ou iSER 105 Configurando a rede para iSCSI e iSER 106 Vários adaptadores de rede na configuração do iSCSI ou do iSER 107 Práticas recomendadas para configurar a rede com software iSCSI 109 Configurar a associação de porta para iSCSI ou iSER 113 Gerenciando a rede iSCSI 117 vSphere Storage VMware, Inc. Traduzido automaticamente 5 Solução de problemas de rede iSCSI 118 Usando quadros jumbo com iSCSI e iSER 118 Habilitar quadros jumbo para rede 119 Habilitar quadros jumbo para iSCSI de hardware independente 119 Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi 120 Remover destinos iSCSI dinâmicos ou estáticos 121 Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER 122 Selecionando o método de autenticação CHAP 122 Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER 124 Configurar o CHAP para o destino 125 Configurando parâmetros avançados para iSCSI 127 Configurar parâmetros avançados para iSCSI no host ESXi 128 iSCSI Session Management 129 Revisar Sessões iSCSI 130 Adicionar Sessões iSCSI 130 Remover Sessões iSCSI 131 12 Inicializando a partir do iSCSI SAN 132 Recomendações gerais para inicialização a partir de iSCSI SAN 132 Preparar a SAN iSCSI 133 Configurar o adaptador iSCSI de hardware independente para inicialização por SAN 134 Definir as configurações de inicialização do iSCSI 134 13 Boas práticas para armazenamento iSCSI 136 Prevenção de problemas de SAN iSCSI 136 Otimizando o desempenho do armazenamento iSCSI SAN 137 Desempenho do sistema de armazenamento 137 Desempenho do servidor com iSCSI 138 Desempenho da rede 139 Verificando as estatísticas do switch Ethernet 141 14 Gerenciamento de dispositivos de armazenamento 143 Características do dispositivo de armazenamento 143 Exibir dispositivos de armazenamento para um host ESXi 145 Exibir dispositivos de armazenamento para um adaptador 146 Formatos de setor de dispositivo 146 Identificadores e nomes de dispositivos de armazenamento 148 Dispositivos NVMe com identificadores de dispositivo NGUID 150 Atualizar hosts ESXi sem estado com dispositivos NVMe somente NGUID para a versão7.0.x 151 Renomear dispositivos de armazenamento 153 Operações de nova verificação de armazenamento 154 vSphere Storage VMware, Inc. Traduzido automaticamente 6 Executar nova verificação de armazenamento 155 Executar nova verificação do adaptador 155 Alterar o número de dispositivos de armazenamento verificados 155 Identificando problemas de conectividade do dispositivo 156 Detectando condições de PDL 157 Realizando a remoção do dispositivo de armazenamento planejado 158 Recuperando-se de condições de PDL 160 Como lidar com condições transitórias de APD 160 Verificar o status da conexão de um dispositivo de armazenamento no host ESXi 163 Ativar ou desativar o localizador LED em ESXi dispositivos de armazenamento 163 Apagar dispositivos de armazenamento 164 Alterar as configurações de reserva perene 164 15 Trabalhando com dispositivos flash 166 Marcando dispositivos de armazenamento 167 Marcar dispositivos de armazenamento como flash 168 Marcar dispositivos de armazenamento como locais 168 Monitorar dispositivos flash 169 Boas práticas para dispositivos flash 169 Estimativa da vida útil dos dispositivos flash 169 Sobre o recurso de flash virtual 171 Considerações para o recurso Flash Virtual 171 Configurar recurso de flash virtual 171 Remover recurso de flash virtual 172 Definir alarme para uso do flash virtual 173 Configurar o cache do host com o repositório de dados VMFS 173 Mantendo os discos flash livres de VMFS 174 16 Sobre o armazenamento NVMe VMware 176 VMware Conceitos NVMe 176 Arquitetura e componentes básicos do VMware NVMe 178 Requisitos e limitações do VMware armazenamento NVMe 181 Configurando a Ethernet sem perdas para NVMe sobre RDMA 183 Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2) 184 Exibir Adaptadores de Rede RDMA 185 Configurar VMkernel Binding para o adaptador RDMA 186 Configurar adaptadores para NVMe sobre armazenamento TCP 194 Configurar VMkernel Binding para o adaptador TCP 194 Habilitar NVMe sobre RDMA e adaptadores de software TCP 200 Adicionar controlador para NVMe sobre telas 201 Remover NVMe sobre RDMA e adaptadores de software TCP 202 vSphere Storage VMware, Inc. Traduzido automaticamente 7 17 Trabalhando com repositórios de dados 204 Tipos de datastores 204 Noções básicas sobre repositórios de dados VMFS 206 Versões dos repositórios de dados VMFS 206 Repositórios de dados VMFS como repositórios 208 Compartilhando um repositório de dados VMFS entre hosts 209 Atualizações de Metadados do VMFS 210 Mecanismos de bloqueio do VMFS 210 Formatos de snapshot no VMFS 215 Atualizando repositórios de dados VMFS 216 Noções básicas sobre repositórios de dados do sistema de arquivos de rede 217 Protocolos NFS e ESXi 217 Diretrizes e requisitos de armazenamento NFS 219 Configurações de firewall para armazenamento NFS 223 Usando conexões roteadas de camada 3 para acessar o armazenamento NFS 225 Usando o Kerberos para NFS 4.1 225 Configurar o ambiente de armazenamento NFS 226 Configurar ESXi hosts para autenticação Kerberos 227 Coletando informações estatísticas para armazenamento NFS 230 Criação de repositórios de dados 231 Criar um repositório de dados VMFS 231 Criar um repositório de dados NFS 233 Criar um repositório de dados vVols 235 Gerenciando repositórios de dados VMFS duplicados 235 Montar uma cópia do datastore do VMFS 236 Aumentar a capacidade do repositório de dados VMFS 237 Habilitar ou desabilitar o suporte para discos virtuais clusterizados no datastore VMFS6 239 Operações administrativas para datastores 240 Alterar o nome do datastore 241 Desmontar repositórios de dados 241 Montar repositórios de dados 242 Remover repositórios de dados VMFS 243 Usar o navegador do repositório de dados 244 Desativar filtros de armazenamento 248 Configurar o espelhamento de disco dinâmico 249 Coletando informações de diagnóstico para ESXi hosts em um datastore VMFS 250 Configurar um arquivo como local de despejo de memória 251 Desativar e excluir um arquivo de despejo de memória 253 Verificando a consistência dos metadados com o VOMA 253 Usar VOMA para verificar a consistência de metadados 256 Configurando o cache de blocos de ponteiros do VMFS 257 vSphere Storage VMware, Inc. Traduzido automaticamente 8 Obter informações para o cache de blocos de ponteiros do VMFS 258 Alterar o tamanho do cache do bloco de ponteiros 259 18 Noções básicas sobre caminhos múltiplos e failover 261 Failover com Fibre Channel 261 Failover baseado em host com iSCSI 262 Failover baseado em matriz com iSCSI 264 Failover de caminho e máquinas virtuais 265 Definir tempo limite no SO convidado do Windows 266 Arquitetura de armazenamento conectável e gerenciamento de caminhos 266 Sobre a arquitetura de armazenamento conectável 268 VMware Plug-in de vários caminhos nativos 269 Plug-ins e políticas de seleção de caminho 271 VMware SATPs 273 VMware Esquemas de seleção de caminho e plug-in de alto desempenho 275 Como visualizar e gerenciar caminhos 282 Exibir caminhos de dispositivo de armazenamento 283 Exibir caminhos do repositório de dados 283 Alterar a política de seleção de caminho 284 Alterar parâmetros padrão para robin round de latência 285 Desativar caminhos de armazenamento 286 Usando regras de reivindicação 286 Considerações sobre vários caminhos 287 Listar regras de reivindicação de caminhos múltiplos para o host 288 Adicionar regras de reivindicação de vários caminhos 289 Excluir regras de reivindicação de vários caminhos 293 Caminhos de máscara 294 Desmascarar Caminhos 296 Definir regras de SATP do NMP 296 Agendamento de filas para E / Ss da máquina virtual 298 Editar agendamento de E / S por arquivo no vSphere Client 298 Usar comandos esxcli para ativar ou desativar o agendamento de E / S por arquivo 299 19 Mapeamento de dispositivo bruto 301 Sobre o mapeamento de dispositivos brutos 301 Benefícios do mapeamento de dispositivos brutos 302 Considerações e limitações do RDM 305 Características de mapeamento de dispositivo bruto 305 Modos de compatibilidade física e virtual de RDM 305 Resolução de nome dinâmico 306 Mapeamento de dispositivo bruto com clusters de máquina virtual 306 vSphere Storage VMware, Inc. Traduzido automaticamente 9 Comparando modos de acesso ao dispositivo SCSI disponíveis 307 Criar máquinas virtuais com RDMs 307 Gerenciar caminhos para um LUN mapeado 309 Máquinas virtuais com RDMs devem ignorar o cache do SCSI INQUIRY 310 20 Gerenciamento baseado em políticas de armazenamento 312 Políticas de armazenamento de máquina virtual 313 Fluxo de trabalho para políticas de armazenamento de máquina virtual 313 Preenchendo a interface de políticas de armazenamento de VM 314 Usar provedores de armazenamento para preencher a interface de políticas de armazenamento de VM 315 Atribuir tags a datastores 316 Sobre regras e conjuntos de regras 318 Criando e gerenciando políticas de armazenamento de VM 320 Criar uma política de armazenamento de VM para serviços de dados baseados em host 321 Criar uma política de armazenamento de VM para vVols 323 Criar uma política de armazenamento de VM para posicionamento baseado em tag 325 Editar ou clonar uma política de armazenamento de VM 327 Sobre os componentes da política de armazenamento 327 Criar componentes de política de armazenamento 329 Editar ou clonar componentes de política de armazenamento 330 Políticas de armazenamento e máquinas virtuais 331 Atribuir políticas de armazenamento a máquinas virtuais 331 Alterar a atribuição de política de armazenamento para arquivos e discos de máquina virtual 333 Verificar a conformidade de uma política de armazenamento de VM 334 Localizar recurso de armazenamento compatível para máquina virtual fora de conformidade 335 Reaplicar política de armazenamento de máquina virtual 336 Políticas de armazenamento padrão 336 Alterar a política de armazenamento padrão para um datastore 337 21 Usando provedores de armazenamento 339 Sobre os provedoresde armazenamento 339 Provedores de armazenamento e representação de dados 340 Requisitos e considerações do provedor de armazenamento 341 Registrar provedores de armazenamento 342 Exibir informações do provedor de armazenamento 343 Gerenciar provedores de armazenamento 343 22 Trabalhando com VMware vSphere Virtual Volumes (vVols) 345 Sobre o vVols 345 vSphere Storage VMware, Inc. Traduzido automaticamente 10 vVols Conceitos 346 Objetos de volume virtual 347 vVols Provedores de Armazenamento 349 vVols Contentores de armazenamento 350 Protocolo Endpoints 351 Vinculando e desvinculando volumes virtuais a endpoints de protocolo 351 vVols Repositórios de dados 352 vVols e políticas de armazenamento de VM 353 vVols e protocolos de armazenamento 353 Arquitetura do vVols 355 vVols e VMware Certificate Authority 357 Instantâneos de volume virtual 358 Antes de ativar vVols 359 Sincronizar o vSphere Storage Environment com um servidor de horário de rede 360 Configurar o vVols 360 Registrar provedores de armazenamento para vVols 361 Criar um repositório de dados vVols 362 Revisar e gerenciar endpoints de protocolo 363 Alterar a política de seleção de caminho para um endpoint de protocolo 363 Provisionar máquinas virtuais em repositórios de dados vVols 364 vVols e Replicação 365 Requisitos para replicação com vVols 366 vVols e grupos de replicação 367 vVols e domínios de falha 367 vVols Fluxo de trabalho de replicação 369 Diretrizes de replicação e considerações 370 Boas práticas para trabalhar com vVols 371 Diretrizes e limitações ao usar vVols 371 Boas práticas para provisionamento de contêineres de armazenamento 372 Boas práticas para o desempenho de vVols 373 Solucionando problemas do vVols 374 Comandos vVols e esxcli 375 Coletando informações estatísticas para vVols 375 vVols Datastore está inacessível 376 Falhas ao migrar VMs ou implantar OVFs de VM para repositórios de dados vVols 377 23 Filtrando a E / S da máquina virtual 378 Sobre os filtros de E / S 378 Tipos de filtros de E / S 379 Componentes de filtragem de E / S 380 Provedores de armazenamento para filtros de E / S 381 vSphere Storage VMware, Inc. Traduzido automaticamente 11 Usando dispositivos de armazenamento Flash com filtros de cache de E / S 382 Requisitos do sistema para filtros de E / S 383 Configurar filtros de E / S no ambiente vSphere 383 Instalar filtros de E / S em um cluster 384 Exibir filtros de E / S e provedores de armazenamento 384 Habilitar os serviços de dados de filtro de E / S em discos virtuais 385 Atribuir a política de filtro de E / S a máquinas virtuais 386 Gerenciamento de filtros de E / S 387 Desinstalar filtros de E / S de um cluster 388 Atualizar filtros de E / S em um cluster 388 Diretrizes e práticas recomendadas do filtro de E / S 389 Migrando máquinas virtuais com filtros de E / S 390 Como lidar com falhas de instalação do filtro de E / S 390 Instalar filtros de E / S em um único host ESXi 391 24 Aceleração de hardware de armazenamento 392 Benefícios da aceleração de hardware 392 Requisitos de aceleração de hardware 393 Status de suporte à aceleração de hardware 393 Aceleração de hardware para dispositivos de armazenamento de bloco 393 Desativar a aceleração de hardware para dispositivos de armazenamento de bloco 394 Gerenciamento da aceleração de hardware em dispositivos de armazenamento de bloco 395 Aceleração de hardware em dispositivos NAS 400 Habilitar snapshots nativos de NAS em máquinas virtuais 402 Considerações de aceleração de hardware 403 25 Provisionamento de armazenamento e recuperação de espaço 404 Provisionamento dinâmico de discos virtuais 404 Sobre as políticas de provisionamento de disco virtual 405 Criar discos virtuais provisionados finos 406 Exibir Recursos de Armazenamento da Máquina Virtual 407 Determinar o formato do disco de uma máquina virtual 408 Inflar discos virtuais finos 408 Manipulando a assinatura excessiva do repositório de dados 409 ESXi e provisionamento dinâmico de matriz 410 Monitorando o uso do espaço 410 Identificar dispositivos de armazenamento com provisionamento dinâmico 411 Recuperação do espaço de armazenamento 412 Solicitações de recuperação de espaço de repositórios de dados VMFS 414 Solicitações de recuperação de espaço de sistemas operacionais convidados 419 vSphere Storage VMware, Inc. Traduzido automaticamente 12 26 Introdução ao Cloud Native Storage 421 Cloud Native Storage Conceitos e terminologia 421 Componentes do Cloud Native Storage 424 Usando o vSAN File Service para provisionar volumes de arquivos 427 Cloud Native Storage Usuários 428 Cloud Native Storage for vSphere Administrators 429 Requisitos e limitações de Cloud Native Storage 429 Cloud Native Storage Funções e privilégios 434 Criar uma política de armazenamento para o Kubernetes 435 Configurar máquinas virtuais de cluster do Kubernetes 437 Monitorar volumes de contêiner em clusters do Kubernetes 438 Usar criptografia com armazenamento nativo da nuvem 439 27 Usando vmkfstools 441 Sintaxe do comando vmkfstools 441 As opções de comando vmkfstools 442 -v Suboption 443 Opções do sistema de arquivos 443 Opções de disco virtual 446 Opções do dispositivo de armazenamento 453 vSphere Storage VMware, Inc. Traduzido automaticamente 13 Sobre o vSphere Storage O vSphere Storage descreve as tecnologias de armazenamento virtualizado e definido por software que o VMware ESXi™ e o VMware vCenter Server® oferecem e explica como configurar e usar essas tecnologias. Em VMware, valorizamos a inclusão. Para promover esse princípio dentro de nossa comunidade de clientes, parceiros e interna, criamos conteúdo usando uma linguagem inclusiva. Público-alvo Estas informações são para administradores de sistema experientes que estão familiarizados com as tecnologias de virtualização de armazenamento e máquina virtual, operações de centro de dados e conceitos de armazenamento SAN. VMware, Inc. Traduzido automaticamente 14 Informações atualizadas Este vSphere Storage é atualizado a cada nova versão do produto ou quando necessário. Esta tabela fornece o histórico de atualizações do vSphere Storage . Revisão Descrição 29 DE OUT DE 2021 Pequenas atualizações. 21 DE OUT DE 2021 Atualização de Configurando o acesso à rede para o compartilhamento de arquivos do vSAN para indicar que o uso de um vNIC dedicado para o tráfego de arquivos não é obrigatório. 05 DE OUT DE 2021 Versão inicial. VMware, Inc. Traduzido automaticamente 15 Introdução ao armazenamento 1 O vSphere oferece suporte a várias opções de armazenamento e funcionalidades em ambientes de armazenamento tradicionais e definidos por software. Uma visão geral de alto nível dos elementos e aspectos de armazenamento do vSphere ajuda você a planejar uma estratégia de armazenamento adequada para o seu centro de dados virtual. Este capítulo inclui os seguintes tópicos: n Modelos de virtualização de armazenamento tradicionais n Modelos de armazenamento definido por software n APIs de armazenamento do vSphere Modelos de virtualização de armazenamento tradicionais Geralmente, a virtualização de armazenamento refere-se a uma abstração lógica de recursos de armazenamento físico e capacidades de máquinas virtuais e seus aplicativos. O ESXi fornece virtualização de armazenamento em nível de host. No ambiente do vSphere , um modelo tradicional é criado em torno das seguintes tecnologias de armazenamento e ESXi e vCenter Server funcionalidades de virtualização. Armazenamento local e em rede Em ambientes de armazenamento tradicionais, o ESXi processo de gerenciamento de armazenamento começa com o espaço de armazenamento que seu administrador de armazenamento pré-aloca em diferentes sistemas de armazenamento. O ESXi oferece suporte ao armazenamento local e ao armazenamento em rede. Consulte Tipos de armazenamento físico. Redes de área de armazenamento Uma rede de área de armazenamento (SAN) é uma rede de alta velocidade especializadaque conecta sistemas de computador, ou ESXi hosts, a sistemas de armazenamento de alto desempenho. O ESXi pode usar protocolos Fibre Channel ou iSCSI para se conectar a sistemas de armazenamento. Consulte Capítulo 3 Visão geral do uso do ESXi com uma SAN. Fibre Channel VMware, Inc. Traduzido automaticamente 16 O Fibre Channel (FC) é um protocolo de armazenamento que o SAN usa para transferir o tráfego de dados dos servidores host do ESXi para o armazenamento compartilhado. O protocolo empacota comandos SCSI em quadros FC. Para se conectar ao FC SAN, seu host usa adaptadores de barramento de host Fibre Channel (HBAs). Consulte Capítulo 4 Usando o ESXi com Fibre Channel SAN. Internet SCSI Internet iSCSI (iSCSI) é um transporte SAN que pode usar conexões Ethernet entre sistemas de computador, ou ESXi hosts, e sistemas de armazenamento de alto desempenho. Para se conectar aos sistemas de armazenamento, seus hosts usam adaptadores iSCSI de hardware ou iniciadores iSCSI de software com adaptadores de rede padrão. Consulte Capítulo 10 Usando o ESXi com o iSCSI SAN. Dispositivo de armazenamento ou LUN No contexto do ESXi, os termos dispositivo e LUN são usados de forma intercambiável. Normalmente, ambos os termos significam um volume de armazenamento que é apresentado ao host a partir de um sistema de armazenamento em bloco e está disponível para formatação. Consulte Representações de destino e de dispositivo e Capítulo 14 Gerenciamento de dispositivos de armazenamento. Discos Virtuais Uma máquina virtual em um host ESXi usa um disco virtual para armazenar seu sistema operacional, arquivos de aplicativo e outros dados associados a suas atividades. Os discos virtuais são arquivos físicos grandes, ou conjuntos de arquivos, que podem ser copiados, movidos, arquivados e copiados como qualquer outro arquivo. Você pode configurar máquinas virtuais com vários discos virtuais. Para acessar discos virtuais, uma máquina virtual usa controladores SCSI virtuais. Esses controladores virtuais incluem BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS e VMware Paravirtual. Esses controladores são os únicos tipos de controladores SCSI que uma máquina virtual pode ver e acessar. Cada disco virtual reside em um datastore que é implantado no armazenamento físico. Do ponto de vista da máquina virtual, cada disco virtual aparece como se fosse uma unidade SCSI conectada a um controlador SCSI. O fato de o armazenamento físico ser acessado por meio de adaptadores de armazenamento ou de rede no host normalmente é transparente para o sistema operacional convidado da VM e os aplicativos. VMware vSphere® VMFS Os datastores que você implanta em dispositivos de armazenamento em bloco usam o formato nativo do vSphere Virtual Machine File System (VMFS). É um formato de sistema de arquivos de alto desempenho que é otimizado para o armazenamento de máquinas virtuais. Consulte Noções básicas sobre repositórios de dados VMFS. vSphere Storage VMware, Inc. Traduzido automaticamente 17 NFS Um cliente NFS integrado ao ESXi usa o protocolo Network File System (NFS) sobre TCP / IP para acessar um volume NFS localizado em um servidor NAS. O host ESXi pode montar o volume e usá-lo como um armazenamento de dados NFS. Consulte Noções básicas sobre repositórios de dados do sistema de arquivos de rede. Mapeamento de dispositivo bruto Além dos discos virtuais, o vSphere oferece um mecanismo chamado de mapeamento de dispositivo bruto (RDM). O RDM é útil quando um sistema operacional convidado dentro de uma máquina virtual requer acesso direto a um dispositivo de armazenamento. Para obter informações sobre RDMs, consulte Capítulo 19 Mapeamento de dispositivo bruto. Modelos de armazenamento definido por software Além de abstrair as capacidades de armazenamento subjacentes das VMs, como fazem os modelos de armazenamento tradicionais, o armazenamento definido por software abstrai os recursos de armazenamento. Com o modelo de armazenamento definido por software, uma máquina virtual se torna uma unidade de provisionamento de armazenamento e pode ser gerenciada por meio de um mecanismo flexível baseado em políticas. O modelo envolve as seguintes vSphere tecnologias. VMware vSphere® Virtual Volumes™ (vVols) A funcionalidade vVols altera o paradigma de gerenciamento de armazenamento de gerenciar o espaço dentro de repositórios de dados para gerenciar objetos de armazenamento abstratos manipulados por matrizes de armazenamento. Com o vVols, uma máquina virtual individual, não o repositório de dados, torna-se uma unidade de gerenciamento de armazenamento. E o hardware de armazenamento obtém controle completo sobre o conteúdo, layout e gerenciamento do disco virtual. Consulte Capítulo 22 Trabalhando com VMware vSphere Virtual Volumes (vVols). VMware vSAN vSAN é uma camada distribuída de software que é executada de forma nativa como parte do hipervisor. vSAN agrega dispositivos de capacidade local ou de conexão direta de um cluster de host ESXi e cria um único pool de armazenamento compartilhado em todos os hosts no cluster vSAN. Consulte o Administrando VMware vSAN . Gerenciamento baseado em políticas de armazenamento O Storage Policy Based Management (SPBM) é uma estrutura que fornece um único painel de controle em vários serviços de dados e soluções de armazenamento, incluindo vSAN e vVols. Usando políticas de armazenamento, a estrutura alinha as demandas de aplicativos de suas máquinas virtuais com os recursos fornecidos por entidades de armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 18 Consulte Capítulo 20 Gerenciamento baseado em políticas de armazenamento. Filtros de E / S Os filtros de E / S são componentes de software que podem ser instalados em ESXi hosts e podem oferecer serviços de dados adicionais para máquinas virtuais. Dependendo da implementação, os serviços podem incluir replicação, criptografia, cache e assim por diante. Consulte Capítulo 23 Filtrando a E / S da máquina virtual. APIs de armazenamento do vSphere As APIs de armazenamento são uma família de APIs usadas por provedores de hardware, software e armazenamento de terceiros para desenvolver componentes que aprimoram vários recursos e soluções do vSphere. Esta publicação de armazenamento descreve várias APIs de armazenamento que contribuem para o seu ambiente de armazenamento. Para obter informações sobre outras APIs dessa família, incluindo vSphere APIs - Data Protection, consulte o site VMware. APIs do vSphere para reconhecimento de armazenamento Também conhecidas como VASA, essas APIs, fornecidas por terceiros ou oferecidas por VMware, permitem comunicações entre vCenter Server e o armazenamento subjacente. Por meio do VASA, as entidades de armazenamento podem informar vCenter Server sobre suas configurações, recursos e integridade e eventos de armazenamento. Em troca, o VASA pode fornecer requisitos de armazenamento de VM de vCenter Server para uma entidade de armazenamento e garantir que a camada de armazenamento atenda aos requisitos. O VASA se torna essencial quando você trabalha com vVols, vSAN, APIs do vSphere para filtragem de E / S (VAIO) e políticas de VM de armazenamento. Consulte o Capítulo 21 Usando provedores de armazenamento. APIs do vSphere para integração de matriz Essas APIs, também conhecidas como VAAI, incluem os seguintes componentes: n APIs de aceleração de hardware. Ajude as matrizes a serem integradas ao vSphere, para que o vSphere possa descarregar determinadas operações de armazenamento para a matriz. Essa integração reduz significativamente a sobrecarga da CPU no host. Consulte Capítulo 24 Aceleração de hardware de armazenamento. n APIs de provisionamento dinâmico de matriz. Ajuda a monitorar o uso de espaço em matrizes de armazenamento com provisionamento dinâmico para evitar condições de falta de espaço e para executar a recuperação de espaço. Consulte ESXi e provisionamento dinâmico de matriz. vSphere Storage VMware,Inc. Traduzido automaticamente 19 APIs do vSphere para caminhos múltiplos Conhecidas como Arquitetura de Armazenamento Conectável (PSA), essas APIs permitem que os parceiros de armazenamento criem e entreguem plug-ins de vários caminhos e balanceamento de carga otimizados para cada matriz. Os plug-ins se comunicam com matrizes de armazenamento e determinam a melhor estratégia de seleção de caminho para aumentar o desempenho de E / S e a confiabilidade do host ESXi para a matriz de armazenamento. Para obter mais informações, consulte Arquitetura de armazenamento conectável e gerenciamento de caminhos. vSphere Storage VMware, Inc. Traduzido automaticamente 20 Introdução a um modelo de armazenamento tradicional 2 A configuração do seu armazenamento ESXi em ambientes tradicionais do inclui a configuração de seus sistemas e dispositivos de armazenamento, a habilitação de adaptadores de armazenamento e a criação de repositórios de dados. Este capítulo inclui os seguintes tópicos: n Tipos de armazenamento físico n Adaptadores de armazenamento compatíveis n Características do repositório de dados n Usando a memória persistente Tipos de armazenamento físico Em ambientes de armazenamento tradicionais, o processo de gerenciamento de armazenamento ESXi começa com o espaço de armazenamento que o administrador de armazenamento pré- aloca em diferentes sistemas de armazenamento. ESXi é compatível com armazenamento local e armazenamento em rede. Armazenamento local O armazenamento local pode ser discos rígidos internos localizados dentro do host ESXi. Ele também pode incluir sistemas de armazenamento externo localizados fora do e conectados ao host diretamente por meio de protocolos como SAS ou SATA. O armazenamento local não requer uma rede de armazenamento para se comunicar com o host. Você precisa de um cabo conectado à unidade de armazenamento e, quando necessário, de um HBA compatível em seu host. A ilustração a seguir mostra uma máquina virtual usando armazenamento SCSI local. VMware, Inc. Traduzido automaticamente 21 Figura 2-1. Armazenamento local ESXi Host vmdk SCSI Device VMFS Neste exemplo de topologia de armazenamento local, o host ESXi usa uma única conexão com um dispositivo de armazenamento. Nesse dispositivo, você pode criar um repositório de dados VMFS, usado para armazenar arquivos de disco da máquina virtual. Embora essa configuração de armazenamento seja possível, ela não é uma prática recomendada. O uso de conexões únicas entre dispositivos de armazenamento e hosts cria pontos únicos de falha (SPOF) que podem causar interrupções quando uma conexão se torna não confiável ou falha. No entanto, como a maioria dos dispositivos de armazenamento local não oferece suporte a várias conexões, não é possível usar vários caminhos para acessar o armazenamento local. O ESXi é compatível com vários dispositivos de armazenamento local, incluindo dispositivos SCSI, IDE, SATA, USB, SAS, flash e NVMe. Observação Você não pode usar unidades IDE / ATA ou USB para armazenar máquinas virtuais. O armazenamento local não oferece suporte ao compartilhamento entre vários hosts. Apenas um host tem acesso a um repositório de dados em um dispositivo de armazenamento local. Como resultado, embora você possa usar o armazenamento local para criar VMs, não é possível usar VMware recursos que exigem armazenamento compartilhado, como HA e vMotion. No entanto, se você usar um cluster de hosts que têm apenas dispositivos de armazenamento locais, poderá implementar vSAN. vSAN transforma recursos de armazenamento local em armazenamento compartilhado definido por software. Com o vSAN, você pode usar recursos que exigem armazenamento compartilhado. Para obter detalhes, consulte a documentação do Administrando VMware vSAN . Armazenamento em rede O armazenamento em rede consiste em sistemas de armazenamento externo que seu host do ESXi usa para armazenar arquivos da máquina virtual remotamente. Normalmente, o host acessa esses sistemas em uma rede de armazenamento de alta velocidade. vSphere Storage VMware, Inc. Traduzido automaticamente 22 Os dispositivos de armazenamento em rede são compartilhados. Os datastores em dispositivos de armazenamento em rede podem ser acessados por vários hosts simultaneamente. O ESXi oferece suporte a várias tecnologias de armazenamento em rede. Além do armazenamento em rede tradicional abordado neste tópico, o VMware oferece suporte ao armazenamento compartilhado virtualizado, como o vSAN. O vSAN transforma os recursos de armazenamento interno de seus hosts do ESXi em armazenamento compartilhado que fornece recursos como alta disponibilidade e vMotion para máquinas virtuais. Para obter detalhes, consulte a documentação do Administrando VMware vSAN . Observação O mesmo LUN não pode ser apresentado a um host ESXi ou a vários hosts por meio de protocolos de armazenamento diferentes. Para acessar o LUN, os hosts devem sempre usar um único protocolo, por exemplo, somente Fibre Channel ou somente iSCSI. Fibre Channel (FC) Armazena arquivos de máquina virtual remotamente em uma rede de área de armazenamento (SAN) FC. FC SAN é uma rede de alta velocidade especializada que conecta seus hosts a dispositivos de armazenamento de alto desempenho. A rede usa o protocolo Fibre Channel para transportar o tráfego SCSI de máquinas virtuais para os dispositivos FC SAN. Para se conectar ao FC SAN, seu host deve estar equipado com adaptadores de barramento de host Fibre Channel (HBAs). A menos que você use o armazenamento de conexão direta Fibre Channel, você precisa de switches Fibre Channel para rotear o tráfego de armazenamento. Se o seu host contiver adaptadores FCoE (Fibre Channel over Ethernet), você poderá se conectar aos seus dispositivos Fibre Channel compartilhados usando uma rede Ethernet. Observação A partir do vSphere 7.0, o VMware não é mais compatível com o software FCoE em ambientes de produção. O armazenamento de canal de fibra descreve máquinas virtuais usando armazenamento de canal de fibra. vSphere Storage VMware, Inc. Traduzido automaticamente 23 Figura 2-2. Armazenamento de canal de fibra ESXi Host vmdk Fibre Channel Array VMFS SAN Fibre Channel HBA Nessa configuração, um host se conecta a uma malha SAN, que consiste em switches Fibre Channel e matrizes de armazenamento, usando um adaptador Fibre Channel. Os LUNs de uma matriz de armazenamento se tornam disponíveis para o host. Você pode acessar os LUNs e criar repositórios de dados para suas necessidades de armazenamento. Os datastores usam o formato VMFS. Para obter informações específicas sobre como configurar o SAN Fibre Channel, consulte Capítulo 4 Usando o ESXi com Fibre Channel SAN. Internet SCSI (iSCSI) Armazena arquivos da máquina virtual em dispositivos de armazenamento iSCSI remotos. O iSCSI empacota o tráfego de armazenamento SCSI no protocolo TCP / IP, para que ele possa viajar através de redes TCP / IP padrão em vez da rede FC especializada. Com uma conexão iSCSI, seu host atua como o iniciador que se comunica com um destino, localizado em sistemas de armazenamento iSCSI remotos. O ESXi oferece os seguintes tipos de conexões iSCSI: Hardware iSCSI vSphere Storage VMware, Inc. Traduzido automaticamente 24 Seu host se conecta ao armazenamento por meio de um adaptador de terceiros capaz de descarregar o iSCSI e o processamento de rede. Os adaptadores de hardware podem ser dependentes e independentes. Software iSCSI Seu host usa um iniciador iSCSI baseado em software no VMkernel para se conectar ao armazenamento. Com esse tipo de conexão iSCSI, seu host precisa apenas de um adaptador de rede padrão para conectividade de rede. Você deve configurar os iniciadores iSCSI para que o host acesse e exiba os dispositivos de armazenamento iSCSI. O armazenamento iSCSI descreve diferentes tipos de iniciadores iSCSI. Figura 2-3. Armazenamento iSCSI iSCSI Array VMFS VMFS LAN LAN iSCSI HBA Ethernet NIC ESXiHost Software Adapter vmdk vmdk No exemplo à esquerda, o host usa o adaptador iSCSI de hardware para se conectar ao sistema de armazenamento iSCSI. No exemplo correto, o host usa um adaptador de software iSCSI e uma NIC Ethernet para se conectar ao armazenamento iSCSI. Os dispositivos de armazenamento iSCSI do sistema de armazenamento se tornam disponíveis para o host. Você pode acessar os dispositivos de armazenamento e criar datastores VMFS para suas necessidades de armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 25 Para obter informações específicas sobre como configurar o SAN iSCSI, consulte Capítulo 10 Usando o ESXi com o iSCSI SAN. Armazenamento conectado à rede (NAS) Armazena arquivos da máquina virtual em servidores de arquivos remotos acessados por uma rede TCP / IP padrão. O cliente NFS integrado ao ESXi usa o protocolo Network File System (NFS) versão 3 e 4.1 para se comunicar com os servidores NAS / NFS. Para conectividade de rede, o host requer um adaptador de rede padrão. Você pode montar um volume NFS diretamente no host ESXi. Em seguida, use o datastore NFS para armazenar e gerenciar máquinas virtuais da mesma maneira que usa os datastores VMFS. O armazenamento NFS descreve uma máquina virtual usando o armazenamento de dados NFS para armazenar seus arquivos. Nessa configuração, o host se conecta ao servidor NAS, que armazena os arquivos do disco virtual, por meio de um adaptador de rede regular. Figura 2-4. Armazenamento NFS ESXi Host NAS Appliance vmdk NFS LAN Ethernet NIC Para obter informações específicas sobre como configurar o armazenamento NFS, consulte Noções básicas sobre repositórios de dados do sistema de arquivos de rede. vSphere Storage VMware, Inc. Traduzido automaticamente 26 Shared Serial Attached SCSI (SAS) Armazena máquinas virtuais em sistemas de armazenamento SAS conectados diretamente que oferecem acesso compartilhado a vários hosts. Esse tipo de acesso permite que vários hosts acessem o mesmo datastore VMFS em um LUN. NVMe sobre armazenamento de telas O VMware NVMe sobre Fabrics (NVMe-oF) fornece uma conectividade de distância entre um host e um dispositivo de armazenamento de destino em uma matriz de armazenamento compartilhada. O VMware é compatível com NVMe sobre RDMA (com tecnologia RoCE v2), NVMe sobre Fibre Channel (FC-NVMe) e transportes NVMe sobre TCP / IP. Para obter mais informações, consulte Capítulo 16 Sobre o armazenamento NVMe VMware. Representações de destino e de dispositivo No contexto ESXi, o termo de destino identifica uma única unidade de armazenamento que o host pode acessar. Os termos dispositivo de armazenamento e LUN descrevem um volume lógico que representa o espaço de armazenamento em um destino. No contexto ESXi, ambos os termos também significam um volume de armazenamento que é apresentado ao host de um destino de armazenamento e está disponível para formatação. O dispositivo de armazenamento e o LUN são frequentemente usados de forma intercambiável. Diferentes fornecedores de armazenamento apresentam os sistemas de armazenamento para ESXi hosts de maneiras diferentes. Alguns fornecedores apresentam um único destino com vários dispositivos de armazenamento ou LUNs, enquanto outros apresentam vários destinos com um LUN cada. Figura 2-5. Representações de destino e LUN Storage Array Target LUN LUN LUN Storage Array Target TargetTarget LUN LUN LUN Nesta ilustração, três LUNs estão disponíveis em cada configuração. Em um caso, o host se conecta a um destino, mas esse destino tem três LUNs que podem ser usados. Cada LUN representa um volume de armazenamento individual. No outro exemplo, o host detecta três destinos diferentes, cada um com um LUN. Os destinos que são acessados por meio da rede têm nomes exclusivos que são fornecidos pelos sistemas de armazenamento. Os destinos iSCSI usam nomes iSCSI. Os destinos do Fibre Channel usam World Wide Names (WWNs). Observação O ESXi não oferece suporte ao acesso ao mesmo LUN por meio de protocolos de transporte diferentes, como iSCSI e Fibre Channel. vSphere Storage VMware, Inc. Traduzido automaticamente 27 Um dispositivo, ou LUN, é identificado pelo seu nome UUID. Se um LUN for compartilhado por vários hosts, ele deverá ser apresentado a todos os hosts com o mesmo UUID. Como o Virtual Mac aprimora o Access Storage Quando uma máquina virtual se comunica com seu disco virtual armazenado em um repositório de dados, ela emite comandos SCSI. Como os repositórios de dados podem existir em vários tipos de armazenamento físico, esses comandos são encapsulados em outros formulários, dependendo do protocolo que o host ESXi usa para se conectar a um dispositivo de armazenamento. ESXi é compatível com os protocolos Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel sobre Ethernet (FCoE) e NFS. Independentemente do tipo de dispositivo de armazenamento usado pelo host, o disco virtual sempre aparece na máquina virtual como um dispositivo SCSI montado. O disco virtual oculta uma camada de armazenamento físico do sistema operacional da máquina virtual. Isso permite que você execute sistemas operacionais que não são certificados para equipamentos de armazenamento específicos, como SAN, dentro da máquina virtual. Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. O gráfico a seguir mostra cinco máquinas virtuais usando diferentes tipos de armazenamento para ilustrar as diferenças entre cada tipo. Figura 2-6. Máquinas virtuais acessando diferentes tipos de armazenamento iSCSI Array VMFS VMFS LAN LAN iSCSI HBA Ethernet NIC ESXi Host Requires TCP/IP Connectivity Software iSCSI Adapter NAS Appliance NFS LAN Ethernet NIC Fibre Channel Array VMFS VMFS vmdk vmdk vmdk vmdk vmdk SAN Fibre Channel HBASCSI Device Observação Este diagrama é apenas para fins conceituais. Não é uma configuração recomendada. vSphere Storage VMware, Inc. Traduzido automaticamente 28 Características do dispositivo de armazenamento Quando seu host ESXi se conecta a sistemas de armazenamento baseados em bloco, LUNs ou dispositivos de armazenamento compatíveis com ESXi ficam disponíveis para o host. Depois que os dispositivos forem registrados com seu host, você poderá exibir todos os dispositivos locais e em rede disponíveis e revisar suas informações. Se você usar plug-ins de vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio dos plug- ins também aparecerão na lista. Observação Se uma matriz oferecer suporte ao acesso de unidade lógica assimétrica implícita (ALUA) e tiver apenas caminhos em espera, o registro do dispositivo falhará. O dispositivo pode se registrar no host depois que o destino ativa um caminho em espera e o host o detecta como ativo. O parâmetro avançado do sistema /Disk/FailDiskRegistration controla esse comportamento do host. Para cada adaptador de armazenamento, você pode exibir uma lista separada de dispositivos de armazenamento disponíveis para esse adaptador. Geralmente, ao analisar os dispositivos de armazenamento, você vê as seguintes informações. Tabela 2-1. Informações do dispositivo de armazenamento Informações do dispositivo de armazenamento Descrição Nome Também chamado de Nome para Exibição. É um nome que o host ESXi atribui ao dispositivo com base no tipo de armazenamento e no fabricante. Geralmente, você pode alterar esse nome para um nome de sua escolha. Consulte Renomear dispositivos de armazenamento. Identificador Um identificador universalmente exclusivo que é intrínseco ao dispositivo. Consulte Identificadores e nomes de dispositivos de armazenamento. Estado operacional Indica se o dispositivo está conectado ou desconectado. Consulte Desanexar dispositivos de armazenamento. LUN Número da Unidade Lógica (LUN) dentro do destino SCSI. O número do LUN é fornecido pelo sistema de armazenamento. Se um destino tiver apenas um LUN, o númerodo LUN será sempre zero (0). Tipo Tipo de dispositivo, por exemplo, disco ou CD-ROM. Tipo de unidade Informações sobre se o dispositivo é uma unidade flash ou uma unidade de disco rígido normal. Para obter informações sobre unidades flash e dispositivos NVMe, consulte Capítulo 15 Trabalhando com dispositivos flash. Transporte Protocolo de transporte usado pelo host para acessar o dispositivo. O protocolo depende do tipo de armazenamento que está sendo usado. Consulte Tipos de armazenamento físico. Capacidade Capacidade total do dispositivo de armazenamento. Proprietário O plug-in, como o NMP ou um plug-in de terceiros, que o host usa para gerenciar caminhos para o dispositivo de armazenamento. Consulte Arquitetura de armazenamento conectável e gerenciamento de caminhos. vSphere Storage VMware, Inc. Traduzido automaticamente 29 Tabela 2-1. Informações do dispositivo de armazenamento (continuação) Informações do dispositivo de armazenamento Descrição Aceleração de hardware Informações sobre se o dispositivo de armazenamento ajuda o host com operações de gerenciamento de máquina virtual. O status pode ser Com suporte, Sem suporte ou Desconhecido. Consulte Capítulo 24 Aceleração de hardware de armazenamento. Formato do setor Indica se o dispositivo usa um formato de setor tradicional, 512n ou avançado, como 512e ou 4Kn. Consulte Formatos de setor de dispositivo. Localização Um caminho para o dispositivo de armazenamento no diretório / vmfs / devices / . Formato da Partição Um esquema de partição usado pelo dispositivo de armazenamento. Pode ser do formato MBR (registro mestre de inicialização) ou da tabela de partição GUID (GPT). Os dispositivos GPT podem oferecer suporte a repositórios de dados maiores que 2 TB. Consulte Formatos de setor de dispositivo. Partições Partições primárias e lógicas, incluindo um repositório de dados VMFS, se configurado. Políticas de vários caminhos Política de Seleção de Caminho e Política de Tipo de Matriz de Armazenamento que o host usa para gerenciar caminhos para o armazenamento. Consulte Capítulo 18 Noções básicas sobre caminhos múltiplos e failover. Caminhos Caminhos usados para acessar o armazenamento e seu status. Consulte Desativar caminhos de armazenamento. Exibir dispositivos de armazenamento para um host ESXi Exibir todos os dispositivos de armazenamento disponíveis para um host ESXi. Se você usar plug-ins de vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio dos plug-ins também aparecerão na lista. A exibição Dispositivos de armazenamento permite listar os dispositivos de armazenamento dos hosts, analisar suas informações e modificar propriedades. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). Todos os dispositivos de armazenamento disponíveis para o host estão listados na tabela Dispositivos de armazenamento. 4 Para exibir os detalhes de um dispositivo específico, selecione o dispositivo na lista. 5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento. A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração. vSphere Storage VMware, Inc. Traduzido automaticamente 30 Ícone Descrição Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos. Desanexar Desanexe o dispositivo selecionado do host. Anexar Anexe o dispositivo selecionado ao host. Renomear Altere o nome de exibição do dispositivo selecionado. Ligar LED Ligue o LED localizador para os dispositivos selecionados. Desligar o LED Desligue o LED localizador dos dispositivos selecionados. Marcar como disco flash Marque os dispositivos selecionados como discos flash. Marcar como disco rígido Marque os dispositivos selecionados como discos HDD. Marcar como local Marque os dispositivos selecionados como locais para o host. Marcar como remoto Marque os dispositivos selecionados como remotos para o host. Apagar partições Apague partições nos dispositivos selecionados. Marcar como permanentemente reservada Marque o dispositivo selecionado como sempre reservado. Desmarcar como permanentemente reservada Apague a reserva perene do dispositivo selecionado. 6 Use as seguintes abas para acessar informações adicionais e modificar as propriedades do dispositivo selecionado. Guia Descrição Propriedades Visualizar propriedades e características do dispositivo. Visualizar e modificar políticas de caminhos múltiplos para o dispositivo. Caminhos Exibir os caminhos disponíveis para o dispositivo. Desative ou ative um caminho selecionado. Detalhes da Partição Exibe informações sobre partições e seus formatos. Exibir dispositivos de armazenamento para um adaptador Exibir uma lista de dispositivos de armazenamento acessíveis por meio de um adaptador de armazenamento específico em um host ESXi. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters). Todos os adaptadores de armazenamento instalados no host estão listados na tabela Adaptadores de Armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 31 4 Selecione o adaptador na lista e clique na guia Dispositivos (Devices). São exibidos os dispositivos de armazenamento que o host pode acessar por meio do adaptador. 5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento. A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração. Ícone Descrição Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos. Desanexar Desanexe o dispositivo selecionado do host. Anexar Anexe o dispositivo selecionado ao host. Renomear Altere o nome de exibição do dispositivo selecionado. Comparando tipos de armazenamento Se uma certa funcionalidade do vSphere é suportada pode depender da tecnologia de armazenamento que você usa. A tabela a seguir compara tecnologias de armazenamento em rede que ESXi suporta. Tabela 2-2. Armazenamento em rede compatível com ESXi Tecnologia Protocolos Transferências Interface Fibre Channel FC / SCSI Bloquear acesso a dados / LUN FC HBA Fibre Channel sobre Ethernet FCoE / SCSI Bloquear acesso a dados / LUN n Converged Network Adapter (hardware FCoE) n NIC com suporte a FCoE (software FCoE) Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. iSCSI IP / SCSI Bloquear acesso a dados / LUN n iSCSI HBA ou NIC habilitado para iSCSI (hardware iSCSI) n Adaptador de rede (software iSCSI) NAS IP / NFS Arquivo (sem acesso direto ao LUN) Adaptador de rede A tabela a seguir compara os recursos do vSphere que diferentes tipos de armazenamento suportam. vSphere Storage VMware, Inc. Traduzido automaticamente 32 Tabela 2-3. Recursos do vSphere compatíveis com o armazenamento Tipo de armazenamen to Boot VM v Motion Repositório de dados RDM Cluster de VM VMware HA e DRS APIs de armazen amento - Proteçã o de dados Armazenamen to local Sim Não VMFS Não Sim Não Sim Fibre Channel Sim Sim VMFS Sim Sim Sim Sim iSCSI Sim Sim VMFS Sim Sim Sim Sim NAS sobre NFS Sim Sim NFS 3 e NFS 4.1 Não Não Sim Sim Observação O armazenamento local oferece suporte a um cluster de máquinas virtuais em um único host (também conhecido como cluster em uma caixa). É necessário um disco virtual compartilhado. Para obter mais informações sobre essa configuração, consulte a documentação Gerenciamento de Recursos do vSphere . Adaptadores de armazenamento compatíveis Os adaptadores de armazenamento fornecem conectividade para seu host ESXi a uma rede ou unidade de armazenamento específica. O ESXi é compatível com diferentes classes de adaptadores, incluindo SCSI, iSCSI,RAID, Fibre Channel, Fibre Channel sobre Ethernet (FCoE) e Ethernet. ESXi acessa os adaptadores diretamente por meio de drivers de dispositivo no VMkernel. Dependendo do tipo de armazenamento usado, talvez seja necessário habilitar e configurar um adaptador de armazenamento no host. Para obter informações sobre como configurar adaptadores FCoE de software, consulte Capítulo 6 Configurando o Fibre Channel sobre Ethernet. Para obter informações sobre como configurar diferentes tipos de adaptadores iSCSI, consulte Capítulo 11 Configurando o armazenamento e os adaptadores iSCSI e iSER. Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. Exibir informações do adaptador de armazenamento Um host ESXi usa adaptadores de armazenamento para acessar diferentes dispositivos de armazenamento. Você pode exibir detalhes dos adaptadores de armazenamento disponíveis e revisar suas informações. vSphere Storage VMware, Inc. Traduzido automaticamente 33 Pré-requisitos Você deve habilitar determinados adaptadores, por exemplo, o software iSCSI ou FCoE, antes de poder visualizar suas informações. Para configurar adaptadores, consulte o seguinte: n Capítulo 11 Configurando o armazenamento e os adaptadores iSCSI e iSER n Capítulo 6 Configurando o Fibre Channel sobre Ethernet Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters). 4 Use os ícones para realizar tarefas do adaptador de armazenamento. A disponibilidade de ícones específicos depende da configuração de armazenamento. Ícone Descrição Adicionar adaptador de software Adicione um adaptador de armazenamento. Aplica-se ao software iSCSI e ao software FCoE. Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos no host. Verificar novamente o armazenamento Verifique novamente todos os adaptadores de armazenamento no host para descobrir dispositivos de armazenamento ou repositórios de dados VMFS recém- adicionados. Verificar novamente o adaptador Verifique novamente o adaptador selecionado para descobrir os dispositivos de armazenamento recém-adicionados. 5 Para exibir os detalhes de um adaptador específico, selecione o adaptador na lista. 6 Use as guias em Detalhes do adaptador para acessar informações adicionais e modificar as propriedades do adaptador selecionado. Guia Descrição Propriedades(Properties) Revise as propriedades gerais do adaptador que normalmente incluem um nome e um modelo do adaptador e identificadores exclusivos formados de acordo com padrões de armazenamento específicos. Para adaptadores iSCSI e FCoE, use essa guia para configurar propriedades adicionais, por exemplo, autenticação. Dispositivos(Devices) Visualize os dispositivos de armazenamento que o adaptador pode acessar. Use a aba para executar tarefas básicas de gerenciamento de dispositivos. Consulte Exibir dispositivos de armazenamento para um adaptador. Caminhos (Paths ) Liste e gerencie todos os caminhos que o adaptador usa para acessar dispositivos de armazenamento. Destinos (Targets) (Fibre Channel e iSCSI) Revise e gerencie os destinos acessados por meio do adaptador. vSphere Storage VMware, Inc. Traduzido automaticamente 34 Guia Descrição Vinculação de Porta de Rede (Network Port Binding) (somente iSCSI) Configure a associação de portas para adaptadores iSCSI de hardware e software dependentes. Opções avançadas (Advanced Options) (somente iSCSI) Configure parâmetros avançados para iSCSI. Características do repositório de dados Os repositórios de dados são contêineres lógicos, análogos aos sistemas de arquivos, que ocultam as especificações de cada dispositivo de armazenamento e fornecem um modelo uniforme para o armazenamento de arquivos de máquinas virtuais. Você pode exibir todos os datastores disponíveis para seus hosts e analisar suas propriedades. Os repositórios de dados são adicionados a vCenter Server das seguintes maneiras: n Você pode criar um repositório de dados VMFS, um repositório de dados NFS versão 3 ou 4.1 ou um repositório de dados vVols usando o assistente de Novo repositório de dados. Um datastore vSAN é criado automaticamente quando você habilita vSAN. n Quando você adiciona um host ESXi a vCenter Server, todos os repositórios de dados no host são adicionados a vCenter Server. A tabela a seguir descreve os detalhes do datastore que você pode ver ao revisar os datastores por meio do vSphere Client. Determinadas características podem não estar disponíveis ou aplicáveis a todos os tipos de repositórios de dados. Tabela 2-4. Informações do Repositório de Dados Informações do Repositório de Dados Tipo de datastore aplicável Descrição Nome VMFS NFS vSAN vVol Nome editável que você atribui a um repositório de dados. Para obter informações sobre como renomear um repositório de dados, consulte Alterar o nome do datastore. Tipo VMFS NFS vSAN vVol Sistema de arquivos que o repositório de dados usa. Para obter informações sobre repositórios de dados VMFS e NFS e como gerenciá-los, consulte Capítulo 17 Trabalhando com repositórios de dados. Para obter informações sobre vSAN repositórios de dados, consulte a documentação Administrando VMware vSAN . Para obter mais informações sobre vVols, consulte Capítulo 22 Trabalhando com VMware vSphere Virtual Volumes (vVols). vSphere Storage VMware, Inc. Traduzido automaticamente 35 Tabela 2-4. Informações do Repositório de Dados (continuação) Informações do Repositório de Dados Tipo de datastore aplicável Descrição Suporte do dispositivo VMFS NFS vSAN Informações sobre o armazenamento subjacente, como um dispositivo de armazenamento no qual o repositório de dados está implantado (VMFS), servidor e pasta (NFS) ou grupos de discos (vSAN). Protocolo Endpoints vVol Informações sobre endpoints de protocolo correspondentes. Consulte Protocolo Endpoints. Extensões VMFS Extensões individuais que o datastore abrange e sua capacidade. Tipo de unidade VMFS Tipo do dispositivo de armazenamento subjacente, como uma unidade flash ou uma unidade HHD comum. Para obter detalhes, consulte Capítulo 15 Trabalhando com dispositivos flash. Capacidade VMFS NFS vSAN vVol Inclui capacidade total, espaço provisionado e espaço livre. Ponto de montagem VMFS NFS vSAN vVol Um caminho para o repositório de dados no diretório / vmfs / volumes / do host. Conjuntos de Recursos VMFS Observação Um datastore VMFS de várias extensões assume os recursos de apenas uma de suas extensões. NFS vSAN vVol Informações sobre os serviços de dados de armazenamento que a entidade de armazenamento subjacente fornece. Você não pode modificá-los. Storage I/O Control VMFS NFS Informações sobre se a priorização de E / S de armazenamento em todo o cluster está ativada. Consulte a documentação do Gerenciamento de Recursos do vSphere . Aceleração de hardware VMFS NFS vSAN vVol Informações sobre se a entidade de armazenamento subjacente oferece suporte à aceleração de hardware. O status pode ser Com suporte, Sem suporte ou Desconhecido. Para obter detalhes, consulte Capítulo 24 Aceleração de hardware de armazenamento. Observação O NFS 4.1 não é compatível com a Aceleração de Hardware. vSphere Storage VMware, Inc. Traduzido automaticamente 36 Tabela 2-4. Informações do Repositório de Dados (continuação) Informações do Repositório de Dados Tipo de datastore aplicável Descrição Tags VMFS NFS vSAN vVol Recursos de repositório de dados que você define e associa a repositórios de dados em uma forma de tags. Para obter informações, consulte Atribuir tags a datastores. Conectividade com Hosts VMFS NFS vVol Hosts nos quais o datastore está montado. Multipathing VMFS vVol Política de seleção de caminho que o host usa para acessar o armazenamento. Paraobter mais informações, consulte Capítulo 18 Noções básicas sobre caminhos múltiplos e failover. Exibir Informações do Repositório de Dados Acesse a exibição Datastores com o navegador vSphere Client. Use a exibição Repositórios de dados para listar todos os repositórios de dados disponíveis no inventário de infraestrutura do vSphere, analisar as informações e modificar as propriedades. Procedimentos 1 Navegue até qualquer objeto de inventário que seja um objeto pai válido de um repositório de dados, como um host, um cluster ou um centro de dados, e clique na guia Datastores (Datastores). Os repositórios de dados que estão disponíveis no inventário aparecem no painel central. 2 Use as opções de um menu de atalho do datastore para realizar tarefas básicas para um datastore selecionado. A disponibilidade de opções específicas depende do tipo de repositório de dados e de sua configuração. Opção Descrição Registrar VM (Register VM) Registre uma máquina virtual existente no inventário. Consulte a documentação do Administração da Máquina Virtual do vSphere . Aumentar a capacidade do datastore (Increase Datastore Capacity) Aumente a capacidade do repositório de dados VMFS ou adicione uma extensão. Consulte Aumentar a capacidade do repositório de dados VMFS. Procurar arquivos (Browse Files) Navegue até o navegador de arquivos do repositório de dados. Consulte Usar o navegador do repositório de dados. Renomear(Rename) Altere o nome do repositório de dados. Consulte Alterar o nome do datastore. vSphere Storage VMware, Inc. Traduzido automaticamente 37 Opção Descrição Montar repositório de dados (Mount Datastore) Monte o repositório de dados em determinados hosts. Consulte Montar repositórios de dados. Desmontar repositório de dados (Unmount Datastore) Desmonte o datastore de determinados hosts. Consulte Desmontar repositórios de dados. Modo de Manutenção (Maintenance Mode) Use o modo de manutenção de repositório de dados. Consulte a documentação do Gerenciamento de Recursos do vSphere . Configurar Storage I/O Control (VMFS) Habilite Storage I/O Control para o repositório de dados VMFS. Consulte a documentação do Gerenciamento de Recursos do vSphere . Editar Recuperação de Espaço (Edit Space Reclamation ) (VMFS) Altere as configurações de recuperação de espaço para o repositório de dados VMFS. Consulte Alterar configurações de recuperação de espaço. Excluir Datastore (Delete Datastore) (VMFS) Remova o repositório de dados VMFS. Consulte Remover repositórios de dados VMFS. Tags e atributos personalizados (Tags & Custom Attributes) Use tags para codificar informações sobre o repositório de dados. Consulte Atribuir tags a datastores. 3 Para exibir detalhes específicos do datastore, clique em um datastore selecionado. 4 Use as guias para acessar informações adicionais e modificar as propriedades do repositório de dados. Guia Descrição Resumo(Summary) Visualize as estatísticas e a configuração do repositório de dados selecionado. Monitoramento(Monitor) Visualize alarmes, dados de desempenho, alocação de recursos, eventos e outras informações de status para o repositório de dados. Configurar (Configure) Visualize e modifique as propriedades do repositório de dados. Os itens de menu que você pode ver dependem do tipo de repositório de dados. Permissões (Permissions) Atribua ou edite permissões para o datastore selecionado. Arquivos(Files) Navegue até o navegador de arquivos do repositório de dados. Hosts (Hosts) Visualize os hosts onde o datastore está montado. VMs Visualize as máquinas virtuais que residem no repositório de dados. Usando a memória persistente O ESXi é compatível com dispositivos de memória persistente da próxima geração, também conhecidos como dispositivos de memória não volátil (NVM). Esses dispositivos combinam desempenho e velocidade da memória com a persistência do armazenamento tradicional. Eles podem manter os dados armazenados por meio de reinicializações ou falhas na fonte de energia. Máquinas virtuais que exigem alta largura de banda, baixa latência e persistência podem se beneficiar dessa tecnologia. Os exemplos incluem VMs com bancos de dados de aceleração e carga de trabalho de análise. vSphere Storage VMware, Inc. Traduzido automaticamente 38 Para usar a memória persistente com seu host ESXi, você deve estar familiarizado com os seguintes conceitos. PMem Datastore Depois de adicionar memória persistente ao host ESXi, o host detecta o hardware e o formata e monta como um repositório de dados PMem local. ESXi usa VMFS-L como um formato de sistema de arquivos. Há suporte apenas para um datastore PMem local por host. Observação Quando você gerencia a memória física persistente, certifique-se de evacuar todas as VMs do host e colocá-lo no modo de manutenção. Para reduzir a sobrecarga administrativa, o repositório de dados PMem oferece um modelo de gerenciamento simplificado. As tarefas tradicionais do datastore geralmente não se aplicam ao datastore porque o host executa automaticamente todas as operações necessárias em segundo plano. Como administrador, você não pode exibir o datastore na exibição Datastores do vSphere Client ou executar outras ações regulares do datastore. A única operação disponível para você é o monitoramento de estatísticas para o repositório de dados PMem. O repositório de dados PMem é usado para armazenar dispositivos NVDIMM virtuais e discos virtuais tradicionais de uma VM. O diretório inicial da VM com os arquivos vmx e vmware.log não pode ser colocado no datastore PMem. Modos de acesso do PMem ESXi expõe a memória persistente a uma VM em dois modos diferentes. As VMs com reconhecimento de PMem podem ter acesso direto à memória persistente. VMs tradicionais podem usar discos virtuais rápidos armazenados no repositório de dados PMem. Modo de acesso direto Nesse modo, também chamado de modo virtual de PMem (vPMem), uma região de PMem pode ser apresentada a uma VM como um módulo virtual não volátil de módulo de memória dupla em linha (NVDIMM). A VM usa o módulo NVDIMM como uma memória endereçável por byte padrão que pode persistir em ciclos de energia. Você pode adicionar um ou vários módulos NVDIMM ao provisionar a VM. As VMs devem ter a versão de hardware ESXi 6.7 ou posterior e ter um SO guest com reconhecimento de PMem. O dispositivo NVDIMM é compatível com os sistemas operacionais convidados mais recentes que suportam memória persistente, por exemplo, o Windows 2016. Cada dispositivo NVDIMM é automaticamente armazenado no repositório de dados PMem. Modo de disco virtual Esse modo, também chamado de modo discos virtuais PMem (vPMemDisk), está disponível para qualquer VM tradicional e é compatível com qualquer versão de hardware, incluindo todas as versões herdadas. As VMs não precisam ser compatíveis com PMem. Ao usar esse modo, você cria um disco virtual SCSI regular e anexa uma política de armazenamento de vSphere Storage VMware, Inc. Traduzido automaticamente 39 PMem VM ao disco. A política coloca automaticamente o disco no repositório de dados PMem. Política de armazenamento do PMem Para colocar o disco virtual no repositório de dados PMem, você deve aplicar a política de armazenamento padrão PMem local-host ao disco. A política não é editável. A política pode ser aplicada apenas a discos virtuais. Como o diretório inicial da VM não reside no repositório de dados PMem, certifique-se de colocá-lo em qualquer repositório de dados padrão. Depois de atribuir a política de armazenamento do PMem ao disco virtual, não é possível alterar a política por meio da caixa de diálogo Configuração de edição da VM . Para alterar a política, migre ou clone a VM. O gráfico a seguir ilustra como os componentes de memória persistente interagem. Direct-access mode Virtual disk mode NVDMM device PMem Storage Policy Virtual disk PMem Datastore Persistent Memory PMem-aware VM Traditional VM Para obter informações sobre como configurare gerenciar VMs com NVDIMMs ou discos de memória virtual persistente, consulte a documentação Gerenciamento de Recursos do vSphere e Administração da Máquina Virtual do vSphere . Monitorar as estatísticas do repositório de dados PMem Você pode usar o vSphere Client e o comando esxcli para revisar a capacidade do repositório de dados PMem e alguns de seus outros atributos. No entanto, ao contrário dos repositórios de dados regulares, como VMFS ou vVol, o repositório de dados PMem não aparece na exibição de Repositórios de Dados do vSphere Client. As tarefas administrativas regulares do repositório de dados não se aplicam a ele. vSphere Storage VMware, Inc. Traduzido automaticamente 40 Procedimentos u Revise as informações do repositório de dados PMem. Opção Descrição vSphere Client a Navegue até o host ESXi e clique em Resumo (Summary). b No painel Hardware, verifique se Memória Persistente é exibida e revise sua capacidade. comando esxcli Use esxcli storage filesystem list para listar o repositório de dados PMem. Exemplo: Exibindo o datastore PMem A seguinte amostra de saída aparece quando você usa o comando esxcli storage filesystem list para listar o datastore. # esxcli storage filesystem list Mount Point Volume Name UUID Mounted Type Size Free ---------------------- ---------------- ------------- -------- ------- ------------ ------------ /vmfs/volumes/5xxx... ds01-102 5xxx... true VMFS-6 14227079168 12718178304 /vmfs/volumes/59ex... ds02-102 59ex... true VMFS-6 21206401024 19697500160 /vmfs/volumes/59bx... 59bx... true vfat 4293591040 4274847744 /vmfs/volumes/pmem:5ax... PMemDS-56ax... pmem:5a0x... true PMEM 12880707584 11504975872 vSphere Storage VMware, Inc. Traduzido automaticamente 41 Visão geral do uso do ESXi com uma SAN 3 Usar o ESXi com uma SAN melhora a flexibilidade, a eficiência e a confiabilidade. Usar o ESXi com uma SAN também oferece suporte a tecnologias de gerenciamento centralizado, failover e balanceamento de carga. A seguir estão os benefícios de usar ESXi com uma SAN: n Você pode armazenar dados com segurança e configurar vários caminhos para o seu armazenamento, eliminando um único ponto de falha. n Usar uma SAN com sistemas ESXi estende a resistência a falhas para o servidor. Quando você usa o armazenamento SAN, todos os aplicativos podem ser reiniciados instantaneamente em outro host após a falha do host original. n Você pode realizar a migração dinâmica de máquinas virtuais usando o VMware vMotion. n Use VMware High Availability (HA) em conjunto com uma SAN para reiniciar as máquinas virtuais em seu último estado conhecido em um servidor diferente se o host falhar. n Use VMware Fault Tolerance (FT) para replicar máquinas virtuais protegidas em dois hosts diferentes. As máquinas virtuais continuarão a funcionar sem interrupção no host secundário se o principal falhar. n Use o VMware Distributed Resource Scheduler (DRS) para migrar máquinas virtuais de um host para outro para balanceamento de carga. Como o armazenamento está em uma matriz SAN compartilhada, os aplicativos continuam sendo executados sem problemas. n Se você usar VMware clusters DRS, coloque um host ESXi no modo de manutenção para que o sistema migre todas as máquinas virtuais em execução para outros ESXi. Em seguida, você pode realizar atualizações ou outras operações de manutenção no host original. A portabilidade e o encapsulamento de VMware máquinas virtuais complementam a natureza compartilhada desse armazenamento. Quando as máquinas virtuais estão localizadas no armazenamento baseado em SAN, você pode encerrar rapidamente uma máquina virtual em um servidor e ligá-la em outro servidor, ou suspendê-la em um servidor e retomar a operação em outro servidor na mesma rede. Essa capacidade permite migrar recursos de computação, mantendo o acesso compartilhado consistente. Este capítulo inclui os seguintes tópicos: n ESXi e casos de uso de SAN VMware, Inc. Traduzido automaticamente 42 n Específicos do uso do armazenamento SAN com ESXi n ESXi Hosts e várias matrizes de armazenamento n Tomando decisões de LUN n Selecionando locais de máquina virtual n Aplicativos de gerenciamento de terceiros n Considerações de backup do armazenamento SAN ESXi e casos de uso de SAN Quando usado com uma SAN, o ESXi pode se beneficiar de vários recursos do vSphere, incluindo Storage vMotion, Distributed Resource Scheduler (DRS), High Availability e assim por diante. Usar o ESXi com um SAN é eficaz para as seguintes tarefas: Consolidação de armazenamento e simplificação do layout de armazenamento Se você estiver trabalhando com vários hosts e cada host estiver executando várias máquinas virtuais, o armazenamento nos hosts não será mais suficiente. Talvez seja necessário usar armazenamento externo. A SAN pode fornecer uma arquitetura de sistema simples e outros benefícios. Manutenção sem tempo de inatividade Ao realizar a manutenção de ESXi host ou infraestrutura, use o vMotion para migrar máquinas virtuais para outro host. Se o armazenamento compartilhado estiver na SAN, você poderá realizar a manutenção sem interrupções para os usuários das máquinas virtuais. Os processos de trabalho da máquina virtual continuam durante a migração. Balanceamento de carga Você pode adicionar um host a um cluster DRS, e os recursos do host se tornam parte dos recursos do cluster. A distribuição e o uso de recursos de CPU e memória para todos os hosts e máquinas virtuais no cluster são monitorados continuamente. O DRS compara essas métricas a um uso de recurso ideal. O uso ideal considera os atributos dos pools de recursos e das máquinas virtuais do cluster, a demanda atual e o destino de desequilíbrio. Se necessário, o DRS realiza ou recomenda migrações de máquinas virtuais. Recuperação de desastre Você pode usar o VMware High Availability para configurar vários hosts ESXi como um cluster. O cluster fornece recuperação rápida de interrupções e alta disponibilidade econômica para aplicativos em execução em máquinas virtuais. Migrações de matriz simplificadas e atualizações de armazenamento Ao comprar novos sistemas de armazenamento, use o Storage vMotion para realizar migrações em tempo real de máquinas virtuais do armazenamento existente para seus novos destinos. Você pode realizar as migrações sem interrupções das máquinas virtuais. vSphere Storage VMware, Inc. Traduzido automaticamente 43 Específicos do uso do armazenamento SAN com ESXi O uso de uma SAN com um host ESXi difere do uso tradicional da SAN de várias maneiras. Quando você usa o armazenamento SAN com ESXi, as seguintes considerações se aplicam: n Você não pode usar as ferramentas de administração da SAN para acessar sistemas operacionais de máquinas virtuais que residem no armazenamento. Com as ferramentas tradicionais, você pode monitorar apenas o sistema operacional VMware ESXi. Você usa o vSphere Client para monitorar máquinas virtuais. n O HBA visível para as ferramentas de administração da SAN é parte do sistema ESXi, não parte da máquina virtual. n Normalmente, seu sistema ESXi executa vários caminhos para você. ESXi Hosts e várias matrizes de armazenamento Um host ESXi pode acessar dispositivos de armazenamento apresentados de várias matrizes de armazenamento, incluindo matrizes de diferentes fornecedores. Quando você usa várias matrizes de diferentes fornecedores, as seguintes considerações se aplicam: n Se o seu host usa o mesmo SATP para várias matrizes, tenha cuidado ao alterar o PSP padrão para esse SATP. A alteração se aplica a todas as matrizes. Para obter informações sobre SATPs e PSPs, consulte Capítulo 18 Noções básicas sobre caminhos múltiplos e failover. n Algumas matrizes de armazenamento fazem recomendações sobre a profundidade da fila e outras configurações. Normalmente, essas configuraçõessão definidas globalmente no nível do host ESXi. Alterar as configurações de uma matriz afeta outras matrizes que apresentam LUNs para o host. Para obter informações sobre como alterar a profundidade da fila, consulte o artigo da base de conhecimento VMware em http://kb.vmware.com/kb/1267. n Use o zoneamento de único iniciador-único-alvo ao zonear ESXi hosts para matrizes Fibre Channel. Com esse tipo de configuração, os eventos relacionados à malha que ocorrem em uma matriz não afetam outras matrizes. Para obter mais informações sobre zoneamento, consulte Usando o zoneamento com SANs Fibre Channel. Tomando decisões de LUN Você deve planejar como configurar o armazenamento para seus sistemas ESXi antes de formatar LUNs com repositórios de dados VMFS. Quando você toma sua decisão de LUN, as seguintes considerações se aplicam: n Cada LUN deve ter o nível de RAID e a característica de armazenamento corretos para os aplicativos em execução em máquinas virtuais que usam o LUN. n Cada LUN deve conter apenas um repositório de dados VMFS. vSphere Storage VMware, Inc. Traduzido automaticamente 44 http://kb.vmware.com/kb/1267 n Se várias máquinas virtuais acessarem o mesmo VMFS, use compartilhamentos de disco para priorizar máquinas virtuais. Talvez você queira menos LUNs maiores pelos seguintes motivos: n Mais flexibilidade para criar máquinas virtuais sem solicitar mais espaço ao administrador de armazenamento. n Mais flexibilidade para redimensionar discos virtuais, fazer snapshots e assim por diante. n Menos repositórios de dados VMFS para gerenciar. Você pode querer mais LUNs menores pelos seguintes motivos: n Menos espaço de armazenamento desperdiçado. n Diferentes aplicativos podem precisar de diferentes características de RAID. n Mais flexibilidade, pois a política de caminhos múltiplos e os compartilhamentos de disco são definidos por LUN. n O uso do Microsoft Cluster Service exige que cada recurso de disco do cluster esteja em seu próprio LUN. n Melhor desempenho porque há menos contenção para um único volume. Quando a caracterização de armazenamento de uma máquina virtual não está disponível, pode não ser fácil determinar o número e o tamanho dos LUNs a serem provisionados. Você pode experimentar usando um esquema preditivo ou adaptativo. Usar o esquema preditivo para tomar decisões LUN Ao configurar o armazenamento para sistemas ESXi, antes de criar repositórios de dados VMFS, você deve decidir sobre o tamanho e o número de LUNs a serem provisionados. Você pode experimentar usando o esquema preditivo. Procedimentos 1 Provisione vários LUNs com diferentes características de armazenamento. 2 Crie um repositório de dados VMFS em cada LUN, rotulando cada repositório de dados de acordo com suas características. 3 Crie discos virtuais para conter os dados para aplicativos de máquina virtual nos repositórios de dados VMFS criados em LUNs com o nível de RAID apropriado para os requisitos dos aplicativos. 4 Use compartilhamentos de disco para distinguir máquinas virtuais de alta prioridade e baixa prioridade. Observação Os compartilhamentos de disco são relevantes apenas dentro de um determinado host. Os compartilhamentos atribuídos a máquinas virtuais em um host não têm efeito em máquinas virtuais em outros hosts. 5 Execute os aplicativos para determinar se o desempenho da máquina virtual é aceitável. vSphere Storage VMware, Inc. Traduzido automaticamente 45 Usar o esquema adaptativo para tomar decisões LUN Ao configurar o armazenamento para ESXi hosts, antes de criar repositórios de dados VMFS, você deve decidir sobre o número e o tamanho dos LUNS a serem provisionados. Você pode experimentar usando o esquema adaptativo. Procedimentos 1 Provisione um LUN grande (RAID 1 + 0 ou RAID 5), com o cache de gravação ativado. 2 Crie um VMFS nesse LUN. 3 Crie quatro ou cinco discos virtuais no VMFS. 4 Execute os aplicativos para determinar se o desempenho do disco é aceitável. Resultados Se o desempenho for aceitável, você poderá colocar discos virtuais adicionais no VMFS. Se o desempenho não for aceitável, crie um novo LUN grande, possivelmente com um nível de RAID diferente, e repita o processo. Use a migração para que você não perca os dados das máquinas virtuais ao recriar o LUN. Selecionando locais de máquina virtual Quando você está trabalhando para otimizar o desempenho de suas máquinas virtuais, o local de armazenamento é um fator importante. Dependendo das suas necessidades de armazenamento, você pode selecionar um armazenamento com alto desempenho e alta disponibilidade ou um armazenamento com baixo desempenho. O armazenamento pode ser dividido em diferentes camadas, dependendo de vários fatores: n Alto Nível. Oferece alto desempenho e alta disponibilidade. Pode oferecer snapshots integrados para facilitar os backups e as restaurações point-in-time (PiT). Oferece suporte à replicação, redundância total do processador de armazenamento e unidades SAS. Usa eixos de alto custo. n Mid Tier. Oferece desempenho de médio alcance, menor disponibilidade, alguma redundância de processador de armazenamento e unidades SCSI ou SAS. Pode oferecer snapshots. Usa eixos de médio custo. n Camada Inferior. Oferece baixo desempenho e pouca redundância de armazenamento interno. Usa unidades SCSI low-end ou SATA. Nem todas as VMs devem estar no armazenamento de melhor desempenho e mais disponível durante todo o ciclo de vida. Quando você decide onde colocar uma máquina virtual, as seguintes considerações se aplicam: n Criticidade da VM n Requisitos de desempenho e disponibilidade vSphere Storage VMware, Inc. Traduzido automaticamente 46 n Requisitos de restauração de PiT n Requisitos de backup e replicação Uma máquina virtual pode alterar as camadas ao longo de seu ciclo de vida devido a alterações de gravidade ou de tecnologia. A crítica é relativa e pode mudar por vários motivos, incluindo mudanças na organização, processos operacionais, requisitos regulamentares, planejamento de desastres e assim por diante. Aplicativos de gerenciamento de terceiros Você pode usar aplicativos de gerenciamento de terceiros com seu host ESXi. A maioria dos hardwares SAN são fornecidos com o software de gerenciamento de armazenamento. Em muitos casos, esse software é um aplicativo da Web que pode ser usado com qualquer navegador da Web conectado à sua rede. Em outros casos, esse software normalmente é executado no sistema de armazenamento ou em um único servidor, independentemente dos servidores que usam a SAN para armazenamento. Use este software de gerenciamento de terceiros para as seguintes tarefas: n Gerenciamento de matriz de armazenamento, incluindo criação de LUN, gerenciamento de cache de matriz, mapeamento de LUN e segurança de LUN. n Configuração de replicação, pontos de verificação, snapshots ou espelhamento. Se você executar o software de gerenciamento de SAN em uma máquina virtual, obterá os benefícios de uma máquina virtual, incluindo failover com vMotion e VMware HA. Devido ao nível adicional de indireção, no entanto, o software de gerenciamento pode não ver a SAN. Nesse caso, você pode usar um RDM. Observação Se uma máquina virtual pode executar o software de gerenciamento com êxito depende do sistema de armazenamento específico. Considerações de backup do armazenamento SAN Ter uma estratégia de backup adequada é um dos aspectos mais importantes do gerenciamento de SAN. No ambiente da SAN, os backups têm dois objetivos. O primeiro objetivo é arquivar dados online em mídia offline. Esse processo é repetido periodicamente para todos os dados online em um agendamento. O segundo objetivo é fornecer acesso a dados offline para recuperação de um problema. Por exemplo, a recuperação de banco de dados muitas vezes requer uma recuperação de arquivos de log arquivados que não estão online no momento. O agendamento de um backup depende de vários fatores: n Identificação de aplicativos críticos que exigemciclos de backup mais frequentes em um determinado período. n Ponto de recuperação e metas de tempo de recuperação. Considere a precisão do seu ponto de recuperação e quanto tempo você deseja esperar por ele. vSphere Storage VMware, Inc. Traduzido automaticamente 47 n A taxa de alteração (RoC) associada aos dados. Por exemplo, se você estiver usando a replicação síncrona / assíncrona, o RoC afetará a quantidade de largura de banda necessária entre os dispositivos de armazenamento primário e secundário. n Impacto geral sobre um ambiente de SAN, desempenho de armazenamento e outros aplicativos. n Identificação dos períodos de pico de tráfego na SAN. Os backups agendados durante esses períodos de pico podem atrasar os aplicativos e o processo de backup. n Tempo para agendar todos os backups no centro de dados. n Tempo necessário para fazer backup de um aplicativo individual. n Disponibilidade de recursos para o arquivamento de dados, como acesso à mídia offline. Inclua um objetivo de tempo de recuperação para cada aplicativo ao projetar sua estratégia de backup. Ou seja, considere o tempo e os recursos necessários para realizar um backup. Por exemplo, se um backup agendado armazenar tantos dados que a recuperação exigir uma quantidade de tempo considerável, examine o backup agendado. Execute o backup com mais frequência, para que seja feito o backup de menos dados por vez e o tempo de recuperação diminua. Se um aplicativo exigir recuperação dentro de um determinado período de tempo, o processo de backup deverá fornecer um cronograma e um processamento de dados específico para atender aos requisitos. A recuperação rápida pode exigir o uso de volumes de recuperação que residem no armazenamento online. Esse processo ajuda a minimizar ou eliminar a necessidade de acessar mídia offline lenta para componentes de dados ausentes. Usando pacotes de backup de terceiros Você pode usar soluções de backup de terceiros para proteger dados do sistema, do aplicativo e do usuário em suas máquinas virtuais. As APIs de armazenamento - Proteção de dados que VMware oferece podem funcionar com produtos de terceiros. Ao usar as APIs, o software de terceiros pode realizar backups sem carregar ESXi hosts com o processamento de tarefas de backup. Os produtos de terceiros que usam as APIs de armazenamento - Proteção de dados podem realizar as seguintes tarefas de backup: n Execute um backup de imagem completo, diferencial e incremental e a restauração de máquinas virtuais. n Execute um backup em nível de arquivo de máquinas virtuais que usam os sistemas operacionais Windows e Linux compatíveis. n Garanta a consistência dos dados usando o Microsoft Volume Shadow Copy Services (VSS) para máquinas virtuais que executam sistemas operacionais Microsoft Windows compatíveis. vSphere Storage VMware, Inc. Traduzido automaticamente 48 Como as APIs de Armazenamento - Proteção de Dados usam os recursos de snapshot do VMFS, os backups não exigem que você pare as máquinas virtuais. Esses backups são ininterruptos, podem ser realizados a qualquer momento e não precisam de janelas de backup estendidas. Para obter informações sobre as APIs de armazenamento - Proteção de dados e integração com produtos de backup, consulte o site VMware ou entre em contato com o fornecedor. vSphere Storage VMware, Inc. Traduzido automaticamente 49 Usando o ESXi com Fibre Channel SAN 4 Quando você configura hosts ESXi para usar matrizes de armazenamento FC SAN, considerações especiais são necessárias. Esta seção fornece informações introdutórias sobre como usar o ESXi com uma matriz FC SAN. Este capítulo inclui os seguintes tópicos: n Conceitos de SAN Fibre Channel n Usando o zoneamento com SANs Fibre Channel n Como as máquinas virtuais acessam dados em uma SAN Fibre Channel Conceitos de SAN Fibre Channel Se você for um administrador do ESXi planejando configurar hosts para trabalhar com SANs, deverá ter um conhecimento prático dos conceitos de SAN. Você pode encontrar informações sobre SANs na versão impressa e na Internet. Como esse setor muda constantemente, verifique esses recursos com frequência. Se você é novo na tecnologia SAN, familiarize-se com a terminologia básica. Uma rede de área de armazenamento (SAN) é uma rede especializada de alta velocidade que conecta servidores host a subsistemas de armazenamento de alto desempenho. Os componentes de SAN incluem adaptadores de barramento de host (HBAs) nos servidores host, switches que ajudam a rotear o tráfego de armazenamento, os cabos, os processadores de armazenamento (SPs) e as matrizes de disco de armazenamento. Uma topologia de SAN com pelo menos um switch presente na rede forma uma malha de SAN. Para transferir o tráfego dos servidores host para o armazenamento compartilhado, a SAN usa o protocolo Fibre Channel (FC) que empacota comandos SCSI em quadros Fibre Channel. Para restringir o acesso do servidor a matrizes de armazenamento não alocadas a esse servidor, o SAN usa o zoneamento. Normalmente, as zonas são criadas para cada grupo de servidores que acessam um grupo compartilhado de dispositivos de armazenamento e LUNs. As zonas definem quais HBAs podem se conectar a quais SPs. Os dispositivos fora de uma zona não são visíveis para os dispositivos dentro da zona. VMware, Inc. Traduzido automaticamente 50 O zoneamento é semelhante ao mascaramento de LUN, que é comumente usado para o gerenciamento de permissões. O mascaramento de LUN é um processo que torna um LUN disponível para alguns hosts e indisponível para outros hosts. Ao transferir dados entre o servidor host e o armazenamento, a SAN usa uma técnica conhecida como caminhos múltiplos. Os caminhos múltiplos permitem que você tenha mais de um caminho físico do host ESXi para um LUN em um sistema de armazenamento. Geralmente, um único caminho de um host para um LUN consiste em um HBA, portas de switch, cabos de conexão e a porta do controlador de armazenamento. Se qualquer componente do caminho falhar, o host selecionará outro caminho disponível para E / S. O processo de detectar um caminho com falha e alternar para outro é chamado de failover de caminho. Portas em SAN Fibre Channel No contexto deste documento, uma porta é a conexão de um dispositivo na SAN. Cada nó na SAN, como um host, um dispositivo de armazenamento ou um componente de malha tem uma ou mais portas que o conectam à SAN. As portas são identificadas de várias maneiras. WWPN (World Wide Port Name) Um identificador globalmente exclusivo para uma porta que permite que determinados aplicativos acessem a porta. Os switches FC descobrem o WWPN de um dispositivo ou host e atribuem um endereço de porta ao dispositivo. Port_ID (ou endereço da porta) Dentro de uma SAN, cada porta tem uma ID de porta exclusiva que serve como o endereço FC para a porta. Essa ID exclusiva permite o roteamento de dados por meio da SAN para essa porta. Os switches FC atribuem a ID da porta quando o dispositivo faz login na malha. A ID da porta é válida apenas enquanto o dispositivo está conectado. Quando o N-Port ID Virtualization (NPIV) é usado, uma única porta do HBA do FC (N-port) pode ser registrada na malha usando vários WWPNs. Esse método permite que uma porta N reivindique vários endereços de malha, cada um dos quais aparece como uma entidade exclusiva. Quando os hosts do ESXi usam uma SAN, esses identificadores múltiplos e exclusivos permitem a atribuição de WWNs a máquinas virtuais individuais como parte de sua configuração. Tipos de matriz de armazenamento Fibre Channel O ESXi oferece suporte a diferentes sistemas de armazenamento e matrizes. Os tipos de armazenamento que seu host suporta incluem ativo-ativo, ativo-passivo e compatível com ALUA. Sistema de armazenamento ativo-ativo vSphere Storage VMware, Inc. Traduzido automaticamente 51 Oferece suporte ao acesso aos LUNs simultaneamente por meio de todas as portas de armazenamento que estão disponíveis sem degradação significativado desempenho. Todos os caminhos estão ativos, a menos que um caminho falhe. Sistema de armazenamento ativo-passivo Um sistema no qual um processador de armazenamento está ativamente fornecendo acesso a um determinado LUN. Os outros processadores atuam como um backup para o LUN e podem estar ativamente fornecendo acesso a outras E / S de LUN. A E / S pode ser enviada com êxito apenas para uma porta ativa para um determinado LUN. Se o acesso pela porta de armazenamento ativo falhar, um dos processadores de armazenamento passivo poderá ser ativado pelos servidores que o acessam. Sistema de armazenamento assimétrico Oferece suporte a acesso à unidade lógica assimétrica (ALUA). Os sistemas de armazenamento em conformidade com o ALUA fornecem diferentes níveis de acesso por porta. Com o ALUA, o host pode determinar os estados das portas de destino e priorizar os caminhos. O host usa alguns dos caminhos ativos como primário e usa outros como secundário. Usando o zoneamento com SANs Fibre Channel O zoneamento fornece controle de acesso na topologia de SAN. O zoneamento define quais HBAs podem se conectar a quais destinos. Quando você configura uma SAN usando o zoneamento, os dispositivos fora de uma zona não são visíveis para os dispositivos dentro da zona. O zoneamento tem os seguintes efeitos: n Reduz o número de destinos e LUNs apresentados a um host. n Controla e isola os caminhos em uma malha. n Pode impedir que sistemas não ESXi acessem um determinado sistema de armazenamento e possivelmente destruam dados VMFS. n Pode ser usado para separar ambientes diferentes, por exemplo, um teste de um ambiente de produção. Com ESXi hosts, use um zoneamento de iniciador único ou um zoneamento de inicializador único. Esta última é uma prática de zoneamento preferida. Usar o zoneamento mais restritivo evita problemas e configurações incorretas que podem ocorrer na SAN. Para obter instruções detalhadas e práticas recomendadas de zoneamento, entre em contato com os fornecedores de matriz de armazenamento ou switch. vSphere Storage VMware, Inc. Traduzido automaticamente 52 Como as máquinas virtuais acessam dados em uma SAN Fibre Channel ESXi armazena os arquivos de disco de uma máquina virtual em um repositório de dados VMFS que reside em um dispositivo de armazenamento SAN. Quando os sistemas operacionais convidados da máquina virtual enviam comandos SCSI para seus discos virtuais, a camada de virtualização SCSI converte esses comandos em operações de arquivo VMFS. Quando uma máquina virtual interage com seu disco virtual armazenado em uma SAN, ocorre o seguinte processo: 1 Quando o sistema operacional convidado em uma máquina virtual lê ou grava em um disco SCSI, ele envia comandos SCSI para o disco virtual. 2 Os drivers de dispositivo no sistema operacional da máquina virtual se comunicam com os controladores SCSI virtuais. 3 O controlador SCSI virtual encaminha o comando para o VMkernel. 4 O VMkernel executa as seguintes tarefas. a Localiza o arquivo de disco virtual apropriado no volume VMFS. b Mapeia as solicitações dos blocos no disco virtual para blocos no dispositivo físico apropriado. c Envia a solicitação de E / S modificada do driver de dispositivo no VMkernel para o HBA físico. 5 O HBA físico executa as seguintes tarefas. a Empacota a solicitação de E / S de acordo com as regras do protocolo FC. b Transmite a solicitação para a SAN. 6 Dependendo da porta que o HBA usa para se conectar à malha, um dos switches SAN recebe a solicitação. O switch roteia a solicitação para o dispositivo de armazenamento apropriado. vSphere Storage VMware, Inc. Traduzido automaticamente 53 Configurando o armazenamento Fibre Channel 5 Quando você usa ESXi sistemas com armazenamento SAN, existem requisitos específicos de hardware e sistema. Este capítulo inclui os seguintes tópicos: n ESXi Requisitos de SAN Fibre Channel n Etapas de instalação e configuração n Virtualização de ID de porta N ESXi Requisitos de SAN Fibre Channel Na preparação para configurar sua SAN e configurar seu sistema ESXi para usar o armazenamento SAN, revise os requisitos e as recomendações. n Certifique-se de que os sistemas ESXi sejam compatíveis com as combinações de hardware e firmware de armazenamento SAN que você usa. Para obter uma lista atualizada, consulte VMware Guia de Compatibilidade . n Configure o sistema para ter apenas um volume VMFS por LUN. n A menos que você esteja usando servidores sem disco, não configure a partição de diagnóstico em um SAN LUN. Se você usar servidores sem disco que inicializam a partir de uma SAN, uma partição de diagnóstico compartilhada será apropriada. n Use RDMs para acessar discos não processados. Para obter informações, consulte Capítulo 19 Mapeamento de dispositivo bruto. n Para que os caminhos múltiplos funcionem corretamente, cada LUN deve apresentar o mesmo número de ID de LUN para todos os ESXi hosts. n Certifique-se de que o driver do dispositivo de armazenamento especifique uma fila grande o suficiente. Você pode definir a profundidade da fila para o HBA físico durante uma configuração do sistema. VMware, Inc. Traduzido automaticamente 54 n Em máquinas virtuais que executam o Microsoft Windows, aumente o valor do parâmetro SCSI TimeoutValue para 60. Com esse aumento, o Windows pode tolerar E / S atrasada resultante de um failover de caminho. Para obter informações, consulte Definir tempo limite no SO convidado do Windows. ESXi Restrições à SAN Fibre Channel Quando você usa ESXi com uma SAN, aplicam-se determinadas restrições. n ESXi não é compatível com dispositivos de fita conectados por FC. n Você não pode usar software de caminhos múltiplos em uma máquina virtual para executar o balanceamento de carga de E / S para um único LUN físico. No entanto, quando sua máquina virtual do Microsoft Windows usa discos dinâmicos, essa restrição não se aplica. Para obter informações sobre como configurar discos dinâmicos, consulte Configurar o espelhamento de disco dinâmico. Definindo alocações de LUN Este tópico fornece informações gerais sobre como alocar LUNs quando o ESXi funciona com a SAN. Ao definir alocações de LUN, esteja ciente dos seguintes pontos: Provisionamento de armazenamento Para garantir que o sistema ESXi reconheça os LUNs no momento da inicialização, provisione todos os LUNs para os HBAs apropriados antes de conectar a SAN ao sistema ESXi. Provisione todos os LUNs para todos os ESXi HBAs ao mesmo tempo. O failover de HBA funcionará somente se todos os HBAs virem os mesmos LUNs. Para LUNs compartilhados entre vários hosts, certifique-se de que os IDs de LUN sejam consistentes em todos os hosts. vMotion e VMware DRS Ao usar vCenter Server e vMotion ou DRS, certifique-se de que os LUNs das máquinas virtuais estejam provisionados para todos os ESXi hosts. Essa ação fornece mais capacidade de mover máquinas virtuais. Ativo-ativo em comparação com matrizes ativo-passivo Ao usar o vMotion ou DRS com um dispositivo de armazenamento SAN ativo-passivo, certifique-se de que todos os ESXi sistemas tenham caminhos consistentes para todos os processadores de armazenamento. Não fazer isso pode causar falha no caminho quando ocorre uma migração do vMotion. Para matrizes de armazenamento ativo-passivo não listadas em Storage / SAN Compatibility, VMware não oferece suporte a failover de porta de armazenamento. Nesses casos, você deve conectar o servidor à porta ativa na matriz de armazenamento. Essa configuração garante que os LUNs sejam apresentados ao host ESXi. vSphere Storage VMware, Inc. Traduzido automaticamente 55 Definindo HBAs Fibre Channel Normalmente, os HBAs de FC que você usa no host ESXi funcionam corretamente com as definições de configuração padrão. Você deve seguir as diretrizes de configuração fornecidas pelo fornecedor da matriz de armazenamento. Durante a configuração do FC HBA, considere os seguintes problemas. n Não misture HBAs de FC de diferentes fornecedoresem um único host. Ter modelos diferentes do mesmo HBA é compatível, mas um único LUN não pode ser acessado por meio de dois tipos de HBA diferentes, apenas por meio do mesmo tipo. n Certifique-se de que o nível de firmware em cada HBA seja o mesmo. n Defina o valor do tempo limite para detectar um failover. Para garantir um desempenho ideal, não altere o valor padrão. n ESXi é compatível com conectividade Fibre Channel de ponta a ponta de 32 Gbps. Etapas de instalação e configuração Este tópico fornece uma visão geral das etapas de instalação e configuração que você precisa seguir ao configurar seu ambiente SAN para trabalhar com o ESXi. Siga estas etapas para configurar seu ambiente ESXi SAN. 1 Projete sua SAN se ela ainda não estiver configurada. A maioria das SANs existentes requer apenas pequenas modificações para funcionar com ESXi. 2 Verifique se todos os componentes da SAN atendem aos requisitos. 3 Realize qualquer modificação necessária na matriz de armazenamento. A maioria dos fornecedores tem documentação específica do fornecedor para configurar uma SAN para trabalhar com VMware ESXi. 4 Configure os HBAs para os hosts que você conectou à SAN. 5 Instale o ESXi nos hosts. 6 Crie máquinas virtuais e instale sistemas operacionais convidados. 7 (Opcional) Configure seu sistema para o failover de VMware HA ou para usar o Microsoft Clustering Services. 8 Atualize ou modifique seu ambiente conforme necessário. Virtualização de ID de porta N O N-Port ID Virtualization (NPIV) é um padrão ANSI T11 que descreve como uma única porta HBA Fibre Channel pode ser registrada com a malha usando vários nomes de portas mundiais (WWPNs). Isso permite que uma porta N conectada à malha reivindique vários endereços de malha. Cada endereço aparece como uma entidade exclusiva na malha Fibre Channel. vSphere Storage VMware, Inc. Traduzido automaticamente 56 Como o acesso ao LUN baseado em NPIV funciona O NPIV permite que uma única porta FC HBA registre vários identificadores exclusivos de nome mundial (WWN) com a malha, cada um dos quais pode ser atribuído a uma máquina virtual individual. Ao usar o NPIV, um administrador de SAN pode monitorar e rotear o acesso ao armazenamento por uma máquina virtual. Somente máquinas virtuais com RDMs podem ter atribuições WWN, e elas usam essas atribuições para todo o tráfego RDM. Quando uma máquina virtual tem um WWN atribuído a ela, o arquivo de configuração da máquina virtual (.vmx) é atualizado para incluir um par WWN. O par WWN consiste em um nome de porta mundial (WWPN) e um nome de nó mundial (WWNN). Quando essa máquina virtual é ligada, o VMkernel cria uma porta virtual (VPORT) no HBA físico que é usado para acessar o LUN. O VPORT é um HBA virtual que aparece na estrutura do FC como um HBA físico. Como seu identificador exclusivo, o VPORT usa o par WWN que foi atribuído à máquina virtual. Cada VPORT é específico para a máquina virtual. O VPORT é destruído no host e não aparece mais para a estrutura do FC quando a máquina virtual é desligada. Quando uma máquina virtual é migrada de um host para outro, o VPORT fecha no primeiro host e abre no host de destino. Quando as máquinas virtuais não têm atribuições WWN, elas acessam LUNs de armazenamento com os WWNs dos HBAs físicos do host. Requisitos para usar o NPIV Se você planeja habilitar o NPIV em suas máquinas virtuais, deve estar ciente de certos requisitos. n O NPIV pode ser usado apenas para máquinas virtuais com discos RDM. As máquinas virtuais com discos virtuais regulares usam os WWNs dos HBAs físicos do host. n Os HBAs no host devem oferecer suporte ao NPIV. Para obter informações, consulte VMware Guia de Compatibilidade e consulte a documentação do fornecedor. n Use HBAs do mesmo tipo. O VMware não oferece suporte a HBAs heterogêneos no mesmo host que acessa os mesmos LUNs. n Se um host usar vários HBAs físicos como caminhos para o armazenamento, faça a zona de todos os caminhos físicos para a máquina virtual. Isso é necessário para oferecer suporte a caminhos múltiplos, mesmo que apenas um caminho por vez esteja ativo. n Certifique-se de que os HBAs físicos no host possam detectar todos os LUNs que devem ser acessados por máquinas virtuais habilitadas para NPIV em execução nesse host. n Os switches na malha devem ser compatíveis com NPIV. n Ao configurar um LUN para acesso NPIV no nível de armazenamento, certifique-se de que o número do LUN NPIV e o ID de destino do NPIV correspondam ao LUN físico e ao ID de destino. vSphere Storage VMware, Inc. Traduzido automaticamente 57 n Distribua as WWPNs do NPIV para que elas se conectem a todos os sistemas de armazenamento que os hosts do cluster podem acessar, mesmo se a VM não usar o armazenamento. Se você adicionar qualquer novo sistema de armazenamento a um cluster com uma ou mais VMs ativadas para NPIV, adicione as novas zonas, para que os WWPNs do NPIV possam detectar as novas portas de destino do sistema de armazenamento. Recursos e limitações de NPIV Saiba mais sobre recursos específicos e limitações do uso de NPIV com ESXi. O ESXi com NPIV oferece suporte aos seguintes itens: n O NPIV é compatível com o vMotion. Quando você usa o vMotion para migrar uma máquina virtual, ela mantém o WWN atribuído. Se você migrar uma máquina virtual habilitada para NPIV para um host que não oferece suporte a NPIV, o VMkernel será revertido para o uso de um HBA físico para rotear a E / S. n Se o seu ambiente do FC SAN oferecer suporte à E / S simultânea nos discos de uma matriz ativa / ativa, a E / S simultânea para duas portas NPIV diferentes também será suportada. Quando você usa ESXi com NPIV, as seguintes limitações se aplicam: n Como a tecnologia NPIV é uma extensão do protocolo FC, ela requer um comutador FC e não funciona nos discos FC conectados diretamente. n Quando você clona uma máquina virtual ou um modelo com um WWN atribuído a ela, os clones não retêm o WWN. n O NPIV não é compatível com Storage vMotion. n Desativar e, em seguida, reativar o recurso NPIV em um comutador FC enquanto as máquinas virtuais estão em execução pode fazer com que um link FC falhe e a E / S pare. Configurar ou modificar atribuições WWN Atribua as configurações do WWN à máquina virtual. Mais tarde, você pode modificar as atribuições do WWN. Você pode criar de 1 a 16 pares WWN, que podem ser mapeados para os primeiros 1 a 16 FC HBAs físicos no host. Normalmente, você não precisa alterar as atribuições WWN existentes na sua máquina virtual. Em determinadas circunstâncias, por exemplo, quando os WWNs atribuídos manualmente estão causando conflitos na SAN, pode ser necessário alterar ou remover os WWNs. Pré-requisitos n Antes de configurar o WWN, certifique-se de que o host ESXi possa acessar a lista de controle de acesso (ACL) do LUN de armazenamento configurada no lado da matriz. n Se você quiser editar os WWNs existentes, desligue a máquina virtual. vSphere Storage VMware, Inc. Traduzido automaticamente 58 Procedimentos 1 Clique com o botão direito do mouse na máquina virtual no inventário e selecione Editar configurações (Edit Settings). 2 Clique em Opções de VM (VM Options) e expanda NPIV Fibre Channel (Fibre Channel NPIV). 3 Crie ou edite as atribuições do WWN selecionando uma das seguintes opções: Opção Descrição Desativar temporariamente o NPIV para esta máquina virtual Desative, mas não remova as atribuições WWN existentes para a máquina virtual. Deixar inalterado Mantenha as atribuições WWN existentes. A seção de atribuições WWN somente leitura exibe os valores de nó e porta de quaisquer atribuições WWN existentes. Gerar novos WWNs Gere novos WWNs, substituindo quaisquer WWNs existentes. Os WWNs do HBA não são afetados. Especifique o número de WWNNs e WWPNs. É necessário um mínimo de dois WWPNs para oferecer suporte ao failover com NPIV. Normalmente, apenas um WWNN é criado para cada máquina virtual. Remover atribuição WWN Remova os WWNs atribuídos à máquina virtual.A máquina virtual usa os WWNs do HBA para acessar o LUN de armazenamento. 4 Clique em OK(OK) para salvar as alterações. Próximo passo Registre os WWNs criados recentemente na malha. vSphere Storage VMware, Inc. Traduzido automaticamente 59 Configurando o Fibre Channel sobre Ethernet 6 Para acessar o armazenamento Fibre Channel, um host ESXi pode usar o protocolo Fibre Channel over Ethernet (FCoE). Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. O protocolo FCoE encapsula quadros Fibre Channel em quadros Ethernet. Como resultado, seu host não precisa de links Fibre Channel especiais para se conectar ao armazenamento Fibre Channel. O host pode usar Ethernet sem perdas de 10 Gbit para fornecer tráfego Fibre Channel. Este capítulo inclui os seguintes tópicos: n Adaptadores Fibre Channel over Ethernet n Diretrizes de configuração para o FCoE de software n Configurar a rede para o FCoE de software n Adicionar Adaptadores FCoE de Software Adaptadores Fibre Channel over Ethernet Para usar o Fibre Channel over Ethernet (FCoE), configure os adaptadores apropriados no host. Os adaptadores compatíveis com o VMware geralmente se enquadram em duas categorias: adaptadores FCoE de hardware e adaptadores FCoE de software que usam a pilha FCoE nativa em ESXi. Para obter informações sobre adaptadores que podem ser usados com o VMware FCoE, consulte o VMware Guia de Compatibilidade Adaptadores de hardware FCoE Essa categoria inclui adaptadores de rede convergentes (CNAs) especializados que contêm funcionalidades de rede e de canal de fibra na mesma placa. Quando esse adaptador é instalado, o host detecta e pode usar ambos os componentes CNA. No vSphere Client, o componente de rede aparece como um adaptador de rede padrão (vmnic) e o componente Fibre Channel como um adaptador FCoE (vmhba). Você não precisa configurar o adaptador FCoE de hardware para usá-lo. VMware, Inc. Traduzido automaticamente 60 Adaptadores FCoE de software Observação A partir do vSphere 7.0, o VMware não é mais compatível com o software FCoE em ambientes de produção. Um adaptador FCoE de software usa a pilha de protocolo FCoE nativo em ESXi para realizar parte do processamento de FCoE. Você deve usar o adaptador FCoE de software com uma NIC compatível. O VMware oferece suporte a duas categorias de NICs com os adaptadores FCoE de software. NICs com descarregamento parcial de FCoE A extensão dos recursos de transferência pode depender do tipo de NIC. Geralmente, as NICs oferecem recursos de transferência de E / S e ponte de centro de dados (DCB). NICs sem descarregamento de FCoE Qualquer NIC que ofereça Data Center Bridging (DCB) e tenha uma velocidade mínima de 10 Gbps. Os adaptadores de rede não são necessários para oferecer suporte a nenhum recurso de descarregamento de FCoE. Ao contrário do adaptador de hardware FCoE, o adaptador de software deve ser ativado. Antes de ativar o adaptador, você deve configurar a rede corretamente. Observação O número de adaptadores FCoE de software que você ativa corresponde ao número de portas físicas da NIC. O ESXi suporta um máximo de quatro adaptadores FCoE de software em um host. Diretrizes de configuração para o FCoE de software Ao configurar seu ambiente de rede para funcionar com ESXi software FCoE, siga as diretrizes e práticas recomendadas que VMware oferece. Diretrizes do Network Switch Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. Siga estas diretrizes ao configurar um switch de rede para o ambiente FCoE de software: n Nas portas que se comunicam com o host ESXi, desative o STP (Protocolo de Árvore de Expansão). Ter o STP ativado pode atrasar a resposta do FCoE Initialization Protocol (FIP) no switch e causar uma condição de todos os caminhos desativados (APD). O FIP é um protocolo que o FCoE usa para descobrir e inicializar entidades de FCoE na Ethernet. n Ative o Controle de fluxo baseado em prioridade (PFC) e defina-o como AUTO. n Certifique-se de ter uma versão de firmware compatível no switch FCoE. vSphere Storage VMware, Inc. Traduzido automaticamente 61 n Defina a MTU no vSwitch como 2500 ou mais. Diretrizes e práticas recomendadas do adaptador de rede Se você planeja permitir que os adaptadores FCoE de software funcionem com adaptadores de rede, considerações específicas serão aplicadas. n Independentemente de você usar uma NIC parcialmente descarregada ou uma NIC não compatível com FCoE, certifique-se de que o microcode mais recente esteja instalado no adaptador de rede. n Se você usar o NIC não compatível com FCoE, certifique-se de que ele tenha o recurso DCB para ativação de FCoE de software. n Se o adaptador de rede tiver várias portas, ao configurar a rede, adicione cada porta a um vSwitch separado. Essa prática ajuda a evitar uma condição de APD quando ocorre um evento disruptivo, como uma alteração de MTU. n Não mova uma porta do adaptador de rede de um vSwitch para outro quando o tráfego FCoE estiver ativo. Se você fizer essa alteração, reinicie o host depois. n Se você alterou o vSwitch para uma porta do adaptador de rede e causou uma falha, mover a porta de volta para o vSwitch original resolverá o problema. Configurar a rede para o FCoE de software Antes de ativar os adaptadores FCoE de software no host ESXi, crie adaptadores de rede VMkernel para todas as NICs FCoE físicas instaladas no host. Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. Este procedimento explica como criar um único adaptador de rede VMkernel conectado a um único adaptador de rede físico FCoE por meio de um switch vSphere Standard. Se o seu host tiver vários adaptadores de rede ou várias portas no adaptador, conecte cada NIC do FCoE a um switch padrão separado. Para obter mais informações, consulte a documentação do Rede do vSphere . Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique em Ações (Actions) > Adicionar Rede (Add Networking). 3 Selecione Adaptador de Rede VMkernel (VMkernel Network Adapter) e clique em Avançar (Next). 4 Selecione Novo switch padrão (New standard switch) para criar um switch vSphere Standard. vSphere Storage VMware, Inc. Traduzido automaticamente 62 5 Para habilitar quadros Jumbo, altere MTU (Bytes) (MTU (Bytes)) para o valor de 2500 ou mais e clique em Avançar (Next). 6 Clique no ícone Adicionar adaptadores (Add adapters) e selecione o adaptador de rede (vmnic #) compatível com FCoE. Certifique-se de atribuir o adaptador a adaptadores ativos. 7 Insira um rótulo de rede. Rótulo de rede é um nome amigável que identifica o adaptador VMkernel que você está criando, por exemplo, FCoE. 8 Especifique uma ID de VLAN e clique em Avançar (Next). O tráfego de FCoE requer uma rede isolada. Certifique-se de que a ID da VLAN inserida seja diferente daquela usada para redes normais no seu host. Para obter mais informações, consulte a documentação do Rede do vSphere . 9 Depois de concluir a configuração, revise as informações e clique em Concluir (Finish). Resultados Você criou o adaptador VMkernel virtual para o adaptador de rede FCoE físico instalado no host. Observação Para evitar interrupções de tráfego de FCoE, não remova o adaptador de rede FCoE (vmnic #) do switch vSphere Standard depois de configurar a rede FCoE. Adicionar Adaptadores FCoE de Software Você deve ativar os adaptadores FCoE de software para que seu host ESXi possa usá-los para acessar o armazenamento Fibre Channel. Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em ambientes de produção. O número de adaptadores FCoE de software que você pode ativar corresponde ao número de portas físicas da NIC FCoE no host. ESXi é compatível com o máximo de quatro adaptadores FCoE de software em um host. Pré-requisitos Configure a rede parao adaptador FCoE do software. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e clique no ícone Adicionar Adaptador de Software (Add Software Adapter). vSphere Storage VMware, Inc. Traduzido automaticamente 63 4 Selecione Adaptador FCoE de Software (Software FCoE Adapter). 5 Na caixa de diálogo Adicionar Adaptador FCoE de Software, selecione um vmnic apropriado na lista suspensa de adaptadores de rede físicos. Apenas os adaptadores que ainda não são usados para o tráfego FCoE são listados. 6 Clique em Okey(OK). O adaptador FCoE do software aparece na lista de adaptadores de armazenamento. Resultados Depois de ativar o adaptador FCoE do software, você poderá visualizar suas propriedades. Se você não usar o adaptador, poderá removê-lo da lista de adaptadores. vSphere Storage VMware, Inc. Traduzido automaticamente 64 Inicializando ESXi pela SAN Fibre Channel 7 Quando você configura o host para inicializar a partir de uma SAN, a imagem de inicialização do host é armazenada em um ou mais LUNs no sistema de armazenamento da SAN. Quando o host é iniciado, ele é inicializado a partir do LUN na SAN em vez de seu disco local. O ESXi oferece suporte à inicialização por meio de um adaptador de barramento de host Fibre Channel (HBA) ou um adaptador de rede convergente (CNA) Fibre Channel over Ethernet (FCoE). Este capítulo inclui os seguintes tópicos: n Benefícios da inicialização a partir de SAN n Requisitos e considerações ao inicializar do SAN Fibre Channel n Preparando-se para a inicialização a partir da SAN n Configurar o Emulex HBA para inicializar a partir da SAN n Configurar o QLogic HBA para inicializar a partir da SAN Benefícios da inicialização a partir de SAN A inicialização a partir da SAN pode oferecer vários benefícios ao seu ambiente ESXi. No entanto, em certos casos, a inicialização via SAN não é compatível com seus hosts. Antes de configurar o sistema para inicialização via SAN, decida se é apropriado para o seu ambiente. Cuidado Quando você usa a inicialização da SAN com vários ESXi hosts, cada host deve ter seu próprio LUN de inicialização. Se você configurar vários hosts para compartilhar o LUN de inicialização, poderá ocorrer ESXi corrupção de imagem. Se você usar a inicialização via SAN, os benefícios para o seu ambiente incluirão o seguinte: n Servidores mais baratos. Os servidores podem ser mais densos e ficar mais frios sem armazenamento interno. n Substituição mais fácil do servidor. Você pode substituir servidores e fazer com que o novo servidor aponte para o local de inicialização antigo. n Menos espaço desperdiçado. Servidores sem discos locais geralmente ocupam menos espaço. VMware, Inc. Traduzido automaticamente 65 n Processos de backup mais fáceis. Você pode fazer backup das imagens de inicialização do sistema na SAN como parte dos procedimentos gerais de backup da SAN. Além disso, você pode usar recursos avançados de matriz, como snapshots na imagem de inicialização. n Gerenciamento aprimorado. Criar e gerenciar a imagem do sistema operacional é mais fácil e mais eficiente. n Melhor confiabilidade. Você pode acessar o disco de inicialização por meio de vários caminhos, o que protege o disco de ser um ponto único de falha. Requisitos e considerações ao inicializar do SAN Fibre Channel Sua configuração de inicialização ESXi deve atender a requisitos específicos. Tabela 7-1. Inicialização a partir dos requisitos da SAN Requisito Descrição ESXi requisitos do sistema Siga as recomendações do fornecedor para a inicialização do servidor a partir de uma SAN. Requisitos do adaptador Configure o adaptador para que ele possa acessar o LUN de inicialização. Consulte a documentação do fornecedor. Controle de acesso n Cada host deve ter acesso apenas ao seu próprio LUN de inicialização, não aos LUNs de inicialização de outros hosts. Use o software do sistema de armazenamento para garantir que o host acesse apenas os LUNs designados. n Vários servidores podem compartilhar uma partição de diagnóstico. Você pode usar o mascaramento de LUN específico da matriz para obter essa configuração. Suporte para vários caminhos Não há suporte para vários caminhos para um LUN de inicialização em matrizes ativo-passivas porque o BIOS não oferece suporte a vários caminhos e não é possível ativar um caminho em espera. Considerações de SAN Se a matriz não for certificada para uma topologia de conexão direta, as conexões SAN deverão ser feitas por meio de uma topologia comutada. Se a matriz for certificada para a topologia de conexão direta, as conexões SAN poderão ser feitas diretamente à matriz. A inicialização a partir da SAN é compatível com topologia comutada e topologia de conexão direta. Considerações específicas por hardware Se você estiver executando um IBM eServer BladeCenter e usar a inicialização via SAN, deverá desativar as unidades IDE nos blades. Preparando-se para a inicialização a partir da SAN Ao preparar seu host ESXi para inicializar a partir de uma SAN, você executa várias tarefas. vSphere Storage VMware, Inc. Traduzido automaticamente 66 Esta seção descreve o processo de ativação de inicialização a partir da SAN genérico nos servidores montados em rack. Para obter informações sobre como ativar a opção de inicialização a partir da SAN nos servidores blade FCoE do Cisco Unified Computing System, consulte a documentação da Cisco. Procedimentos 1 Configurar componentes de SAN e sistema de armazenamento Antes de configurar seu host ESXi para inicializar a partir de um LUN de SAN, configure os componentes de SAN e um sistema de armazenamento. 2 Configurar o adaptador de armazenamento para inicializar a partir da SAN Ao configurar seu host para inicializar a partir da SAN, você habilita o adaptador de inicialização no BIOS do host. Em seguida, configure o adaptador de inicialização para iniciar uma conexão primitiva com o LUN de inicialização de destino. 3 Configurar o sistema para inicializar a partir da mídia de instalação Ao configurar seu host para inicializar a partir da SAN, primeiro inicialize o host a partir da mídia de instalação VMware. Para inicializar a partir da mídia de instalação, altere a sequência de inicialização do sistema na configuração do BIOS. Configurar componentes de SAN e sistema de armazenamento Antes de configurar seu host ESXi para inicializar a partir de um LUN de SAN, configure os componentes de SAN e um sistema de armazenamento. Como a configuração dos componentes da SAN é específica do fornecedor, consulte a documentação do produto de cada item. Procedimentos 1 Conecte o cabo de rede, consultando qualquer guia de cabeamento aplicável à sua configuração. Verifique a fiação do switch, se houver alguma. 2 Configure a matriz de armazenamento. a Na matriz de armazenamento da SAN, torne o host ESXi visível para a SAN. Esse processo é muitas vezes chamado de criação de um objeto. b Na matriz de armazenamento SAN, configure o host para ter os WWPNs dos adaptadores do host como nomes de porta ou nomes de nó. c Crie LUNs. d Atribuir LUNs. vSphere Storage VMware, Inc. Traduzido automaticamente 67 e Registre os endereços IP dos switches e matrizes de armazenamento. f Grave o WWPN para cada SP. Cuidado Se você usar um processo de instalação com script para instalar ESXi na inicialização do modo SAN, execute etapas especiais para evitar a perda de dados não intencional. Configurar o adaptador de armazenamento para inicializar a partir da SAN Ao configurar seu host para inicializar a partir da SAN, você habilita o adaptador de inicialização no BIOS do host. Em seguida, configure o adaptador de inicialização para iniciar uma conexão primitiva com o LUN de inicialização de destino. Pré-requisitos Determine o WWPN para o adaptador de armazenamento. Procedimentos u Configure o adaptador de armazenamentopara inicializar a partir da SAN. Como a configuração de adaptadores de inicialização é específica do fornecedor, consulte a documentação do fornecedor. Configurar o sistema para inicializar a partir da mídia de instalação Ao configurar seu host para inicializar a partir da SAN, primeiro inicialize o host a partir da mídia de instalação VMware. Para inicializar a partir da mídia de instalação, altere a sequência de inicialização do sistema na configuração do BIOS. Como a alteração da sequência de inicialização no BIOS é específica do fornecedor, consulte a documentação do fornecedor para obter instruções. O procedimento a seguir explica como alterar a sequência de inicialização em um host IBM. Procedimentos 1 Ligue o sistema e insira o BIOS Configuration / Setup Utility do sistema. 2 Selecione Opções de inicialização (Startup Options) e pressione Enter. 3 Selecione Opções de sequência de inicialização (Startup Sequence Options) e pressione Enter. 4 Altere o Primeiro dispositivo de inicialização (First Startup Device) para [CD-ROM] ([CD- ROM]). Resultados Agora você pode instalar o ESXi. vSphere Storage VMware, Inc. Traduzido automaticamente 68 Configurar o Emulex HBA para inicializar a partir da SAN A configuração do BIOS do Emulex HBA para inicializar a partir da SAN inclui a ativação do prompt BootBIOS e a ativação do BIOS. Procedimentos 1 Ativar o prompt do BootBIOS Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você precisa habilitar o prompt BootBIOS. 2 Ativar o BIOS Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você deve habilitar o BIOS. Ativar o prompt do BootBIOS Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você precisa habilitar o prompt BootBIOS. Procedimentos 1 Execute lputil . 2 Selecione 3. Manutenção de Firmware . 3 Selecione um adaptador. 4 Selecione 6. Manutenção do BIOS de inicialização . 5 Selecione 1. Ativar BIOS de inicialização . Ativar o BIOS Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você deve habilitar o BIOS. Procedimentos 1 Reinicialize o host. 2 Para configurar os parâmetros do adaptador, pressione ALT + E no prompt do Emulex e siga estas etapas. a Selecione um adaptador (com suporte para BIOS). b Selecione 2. Configure os parâmetros deste adaptador. c Selecione 1. Ativar ou desativar BIOS. d Selecione 1 (1) para ativar o BIOS. e Selecione x (x) para sair e Esc (Esc) para retornar ao menu anterior. vSphere Storage VMware, Inc. Traduzido automaticamente 69 3 Para configurar o dispositivo de inicialização, siga estas etapas no menu principal do Emulex. a Selecione o mesmo adaptador. b Selecione 1. Configurar dispositivos de inicialização. c Selecione a localização para a Entrada de inicialização. d Digite o dispositivo de inicialização de dois dígitos. e Insira o LUN inicial de dois dígitos (HEX) (por exemplo, 08 ). f Selecione o LUN de inicialização. g Selecione 1. WWPN. (Inicialize este dispositivo usando WWPN, não DID). h Selecione x (x) para sair e Y (Y) para reiniciar. 4 Inicialize o BIOS do sistema e mova o Emulex primeiro na sequência do controlador de inicialização. 5 Reinicialize e instale o em um SAN LUN. Configurar o QLogic HBA para inicializar a partir da SAN Este procedimento de amostra explica como configurar o QLogic HBA para inicializar ESXi da SAN. O procedimento envolve ativar o QLogic HBA BIOS, habilitar a inicialização selecionável e selecionar o LUN de inicialização. Procedimentos 1 Durante a inicialização do servidor, pressione Ctrl + Q (Ctrl+Q) para inserir o utilitário de configuração do Fast! UTIL. 2 Execute a ação apropriada dependendo do número de HBAs. Opção Descrição Um HBA Se você tiver apenas um HBA, a página Opções do Fast! UTIL será exibida. Pule para Etapa 3 . Vários HBAs Se você tiver mais de um HBA, selecione o HBA manualmente. a Na página Selecionar Adaptador do Host, use as teclas de seta para posicionar o ponteiro no HBA apropriado. b Pressione Enter(Enter). 3 Na página Opções do Fast! UTIL, selecione Configurações (Configuration Settings) e pressione Inserir (Enter). 4 Na página Configurações de Configuração, selecione Configurações do Adaptador (Adapter Settings) e pressione Inserir (Enter). vSphere Storage VMware, Inc. Traduzido automaticamente 70 5 Defina o BIOS para procurar dispositivos SCSI. a Na página Configurações do Adaptador Host, selecione BIOS do Adaptador Host (Host Adapter BIOS). b Pressione Enter (Enter) para alternar o valor para Ativado (Enabled). c Pressione Esc (Esc) para sair. 6 Habilite a inicialização selecionável. a Selecione Configurações de inicialização selecionáveis (Selectable Boot Settings) e pressione Insira (Enter). b Na página Configurações de Inicialização Selecionável, selecione Inicialização Selecionável (Selectable Boot). c Pressione Enter (Enter) para alternar o valor para Ativado (Enabled). 7 Selecione a entrada Nome da porta de inicialização na lista de processadores de armazenamento (SPs) e pressione Inserir (Enter). A página Selecionar Dispositivo Fibre Channel é aberta. 8 Selecione o SP específico e pressione Enter (Enter). Se você estiver usando uma matriz de armazenamento ativo-passivo, o SP selecionado deverá estar no caminho (ativo) preferido para o LUN de inicialização. Se você não tiver certeza de qual SP está no caminho ativo, use o software de gerenciamento de matriz de armazenamento para descobrir. Os IDs de destino são criados pelo BIOS e podem mudar a cada reinicialização. 9 Execute a ação apropriada dependendo do número de LUNs anexados ao SP. Opção Descrição Um LUN O LUN é selecionado como o LUN de inicialização. Você não precisa entrar na página Selecionar LUN. Vários LUNs A página Selecionar LUN é aberta. Use o ponteiro para selecionar o LUN de inicialização e pressione Enter (Enter). 10 Se qualquer processador de armazenamento restante aparecer na lista, pressione C (C) para limpar os dados. 11 Pressione Esc (Esc) duas vezes para sair e pressione Insira (Enter) para salvar a configuração. vSphere Storage VMware, Inc. Traduzido automaticamente 71 Inicializando ESXi com o Software FCoE 8 O ESXi é compatível com a inicialização de adaptadores de rede compatíveis com FCoE. Somente NICs com descarregamento de FCoE parcial suportam os recursos de inicialização com o software FCoE. Se você usar as NICs sem descarregamento de FCoE, a inicialização de FCoE do software não será suportada. Quando você instala e inicializa ESXi de um LUN FCoE, o host pode usar um adaptador FCoE VMware de software e um adaptador de rede com recursos de FCoE. O host não requer um FCoE HBA dedicado. Você executa a maioria das configurações por meio do option ROM do seu adaptador de rede. Os adaptadores de rede devem oferecer suporte a um dos seguintes formatos, que comunicam parâmetros sobre um dispositivo de inicialização FCoE para o VMkernel. n FCoE Boot Firmware Table (FBFT). FBFT é propriedade da Intel. n Tabela de parâmetros de inicialização do FCoE (FBPT). O FBPT é definido por VMware para fornecedores de terceiros implementarem uma inicialização de FCoE de software. Os parâmetros de configuração são definidos no option ROM do seu adaptador. Durante uma instalação ESXi ou uma inicialização subsequente, esses parâmetros são exportados para a memória do sistema no formato FBFT ou FBPT. O VMkernel pode ler as definições de configuração e usá-las para acessar o LUN de inicialização. Este capítulo inclui os seguintes tópicos: n Requisitos e considerações para inicialização FCoE de software n Configurar a inicialização FCoE do software n Solucionando problemas de inicialização do a partir do software FCoE para um host ESXi Requisitos e considerações para inicialização FCoE de software Quando você inicializa o host ESXi da SAN usando o software FCoE, certos requisitos e considerações se aplicam. VMware, Inc. Traduzido automaticamente 72 Requisitos n Use o ESXi de uma versãocompatível. n O adaptador de rede deve ter os seguintes recursos: n Ser capaz de fazer FCoE. n Suporte para ESXi pilha FCoE aberta. n Contém firmware de inicialização FCoE que pode exportar informações de inicialização no formato FBFT ou no formato FBPT. Considerações n Não é possível alterar a configuração de inicialização do software FCoE no ESXi. n O despejo de memória não tem suporte em nenhum LUN de FCoE de software, incluindo o LUN de inicialização. n Não há suporte para múltiplos caminhos na pré-inicialização. n O LUN de inicialização não pode ser compartilhado com outros hosts, mesmo no armazenamento compartilhado. Certifique-se de que o host tenha acesso a todo o LUN de inicialização. Configurar a inicialização FCoE do software Seu host ESXi pode ser inicializado a partir de um LUN de FCoE usando o adaptador FCoE de software e um adaptador de rede. Ao configurar seu host para uma inicialização de FCoE por software, você executa várias tarefas. Pré-requisitos O adaptador de rede tem os seguintes recursos: n Suporte para descarregamentos de FCoE parciais (software FCoE). n Conter uma tabela de Firmware de inicialização FCoE (FBFT) ou uma tabela de parâmetros de inicialização FCoE (FBPT). Para obter informações sobre os adaptadores de rede que oferecem suporte à inicialização de FCoE por software, consulte VMware Guia de Compatibilidade . Procedimentos 1 Configurar os parâmetros de inicialização do FCoE do software Para oferecer suporte a um processo de inicialização de FCoE por software, um adaptador de rede no host deve ter um firmware de inicialização de FCoE especialmente configurado. Ao configurar o firmware, habilite o adaptador para a inicialização do FCoE do software e especifique os parâmetros do LUN de inicialização. vSphere Storage VMware, Inc. Traduzido automaticamente 73 2 Instalar e inicializar ESXi a partir do software FCoE LUN Quando você configura seu sistema para inicializar a partir de um LUN FCoE de software, instala a imagem ESXi no LUN de destino. Em seguida, você pode inicializar seu host desse LUN. Configurar os parâmetros de inicialização do FCoE do software Para oferecer suporte a um processo de inicialização de FCoE por software, um adaptador de rede no host deve ter um firmware de inicialização de FCoE especialmente configurado. Ao configurar o firmware, habilite o adaptador para a inicialização do FCoE do software e especifique os parâmetros do LUN de inicialização. Procedimentos u Na opção ROM do adaptador de rede, especifique os parâmetros de inicialização do FCoE do software. Esses parâmetros incluem um destino de inicialização, um LUN de inicialização, uma ID de VLAN e assim por diante. Como a configuração do adaptador de rede é específica do fornecedor, consulte a documentação do fornecedor para obter instruções. Instalar e inicializar ESXi a partir do software FCoE LUN Quando você configura seu sistema para inicializar a partir de um LUN FCoE de software, instala a imagem ESXi no LUN de destino. Em seguida, você pode inicializar seu host desse LUN. Pré-requisitos n Configure o option ROM do adaptador de rede para que ele aponte para um LUN de inicialização de destino. Certifique-se de ter informações sobre o LUN inicializável. n Altere a ordem de inicialização no BIOS do sistema para a seguinte sequência: a O adaptador de rede que você usa para a inicialização do FCoE do software. b A ESXi mídia de instalação. Consulte a documentação do fornecedor do seu sistema. Procedimentos 1 Inicie uma instalação interativa a partir da mídia de instalação ESXi. O instalador ESXi verifica se a inicialização do FCoE está habilitada no BIOS e, se necessário, cria um switch virtual padrão para o adaptador de rede compatível com FCoE. O nome do vSwitch é VMware _FCoE_vSwitch. Em seguida, o instalador usa parâmetros de inicialização de FCoE pré-configurados para descobrir e exibir todos os LUNs de FCoE disponíveis. vSphere Storage VMware, Inc. Traduzido automaticamente 74 2 Na página Selecionar um Disco , selecione o software FCoE LUN que você especificou na configuração do parâmetro de inicialização. Se o LUN de inicialização não aparecer neste menu, certifique-se de ter configurado os parâmetros de inicialização corretamente no option ROM do adaptador de rede. 3 Conclua a instalação seguindo os prompts. 4 Reinicialize o host. 5 Altere a ordem de inicialização no BIOS do sistema para que o LUN de inicialização do FCoE seja o primeiro dispositivo inicializável. ESXi continua inicializando a partir do software FCoE LUN até que esteja pronto para ser usado. Próximo passo Se necessário, você pode renomear e modificar o VMware _FCoE_vSwitch que o instalador criou automaticamente. Certifique-se de que o modo Cisco Discovery Protocol (CDP) esteja definido como Escuta ou Ambos. Solucionando problemas de inicialização do a partir do software FCoE para um host ESXi Se a instalação ou a inicialização de ESXi de um LUN de FCoE de software falhar, você poderá usar vários métodos de solução de problemas. Problema Quando você instala ou inicializa ESXi do armazenamento FCoE, a instalação ou o processo de inicialização falha. A configuração de FCoE que você usa inclui um adaptador FCoE de software VMware e um adaptador de rede com recursos de descarregamento de FCoE parciais. Solução n Certifique-se de ter configurado os parâmetros de inicialização corretamente na opção ROM do adaptador de rede FCoE. n Durante a instalação, monitore o BIOS do adaptador de rede FCoE quanto a erros. n Se possível, verifique se há erros no log do VMkernel. n Use o comando esxcli para verificar se o LUN de inicialização está presente. esxcli conn_options hardware bootdevice list vSphere Storage VMware, Inc. Traduzido automaticamente 75 Boas práticas para armazenamento Fibre Channel 9 Ao usar ESXi com SAN Fibre Channel, siga as recomendações para evitar problemas de desempenho. O vSphere Client oferece amplos recursos para a coleta de informações de desempenho. As informações são exibidas graficamente e atualizadas com frequência. Você também pode usar os utilitários de linha de comando resxtop ou esxtop. Os utilitários fornecem uma visão detalhada de como ESXi usa recursos. Para obter mais informações, consulte a documentação do Gerenciamento de Recursos do vSphere . Verifique com seu representante de armazenamento se o seu sistema de armazenamento é compatível com os recursos de aceleração de hardware Storage API - Array Integration. Em caso afirmativo, consulte a documentação do fornecedor para habilitar o suporte à aceleração de hardware no lado do sistema de armazenamento. Para obter mais informações, consulte Capítulo 24 Aceleração de hardware de armazenamento. Este capítulo inclui os seguintes tópicos: n Prevenção de problemas de SAN Fibre Channel n Desativar o registro automático do host ESXi n Otimizando o desempenho do armazenamento SAN Fibre Channel Prevenção de problemas de SAN Fibre Channel Ao usar ESXi com uma SAN Fibre Channel, siga as diretrizes específicas para evitar problemas com a SAN. Para evitar problemas com a configuração da SAN, observe estas dicas: n Coloque apenas um repositório de dados VMFS em cada LUN. n Não altere a política de caminho que o sistema define para você, a menos que você entenda as implicações de fazer essa alteração. n Documente tudo. Inclua informações sobre zoneamento, controle de acesso, armazenamento, switch, configuração de servidor e FC HBA, versões de software e firmware e plano de cabos de armazenamento. VMware, Inc. Traduzido automaticamente 76 n Plano para falha: n Faça várias cópias dos seus mapas de topologia. Para cada elemento, considere o que acontece com a SAN se o elemento falhar. n Verifique diferentes links, switches, HBAs e outros elementos para garantir que você não tenha perdido um ponto de falha crítico no seu projeto. n Certifique-se de que os HBAs Fibre Channel estejam instalados nos slots corretos no host,com base na velocidade do slot e do barramento. Equilibre a carga do barramento PCI entre os barramentos disponíveis no servidor. n Familiarize-se com os vários pontos de monitoramento em sua rede de armazenamento, em todos os pontos de visibilidade, incluindo gráficos de desempenho do host, estatísticas de switch FC e estatísticas de desempenho de armazenamento. n Seja cauteloso ao alterar IDs dos LUNs que têm repositórios de dados VMFS sendo usados pelo host ESXi. Se você alterar a ID, o datastore se tornará inativo e suas máquinas virtuais falharão. Ressignifique o repositório de dados para torná-lo ativo novamente. Consulte Gerenciando repositórios de dados VMFS duplicados. Depois de alterar o ID do LUN, verifique novamente o armazenamento para redefinir o ID no seu host. Para obter informações sobre como usar a nova verificação, consulte Operações de nova verificação de armazenamento. Desativar o registro automático do host ESXi Determinadas matrizes de armazenamento exigem que ESXi hosts se registrem nas matrizes. ESXi realiza o registro automático do host enviando o nome e o endereço IP do host para a matriz. Se você preferir realizar o registro manual usando o software de gerenciamento de armazenamento, desative o recurso de registro automático ESXi. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System Settings). 4 Em Configurações avançadas do sistema, selecione o parâmetro Disk.EnableNaviReg (Disk.EnableNaviReg) e clique no ícone Editar (Edit). 5 Altere o valor para 0. Resultados Essa operação desativa o registro de host automático que está ativado por padrão. vSphere Storage VMware, Inc. Traduzido automaticamente 77 Otimizando o desempenho do armazenamento SAN Fibre Channel Vários fatores contribuem para a otimização de um ambiente típico de SAN. Se o ambiente estiver configurado corretamente, os componentes de malha SAN (especialmente os switches SAN) serão apenas contribuintes secundários devido às suas latências baixas em relação aos servidores e matrizes de armazenamento. Certifique-se de que os caminhos através da estrutura do comutador não estejam saturados, ou seja, que a estrutura do comutador esteja sendo executada com a taxa de transferência mais alta. Desempenho da matriz de armazenamento O desempenho da matriz de armazenamento é um dos principais fatores que contribuem para o desempenho de todo o ambiente SAN. Se você encontrar problemas com o desempenho da matriz de armazenamento, consulte a documentação do fornecedor da matriz de armazenamento para obter quaisquer informações relevantes. Para melhorar o desempenho da matriz no ambiente do vSphere, siga estas diretrizes gerais: n Ao atribuir LUNs, lembre-se de que vários hosts podem acessar o LUN e que várias máquinas virtuais podem ser executadas em cada host. Um LUN usado por um host pode atender a E / S de muitos aplicativos diferentes em execução em diferentes sistemas operacionais. Devido a essa carga de trabalho diversificada, o grupo RAID que contém os ESXi LUNs normalmente não inclui LUNs usados por outros servidores que não estão em execução ESXi. n Certifique-se de que o cache de leitura / gravação esteja disponível. n As matrizes de armazenamento SAN exigem um novo design e ajuste contínuos para garantir que a E / S seja balanceada em relação à carga em todos os caminhos da matriz de armazenamento. Para atender a esse requisito, distribua os caminhos para os LUNs entre todos os SPs para fornecer um balanceamento de carga ideal. Fechar monitoramento indica quando é necessário rebalancear a distribuição LUN. O ajuste de matrizes de armazenamento estaticamente balanceadas é uma questão de monitorar as estatísticas de desempenho específicas, como operações de E / S por segundo, blocos por segundo e tempo de resposta. Também é importante distribuir a carga de trabalho do LUN para distribuí-la por todos os SPs. Observação O balanceamento de carga dinâmico não tem suporte no momento com ESXi. Desempenho do servidor com Fibre Channel Você deve considerar vários fatores para garantir o desempenho ideal do servidor. vSphere Storage VMware, Inc. Traduzido automaticamente 78 Cada aplicativo de servidor deve ter acesso ao armazenamento designado com as seguintes condições: n Alta taxa de E / S (número de operações de E / S por segundo) n Alta taxa de transferência (megabytes por segundo) n Latência mínima (tempos de resposta) Como cada aplicativo tem requisitos diferentes, você pode atender a essas metas selecionando um grupo de RAID apropriado na matriz de armazenamento. Para alcançar as metas de desempenho, siga estas diretrizes: n Coloque cada LUN em um grupo de RAID que forneça os níveis de desempenho necessários. Monitore as atividades e o uso de recursos de outros LUNs no grupo RAID atribuído. Um grupo de RAID de alto desempenho que tem muitos aplicativos fazendo E / S pode não atender às metas de desempenho exigidas por um aplicativo em execução no host ESXi. n Certifique-se de que cada host tenha HBAs suficientes para aumentar a taxa de transferência para os aplicativos no host durante o período de pico. A propagação de E / S em vários HBAs fornece taxa de transferência mais rápida e menos latência para cada aplicativo. n Para fornecer redundância para uma possível falha de HBA, certifique-se de que o host esteja conectado a uma malha redundante dupla. n Ao alocar LUNs ou grupos RAID para sistemas ESXi, lembre-se de que vários sistemas operacionais usam e compartilham esse recurso. O desempenho do LUN exigido pelo host ESXi pode ser muito maior do que quando você usa máquinas físicas regulares. Por exemplo, se você espera executar quatro aplicativos intensivos de E / S, aloque quatro vezes a capacidade de desempenho para os LUNs ESXi. n Quando você usa vários ESXi sistemas no com vCenter Server, os requisitos de desempenho para o subsistema de armazenamento aumentam correspondentemente. n O número de E / Ss pendentes necessárias pelos aplicativos em execução no sistema ESXi deve corresponder ao número de E / Ss que o HBA e a matriz de armazenamento podem suportar. vSphere Storage VMware, Inc. Traduzido automaticamente 79 Usando o ESXi com o iSCSI SAN 10 ESXi pode se conectar ao armazenamento SAN externo usando o protocolo Internet SCSI (iSCSI). Além do iSCSI tradicional, o ESXi também é compatível com Extensões iSCSI para RDMA (iSER). Quando o protocolo iSER está habilitado, o host pode usar a mesma estrutura iSCSI, mas substitui o transporte TCP / IP pelo transporte RDMA. Este capítulo inclui os seguintes tópicos: n Sobre iSCSI SAN n Caminhos múltiplos iSCSI n Nós e portas na SAN iSCSI n convenções de nomenclatura iSCSI n Iniciadores iSCSI n Usando o protocolo iSER com ESXi n Estabelecendo conexões iSCSI n Tipos de sistema de armazenamento iSCSI n Descoberta, autenticação e controle de acesso n Como as máquinas virtuais acessam dados em uma SAN iSCSI n Correção de erros Sobre iSCSI SAN As SANs iSCSI usam conexões Ethernet entre hosts e subsistemas de armazenamento de alto desempenho. No lado do host, os componentes SAN iSCSI incluem adaptadores de barramento de host iSCSI (HBAs) ou placas de interface de rede (NICs). A rede iSCSI também inclui switches e roteadores que transportam o tráfego de armazenamento, cabos, processadores de armazenamento (SPs) e sistemas de disco de armazenamento. VMware, Inc. Traduzido automaticamente 80 iSCSI Array VMFS VMFS LAN LAN iSCSI HBA Ethernet NIC ESXi Host Software Adapter vmdk vmdk A SAN iSCSI usa uma arquitetura cliente-servidor. O cliente, chamado iniciador iSCSI, opera no seu host ESXi. Ele inicia sessões iSCSI emitindo comandos SCSI e transmitindo-os, encapsulados no protocolo iSCSI, para um servidor iSCSI. O servidor é conhecido como um destino iSCSI. Normalmente, o destino iSCSI representa um sistema dearmazenamento físico na rede. O destino também pode ser uma SAN iSCSI virtual, por exemplo, um emulador de destino iSCSI em execução em uma máquina virtual. O destino iSCSI responde aos comandos do iniciador transmitindo os dados iSCSI necessários. Caminhos múltiplos iSCSI Ao transferir dados entre o servidor host e o armazenamento, a SAN usa uma técnica conhecida como caminhos múltiplos. Com caminhos múltiplos, seu host ESXi pode ter mais de um caminho físico para um LUN em um sistema de armazenamento. Geralmente, um único caminho de um host para um LUN consiste em um adaptador iSCSI ou NIC, portas de switch, cabos de conexão e a porta do controlador de armazenamento. Se qualquer componente do caminho falhar, o host selecionará outro caminho disponível para E / S. O processo de detectar um caminho com falha e alternar para outro é chamado de failover de caminho. Para obter mais informações sobre caminhos múltiplos, consulte Capítulo 18 Noções básicas sobre caminhos múltiplos e failover. vSphere Storage VMware, Inc. Traduzido automaticamente 81 Nós e portas na SAN iSCSI Uma única entidade detectável na SAN iSCSI, como um iniciador ou um destino, representa um nó iSCSI. Cada nó tem um nome de nó. ESXi usa vários métodos para identificar um nó. Endereço IP Cada nó iSCSI pode ter um endereço IP associado a ele para que o equipamento de roteamento e comutação na rede possa estabelecer a conexão entre o host e o armazenamento. Esse endereço é como o endereço IP que você atribui ao seu computador para obter acesso à rede da sua empresa ou à Internet. Nome do iSCSI Um nome exclusivo em todo o mundo para identificar o nó. O iSCSI usa o nome qualificado do iSCSI (IQN) e o identificador exclusivo estendido (EUI). Por padrão, ESXi gera nomes iSCSI exclusivos para seus iniciadores iSCSI, por exemplo, iqn.1998-01.com.vmware: iscsitestox-68158ef2 . Normalmente, você não precisa alterar o valor padrão, mas, se o fizer, certifique-se de que o novo nome do iSCSI inserido seja exclusivo em todo o mundo. Alias do iSCSI Um nome mais gerenciável para um dispositivo ou porta iSCSI usado em vez do nome iSCSI. Os aliases de iSCSI não são exclusivos e destinam-se a ser um nome amigável a ser associado a uma porta. Cada nó tem uma ou mais portas que o conectam à SAN. As portas iSCSI são endpoints de uma sessão iSCSI. convenções de nomenclatura iSCSI O iSCSI usa um nome exclusivo especial para identificar um nó iSCSI, de destino ou iniciador. Os nomes iSCSI são formatados de duas maneiras diferentes. O mais comum é o formato IQN. Para obter mais detalhes sobre requisitos de nomenclatura iSCSI e perfis de cadeia de caracteres, consulte RFC 3721 e RFC 3722 no site da IETF. Formato do Nome Qualificado iSCSI O formato do Nome Qualificado iSCSI (IQN) tem o formato iqn.yyyy-mm.naming- authority:unique, onde: n aaaa-mm é o ano e o mês em que a autoridade de nomenclatura foi estabelecida. vSphere Storage VMware, Inc. Traduzido automaticamente 82 n autoridade de nomeação é a sintaxe reversa do nome de domínio da Internet da autoridade de nomenclatura. Por exemplo, a autoridade de nomenclatura iscsi.vmware.com pode ter o formato de nome qualificado iSCSI iqn.1998-01.com.vmware.iscsi. O nome indica que o vmware.com nome de domínio foi registrado em janeiro de 1998 e iscsi é um subdomínio, mantido por vmware.com. n nome exclusivo é qualquer nome que você deseja usar, por exemplo, o nome do seu host. A autoridade de nomenclatura deve garantir que os nomes atribuídos após os dois pontos sejam exclusivos, como: n iqn.1998-01.com.vmware.iscsi:name1 n iqn.1998-01.com.vmware.iscsi:name2 n iqn.1998-01.com.vmware.iscsi:name999 Formato do identificador exclusivo da empresa O formato Identificador Exclusivo da Empresa (EUI) tem o formato eui.16_hex_digits. Por exemplo, eui.0123456789ABCDEF. Os 16 dígitos hexadecimais são representações de texto de um número de 64 bits de um formato IEEE EUI (identificador exclusivo estendido). Os 24 bits principais são uma ID de empresa que o IEEE registra com uma determinada empresa. Os 40 bits restantes são atribuídos pela entidade que detém a ID da empresa e devem ser exclusivos. Iniciadores iSCSI Para acessar destinos iSCSI, seu host ESXi usa iniciadores iSCSI. O iniciador é um software ou hardware instalado no seu host ESXi. O iniciador iSCSI origina a comunicação entre o host e um sistema de armazenamento iSCSI externo e envia dados para o sistema de armazenamento. No ambiente ESXi, os adaptadores iSCSI configurados no host desempenham a função de iniciadores. O ESXi é compatível com vários tipos de adaptadores iSCSI. Para obter informações sobre como configurar e usar adaptadores iSCSI, consulte Capítulo 11 Configurando o armazenamento e os adaptadores iSCSI e iSER. Software iSCSI Adapter Um adaptador iSCSI de software é um código VMware integrado ao VMkernel. Usando o adaptador iSCSI de software, seu host pode se conectar ao dispositivo de armazenamento iSCSI por meio de adaptadores de rede padrão. O adaptador iSCSI de software lida com o processamento iSCSI durante a comunicação com o adaptador de rede. Com o adaptador iSCSI de software, você pode usar a tecnologia iSCSI sem adquirir hardware especializado. vSphere Storage VMware, Inc. Traduzido automaticamente 83 Hardware Adaptador iSCSI Um adaptador iSCSI de hardware é um adaptador de terceiros que descarrega o processamento de rede e iSCSI do seu host. Os adaptadores iSCSI de hardware são divididos em categorias. Adaptador iSCSI de hardware dependente Depende de VMware rede e das interfaces de configuração e gerenciamento iSCSI fornecidas por VMware. Esse tipo de adaptador pode ser um cartão que apresenta um adaptador de rede padrão e uma funcionalidade de descarregamento de iSCSI para a mesma porta. A funcionalidade de descarregamento do iSCSI depende da configuração de rede do host para obter o IP, o MAC e outros parâmetros usados para sessões iSCSI. Um exemplo de um adaptador dependente é o NIC Broadcom 5709 licenciado iSCSI. Adaptador iSCSI de hardware independente Implementa suas próprias interfaces de configuração e gerenciamento de rede e iSCSI. Normalmente, um adaptador iSCSI de hardware independente é uma placa que apresenta apenas a funcionalidade de descarregamento de iSCSI ou a funcionalidade de descarregamento de iSCSI e a funcionalidade de NIC padrão. A funcionalidade de descarregamento do iSCSI tem um gerenciamento de configuração independente que atribui o IP, o MAC e outros parâmetros usados para as sessões do iSCSI. Um exemplo de um adaptador independente é o adaptador QLogic QLA4052. Os adaptadores iSCSI de hardware podem precisar de ser licenciados. Caso contrário, eles podem não aparecer no cliente ou em vSphere CLI. Entre em contato com o fornecedor para obter informações de licenciamento. Usando o protocolo iSER com ESXi Além do iSCSI tradicional, o ESXi é compatível com o protocolo Extensões iSCSI para RDMA (iSER). Quando o protocolo iSER está ativado, a estrutura iSCSI no host ESXi pode usar o transporte de Acesso Direto à Memória Remota (RDMA) em vez de TCP / IP. O protocolo iSCSI tradicional carrega comandos SCSI em uma rede TCP / IP entre um iniciador iSCSI em um host e um destino iSCSI em um dispositivo de armazenamento. O protocolo iSCSI encapsula os comandos e monta esses dados em pacotes para a camada TCP / IP. Quando os dados chegam, o protocolo iSCSI desmonta os pacotes TCP / IP, para que os comandos SCSI possam ser diferenciados e entregues ao dispositivo de armazenamento. O iSER difere do iSCSI tradicional, pois substitui o modelo de transferência de dados TCP / IP pelo transporte RDMA. Usando a tecnologia de posicionamento direto de dados do RDMA, o protocolo iSER pode transferir dados diretamente entre os bufferes de memória do ESXi host e dos dispositivos de armazenamento. Esse método elimina o processamento de TCP / IP e o coping de dados desnecessários e também pode reduzir a latênciae a carga da CPU no dispositivo de armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 84 No ambiente do iSER, o iSCSI funciona exatamente como antes, mas usa uma interface de malha RDMA subjacente em vez da interface baseada em TCP / IP. Como o protocolo iSER preserva a compatibilidade com a infraestrutura iSCSI, o processo de habilitação do iSER no host ESXi é semelhante ao processo iSCSI. Consulte Configurar o iSER com ESXi. Estabelecendo conexões iSCSI No contexto ESXi, o termo de destino identifica uma única unidade de armazenamento que seu host pode acessar. Os termos dispositivo de armazenamento e LUN descrevem um volume lógico que representa o espaço de armazenamento em um destino. Normalmente, os termos dispositivo e LUN, no contexto ESXi, significam um volume SCSI apresentado ao host a partir de um destino de armazenamento e disponível para formatação. Diferentes fornecedores de armazenamento iSCSI apresentam armazenamento para hosts de diferentes maneiras. Alguns fornecedores apresentam vários LUNs em um único destino. Outros apresentam vários destinos com um LUN cada. Figura 10-1. Destino em comparação com representações de LUN Storage Array Target LUN LUN LUN Storage Array Target TargetTarget LUN LUN LUN Nesses exemplos, três LUNs estão disponíveis em cada uma dessas configurações. No primeiro caso, o host detecta um destino, mas esse destino tem três LUNs que podem ser usados. Cada um dos LUNs representa o volume de armazenamento individual. No segundo caso, o host detecta três destinos diferentes, cada um com um LUN. Os iniciadores iSCSI baseados em host estabelecem conexões com cada destino. Os sistemas de armazenamento com um único destino contendo vários LUNs têm tráfego para todos os LUNs em uma única conexão. Com um sistema que tem três destinos com um LUN cada, o host usa conexões separadas para os três LUNs. Essas informações são úteis quando você está tentando agregar o tráfego de armazenamento em várias conexões do host com vários adaptadores iSCSI. Você pode definir o tráfego de um destino para um adaptador específico e usar um adaptador diferente para o tráfego para outro destino. Tipos de sistema de armazenamento iSCSI O ESXi oferece suporte a diferentes sistemas de armazenamento e matrizes. vSphere Storage VMware, Inc. Traduzido automaticamente 85 Os tipos de armazenamento que seu host suporta incluem ativo-ativo, ativo-passivo e compatível com ALUA. Sistema de armazenamento ativo-ativo Oferece suporte ao acesso aos LUNs simultaneamente por meio de todas as portas de armazenamento que estão disponíveis sem degradação significativa do desempenho. Todos os caminhos estão sempre ativos, a menos que um caminho falhe. Sistema de armazenamento ativo-passivo Um sistema no qual um processador de armazenamento está ativamente fornecendo acesso a um determinado LUN. Os outros processadores atuam como um backup para o LUN e podem estar ativamente fornecendo acesso a outras E / S de LUN. A E / S pode ser enviada com êxito apenas para uma porta ativa para um determinado LUN. Se o acesso pela porta de armazenamento ativo falhar, um dos processadores de armazenamento passivo poderá ser ativado pelos servidores que o acessam. Sistema de armazenamento assimétrico Oferece suporte a acesso à unidade lógica assimétrica (ALUA). Os sistemas de armazenamento em conformidade com o ALUA fornecem diferentes níveis de acesso por porta. Com o ALUA, os hosts podem determinar os estados das portas de destino e priorizar os caminhos. O host usa alguns dos caminhos ativos como primário e outros como secundário. Sistema de armazenamento de portas virtuais Oferece suporte ao acesso a todos os LUNs disponíveis por meio de uma única porta virtual. Os sistemas de armazenamento de porta virtual são dispositivos de armazenamento ativo-ativo, mas ocultam suas várias conexões por meio de uma única porta. ESXi vários caminhos não fazem várias conexões de uma porta específica para o armazenamento por padrão. Alguns fornecedores de armazenamento fornecem gerenciadores de sessão para estabelecer e gerenciar várias conexões com seu armazenamento. Esses sistemas de armazenamento lidam com failover de porta e balanceamento de conexão de forma transparente. Esse recurso é frequentemente chamado de failover transparente. Descoberta, autenticação e controle de acesso Você pode usar vários mecanismos para descobrir seu armazenamento e limitar o acesso a ele. Você deve configurar seu host e o sistema de armazenamento iSCSI para oferecer suporte à sua política de controle de acesso de armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 86 Descoberta Uma sessão de descoberta faz parte do protocolo iSCSI. Ele retorna o conjunto de destinos que você pode acessar em um sistema de armazenamento iSCSI. Os dois tipos de descoberta disponíveis em ESXi são dinâmicos e estáticos. A descoberta dinâmica obtém uma lista de destinos acessíveis do sistema de armazenamento iSCSI. A descoberta estática pode acessar apenas um destino específico por nome e endereço de destino. Para obter mais informações, consulte Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi. Autenticação Os sistemas de armazenamento iSCSI autenticam um iniciador por um nome e um par de chaves. ESXi é compatível com o protocolo de autenticação CHAP. Para usar a autenticação CHAP, o host ESXi e o sistema de armazenamento iSCSI devem ter o CHAP ativado e credenciais comuns. Para obter informações sobre como ativar o CHAP, consulte Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER. Controle de Acesso O controle de acesso é uma política criada no sistema de armazenamento iSCSI. A maioria das implementações oferece suporte a um ou mais dos três tipos de controle de acesso: n Por nome do iniciador n Por endereço IP n Pelo protocolo CHAP Somente os iniciadores que atendem a todas as regras podem acessar o volume iSCSI. Usar apenas o CHAP para controle de acesso pode reduzir a velocidade das novas tentativas de transmissão porque o host ESXi pode descobrir todos os destinos, mas falha na etapa de autenticação. As redefinições de iSCSI funcionam mais rapidamente se o host descobrir apenas os destinos que ele pode autenticar. Como as máquinas virtuais acessam dados em uma SAN iSCSI ESXi armazena os arquivos de disco de uma máquina virtual em um repositório de dados VMFS que reside em um dispositivo de armazenamento SAN. Quando os sistemas operacionais convidados da máquina virtual enviam comandos SCSI para seus discos virtuais, a camada de virtualização SCSI converte esses comandos em operações de arquivo VMFS. Quando uma máquina virtual interage com seu disco virtual armazenado em uma SAN, ocorre o seguinte processo: 1 Quando o sistema operacional convidado em uma máquina virtual lê ou grava no disco SCSI, ele envia comandos SCSI para o disco virtual. vSphere Storage VMware, Inc. Traduzido automaticamente 87 2 Os drivers de dispositivo no sistema operacional da máquina virtual se comunicam com os controladores SCSI virtuais. 3 O controlador SCSI virtual encaminha os comandos para o VMkernel. 4 O VMkernel executa as seguintes tarefas. a Localiza um arquivo de disco virtual apropriado no volume VMFS. b Mapeia as solicitações dos blocos no disco virtual para blocos no dispositivo físico apropriado. c Envia a solicitação de E / S modificada do driver de dispositivo no VMkernel para o iniciador iSCSI, o hardware ou o software. 5 Se o iniciador iSCSI for um adaptador iSCSI de hardware, independente ou dependente, o adaptador executará as seguintes tarefas. a Encapsula solicitações de E / S em unidades de dados de protocolo iSCSI (PDUs). b Encapsula PDUs iSCSI em pacotes TCP / IP. c Envia pacotes IP via Ethernet para o sistema de armazenamento iSCSI. 6 Se o iniciador iSCSI for um adaptador iSCSI de software, ocorrerá o seguinte. a O iniciador iSCSI encapsula solicitaçõesde E / S nas PDUs iSCSI. b O iniciador envia PDUs iSCSI por meio de conexões TCP / IP. c A pilha TCP / IP do VMkernel retransmite pacotes TCP / IP para uma NIC física. d A NIC física envia pacotes IP sobre Ethernet para o sistema de armazenamento iSCSI. 7 Os switches e roteadores Ethernet na rede transportam a solicitação para o dispositivo de armazenamento apropriado. Correção de erros Para proteger a integridade de cabeçalhos e dados iSCSI, o protocolo iSCSI define métodos de correção de erros conhecidos como resumos de resumos e resumos de dados. Ambos os parâmetros estão desativados por padrão, mas você pode ativá-los. Esses resumos pertencem, respectivamente, ao cabeçalho e aos dados SCSI sendo transferidos entre os iniciadores iSCSI e os destinos, em ambas as direções. Os resumos de cabeçalho e de dados verificam a integridade de dados não criptográficos além das verificações de integridade fornecidas por outras camadas de rede, como TCP e Ethernet. Os resumos verificam todo o caminho de comunicação, incluindo todos os elementos que podem alterar o tráfego no nível da rede, como roteadores, switches e proxies. A existência e o tipo dos resumos são negociados quando uma conexão iSCSI é estabelecida. Quando o iniciador e o destino concordam com uma configuração de resumo, esse resumo deve ser usado para todo o tráfego entre eles. vSphere Storage VMware, Inc. Traduzido automaticamente 88 A habilitação de resumos de cabeçalho e de dados requer processamento adicional para o iniciador e o destino e pode afetar o desempenho da taxa de transferência e do uso da CPU. Observação Os sistemas que usam os processadores Intel Nehalem descarregam os cálculos de resumo iSCSI, reduzindo o impacto sobre o desempenho. Para obter informações sobre como habilitar resumos de cabeçalho e de dados, consulte Configurando parâmetros avançados para iSCSI. vSphere Storage VMware, Inc. Traduzido automaticamente 89 Configurando o armazenamento e os adaptadores iSCSI e iSER 11 Antes que ESXi possa funcionar com o iSCSI SAN, você deve configurar seu ambiente iSCSI. O processo de preparação do seu ambiente iSCSI envolve as seguintes etapas: Etapa Detalhes Configurar o armazenamento iSCSI Para obter informações, consulte a documentação do fornecedor de armazenamento. Além disso, siga estas recomendações: n ESXi Recomendações e restrições da iSCSI SAN n Capítulo 13 Boas práticas para armazenamento iSCSI Configurar adaptadores iSCSI / iSER Use um fluxo de trabalho apropriado para configurar seu adaptador: n Configurar adaptadores iSCSI de hardware independentes n Configurar adaptadores iSCSI de hardware dependente n Configurar o adaptador iSCSI de software n Configurar o iSER com ESXi Criar um repositório de dados no armazenamento iSCSI Criação de repositórios de dados Este capítulo inclui os seguintes tópicos: n ESXi Recomendações e restrições da iSCSI SAN n Configurando parâmetros iSCSI para adaptadores n Configurar adaptadores iSCSI de hardware independentes n Configurar adaptadores iSCSI de hardware dependente n Configurar o adaptador iSCSI de software n Configurar o iSER com ESXi n Modificar propriedades gerais para adaptadores iSCSI ou iSER n Configurando a rede para iSCSI e iSER n Usando quadros jumbo com iSCSI e iSER n Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi n Remover destinos iSCSI dinâmicos ou estáticos n Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER VMware, Inc. Traduzido automaticamente 90 n Configurando parâmetros avançados para iSCSI n iSCSI Session Management ESXi Recomendações e restrições da iSCSI SAN Para funcionar corretamente com o iSCSI SAN, seu ambiente ESXi deve seguir recomendações específicas. Além disso, existem várias restrições quando você usa ESXi com o iSCSI SAN. Recomendações de armazenamento iSCSI n Verifique se o seu host ESXi é compatível com o hardware e o firmware de armazenamento iSCSI SAN. Para obter uma lista atualizada, consulte VMware Guia de Compatibilidade . n Para garantir que o host reconheça LUNs no momento da inicialização, configure todos os destinos de armazenamento iSCSI para que seu host possa acessá-los e usá-los. Configure seu host para que ele possa descobrir todos os destinos iSCSI disponíveis. n A menos que você esteja usando servidores sem disco, configure uma partição de diagnóstico no armazenamento local. Se você tiver servidores sem disco que inicializam a partir do iSCSI SAN, consulte Recomendações gerais para inicialização a partir de iSCSI SAN para obter informações sobre partições de diagnóstico com o iSCSI. n Defina o driver do controlador SCSI no sistema operacional guest para uma fila grande o suficiente. n Em máquinas virtuais que executam o Microsoft Windows, aumente o valor do parâmetro SCSI TimeoutValue. Com esse parâmetro configurado, as VMs do Windows podem tolerar melhor a E / S atrasada resultante de um failover de caminho. Para obter informações, consulte Definir tempo limite no SO convidado do Windows. n Configure seu ambiente para ter apenas um repositório de dados VMFS para cada LUN. Restrições de armazenamento iSCSI n ESXi não é compatível com dispositivos de fita conectados por iSCSI. n Você não pode usar o software de vários caminhos da máquina virtual para executar o balanceamento de carga de E / S para um único LUN físico. n ESXi não oferece suporte a vários caminhos quando você combina adaptadores de hardware independentes com adaptadores de hardware dependentes ou de software. Configurando parâmetros iSCSI para adaptadores Antes que seu host ESXi possa descobrir o armazenamento iSCSI, você deve configurar seus adaptadores iSCSI. Ao configurar os adaptadores, você define vários parâmetros iSCSI. vSphere Storage VMware, Inc. Traduzido automaticamente 91 Rede iSCSI Para determinados tipos de adaptadores iSCSI, você deve configurar a rede VMkernel. Você pode verificar a configuração de rede usando o utilitário vmkping. O adaptador iSCSI de hardware independente não requer rede VMkernel. Você pode configurar parâmetros de rede, como um endereço IP, uma máscara de sub-rede e um gateway padrão no adaptador iSCSI de hardware independente. Todos os tipos de adaptadores iSCSI são compatíveis com os protocolos IPv4 e IPv6. Adaptador iSCSI (vmhba) Descrição Rede VMkernel Configurações de rede do adaptador Adaptador iSCSI de hardware independente Adaptador de terceiros que descarrega o iSCSI e o processamento e gerenciamento de rede do seu host. Não é obrigatório. Para obter informações, consulte Editar configurações de rede para iSCSI de hardware. Software iSCSI Adapter Usa NICs padrão para conectar seu host a um destino iSCSI remoto na rede IP. Obrigatório. Para obter informações, consulte Configurando a rede para iSCSI e iSER. N/D Adaptador iSCSI de hardware dependente VMwareAdaptador de terceiros que depende da rede e das interfaces de configuração e gerenciamento iSCSI. Obrigatório Para obter informações, consulte Configurando a rede para iSCSI e iSER. N/D VMware Adaptador iSER Usa um adaptador de rede compatível com RDMA para conectar seu host a um destino iSCSI remoto. Obrigatório Para obter informações, consulte Configurando a rede para iSCSI e iSER. N/D Métodos de descoberta Para todos os tipos de adaptadores iSCSI, você deve definir o endereço de descoberta dinâmica ou o endereço de descoberta estático. Além disso, você deve fornecer um nome de destino do sistema de armazenamento. Para iSCSI de software e iSCSI de hardware dependente, o endereço pode fazer ping usando vmkping. Consulte o Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi. Autenticação CHAP Ative o parâmetro CHAP no inicializador e no lado do sistema de armazenamento. Depois que a autenticação é habilitada, ela se aplica a todos os destinos que ainda não foram descobertos. Ele não se aplica a destinos que já foram descobertos.Consulte Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER. vSphere Storage VMware, Inc. Traduzido automaticamente 92 Configurar adaptadores iSCSI de hardware independentes Um adaptador iSCSI de hardware independente é um adaptador de terceiros especializado capaz de acessar o armazenamento iSCSI sobre TCP / IP. Este adaptador iSCSI lida com todo o processamento e gerenciamento de iSCSI e de rede do seu sistema ESXi. Pré-requisitos n Verifique se o adaptador deve ser licenciado. n Instale o adaptador no host ESXi. Para obter informações sobre licenciamento, instalação e atualizações de firmware, consulte a documentação do fornecedor. O processo de configuração do adaptador iSCSI de hardware independente inclui essas etapas. Etapa Descrição Exibir adaptadores iSCSI de hardware independentes Visualize um adaptador iSCSI de hardware independente e verifique se ele está corretamente instalado e pronto para configuração. Modificar propriedades gerais para adaptadores iSCSI ou iSER Se necessário, altere o nome iSCSI padrão e o alias atribuído aos seus adaptadores iSCSI. Para os adaptadores iSCSI de hardware independentes, você também pode alterar as configurações de IP padrão. Editar configurações de rede para iSCSI de hardware Altere as configurações de rede padrão para que o adaptador seja configurado corretamente para o iSCSI SAN. Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi Configure a descoberta dinâmica. Com a descoberta dinâmica, toda vez que o iniciador contata um sistema de armazenamento iSCSI especificado, ele envia a solicitação SendTargets para o sistema. O sistema iSCSI responde fornecendo uma lista de destinos disponíveis para o iniciador. Além do método de descoberta dinâmica, você pode usar a descoberta estática e inserir manualmente as informações para os destinos. Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER Se o seu ambiente iSCSI usar o CHAP (Challenge Handshake Authentication Protocol), configure-o para o seu adaptador. Habilitar quadros jumbo para iSCSI de hardware independente Se o seu ambiente iSCSI suportar quadros grandes, habilite-os para o adaptador. Exibir adaptadores iSCSI de hardware independentes No host ESXi, visualize um adaptador iSCSI de hardware independente e verifique se ele está corretamente instalado e pronto para configuração. Depois de instalar um adaptador iSCSI de hardware independente no host, ele aparece na lista de adaptadores de armazenamento disponíveis para configuração. Você pode visualizar suas propriedades. Pré-requisitos Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento vSphere Storage VMware, Inc. Traduzido automaticamente 93 Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters). Se instalado, o adaptador iSCSI de hardware aparece na lista de adaptadores de armazenamento. 4 Selecione o adaptador para exibir. Os detalhes padrão do adaptador são exibidos. Informações do Adaptador Descrição Modelo Modelo do adaptador. Nome do iSCSI Nome exclusivo formado de acordo com os padrões iSCSI que identifica o adaptador iSCSI. Você pode editar o nome do iSCSI. Nome alternativo do iSCSI Um nome amigável usado em vez do nome iSCSI. Você pode editar o nome alternativo do iSCSI. Endereço IP Endereço atribuído ao iSCSI HBA. Destinos Número de destinos acessados por meio do adaptador. Dispositivos Todos os dispositivos de armazenamento ou LUNs que o adaptador pode acessar. Caminhos Todos os caminhos que o adaptador usa para acessar dispositivos de armazenamento. Editar configurações de rede para iSCSI de hardware Depois de instalar um adaptador iSCSI de hardware independente em um host ESXi, talvez seja necessário alterar suas configurações de rede padrão para que o adaptador seja configurado corretamente para a iSCSI SAN. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. 4 Clique na guia Configurações de Rede (Network Settings) e clique em Editar (Edit). vSphere Storage VMware, Inc. Traduzido automaticamente 94 5 Na seção Configurações de IPv4, desative o IPv6 ou selecione o método para obter endereços IP. Observação A opção DHCP automática e a opção estática são mutuamente exclusivas. Opção Descrição Nenhuma configuração IPv4 Desative o IPv4. Obter configurações de IPv4 automaticamente Use o DHCP para obter as configurações de IP. Usar configurações IPv4 estáticas Insira o endereço IP IPv4, a máscara de sub-rede e o gateway padrão para o adaptador iSCSI. 6 Na seção Configurações do IPv6, desative o IPv6 ou selecione uma opção apropriada para obter endereços IPv6. Observação As opções automáticas e a opção estática são mutuamente exclusivas. Opção Descrição Nenhuma configuração IPv6 Desative o IPv6. Habilitar IPv6 Selecione uma opção para obter endereços IPv6. Obter endereços IPv6 automaticamente por meio do DHCP Use o DHCP para obter endereços IPv6. Obter endereços IPv6 automaticamente através do anúncio do roteador Use o anúncio do roteador para obter endereços IPv6. Substituir endereço de link local para IPv6 Substitua o endereço IP local do link configurando um endereço IP estático. Endereços IPv6 estáticos a Clique em Adicionar (Add) para adicionar um novo endereço IPv6. b Insira o endereço IPv6 e o comprimento do prefixo de sub-rede e clique em OK (OK). 7 Na seção Configurações de DNS, forneça endereços IP para um servidor DNS preferencial e um servidor DNS alternativo. Você deve fornecer ambos os valores. Configurar adaptadores iSCSI de hardware dependente Um adaptador iSCSI de hardware dependente é um adaptador de terceiros que depende de VMware rede e das interfaces de configuração e gerenciamento iSCSI fornecidas por VMware. Um exemplo de um adaptador iSCSI dependente é um NIC Broadcom 5709. Quando instalado em um host, ele apresenta seus dois componentes, um adaptador de rede padrão e um mecanismo iSCSI, para a mesma porta. O mecanismo iSCSI aparece na lista de adaptadores de armazenamento como um adaptador iSCSI (vmhba). vSphere Storage VMware, Inc. Traduzido automaticamente 95 O adaptador iSCSI é ativado por padrão. Para torná-lo funcional, você deve conectá-lo por meio de um adaptador VMkernel virtual (vmk) a um adaptador de rede físico (vmnic) associado a ele. Em seguida, você pode configurar o adaptador iSCSI. Depois de configurar o adaptador iSCSI de hardware dependente, os dados de descoberta e autenticação são transmitidos pela conexão de rede. O tráfego iSCSI passa pelo mecanismo iSCSI, ignorando a rede. Todo o processo de instalação e configuração para os adaptadores iSCSI de hardware dependentes envolve várias etapas. Etapa Descrição Exibir Adaptadores iSCSI de Hardware Dependente Visualize um adaptador iSCSI de hardware dependente para verificar se ele está carregado corretamente. Modificar propriedades gerais para adaptadores iSCSI ou iSER Se necessário, altere o nome iSCSI padrão e o alias atribuído ao seu adaptador. Determinar a associação entre iSCSI e adaptadores de rede Você deve criar conexões de rede para associar iSCSI dependente e adaptadores de rede físicos. Para criar as conexões corretamente, determine o nome da NIC física à qual o adaptador iSCSI de hardware dependente está associado. Configurar a associação de porta para iSCSI ou iSER Configure as conexões para o tráfego entre o componente iSCSI e os adaptadores de rede físicos. O processo de configuração dessas conexões é chamado de vinculação de portas. Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi Configure a descoberta dinâmica. Coma descoberta dinâmica, toda vez que o iniciador contata um sistema de armazenamento iSCSI especificado, ele envia a solicitação SendTargets para o sistema. O sistema iSCSI responde fornecendo uma lista de destinos disponíveis para o iniciador. Além do método de descoberta dinâmica, você pode usar a descoberta estática e inserir manualmente as informações para os destinos. Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER Se o seu ambiente iSCSI usar o CHAP (Challenge Handshake Authentication Protocol), configure-o para o seu adaptador. Configurar o CHAP para o destino Você também pode configurar credenciais CHAP diferentes para cada endereço de descoberta ou destino estático. Habilitar quadros jumbo para rede Se o seu ambiente iSCSI suportar quadros grandes, habilite-os para o adaptador. Considerações sobre iSCSI de hardware dependente Quando você usa adaptadores iSCSI de hardware dependente com ESXi, algumas considerações se aplicam. n Quando você usa qualquer adaptador iSCSI de hardware dependente, os relatórios de desempenho para uma NIC associada ao adaptador podem mostrar pouca ou nenhuma atividade, mesmo quando o tráfego de iSCSI é intenso. Esse comportamento ocorre porque o tráfego iSCSI ignora a pilha de rede regular. vSphere Storage VMware, Inc. Traduzido automaticamente 96 n Se você usar um switch virtual de terceiros, por exemplo, Cisco Nexus 1000V DVS, desative a fixação automática. Use a fixação manual em vez disso, certificando-se de conectar um adaptador VMkernel (vmk) a uma NIC física apropriada (vmnic). Para obter informações, consulte a documentação do fornecedor do switch virtual. n O adaptador Broadcom iSCSI executa a remontagem de dados no hardware, que tem um espaço de buffer limitado. Quando você usar o adaptador Broadcom iSCSI em uma rede congestionada ou sob carga pesada, ative o controle de fluxo para evitar a degradação do desempenho. O controle de fluxo gerencia a taxa de transmissão de dados entre dois nós para evitar que um remetente rápido substitua um receptor lento. Para obter melhores resultados, habilite o controle de fluxo nos pontos finais do caminho de E / S, nos hosts e nos sistemas de armazenamento iSCSI. Para ativar o controle de fluxo para o host, use o comando esxcli system module parameters. Para obter detalhes, consulte o VMware artigo da base de conhecimento em http://kb.vmware.com/kb/1013413 n Os adaptadores de hardware dependentes são compatíveis com IPv4 e IPv6. Exibir Adaptadores iSCSI de Hardware Dependente Em um host ESXi, visualize um adaptador iSCSI de hardware dependente para verificar se ele está carregado corretamente. Se instalado, o adaptador iSCSI de hardware dependente (vmhba #) aparece na lista de adaptadores de armazenamento sob essa categoria, como, por exemplo, o Adaptador Broadcom iSCSI. Se o adaptador de hardware dependente não aparecer na lista de adaptadores de armazenamento, verifique se ele precisa ser licenciado. Consulte a documentação do fornecedor. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters). 4 Selecione o adaptador (vmhba #) para exibir. Os detalhes padrão do adaptador são exibidos, incluindo o nome iSCSI, o alias do iSCSI e o status. Próximo passo Embora o adaptador iSCSI dependente esteja habilitado por padrão, para torná-lo funcional, você deve configurar a rede para o tráfego iSCSI e vincular o adaptador à porta iSCSI VMkernel apropriada. Em seguida, você configura endereços de descoberta e parâmetros CHAP. vSphere Storage VMware, Inc. Traduzido automaticamente 97 http://kb.vmware.com/kb/1013413 Determinar a associação entre iSCSI e adaptadores de rede Em um host ESXi, as conexões de rede vinculam adaptadores de rede físicos e iSCSI dependentes. Para criar as conexões corretamente, você deve determinar o nome da NIC física à qual o adaptador iSCSI de hardware dependente está associado. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters). 4 Selecione o adaptador iSCSI (vmhba #) e clique na guia Vinculação de Porta de Rede (Network Port Binding) em Detalhes do adaptador. 5 Clique em Adicionar(Add). O adaptador de rede (vmnic #) que corresponde ao adaptador iSCSI dependente está listado na coluna Adaptador de Rede Física. Próximo passo Se a coluna Adaptador VMkernel estiver vazia, crie um adaptador VMkernel (vmk #) para o adaptador de rede físico (vmnic #) e, em seguida, vincule-os ao iSCSI de hardware dependente associado. Consulte Configurando a rede para iSCSI e iSER. Configurar o adaptador iSCSI de software Com a implementação de iSCSI baseada em software, você pode usar NICs padrão para conectar seu host a um destino iSCSI remoto na rede IP. O adaptador iSCSI de software que está incorporado no ESXi facilita essa conexão ao se comunicar com as NICs físicas por meio da pilha de rede. Ao usar os adaptadores iSCSI de software, considere o seguinte: n Designe um adaptador de rede separado para iSCSI. Não use iSCSI em adaptadores de 100 Mbps ou mais lentos. n Evite codificar o nome do adaptador de software, vmhbaXX, nos scripts. É possível que o nome mude de uma versão ESXi para outra. A alteração poderá causar falhas nos scripts existentes se eles usarem o nome antigo codificado. A alteração de nome não afeta o comportamento do adaptador de software iSCSI. O processo de configuração do adaptador iSCSI de software envolve várias etapas. vSphere Storage VMware, Inc. Traduzido automaticamente 98 Etapa Descrição Ativar ou desativar o adaptador iSCSI de software Ative o adaptador iSCSI de software para que o host possa usá-lo para acessar o armazenamento iSCSI. Modificar propriedades gerais para adaptadores iSCSI ou iSER Se necessário, altere o nome iSCSI padrão e o alias atribuído ao seu adaptador. Configurar a associação de porta para iSCSI ou iSER Configure as conexões para o tráfego entre o componente iSCSI e os adaptadores de rede físicos. O processo de configuração dessas conexões é chamado de vinculação de portas. Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi Configure a descoberta dinâmica. Com a descoberta dinâmica, toda vez que o iniciador contata um sistema de armazenamento iSCSI especificado, ele envia a solicitação SendTargets para o sistema. O sistema iSCSI responde fornecendo uma lista de destinos disponíveis para o iniciador. Além do método de descoberta dinâmica, você pode usar a descoberta estática e inserir manualmente as informações para os destinos. Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER Se o seu ambiente iSCSI usar o CHAP (Challenge Handshake Authentication Protocol), configure-o para o seu adaptador. Configurar o CHAP para o destino Você também pode configurar credenciais CHAP diferentes para cada endereço de descoberta ou destino estático. Habilitar quadros jumbo para rede Se o seu ambiente iSCSI suportar quadros grandes, habilite-os para o adaptador. Ativar ou desativar o adaptador iSCSI de software Você deve ativar seu adaptador iSCSI de software para que seu host ESXi possa usá-lo para acessar o armazenamento iSCSI. Se você não precisar do adaptador iSCSI de software após a ativação, poderá desativá-lo. Você pode ativar apenas um adaptador iSCSI de software. Pré-requisitos Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento Observação Se você inicializar a partir do iSCSI usando o adaptador de software iSCSI, o adaptador será ativado e a configuração de rede será criada na primeira inicialização. Se você desativar o adaptador, ele será reativado sempre que você inicializar o host. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure).vSphere Storage VMware, Inc. Traduzido automaticamente 99 3 Ative ou desative o adaptador. Opção Descrição Ativar o adaptador iSCSI de software a Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e clique no ícone Adicionar (Add). b Selecione Adaptador iSCSI de Software (Software iSCSI Adapter) e confirme que deseja adicionar o adaptador. O adaptador iSCSI de software (vmhba #) está ativado e aparece na lista de adaptadores de armazenamento. Depois de habilitar o adaptador, o host atribui o nome iSCSI padrão a ele. Agora você pode concluir a configuração do adaptador. Desativar o adaptador iSCSI de software a Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser desativado. b Clique na guia Propriedades(Properties). c Clique em Desativar (Disable) e confirme que deseja desativar o adaptador. O status indica que o adaptador está desativado. d Reinicialize o host. Após a reinicialização, o adaptador não aparece mais na lista de adaptadores de armazenamento. Os dispositivos de armazenamento associados ao adaptador se tornam inacessíveis. Mais tarde, você pode ativar o adaptador. Configurar o iSER com ESXi Além do iSCSI tradicional, o ESXi é compatível com o protocolo Extensões iSCSI para RDMA (iSER). Quando o protocolo iSER está ativado, a estrutura iSCSI no host ESXi pode usar o transporte de Acesso Direto à Memória Remota (RDMA) em vez de TCP / IP. Você pode configurar o iSER em seu host ESXi. Para obter mais informações sobre o protocolo iSER, consulte Usando o protocolo iSER com ESXi. Todo o processo de instalação e configuração do VMware iSER envolve várias etapas. Etapa Descrição Instalar e exibir um adaptador de rede compatível com RDMA Para configurar o iSER com ESXi, você deve primeiro instalar um adaptador de rede compatível com RDMA, por exemplo, Mellanox Tecnologias MT27700 Família ConnectX-4. Depois de instalar esse tipo de adaptador, o vSphere Client exibe seus dois componentes, um adaptador RDMA e um adaptador de rede físico vmnic#. Habilite o VMware adaptador iSER Para poder usar o adaptador compatível com RDMA para iSCSI, use esxcli para ativar o componente de armazenamento do VMware iSER. O componente aparece no vSphere Client como um vmhba# adaptador de armazenamento na categoria VMware Adaptador iSCSI sobre RDMA (iSER). Modificar propriedades gerais para adaptadores iSCSI ou iSER Se necessário, altere o nome padrão e o alias atribuído ao adaptador de armazenamento iSER vmhba#. vSphere Storage VMware, Inc. Traduzido automaticamente 100 Etapa Descrição Configurar a associação de porta para iSCSI ou iSER Você deve criar conexões de rede para associar o adaptador de armazenamento iSER vmhba# e o adaptador de rede compatível com RDMA vmnic#. O processo de configuração dessas conexões é chamado de vinculação de portas. Observação O iSER não é compatível com o agrupamento de placas de rede. Ao configurar a associação de porta, use apenas um adaptador RDMA por vSwitch. Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi Configure a descoberta dinâmica ou estática para o seu adaptador de armazenamento iSER vmhba#. Com a descoberta dinâmica, toda vez que o iniciador contata um sistema de armazenamento iSER especificado, ele envia a solicitação SendTargets para o sistema. O sistema iSER responde fornecendo uma lista de destinos disponíveis para o iniciador. Com a descoberta estática, você insere manualmente as informações para os destinos. Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER Se o seu ambiente usar o CHAP (Challenge Handshake Authentication Protocol), configure-o para o seu adaptador de armazenamento iSER vmhba#. Configurar o CHAP para o destino Você também pode configurar credenciais CHAP diferentes para cada endereço de descoberta ou destino estático. Habilitar quadros jumbo para rede Se o seu ambiente suportar quadros grandes, habilite-os para o adaptador de armazenamento iSER vmhba#. Instalar e exibir um adaptador de rede compatível com RDMA ESXi é compatível com adaptadores de rede compatíveis com RDMA, por exemplo, Família Mellanox Tecnologias MT27700 ConnectX-4. Depois de instalar esse adaptador no host, o vSphere Client exibe seus dois componentes, um adaptador RDMA e um adaptador de rede físico. Você pode usar vSphere Client para exibir o adaptador RDMA e seu adaptador de rede correspondente. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Em Rede (Networking), clique em Adaptadores RDMA (RDMA adapters). Neste exemplo, o adaptador RDMA aparece na lista como vmrdma0. A coluna Uplink emparelhado exibe o componente de rede como o adaptador de rede físico vmnic1. vSphere Storage VMware, Inc. Traduzido automaticamente 101 3 Para verificar a descrição do adaptador, selecione o adaptador RDMA na lista e clique na guia Propriedades (Properties). Resultados Você pode usar o vmnic# componente de rede do adaptador para configurações de armazenamento como iSER ou NVMe sobre RDMA. Para as etapas de configuração do iSER, consulte Configurar o iSER com ESXi. Para obter informações sobre NVMe sobre RDMA, consulte Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2). Habilite o VMware adaptador iSER Para poder usar o adaptador compatível com RDMA para iSCSI, use o esxcli para ativar o componente de armazenamento do VMware iSER. Depois de ativar o componente, ele aparece no vSphere Client como um adaptador de armazenamento vmhba# na categoria de adaptador VMware iSCSI sobre RDMA (iSER). Pré-requisitos n Verifique se o seu armazenamento iSCSI é compatível com o protocolo iSER. n Instale o adaptador compatível com RDMA no host do ESXi. Para obter informações, consulte Instalar e exibir um adaptador de rede compatível com RDMA. n Para adaptadores compatíveis com RDMA que suportam RDMA sobre Ethernet Convergente (RoCE), determine a versão RoCE que o adaptador usa. n Use o switch compatível com RDMA. n Ative o controle de fluxo no host ESXi. Para ativar o controle de fluxo para o host, use o comando esxcli system module parameters. Para obter detalhes, consulte o VMware artigo da base de conhecimento em http://kb.vmware.com/kb/1013413. n Certifique-se de configurar as portas do switch RDMA para criar conexões sem perdas entre o iniciador iSER e o destino. vSphere Storage VMware, Inc. Traduzido automaticamente 102 http://kb.vmware.com/kb/1013413 Procedimentos 1 Use o ESXi Shell ou o vSphere CLI para habilitar o adaptador de armazenamento do VMware iSER e definir sua versão RoCE. a Ative o adaptador de armazenamento iSER. esxcli rdma iser add b Verifique se o adaptador iSER foi adicionado. esxcli iscsi adapter list A saída é semelhante à seguinte. Adapter Driver State UID Description ------- ------ ------- ------------- ------------------------------------- vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter c Especifique a versão RoCE que o iSER usa para se conectar ao destino. Use a versão RoCE do adaptador compatível com RDMA. O comando que você insere é semelhante ao seguinte: esxcli rdma iser params set -a vmhba64 -r 1 Quando o comando for concluído, uma mensagem semelhante à seguinte será exibida no log do VMkernel. vmkernel.0:2020-02-18T18:26:15.949Z cpu6:2100717 opID=45abe37e)iser: iser_set_roce: Setting roce type: 1 for vmhba: vmhba64 vmkernel.0:2020-02-18T18:26:15.949Z cpu6:2100717 opID=45abe37e)iser: iser_set_roce: Setting rdma port: 3260 for vmhba: vmhba64 Se você não especificar a versão RoCE, o host assumirá como padrão a versão RoCE mais alta que o adaptador compatível com RDMA suporta. vSphere Storage VMware, Inc. Traduzido automaticamente 103 2 Use o vSphere Client para exibir o adaptador iSER. a No vSphere Client, navegue até o host ESXi. b Clique na guia Configurar (Configure). c Em Storage (Storage), clique em StorageAdapters (Storage Adapters) e revise a lista de adaptadores. Se você tiver ativado o adaptador, ele aparecerá como um armazenamento vmhba# na lista na categoria de adaptador VMware iSCSI sobre RDMA (iSER). 3 Selecione o armazenamento iSER vmhba# para revisar suas propriedades ou realizar as seguintes tarefas. Opção Descrição Configurar a associação de porta para o adaptador de armazenamento iSER Você deve criar conexões de rede para associar o adaptador de armazenamento iSER vmhba# e o adaptador de rede compatível com RDMA vmnic#. O processo de configuração dessas conexões é chamado de associação de porta. Para obter informações gerais sobre associação de porta, consulte Configurando a rede para iSCSI e iSER. Para configurar a associação de porta para iSER, consulte Configurar a associação de porta para iSCSI ou iSER. Configurar a descoberta dinâmica ou estática para o adaptador de armazenamento iSER Para obter informações, consulte Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi. Configurar o protocolo de autenticação de handshake de desafio (CHAP) para o adaptador de armazenamento iSER Para obter informações, consulte Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER. vSphere Storage VMware, Inc. Traduzido automaticamente 104 Próximo passo Para obter mais informações, consulte o VMware artigo da base de conhecimento em https:// kb.vmware.com/s/article/79148. Modificar propriedades gerais para adaptadores iSCSI ou iSER Você pode alterar o nome padrão e o alias atribuído aos seus adaptadores de armazenamento iSCSI ou iSER pelo host ESXi. Para os adaptadores iSCSI de hardware independentes, você também pode alterar as configurações de IP padrão. Importante Quando você modificar qualquer propriedade padrão para seus adaptadores, certifique-se de usar os formatos corretos para seus nomes e endereços IP. Pré-requisitos Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. 4 Clique na guia Propriedades (Properties) e clique em Editar (Edit) no painel Geral. 5 (Opcional) Modifique as seguintes propriedades gerais. Opção Descrição Nome do iSCSI Nome exclusivo formado de acordo com os padrões iSCSI que identifica o adaptador iSCSI. Se você alterar o nome, certifique-se de que o nome inserido seja exclusivo no mundo todo e esteja devidamente formatado. Caso contrário, determinados dispositivos de armazenamento podem não reconhecer o adaptador iSCSI. Nome alternativo do iSCSI Um nome amigável que você usa em vez do nome iSCSI. Resultados Se você alterar o nome do iSCSI, ele será usado para novas sessões do iSCSI. Para sessões existentes, as novas configurações não serão usadas até que você faça logoff e logon novamente. vSphere Storage VMware, Inc. Traduzido automaticamente 105 https://kb.vmware.com/s/article/79148 https://kb.vmware.com/s/article/79148 Próximo passo Para obter outras etapas de configuração que você pode realizar para os adaptadores de armazenamento iSCSI ou iSER, consulte os seguintes tópicos: n Configurar adaptadores iSCSI de hardware independentes n Configurar adaptadores iSCSI de hardware dependente n Configurar o adaptador iSCSI de software n Configurar o iSER com ESXi Configurando a rede para iSCSI e iSER Certos tipos de adaptadores iSCSI dependem da rede VMkernel. Esses adaptadores incluem os adaptadores iSCSI de software ou hardware dependente e o adaptador VMware iSCSI sobre RDMA (iSER). Se o seu ambiente incluir qualquer um desses adaptadores, você deverá configurar conexões para o tráfego entre o componente iSCSI ou iSER e os adaptadores de rede físicos. Configurar a conexão de rede envolve a criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 1: 1 entre cada adaptador de rede virtual e físico. Em seguida, associe o adaptador VMkernel a um adaptador iSCSI ou iSER apropriado. Esse processo é chamado de associação de porta. vmhba iSCSI or iSER adapter vmk VMkernel adapter vmnic physical NIC iSCSI or iSER storage Host vSwitch IP Network Siga estas regras ao configurar a associação de porta: n Você pode conectar o adaptador de software iSCSI a qualquer NIC física disponível no host. vSphere Storage VMware, Inc. Traduzido automaticamente 106 n Os adaptadores iSCSI dependentes devem ser conectados apenas às suas próprias NICs físicas. n Você deve conectar o adaptador iSER apenas ao adaptador de rede compatível com RDMA. Para considerações específicas sobre quando e como usar conexões de rede com software iSCSI, consulte o VMware artigo da base de conhecimento em http://kb.vmware.com/kb/ 2038869. Vários adaptadores de rede na configuração do iSCSI ou do iSER Se o seu host tiver mais de um adaptador de rede físico para iSCSI ou iSER, você poderá usar os adaptadores para caminhos múltiplos. Você pode usar vários adaptadores físicos em uma ou várias configurações de switch. Na configuração de vários switches, você designa um switch vSphere separado para cada par de adaptadores de virtual para físico. Figura 11-1. Mapeamento do adaptador 1: 1 em switches vSphere Standard separados VMkernel adapters Physical adapters vmnic1iSCSI1 vmk1 vSwitch1 VMkernel adapters Physical adapters vmnic2iSCSI2 vmk2 vSwitch2 Uma alternativa é adicionar todos os adaptadores NICs e VMkernel ao único switch do vSphere. O número de adaptadores VMkernel deve corresponder ao número de adaptadores físicos no switch vSphere Standard. A configuração de switch único não é apropriada para o iSER porque o iSER não oferece suporte ao agrupamento de placas de rede. vSphere Storage VMware, Inc. Traduzido automaticamente 107 http://kb.vmware.com/kb/2038869 http://kb.vmware.com/kb/2038869 Figura 11-2. Mapeamento do adaptador 1: 1 em um único switch vSphere Standard VMkernel adapters Physical adapters vmnic2 vmnic1 iSCSI2 vmk2 iSCSI1 vmk1 vSwitch1 Para esse tipo de configuração, você deve substituir a configuração de rede padrão e verificar se cada adaptador VMkernel é mapeado para apenas um adaptador físico ativo correspondente, conforme a tabela indica. Adaptador VMkernel (vmk #) Adaptador de rede física (vmnic #) vmk1 (iSCSI1) Adaptadores ativos vmnic1 Adaptadores não utilizados vmnic2 vmk2 (iSCSI2) Adaptadores ativos vmnic2 Adaptadores não utilizados vmnic1 Você também pode usar switches distribuídos. Para obter mais informações sobre os switches distribuídos do vSphere e como alterar a política de rede padrão, consulte a documentação Rede do vSphere . As seguintes considerações se aplicam quando você usa vários adaptadores físicos: n Os adaptadores de rede físicos devem estar na mesma sub-rede que o sistema de armazenamento ao qual eles se conectam. n (Aplica-se apenas ao iSCSI e não ao iSER) Se você usar switches do vSphere separados, deverá conectá-los a sub-redes IP diferentes. Caso contrário, os adaptadores VMkernel podem enfrentar problemas de conectividade e o host não consegue descobrir os LUNs. n A configuração de switch único não é apropriada para o iSER porque o iSER não oferece suporte ao agrupamento de placas de rede. Não use a associação de portas quando existir uma das seguintes condições: n As portas iSCSI de destino da matriz estão em um domínio de difusão e uma sub-rede IP diferentes. vSphere Storage VMware, Inc. Traduzido automaticamente 108 n Os adaptadores VMkernel usados para conectividade iSCSI existem em diferentes domínios de transmissão, sub-redes IP ou usam switches virtuais diferentes. Observação Nas configurações do iSER, os adaptadores VMkernel usados para a conectividade do iSER não podem ser usados para o tráfego convergente. Os adaptadores VMkernel que você crioupara habilitar a conectividade entre o host ESXi com o iSER e o destino do iSER devem ser usados apenas para o tráfego do iSER. Práticas recomendadas para configurar a rede com software iSCSI Ao configurar a rede com o software iSCSI, considere várias práticas recomendadas. Vinculação de porta iSCSI de software Você pode associar o iniciador iSCSI de software no host ESXi a uma ou várias portas VMkernel, para que o tráfego iSCSI flua apenas pelas portas vinculadas. As portas não ligadas não são usadas para o tráfego iSCSI. Quando a associação de portas é configurada, o iniciador iSCSI cria sessões iSCSI de todas as portas vinculadas para todos os portais de destino configurados. Veja os exemplos a seguir. Portas VMkernel Portais de destino Sessões iSCSI 2 portas VMkernel ligadas 2 portais de destino 4 sessões (2 x 2) 4 portas VMkernel ligadas 1 portal de destino 4 sessões (4 x 1) 2 portas VMkernel ligadas 4 portais de destino 8 sessões (2 x 4) Observação Certifique-se de que todos os portais de destino sejam acessíveis de todas as portas VMkernel quando a associação de porta for usada. Caso contrário, a criação de sessões iSCSI pode falhar. Como resultado, a operação de nova verificação pode levar mais tempo do que o esperado. Sem vinculação de porta Se você não usar a associação de porta, a camada de rede ESXi selecionará a melhor porta VMkernel com base em sua tabela de roteamento. O host usa a porta para criar uma sessão iSCSI com o portal de destino. Sem a associação de porta, apenas uma sessão por cada portal de destino é criada. Veja os exemplos a seguir. Portas VMkernel Portais de destino Sessões iSCSI 2 portas VMkernel não ligadas 2 portais de destino 2 sessões 4 portas VMkernel não ligadas 1 portal de destino 1 sessão 2 portas VMkernel não ligadas 4 portais de destino 4 sessões vSphere Storage VMware, Inc. Traduzido automaticamente 109 Software iSCSI Multipathing Exemplo 1. Vários caminhos para um destino iSCSI com um único portal de rede Se o seu destino tiver apenas um portal de rede, você poderá criar vários caminhos para o destino adicionando várias portas VMkernel no seu host ESXi e vinculando-as ao iniciador iSCSI. vmk1 192.168.0.1/24 Single Target: 192.168.0.10/24 vmk 192.168.0.2/242 vmnic2 vmk3 192.168.0.3/24 vmnic3 vmk2 192.168.0.4/24 vmnic4 Same subnet vmnic1 IP Network Neste exemplo, todas as portas do iniciador e o portal de destino são configurados na mesma sub-rede. O destino é acessível por meio de todas as portas vinculadas. Você tem quatro portas VMkernel e um portal de destino, portanto, um total de quatro caminhos são criados. Sem a associação de porta, apenas um caminho é criado. Exemplo 2. Vários caminhos com portas VMkernel em diferentes sub-redes Você pode criar vários caminhos configurando várias portas e portais de destino em diferentes sub-redes de IP. Ao manter as portas do iniciador e de destino em sub-redes diferentes, você pode forçar o ESXi a criar caminhos por meio de portas específicas. Nessa configuração, você não usa a associação de porta porque a associação de porta requer que todas as portas do iniciador e de destino estejam na mesma sub-rede. vSphere Storage VMware, Inc. Traduzido automaticamente 110 SP/Controller A: Port 0: 192.168.1.10/24 Port 1: 192.168.2.10/24 SP/Controller B: Port 0: 192.168.1.11/24 Port 1: 192.168.2.11/24 vmk1 192.168.1.1/24 vmnic1 IP Networkvmk2 192.168.2.1/24 vmnic2 ESXi seleciona vmk1 ao se conectar à Porta 0 do Controlador A e ao Controlador B porque todas as três portas estão na mesma sub-rede. Da mesma forma, vmk2 é selecionado ao se conectar à Porta 1 do Controlador A e B. Você pode usar o agrupamento de NIC nesta configuração. Um total de quatro caminhos é criado. Caminhos Descrição Caminho 1 vmk1 e Port0 do Controlador A Caminho 2 vmk1 e Port0 de B Controlado Caminho 3 vmk2 e Port1 do controlador A Caminho 4 vmk2 e Port2 do controlador B Roteamento com software iSCSI Você pode usar o comando esxcli para adicionar rotas estáticas para o tráfego iSCSI. Depois de configurar as rotas estáticas, as portas de iniciador e de destino em diferentes sub-redes podem se comunicar umas com as outras. Exemplo 1. Usando rotas estáticas com associação de porta Neste exemplo, você mantém todas as portas vinculadas do vmkernel em uma sub-rede (N1) e configura todos os portais de destino em outra sub-rede (N2). Em seguida, você pode adicionar uma rota estática para a sub-rede de destino (N2). N1 N2 SP/Controller A Port 0 10.115.179.2/24 SP/Controller A Port 0 10.115.179.1/24 IP Networkvmk2 192.168.2.1/24 vmnic2 vmk1 192.168.1.1/24 vmnic1 Use o seguinte comando: vSphere Storage VMware, Inc. Traduzido automaticamente 111 # esxcli network ip route ipv4 add -gateway 192.168.1.253 -network 10.115.179.0/24 Exemplo 2. Usando rotas estáticas para criar vários caminhos Nessa configuração, você usa o roteamento estático ao usar sub-redes diferentes. Você não pode usar a associação de porta com essa configuração. SP/Controller A Port 0 0.115.179.1/24 SP/Controller A Port 0 0.115.155.1/24 vmk2 192.168.2.1/24 vmnic2 IP Network vmk1 192.168.1.1/24 vmnic1 Você configura vmk1 e vmk2 em sub-redes separadas, 192.168.1.0 e 192.168.2.0. Seus portais de destino também estão em sub-redes separadas, 10.115.155.0 e 10.155.179.0. Você pode adicionar a rota estática para 10.115.155.0 da vmk1. Certifique-se de que o gateway seja acessível a partir de vmk1. # esxcli network ip route ipv4 add -gateway 192.168.1.253 -network 10.115.155.0/24 Em seguida, adicione a rota estática para 10.115.179.0 do vmk2. Certifique-se de que o gateway seja acessível a partir de vmk2. # esxcli network ip route ipv4 add -gateway 192.168.2.253 -network 10.115.179.0/24 Ao se conectar com a Porta 0 do Controlador A, vmk1 é usado. Ao se conectar com a porta 0 do controlador B, vmk2 é usado. Exemplo 3. Roteamento com um gateway separado por porta vmkernel A partir do vSphere 6.5, você pode configurar um gateway separado por porta VMkernel. Se você usar o DHCP para obter a configuração de IP para uma porta VMkernel, as informações do gateway também poderão ser obtidas usando o DHCP. Para ver as informações do gateway por porta VMkernel, use o seguinte comando: # esxcli network ip interface ipv4 address list Name IPv4 Address IPv4 Netmask IPv4 Broadcast Address Type Gateway DHCP DNS ---- -------------- ------------- -------------- ------------ -------------- -------- vmk0 10.115.155.122 255.255.252.0 10.115.155.255 DHCP 10.115.155.253 true vmk1 10.115.179.209 255.255.252.0 10.115.179.255 DHCP 10.115.179.253 true vmk2 10.115.179.146 255.255.252.0 10.115.179.255 DHCP 10.115.179.253 true vSphere Storage VMware, Inc. Traduzido automaticamente 112 Com gateways separados por porta VMkernel, você usa a associação de porta para alcançar destinos em diferentes sub-redes. Configurar a associação de porta para iSCSI ou iSER A associação de portas cria conexões para o tráfego entre determinados tipos de adaptadores iSCSI e iSER e os adaptadores de rede físicos. Os seguintes tipos de adaptadores exigem a associação de portas: n Software adaptador iSCSI n Adaptador iSCSI de hardware dependente n VMware Adaptador iSCSI sobre RDMA (iSER) As tarefas a seguir discutem a configuração de rede com um switch vSphere Standard e um único adaptador de rede físico. Se você tiver vários adaptadores de rede, consulte Vários adaptadores de rede na configuração do iSCSI ou do iSER. Observação O iSER não é compatível com o agrupamento de placas de rede. Ao configurar a associação de portas para o iSER, use apenas um adaptador físico habilitado para RDMA (vmnic #) e um adaptador VMkernel (vmk #) por vSwitch. Você também pode usar VMware vSphere® Distributed Switch™ e VMware NSX® Virtual Switch™ na configuração de porta a porta. Para obter informações sobre NSX switches virtuais, consulte a documentaçãoVMware NSX Data Center for vSphere . Se você usar um switch distribuído do vSphere com várias portas de uplink, para a associação de portas, crie um grupo de portas distribuídas separado por cada NIC física. Em seguida, defina a política de equipe para que cada grupo de portas distribuído tenha apenas uma porta de uplink ativa. Para obter informações detalhadas sobre switches distribuídos, consulte a documentação Rede do vSphere . Procedimentos 1 Criar um único adaptador VMkernel para iSCSI ou iSER Conecte o VMkernel, que executa serviços de armazenamento iSCSI, a um adaptador de rede físico no host ESXi. Em seguida, use o adaptador VMkernel criado na configuração de associação de porta com os adaptadores iSCSI ou iSER. 2 Associar adaptadores iSCSI ou iSER a adaptadores VMkernel No host ESXi, associe um adaptador iSCSI ou iSER a um adaptador VMkernel. 3 Revisar detalhes de vinculação de porta no host ESXi Revise os detalhes de rede do adaptador VMkernel que está vinculado ao adaptador iSCSI ou iSER vmhba. vSphere Storage VMware, Inc. Traduzido automaticamente 113 Próximo passo Para obter outras etapas de configuração que você pode realizar para os adaptadores de armazenamento iSCSI ou iSER, consulte os seguintes tópicos: n Configurar adaptadores iSCSI de hardware dependente n Configurar o adaptador iSCSI de software n Configurar o iSER com ESXi Criar um único adaptador VMkernel para iSCSI ou iSER Conecte o VMkernel, que executa serviços de armazenamento iSCSI, a um adaptador de rede físico no host ESXi. Em seguida, use o adaptador VMkernel criado na configuração de associação de porta com os adaptadores iSCSI ou iSER. Os seguintes tipos de adaptadores exigem a associação de portas: n Software adaptador iSCSI n Adaptador iSCSI de hardware dependente n VMware Adaptador iSCSI sobre RDMA (iSER) Pré-requisitos n Se você estiver criando um adaptador VMkernel para iSCSI de hardware dependente, deverá usar o adaptador de rede físico (vmnic #) que corresponde ao componente iSCSI. Consulte Determinar a associação entre iSCSI e adaptadores de rede. n Com o adaptador iSER, certifique-se de usar um vmnic # compatível com RDMA apropriado. Consulte o Instalar e exibir um adaptador de rede compatível com RDMA. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Selecione Adicionar Rede (Add Networking) no menu do botão direito do mouse. 3 Selecione Adaptador de Rede VMkernel (VMkernel Network Adapter) e clique em Avançar (Next). 4 Selecione Novo switch padrão (New standard switch) para criar um switch vSphere Standard. 5 Clique no ícone Adicionar adaptadores (Add adapters) e selecione um adaptador de rede apropriado (vmnic #) a ser usado para iSCSI. Certifique-se de atribuir o adaptador a adaptadores ativos. 6 Insira um rótulo de rede. Um rótulo de rede é um nome amigável que identifica o adaptador VMkernel que você está criando, por exemplo, iSCSI ou iSER. 7 Especifique as configurações de IP. vSphere Storage VMware, Inc. Traduzido automaticamente 114 8 Revise as informações e clique em Concluir (Finish). Você criou o adaptador VMkernel virtual (vmk #) para um adaptador de rede físico (vmnic #) no host. 9 Verifique sua configuração. a Em Rede (Networking), selecione Adaptadores VMkernel (VMkernel Adapters) e selecione o adaptador VMkernel (vmk #) na lista. b Clique na guia Políticas (Policies) e verifique se o adaptador de rede física correspondente (vmnic #) aparece como um adaptador ativo em Teaming e failover (Teaming and failover). Próximo passo Se o seu host tiver um adaptador de rede físico para o tráfego iSCSI, vincule o adaptador VMkernel que você criou ao adaptador iSCSI ou iSER vmhba. Se você tiver vários adaptadores de rede, poderá criar adaptadores VMkernel adicionais e, em seguida, executar a associação iSCSI. O número de adaptadores virtuais deve corresponder ao número de adaptadores físicos no host. Para obter informações, consulte Vários adaptadores de rede na configuração do iSCSI ou do iSER. Associar adaptadores iSCSI ou iSER a adaptadores VMkernel No host ESXi, associe um adaptador iSCSI ou iSER a um adaptador VMkernel. Os seguintes tipos de adaptadores exigem a associação de portas: n Software adaptador iSCSI n Adaptador iSCSI de hardware dependente n VMware Adaptador iSCSI sobre RDMA (iSER) Pré-requisitos Crie um adaptador VMkernel virtual para cada adaptador de rede físico no host. Se você usar vários adaptadores VMkernel, configure a política de rede correta. Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento vSphere Storage VMware, Inc. Traduzido automaticamente 115 Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador iSCSI ou iSER apropriado (vmhba #) na lista. 4 Clique na guia Vinculação de Porta de Rede (Network Port Binding) e clique no ícone Adicionar (Add). 5 Selecione um adaptador VMkernel para associar ao adaptador iSCSI ou iSER. Observação Certifique-se de que a política de rede para o adaptador VMkernel esteja em conformidade com os requisitos de associação. Você pode associar o adaptador iSCSI do software a um ou mais adaptadores VMkernel. Para um adaptador iSCSI de hardware dependente ou o adaptador iSER, apenas um adaptador VMkernel associado à NIC física correta está disponível. 6 Clique em Okey(OK). A conexão de rede aparece na lista de associações de porta de rede para o adaptador iSCSI ou iSER. Revisar detalhes de vinculação de porta no host ESXi Revise os detalhes de rede do adaptador VMkernel que está vinculado ao adaptador iSCSI ou iSER vmhba. Os seguintes tipos de adaptadores exigem a associação de portas: n Software adaptador iSCSI n Adaptador iSCSI de hardware dependente n VMware Adaptador iSCSI sobre RDMA (iSER) vSphere Storage VMware, Inc. Traduzido automaticamente 116 Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador iSCSI ou iSER apropriado na lista. 4 Clique na guia Vinculação de Porta de Rede (Network Port Binding) e selecione o adaptador VMkernel na lista. 5 Clique no ícone Exibir detalhes (View Details). 6 Revise as informações do adaptador VMkernel e do adaptador físico alternando entre as guias disponíveis. Gerenciando a rede iSCSI Considerações especiais se aplicam aos adaptadores de rede, tanto físicos quanto VMkernel, que estão associados a um adaptador iSCSI. Depois de criar conexões de rede para iSCSI, um indicador iSCSI será ativado no vSphere Client. O indicador mostra que um determinado adaptador de rede virtual ou físico está vinculado ao iSCSI. Para evitar interrupções no tráfego iSCSI, siga estas diretrizes e considerações ao gerenciar adaptadores de rede virtual e física vinculados a iSCSI: n Certifique-se de que os adaptadores de rede VMkernel recebam endereços na mesma sub- rede que o portal de armazenamento iSCSI ao qual eles se conectam. n Os adaptadores iSCSI que usam adaptadores VMkernel não podem se conectar a portas iSCSI em sub-redes diferentes, mesmo se os adaptadores iSCSI descobrirem essas portas. n Ao usar switches do vSphere separados para conectar adaptadores de rede físicos e adaptadores VMkernel, certifique-se de que os switches do vSphere se conectem a diferentes sub-redes IP. n Se os adaptadores VMkernel estiverem na mesma sub-rede, eles deverão se conectar a um único vSwitch. n Se você migrar adaptadores VMkernel para um switch vSphere diferente, mova os adaptadores físicos associados. n Não faça alterações de configuração em adaptadores VMkernel vinculados a iSCSI ou em adaptadores de rede físicos. n Não faça alterações que possam interromper a associação de adaptadores VMkernel e adaptadores de rede físicos. Vocêpoderá interromper a associação se remover um dos adaptadores ou o switch do vSphere que os conecta. Ou se você alterar a política de rede 1: 1 para a conexão deles. vSphere Storage VMware, Inc. Traduzido automaticamente 117 Solução de problemas de rede iSCSI Um sinal de aviso indica uma política de grupo de portas fora de conformidade para um adaptador VMkernel vinculado a iSCSI. Problema A política de grupo de portas do adaptador VMkernel é considerada não compatível nos seguintes casos: n O adaptador VMkernel não está conectado a um adaptador de rede físico ativo. n O adaptador VMkernel está conectado a mais de um adaptador de rede físico. n O adaptador VMkernel está conectado a um ou mais adaptadores físicos em espera. n O adaptador físico ativo foi alterado. Solução Configure a política de rede correta para o adaptador VMkernel vinculado ao iSCSI. Consulte o Configurando a rede para iSCSI e iSER. Usando quadros jumbo com iSCSI e iSER ESXi é compatível com o uso de quadros jumbo com iSCSI / iSER. Os quadros jumbo são quadros Ethernet com o tamanho que excede 1500 bytes. O parâmetro da unidade de transmissão máxima (MTU) é normalmente usado para medir o tamanho dos quadros jumbo. Quando você usa quadros jumbo para o tráfego iSCSI, as seguintes considerações se aplicam: n Todos os componentes de rede devem suportar quadros jumbo. n Verifique com seus fornecedores se seus NICs físicos e adaptadores iSCSI suportam quadros Jumbo. n Para configurar e verificar os switches de rede físicos para quadros jumbo, consulte a documentação do fornecedor. A tabela a seguir explica o nível de suporte que ESXi fornece aos quadros jumbo. Tabela 11-1. Suporte para quadros jumbo Tipo de adaptadores iSCSI Suporte a quadros jumbo Software iSCSI Com suporte ISCSI de hardware dependente Compatível. Verifique com o fornecedor. Hardware Independente iSCSI Compatível. Verifique com o fornecedor. VMware iSER Compatível. Verifique com o fornecedor. vSphere Storage VMware, Inc. Traduzido automaticamente 118 Habilitar quadros jumbo para rede Você pode habilitar os Quadros Jumbo para ESXi adaptadores de armazenamento que usam a rede VMkernel para seu tráfego. Esses adaptadores incluem adaptadores iSCSI de software, adaptadores iSCSI de hardware dependentes e VMware adaptadores iSER. Para habilitar os quadros jumbo, altere o valor padrão do parâmetro de unidades de transmissão máxima (MTU). Você altera o parâmetro MTU no switch do vSphere que usa para o tráfego iSCSI. Para obter mais informações, consulte a documentação do Rede do vSphere . Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Rede (Networking), clique em Switches virtuais (Virtual switches) e selecione o switch do vSphere que você deseja modificar na lista. 4 Clique no ícone Editar configurações (Edit settings). 5 Na página Propriedades, altere o parâmetro da MTU. Essa etapa define a MTU para todas as NICs físicas nesse switch padrão. Defina o valor da MTU para o maior tamanho de MTU entre todas as NICs conectadas ao switch padrão. ESXi é compatível com o tamanho da MTU de até 9000 bytes. Habilitar quadros jumbo para iSCSI de hardware independente Para habilitar os quadros jumbo para adaptadores iSCSI de hardware independentes no host ESXi, altere o valor padrão do parâmetro de unidades de transmissão máxima (MTU). Use as configurações de Opções avançadas para alterar o parâmetro de MTU para o HBA iSCSI. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador iSCSI de hardware independente na lista de adaptadores. 4 Clique na guia Opções avançadas (Advanced Options) e clique em Editar (Edit). 5 Altere o valor do parâmetro MTU. ESXi é compatível com o tamanho da MTU de até 9000 bytes. vSphere Storage VMware, Inc. Traduzido automaticamente 119 Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi Você precisa configurar os endereços de descoberta de destino, para que o adaptador de armazenamento iSCSI ou iSER possa determinar qual recurso de armazenamento na rede está disponível para acesso. O sistema ESXi é compatível com estes métodos de descoberta: Descoberta dinâmica Também conhecida como descoberta SendTargets. Cada vez que o iniciador contata um servidor iSCSI especificado, o iniciador envia a solicitação SendTargets para o servidor. O servidor responde fornecendo uma lista de destinos disponíveis para o iniciador. Os nomes e endereços IP desses destinos aparecem na guia Descoberta Estática (Static Discovery). Se você remover um destino estático adicionado pela descoberta dinâmica, o destino poderá ser retornado à lista na próxima vez que uma nova verificação ocorrer, o adaptador de armazenamento for redefinido ou o host for reiniciado. Observação Com o software e o hardware dependente iSCSI, ESXi filtra os endereços de destino com base na família de IPs do endereço do servidor iSCSI especificado. Se o endereço for IPv4, os endereços IPv6 que podem vir na resposta SendTargets do servidor iSCSI serão filtrados. Quando nomes DNS são usados para especificar um servidor iSCSI ou quando a resposta SendTargets do servidor iSCSI tem nomes DNS, ESXi depende da família de IPs da primeira entrada resolvida da pesquisa de DNS. Descoberta estática Além do método de descoberta dinâmica, você pode usar a descoberta estática e inserir manualmente as informações para os destinos. O adaptador iSCSI ou iSER usa uma lista de destinos que você fornece para entrar em contato e se comunicar com os servidores iSCSI. Ao configurar a descoberta estática ou dinâmica, você só pode adicionar novos destinos iSCSI. Você não pode alterar nenhum parâmetro de um destino existente. Para fazer alterações, remova o destino existente e adicione um novo. Pré-requisitos Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. vSphere Storage VMware, Inc. Traduzido automaticamente 120 4 Configure o método de descoberta. Método de descoberta Descrição Descoberta dinâmica a Clique em Descoberta dinâmica (Dynamic Discovery) e clique em Adicionar (Add). b Digite o endereço IP ou o nome DNS do sistema de armazenamento e clique em OK (OK). c Verifique novamente o adaptador iSCSI. Depois de estabelecer a sessão SendTargets com o sistema iSCSI, seu host preenche a lista de descoberta estática com todos os destinos recém- descobertos. Observação Um destino descoberto dinamicamente permanece na lista mesmo depois de ser removido do lado da matriz. Descoberta estática a Clique em Descoberta Estática (Static Discovery) e clique em Adicionar (Add). b Insira as informações do destino e clique em OK (OK) c Verifique novamente o adaptador iSCSI. Próximo passo Para obter outras etapas de configuração que você pode realizar para os adaptadores de armazenamento iSCSI ou iSER, consulte os seguintes tópicos: n Configurar adaptadores iSCSI de hardware independentes n Configurar adaptadores iSCSI de hardware dependente n Configurar o adaptador iSCSI de software n Configurar o iSER com ESXi Remover destinos iSCSI dinâmicos ou estáticos Remova os servidores iSCSI conectados ao seu host ESXi. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador iSCSI a ser modificado na lista. 4 Alterne entre Descoberta dinâmica (Dynamic Discovery) e Descoberta estática (Static Discovery). 5 Selecione um servidor iSCSI para remover eclique em Remover (Remove). vSphere Storage VMware, Inc. Traduzido automaticamente 121 6 Verifique novamente o adaptador iSCSI. Se você estiver removendo o destino estático que foi descoberto dinamicamente, precisará removê-lo do sistema de armazenamento antes de realizar a nova verificação. Caso contrário, seu host descobrirá e adicionará automaticamente o destino à lista de destinos estáticos quando você verificar novamente o adaptador. Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER Como as redes IP que a tecnologia iSCSI usa para se conectar a destinos remotos não protegem os dados que elas transportam, você deve garantir a segurança da conexão. Um dos protocolos que o iSCSI implementa é o Challenge Handshake Authentication Protocol (CHAP), que verifica a legitimidade dos iniciadores que acessam os destinos na rede. O CHAP usa um algoritmo de handshake de três maneiras para verificar a identidade do seu host e, se aplicável, do destino iSCSI quando o host e o destino estabelecem uma conexão. A verificação é baseada em um valor privado predefinido, ou segredo CHAP, que o iniciador e o destino compartilham. ESXi é compatível com a autenticação CHAP no nível do adaptador. Nesse caso, todos os destinos recebem o mesmo nome e segredo do CHAP do iniciador iSCSI. Para adaptadores iSCSI de hardware e software dependentes e para adaptadores iSER, o ESXi também oferece suporte à autenticação CHAP por destino, o que permite configurar credenciais diferentes para cada destino para obter maior nível de segurança. Selecionando o método de autenticação CHAP ESXi é compatível com CHAP unidirecional para todos os tipos de iniciadores iSCSI / iSER e CHAP bidirecional para software e hardware dependente iSCSI e para iSER. Antes de configurar o CHAP, verifique se o CHAP está ativado no sistema de armazenamento iSCSI. Além disso, obtenha informações sobre o método de autenticação CHAP compatível com o sistema. Se o CHAP estiver ativado, configure-o para seus iniciadores, certificando-se de que as credenciais de autenticação do CHAP correspondam às credenciais no armazenamento iSCSI. O ESXi é compatível com os seguintes métodos de autenticação CHAP: CHAP unidirecional Na autenticação CHAP unidirecional, o destino autentica o iniciador, mas o iniciador não autentica o destino. CHAP bidirecional A autenticação CHAP bidirecional adiciona um nível extra de segurança. Com esse método, o iniciador também pode autenticar o destino. VMware é compatível com esse método para adaptadores iSCSI de hardware e software dependentes e para adaptadores iSER. vSphere Storage VMware, Inc. Traduzido automaticamente 122 Para adaptadores iSCSI de hardware e software dependentes e para adaptadores iSER, você pode definir o CHAP unidirecional e o CHAP bidirecional para cada adaptador ou no nível de destino. O iSCSI de hardware independente oferece suporte ao CHAP somente no nível do adaptador. Quando você definir os parâmetros do CHAP, especifique um nível de segurança para o CHAP. Observação Quando você especifica o nível de segurança CHAP, a forma como a matriz de armazenamento responde depende da implementação CHAP da matriz e é específica do fornecedor. Para obter informações sobre o comportamento de autenticação CHAP em diferentes configurações de inicializador e de destino, consulte a documentação da matriz. Tabela 11-2. Nível de segurança CHAP Nível de segurança CHAP Descrição Adaptadores de armazenamento compatíveis Nenhuma O host não usa a autenticação CHAP. Se a autenticação estiver ativada, use esta opção para desativá-la. Hardware independente iSCSI Software iSCSI ISCSI de hardware dependente iSER Usar CHAP unidirecional se exigido pelo destino O host prefere uma conexão não CHAP, mas pode usar uma conexão CHAP se exigido pelo destino. Software iSCSI ISCSI de hardware dependente iSER Usar CHAP unidirecional, a menos que seja proibido pelo destino O host prefere o CHAP, mas pode usar conexões não CHAP se o destino não for compatível com o CHAP. Hardware independente iSCSI Software iSCSI ISCSI de hardware dependente iSER Usar CHAP unidirecional O host requer uma autenticação CHAP bem-sucedida. A conexão falhará se a negociação do CHAP falhar. Hardware independente iSCSI Software iSCSI ISCSI de hardware dependente iSER Usar CHAP bidirecional O host e o destino oferecem suporte ao CHAP bidirecional. Software iSCSI ISCSI de hardware dependente iSER vSphere Storage VMware, Inc. Traduzido automaticamente 123 Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER Quando você configura o nome e o segredo do CHAP no nível do adaptador iSCSI / iSER, todos os destinos recebem os mesmos parâmetros do adaptador. Por padrão, todos os endereços de descoberta ou destinos estáticos herdam os parâmetros CHAP configurados no nível do adaptador. O nome do CHAP não pode exceder 511 caracteres alfanuméricos e o segredo do CHAP não pode exceder 255 caracteres alfanuméricos. Alguns adaptadores, por exemplo, o adaptador QLogic, podem ter limites inferiores, 255 para o nome do CHAP e 100 para o segredo do CHAP. Pré-requisitos n Antes de configurar os parâmetros do CHAP para iSCSI de software ou hardware dependente, determine se deseja configurar o CHAP unidirecional ou bidirecional. Os adaptadores iSCSI de hardware independentes não são compatíveis com o CHAP bidirecional. n Verifique os parâmetros do CHAP configurados no lado do armazenamento. Os parâmetros configurados devem corresponder aos do lado do armazenamento. n Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento Procedimentos 1 Navegue até o adaptador de armazenamento iSCSI ou iSER. a No vSphere Client, navegue até o host ESXi. b Clique na guia Configurar (Configure). c Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. 2 Clique na guia Propriedades (Properties) e clique em Editar (Edit) no painel Autenticação (Authentication). 3 Especifique o método de autenticação. n Nenhum(None) n Use CHAP unidirecional se exigido pelo destino (Use unidirectional CHAP if required by target) n Use CHAP unidirecional, a menos que seja proibido pelo destino (Use unidirectional CHAP unless prohibited by target) n Usar CHAP unidirecional (Use unidirectional CHAP) n Usar CHAP bidirecional (Use bidirectional CHAP). Para configurar o CHAP bidirecional, você deve selecionar essa opção. vSphere Storage VMware, Inc. Traduzido automaticamente 124 4 Especifique o nome do CHAP de saída. Certifique-se de que o nome especificado corresponda ao nome configurado no lado do armazenamento. n Para definir o nome do CHAP como o nome do adaptador iSCSI, selecione Usar nome do iniciador (Use initiator name). n Para definir o nome do CHAP como algo diferente do nome do iniciador iSCSI, desmarque Usar nome do iniciador (Use initiator name) e insira um nome na caixa de texto Nome (Name). 5 Insira um segredo do CHAP de saída a ser usado como parte da autenticação. Use o mesmo segredo que você inseriu no lado do armazenamento. 6 Se estiver configurando o CHAP bidirecional, especifique as credenciais do CHAP de entrada. Certifique-se de usar segredos diferentes para o CHAP de saída e de entrada. 7 Clique em Okey(OK). 8 Verifique novamente o adaptador iSCSI. Resultados Se você alterar os parâmetros CHAP, eles serão usados para novas sessões iSCSI. Para sessões existentes, novas configurações não serão usadas até que você faça logoff e logon novamente. Próximo passo Para obter outras etapas de configuração que você pode realizar para os adaptadores de armazenamento iSCSI ou iSER, consulte os seguintes tópicos: n Configurar adaptadores iSCSI de hardware independentes n Configurar adaptadores iSCSI de hardware dependente n Configurar o adaptador iSCSI de software n Configurar o iSER com ESXi Configurar o CHAPpara o destino Se você usar adaptadores iSCSI de hardware e software dependentes ou um adaptador de armazenamento iSER, poderá configurar credenciais CHAP diferentes para cada endereço de descoberta ou destino estático. O nome do CHAP não pode exceder 511 e o CHAP secreta 255 caracteres alfanuméricos. Pré-requisitos n Antes de configurar os parâmetros do CHAP, determine se deseja configurar o CHAP unidirecional ou bidirecional. n Verifique os parâmetros do CHAP configurados no lado do armazenamento. Os parâmetros configurados devem corresponder aos do lado do armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 125 n Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento Procedimentos 1 Navegue até o adaptador de armazenamento iSCSI ou iSER. a No vSphere Client, navegue até o host ESXi. b Clique na guia Configurar (Configure). c Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. 2 Clique em Descoberta dinâmica (Dynamic Discovery) ou Descoberta estática (Static Discovery). 3 Na lista de destinos disponíveis, selecione um destino para configurar e clique em Autenticação (Authentication). 4 Desmarque Herdar configurações do pai (Inherit settings from parent) e especifique o método de autenticação. n Nenhum(None) n Use CHAP unidirecional se exigido pelo destino (Use unidirectional CHAP if required by target) n Use CHAP unidirecional, a menos que seja proibido pelo destino (Use unidirectional CHAP unless prohibited by target) n Usar CHAP unidirecional (Use unidirectional CHAP) n Usar CHAP bidirecional (Use bidirectional CHAP). Para configurar o CHAP bidirecional, você deve selecionar essa opção. 5 Especifique o nome do CHAP de saída. Certifique-se de que o nome especificado corresponda ao nome configurado no lado do armazenamento. n Para definir o nome do CHAP como o nome do adaptador iSCSI, selecione Usar nome do iniciador (Use initiator name). n Para definir o nome do CHAP como algo diferente do nome do iniciador iSCSI, desmarque Usar nome do iniciador (Use initiator name) e insira um nome na caixa de texto Nome (Name). 6 Insira um segredo do CHAP de saída a ser usado como parte da autenticação. Use o mesmo segredo que você inseriu no lado do armazenamento. 7 Se estiver configurando o CHAP bidirecional, especifique as credenciais do CHAP de entrada. Certifique-se de usar segredos diferentes para o CHAP de saída e de entrada. 8 Clique em Okey(OK). 9 Verifique novamente o adaptador de armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 126 Resultados Se você alterar os parâmetros CHAP, eles serão usados para novas sessões iSCSI. Para sessões existentes, novas configurações não serão usadas até que você faça logout e login novamente. Configurando parâmetros avançados para iSCSI Você pode precisar configurar parâmetros adicionais para iniciadores iSCSI no seu host ESXi. Por exemplo, alguns sistemas de armazenamento iSCSI exigem redirecionamento ARP (Address Resolution Protocol) para mover o tráfego iSCSI dinamicamente de uma porta para outra. Nesse caso, você deve ativar o redirecionamento ARP no host. A tabela a seguir lista os parâmetros iSCSI avançados que você pode configurar usando o vSphere Client. Além disso, você pode usar os comandos vSphere CLI para configurar alguns dos parâmetros avançados. Para obter informações, consulte a documentação do Introdução ao ESXCLI . Dependendo do tipo de seus adaptadores, alguns parâmetros podem não estar disponíveis. Importante Não altere as configurações avançadas do iSCSI, a menos que o suporte do VMware ou os fornecedores de armazenamento instruam você a alterá-las. Tabela 11-3. Parâmetros adicionais para Iniciadores iSCSI Parâmetro avançado Descrição Resumo do cabeçalho Aumenta a integridade dos dados. Quando o parâmetro de resumo do cabeçalho está ativado, o sistema executa uma soma de verificação sobre cada parte do cabeçalho da Unidade de Dados de Protocolo (PDU) iSCSI. O sistema verifica os dados usando o algoritmo CRC32C. Data Digest Aumenta a integridade dos dados. Quando o parâmetro de resumo de dados está ativado, o sistema executa uma soma de verificação sobre cada parte de dados da PDU. O sistema verifica os dados usando o algoritmo CRC32C. Observação Os sistemas que usam os processadores Intel Nehalem descarregam os cálculos de resumo iSCSI para o software iSCSI. Esse descarregamento ajuda a reduzir o impacto sobre o desempenho. ErrorRecoveryLevel Valor do nível de recuperação de erro iSCSI (ERL) que o iniciador iSCSI no host negocia durante um login. LoginRetryMax Número máximo de vezes que o iniciador iSCSI ESXi tenta fazer login em um destino antes de encerrar as tentativas. MaxOutstandingR2T Define as PDUs R2T (prontas para transferência) que podem estar em transição antes que uma PDU de confirmação seja recebida. FirstBurstLength Especifica a quantidade máxima de dados não solicitados que um iniciador iSCSI pode enviar para o destino durante a execução de um único comando SCSI, em bytes. MaxBurstLength Payload máximo de dados SCSI em uma sequência iSCSI Data-In ou Data-Out solicitada, em bytes. MaxRecvDataSegLength Comprimento máximo do segmento de dados, em bytes, que pode ser recebido em uma PDU iSCSI. vSphere Storage VMware, Inc. Traduzido automaticamente 127 Tabela 11-3. Parâmetros adicionais para Iniciadores iSCSI (continuação) Parâmetro avançado Descrição MaxCommands Máximo de comandos SCSI que podem ser enfileirados no adaptador iSCSI. DefaultTimeToWait Tempo mínimo em segundos para aguardar antes de tentar um logout ou uma reatribuição de tarefa ativa após um encerramento inesperado da conexão ou redefinição. DefautTimeToRetain O tempo máximo em segundos, durante o qual a reatribuição da tarefa ativa ainda é possível após o término ou a redefinição de uma conexão. LoginTimeout Tempo em segundos em que o iniciador aguardará a conclusão da resposta de login. LogoutTimeout O tempo em segundos que o iniciador aguardará para obter uma resposta para a PDU de solicitação de logout. RecoveryTimeout Especifica a quantidade de tempo, em segundos, que pode expirar enquanto uma recuperação de sessão é realizada. Se o tempo limite exceder o limite, o iniciador iSCSI encerrará a sessão. Intervalo sem operação Especifica o intervalo de tempo, em segundos, entre solicitações de NOP-Out enviadas do seu iniciador iSCSI para um destino iSCSI. As solicitações de NOP-Out servem como o mecanismo de ping para verificar se uma conexão entre o iniciador iSCSI e o destino iSCSI está ativa. Tempo limite sem operação Especifica a quantidade de tempo, em segundos, que pode expirar antes que o host receba uma mensagem NOP-In. O destino iSCSI envia a mensagem em resposta à solicitação de NOP-Out. Quando o tempo limite no-op é excedido, o iniciador encerra a sessão atual e inicia uma nova. Redirecionamento de ARP Com esse parâmetro ativado, os sistemas de armazenamento podem mover o tráfego iSCSI dinamicamente de uma porta para outra. Os sistemas de armazenamento que executam failover baseado em matriz exigem o parâmetro ARP. ACK atrasada Com esse parâmetro ativado, os sistemas de armazenamento podem atrasar o reconhecimento de pacotes de dados recebidos. Configurar parâmetros avançados para iSCSI no host ESXi As configurações avançadas do iSCSI controlam parâmetros como cabeçalho e resumo de dados, redirecionamento ARP, ACK atrasado e assim por diante. Cuidado Não faça alterações nas configurações avançadas de iSCSI, a menos que você esteja trabalhando com a equipe de suporte VMware ou tenha informações completas sobre os valores para fornecer as configurações. Pré-requisitos Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). vSphere StorageVMware, Inc. Traduzido automaticamente 128 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. 4 Configure parâmetros avançados. Opção Descrição No nível do adaptador Clique na guia Opções avançadas (Advanced Options) e clique em Editar (Edit). No nível de destino a Clique em Descoberta dinâmica (Dynamic Discovery) ou Descoberta estática (Static Discovery). b Na lista de destinos disponíveis, selecione um destino para configurar e clique em Avançado (Advanced). 5 Insira quaisquer valores necessários para os parâmetros avançados que você deseja modificar. iSCSI Session Management Para se comunicarem entre si, os iniciadores e os destinos iSCSI estabelecem sessões iSCSI. Você pode revisar e gerenciar sessões iSCSI usando vSphere CLI. Por padrão, o iSCSI de software e os iniciadores iSCSI de hardware dependente iniciam uma sessão iSCSI entre cada porta do iniciador e cada porta de destino. Se o seu iniciador ou destino iSCSI tiver mais de uma porta, seu host poderá ter várias sessões estabelecidas. O número padrão de sessões para cada destino é igual ao número de portas no adaptador iSCSI vezes o número de portas de destino. Usando vSphere CLI, você pode exibir todas as sessões atuais para analisá-las e depurá-las. Para criar mais caminhos para os sistemas de armazenamento, você pode aumentar o número padrão de sessões duplicando as sessões existentes entre o adaptador iSCSI e as portas de destino. Você também pode estabelecer uma sessão para uma porta de destino específica. Esse recurso é útil se o host se conectar a um sistema de armazenamento de porta única que apresente apenas uma porta de destino para o iniciador. Em seguida, o sistema redireciona sessões adicionais para uma porta de destino diferente. Estabelecer uma nova sessão entre o iniciador iSCSI e outra porta de destino cria um caminho adicional para o sistema de armazenamento. As seguintes considerações se aplicam ao gerenciamento de sessão iSCSI: n Alguns sistemas de armazenamento não oferecem suporte a várias sessões do mesmo nome ou endpoint do iniciador. Tentativas de criar várias sessões para esses destinos podem resultar em um comportamento imprevisível do seu ambiente iSCSI. n Os fornecedores de armazenamento podem fornecer gerenciadores de sessão automáticos. O uso da sessão automática consegue adicionar ou excluir sessões, não garante resultados duradouros e pode interferir com o desempenho do armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 129 Revisar Sessões iSCSI Use o comando vCLI para exibir sessões iSCSI entre um adaptador iSCSI e um sistema de armazenamento. Pré-requisitos Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli comandos no ESXi Shell. Procedimentos u Para listar sessões iSCSI, execute o seguinte comando: lista de sessão esxcli iscsi O comando aceita estas opções: Opção Descrição -A | --adadter = str O nome do adaptador iSCSI, por exemplo, vmhba34. -s | --isid = str O identificador de sessão iSCSI. -n | --name = str O nome do destino iSCSI, por exemplo, iqn.X. Adicionar Sessões iSCSI Use o vCLI para adicionar uma sessão iSCSI a um destino especificado ou para duplicar uma sessão existente. Ao duplicar sessões, você aumenta o número padrão de sessões e cria caminhos adicionais para os sistemas de armazenamento. Pré-requisitos Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli comandos no ESXi Shell. Procedimentos u Para adicionar ou duplicar uma sessão iSCSI, execute o seguinte comando: esxcli iscsi session add O comando aceita estas opções: Opção Descrição -A | --adapter = str O nome do adaptador iSCSI, por exemplo, vmhba34. Essa opção é necessária. -s | --isid = str O ISID de uma sessão a ser duplicada. Você pode encontrá-lo listando todas as sessões. -n | --name = str O nome do destino iSCSI, por exemplo, iqn.X. vSphere Storage VMware, Inc. Traduzido automaticamente 130 Próximo passo Verifique novamente o adaptador iSCSI. Remover Sessões iSCSI Use o comando vCLI para remover uma sessão iSCSI entre um adaptador iSCSI e um destino. Pré-requisitos Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli comandos no ESXi Shell. Procedimentos u Para remover uma sessão, execute o seguinte comando: esxcli iscsi session remove O comando aceita estas opções: Opção Descrição -A | --adadter = str O nome do adaptador iSCSI, por exemplo, vmhba34. Essa opção é necessária. -s | --isid = str O ISID de uma sessão a ser removida. Você pode encontrá-lo listando todas as sessões. -n | --name = str O nome do destino iSCSI, por exemplo, iqn.X. Próximo passo Verifique novamente o adaptador iSCSI. vSphere Storage VMware, Inc. Traduzido automaticamente 131 Inicializando a partir do iSCSI SAN 12 Quando você configura o host para inicializar a partir de uma SAN, a imagem de inicialização do host é armazenada em um ou mais LUNs no sistema de armazenamento da SAN. Quando o host é iniciado, ele é inicializado a partir do LUN na SAN em vez de seu disco local. Você pode usar a inicialização a partir da SAN se não quiser lidar com a manutenção do armazenamento local ou se tiver configurações de hardware sem disco, como sistemas blade. O ESXi oferece suporte a diferentes métodos de inicialização a partir da SAN iSCSI. Tabela 12-1. Inicialização a partir do suporte à iSCSI SAN Hardware Independente iSCSI Software iSCSI Configure o iSCSI HBA para inicializar a partir da SAN. Para obter informações sobre como configurar o HBA, consulte Configurar o adaptador iSCSI de hardware independente para inicialização por SAN Use o adaptador iSCSI de software e um adaptador de rede que suporte o formato iSCSI Boot Firmware Table (iBFT). Para obter informações, consulte VMware ESXi Instalação e configuração . Este capítulo inclui os seguintes tópicos: n Recomendações gerais para inicialização a partir de iSCSI SAN n Preparar a SAN iSCSI n Configurar o adaptador iSCSI de hardware independente para inicialização por SAN Recomendações gerais para inicialização a partir de iSCSI SAN Se você planeja configurar e usar um LUN iSCSI como dispositivo de inicialização para o seu host, siga algumas diretrizes gerais. As diretrizes a seguir se aplicam à inicialização a partir do hardware independente iSCSI e iBFT. n Revise as recomendações de qualquer fornecedor para o hardware que você usa na configuração de inicialização. n Para pré-requisitos e requisitos de instalação, revise Instalação e Configuração do vSphere . n Use endereços IP estáticos para reduzir as chances de conflitos de DHCP. n Use LUNs diferentes para repositórios de dados e partições de inicialização VMFS. VMware, Inc. Traduzido automaticamente 132 n Configure as ACLs apropriadas no seu sistema de armazenamento. n O LUN de inicialização deve estar visível apenas para o host que usa o LUN. Nenhum outro host na SAN tem permissão para ver esse LUN de inicialização. n Se um LUN for usado para um repositório de dados VMFS, vários hosts poderão compartilhar o LUN. n Configure uma partição de diagnóstico. n Apenas com o iSCSI de hardware independente, você pode colocar a partição de diagnóstico no LUN de inicialização. Se você configurar a partição de diagnóstico no LUN de inicialização, esse LUN não poderá ser compartilhado entre vários hosts. Se um LUN separado for usado para a partição de diagnóstico, vários hosts poderão compartilhar o LUN. n Se você inicializar a partir do SAN usando o iBFT, não poderá configurar uma partição de diagnóstico em um LUN de SAN. Para coletar as informações de diagnóstico do host, use o Dump Collector do vSphere ESXi em um servidor remoto. Para obter informações sobre o ESXi Dump Collector, consulte vCenter Server Instalação e configuração e Rede do vSphere . Preparar a SAN iSCSI Antes de configuraro host para inicializar a partir de um LUN iSCSI, prepare e configure sua rede de área de armazenamento. Cuidado Se você usar a instalação com script para instalar o ESXi durante a inicialização a partir de uma SAN, deverá tomar medidas especiais para evitar a perda de dados não intencional. Procedimentos 1 Conecte os cabos de rede, consultando qualquer guia de cabeamento aplicável à sua configuração. 2 Garanta a conectividade IP entre o sistema de armazenamento e o servidor. Verifique a configuração de quaisquer roteadores ou switches na sua rede de armazenamento. Os sistemas de armazenamento devem ser capazes de executar ping nos adaptadores iSCSI em seus hosts. 3 Configure o sistema de armazenamento. a Crie um volume (ou LUN) no sistema de armazenamento para o seu host inicializar. b Configure o sistema de armazenamento para que o host tenha acesso ao LUN atribuído. Essa etapa pode envolver a atualização de ACLs com os endereços IP, os nomes iSCSI e o parâmetro de autenticação CHAP que você usa no host. Em alguns sistemas de armazenamento, além de fornecer informações de acesso para o host ESXi, você também deve associar explicitamente o LUN atribuído ao host. vSphere Storage VMware, Inc. Traduzido automaticamente 133 c Certifique-se de que o LUN seja apresentado ao host corretamente. d Certifique-se de que nenhum outro sistema tenha acesso ao LUN configurado. e Registre o nome iSCSI e os endereços IP dos destinos atribuídos ao host. Você deve ter essas informações para configurar seus adaptadores iSCSI. Configurar o adaptador iSCSI de hardware independente para inicialização por SAN Se o seu host ESXi usar um adaptador iSCSI de hardware independente, como o QLogic HBA, você poderá configurar o adaptador para inicializar a partir da SAN. Este procedimento descreve como habilitar o QLogic iSCSI HBA para inicializar a partir da SAN. Para obter mais informações e detalhes mais atualizados sobre as definições de configuração do adaptador QLogic, consulte o site do QLogic. Procedimentos 1 Inicie a mídia de instalação e reinicie o host. 2 Use o BIOS para definir o host a ser inicializado a partir da mídia de instalação primeiro. 3 Durante o POST do servidor, pressione Crtl + q para entrar no menu de configuração do QLogic iSCSI HBA. 4 Selecione a porta de E / S a ser configurada. Por padrão, o modo de Inicialização do Adaptador é definido como Desativar. 5 Configure o HBA. a No menu Opções Rápidas! UTIL (Fast!UTIL Options), selecione Configurações de Configuração (Configuration Settings) > Configurações do Adaptador de Host (Host Adapter Settings). b (Opcional) Defina as seguintes configurações para o adaptador do host: endereço IP do iniciador, máscara de sub-rede, gateway, nome iSCSI do iniciador e CHAP. 6 Defina as configurações do iSCSI. Consulte Definir as configurações de inicialização do iSCSI. 7 Salve as alterações e reinicie o sistema. Definir as configurações de inicialização do iSCSI Configure os parâmetros de inicialização iSCSI para que o host ESXi possa ser inicializado a partir de um LUN iSCSI. Procedimentos 1 No menu Opções Rápidas! UTIL (Fast!UTIL Options), selecione Definições de Configuração (Configuration Settings) > Configurações de Inicialização do iSCSI (iSCSI Boot Settings). vSphere Storage VMware, Inc. Traduzido automaticamente 134 2 Antes de definir SendTargets, defina o Modo de inicialização do adaptador como Manual (Manual). 3 Selecione Configurações do dispositivo de inicialização primária (Primary Boot Device Settings). a Insira a descoberta IP de destino (Target IP) e Porta de destino (Target Port). b Configure os parâmetros LUN de Inicialização (Boot LUN) e Nome iSCSI (iSCSI Name). n Se apenas um destino iSCSI e um LUN estiverem disponíveis no endereço de destino, deixe LUN de inicialização (Boot LUN) e Nome iSCSI (iSCSI Name) em branco. Depois que o host atingir o sistema de armazenamento de destino, essas caixas de texto serão preenchidas com as informações apropriadas. n Se mais de um destino iSCSI e LUN estiverem disponíveis, forneça valores para LUN de inicialização (Boot LUN) e Nome iSCSI (iSCSI Name). c Salve as alterações. 4 No menu Configurações de Inicialização do iSCSI (iSCSI Boot Settings), selecione o dispositivo de inicialização primário. Uma nova verificação automática do HBA encontra novos LUNs de destino. 5 Selecione o destino iSCSI. Se existir mais de um LUN no destino, você poderá selecionar uma ID de LUN específica pressionando Enter (Enter) depois de localizar o dispositivo iSCSI. 6 Retorne ao menu Configuração do dispositivo de inicialização primária (Primary Boot Device Setting). Após a nova verificação, LUN de inicialização (Boot LUN) e Nome iSCSI (iSCSI Name) serão preenchidos. Altere o valor de LUN de inicialização (Boot LUN) para o ID do LUN apropriado. vSphere Storage VMware, Inc. Traduzido automaticamente 135 Boas práticas para armazenamento iSCSI 13 Ao usar ESXi com o iSCSI SAN, siga as recomendações que VMware oferece para evitar problemas. Verifique com seu representante de armazenamento se o seu sistema de armazenamento é compatível com os recursos de aceleração de hardware Storage API - Array Integration. Em caso afirmativo, consulte a documentação do fornecedor para habilitar o suporte à aceleração de hardware no lado do sistema de armazenamento. Para obter mais informações, consulte Capítulo 24 Aceleração de hardware de armazenamento. Este capítulo inclui os seguintes tópicos: n Prevenção de problemas de SAN iSCSI n Otimizando o desempenho do armazenamento iSCSI SAN n Verificando as estatísticas do switch Ethernet Prevenção de problemas de SAN iSCSI Ao usar ESXi com uma SAN, você deve seguir diretrizes específicas para evitar problemas com a SAN. Observe as seguintes dicas: n Coloque apenas um repositório de dados VMFS em cada LUN. n Não altere a política de caminho que o sistema define para você, a menos que você entenda as implicações de fazer essa alteração. n Documente tudo. Inclua informações sobre configuração, controle de acesso, armazenamento, switch, servidor e configuração iSCSI HBA, versões de software e firmware e plano de cabos de armazenamento. n Plano para falha: n Faça várias cópias dos seus mapas de topologia. Para cada elemento, considere o que acontece com a SAN se o elemento falhar. n Faça um crossout de links diferentes, switches, HBAs e outros elementos para garantir que você não perca um ponto de falha crítico no seu projeto. VMware, Inc. Traduzido automaticamente 136 n Certifique-se de que os HBAs iSCSI estejam instalados nos slots corretos no host ESXi, com base na velocidade do slot e do barramento. Equilibre a carga do barramento PCI entre os barramentos disponíveis no servidor. n Familiarize-se com os vários pontos de monitoramento em sua rede de armazenamento, em todos os pontos de visibilidade, incluindo ESXi gráficos de desempenho, estatísticas de switch Ethernet e estatísticas de desempenho de armazenamento. n Alterar IDs de LUNs somente quando os repositórios de dados VMFS implantados nos LUNs não tiverem máquinas virtuais em execução. Se você alterar a ID, as máquinas virtuais em execução no repositório de dados VMFS poderão falhar. Depois de alterar a ID do LUN, você deve verificar novamente o armazenamento para redefinir a ID no host. Para obter informações sobre como usar a nova verificação, consulte Operações de nova verificação de armazenamento. n Se você alterar o nome iSCSI padrão do seu adaptador iSCSI, certifique-se de que o nome inserido seja mundialmente exclusivo e corretamente formatado. Para evitar problemas de acesso ao armazenamento, nunca atribua o mesmo nome iSCSI a diferentes adaptadores, mesmo em hosts diferentes. Otimizando o desempenho do armazenamento iSCSI SAN Vários fatores contribuem para a otimização de um ambiente típico de SAN. Se o ambiente de rede estiver configurado corretamente, os componentes iSCSI fornecerão uma taxa de transferênciaadequada e uma latência baixa o suficiente para os iniciadores e destinos iSCSI. Se a rede estiver congestionada e os links, switches ou roteadores estiverem saturados, o desempenho iSCSI será prejudicado e poderá não ser adequado para ESXi ambientes. Desempenho do sistema de armazenamento O desempenho do sistema de armazenamento é um dos principais fatores que contribuem para o desempenho de todo o ambiente iSCSI. Se ocorrerem problemas com o desempenho do sistema de armazenamento, consulte a documentação do fornecedor do sistema de armazenamento para obter informações relevantes. Ao atribuir LUNs, lembre-se de que você pode acessar cada LUN compartilhado por meio de vários hosts e que várias máquinas virtuais podem ser executadas em cada host. Um LUN usado pelo host ESXi pode atender à E / S de muitos aplicativos diferentes em execução em diferentes sistemas operacionais. Devido a essa carga de trabalho diversificada, o grupo de RAID que contém os ESXi LUNs não deve incluir LUNs que outros hosts usam e que não estão executando o ESXi para aplicativos intensivos de E / S. Ative o cache de leitura e o cache de gravação. vSphere Storage VMware, Inc. Traduzido automaticamente 137 O balanceamento de carga é o processo de espalhar solicitações de E / S do servidor entre todos os SPs disponíveis e seus caminhos de servidor de host associados. O objetivo é otimizar o desempenho em termos de taxa de transferência (E / S por segundo, megabytes por segundo ou tempos de resposta). Os sistemas de armazenamento SAN exigem um novo design e ajuste contínuos para garantir que a E / S tenha carga balanceada em todos os caminhos do sistema de armazenamento. Para atender a esse requisito, distribua os caminhos para os LUNs entre todos os SPs para fornecer um balanceamento de carga ideal. Fechar o monitoramento indica quando é necessário rebalancear manualmente a distribuição do LUN. Ajustar sistemas de armazenamento estaticamente balanceados é uma questão de monitorar as estatísticas de desempenho específicas (como operações de E / S por segundo, blocos por segundo e tempo de resposta) e distribuir a carga de trabalho do LUN para distribuir a carga de trabalho por todos os SPs. Desempenho do servidor com iSCSI Para garantir o desempenho ideal do host ESXi, considere vários fatores. Cada aplicativo de servidor deve ter acesso ao armazenamento designado com as seguintes condições: n Alta taxa de E / S (número de operações de E / S por segundo) n Alta taxa de transferência (megabytes por segundo) n Latência mínima (tempos de resposta) Como cada aplicativo tem requisitos diferentes, você pode atender a essas metas selecionando um grupo de RAID apropriado no sistema de armazenamento. Para alcançar as metas de desempenho, siga estas diretrizes: n Coloque cada LUN em um grupo de RAID que forneça os níveis de desempenho necessários. Monitore as atividades e o uso de recursos de outros LUNS no grupo RAID atribuído. Um grupo de RAID de alto desempenho que tem muitos aplicativos fazendo E / S pode não atender às metas de desempenho exigidas por um aplicativo em execução no host ESXi. n Para alcançar a taxa de transferência máxima para todos os aplicativos no host durante o período de pico, instale adaptadores de rede ou adaptadores de hardware iSCSI suficientes. A propagação de E / S em várias portas fornece taxa de transferência mais rápida e menos latência para cada aplicativo. n Para fornecer redundância para o software iSCSI, certifique-se de que o iniciador esteja conectado a todos os adaptadores de rede usados para conectividade iSCSI. n Ao alocar LUNs ou grupos RAID para sistemas ESXi, lembre-se de que vários sistemas operacionais usam e compartilham esse recurso. O desempenho do LUN exigido pelo host ESXi pode ser muito maior do que quando você usa máquinas físicas regulares. Por exemplo, se você espera executar quatro aplicativos intensivos de E / S, aloque quatro vezes a capacidade de desempenho para os LUNs ESXi. vSphere Storage VMware, Inc. Traduzido automaticamente 138 n Quando você usa vários ESXi sistemas com vCenter Server, os requisitos de desempenho de armazenamento aumentam. n O número de E / Ss pendentes necessárias para os aplicativos em execução em um sistema ESXi deve corresponder ao número de E / Ss que a SAN pode suportar. Desempenho da rede Uma SAN típica consiste em uma coleção de computadores conectados a uma coleção de sistemas de armazenamento por meio de uma rede de switches. Vários computadores costumam acessar o mesmo armazenamento. O gráfico a seguir mostra vários sistemas de computador conectados a um sistema de armazenamento por meio de um switch Ethernet. Nessa configuração, cada sistema é conectado por meio de um único link Ethernet ao switch. O switch está conectado ao sistema de armazenamento por meio de um único link Ethernet. Figura 13-1. Conexão de link único Ethernet ao armazenamento Quando os sistemas leem dados do armazenamento, o armazenamento responde com o envio de dados suficientes para preencher o link entre os sistemas de armazenamento e o switch Ethernet. É improvável que qualquer sistema ou máquina virtual aproveite ao máximo a velocidade da rede. No entanto, essa situação pode ser esperada quando muitos sistemas compartilham um dispositivo de armazenamento. Ao gravar dados no armazenamento, vários sistemas ou máquinas virtuais podem tentar preencher seus links. Como resultado, a alternância entre os sistemas e o sistema de armazenamento pode descartar pacotes de rede. A queda de dados pode ocorrer porque o switch tem mais tráfego para enviar ao sistema de armazenamento do que um único link pode transportar. A quantidade de dados que o switch pode transmitir é limitada pela velocidade do link entre ele e o sistema de armazenamento. vSphere Storage VMware, Inc. Traduzido automaticamente 139 Figura 13-2. Pacotes descartados 1 Gbit 1 Gbit 1 Gbit dropped packets A recuperação de pacotes de rede descartados resulta em grande degradação do desempenho. Além do tempo gasto determinando que os dados foram descartados, a retransmissão usa largura de banda de rede que pode ser usada para transações atuais. O tráfego iSCSI é transportado na rede pelo Transmission Control Protocol (TCP). O TCP é um protocolo de transmissão confiável que garante que os pacotes descartados sejam repetidos e, eventualmente, cheguem ao seu destino. O TCP é projetado para se recuperar de pacotes descartados e os retransmite de forma rápida e contínua. No entanto, quando o switch descarta pacotes com qualquer regularidade, a taxa de transferência da rede é prejudicada. A rede fica congestionada com solicitações para reenviar dados e com os pacotes reenviados. Menos dados são transferidos do que em uma rede sem congestionamento. A maioria dos switches Ethernet pode armazenar em buffer ou armazenar dados. Essa técnica permite que todos os dispositivos que tentam enviar dados tenham a mesma chance de chegar ao destino. A capacidade de armazenar em buffer algumas transmissões, combinada com muitos sistemas que limitam o número de comandos pendentes, reduz as transmissões a pequenas rajadas. As rajadas de vários sistemas podem ser enviadas para um sistema de armazenamento por sua vez. Se as transações forem grandes e vários servidores estiverem enviando dados por meio de uma única porta de switch, a capacidade de armazenar em buffer poderá ser excedida. Nesse caso, o switch descarta os dados que não podem enviar e o sistema de armazenamento deve solicitar uma retransmissão do pacote descartado. Por exemplo, se um switch Ethernet puder armazenar em buffer 32 KB, mas o servidor enviar 256 KB para o dispositivo de armazenamento, alguns dos dados serão descartados. A maioria dos switches gerenciados fornece informações sobre pacotes descartados, semelhante ao seguinte: *: interface is up IHQ: pkts in input hold queue IQD: pkts dropped from input queue OHQ: pkts in output hold queue OQD: pktsdropped from output queue RXBS: rx rate (bits/sec) RXPS: rx rate (pkts/sec) TXBS: tx rate (bits/sec) TXPS: tx rate (pkts/sec) TRTL: throttle count vSphere Storage VMware, Inc. Traduzido automaticamente 140 Tabela 13-1. Amostra de informações do switch Interface IHQ IQD AQS OQD RXBS RXPS TXBS TXPS TRTL * GigabitEt hernet0 / 1 3 9922 0 0 4763030 00 62273 4778400 00 63677 0 Neste exemplo de um switch Cisco, a largura de banda usada é de 476303000 bits / segundo, que é menos da metade da velocidade do fio. A porta está armazenando em buffer os pacotes de entrada, mas descartou vários pacotes. A linha final deste resumo da interface indica que essa porta já descartou quase 10.000 pacotes de entrada na coluna IQD. As alterações de configuração para evitar esse problema envolvem garantir que vários links Ethernet de entrada não sejam canalizados para um link de saída, resultando em um link com excesso de inscrições. Quando vários links que transmitem a capacidade próxima são comutados para um número menor de links, o excesso de inscrições se torna possível. Geralmente, aplicativos ou sistemas que gravam muitos dados no armazenamento devem evitar o compartilhamento de links Ethernet com um dispositivo de armazenamento. Esses tipos de aplicativos funcionam melhor com várias conexões com dispositivos de armazenamento. Várias conexões do switch para o armazenamento mostra várias conexões do switch para o armazenamento. Figura 13-3. Várias conexões do switch para o armazenamento 1 Gbit 1 Gbit 1 Gbit 1 Gbit O uso de VLANs ou VPNs não fornece uma solução adequada para o problema de excesso de inscrições de links em configurações compartilhadas. VLANs e outros particionamentos virtuais de uma rede fornecem uma maneira de projetar logicamente uma rede. No entanto, eles não alteram os recursos físicos de links e troncos entre switches. Quando o tráfego de armazenamento e outro tráfego de rede compartilham conexões físicas, o excesso de assinaturas e os pacotes perdidos podem se tornar possíveis. O mesmo acontece com as VLANs que compartilham troncos entre comutadores. O design de desempenho de uma SAN deve considerar as limitações físicas da rede, não as alocações lógicas. Verificando as estatísticas do switch Ethernet Muitos switches Ethernet fornecem métodos diferentes para monitorar a integridade do switch. vSphere Storage VMware, Inc. Traduzido automaticamente 141 Os switches que têm portas operando perto da taxa de transferência máxima na maior parte do tempo não oferecem desempenho ideal. Se você tiver portas na SAN iSCSI em execução próximas do máximo, reduza a carga. Se a porta estiver conectada a um sistema ESXi ou a um armazenamento iSCSI, você poderá reduzir a carga usando o balanceamento de carga manual. Se a porta estiver conectada entre vários switches ou roteadores, considere instalar links adicionais entre esses componentes para lidar com mais carga. Os switches Ethernet também costumam fornecer informações sobre erros de transmissão, pacotes em fila e pacotes Ethernet descartados. Se o switch relatar regularmente qualquer uma dessas condições nas portas que estão sendo usadas para o tráfego iSCSI, o desempenho da SAN iSCSI será baixo. vSphere Storage VMware, Inc. Traduzido automaticamente 142 Gerenciamento de dispositivos de armazenamento 14 Gerencie o dispositivo de armazenamento local e em rede ao qual seu host ESXi tem acesso. Este capítulo inclui os seguintes tópicos: n Características do dispositivo de armazenamento n Identificadores e nomes de dispositivos de armazenamento n Operações de nova verificação de armazenamento n Identificando problemas de conectividade do dispositivo n Ativar ou desativar o localizador LED em ESXi dispositivos de armazenamento n Apagar dispositivos de armazenamento n Alterar as configurações de reserva perene Características do dispositivo de armazenamento Quando seu host ESXi se conecta a sistemas de armazenamento baseados em bloco, LUNs ou dispositivos de armazenamento compatíveis com ESXi ficam disponíveis para o host. Depois que os dispositivos forem registrados com seu host, você poderá exibir todos os dispositivos locais e em rede disponíveis e revisar suas informações. Se você usar plug-ins de vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio dos plug- ins também aparecerão na lista. Observação Se uma matriz oferecer suporte ao acesso de unidade lógica assimétrica implícita (ALUA) e tiver apenas caminhos em espera, o registro do dispositivo falhará. O dispositivo pode se registrar no host depois que o destino ativa um caminho em espera e o host o detecta como ativo. O parâmetro avançado do sistema /Disk/FailDiskRegistration controla esse comportamento do host. Para cada adaptador de armazenamento, você pode exibir uma lista separada de dispositivos de armazenamento disponíveis para esse adaptador. Geralmente, ao analisar os dispositivos de armazenamento, você vê as seguintes informações. VMware, Inc. Traduzido automaticamente 143 Tabela 14-1. Informações do dispositivo de armazenamento Informações do dispositivo de armazenamento Descrição Nome Também chamado de Nome para Exibição. É um nome que o host ESXi atribui ao dispositivo com base no tipo de armazenamento e no fabricante. Geralmente, você pode alterar esse nome para um nome de sua escolha. Consulte Renomear dispositivos de armazenamento. Identificador Um identificador universalmente exclusivo que é intrínseco ao dispositivo. Consulte Identificadores e nomes de dispositivos de armazenamento. Estado operacional Indica se o dispositivo está conectado ou desconectado. Consulte Desanexar dispositivos de armazenamento. LUN Número da Unidade Lógica (LUN) dentro do destino SCSI. O número do LUN é fornecido pelo sistema de armazenamento. Se um destino tiver apenas um LUN, o número do LUN será sempre zero (0). Tipo Tipo de dispositivo, por exemplo, disco ou CD-ROM. Tipo de unidade Informações sobre se o dispositivo é uma unidade flash ou uma unidade de disco rígido normal. Para obter informações sobre unidades flash e dispositivos NVMe, consulte Capítulo 15 Trabalhando com dispositivos flash. Transporte Protocolo de transporte usado pelo host para acessar o dispositivo. O protocolo depende do tipo de armazenamento que está sendo usado. Consulte Tipos de armazenamento físico. Capacidade Capacidade total do dispositivo de armazenamento. Proprietário O plug-in, como o NMP ou um plug-in de terceiros, que o host usa para gerenciar caminhos para o dispositivo de armazenamento. Consulte Arquitetura de armazenamento conectável e gerenciamento de caminhos. Aceleração de hardware Informações sobre se o dispositivo de armazenamento ajuda o host com operações de gerenciamento de máquina virtual. O status pode ser Com suporte, Sem suporte ou Desconhecido. Consulte Capítulo 24 Aceleração de hardware de armazenamento. Formato do setor Indica se o dispositivo usa um formato de setor tradicional, 512n ou avançado, como 512e ou 4Kn. Consulte Formatos de setor de dispositivo. Localização Um caminho para o dispositivo de armazenamento no diretório / vmfs / devices / . Formato da Partição Um esquema de partição usado pelo dispositivo de armazenamento. Pode ser do formato MBR (registro mestre de inicialização) ou da tabela de partição GUID (GPT). Os dispositivos GPT podem oferecer suporte a repositórios de dados maiores que 2 TB. Consulte Formatos de setor de dispositivo. Partições Partições primárias e lógicas, incluindo um repositório de dados VMFS, se configurado. Políticas de vários caminhos Política de Seleção de Caminho e Política de Tipo de Matriz de Armazenamento que o host usa para gerenciar caminhos para o armazenamento. Consulte Capítulo 18 Noções básicas sobre caminhos múltiplos e failover. Caminhos Caminhos usados para acessar o armazenamento e seu status. Consulte Desativar caminhos de armazenamento. vSphere Storage VMware, Inc. Traduzidoautomaticamente 144 Exibir dispositivos de armazenamento para um host ESXi Exibir todos os dispositivos de armazenamento disponíveis para um host ESXi. Se você usar plug-ins de vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio dos plug-ins também aparecerão na lista. A exibição Dispositivos de armazenamento permite listar os dispositivos de armazenamento dos hosts, analisar suas informações e modificar propriedades. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). Todos os dispositivos de armazenamento disponíveis para o host estão listados na tabela Dispositivos de armazenamento. 4 Para exibir os detalhes de um dispositivo específico, selecione o dispositivo na lista. 5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento. A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração. Ícone Descrição Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos. Desanexar Desanexe o dispositivo selecionado do host. Anexar Anexe o dispositivo selecionado ao host. Renomear Altere o nome de exibição do dispositivo selecionado. Ligar LED Ligue o LED localizador para os dispositivos selecionados. Desligar o LED Desligue o LED localizador dos dispositivos selecionados. Marcar como disco flash Marque os dispositivos selecionados como discos flash. Marcar como disco rígido Marque os dispositivos selecionados como discos HDD. Marcar como local Marque os dispositivos selecionados como locais para o host. Marcar como remoto Marque os dispositivos selecionados como remotos para o host. Apagar partições Apague partições nos dispositivos selecionados. Marcar como permanentemente reservada Marque o dispositivo selecionado como sempre reservado. Desmarcar como permanentemente reservada Apague a reserva perene do dispositivo selecionado. vSphere Storage VMware, Inc. Traduzido automaticamente 145 6 Use as seguintes abas para acessar informações adicionais e modificar as propriedades do dispositivo selecionado. Guia Descrição Propriedades Visualizar propriedades e características do dispositivo. Visualizar e modificar políticas de caminhos múltiplos para o dispositivo. Caminhos Exibir os caminhos disponíveis para o dispositivo. Desative ou ative um caminho selecionado. Detalhes da Partição Exibe informações sobre partições e seus formatos. Exibir dispositivos de armazenamento para um adaptador Exibir uma lista de dispositivos de armazenamento acessíveis por meio de um adaptador de armazenamento específico em um host ESXi. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters). Todos os adaptadores de armazenamento instalados no host estão listados na tabela Adaptadores de Armazenamento. 4 Selecione o adaptador na lista e clique na guia Dispositivos (Devices). São exibidos os dispositivos de armazenamento que o host pode acessar por meio do adaptador. 5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento. A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração. Ícone Descrição Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos. Desanexar Desanexe o dispositivo selecionado do host. Anexar Anexe o dispositivo selecionado ao host. Renomear Altere o nome de exibição do dispositivo selecionado. Formatos de setor de dispositivo O ESXi é compatível com dispositivos de armazenamento com formatos de setor tradicionais e avançados. No armazenamento, um setor é uma subdivisão de uma faixa em um disco ou dispositivo de armazenamento. Cada setor armazena uma quantidade fixa de dados. Esta tabela apresenta diferentes formatos de dispositivos de armazenamento que o ESXi suporta. vSphere Storage VMware, Inc. Traduzido automaticamente 146 Formato do dispositivo de armazenament o ESXi Emulação de Software Tamanho do setor lógico Tamanho do setor físico Repositório de dados VMFS 512n N/D 512 512 VMFS5 e VMFS6 (padrão) 512e N/D 512 4096 VMFS5 e VMFS56 (padrão) Observação Os dispositivos de armazenamento 512e locais não são compatíveis com VMFS5. 4Kn 512 4096 4096 VMFS6 Formato nativo de 512 bytes O ESXi é compatível com dispositivos de armazenamento 512n tradicionais que usam um tamanho de setor nativo de 512 bytes. Formato de emulação de 512 bytes Devido à crescente demanda por capacidades maiores, a indústria de armazenamento introduziu formatos avançados, como emulação de 512 bytes ou 512e. 512e é o formato avançado no qual o tamanho do setor físico é 4096 bytes, mas o setor lógico emula o tamanho do setor de 512 bytes. Dispositivos de armazenamento que usam o formato 512e podem oferecer suporte a aplicativos legados e sistemas operacionais convidados. Esses dispositivos servem como uma etapa intermediária para as unidades do setor 4Kn. Formato nativo de 4K com emulação de software Outro formato avançado que ESXi suporta é a tecnologia do setor 4Kn. Nos dispositivos 4Kn, os setores físico e lógico têm 4096 bytes (4 KiB) de comprimento. O dispositivo não tem uma camada de emulação, mas expõe seu tamanho de setor físico de 4Kn diretamente a ESXi. ESXi detecta e registra os dispositivos 4Kn e os emula automaticamente como 512e. O dispositivo é apresentado às camadas superiores em ESXi como 512e. Mas os sistemas operacionais convidados sempre o veem como um dispositivo 512n. Você pode continuar usando VMs existentes com sistemas operacionais convidados herdados e aplicativos no host com os dispositivos 4Kn. Quando você usa dispositivos 4Kn, as seguintes considerações se aplicam: n ESXi é compatível apenas com HDDs SAS e SATA 4Kn locais. n ESXi não é compatível com dispositivos 4Kn SSD e NVMe, ou dispositivos 4Kn como RDMs. n ESXi só pode ser inicializado a partir de um dispositivo 4Kn com UEFI. n Você pode usar o dispositivo 4Kn para configurar uma partição e um arquivo coredump. vSphere Storage VMware, Inc. Traduzido automaticamente 147 n Somente o plug-in NMP pode reivindicar os dispositivos 4Kn. Você não pode usar o HPP para reivindicar esses dispositivos. n Com o vSAN, você pode usar apenas HDDs com capacidade de 4Kn para matrizes híbridas do vSAN. Para obter informações, consulte a documentação do Administrando VMware vSAN . n Devido à camada de emulação de software, o desempenho dos dispositivos 4Kn depende do alinhamento das E / Ss. Para obter o melhor desempenho, execute cargas de trabalho que emitem principalmente E / Ss alinhadas em 4K. n As cargas de trabalho que acessam o dispositivo 4Kn emulado diretamente usando a dispersão-reunir E / S (SGIO) devem emitir E / Ss compatíveis com o disco 512e. Exemplo: Determinar o formato do dispositivo Para determinar se o dispositivo usa o formato 512n, 512e ou 4Kn, execute o seguinte comando. esxcli storage core device capacity list O exemplo de saída a seguir mostra o tipo de formato. Device Physical Blocksize Logical Blocksize Logical Block Count Size Format Type -------------------- ------------------ ----------------- ------------------- ----------- ----------- naa.5000xxxxxxxxx36f 512 512 2344225968 1144641 MiB 512n naa.5000xxxxxxxxx030 4096 512 3516328368 1716957 MiB 4Kn SWE naa.5000xxxxxxxxx8df 512 512 2344225968 1144641 MiB 512n naa.5000xxxxxxxxx4f4 4096 512 3516328368 1716957 MiB 4Kn SWE Identificadores e nomes de dispositivos de armazenamento No ambiente ESXi, cada dispositivo de armazenamento é identificado por vários nomes.Identificadores de dispositivo Dependendo do tipo de armazenamento, o host ESXi usa algoritmos e convenções diferentes para gerar um identificador para cada dispositivo de armazenamento. Identificadores fornecidos pelo armazenamento O host ESXi consulta um nome de dispositivo em um dispositivo de armazenamento de destino. A partir dos metadados retornados, o host extrai ou gera um identificador exclusivo vSphere Storage VMware, Inc. Traduzido automaticamente 148 para o dispositivo. O identificador é baseado em padrões de armazenamento específicos, é exclusivo e persistente em todos os hosts e tem um dos seguintes formatos: n naa. xxx n eui. xxx n t10. xxx Identificador baseado em caminho Quando o dispositivo não fornece um identificador, o host gera um mpx. caminho nome, onde caminho representa o primeiro caminho para o dispositivo, por exemplo, mpx.vmhba1:C0:T1:L3. Esse identificador pode ser usado da mesma maneira que o armazenamento fornecido identifica. O mpx.O identificador path é criado para dispositivos locais na suposição de que seus nomes de caminho sejam exclusivos. No entanto, esse identificador não é exclusivo ou persistente e pode ser alterado após cada reinicialização do sistema. Normalmente, o caminho para o dispositivo tem o seguinte formato: vmhba Adaptador : C Canal : T Destino : L LUN n vmhba Adaptador é o nome do adaptador de armazenamento. O nome refere-se ao adaptador físico no host, não ao controlador SCSI usado pelas máquinas virtuais. n C Canal é o número do canal de armazenamento. Os adaptadores iSCSI de software e os adaptadores de hardware dependentes usam o número do canal para mostrar vários caminhos para o mesmo destino. n T Destino é o número de destino. A numeração de destino é determinada pelo host e pode mudar quando os mapeamentos de destinos visíveis para o host são alterados. Os destinos compartilhados por hosts diferentes podem não ter o mesmo número de destino. n L LUN é o número do LUN que mostra a posição do LUN no destino. O número do LUN é fornecido pelo sistema de armazenamento. Se um destino tiver apenas um LUN, o número do LUN será sempre zero (0). Por exemplo, vmhba1:C0:T3:L1 representa LUN1 no destino 3 acessado por meio do adaptador de armazenamento vmhba1 e do canal 0. Identificador legado Além dos identificadores fornecidos pelo dispositivo ou mpx.Identificadores path . ESXi gera um nome legado alternativo para cada dispositivo. O identificador tem o seguinte formato: vml.number vSphere Storage VMware, Inc. Traduzido automaticamente 149 O identificador herdado inclui uma série de dígitos que são exclusivos para o dispositivo. O identificador pode ser derivado em parte dos metadados obtidos por meio do comando SCSI INQUIRY. Para dispositivos não locais que não fornecem identificadores SCSI INQUIRY, o vml.O identificador number é usado como o único identificador exclusivo disponível. Exemplo: Exibindo nomes de dispositivo no vSphere CLI Você pode usar o comando esxcli storage core device list para exibir todos os nomes de dispositivo no vSphere CLI. A saída é semelhante ao seguinte exemplo: # esxcli storage core device list naa.XXX Display Name: DGC Fibre Channel Disk(naa.XXX) ... Other UIDs: vml.000XXX mpx.vmhba1:C0:T0:L0 Display Name: Local VMware Disk (mpx.vmhba1:C0:T0:L0) ... Other UIDs: vml.0000000000XYZ Dispositivos NVMe com identificadores de dispositivo NGUID Para dispositivos NVMe, o ESXi gera identificadores de dispositivo com base nas informações que ele recupera dos dispositivos. Geralmente, os dispositivos NVMe suportam identificadores nos formatos EUI64 ou NGUID, ou usam ambos os formatos. NGUID é um identificador global exclusivo de namespace que usa o formato de designador de 16 bytes EUI64. Para os dispositivos que suportam apenas o formato NGUID, o identificador do dispositivo gerado pelo host muda dependendo da versão do ESXi. O host ESXi da versão 6.7 e anteriores criou o t10.Identificador de xxx_controller_serial_number . A partir do 6.7 Update 1, o host cria dois identificadores: eui. xxx (NGUID) como principal e t10. xxx_controller_serial_number como primário alternativo. vSphere Storage VMware, Inc. Traduzido automaticamente 150 Formatos de ID compatíveis com o dispositivo Identificador de dispositivo gerado pelo host Formato de ID EUI64 Formato de ID do NGUID ESXi 6.7 e versões anteriores ESXi 6.7 Update 1 e posteriores sim sim t10. xxx_EUI64 t10. xxx_EUI64 sim não t10. xxx_EUI64 t10. xxx_EUI64 não sim t10. xxx_controller_serial_numb er eui. xxx (NGUID) como ID principal t10. xxx_controller_serial_numb er como ID primário alternativo Observação Se o seu host tiver dispositivos somente NGUID e você atualizar o host para o ESXi 7.0.x de uma versão anterior, o identificador do dispositivo mudará de t10. xxx_controller_serial_number para eui. xxx (NGUID) em todo o ambiente do ESXi. Se você usar o identificador do dispositivo em qualquer um dos seus scripts de cliente, deverá refletir essa alteração de formato. Verificar o mapeamento entre identificadores de dispositivos primários e alternativos Use o comando esxcli storage core device uidmap list para verificar os identificadores do dispositivo. A saída é semelhante à seguinte: esxcli storage core device uidmap list eui.0000xyz..... Primary UID: eui.0000xyz..... Alternative Primary UIDs: t10.0000abc.... Legacy UID: vml.0000000000766d68.... Alternative Legacy UIDs: vml.000000000080906.... Atualizar hosts ESXi sem estado com dispositivos NVMe somente NGUID para a versão 7.0.x Se o seu ambiente contiver hosts ESXi sem estado da versão 6.7 e anteriores e incluir dispositivos NVMe compatíveis apenas com o formato NGUID, use o fluxo de trabalho atual para atualizar os hosts para a versão 7.0.x. Ao atualizar seus hosts sem monitoração de estado da versão 6.7 e anteriores para a versão 7.0.x, execute estas etapas para manter a configuração de armazenamento. Se você realizar a atualização sem seguir as instruções, todas as configurações de armazenamento capturadas nos perfis de host podem não ser mantidas durante a atualização. Como resultado, você pode encontrar falhas de conformidade do perfil de host após a atualização. Pré-requisitos n Seu ambiente contém hosts sem estado do ESXi 6.7 ou anteriores. vSphere Storage VMware, Inc. Traduzido automaticamente 151 n O ambiente inclui dispositivos NVMe que suportam apenas o formato NGUID. Procedimentos 1 Determine se o host contém dispositivos NVMe somente NGUID. a Verifique se o fornecedor do dispositivo é NVMe. Use o seguinte comando como exemplo. # esxcli storage core device list -d eui.f04xxxxxxxxx0000000100000001 eui.f04xxxxxxxxx0000000100000001 Display Name: Local NVMe Disk (eui.f04xxxxxxxxx0000000100000001) Has Settable Display Name: true Devfs Path: /vmfs/devices/disks/eui.f04bxxxxxxxxx0000000100000001 Vendor: NVMe A linha Vendor: NVMe indica que o dispositivo é NVMe. b Determine qual HBA está conectado ao dispositivo NVMe. # esxcli storage core adapter device list HBA Device UID ------ ------------------------------- vmhba2 eui.f04xxxxxxxxx0000000100000001 c Obtenha as informações do namespace para o dispositivo NVMe usando o HBA e a ID do namespace. # esxcli nvme device namespace get -A vmhba2 -n 1 Namespace Identify Info: Namespace Size: 0xe8e088b0 Logical Blocks Namespace Capacity: 0xe8e088b0 Logical Blocks . . . NVM Capacity: 0x1d1c1116000 Namespace Globally Unique Identifier: 0xf04xxxxxxxxx0000000100000001 IEEE Extended Unique Identifier: 0x0 Na saída, para um dispositivo NVMe somente NGUID, o campo IEEE Extended Unique Identifier contém 0 e Namespace Globally Unique Identifier contém um valor diferente de zero. vSphere Storage VMware, Inc. Traduzido automaticamente 152 2 Para manter as configurações de armazenamento capturadas no perfil do host, execute estas etapas ao atualizar um host sem monitoração de estado para o 7.0.x. a Antes da atualização,armazene esx.conf em um local persistente. Por exemplo, você pode copiar o arquivo esx.conf para um datastore VMFS. # cp /etc/vmware/esx.conf /vmfs/volumes/datastore1/ b Atualize o host. Após a atualização, o host não está em conformidade com o perfil e pode permanecer no modo de manutenção. c Aplique as configurações do dispositivo para dispositivos NVMe somente NGUID usando novos formatos de ID. Execute o seguinte comando do host indicando a localização do arquivo esx.conf. # python ./usr/lib/vmware/nvme-nguid-support/bin/nguidApplySettings.pyc -l /vmfs/ volumes/datastore1/ 3 Copie as configurações do host e redefina as personalizações do host. a No vSphere Client, clique em Home ( Home) > Policies and Profiles ( Policies and Profiles) > Host Profiles ( Host Profiles) e clique no perfil anexado ao host. b Clique na guia Configurar (Configure tab) > Copiar configuração do host (Copy Setting from Host) e selecione o host. c Para redefinir as personalizações, navegue até o host e selecione Perfis de host (Host Profiles) > Redefinir personalizações de host (Reset Host Customizations) no menu do botão direito do mouse. 4 No menu de atalho do host, selecione Perfis de host (Host Profiles) > Corrigir (Remediate). O host se torna compatível. 5 Reinicie o host e saia do modo de manutenção. Exemplo: Atualizar o ESXi host sem reter as configurações de armazenamento Se você não mantiver as configurações de armazenamento capturadas no perfil do host, depois de atualizar o host, você poderá encontrar algumas falhas de conformidade no host. Nesse caso, copie as configurações do host e redefina as personalizações do host. Renomear dispositivos de armazenamento O host ESXi atribui um nome de exibição a um dispositivo de armazenamento com base no tipo de armazenamento e no fabricante. Você pode alterar o nome de exibição do dispositivo. Não é possível renomear certos tipos de dispositivos locais. vSphere Storage VMware, Inc. Traduzido automaticamente 153 Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Selecione o dispositivo a ser renomeado e clique em Renomear (Rename). 5 Altere o nome do dispositivo para um apelido. Operações de nova verificação de armazenamento Quando você executa tarefas de gerenciamento de armazenamento ou faz alterações na configuração da SAN, pode ser necessário verificar novamente o armazenamento. Quando você executa operações de gerenciamento de repositório de dados VMFS, como a criação de um repositório de dados VMFS ou RDM, adicionando uma extensão e aumentando ou excluindo um repositório de dados VMFS, seu host ou o vCenter Server automaticamente redistribui e atualiza seu armazenamento. Você pode desativar o recurso de nova verificação automática desativando o filtro de nova verificação do host. Consulte Desativar filtros de armazenamento. Em certos casos, você precisa realizar uma nova verificação manual. Você pode verificar novamente todo o armazenamento disponível para o seu host ou para todos os hosts em uma pasta, cluster e centro de dados. Se as alterações feitas forem isoladas para o armazenamento conectado por meio de um adaptador específico, realize uma nova verificação para esse adaptador. Execute a nova verificação manual toda vez que fizer uma das seguintes alterações. n Zona uma nova matriz de disco em uma SAN. n Crie novos LUNs em uma SAN. n Altere o mascaramento do caminho em um host. n Reconecte um cabo. n Altere as configurações do CHAP (somente iSCSI). n Adicione ou remova endereços estáticos ou de descoberta (somente iSCSI). n Adicione um único host ao vCenter Server depois de editar ou remover do vCenter Server um repositório de dados compartilhado pelos vCenter Server e pelo único host. Importante Se você verificar novamente quando um caminho estiver indisponível, o host removerá o caminho da lista de caminhos para o dispositivo. O caminho reaparece na lista assim que fica disponível e começa a funcionar novamente. vSphere Storage VMware, Inc. Traduzido automaticamente 154 Executar nova verificação de armazenamento Ao fazer alterações na configuração da SAN, talvez seja necessário verificar novamente o armazenamento. Você pode verificar novamente todo o armazenamento disponível para seu host, cluster ou centro de dados ESXi. Se as alterações feitas forem isoladas no armazenamento acessado por meio de um host específico, realize a nova verificação somente desse host. Procedimentos 1 No vSphere Client navegador de objetos, navegue até um host, um cluster, um centro de dados ou uma pasta que contenha hosts. 2 No menu do botão direito do mouse, selecione Armazenamento (Storage) > Verificar novamente o Armazenamento (Rescan Storage). 3 Especifique a extensão da nova verificação. Opção Descrição Verificar novos dispositivos de armazenamento Verifique novamente todos os adaptadores para descobrir novos dispositivos de armazenamento. Se novos dispositivos forem descobertos, eles aparecerão na lista de dispositivos. Verificar novos volumes VMFS Verifique novamente todos os dispositivos de armazenamento para descobrir novos repositórios de dados que foram adicionados desde a última verificação. Quaisquer novos repositórios de dados aparecem na lista de repositórios de dados. Executar nova verificação do adaptador Quando você fizer alterações na configuração da SAN e essas alterações forem isoladas para o armazenamento acessado por meio de um adaptador específico no host ESXi, execute a verificação novamente somente para esse adaptador. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador a ser verificado novamente na lista. 4 Clique no ícone Verificar novamente o adaptador (Rescan Adapter). Alterar o número de dispositivos de armazenamento verificados O intervalo de IDs de LUN verificadas para um host ESXi pode ser de 0 a 16.383. ESXi ignora IDs de LUN maiores que 16.383. O parâmetro configurável Disk.MaxLUN controla o intervalo do intervalo de ID do LUN digitalizado. O parâmetro tem um valor padrão de 1024. vSphere Storage VMware, Inc. Traduzido automaticamente 155 O parâmetro Disk.MaxLUN também determina quantos LUNs o código de verificação SCSI tenta descobrir usando comandos INQUIRY individuais se o destino SCSI não oferecer suporte à descoberta direta usando REPORT_LUNS. Você pode modificar o parâmetro Disk.MaxLUN de acordo com suas necessidades. Por exemplo, se o seu ambiente tiver um número menor de dispositivos de armazenamento com IDs de LUN de 1 a 100, defina o valor como 101. Como resultado, você pode melhorar a velocidade de descoberta de dispositivos em destinos que não são compatíveis com REPORT_LUNS. A redução do valor pode reduzir o tempo de nova verificação e o tempo de inicialização. No entanto, o tempo para verificar novamente os dispositivos de armazenamento também pode depender de outros fatores, incluindo o tipo do sistema de armazenamento e a carga no sistema de armazenamento. Em outros casos, pode ser necessário aumentar o valor se o seu ambiente usar IDs de LUN superiores a 1023. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System Settings). 4 Na tabela Configurações avançadas do sistema, selecione Disk.MaxLUN (Disk.MaxLUN) e clique no ícone Editar (Edit ). 5 Altere o valor existente para o valor de sua escolha e clique em OK (OK). O valor inserido especifica a ID do LUN após a última que você deseja descobrir. Por exemplo, para descobrir IDs de LUN de 1 a 100, defina Disk.MaxLUN (Disk.MaxLUN) como 101. Identificando problemas de conectividade do dispositivo Quando seu host ESXiapresenta um problema durante a conexão com um dispositivo de armazenamento, o host trata o problema como permanente ou temporário, dependendo de certos fatores. Os problemas de conectividade de armazenamento são causados por vários motivos. Embora ESXi nem sempre possa determinar o motivo de um dispositivo de armazenamento ou seus caminhos não estarem disponíveis, o host diferencia entre um estado de perda de dispositivo permanente (PDL) do dispositivo e um estado de armazenamento transitório todos os caminhos inativos (APD). Perda permanente de dispositivo (PDL) vSphere Storage VMware, Inc. Traduzido automaticamente 156 Uma condição que ocorre quando um dispositivo de armazenamento falha permanentemente ou é removido ou excluído administrativamente. Não é esperado que ele fique disponível. Quando o dispositivo fica indisponível permanentemente, ESXi recebe códigos de detecção apropriados ou uma rejeição de login de matrizes de armazenamento e é capaz de reconhecer que o dispositivo está perdido permanentemente. Todos os caminhos desativados (APD) Uma condição que ocorre quando um dispositivo de armazenamento se torna inacessível ao host e nenhum caminho para o dispositivo está disponível. ESXi trata isso como uma condição transitória, porque normalmente os problemas com o dispositivo são temporários e espera-se que o dispositivo fique disponível novamente. Problemas de conectividade e alta disponibilidade do vSphere Quando o dispositivo entra no estado de PDL ou APD, o vSphere High Availability (HA) pode detectar problemas de conectividade e fornecer recuperação automatizada para as máquinas virtuais afetadas no host ESXi. O vSphere HA usa a VM Component Protection (VMCP) para proteger as máquinas virtuais em execução no host no cluster vSphere HA contra falhas de acessibilidade. Para obter mais informações sobre o VMCP e como configurar respostas para repositórios de dados e máquinas virtuais quando a condição de APD ou PDL ocorre, consulte a documentação Disponibilidade do vSphere . Detectando condições de PDL Um dispositivo de armazenamento é considerado no estado de perda de dispositivo permanente (PDL) quando se torna permanentemente indisponível para o seu host ESXi. Normalmente, a condição da PDL ocorre quando um dispositivo é removido acidentalmente, ou quando seu ID exclusivo é alterado, ou quando o dispositivo apresenta um erro de hardware irrecuperável. Quando a matriz de armazenamento determina que o dispositivo está permanentemente indisponível, ela envia códigos de detecção SCSI para o host ESXi. Depois de receber os códigos de detecção, seu host reconhece o dispositivo como com falha e registra o estado do dispositivo como PDL. Para que o dispositivo seja considerado perdido permanentemente, os códigos de detecção devem ser recebidos em todos os seus caminhos. Depois de registrar o estado da PDL do dispositivo, o host interrompe as tentativas de restabelecer a conectividade ou de enviar comandos para o dispositivo. O vSphere Client exibe as seguintes informações para o dispositivo: n O estado operacional do dispositivo muda para Lost Communication. n Todos os caminhos são mostrados como Dead. n Os repositórios de dados no dispositivo não estão disponíveis. vSphere Storage VMware, Inc. Traduzido automaticamente 157 Se não existir nenhuma conexão aberta com o dispositivo ou após o fechamento da última conexão, o host removerá o dispositivo PDL e todos os caminhos para o dispositivo. Você pode desativar a remoção automática de caminhos definindo o parâmetro de host avançado Disk.AutoremoveOnPDL como 0. Se o dispositivo retornar da condição de PDL, o host poderá descobri-la, mas a tratará como um novo dispositivo. A consistência de dados para máquinas virtuais no dispositivo recuperado não é garantida. Observação Quando um dispositivo falha sem enviar códigos de detecção SCSI apropriados ou uma rejeição de login iSCSI, o host não pode detectar condições de PDL. Nesse caso, o host continua a tratar os problemas de conectividade do dispositivo como APD, mesmo quando o dispositivo falha permanentemente. Perda permanente de dispositivo e códigos de detecção de SCSI O exemplo de log VMkernel a seguir de um código de detecção SCSI indica que o dispositivo está no estado PDL. H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x25 0x0 or Logical Unit Not Supported Perda permanente de dispositivo e iSCSI Em matrizes iSCSI com um único LUN por destino, a PDL é detectada por meio de falha de login iSCSI. Uma matriz de armazenamento iSCSI rejeita as tentativas do seu host de iniciar uma sessão iSCSI com um motivo Target Unavailable. Assim como acontece com os códigos de detecção, essa resposta deve ser recebida em todos os caminhos para que o dispositivo seja considerado perdido permanentemente. Perda permanente de dispositivo e máquinas virtuais Depois de registrar o estado da PDL do dispositivo, o host fecha todas as E / S das máquinas virtuais. vSphere HA pode detectar a PDL e reiniciar máquinas virtuais com falha. Realizando a remoção do dispositivo de armazenamento planejado Quando um dispositivo de armazenamento está com mau funcionamento, você pode evitar condições de perda permanente do dispositivo (PDL) ou condições de todos os caminhos inativos (APD). Realize uma remoção e reconexão planejadas de um dispositivo de armazenamento. A remoção planejada do dispositivo é uma desconexão intencional de um dispositivo de armazenamento. Você também pode planejar remover um dispositivo por motivos como atualizar seu hardware ou reconfigurar seus dispositivos de armazenamento. Quando você executa uma remoção e reconexão ordenadas de um dispositivo de armazenamento, conclui uma série de tarefas. vSphere Storage VMware, Inc. Traduzido automaticamente 158 Tarefa Descrição Migre as máquinas virtuais do dispositivo que você planeja desanexar. vCenter Server e Gerenciamento de Host Desmonte o datastore implantado no dispositivo. Consulte Desmontar repositórios de dados. Desconecte o dispositivo de armazenamento. Consulte Desanexar dispositivos de armazenamento. Para um dispositivo iSCSI com um único LUN por destino, exclua a entrada de destino estático de cada HBA iSCSI que tenha um caminho para o dispositivo de armazenamento. Consulte Remover destinos iSCSI dinâmicos ou estáticos. Realize qualquer reconfiguração necessária do dispositivo de armazenamento usando o console da matriz. Consulte a documentação do fornecedor. Reconecte o dispositivo de armazenamento. Consulte Anexar dispositivos de armazenamento. Monte o repositório de dados e reinicie as máquinas virtuais. Consulte Montar repositórios de dados. Desanexar dispositivos de armazenamento Desanexe com segurança um dispositivo de armazenamento do seu host ESXi. Talvez seja necessário desconectar o dispositivo para torná-lo inacessível ao seu host quando, por exemplo, você realiza uma atualização de hardware no lado do armazenamento. Pré-requisitos n O dispositivo não contém nenhum repositório de dados. n Nenhuma máquina virtual usa o dispositivo como um disco RDM. n O dispositivo não contém uma partição de diagnóstico ou uma partição temporária. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Selecione o dispositivo para desanexar e clique no ícone Desanexar (Detach). Resultados O dispositivo fica inacessível. O estado operacional do dispositivo muda para Desmontado. Próximo passo Se vários hosts compartilharem o dispositivo, desanexe o dispositivo de cada host. Anexar dispositivos de armazenamento Reconecte um dispositivo de armazenamento que você desconectou anteriormente do host ESXi. vSphere Storage VMware, Inc. Traduzido automaticamente 159 Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), cliqueem Dispositivos de Armazenamento (Storage Devices). 4 Selecione o dispositivo de armazenamento desanexado e clique no ícone Anexar (Attach). Resultados O dispositivo se torna acessível. Recuperando-se de condições de PDL Uma condição de perda de dispositivo permanente não planejada (PDL) ocorre quando um dispositivo de armazenamento fica permanentemente indisponível sem ser devidamente desconectado do host ESXi. Os seguintes itens em vSphere Client indicam que o dispositivo está no estado PDL: n O repositório de dados implantado no dispositivo não está disponível. n O estado operacional do dispositivo muda para Comunicação perdida. n Todos os caminhos são exibidos como inativos. n Um aviso sobre o dispositivo sendo permanentemente inacessível é exibido no arquivo de log do VMkernel. Para se recuperar da condição de PDL não planejada e remover o dispositivo indisponível do host, execute as seguintes tarefas. Tarefa Descrição Desligue e cancele o registro de todas as máquinas virtuais em execução no repositório de dados afetado pela condição da PDL. Consulte o Administração da Máquina Virtual do vSphere . Desmonte o datastore. Consulte Desmontar repositórios de dados. Verifique novamente todos os ESXi hosts que tiveram acesso ao dispositivo. Observação Se a nova verificação não for bem-sucedida e o host continuar a listar o dispositivo, algumas E / S pendentes ou referências ativas ao dispositivo ainda poderão existir. Verifique se há itens que ainda possam ter uma referência ativa ao dispositivo ou repositório de dados. Os itens incluem máquinas virtuais, modelos, imagens ISO, mapeamentos de dispositivos brutos e assim por diante. Consulte Executar nova verificação de armazenamento. Como lidar com condições transitórias de APD Um dispositivo de armazenamento é considerado no estado todos os caminhos desativados (APD) quando fica indisponível para o seu host ESXi por um período de tempo não especificado. vSphere Storage VMware, Inc. Traduzido automaticamente 160 Os motivos para um estado de APD podem ser, por exemplo, um switch com falha ou um cabo de armazenamento desconectado. Ao contrário do estado de perda permanente de dispositivo (PDL), o host trata o estado APD como transitório e espera que o dispositivo esteja disponível novamente. O host continua a repetir os comandos emitidos na tentativa de restabelecer a conectividade com o dispositivo. Se os comandos do host falharem nas novas tentativas por um período prolongado, o host poderá estar em risco de ter problemas de desempenho. Potencialmente, o host e suas máquinas virtuais podem deixar de responder. Para evitar esses problemas, seu host usa um recurso de tratamento de APD padrão. Quando um dispositivo entra no estado APD, o host ativa um timer. Com o timer ativado, o host continua a repetir comandos da máquina não virtual por um período de tempo limitado. Por padrão, o tempo limite do APD é definido como 140 segundos. Esse valor normalmente é maior do que a maioria dos dispositivos exige para se recuperar de uma perda de conexão. Se o dispositivo ficar disponível dentro desse período, o host e sua máquina virtual continuarão a ser executados sem problemas. Se o dispositivo não se recuperar e o tempo limite terminar, o host interromperá suas tentativas de repetição e interromperá qualquer E / S de máquina não virtual. A E / S da máquina virtual continua tentando novamente. O vSphere Client exibe as seguintes informações para o dispositivo com o tempo limite de APD expirado: n O estado operacional do dispositivo muda para Dead or Error. n Todos os caminhos são mostrados como Dead. n Os repositórios de dados no dispositivo estão esmaecidos. Mesmo que o dispositivo e os repositórios de dados não estejam disponíveis, as máquinas virtuais permanecem responsivas. Você pode desligar as máquinas virtuais ou migrá-las para um repositório de dados ou host diferente. Se, posteriormente, os caminhos do dispositivo se tornarem operacionais, o host poderá retomar a E / S para o dispositivo e encerrar o tratamento de APD especial. Desativar manipulação de armazenamento APD A manipulação do armazenamento em todos os caminhos desativados (APD) no host ESXi é ativada por padrão. Quando ativado, o host continua a tentar novamente comandos de E / S não virtuais de uma máquina para um dispositivo de armazenamento no estado APD por um período de tempo limitado. Quando o período de tempo expirar, o host interromperá as tentativas de repetição e encerrará qualquer E / S não virtual da máquina. Você pode desativar o recurso de tratamento de APD em seu host. Se você desativar a manipulação de APD, o host continuará indefinidamente a repetir os comandos emitidos na tentativa de se reconectar ao dispositivo APD. Esse comportamento pode fazer com que as máquinas virtuais no host excedam o tempo limite de E / S internas e deixem de responder ou falhem. O host pode ficar desconectado de vCenter Server. vSphere Storage VMware, Inc. Traduzido automaticamente 161 Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System Settings). 4 Na tabela Configurações Avançadas do Sistema, selecione o parâmetro Varia.APDHandlingEnable (Misc.APDHandlingEnable) e clique no ícone Edit. 5 Altere o valor para 0. Resultados Se você tiver desativado a manipulação de APD, poderá reativá-la e definir seu valor como 1 quando um dispositivo entrar no estado de APD. O recurso de tratamento interno do APD é ativado imediatamente e o timer começa com o valor de tempo limite atual para cada dispositivo no APD. Alterar limites de tempo limite para APD de armazenamento O parâmetro de tempo limite controla quantos segundos o host ESXi deve repetir os comandos de E / S para um dispositivo de armazenamento em um estado de todos os caminhos desativados (APD). Você pode alterar o valor de tempo limite padrão. O período de tempo limite começa imediatamente após o dispositivo entrar no estado APD. Depois que o tempo limite terminar, o host marcará o dispositivo APD como inacessível. O host interrompe suas tentativas de repetir qualquer E / S que não é proveniente de máquinas virtuais. O host continua a tentar novamente a E / S da máquina virtual. Por padrão, o parâmetro de tempo limite no host é definido como 140 segundos. Você pode aumentar o valor do tempo limite se, por exemplo, os dispositivos de armazenamento conectados ao seu host ESXi levarem mais de 140 segundos para se recuperar de uma perda de conexão. Observação Se você alterar o parâmetro de tempo limite após o dispositivo ficar indisponível, a alteração não terá efeito para esse incidente de APD específico. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System Settings). 4 Na tabela Configurações avançadas do sistema, selecione o parâmetro Varia.APDTimeout (Misc.APDTimeout) e clique no ícone Edit. vSphere Storage VMware, Inc. Traduzido automaticamente 162 5 Altere o valor padrão. Você pode inserir um valor entre 20 e 99999 segundos. Verificar o status da conexão de um dispositivo de armazenamento no host ESXi Use o comando esxcli para verificar o status da conexão de um determinado dispositivo de armazenamento. Pré-requisitos Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli comandos no ESXi Shell. Procedimentos 1 Execute o comando esxcli storage core device list -d = device_ID . 2 Revise o status da conexão na área Status:. n on - O dispositivo está conectado. n dead - O dispositivo entrou no estado APD. O temporizador APD é iniciado. n dead timeout - O tempo limite do APD expirou. n not connected - O dispositivo está no estado da PDL. Ativar ou desativar o localizador LED em ESXi dispositivos de armazenamentoUse o LED localizador para identificar dispositivos de armazenamento específicos, para que você possa localizá-los entre outros dispositivos. Você pode ligar ou desligar o LED do localizador. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Na lista de dispositivos de armazenamento, selecione um ou mais discos e ative ou desative o indicador LED do localizador. Opção Descrição Ativar Clique no ícone Turn On LED (Turn On LED). Desabilitar Clique no ícone Turn Off LED (Turn Off LED). vSphere Storage VMware, Inc. Traduzido automaticamente 163 Apagar dispositivos de armazenamento Certas funcionalidades, como vSAN ou recurso flash virtual, exigem que o host do ESXi use dispositivos de armazenamento limpos. Você pode apagar um dispositivo HHD ou flash e remover todos os dados existentes. Pré-requisitos n Certifique-se de que o host esteja no estado conectado. n Verifique se os dispositivos que você planeja apagar não estão em uso. n Privilégio necessário: Host.Config.Storage Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Selecione um ou mais dispositivos e clique no ícone Apagar partições (Erase Partitions). 5 Verifique se as informações da partição que você está apagando não são críticas. 6 Clique em OK (OK) para confirmar a alteração. Alterar as configurações de reserva perene Você pode ajustar a configuração de reserva perene em dispositivos de armazenamento que são usados como mapeamentos de dispositivos brutos (RDMs) físicos em configurações do Windows Server Failover Clustering (WSFC). Os nós do cluster WSFC que estão espalhados por vários ESXi exigem RDMs físicos. Os RDMs são compartilhados entre todos os hosts nos quais os nós do cluster são executados. O host com o nó ativo mantém reservas SCSI-3 persistentes em todos os dispositivos RDM compartilhados. Quando o nó ativo está em execução e os dispositivos estão bloqueados, nenhum outro host pode gravar nos dispositivos. Se outro host participante inicializar enquanto o nó ativo estiver bloqueando os dispositivos, a inicialização poderá demorar muito tempo porque o host tentará, sem êxito, entrar em contato com os dispositivos bloqueados. O mesmo problema também pode afetar as operações de nova verificação. Para evitar esse problema, ative a reserva perene para todos os dispositivos nos ESXi hosts em que os nós WSFC secundários com RDMs residem. Essa configuração informa o host ESXi sobre a reserva SCSI permanente nos dispositivos, para que o host possa ignorar os dispositivos durante o processo de nova verificação de inicialização ou armazenamento. Se você posteriormente redirecionar novamente os dispositivos marcados como repositórios de dados VMFS, remova a reserva para evitar um comportamento imprevisível do repositório de dados. vSphere Storage VMware, Inc. Traduzido automaticamente 164 Para obter informações sobre clusters do WSFC, consulte a documentação Configuração para Windows Server Cluster de Failover . Pré-requisitos Antes de marcar um dispositivo como permanentemente reservado, certifique-se de que o dispositivo não contenha um repositório de dados VMFS. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Na lista de dispositivos de armazenamento, selecione o dispositivo e clique em um dos ícones a seguir. Opção Descrição Marcar como permanentemente reservada Marque o dispositivo selecionado como sempre reservado. Observação Repita o procedimento para cada dispositivo RDM que está participando do cluster WSFC. Desmarcar como permanentemente reservada Limpar reserva perene para o dispositivo que foi marcado anteriormente. Resultados A configuração é permanentemente armazenada com o host ESXi e persiste nas reinicializações. Exemplo Você também pode usar o comando esxcli para marcar os dispositivos que participam do cluster WSFC. 1 Marque os dispositivos como permanentemente reservados. esxcli storage core device setconfig -d naa.id --perennially-reserved=true 2 Verifique se o dispositivo está sempre reservado. esxcli storage core device list -d naa.id Na saída do comando esxcli, procure a entrada Is Perennially Reserved: true. 3 Para remover o sinalizador perenemente reservado, execute o seguinte comando. esxcli storage core device setconfig -d naa.id --perennially-reserved=false vSphere Storage VMware, Inc. Traduzido automaticamente 165 Trabalhando com dispositivos flash 15 Além de unidades de disco rígido (HDDs) de armazenamento regular, o ESXi oferece suporte a dispositivos de armazenamento em flash. Ao contrário de HDDs regulares que são dispositivos eletromecânicos contendo partes móveis, os dispositivos flash usam semicondutores como seu meio de armazenamento e não têm partes móveis. Normalmente, os dispositivos flash são resilientes e fornecem acesso mais rápido aos dados. Para detectar dispositivos flash, o ESXi usa um mecanismo de consulta com base nos padrões T10. Verifique com o seu fornecedor se a sua matriz de armazenamento é compatível com o mecanismo ESXi de detecção de dispositivo flash. Depois que o host detecta os dispositivos flash, você pode usá-los para várias tarefas e funcionalidades. Se você usar o armazenamento NVMe, ative o plug-in de alto desempenho (HPP) para melhorar o desempenho do armazenamento. Consulte VMware Esquemas de seleção de caminho e plug- in de alto desempenho. Para obter detalhes sobre como usar o armazenamento NVMe com o ESXi, consulte Capítulo 16 Sobre o armazenamento NVMe VMware. Tabela 15-1. Usando dispositivos flash com o ESXi Funcionalidade Descrição vSAN vSAN requer dispositivos flash. Para obter mais informações, consulte a documentação do Administrando VMware vSAN . VMFS Datastores Crie datastores VMFS em dispositivos flash. Use os datastores para as seguintes finalidades: n Armazene máquinas virtuais. Certos sistemas operacionais convidados podem identificar discos virtuais armazenados nesses datastores como discos virtuais flash. n Aloque espaço de armazenamento de dados para o cache de permuta do host ESXi. Consulte Configurar o cache do host com o repositório de dados VMFS. Recurso Flash Virtual (VFFS) Se exigido pelo seu fornecedor, configure um recurso de flash virtual e use-o para filtros de cache de E / S. Consulte Capítulo 23 Filtrando a E / S da máquina virtual. VMware, Inc. Traduzido automaticamente 166 Dispositivos Flash e Máquinas Virtuais Os sistemas operacionais convidados podem identificar discos virtuais que residem em datastores baseados em flash como discos virtuais em flash. Os sistemas operacionais convidados podem usar comandos de consulta padrão, como SCSI VPD Page (B1h) para dispositivos SCSI e ATA IDENTIFY DEVICE (Word 217) para dispositivos IDE. Para clones vinculados, instantâneos nativos e discos delta, os comandos de consulta relatam o status flash virtual do disco base. Os sistemas operacionais podem detectar que um disco virtual é um disco flash sob as seguintes condições: n A detecção de discos virtuais flash é compatível com VMs com hardware virtual versão 8 ou posterior. n Os dispositivos que suportam um datastore VMFS compartilhado devem ser marcados como flash em todos os hosts. n Se o datastore VMFS incluir várias extensões de dispositivo, todas as extensões físicas subjacentes deverão ser baseadas em flash. Este capítulo inclui os seguintes tópicos: n Marcando dispositivos de armazenamento n Monitorar dispositivos flash n Boas práticas para dispositivos flash n Sobre o recurso de flash virtual n Configurar o cache do host com o repositório de dados VMFS n Mantendo os discosflash livres de VMFS Marcando dispositivos de armazenamento Você pode marcar dispositivos de armazenamento em um host ESXi como dispositivos flash locais. Quando você configura o vSAN ou define um recurso de flash virtual, seu ambiente de armazenamento deve incluir dispositivos flash locais. No entanto, o ESXi pode não reconhecer certos dispositivos de armazenamento como dispositivos flash quando seus fornecedores não oferecem suporte à detecção automática de dispositivos flash. Em outros casos, certos dispositivos podem não ser detectados como locais e ESXi os marca como remotos. Quando os dispositivos não são reconhecidos como dispositivos flash locais, eles são excluídos da lista de dispositivos oferecidos para vSAN ou recurso flash virtual. Marcar esses dispositivos como flash local os torna disponíveis para o vSAN e o recurso flash virtual. vSphere Storage VMware, Inc. Traduzido automaticamente 167 Marcar dispositivos de armazenamento como flash Se ESXi não reconhecer seus dispositivos como flash, marque-os como dispositivos flash. ESXi não reconhece determinados dispositivos como flash quando seus fornecedores não oferecem suporte à detecção automática de disco flash. A coluna Tipo de unidade para os dispositivos mostra HDD como seu tipo. Cuidado Marcar os dispositivos de disco rígido como flash pode prejudicar o desempenho dos repositórios de dados e dos serviços que os utilizam. Marque os dispositivos somente se tiver certeza de que são flash. Pré-requisitos Verifique se o dispositivo não está em uso. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Na lista de dispositivos de armazenamento, selecione um ou vários dispositivos de disco rígido e clique no ícone Marcar como disco flash (Mark as Flash Disk) ( ). 5 Clique em Sim (Yes) para salvar as alterações. Resultados O tipo dos dispositivos muda para flash. Próximo passo Se o dispositivo flash que você marcar for compartilhado entre vários hosts, certifique-se de marcar o dispositivo de todos os hosts que compartilham o dispositivo. Marcar dispositivos de armazenamento como locais ESXi permite marcar dispositivos como locais. Essa ação é útil nos casos em que ESXi não consegue determinar se determinados dispositivos são locais. Pré-requisitos n Certifique-se de que o dispositivo não esteja compartilhado. n Desligue as máquinas virtuais que residem no dispositivo e desmonte um repositório de dados associado. Procedimentos 1 No vSphere Client, navegue até o host ESXi. vSphere Storage VMware, Inc. Traduzido automaticamente 168 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage Devices). 4 Na lista de dispositivos de armazenamento, selecione um ou vários dispositivos remotos e clique no ícone Marcar como local (Mark as Local). 5 Clique em Sim (Yes) para salvar as alterações. Monitorar dispositivos flash Você pode monitorar determinados parâmetros críticos do dispositivo flash, incluindo Media Wearout Indicator, Temperature e Reallocated Sector Count, de um host ESXi. Use o comando esxcli para monitorar dispositivos flash. Pré-requisitos Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli comandos no ESXi Shell. Procedimentos u Exiba as estatísticas do dispositivo flash executando o seguinte comando: esxcli storage core device smart get -d = flash device_ID Boas práticas para dispositivos flash Siga estas práticas recomendadas ao usar dispositivos flash no ambiente vSphere. n Use dispositivos flash aprovados pelo VMware Guia de Compatibilidade . n Certifique-se de usar o firmware mais recente com dispositivos flash. Verifique com os seus fornecedores de armazenamento com frequência se há atualizações. n Monitore cuidadosamente a intensidade com que você usa o dispositivo flash e calcule sua vida útil estimada. A expectativa de vida útil depende de quão ativamente você continua a usar o dispositivo flash. Consulte Estimativa da vida útil dos dispositivos flash. n Se você usar dispositivos NVMe para armazenamento, ative o plug-in de alto desempenho (HPP) para melhorar seu desempenho de armazenamento. Para especificações sobre o uso de dispositivos NVMe, consulte VMware Esquemas de seleção de caminho e plug-in de alto desempenho Estimativa da vida útil dos dispositivos flash Ao trabalhar com dispositivos flash, monitore com que frequência os utiliza e calcule a vida útil estimada deles. vSphere Storage VMware, Inc. Traduzido automaticamente 169 Normalmente, os fornecedores de armazenamento fornecem estimativas de vida útil confiáveis para um dispositivo flash em condições ideais. Por exemplo, um fornecedor pode garantir uma vida útil de 5 anos sob a condição de 20 GB de gravações por dia. No entanto, a expectativa de vida mais realística do dispositivo depende de quantas gravações por dia seu host ESXi realmente gera. Siga estas etapas para calcular a vida útil do dispositivo flash. Pré-requisitos Observe o número de dias decorridos desde a última reinicialização do host ESXi. Por exemplo, dez dias. Procedimentos 1 Obtenha o número total de blocos gravados no dispositivo flash desde a última reinicialização. Execute o comando esxcli storage core device stats get -d = device_ID . Por exemplo: ~ # esxcli storage core device stats get -d t10.xxxxxxxxxxxxxxx Device: t10.xxxxxxxxxxxxxxx Successful Commands: xxxxxxx Blocks Read: xxxxxxxx Blocks Written: 629145600 Read Operations: xxxxxxxx O item Blocos gravados na saída mostra o número de blocos gravados no dispositivo desde a última reinicialização. Neste exemplo, o valor é 629.145.600. Após cada reinicialização, ela é redefinida para 0. 2 Calcule o número total de gravações e converta em GB. Um bloco tem 512 bytes. Para calcular o número total de gravações, multiplique o valor de Blocos Gravados por 512 e converta o valor resultante em GB. Neste exemplo, o número total de gravações desde a última reinicialização é de aproximadamente 322 GB. 3 Estime o número médio de gravações por dia em GB. Divida o número total de gravações pelo número de dias desde a última reinicialização. Se a última reinicialização foi há dez dias, você terá 32 GB de gravações por dia. Você pode calcular a média desse número ao longo do período. 4 Estime a vida útil do seu dispositivo usando a seguinte fórmula: fornecedor forneceu o número de gravações por dia vezes fornecedor forneceu uma vida útil dividida por número médio real de gravações por dia Por exemplo, se o seu fornecedor garantir uma vida útil de 5 anos sob a condição de 20 GB de gravações por dia, e o número real de gravações por dia for 30 GB, a vida útil do seu dispositivo flash será de aproximadamente 3,3 anos. vSphere Storage VMware, Inc. Traduzido automaticamente 170 Sobre o recurso de flash virtual Você pode agregar dispositivos flash locais em um host ESXi em uma única camada de cache virtualizada chamada recurso de flash virtual. Ao configurar o recurso flash virtual, você cria um novo sistema de arquivos, o Virtual Flash File System (VFFS). O VFFS é um derivado do VMFS, que é otimizado para dispositivos flash e é usado para agrupar os dispositivos flash físicos em um único pool de recursos de cache. Como um recurso não persistente, ele não pode ser usado para armazenar máquinas virtuais. Depois de configurar o recurso de flash virtual, você poderá usá-lo para filtros de cache de E / S. Consulte Capítulo 23 Filtrando a E / S da máquina virtual. Considerações para o recurso Flash Virtual Quando você configura um recurso de flash virtual, várias considerações se aplicam. n Você pode ter apenas um recurso de flash virtual em um único host ESXi. O recurso de flash virtual é gerenciado no nível do host. n Você não pode usar o recurso de flash virtual paraarmazenar máquinas virtuais. O recurso de flash virtual é apenas uma camada de cache. n Você pode usar apenas dispositivos flash locais para o recurso flash virtual. n Você pode criar o recurso flash virtual a partir de dispositivos flash mistos. Todos os tipos de dispositivos são tratados da mesma forma e não há distinção entre conectividade SAS, SATA ou PCI Express. Ao criar o recurso de dispositivos flash mistos, certifique-se de agrupar dispositivos com desempenho semelhante para maximizar o desempenho. n Você não pode usar os mesmos dispositivos flash para o recurso flash virtual e vSAN. Cada um deles requer seu próprio dispositivo flash exclusivo e dedicado. Configurar recurso de flash virtual Você pode configurar um recurso de flash virtual ou adicionar capacidade ao recurso de flash virtual existente. Para configurar um recurso flash virtual, você usa dispositivos flash locais conectados ao seu host ou cluster de host. Para aumentar a capacidade do seu recurso de flash virtual, você pode adicionar mais dispositivos, até o número máximo indicado na documentação Máximos de configuração . Um dispositivo flash individual deve ser alocado exclusivamente para o recurso flash virtual. Nenhuma outra funcionalidade do vSphere, como vSAN ou VMFS, pode compartilhar o dispositivo com o recurso de flash virtual. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). vSphere Storage VMware, Inc. Traduzido automaticamente 171 3 Em Virtual Flash (Virtual Flash), clique em Virtual Flash Resource Management (Virtual Flash Resource Management). 4 Clique em uma das seguintes opções. Opção Descrição Adicionar capacidade Se você estiver criando o recurso flash virtual em um host individual. Adicionar capacidade no cluster Se você estiver criando o recurso flash virtual em um cluster. 5 Na lista de entidades disponíveis, selecione uma ou mais para usar para o recurso flash virtual e clique em OK (OK). Se os seus dispositivos flash não aparecerem na lista, consulte Marcando dispositivos de armazenamento. Opção Descrição Disco VMware local Selecione qualquer combinação de dispositivos flash não reivindicados. ESXi cria o volume VFFS em um dos dispositivos e, em seguida, estende o volume no restante dos dispositivos. O sistema configura o recurso flash virtual em todo o volume VFFS. Se existir um volume VFFS no seu host, você não poderá selecionar nenhum dispositivo não reivindicado sem primeiro selecionar o volume VFFS existente. ID de volume - Configure usando as extensões de volume VFFS existentes Se você tiver criado anteriormente um volume VFFS em um dos dispositivos flash do host usando o comando vmkfstools, o volume também aparecerá na lista de entidades elegíveis. Você pode selecionar apenas este volume para o recurso flash virtual. Ou combine-o com os dispositivos não reivindicados. ESXi usa o volume VFFS existente para estendê-lo sobre outros dispositivos. Resultados O recurso flash virtual é criado. A área Backing do dispositivo lista todos os dispositivos que você usa para o recurso flash virtual. Próximo passo Use o recurso de flash virtual para filtros de cache de E / S desenvolvidos por meio de APIs do vSphere para filtragem de E / S. Consulte o Usando dispositivos de armazenamento Flash com filtros de cache de E / S. Você pode aumentar a capacidade adicionando mais dispositivos flash ao recurso flash virtual. Remover recurso de flash virtual Talvez seja necessário remover um recurso flash virtual implantado em dispositivos flash locais conectados ao host ESXi. A remoção do recurso flash virtual libera os dispositivos para outros serviços. vSphere Storage VMware, Inc. Traduzido automaticamente 172 Pré-requisitos n Verifique se o recurso de flash virtual não é usado para filtros de E / S. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Virtual Flash (Virtual Flash), clique em Virtual Flash Resource Management (Virtual Flash Resource Management) e clique em Remove All (Remove All). Resultados Depois de remover o recurso flash virtual e apagar o dispositivo flash, o dispositivo estará disponível para outras operações. Definir alarme para uso do flash virtual Defina um alarme para indicar quando o uso de um recurso de flash virtual no host ESXi excede o limite especificado. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System Settings). 4 Selecione a configuração a ser alterada e clique no botão Editar (Edit). Parâmetro Descrição VFLASH.ResourceUsageThr threshold (VFLASH.ResourceUsageThreshold) O sistema dispara o alarme Uso de recursos do vFlash do host quando um uso de recursos de flash virtual excede o limite. O limite padrão é 80%. Você pode alterar o limite para um valor apropriado. O alarme é apagado quando o uso de recursos de flash virtual fica abaixo do limite. 5 Clique em Okey(OK). Configurar o cache do host com o repositório de dados VMFS Habilite seu host ESXi para trocar para o cache do host. Você também pode alterar a quantidade de espaço alocado para o cache do host. Seus ESXi hosts podem usar uma parte de uma entidade de armazenamento com suporte em flash como um cache de permuta compartilhado por todas as máquinas virtuais. vSphere Storage VMware, Inc. Traduzido automaticamente 173 O cache no nível do host é composto por arquivos em um disco de baixa latência que ESXi usa como um cache de write-back para arquivos de permuta de máquina virtual. Todas as máquinas virtuais em execução no host compartilham o cache. A troca de páginas da máquina virtual no nível do host faz o melhor uso do espaço potencialmente limitado do dispositivo flash. Pré-requisitos Crie um repositório de dados VMFS usando dispositivos flash como suporte. Consulte Criar um repositório de dados VMFS. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Configuração de Cache do Host (Host Cache Configuration). 4 Selecione o datastore flash na lista e clique no ícone Editar (Edit). 5 Aloque o espaço apropriado para o cache do host. 6 Clique em Okey(OK). Mantendo os discos flash livres de VMFS Se você usar a opção de inicialização de particionamento automático ao instalar ou implantar automaticamente o ESXi, a opção de particionamento automático criará um repositório de dados VMFS no armazenamento local do host. Em certos casos, você precisa manter os discos flash de armazenamento local não formatados. Problema Por padrão, o particionamento automático implanta sistemas de arquivos VMFS em qualquer disco de armazenamento local não utilizado em seu host, incluindo discos flash. No entanto, um disco flash formatado com VMFS fica indisponível para recursos como virtual flash e vSAN. Ambos os recursos exigem um disco flash não formatado e nenhum deles pode compartilhar o disco com qualquer outro sistema de arquivos. Solução Para garantir que o particionamento automático não formate o disco flash com o VMFS, use as seguintes opções de inicialização ao instalar o ESXi ou ao inicializar o host ESXi pela primeira vez: n autoPartition = TRUE n skipParticionamentoSsds = TRUE vSphere Storage VMware, Inc. Traduzido automaticamente 174 Se você usar a Implantação Automática, defina esses parâmetros em um host de referência ESXi. 1 No vSphere Client, navegue até o host para usar como host de referência e clique na guia Configurar (Configure). 2 Clique em Sistema (System) para abrir as opções do sistema e clique em Configurações Avançadas do Sistema (Advanced System Settings). 3 Defina os seguintes itens. Parâmetro Valor VMkernel.Boot.autoPartition Verdadeiro VMkernel.Boot.skipParticionamentoSsds Verdadeiro 4 Reinicialize o host. Se os discos flash que você planejausar com o recurso de flash virtual e vSAN já tiverem repositórios de dados VMFS, remova-os. vSphere Storage VMware, Inc. Traduzido automaticamente 175 Sobre o armazenamento NVMe VMware 16 Os dispositivos de armazenamento de memória não volátil (NVM) que usam memória persistente se tornaram cada vez mais populares nos centros de dados. O NVM Express (NVMe) é um protocolo padronizado projetado especificamente para a comunicação de várias filas de alto desempenho com dispositivos NVM. ESXi é compatível com o protocolo NVMe para se conectar a dispositivos de armazenamento locais e em rede. Este capítulo inclui os seguintes tópicos: n VMware Conceitos NVMe n Requisitos e limitações do VMware armazenamento NVMe n Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2) n Configurar adaptadores para NVMe sobre armazenamento TCP n Habilitar NVMe sobre RDMA e adaptadores de software TCP n Adicionar controlador para NVMe sobre telas n Remover NVMe sobre RDMA e adaptadores de software TCP VMware Conceitos NVMe Antes de começar a trabalhar com o armazenamento NVMe no ambiente do ESXi, você pode se familiarizar com os conceitos básicos do NVMe. NVM Express (NVMe) NVMe é um método para conectar e transferir dados entre um host e um sistema de armazenamento de destino. O NVMe foi projetado para uso com mídia de armazenamento mais rápida, equipada com memória não volátil, como dispositivos flash. Esse tipo de armazenamento pode alcançar baixa latência, baixo uso da CPU e alto desempenho e geralmente serve como uma alternativa ao armazenamento SCSI. Transporte NVMe O armazenamento NVMe pode ser conectado diretamente a um host usando uma interface PCIe ou indiretamente por meio de diferentes transportes de malha. O VMware NVMe sobre Fabrics (NVMe-oF) fornece uma conectividade de distância entre um host e um dispositivo de armazenamento de destino em uma matriz de armazenamento compartilhada. VMware, Inc. Traduzido automaticamente 176 Os seguintes tipos de transportes para NVMe existem atualmente. Para obter mais informações, consulte Requisitos e limitações do VMware armazenamento NVMe. Transporte NVMe Suporte do ESXi NVMe sobre PCIe Armazenamento local. NVMe sobre RDMA Armazenamento NVMe-oF compartilhado. Com a tecnologia RoCE v2. NVMe sobre canal de fibra (FC-NVMe) Armazenamento NVMe-oF compartilhado. NVME sobre TCP Armazenamento NVMe-oF compartilhado. Namespaces NVMe Na matriz de armazenamento NVMe, um namespace é um volume de armazenamento apoiado por alguma quantidade de memória não volátil. No contexto de ESXi, o namespace é análogo a um dispositivo de armazenamento, ou LUN. Depois que o host do ESXi descobre o namespace NVMe, um dispositivo flash que representa o namespace aparece na lista de dispositivos de armazenamento no vSphere Client. Você pode usar o dispositivo para criar um datastore VMFS e armazenar máquinas virtuais. Controladores NVMe Um controlador está associado a um ou vários namespaces NVMe e fornece um caminho de acesso entre o host ESXi e os namespaces na matriz de armazenamento. Para acessar o controlador, o host pode usar dois mecanismos, a descoberta do controlador e a conexão do controlador. Para obter informações, consulte Adicionar controlador para NVMe sobre telas. Descoberta do controlador Com esse mecanismo, o host ESXi primeiro contata um controlador de descoberta. O controlador de descoberta retorna uma lista de controladores disponíveis. Depois de selecionar um controlador para o seu host acessar, todos os namespaces associados a esse controlador se tornam disponíveis para o seu host. Conexão do controlador Seu host ESXi se conecta ao controlador que você especificar. Todos os namespaces associados a esse controlador se tornam disponíveis para o seu host. Subsistema NVMe Geralmente, um subsistema NVMe é uma matriz de armazenamento que pode incluir vários controladores NVMe, vários namespaces, um meio de armazenamento de memória não volátil e uma interface entre o controlador e o meio de armazenamento de memória não volátil. O subsistema é identificado por um nome qualificado NVMe (NQN) do subsistema. VMware Plug-in de alto desempenho (HPP) vSphere Storage VMware, Inc. Traduzido automaticamente 177 Por padrão, o host ESXi usa o HPP para reivindicar os destinos NVMe-oF. Ao selecionar caminhos físicos para solicitações de E / S, o HPP aplica um esquema de seleção de caminho (PSS) apropriado. Para obter informações sobre o HPP, consulte VMware Esquemas de seleção de caminho e plug-in de alto desempenho. Para alterar o mecanismo de seleção de caminho padrão, consulte Alterar a política de seleção de caminho. Arquitetura e componentes básicos do VMware NVMe O ESXi é compatível com armazenamento NVMe local sobre PCIe e armazenamento NVMe-oF compartilhado, como NVMe sobre canal de fibra, NVMe sobre RDMA (RoCE v2) e NVMe sobre TCP. Em ambientes NVMe-oF, os destinos podem apresentar namespaces, equivalentes a LUNs no SCSI, para um host nos modos de acesso ativo / ativo ou assimétrico. ESXi é capaz de descobrir e usar namespaces apresentados de qualquer forma. O ESXi emula internamente os destinos NVMe-oF como destinos SCSI e os apresenta como destinos SCSI ativos / ativos ou destinos ALUA SCSI implícitos. VMware NVMe sobre PCIe Nesta configuração, o host do ESXi usa um adaptador de armazenamento PCIe para acessar um ou mais dispositivos de armazenamento NVMe locais. Depois de instalar o adaptador no host, o host descobre os dispositivos NVMe disponíveis e eles aparecem na lista de dispositivos de armazenamento no vSphere Client. ESXi Host PCle Adapter (vmhba#) Local NVMe Storage Device NVMe Controllers NVMe Namespaces VMware NVMe sobre FC Essa tecnologia mapeia o NVMe no protocolo Fibre Channel para permitir a transferência de dados e comandos entre um computador host e um dispositivo de armazenamento de destino. Esse transporte pode usar a infraestrutura de canal de fibra existente atualizada para oferecer suporte ao NVMe. vSphere Storage VMware, Inc. Traduzido automaticamente 178 Para acessar o NVMe sobre armazenamento Fibre Channel, instale um adaptador de armazenamento Fibre Channel que ofereça suporte a NVMe em seu host ESXi. Você não precisa configurar o adaptador. Ele se conecta automaticamente a um subsistema NVMe apropriado e descobre todos os dispositivos de armazenamento NVMe compartilhados que ele pode acessar. Posteriormente, você pode reconfigurar o adaptador e desconectar seus controladores ou conectar outros controladores que não estavam disponíveis durante a inicialização do host. Para obter mais informações, consulte Adicionar controlador para NVMe sobre telas. ESXi Host FC Fabric NVMe over Fibre Channel Adapter (vmhba#) NVMe subsystem NVMe Controllers NVMe Namespaces NVMe sobre RDMA (RoCE v2) Essa tecnologia usa um transporte de acesso remoto direto à memória (RDMA) entre dois sistemas na rede. O transporte permite a troca de dados na memória principal, ignorando o sistema operacional ou o processador de qualquer um dos sistemas. O ESXi oferece suporte à tecnologia RDMA over Converged Ethernet v2 (RoCE v2), que permite acesso remoto direto à memória por meio de uma rede Ethernet. Para acessar o armazenamento, o host do ESXi usa um adaptador de rede RDMA instalado no host e um adaptador de armazenamento de software NVMe sobre RDMA. Você deve configurar ambos os adaptadores para usá-los para a descoberta de armazenamento. Para obter mais informações, consulte Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2). vSphere Storage VMware, Inc. Traduzido automaticamente 179 ESXi Host RDMA Fabric RDMA Network Adapter Software NVMe over RDMA Adapter NVMe subsystem NVMe Controllers NVMe Namespaces NVMe sobre TCP Essa tecnologia usa conexões Ethernet entre dois sistemas. Para acessar o armazenamento, o host do ESXi usa um adaptador de rede instalado no seu host e um adaptador de armazenamento desoftware NVMe sobre TCP. Você deve configurar ambos os adaptadores para usá-los para a descoberta de armazenamento. Para obter mais informações, consulte Configurar adaptadores para NVMe sobre armazenamento TCP. vSphere Storage VMware, Inc. Traduzido automaticamente 180 Software NVMe over TCP Adapter Ethernet Adapter NVMe subsystem NVMe Controllers NVMe Namespaces TCP/IP Network ESXi Host Requisitos e limitações do VMware armazenamento NVMe Ao usar a tecnologia NVMe com o VMware, siga as diretrizes e os requisitos específicos. Requisitos para NVMe sobre PCIe Seu ambiente de armazenamento do ESXi deve incluir os seguintes componentes: n Dispositivos locais de armazenamento NVMe. n Host ESXi compatível. n Hardware NVMe sobre adaptador PCIe. Depois de instalar o adaptador, seu host ESXi o detecta e exibe no vSphere Client como um adaptador de armazenamento (vmhba) com o protocolo indicado como PCIe. Você não precisa configurar o adaptador. Requisitos para NVMe sobre RDMA (RoCE v2) n Matriz de armazenamento NVMe com suporte de transporte NVMe sobre RDMA (RoCE v2). n Host ESXi compatível. n Switches Ethernet compatíveis com uma rede sem perdas. vSphere Storage VMware, Inc. Traduzido automaticamente 181 n Adaptador de rede compatível com RDMA sobre Ethernet convergente (RoCE v2). Para configurar o adaptador, consulte Exibir Adaptadores de Rede RDMA. n Software NVMe sobre adaptador RDMA. Este componente de software deve ser ativado no seu host do ESXi e conectado a um adaptador RDMA de rede apropriado. Para obter informações, consulte Habilitar NVMe sobre RDMA e adaptadores de software TCP. n Controlador NVMe. Você deve adicionar um controlador depois de configurar um adaptador NVMe sobre RDMA de software. Consulte o Adicionar controlador para NVMe sobre telas. Requisitos para NVMe sobre canal de fibra n Matriz de armazenamento Fibre Channel compatível com NVMe. Para obter informações, consulte Capítulo 4 Usando o ESXi com Fibre Channel SAN. n Host ESXi compatível. n Adaptador de hardware NVMe. Normalmente, é um HBA Fibre Channel que oferece suporte a NVMe. Quando você instala o adaptador, seu host ESXi o detecta e exibe no vSphere Client como um adaptador Fibre Channel padrão (vmhba) com o protocolo de armazenamento indicado como NVMe. Você não precisa configurar o adaptador NVMe de hardware para usá-lo. n Controlador NVMe. Você não precisa configurar o controlador. Depois de instalar o adaptador NVMe de hardware necessário, ele se conecta automaticamente a todos os destinos e controladores que são acessíveis no momento. Posteriormente, você poderá desconectar os controladores ou conectar outros controladores que não estavam disponíveis durante a inicialização do host. Consulte o Adicionar controlador para NVMe sobre telas. Requisitos para NVMe sobre TCP n Matriz de armazenamento NVMe com suporte a transporte NVMe sobre TCP. n Host ESXi compatível. n Um adaptador ethernet. n Software NVMe sobre adaptador TCP. Este componente de software deve ser ativado no seu host do ESXi e conectado a um adaptador de rede apropriado. Para obter mais informações, consulte Habilitar NVMe sobre RDMA e adaptadores de software TCP. n Controlador NVMe. Você deve adicionar um controlador depois de configurar um adaptador NVMe sobre TCP. Consulte o Adicionar controlador para NVMe sobre telas. VMware NVMe sobre suporte de armazenamento compartilhado de malhas No ambiente do ESXi, os dispositivos de armazenamento NVMe são semelhantes aos dispositivos de armazenamento SCSI e podem ser usados como armazenamento compartilhado. Siga estas regras ao usar o armazenamento NVMe-oF. n Não misture tipos de transporte para acessar o mesmo namespace. vSphere Storage VMware, Inc. Traduzido automaticamente 182 n Certifique-se de que os caminhos ativos sejam apresentados ao host. Os namespaces não podem ser registrados até que o caminho ativo seja descoberto. Funcionalidade de armazenamento compartilhado SCSI sobre armazenamento de malha NVMe sobre armazenamento de malha RDM Com suporte Não suportado Despejo de núcleo Com suporte Não suportado Reservas SCSI-2 Com suporte Não suportado VMDK clusterizado Com suporte Não suportado VMDK compartilhado com sinalizador de vários gravadores Com suporte Com suporte No vSphere 7.0 Update 1 e versões posteriores. Para obter mais informações, consulte o artigo da Base de Dados de Conhecimento . vVols Com suporte Não suportado Aceleração de hardware com plug-ins VAAI Com suporte Não suportado MPP padrão NMP HPP (os destinos NVMe-oF não podem ser reivindicados pelo NMP) Limites LUNs = 1024, Paths = 4096 Namespaces = 32, Paths = 128 (máximo de 4 caminhos por namespace em um host) Configurando a Ethernet sem perdas para NVMe sobre RDMA O NVMe sobre RDMA em ESXi requer uma rede Ethernet sem perdas para operar de forma eficiente. Para estabelecer redes sem perdas, você pode selecionar uma das configurações de QoS disponíveis. Habilitando o controle de fluxo de pausa global Nessa configuração de rede, certifique-se de que o controle de fluxo de pausa global esteja ativado nas portas do comutador de rede. Além disso, certifique-se de que os NICs compatíveis com RDMA no host negociem automaticamente para o controle de fluxo correto. Para verificar o controle de fluxo, execute os seguintes comandos. #esxcli network nic get -n vmnicX Pause RX: true Pause TX: true Se as opções de comando acima não estiverem definidas como verdadeiras, execute o seguinte comando. #esxcli network nic pauseParams set -r true -t true -n vmnicX vSphere Storage VMware, Inc. Traduzido automaticamente 183 https://kb.vmware.com/s/article/1034165 https://kb.vmware.com/s/article/1034165 Habilitando o controle de fluxo de prioridade Para que o tráfego RoCE seja sem perdas, você deve configurar o valor de prioridade do PFC como 3 no comutador físico e nos hosts. Você pode configurar o PFC no host ESXi de duas maneiras: n Configuração automática. A partir do ESXi 7.0, você pode aplicar a configuração do DCB PFC automaticamente no host RNIC, se o driver RNIC oferecer suporte a DCB e DCBx. Você pode verificar as configurações atuais do DCB executando o seguinte comando. #esxcli network nic dcb status get -n vmnicX n Configuração manual. Em alguns casos, os drivers RNIC fornecem um método para configurar manualmente o DCB PFC usando parâmetros específicos do driver. Para usar esse método, consulte a documentação do driver específico do fornecedor. Por exemplo, no driver Mellanox ConnectX-4/5, você pode definir o valor de prioridade do PFC como 3 executando o seguinte comando e reiniciando o host. #esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08" Habilitando o PFC baseado em DSCP O PFC baseado em DSCP é outra maneira de configurar uma rede sem perdas. Em switches e hosts físicos, você deve definir o valor de DSCP como 26. Para usar essa opção, consulte a documentação do driver específico do fornecedor. Por exemplo, no driver Mellanox ConnectX-4/5, você pode definir o valor da tag DSCP como 26 executando os seguintes comandos. n Ativar o modo de confiança PFC e DSCP #esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2" n Defina o valor de DSCP como 26 #esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26" n Verifique os parâmetros para confirmar se as configurações estão corretas e definidas. esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx' n Reinicialize o host Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2) O processo de configuração do adaptador no host ESXi envolve a configuração da associação VMkernel para um adaptador de rede RDMA e, em seguida, a ativação de um adaptador de software NVMe sobre RDMA. vSphere Storage VMware, Inc. Traduzido automaticamente 184 O vídeo a seguir orienta você pelas etapas de configuração de NVMe sobre adaptadores RDMA. ConfigurandoNVMe sobre adaptadores RDMA (http://link.brightcove.com/services/player/bcpid2296383276001? bctid=ref:video_nvme_rdma) Procedimentos 1 Exibir Adaptadores de Rede RDMA Depois de instalar um adaptador de rede que suporte RDMA (RoCE v2) no host ESXi, use vSphere Client para revisar o adaptador RDMA e um adaptador de rede físico. 2 Configurar VMkernel Binding para o adaptador RDMA A associação de portas para NVMe sobre RDMA envolve a criação de um switch e a conexão do adaptador de rede física e do adaptador VMkernel ao switch. Por meio dessa conexão, o adaptador RDMA fica vinculado ao adaptador VMkernel. Na configuração, você pode usar um switch padrão do vSphere ou um switch distribuído do vSphere. Próximo passo Depois de habilitar o software NVMe sobre o adaptador RDMA, adicione controladores NVMe, para que o host possa descobrir os destinos NVMe. Consulte o Adicionar controlador para NVMe sobre telas. Exibir Adaptadores de Rede RDMA Depois de instalar um adaptador de rede que suporte RDMA (RoCE v2) no host ESXi, use vSphere Client para revisar o adaptador RDMA e um adaptador de rede físico. Procedimentos 1 No seu host ESXi, instale um adaptador que suporte RDMA (RoCE v2), por exemplo, Família Mellanox Tecnologias MT27700 ConnectX-4. O host descobre o adaptador e o vSphere Client exibe seus dois componentes, um adaptador RDMA e um adaptador de rede físico. 2 No vSphere Client, verifique se o adaptador RDMA foi descoberto pelo seu host. a Navegue até o host. b Clique na guia Configurar (Configure). vSphere Storage VMware, Inc. Traduzido automaticamente 185 http://link.brightcove.com/services/player/bcpid2296383276001?bctid=ref:video_nvme_rdma http://link.brightcove.com/services/player/bcpid2296383276001?bctid=ref:video_nvme_rdma c Em Rede (Networking), clique em Adaptadores RDMA (RDMA adapters). Neste exemplo, o adaptador RDMA aparece na lista como vmrdma0. A coluna Uplink emparelhado exibe o componente de rede como o adaptador de rede físico vmnic1. d Para verificar a descrição do adaptador, selecione o adaptador RDMA na lista e clique na guia Propriedades (Properties). Próximo passo Agora você pode criar o adaptador de software NVMe sobre RDMA. Configurar VMkernel Binding para o adaptador RDMA A associação de portas para NVMe sobre RDMA envolve a criação de um switch e a conexão do adaptador de rede física e do adaptador VMkernel ao switch. Por meio dessa conexão, o adaptador RDMA fica vinculado ao adaptador VMkernel. Na configuração, você pode usar um switch padrão do vSphere ou um switch distribuído do vSphere. O diagrama a seguir exibe a associação de portas para o adaptador NVMe sobre RDMA. vSphere Storage VMware, Inc. Traduzido automaticamente 186 vmhba35 vmnic1 vmrdma0RDMA Network Storage vmhba36 vmnic2 vmrdma1 Storage Multi-path / HPP Initiator on IP Subnet-1 Initiator on IP Subnet-2 Alias Bindings Para obter mais informações sobre a criação de switches, consulte Create a vSphere Standard Switch ou Create a vSphere Distributed Switch na documentação do Rede do vSphere . Exemplo de topologia de rede com NVMe sobre RDMA Neste exemplo, dois switches padrão vSphere e dois uplinks (NICs compatíveis com RDMA) fornecem alta disponibilidade. Eles se conectam a dois pares de controladores em duas sub- redes. vSphere Storage VMware, Inc. Traduzido automaticamente 187 HA com vários vSwitches e vários Uplinks (RNICs) TARGET NVME- FABRICS (RDMA) 192.168.50.100 C0 192.168.51.100 C1 192.168.50.200 C0 192.168.51.200 C1 vmrdma1vmrdma0 vmnic1 vmnic2vmnic1 vmnic2 External Switch 1 Subnet-0 Subnet-1 External Switch 2 PG2 192.168.51.x vSwitch 2 ESXi portgroup/ vmknic vmnic/ vmrdma PG1 192.168.50x vSwitch 1 vmhba Paths vmhba1 vmk1 vmhba2 vmk2 4 Paths= 2 NICs (\w 2 vSwitches) x 2 Controller pairs (in 2 Subnets) Subnet-0 Subnet-1 Configurar VMkernel Binding com um switch vSphere Standard Você pode configurar a associação de porta VMkernel para o adaptador RDMA usando um switch padrão do vSphere e um uplink por switch. Configurar a conexão de rede envolve a criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 1: 1 entre cada adaptador de rede virtual e físico. vSphere Storage VMware, Inc. Traduzido automaticamente 188 Procedimentos 1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede. a No vSphere Client, selecione seu host e clique na guia Redes (Networks). b Clique em Actions (Actions) > Add Networking (Add Networking). c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT (NEXT). d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT). e Em Adaptadores atribuídos (Assigned adapters), clique em + (+). A lista de adaptadores físicos disponíveis é exibida. f Selecione o adaptador físico necessário vmnic e clique em OK (OK). Observação Certifique-se de selecionar o adaptador de rede física que corresponde ao adaptador RDMA. Para ver a associação entre o adaptador RDMA vmrdma e o adaptador de rede física vmnic, consulte Exibir Adaptadores de Rede RDMA. g Em VMkernel port settings (VMkernel port settings), insira os valores necessários. Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN. h Na lista de configurações de IP (IP settings), insira as configurações de IPv4 do VMkernel. i Em Serviços disponíveis, selecione NVMe sobre RDMA (NVMe over RDMA). vSphere Storage VMware, Inc. Traduzido automaticamente 189 2 Verifique se o switch está configurado corretamente. a Na guia Configurar (Configure), selecione Comutadores virtuais (Virtual switches) em Rede (Networking). b Expanda o switch e verifique sua configuração. A ilustração mostra que o adaptador de rede física e o adaptador VMkernel estão conectados ao comutador padrão do vSphere. Por meio dessa conexão, o adaptador RDMA é vinculado ao adaptador VMkernel. 3 Verifique a configuração da associação VMkernel para o adaptador RDMA. a Na lista Rede (Networking), clique em Adaptadores RDMA (RDMA adapters) e selecione o adaptador RDMA na lista. b Clique na guia VMkernel adaptters binding (VMkernel adapters binding) e verifique se o adaptador VMkernel associado aparece na página. Neste exemplo, o adaptador RDMA vmrdma0 está emparelhado com o adaptador de rede vmnic1 e está conectado ao adaptador VMkernel vmk1. vSphere Storage VMware, Inc. Traduzido automaticamente 190 Configurar VMkernel Binding com um vSphere Standard switch e NIC Teaming Você pode configurar a associação de porta VMkernel para o adaptador RDMA usando um switch padrão do vSphere com a configuração de agrupamento de NIC. Você pode usar o agrupamento de NIC para obter redundância de rede. Você pode configurar dois ou mais adaptadores de rede (NICs) como uma equipe para alta disponibilidade e balanceamento de carga. Procedimentos 1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede com a configuração de agrupamento de NIC. a No vSphere Client, selecione seu host e clique na guia Redes (Networks). b Clique em Actions (Actions) > Add Networking (Add Networking). c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT (NEXT). d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT). e Em Adaptadores atribuídos (Assigned adapters), clique em + (+). Uma lista de adaptadores físicos disponíveis é exibida. f Selecione o adaptador físico necessário vmnic e adicione-o em Adaptadores ativos (Active adapters). g Selecione outro adaptador físico vmnic e adicione-o em Adaptadores não utilizados (Unused adapters). h Em VMkernel port settings (VMkernel port settings), insira os valores necessários. Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN. i Na lista de configurações de IP (IP settings), especifique as configurações IPv4 do VMkernel. j Em Serviços disponíveis, selecione NVMe sobreRDMA (NVMe over RDMA). Repita a etapa 1 para configurar um switch padrão existente. 2 Configure seu switch para a configuração de agrupamento de NIC . a Clique na guia Configurar (Configure) e selecione Comutadores virtuais (Virtual switches) em Rede (Networking). b Selecione o adaptador VMkernel apropriado. c No menu do botão direito do mouse, clique em Edit Settings (Edit Settings). d Selecione Teaming and Failover (Teaming and Failover). e Em Adaptadores ativos (Active adapters), mova o adaptador físico necessário vmnic. f Em adaptadores em espera (Standby adapters) > Ordem de failover (Failover order), mova os outros adaptadores físicos. vSphere Storage VMware, Inc. Traduzido automaticamente 191 g Defina o balanceamento de carga apropriado e outras propriedades. h Repita as etapas para configurar adaptadores VMkernel adicionais. 3 Repita as etapas 1 e 2 para adicionar e configurar um conjunto adicional de rnic s agrupados. Para verificar se o adaptador está configurado, clique na guia Configurar (Configure) e selecione Adaptadores VMkernel (VMkernel adapters) Configurar VMkernel Binding com um vSphere Distributed Switch Você pode configurar a associação de porta VMkernel para o adaptador RDMA usando um switch distribuído do vSphere e um uplink por switch. Configurar a conexão de rede envolve a criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 1: 1 entre cada adaptador de rede virtual e físico. Procedimentos 1 Crie um switch distribuído do vSphere com um adaptador VMkernel e o componente de rede. a No vSphere Client, selecione Datacenter (Datacenter) e clique na guia Redes (Networks). b Clique em Actions (Actions) e selecione Distributed Switch (Distributed Switch) > New Distributed Switch (New Distributed Switch). c Selecione um nome para o switch. Certifique-se de que a localização do centro de dados esteja presente no seu host e clique em Próximo (Next). d Selecione a versão do ESXi como 7.0.0 e posterior (7.0.0 and later) e clique em Avançar (Next). e Insira o número necessário de uplinks e clique em Concluir (Finish). 2 Adicione um ou mais hosts ao switch virtual distribuído. a No vSphere Client, selecione Datacenter (Datacenter) e clique em Distributed Switches (Distributed Switches). É apresentada uma lista de DSwitches disponíveis. b Clique com o botão direito do mouse no DSwitch e selecione Add and Manage Hosts (Add and Manage Hosts) no menu. c Selecione Adicionar hosts (Add hosts) e clique em Avançar (Next). d Selecione seu host e clique em Avançar (Next). e Selecione Atribuir uplink (Assign uplink). f Insira o uplink relevante para atribuir o vmnic. g Atribua um adaptador VMkernel e clique em Avançar (Next). h No vSphere Client, selecione o DSwitch e clique na guia Portas (Ports). Você pode visualizar os uplinks criados para o seu switch aqui. vSphere Storage VMware, Inc. Traduzido automaticamente 192 3 Crie grupos de portas distribuídas para o caminho de armazenamento NVMe sobre RDMA. a No vSphere Client, selecione o DSwitch necessário. b Clique em Actions (Actions) e selecione Distributed Port Group (Distributed Port Group) > New Distributed Port Group (New Distributed Port Group). c Em Definir configurações (Configure Settings), insira as propriedades gerais do grupo de portas. Se você tiver configurado uma VLAN específica, adicione-a ao ID da VLAN. Observação Podem ocorrer problemas de conectividade de rede se você não configurar a VLAN corretamente. 4 Configure os adaptadores VMkernel. a No vSphere Client, expanda a lista DSwitch (DSwitch) e selecione o grupo de portas distribuídas. b Clique em Actions (Actions) > Add VMkernel Adapters (Add VMkernel Adapters). c Na caixa de diálogo Select Member Hosts (Select Member Hosts), selecione seu host e clique em OK (OK). d Na caixa de diálogo Configure VMkernel Adapter (Configure VMkernel Adapter), certifique-se de que o MTU corresponda ao Switch MTU. e Em Serviços disponíveis (Available services), selecione NVMe sobre RDMA (NVMe over RDMA) para a marcação apropriada. f Clique em Concluir(Finish). g Repita a etapa be etapa c para adicionar várias NICs compatíveis com RDMA. 5 Defina políticas de agrupamento de NIC para os grupos de portas distribuídas. a No Distributed Port Group (Distributed Port Group), clique em Actions (Actions) > Edit Settings (Edit Settings). b Clique em Teaming and Failover (Teaming and Failover) e verifique os uplinks ativos. c Atribua um uplink como Ativo (Active) para o grupo de portas e o outro uplink como Não utilizado (Unused). Repita a etapa c para cada um dos grupos de portas criados. Próximo passo Depois de concluir a configuração, clique em Configurar (Configure) e verifique se a guia do adaptador físico no host lista o DVSwitch para as NICs selecionadas. vSphere Storage VMware, Inc. Traduzido automaticamente 193 Configurar adaptadores para NVMe sobre armazenamento TCP O processo de configuração do adaptador no host ESXi envolve a configuração da associação VMkernel para um adaptador de rede TCP e, em seguida, a ativação de um software para NVMe sobre adaptador TCP. Próximo passo Depois de ativar o software para NVMe sobre adaptador TCP, adicione controladores NVMe para que o host possa descobrir os destinos NVMe. Para obter mais informações, consulte Adicionar controlador para NVMe sobre telas. Configurar VMkernel Binding para o adaptador TCP A associação de portas para NVMe sobre TCP envolve a criação de um switch virtual e a conexão do adaptador de rede física e do adaptador VMkernel ao vswitch. Por meio dessa conexão, o adaptador TCP fica vinculado ao adaptador VMkernel. Na configuração, você pode usar um switch padrão do vSphere ou um switch distribuído do vSphere. O diagrama a seguir exibe a associação de porta para o adaptador NVMe sobre TCP. vmhba35 vmnic1Network Storage vmhba36 vmnic2 Storage Multi-path / HPP Initiator on IP Subnet-1 Initiator on IP Subnet-2 Alias Bindings Para obter mais informações sobre a criação de switches, consulte Create a vSphere Standard Switch ou Create a vSphere Distributed Switch na documentação do Rede do vSphere . Exemplo de topologia de rede com NVMe sobre TCP Neste exemplo, dois switches padrão vSphere e dois uplinks fornecem alta disponibilidade. Eles se conectam a dois pares de controladores em duas sub-redes. vSphere Storage VMware, Inc. Traduzido automaticamente 194 TARGET NVME- TCP/IP 192.168.50.100 C0 192.168.51.100 C1 192.168.50.200 C0 192.168.51.200 C1 vmnic1 vmnic2 External Switch 1 Subnet-0 Subnet-1 External Switch 2 PG2 192.168.51.x vSwitch 2 ESXi portgroup/ vmknic vmnic PG1 192.168.50x vSwitch 1 vmhba Paths vmhba1 vmk1 vmhba2 vmk2 4 Paths= 2 NICs (\w 2 vSwitches) x 2 Controller pairs (in 2 Subnets) Subnet-0 Subnet-1 Configurar VMkernel Binding para o adaptador TCP com um switch vSphere Standard Você pode configurar a associação de porta VMkernel para o adaptador TCP usando um switch padrão do vSphere e um uplink por switch. Configurar a conexão de rede envolve a criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 1: 1 entre cada adaptador de rede virtual e físico. vSphere Storage VMware, Inc. Traduzido automaticamente 195 Procedimentos 1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede. a No vSphere Client, selecione seu host e clique na guia Redes (Networks). b Clique em Actions (Actions) > Add Networking (Add Networking). c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT (NEXT). d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT). e Em Adaptadores atribuídos (Assigned adapters), clique em + (+). A lista de adaptadores físicos disponíveis é exibida. f Selecione o adaptador físico necessário vmnic e clique em OK (OK). Observação Certifique-se de selecionar o adaptador de rede física que correspondeao adaptador TCP / IP. g Em VMkernel port settings (VMkernel port settings), insira os valores necessários. Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN. h Na lista de configurações de IP (IP settings), insira as configurações de IPv4 do VMkernel. i Em Available services (Available services), selecione NVMe over TCP (NVMe over TCP) para a marcação apropriada. 2 Verifique se o switch está configurado corretamente. a Na guia Configurar (Configure), selecione Comutadores virtuais (Virtual switches) em Rede (Networking). b Expanda o switch e verifique sua configuração. A ilustração mostra que o adaptador de rede física e o adaptador VMkernel estão conectados ao comutador padrão do vSphere. Por meio dessa conexão, o adaptador TCP é vinculado ao adaptador VMkernel. vSphere Storage VMware, Inc. Traduzido automaticamente 196 Configurar VMkernel Binding para o adaptador TCP com um vSphere Standard Switch e NIC Teaming Você pode configurar a associação de porta VMkernel para o adaptador TCP usando um switch padrão do vSphere com a configuração de agrupamento de NIC. Você pode usar o agrupamento de NIC para obter redundância de rede. Você pode configurar dois ou mais adaptadores de rede (NICs) como uma equipe para alta disponibilidade. Procedimentos 1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede com a configuração de agrupamento de NIC. a No vSphere Client, selecione seu host e clique na guia Redes (Networks). b Clique em Actions (Actions) > Add Networking (Add Networking). c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT (NEXT). d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT). e Em Adaptadores atribuídos (Assigned adapters), clique em + (+). Uma lista de adaptadores físicos disponíveis é exibida. f Selecione o adaptador físico necessário vmnic e adicione-o em Adaptadores ativos (Active adapters). g Selecione outro adaptador físico vmnic e adicione-o em Adaptadores não utilizados (Unused adapters). h Em VMkernel port settings (VMkernel port settings), insira os valores necessários. Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN. i Na lista de configurações de IP (IP settings), especifique as configurações IPv4 do VMkernel. j Em Available services (Available services), selecione NVMe over TCP (NVMe over TCP) para a marcação apropriada. Repita a etapa 1 para configurar um switch padrão existente. 2 Configure seu switch para a configuração de agrupamento de NIC . a Clique na guia Configurar (Configure) e selecione Comutadores virtuais (Virtual switches) em Rede (Networking). b Selecione o adaptador VMkernel apropriado. c No menu do botão direito do mouse, clique em Edit Settings (Edit Settings). d Selecione Teaming and Failover (Teaming and Failover). e Em Adaptadores ativos (Active adapters), mova o adaptador físico necessário vmnic. vSphere Storage VMware, Inc. Traduzido automaticamente 197 f Em adaptadores em espera (Standby adapters) > Ordem de failover (Failover order), mova os outros adaptadores físicos. g Defina o balanceamento de carga apropriado e outras propriedades. h Repita as etapas para configurar adaptadores VMkernel adicionais. 3 Repita as etapas 1 e 2 para adicionar e configurar um conjunto adicional de rnic s agrupados. Para verificar se o adaptador está configurado, clique na guia Configurar (Configure) e selecione Adaptadores VMkernel (VMkernel adapters) Configurar VMkernel Binding para o adaptador TCP com um vSphere Distributed Switch Você pode configurar a associação de porta VMkernel para o adaptador TCP usando um switch distribuído do vSphere e um uplink por switch. Configurar a conexão de rede envolve a criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 1: 1 entre cada adaptador de rede virtual e físico. Procedimentos 1 Crie um switch distribuído do vSphere com um adaptador VMkernel e o componente de rede. a No vSphere Client, selecione Datacenter (Datacenter) e clique na guia Redes (Networks). b Clique em Actions (Actions) e selecione Distributed Switch (Distributed Switch) > New Distributed Switch (New Distributed Switch). c Selecione um nome para o switch. Certifique-se de que a localização do centro de dados esteja presente no seu host e clique em Próximo (Next). d Selecione a versão do ESXi como ESXi 7.0 e posterior e clique em Next (Next). e Insira o número necessário de uplinks e clique em Concluir (Finish). 2 Adicione um ou mais hosts ao switch virtual distribuído. a No vSphere Client, selecione Datacenter (Datacenter) e clique em Distributed Switches (Distributed Switches). É apresentada uma lista de DSwitches disponíveis. b Clique com o botão direito do mouse no DSwitch e selecione Add and Manage Hosts (Add and Manage Hosts) no menu. c Selecione Adicionar hosts (Add hosts) e clique em Avançar (Next). d Selecione seu host e clique em Avançar (Next). e Selecione Atribuir uplink (Assign uplink). f Insira o uplink relevante para atribuir o vmnic. vSphere Storage VMware, Inc. Traduzido automaticamente 198 g Atribua um adaptador VMkernel e clique em Avançar (Next). h No vSphere Client, selecione o DSwitch e clique na guia Portas (Ports). Você pode visualizar os uplinks criados para o seu switch aqui. 3 Crie grupos de portas distribuídas para o caminho de armazenamento NVMe sobre RDMA. a No vSphere Client, selecione o DSwitch necessário. b Clique em Actions (Actions) e selecione Distributed Port Group (Distributed Port Group) > New Distributed Port Group (New Distributed Port Group). c Em Definir configurações (Configure Settings), insira as propriedades gerais do grupo de portas. Se você tiver configurado uma VLAN específica, adicione-a ao ID da VLAN. Observação Podem ocorrer problemas de conectividade de rede se você não configurar a VLAN corretamente. 4 Configure os adaptadores VMkernel. a No vSphere Client, expanda a lista DSwitch (DSwitch) e selecione o grupo de portas distribuídas. b Clique em Actions (Actions) > Add VMkernel Adapters (Add VMkernel Adapters). c Na caixa de diálogo Select Member Hosts (Select Member Hosts), selecione seu host e clique em OK (OK). d Na caixa de diálogo Configure VMkernel Adapter (Configure VMkernel Adapter), certifique-se de que o MTU corresponda ao Switch MTU. e Clique em Concluir(Finish). f Repita a etapa be etapa c para adicionar várias NICs compatíveis com RDMA. 5 Defina políticas de agrupamento de NIC para os grupos de portas distribuídas. a No Distributed Port Group (Distributed Port Group), clique em Actions (Actions) > Edit Settings (Edit Settings). b Clique em Teaming and Failover (Teaming and Failover) e verifique os uplinks ativos. c Atribua um uplink como Ativo (Active) para o grupo de portas e o outro uplink como Não utilizado (Unused). Repita a etapa c para cada um dos grupos de portas criados. Próximo passo Depois de concluir a configuração, clique em Configurar (Configure) e verifique se a guia do adaptador físico no host lista o DVSwitch para as NICs selecionadas. vSphere Storage VMware, Inc. Traduzido automaticamente 199 Habilitar NVMe sobre RDMA e adaptadores de software TCP O ESXi oferece suporte a adaptadores de software NVMe sobre RDMA e TCP. Use o vSphere Client para habilitar o software para NVMe sobre RDMA e adaptador de armazenamento TCP. Pré-requisitos No host do ESXi, instale um adaptador que ofereça suporte aos seguintes tipos de armazenamento. n NVMe sobre adaptador RDMA. Por exemplo, Mellanox Technologies MT27700 Family ConnectX-4. n NVMe sobre adaptador TCP. Por exemplo, i40en. Configure a associação VMkernel para o adaptador RDMA. Para obter mais informações, consulte Exibir Adaptadores de Rede RDMA. Você deve configurar a associação VMkernel para o adaptador TCP. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar(Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e clique no ícone Adicionar Adaptador de Software (Add Software Adapter). 4 Selecione o tipo de adaptador conforme necessário. n Adaptador NVMe sobre RDMA (NVMe over RDMA adapter) n Adaptador NVMe sobre TCP (NVMe over TCP adapter) 5 Dependendo da sua seleção na etapa 4, selecione um adaptador RDMA apropriado ou um adaptador de rede TCP (vmnic) no menu suspenso. Observação Se você receber uma mensagem de erro que o impede de criar o software NVMe sobre o adaptador RDMA, certifique-se de que a associação VMkernel para o adaptador RDMA esteja configurada corretamente. Para obter mais informações, consulte Exibir Adaptadores de Rede RDMA. Resultados Os adaptadores de software NVMe sobre RDMA e TCP aparecem na lista como um adaptador de armazenamento vmhba. Você poderá remover o adaptador se precisar liberar o adaptador de rede RDMA e TCP subjacente para outros fins. vSphere Storage VMware, Inc. Traduzido automaticamente 200 Adicionar controlador para NVMe sobre telas Use o vSphere Client para adicionar um controlador NVMe. Depois de adicionar o controlador, os namespaces NVMe associados ao controlador se tornam disponíveis para o host do ESXi. Os dispositivos de armazenamento NVMe que representam os namespaces no ambiente do ESXi aparecem na lista de dispositivos de armazenamento. Se você usar o armazenamento NVMe sobre RDMA (RoCE v2), deverá adicionar um controlador depois de configurar um adaptador de software NVMe sobre RDMA. Se você usar o armazenamento NVMe sobre TCP, deverá adicionar um controlador depois de configurar um adaptador NVMe sobre TCP de software. Com o armazenamento FC-NVMe, depois de instalar o adaptador necessário, ele se conecta automaticamente a todos os destinos que são acessíveis no momento. Posteriormente, você pode reconfigurar o adaptador e desconectar seus controladores ou conectar outros controladores que não estavam disponíveis durante a inicialização do host. Pré-requisitos Certifique-se de que o seu host do ESXi tenha adaptadores apropriados para o seu tipo de armazenamento. Consulte o Requisitos e limitações do VMware armazenamento NVMe. Procedimentos 1 No vSphere Client, navegue até o host ESXi. 2 Clique na guia Configurar (Configure). 3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage Adapters) e selecione o adaptador (vmhba #) a ser configurado. 4 Clique na guia Controllers (Controllers) e clique em Add Controller (Add Controller). vSphere Storage VMware, Inc. Traduzido automaticamente 201 5 Para adicionar o controlador, selecione uma das seguintes opções e clique em Adicionar (Add). Opção Descrição Descobrir controladores automaticamente Esse método indica que seu host pode aceitar uma conexão com qualquer controlador disponível. a Especifique o seguinte parâmetro para um controlador de descoberta. n Para NVMe sobre RDMA (RoCE v2), o endereço IP e o número da porta de transporte. n Para NVMe sobre TCP, o endereço IP, o número da porta de transporte e o parâmetro de resumo. b Clique em Discover Controllers (Discover Controllers). c Na lista de controladores, selecione o controlador a ser usado. Insira os detalhes do controlador manualmente Com esse método, seu host solicita uma conexão com um controlador específico com os seguintes parâmetros: n Subsistema NQN n Identificação da porta de destino. Para NVMe sobre RDMA (RoCE v2), o endereço IP e o número da porta de transporte (opcional). Para FC- NVMe, o WorldWideNodeName e WorldWidePortName. n Para NVMe sobre TCP, o endereço IP, o número da porta de transporte (opcional) e o parâmetro de resumo (opcional). n Tamanho da fila do administrador. Um parâmetro opcional que especifica o tamanho da fila de administração do controlador. Um valor padrão é 16. n Tempo limite do Keepalive. Um parâmetro opcional para especificar em segundos o tempo limite de keep alive entre o adaptador e o controlador. Um valor de tempo limite padrão é 60 segundos. n Tamanho da fila de E / S e Número da fila de E / S. Parâmetros opcionais que podem ser definidos apenas por meio do esxcli. Resultados O controlador aparece na lista de controladores. Seu host agora pode descobrir os namespaces NVMe que estão associados ao controlador. Os dispositivos de armazenamento NVMe que representam os namespaces no ambiente do ESXi aparecem na lista de dispositivos de armazenamento no vSphere Client. Remover NVMe sobre RDMA e adaptadores de software TCP Use o vSphere Client para remover NVMe sobre RDMA e adaptadores de software TCP. Você poderá remover o adaptador se precisar liberar o adaptador RDMA subjacente ou o adaptador ethernet para outros fins. Não é possível remover os adaptadores NVMe sobre PCIe e FC-NVMe. Procedimentos 1 No vSphere Client, navegue até o host ESXi. vSphere Storage VMware, Inc. Traduzido automaticamente 202 2 Clique na guia Configurar (Configure). 3 Em Storage (Storage), clique em Storage Adapters (Storage Adapters) e selecione o adaptador (vmhba#) a ser removido. 4 Remova o controlador NVMe conectado ao adaptador. a Clique na guia Controllers (Controllers). b Selecione o controlador e clique em Remover (Remove). O controlador NVMe é desconectado e desaparece da lista. 5 Clique no ícone Remove (Remove) (Remove the host's storage adapter) para remover o adaptador NVMe sobre RDMA ou o adaptador NVMe sobre TCP. vSphere Storage VMware, Inc. Traduzido automaticamente 203 Trabalhando com repositórios de dados 17 Os repositórios de dados são contêineres lógicos, análogos aos sistemas de arquivos, que ocultam especificações de armazenamento físico e fornecem um modelo uniforme para o armazenamento de arquivos de máquinas virtuais. Os repositórios de dados também podem ser usados para armazenar imagens ISO, modelos de máquina virtual e imagens de disquete. Este capítulo inclui os seguintes tópicos: n Tipos de datastores n Noções básicas sobre repositórios de dados VMFS n Atualizando repositórios de dados VMFS n Noções básicas sobre repositórios de dados do sistema de arquivos de rede n Criação de repositórios de dados n Gerenciando repositórios de dados VMFS duplicados n Aumentar a capacidade do repositório de dados VMFS n Habilitar ou desabilitar o suporte para discos virtuais clusterizados no datastore VMFS6 n Operações administrativas para datastores n Configurar o espelhamento de disco dinâmico n Coletando informações de diagnóstico para ESXi hosts em um datastore VMFS n Verificando a consistência dos metadados com o VOMA n Configurando o cache de blocos de ponteiros do VMFS Tipos de datastores Dependendo do armazenamento que você usa, os datastores podem ser de diferentes tipos. vCenter Server e ESXi oferecem suporte aos seguintes tipos de datastores. VMware, Inc. Traduzido automaticamente 204 Tabela 17-1. Tipos de datastores Tipo de datastore Descrição VMFS (versão 5 e 6) Os datastores que você implanta em dispositivos de armazenamento em bloco usam o formato vSphere Virtual Machine File System (VMFS). VMFS é um formato de sistema de arquivos de alto desempenho que é otimizado para o armazenamento de máquinas virtuais. Consulte Noções básicas sobre repositórios de dados VMFS. NFS (versão 3 e 4.1) Um cliente NFS integrado ao ESXi usa o protocolo Network File System (NFS) sobre TCP / IP para acessar um volume NFS designado. O volume está localizado em um servidor NAS. O host ESXi monta o volume como um armazenamento de dados NFS e o usa para necessidades de armazenamento. O ESXi oferece suporte às versões 3 e 4.1 do protocolo NFS. Consulte Noções básicas sobre repositórios de dados do sistema de arquivos de rede vSAN vSAN agrega todos os dispositivos de capacidade locais disponíveis nos hosts em um único datastore compartilhado por todos os hosts no cluster vSAN. Consulte a documentação do Administrando VMware vSAN . vVol vVols datastore representa umcontêiner de armazenamento em vCenter Server e vSphere Client. Consulte Capítulo 22 Trabalhando com VMware vSphere Virtual Volumes (vVols). Dependendo do seu tipo de armazenamento, algumas das tarefas a seguir estão disponíveis para os datastores. n Crie datastores. Você pode usar o vSphere Client para criar certos tipos de datastores. n Realize operações administrativas nos datastores. Várias operações, como renomear um datastore, estão disponíveis para todos os tipos de datastores. Outros se aplicam a tipos específicos de datastores. n Organize os datastores. Por exemplo, você pode agrupá-los em pastas de acordo com as práticas de negócios. Depois de agrupar os armazenamentos de dados, você pode atribuir as mesmas permissões e alarmes nos armazenamentos de dados no grupo de uma só vez. n Adicione os datastores a clusters de datastore. Um cluster de datastore é uma coleção de datastores com recursos compartilhados e uma interface de gerenciamento compartilhada. Ao criar o cluster de armazenamento de dados, você pode usar o Storage DRS para gerenciar recursos de armazenamento. Para obter informações sobre clusters de armazenamento de dados, consulte a documentação do Gerenciamento de Recursos do vSphere . vSphere Storage VMware, Inc. Traduzido automaticamente 205 Noções básicas sobre repositórios de dados VMFS Para armazenar discos virtuais, ESXi usa repositórios de dados. Os repositórios de dados são contêineres lógicos que ocultam especificações de armazenamento físico das máquinas virtuais e fornecem um modelo uniforme para armazenar os arquivos da máquina virtual. Os repositórios de dados que você implanta em dispositivos de armazenamento de bloco usam o formato nativo do vSphere Virtual Machine File System (VMFS). É um formato de sistema de arquivos de alto desempenho especial que é otimizado para armazenar máquinas virtuais. Use vSphere Client para configurar o repositório de dados VMFS com antecedência no dispositivo de armazenamento baseado em bloco que seu host ESXi descobrir. O repositório de dados VMFS pode ser estendido para abranger vários dispositivos de armazenamento físico que incluem LUNs de SAN e armazenamento local. Esse recurso permite pool de armazenamento e oferece flexibilidade na criação do repositório de dados necessário para suas máquinas virtuais. Você pode aumentar a capacidade do repositório de dados enquanto as máquinas virtuais estão em execução no repositório de dados. Essa capacidade permite que você adicione novo espaço aos seus repositórios de dados VMFS conforme sua máquina virtual exige. O VMFS é projetado para acesso simultâneo de várias máquinas físicas e impõe os controles de acesso apropriados nos arquivos da máquina virtual. Versões dos repositórios de dados VMFS Várias versões do sistema de arquivos VMFS foram lançadas desde a sua introdução. Atualmente, ESXi é compatível com VMFS5 e VMFS6. Para todas as versões compatíveis do VMFS, ESXi oferece suporte completo de leitura e gravação. Nos repositórios de dados VMFS compatíveis, você pode criar e ligar máquinas virtuais. Tabela 17-2. Acesso do host a versões do VMFS VMFS ESXi VMFS6 Ler e gravar VMFS5 Ler e gravar A tabela a seguir compara as principais características do VMFS5 e do VMFS6. Para obter informações adicionais, consulte Máximos de configuração . Tabela 17-3. Comparando VMFS5 e VMFS6 Recursos e funcionalidades VMFS5 VMFS6 Acesso para ESXi hosts versão 6.5 e posteriores Sim Sim Acesso para ESXi hosts versão 6.0 e anteriores Sim Não Datastores por host 512 512 512n dispositivos de armazenamento Sim Sim (padrão) vSphere Storage VMware, Inc. Traduzido automaticamente 206 Tabela 17-3. Comparando VMFS5 e VMFS6 (continuação) Recursos e funcionalidades VMFS5 VMFS6 512e dispositivos de armazenamento Sim. Não compatível com dispositivos 512e locais. Sim (padrão) Dispositivos de armazenamento 4Kn Não Sim Recuperação automática de espaço Não Sim Recuperação manual de espaço por meio do comando esxcli. Consulte Recuperar manualmente o espaço de armazenamento acumulado. Sim Sim Recuperação de espaço do SO convidado Limitado Sim Particionamento de dispositivo de armazenamento GPT Sim Sim Particionamento de dispositivo de armazenamento MBR Sim Para um repositório de dados VMFS5 que foi atualizado anteriormente do VMFS3. Não Dispositivos de armazenamento com mais de 2 TB para cada extensão VMFS Sim Sim Suporte para máquinas virtuais com discos virtuais de grande capacidade ou discos com mais de 2 TB Sim Sim Suporte para arquivos pequenos de 1 KB Sim Sim Uso padrão de mecanismos de bloqueio somente do ATS em dispositivos de armazenamento compatíveis com ATS. Consulte Mecanismos de bloqueio do VMFS. Sim Sim Tamanho do bloco Padrão 1 MB Padrão 1 MB Instantâneos padrão VMFSsparse para discos virtuais menores que 2 TB. SEsparse para discos virtuais maiores que 2 TB. SEsparse Tipo de emulação de disco virtual 512n 512n vMotion Sim Sim Storage vMotion em diferentes tipos de repositórios de dados Sim Sim Alta disponibilidade e tolerância a falhas Sim Sim DRS e DRS de armazenamento Sim Sim RDM Sim Sim vSphere Storage VMware, Inc. Traduzido automaticamente 207 Ao trabalhar com repositórios de dados VMFS, considere o seguinte: n Extensões do repositório de dados. Um repositório de dados VMFS estendido deve usar apenas dispositivos de armazenamento homogêneos, 512n, 512e ou 4Kn. O datastore estendido não pode se estender por dispositivos de diferentes formatos. n Tamanho do bloco. O tamanho do bloco em um repositório de dados VMFS define o tamanho máximo do arquivo e a quantidade de espaço que um arquivo ocupa. Os repositórios de dados VMFS5 e VMFS6 oferecem suporte ao tamanho do bloco de 1 MB. n Storage vMotion. Storage vMotion oferece suporte à migração entre repositórios de dados VMFS, vSAN e vVols. vCenter Server executa verificações de compatibilidade para validar Storage vMotion em diferentes tipos de repositórios de dados. n Armazenamento DRS. O VMFS5 e o VMFS6 podem coexistir no mesmo cluster de repositório de dados. No entanto, todos os repositórios de dados no cluster devem usar dispositivos de armazenamento homogêneos. Não misture dispositivos de diferentes formatos no mesmo cluster de repositório de dados. n Formatos de partição de dispositivo. Qualquer novo repositório de dados VMFS5 ou VMFS6 usa a tabela de partição GUID (GPT) para formatar o dispositivo de armazenamento. O formato GPT permite criar repositórios de dados maiores que 2 TB. Se o seu datastore VMFS5 tiver sido atualizado anteriormente do VMFS3, ele continuará a usar o formato de partição do registro de inicialização mestre (MBR), que é característico do VMFS3. A conversão para GPT ocorre somente depois que você expande o datastore para um tamanho maior que 2 TB. Repositórios de dados VMFS como repositórios O ESXi pode formatar dispositivos de armazenamento baseados em SCSI como repositórios de dados VMFS. Os repositórios de dados VMFS servem principalmente como repositórios de máquinas virtuais. Observação Sempre tenha apenas um repositório de dados VMFS para cada LUN. Você pode armazenar várias máquinas virtuais no mesmo repositório de dados VMFS. Cada máquina virtual, encapsulada em um conjunto de arquivos, ocupa um único diretório separado. Para o sistema operacional dentro da máquina virtual, o VMFS preserva a semântica do sistema de arquivos interno, o que garante o comportamento correto do aplicativo e a integridade dos dados para aplicativos em execução em máquinas virtuais. Quando você executa várias máquinas virtuais, o VMFS fornece mecanismos de bloqueio específicos para os arquivos da máquina virtual. Como resultado, as máquinas virtuais podem operar com segurança em um ambiente SAN onde vários ESXi hosts compartilham o mesmo repositório de dados VMFS. Além das máquinas virtuais, os repositórios de dados VMFS podem armazenar outros arquivos, como os modelos de máquina virtual e as imagens