Buscar

Capítulo 9 - Enthernet

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 51 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 51 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 51 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

4 
 
Ethernet 
 
 
Até este momento no curso, cada capítulo se concentrou nas diferentes funções de cada camada dos modelos de OSI e TCP/IP, bem 
como em de que forma os protocolos são utilizados para suportar a comunicação de rede. Diversos protocolos essenciais - TCP, UDP e IP 
- são continuamente mencionados nessas discussões porque fornecem a base de funcionamento das menores redes, bem como a maior 
delas, a Internet. Esses protocolos compõem a pilha de protocolos TCP/IP e como a Internet foi construída usando tais protocolos, a 
Ethernet agora é a tecnologia LAN predominante no mundo. 
 
A Internet Engineering Task Force (IETF) mantém os protocolos e serviços funcionais para o conjunto de protocolos TCP/IP nas 
camadas superiores. No entanto, os protocolos e serviços funcionais na camada de Enlace de Dados e Física do OSI são descritos por 
várias organizações de engenharia (IEEE, ANSI, ITU) ou por empresas privadas (protocolos proprietários). Como a Ethernet é composta 
de padrões nessas camadas inferiores, generalizando, ela pode ser melhor compreendida em referência ao modelo OSI. O modelo OSI 
separa as funcionalidades da camada de Enlace de Dados de endereçamento, estruturação e acesso ao meio físico, dos padrões da 
camada Física. Os padrões Ethernet definem os protocolos da Camada 2 e das tecnologias da Camada 1. Embora as especificações Ether-
net suportam meios físicos diferentes, larguras de banda diferentes e outras variações das Camadas 1 e 2, o formato básico de estrutura 
e esquema de endereço é o mesmo para todas as variedades da Ethernet. 
 
Este capítulo examina as características e operação Ethernet à medida que ela evoluiu de uma tecnologia de comunicação de 
dados de meio físico compartilhado com base em contenção para a tecnologia full-duplex de alta largura de banda atual. 
 
Objetivos 
 Ao concluir este capítulo, você poderá: 
 Descrever a evolução da Ethernet 
 Explicar os campos do Quadro Ethernet 
 Descrever a função e as características do método de controle de acesso à meio utilizado pelo protocolo Ethernet 
 Descrever os recursos da camada Física e de Enlace de Dados da Ethernet 
 Comparar e contrastar hubs e switches Ethernet 
 Explicar o Address Resolution Protocol (ARP)1 
 
 
 
 
 
 
 
 
 
Padrão IEEE 
 
A primeira LAN do mundo foi a versão original da Ethernet. Robert Metcalfe e seus colegas da Xerox a projetaram há mais de 30 anos. O 
primeiro padrão Ethernet foi publicado em 1980 por um consórcio da Digital Equipment Corporation, Intel e Xerox (DIX). Metcalfe queria 
que a Ethernet fosse um padrão compartilhado com o qual todos pudessem se beneficiar e, portanto, ela foi lançada como um padrão 
aberto. Os primeiros produtos desenvolvidos no padrão Ethernet foram vendidos no início da década de 80. 
 
 
1 Protocolo de Resolução de Endereço. É um método para encontrar o endereço do hardware do host quando só se conhece seu endereço da camada de 
rede. usado principalmente para converter endereços IP em endereços MAC Ethernet. 
9.0.1 INTRODUÇÃO AO CAPÍTULO 
9.1.1 ETHERNET – PADRÕES E IMPLANTAÇÕES 
5 
 
Em 1985, o comitê de padrões do Institute of Electrical and Electronics Engineers (Instituto de Engenharia Elétrica e Eletrônica 
- IEEE) para Redes Locais e Metropolitanas publicou padrões para LANs. Tais padrões começam com o número 802. O padrão para a 
Ethernet é 802.3. O IEEE desejava garantir que seus padrões fossem compatíveis com os da International Standards Organization (ISO) e 
o modelo OSI. Para garantir a compatibilidade, os padrões IEEE 802.3 tinham que atender às necessidades da Camada 1 e da parte inferior 
da Camada 2 do modelo OSI. Como resultado, algumas pequenas modificações no padrão Ethernet original foram feitas no 802.3. 
 
A Ethernet opera nas duas camadas inferiores do modelo OSI: a camada de Enlace de Dados e a camada Física. 
 
 
 
 
 
 
 
A Ethernet opera nas duas camadas do modelo OSI. O modelo oferece uma referência à qual a Ethernet pode ser relacionada, mas é 
realmente implementado na metade inferior da camada de Enlace de Dados, conhecida como sub-camada Media Access Control (Con-
trole de Acesso ao Meio - MAC), e apenas na camada Física. 
 
A Ethernet na Camada 1 envolve sinais, fluxos de bits que trafegam no meio, componentes físicos que colocam sinais no meio 
e várias topologias. A Camada 1 da Ethernet desempenha um papel essencial na comunicação que ocorre entre dispositivos, mas cada 
uma de suas funções tem limitações. 
 
Como a figura mostra, a Ethernet na Camada 2 aborda essas limitações. As sub-camadas de Enlace de Dados contribuem con-
sideravelmente para a compatibilidade tecnológica e a comunicação entre computadores. A sub-camada MAC se relaciona com os com-
ponentes físicos que serão utilizados para comunicar as informações e prepara os dados para transmissão pela meio físico. 
 
A sub-camada Logical Link Control (Controle de Link Lógico - LLC) continua relativamente independente dos equipamentos 
físicos que serão utilizados para o processo de comunicação. 
 
9.1.2 ETHERNET – CAMADA 1 E CAMADA 2 
6 
 
 
 
 
A Ethernet separa as funções da camada de Enlace de Dados em duas sub-camadas diferentes: a sub-camada de Controle de Link Lógico 
(LLC) e a sub-camada de Controle de Acesso ao Meio (MAC). As funções descritas no modelo OSI para a camada de Enlace de Dados são 
atribuídas às sub-camadas LLC e MAC. O uso dessas sub-camadas contribui consideravelmente para a compatibilidade entre diversos 
dispositivos finais. 
 
Para Ethernet, o padrão IEEE 802.2 descreve as funções da sub-camada LLC e o padrão 802.3 descreve a sub-camada MAC e as 
funções da camada Física. O Controle de Link Lógico lida com a comunicação entre as camadas superiores e o software de rede, e as 
camadas inferiores, tipicamente o hardware. A sub-camada LLC pega os dados do protocolo de rede, normalmente um pacote IPv4, e 
adiciona informações de controle para ajudar a entregar o pacote no nó de destino. A camada 2 se comunica com as camadas superiores 
através do LLC. 
 
O LLC é implementado em software, e sua implementação é independente dos equipamentos físicos. Em um computador, o 
LLC pode ser considerado como sendo o driver da Placa de Interface de Rede (Network Interface Card - NIC). O driver NIC é um programa 
que interage diretamente com o hardware na NIC para transferir os dados entre o meio físico e a sub-camada de Controle de Acesso ao 
Meio. 
 
http://standards.ieee.org/getieee802/download/802.2-1998.pdf 
http://standards.ieee.org/regauth/llc/llctutorial.html 
http://www.wildpackets.com/support/compendium/reference/sap_numbers 
 
 
 
 
 
 
 
O Controle de Acesso ao Meio (MAC) é a sub-camada Ethernet mais inferior da camada de Enlace de Dados. O Controle de Acesso ao 
Meio é implementado pelo hardware, tipicamente na Placa de Interface de Rede (NIC). 
 
A sub-camada MAC Ethernet tem duas responsabilidades principais: 
 Encapsulamento de Dados 
 Controle de Acesso ao Meio 
 
Encapsulamento de Dados 
 
O encapsulamento de dados fornece três funções principais: 
 Delimitação de quadros 
 Endereçamento 
 Detecção de erros 
9.1.3 LOGICAL LINK CONTROL (CONTROLE DE LINK LÓGICO) – CONEXÃO ÀS CAMADAS SUPERIORES 
9.1.4 MAC – ENTREGANDO DADOS AO MEIO FÍSICO 
7 
 
O processo de encapsulamento de dados inclui a montagem de quadros antes da transmissão e a análise de quadros em seu 
recebimento. Ao formar o quadro, a camada MAC adiciona um cabeçalho e um trailer à PDU da Camada 3. O uso de quadros ajuda na 
transmissão de bits, pois eles são colocados no meio e no agrupamentode bits no nó receptor. 
 
O processo de enquadramento oferece delimitadores importantes que são utilizados para identificar um grupo de bits que 
compõe um quadro. Este processo oferece sincronização entre os nós transmissores e receptores. 
 
O processo de encapsulamento também fornece endereçamento da camada de Enlace de Dados. Cada cabeçalho Ethernet 
adicionado ao quadro contém o endereço físico (endereço MAC) que permite que um quadro seja entregue a um nó de destino. 
 
Uma função adicional do encapsulamento de dados é a detecção de erros. Cada quadro Ethernet contém um trailer com veri-
ficação de redundância cíclica (CRC) do conteúdo do quadro. Depois do recebimento de um quadro, o nó receptor cria uma CRC para 
comparar com a que está no quadro. Se esses dois cálculos de CRC corresponderem, é possível ter certeza de que o quadro foi recebido 
sem erros. 
 
O Controle de Acesso ao Meio Físico 
 
A sub-camada MAC controla a colocação e a remoção de quadros do meio. Como o nome diz, ela gerencia o controle de acesso ao meio. 
Isso inclui o início da transmissão de quadros e a recuperação de falha na transmissão devido a colisões. 
 
Topologia Lógica 
 
A topologia lógica subjacente da Ethernet é um barramento multiacesso. Isso significa que todos os nós (dispositivos) naquele segmento 
de rede compartilham o meio. Isso também significa que todos os nós naquele segmento recebem todos os quadros transmitidos por 
qualquer nó. 
 
Como todos os nós recebem todos os quadros, cada nó precisa determinar se um quadro deve ser aceito e processado por tal 
nó. Isso exige um exame do endereçamento no quadro fornecido pelo endereço MAC. 
 
A Ethernet fornece um método para determinar como os nós compartilham o acesso ao meio. O método de controle de acesso 
ao meio para a Ethernet clássica é o Carrier Sense Multiple Access with Collision2 Detection (CSMA/CD). Este método está descrito mais 
adiante no capítulo. 
 
http://standards.ieee.org/regauth/groupmac/tutorial.html 
 
 
 
 
 
 
 
A maioria do tráfego na Internet se origina e termina com conexões Ethernet. Desde seu início na década de 70, a Ethernet evoluiu para 
atender à crescente demanda por LANs de alta velocidade. Quando o meio de fibra óptica foi introduzido, a Ethernet se adaptou a essa 
nova tecnologia para aproveitar a largura de banda superior e a baixa taxa de erro que a fibra oferece. Hoje, o mesmo protocolo que 
transportava dados a 3 Mbps pode levar dados a 10 Gbps. 
 
O sucesso da Ethernet se deve aos seguintes fatores: 
 Simplicidade e facilidade de manutenção 
 
2 Colisão. Na Ethernet, o resultado de dois nós transmitindo simultaneamente. O quadro de cada dispositivo sofrem colisão e são danificados quando se 
encontram no meio físico. 
9.1.5 IMPLANTAÇÕES FÍSICAS ETHERNET 
8 
 
 Capacidade de incorporar novas tecnologias 
 Confiabilidade 
 Baixo custo de instalação e atualização 
 
A introdução da Gigabit Ethernet levou a tecnologia LAN original para distâncias que fazem da Ethernet uma Metropolitan Area 
Network (MAN)3 e um padrão WAN. 
 
Como uma tecnologia associada à camada Física, a Ethernet especifica e implementa esquemas de codificação e decodificação 
que possibilitam que bits de quadros sejam transportados como sinais pelo meio. Os dispositivos Ethernet utilizam uma ampla gama de 
especificações de cabos e conectores. 
 
Nas redes atuais, a Ethernet utiliza cabos de cobre UTP e fibra óptica para interconectar dispositivos de rede via dispositivos 
intermediários, como hubs e switches. Com todos os diversos tipos de meio físico que a Ethernet suporta, a estrutura de quadros Ethernet 
continua consistente em todas as suas implementações físicas. É por esse motivo que ela pode evoluir para atender às exigências atuais 
de rede. 
 
 
 
 
 
 
 
 
 
 
A base para a tecnologia Ethernet foi estabelecida pela primeira vez em 1970, com um programa chamado Alohanet. Alohanet era uma 
rede de rádio digital projetada para transmitir informações por uma frequência de rádio compartilhada entre as ilhas do Havaí. 
 
 
3 Rede de Área Metropolitana. É uma rede que abrange uma cidade. A rede consiste em vários prédios interconectados por backbones sem fio ou de fibra 
ótica. 
9.2.1 HISTÓRIA DA INTERNET 
9 
 
A Alohanet exigia que todas as estações seguissem um protocolo no qual uma transmissão não reconhecida precisasse de 
retransmissão após um curto período de espera. As técnicas para utilizar um meio compartilhado desta forma foram aplicadas mais tarde 
à tecnologia cabeada no formato Ethernet. 
 
A Ethernet foi projetada para acomodar múltiplos computadores interconectados em uma topologia de barramento comparti-
lhado. 
 
A primeira versão Ethernet incorporava um método de acesso ao meio conhecido como Carrier Sense Multiple Access with 
Collision Detection (CSMA/CD). O CSMA/CD gerenciava os problemas que resultavam quando os diversos dispositivos tentavam se co-
municar em um meio físico compartilhado. 
 
Primeiros Meios Ethernet 
 
As primeiras versões Ethernet usavam cabo coaxial para conectar computadores em uma topologia de barramento. Cada computador 
era diretamente conectado ao backbone. Essas versões iniciais da Ethernet eram conhecidas como Thicknet (10BASE5) e Thinnet 
(10BASE2). 
 
A 10BASE5, ou Thicknet, utilizava um cabo coaxial grosso que permitia distâncias de cabeamento de até 500 metros antes que 
o sinal precisasse de um repetidor. A 10BASE2, ou Thinnet, usava um cabo coaxial fino de diâmetro menor e mais flexível do que a 
Thicknet e que permitia distâncias de cabeamento de 185 metros. 
 
A capacidade de migrar a implementação original da Ethernet para implementações atuais e futuras se baseia na estrutura 
praticamente intocada do quadro da Camada 2. Os Meios físicos, o acesso ao meio e o controle do meio evoluíram e continuam evolu-
indo. No entanto, o cabeçalho e o trailer do quadro Ethernet permaneceram essencialmente constantes. 
 
As primeiras implementações Ethernet foram feitas em um ambiente LAN de baixa largura de banda, onde o acesso aos meios 
compartilhados era gerenciado por CSMA e, mais tarde, CSMA/CD. Além de ser uma topologia de barramento lógica na camada de Enlace 
de Dados, a Ethernet também usava uma topologia de barramento física. Esta topologia se tornou mais problemática à medida que as 
LANs aumentaram e os serviços demandavam cada vez mais infraestrutura. 
 
Os meios físicos de cabo coaxial grosso e fino foram substituídos pelas primeiras categorias de cabos UTP. Comparados com os 
cabos coaxiais, os cabos UTP eram mais fáceis de trabalhar, leves e mais baratos. 
 
A topologia física também foi alterada para uma topologia de estrela usando hubs. Os hubs concentram as conexões. Em outras 
palavras, eles pegam um grupo de nós e permitem que a rede os veja como uma só unidade. Quando o quadro chega em uma porta, é 
copiado para as outras portas para que todos os segmentos na LAN recebam o quadro. Utilizar o hub nesta topologia de barramento 
aumentou a confiabilidade da rede a permitir que qualquer cabo falhe sem interromper toda a rede. No entanto, a repetição do quadro 
para todas as outras portas não resolveu o problema de colisões. Mais adiante neste capítulo, você verá como os problemas com colisões 
na rede Ethernet são gerenciados com a introdução de switches na rede. 
 
10 
 
 
 
 
 
 
 
 
Ethernet Legada 
 
Em redes 10BASE-T, o ponto central do segmento de rede normalmente era um hub. Isso criou um meio compartilhado. Como o meio é 
compartilhado, apenasuma estação pode transmitir com sucesso de cada vez. Este tipo de conexão é descrito como comunicação half-
duplex . 
 
À medida que mais dispositivos eram adicionados a uma rede Ethernet, a quantidade de colisões de quadros aumentou consi-
deravelmente. Durante períodos de baixa atividade de comunicação, as poucas colisões que ocorrem são gerenciadas pelo CSMA/CD, 
com pouco ou nenhum impacto no desempenho. No entanto, à medida que o número de dispositivos e o consequente tráfego de dados 
cresce, o aumento das colisões pode ter impacto considerável no trabalho dos usuários. 
 
Uma boa analogia é quando saímos para o trabalho ou para a escola de manhã, as ruas estão relativamente vazias e sem 
congestionamento. Mais tarde, quando há mais carros na rua, pode haver colisões e o tráfego fica mais lento. 
 
Ethernet Atual 
 
Um desenvolvimento significativo que aprimorou o desempenho da LAN foi a introdução de switches para substituir os hubs 
em redes Ethernet. Este desenvolvimento corresponde bastante com o da Ethernet 100BASE-TX. Os switches podem controlar o fluxo 
de dados ao isolar cada porta e enviar um quadro apenas a seu destino adequado (se este for conhecido), em vez de enviar cada quadro 
a cada dispositivo. 
 
O switch reduz o número de dispositivos que recebe cada quadro, o que, por sua vez, diminui ou minimiza a possibilidade de 
colisões. Isso, e a introdução posterior das comunicações full-duplex (ter uma conexão que possa transmitir e receber sinais ao mesmo 
tempo), permitiu o desenvolvimento da Ethernet 1 Gbps. 
9.2.2 GERENCIAMENTO DE COLISÕES NA REDE ETHERNET 
11 
 
 
 
 
 
 
 
As aplicações que atravessam links de rede diariamente pesam até mesmo para as redes mais robustas. Por exemplo, o crescente uso de 
Voz sobre IP (VoIP) e serviços multimídia exigem conexões mais rápidas do que a Ethernet 100 Mbps. 
 
A Gigabit Ethernet é utilizada para descrever implementações Ethernet que fornecem largura de banda de 1000 Mbps (1 Gbps) 
ou mais. Esta capacidade foi incluída na capacidade full-duplex e nas tecnologias UTP e meios de fibra óptica da Ethernet anterior. 
 
9.2.3 MUDANÇAS PARA 1 GBPS 
12 
 
O aumento no desempenho da rede é considerável quando a possível taxa de transferência passa de 100 Mbps para 1 Gbps e além. 
 
Fazer atualização para a Ethernet 1 Gbps nem sempre significa que a atual infraestrutura de rede de cabos e switches tem que 
ser completamente substituída. Alguns equipamentos e cabeamentos em redes modernas, bem projetadas e bem instaladas podem ser 
capazes de operar a velocidades mais altas com atualizações mínimas. Esta capacidade tem o benefício de reduzir o custo total de pro-
priedade da rede. 
 
 
 
A Ethernet Além da LAN 
 
As maiores distâncias de cabeamento permitidas pelo uso de cabo de fibra óptica em redes baseadas em Ethernet resultou em uma 
menor distinção entre LANs e WANs. A Ethernet inicialmente era limitadas a sistemas de cabos LAN dentro de um só edifício e, depois, 
estendeu-se entre edifícios. Agora, ela pode ser aplicada em uma cidade, no que é conhecido como Rede de Área Metropolitana (MAN). 
 
 
 
 
 
 
 
 
 
13 
 
 
 
 
 
A estrutura de quadros Ethernet adiciona cabeçalhos e trailers à PDU da Camada 3 para encapsular as mensagens enviadas. 
 
O cabeçalho e o trailer Ethernet têm várias seções de informação utilizadas pelo protocolo Ethernet. Cada seção do quadro é 
chamada de campo. Há dois estilos de enquadramento Ethernet: IEEE 802.3 (original) e o revisado, IEEE 802.3 (Ethernet). 
 
As diferenças entre os estilos de enquadramento são mínimas. A diferença mais significativa entre o IEEE 802.3 (original) e o 
IEEE 802.3 revisado é a adição de um Start Frame Delimiter (Delimitador de Início de Quadro - SFD) e uma pequena mudança no campo 
Tipo para incluir Comprimento, como mostrado na figura. 
 
Tamanho do Quadro Ethernet 
 
O padrão original Ethernet definia o tamanho mínimo de quadro como 64 bytes e o máximo como 1518 bytes. Isso incluía todos os bytes 
do campo Endereço MAC de Destino até o campo Frame Check Sequence (Sequência de Verificação de Quadro - FCS). Os campos Preâm-
bulo e Delimitador de Início de Quadro não são incluídos quando se descreve o tamanho de um quadro. O padrão IEEE 802.3ac, emitido 
em 1998, ampliou o tamanho máximo permitido do quadro para 1522 bytes. O tamanho do quadro aumentou para acomodar uma 
tecnologia chamada Rede Local Virtual (VLAN)4. As VLANs são criadas dentro de uma rede comutada e serão apresentadas em um curso 
posterior. 
 
Se o tamanho de um quadro transmitido for inferior ao mínimo ou superior ao máximo, o dispositivo receptor descarta o 
quadro. Quadros descartados provavelmente são o resultado de colisões ou outros sinais indesejados e, portanto, são considerados 
inválidos. 
 
 
 
 
Campos Preâmbulo e Delimitador de Início de Quadro 
 
Os campos Preâmbulo (7 bytes) e Delimitador de Início de Quadro (SFD) (1 byte) são utilizados para sincronização entre os dispositivos 
emissor e receptor. Esses primeiros oito bytes do quadro são utilizados para chamar a atenção dos nós receptores. Essencialmente, os 
primeiros bytes dizem aos receptores para se prepararem para receber um novo quadro. 
 
Campo Endereço MAC de Destino 
 
 
4 Rede de computadores que se comportam como se estivessem conectados ao mesmo segmento de rede embora possam estar fisicamente localizados 
em segmentos diferentes de LAN. VLAN são configuradas por softwares no switch e no roteador. 
9.3.1 O QUADRO – ENCAPSULAMENTO DO PACOTE 
14 
 
O campo Endereço MAC de Destino (6 bytes) é o identificador para o receptor pretendido. Como você lembrará, este endereço é utilizado 
pela Camada 2 para auxiliar os dispositivos a determinar se um quadro é endereçado a eles. O endereço no quadro é comparado ao 
endereço MAC do dispositivo. Se houver correspondência, o dispositivo aceitará o quadro. 
 
Campo Endereço MAC de Origem 
 
O campo Endereço MAC de Origem (6 bytes) identifica a NIC ou interface de origem do quadro. Switches também utilizam este endereço 
para adicionar a suas tabelas de busca. A função dos switches será discutida mais adiante no capítulo. 
Campo Comprimento/Tipo 
 
O campo Comprimento/Tipo (2 bytes) define o comprimento exato do campo de dados do quadro. Isso é utilizado posteriormente como 
parte do FCS para garantir que a mensagem tenha sido recebida adequadamente. Um comprimento ou campo pode ser inserido aqui. 
No entanto, apenas um ou outro pode ser utilizado em uma determinada implementação. Se o propósito do campo é designar um tipo, 
o campo Tipo descreve que protocolo está implementado. 
 
O campo rotulado Comprimento/Tipo era listado apenas como Comprimento nas primeiras versões do IEEE e apenas como 
tipo na versão DIX. Esses dois usos do campo foram oficialmente combinados em uma versão posterior do IEEE porque ambos eram 
comuns. O campo Tipo da Ethernet II é incorporado na definição atual de quadro do 802.3. Ethernet II é o formato de quadro Ethernet 
utilizado em redes TCP/IP. Quando um nó recebe um quadro, deve examinar o campo Comprimento/Tipo para determinar que protocolo 
de camada superior está presente. Se o valor do octeto dois for igual ou superior a 0x0600 hexadecimal ou 1536 decimal, o conteúdo do 
Campo de Dados é decodificado de acordo com o protocolo indicado. 
 
Campos de Dados e Enchimento 
 
Os campos de Dados e Enchimento (46 a 1500 bytes) contêm os dados encapsulados de um nível superior, que é uma PDU genérica da 
Camada 3 ou, mais comumente, um pacote IPv4. Todos os quadros devem ter pelo menos 64 bytes de comprimento. Se um pacote 
pequenofor encapsulado, o Enchimento é utilizado para aumentar o tamanho do quadro até o mínimo. 
 
 
 
Campo Sequência de Verificação de Quadro 
 
O campo Sequência de Verificação de Quadro (FCS) (4 bytes) é utilizado para detectar erros em um quadro. Ele utiliza uma verificação 
de redundância cíclica (CRC). O dispositivo emissor inclui os resultados de uma CRC no campo FCS do quadro. 
 
O dispositivo receptor recebe o quadro e gera uma CRC para buscar erros. Se o cálculo corresponder, não houve erro. Cálculos 
que não correspondem são uma indicação de que os dados mudaram; portanto, o quadro é abandonado. Uma alteração nos dados pode 
ser resultado de interrupção dos sinais elétricos que representam os bits. 
 
15 
 
 
 
 
 
 
 
 
Inicialmente, a Ethernet foi implementada como parte de uma topologia de barramento. Cada dispositivo de rede era conectado ao 
mesmo meio compartilhado. Com baixo tráfego ou em redes pequenas, essa era uma implementação aceitável. O principal problema a 
ser resolvido era como identificar cada dispositivo. O sinal pode ser enviado para cada dispositivo, mas como cada dispositivo identifi-
caria se era o receptor pretendido da mensagem? 
 
Um identificador exclusivo chamado de endereço de Controle de Acesso ao Meio (MAC) foi criado para ajudar a determinar o 
endereço de origem e destino em uma rede Ethernet. Independentemente da variedade de Ethernet utilizada, a convenção de denomi-
nação forneceu um método para identificação do dispositivo em um nível inferior do modelo OSI. 
 
Como você lembrará, o endereçamento MAC é adicionado como parte de uma PDU da Camada 2. Um endereço MAC Ether-
net é um valor binário de 48 bits expresso como 12 dígitos hexadecimais. 
 
 
 
Estrutura de Endereços MAC 
 
O valor do endereço MAC é um resultado direto de regras impostas pelo IEEE a fornecedores para garantir endereços globalmente ex-
clusivos para cada dispositivo Ethernet. As regras estabelecidas pelo IEEE exigiam que qualquer fornecedor que vendesse dispositivos 
Ethernet fosse registrado no IEEE. O IEEE atribui ao fornecedor um código de 3 bytes, chamado Organizationally Unique Identifier (Iden-
tificador Organizacionalmente Exclusivo - OUI). 
 
O IEEE exige que um fornecedor siga duas regras simples: 
 Todos os endereços MAC atribuídos a uma NIC ou outro dispositivo Ethernet devem utilizar o OUI atribuído ao fornecedor 
como os primeiros 3 bytes. 
 Todos os endereços MAC com o mesmo OUI devem receber um valor exclusivo (código do fornecedor ou número de série) nos 
últimos 3 bytes. 
9.3.2 ENDEREÇO MAC ETHERNET 
16 
 
O endereço MAC frequentemente é mencionado como burned-in address (endereço gravado - BIA) porque é gravado na ROM 
(Read-Only Memory - Memória Somente de Leitura) na NIC. Isso significa que o endereço é codificado no chip da ROM permanentemente 
- não pode ser alterado por software. 
 
No entanto, quando o computador inicializa, a NIC copia o endereço para a RAM5. Ao examinar quadros, o endereço na RAM é 
utilizado como endereço de origem para comparação com o endereço de destino. O endereço MAC é utilizado pela NIC para determinar 
se uma mensagem deve passar para as camadas superiores para processamento. 
 
Dispositivos de rede 
 
Quando o dispositivo de origem encaminhar a mensagem a uma rede Ethernet, as informações do cabeçalho dentro do endereço MAC 
de destino são anexadas. O dispositivo de origem envia os dados pela rede. Cada NIC na rede visualiza as informações para ver se o 
endereço MAC corresponde a seu endereço físico. Se não houver correspondência, o dispositivo descartará o quadro. Quando o quadro 
chega ao destino onde o MAC da NIC corresponde ao MAC de destino do quadro, a NIC passa o quadro para as camadas OSI, onde o 
processo de desencapsulamento ocorre. 
 
Todos os dispositivos conectados a uma LAN Ethernet têm interfaces com endereços MAC. Diferentes fabricantes de hardware 
e software podem representar o endereço MAC em diferentes formatos hexadecimais. Os formatos de endereço podem ser semelhantes 
a 00-05-9A-3C-78-00, 00:05:9A:3C:78:00 ou 0005.9A3C.7800. Os endereços MAC são atribuídos a estações de trabalho, servidores, im-
pressoras, switches e roteadores - qualquer dispositivo que deva originar e/ou receber dados na rede. 
 
 
 
 
 
 
 
 
Numeração Hexadecimal 
 
Hexadecimal ("Hex") é uma forma conveniente de representar valores binários. Assim como o decimal é um sistema de numeração 
com base dez e o binário é base dois, hexadecimal é um sistema de base 16. 
 
O sistema de numeração de base 16 utiliza números de 0 a 9 e letras de A a F. A figura mostra os valores equivalentes deci-
mais, binários e hexadecimais para 0000 a 1111 (binários). É mais fácil para nós expressar um valor como um único dígito hexadecimal 
do que como quatro bits. 
 
 
5 A Memória de Acesso Aleatório é um tipo de memória de computador que pode ser acessada aleatoriamente; quer dizer, qualquer byte de memória 
pode ser acessado sem se preocupar com os bytes anteriores. Essa é a memória disponível aos programas. Quando um computador é desligado, todos os 
dados armazenados na RAM são perdidos. Por isso, ela é considerada uma memória volátil, pois para processar e armazenar informações, ela necessita 
está eletrizada. 
9.3.3 NUMERAÇÃO HEXADECIMAL E ENDEREÇAMENTO 
17 
 
Compreensão de Bytes 
 
Como 8 bits (um byte) é um agrupamento binário comum, 00000000 a 11111111 (binários) podem ser representados em hexadecimal 
como a faixa 00 a FF. Zeros na frente são sempre exibidos para completar a representação de 8 bits. Por exemplo, o valor binário 0000 
1010 é exibido em hexadecimal como 0A. 
 
Representação de Valores Hexadecimais 
 
Nota: É importante diferenciar valores hexadecimais de valores decimais com relação aos caracteres de 0 a 9, como mostrado na fi-
gura. 
 
Hexadecimal é normalmente representado no texto pelo valor precedido por 0x (por exemplo 0x73) ou um 16 subscrito. Menos comu-
mente, pode ser seguido por um H, por exemplo 73H. No entanto, como o texto subscrito não é reconhecido em ambientes de linha de 
comando ou programação, a representação técnica do hexadecimal é precedida de "0x" (zero X). Portanto, os exemplos acima seriam 
mostrados respectivamente como 0x0A e 0x73. 
 
O Hexadecimal é utilizado para representar endereços MAC Ethernet e endereços IP Versão 6. Você viu o hexadecimal utili-
zado no painel de Byte de Pacotes do Wireshark onde o utilizamos para representar os valores binários dentro de quadros e pacotes. 
 
Conversões Hexadecimais 
 
As conversões de números entre valores decimais e hexadecimais são diretas, mas dividir ou multiplicar rapidamente por 16 nem sem-
pre é conveniente. Se tais conversões forem necessárias, geralmente é mais fácil converter o valor decimal ou hexadecimal para binário 
e, depois, converter o valor binário para decimal ou hexadecimal como adequado. 
 
Com prática, é possível reconhecer os padrões de bits binários que correspondem aos valores decimal e hexadecimal. A figura 
mostra esses padrões para valores de 8 bits selecionados. 
 
 
 
Visualização do MAC 
 
Uma ferramenta para examinar o endereço MAC do nosso computador é o ipconfig /all ou ipconfig. No gráfico, observe o 
endereço MAC deste computador. Se você tem acesso, poderá tentar isso em seu computador. 
 
Você pode querer pesquisar o OUI do endereço MAC para determinar o fabricante da sua NIC. 
18 
 
 
 
 
 
 
 
 
Camada de Enlace de Dados 
 
O endereçamento físico da camada de Enlace de Dados (Camada 2) do modelo OSI, implementado como um endereço MAC Ethernet, éutilizado para transportar o quadro pelo meio local. Embora forneçam endereços de host exclusivos, endereços físicos não são hierár-
quicos. Eles são associados a um dispositivo em particular independentemente de sua localização ou a qual rede está conectado. 
 
Esses endereços de Camada 2 não têm significado fora do meio da rede local. Um pacote pode ter de atravessar várias tecno-
logias de Enlace de Dados diferentes em redes de área local e WAN antes de chegar a seu destino. Um dispositivo de origem, portanto, 
não conhece a tecnologia utilizada em redes intermediárias e de destino ou seu endereçamento de Camada 2 e estruturas de quadro. 
 
Camada de Rede 
 
Os endereços da camada de rede (Camada 3), como endereços IPv4, fornecem o endereço generalizado e lógico entendido na origem e 
no destino. Para chegar a seu eventual destino, um pacote leva o endereço da Camada 3 de destino desde sua origem. No entanto, 
como é enquadrado pelos diferentes protocolos da camada de Enlace de Dados ao longo do caminho, o endereço de Camada 2 que ele 
recebe se aplica apenas à parte local do trajeto e seu meio. 
 
Resumindo: 
 O endereço da camada de Rede permite que o pacote seja encaminhado a seu destino. 
 O endereço da camada de Enlace de Dados possibilita que o pacote seja levado pelo meio local através de cada segmento. 
 
 
 
9.3.4 OUTRA CAMADA DE ENDEREÇAMENTO 
19 
 
 
 
 
Na Ethernet, diferentes endereços MAC são utilizados para comunicação em unicast, multicast, e broadcast da Camada 2. 
 
Unicast 
 
Um endereço MAC unicast (ponto-a-ponto) é o endereço exclusivo utilizado quando um quadro é enviado de um único dispositivo 
transmissor para um único dispositivo de destino. 
 
No exemplo mostrado na figura, um host com endereço IP 192.168.1.5 (origem) solicita uma página Web do servidor no en-
dereço IP 192.168.1.200. Para que um pacote unicast seja enviado e recebido, um endereço IP de destino deve estar no cabeçalho do 
pacote IP. Um endereço MAC de destino correspondente também deve estar presente no cabeçalho do quadro Ethernet. O endereço 
IP e o endereço MAC combinam para entregar dados a um host de destino específico. 
 
 
 
Broadcast 
 
Com o broadcast, o pacote contém um endereço IP de destino que só possui 1s na parte de host. Esta numeração no endereço significa 
que todos os hosts naquela rede local (domínio de broadcast) receberão e processarão o pacote. Muitos protocolos de rede, como o 
Dynamic Host Configuration Protocol (DHCP) e o Address Resolution Protocol (ARP), utilizam broadcasts. O modo como o ARP utiliza os 
broadcasts para mapear endereços da Camada 2 e Camada 3 será discutido posteriormente neste capítulo. 
 
Como mostrado na figura, um endereço IP de broadcast para uma rede necessita de um endereço MAC de broadcast corres-
pondente no quadro Ethernet. Em redes Ethernet, o endereço MAC de broadcast possui 48 números 1 exibidos como Hexadecimal FF-
FF-FF-FF-FF-FF. 
 
 
 
 
 
9.3.5 UNICAST, MULTICAST E BROADCAST NA ETHERNET 
20 
 
Multicast 
 
Lembre-se que endereços multicast permitem que um dispositivo de origem envie um pacote a um grupo de dispositivos. Dispositivos 
que pertencem a um grupo multicast recebem um endereço IP de grupo de multicast. A gama de endereços multicast vai de 224.0.0.0 
a 239.255.255.255. Como endereços multicast representam um grupo de endereços (às vezes chamado de grupo de hosts), eles só 
podem ser utilizados como destino de um pacote. A origem sempre terá um endereço unicast. 
 
Exemplos de onde endereços multicast seriam utilizados estão em jogos remotos, onde muitos jogadores se conectam remo-
tamente mas jogam o mesmo jogo, e o ensino à distância por videoconferência, onde muitos alunos estão conectados à mesma aula. 
 
Assim como endereços unicast e broadcast, o endereço IP de multicast exige um endereço MAC de multicast correspondente 
para realmente entregar quadros em uma rede local. O endereço MAC de multicast é um valor especial que começa com 01-00-5E em 
hexadecimal. O valor termina ao converter os 23 bits inferiores do endereço IP do grupo multicast nos 6 caracteres hexadecimais res-
tantes do endereço Ethernet. O bit restante no endereço MAC é sempre "0". 
 
Um exemplo, como mostrado no gráfico, é o 01-00-5E-00-00-0A hexadecimal. Cada caractere hexadecimal possui 4 bits biná-
rios. 
 
http://www.iana.org/assignments/ethernet-numbers 
http://www.cisco.com/en/US/docs/app_ntwk_services/waas/acns/v51/configuration/central/guide/51ipmul.html 
http://www.cisco.com/en/US/docs/internetworking/technology/handbook/IP-Multi.html 
 
 
 
 
 
 
 
 
 
Em um ambiente de meio físico compartilhado, todos os dispositivos têm acesso garantido ao meio, mas nenhum possui prioridade 
sobre ele. Se mais de um dispositivo transmite simultaneamente, os sinais físicos colidem e a rede deve se recuperar para que a comu-
nicação continue. 
 
As colisões são o preço que a Ethernet paga para ter o processamento baixo associado a cada transmissão. 
 
A Ethernet utiliza Carrier Sense Multiple Access with Collision Detection (CSMA/CD) para detectar e tratar colisões e gerenciar 
a retomada da comunicação. 
 
Como todos os computadores que utilizam Ethernet enviam suas mensagens no mesmo meio físico, um esquema de distri-
buição coordenada (CSMA) é utilizado para detectar a atividade elétrica no cabo. Um dispositivo pode, então, determinar quando pode 
9.4.1 CONTROLE DE ACESSO AO MEIO NA ETHERNET 
21 
 
transmitir. Quando um dispositivo não detecta que algum outro computador esteja enviando um quadro, ou sinal de portadora, o dis-
positivo transmitirá, se houver algo a enviar. 
 
 
 
 
 
 
 
 
Verificação da Portadora 
 
No método de acesso CSMA/CD, todos os dispositivos de rede com mensagens a enviar devem ouvir antes de transmitir. Se um disposi-
tivo detectar um sinal de outro dispositivo, esperará um tempo especificado antes de tentar transmitir. 
 
Onde não há tráfego detectado, um dispositivo transmitirá sua mensagem. Enquanto essa transmissão ocorre, o dispositivo 
continua detectando tráfego ou colisões na LAN. Depois que a mensagem é enviada, o dispositivo retorna a seu modo 'ouvinte' padrão. 
 
Multiacesso 
 
Se a distância entre dispositivos é tal que a latência6 de sinais de um dispositivo significa que estes não são detectados por um segundo 
dispositivo, este também poderá começar a transmitir. O meio agora tem dois dispositivos transmitindo sinais ao mesmo tempo. Suas 
mensagens se propagarão pelo meio até se encontrarem. Neste ponto, os sinais se misturam e a mensagem é destruída. Embora as 
mensagens estejam corrompidas, o emaranhado de sinais restantes continua a se propagar pelo meio. 
 
Detecção de Colisões 
 
Quando um dispositivo está no modo ouvindo, ele pode detectar quando há uma colisão no meio físico compartilhado. A detecção de 
uma colisão é possibilitada porque todos os dispositivos podem detectar um aumento na amplitude do sinal acima do nível normal. 
 
Quando há uma colisão, os outros dispositivos no modo ouvindo - além de todos os dispositivos transmissores - detectarão o 
aumento na amplitude do sinal. Quando detectado, cada dispositivo transmissor continuará transmitindo para garantir que todos os 
dispositivos na rede detectem a colisão. 
 
Jam Signal e "backoff aleatório" 
 
Ao detectar uma colisão, os dispositivos de transmissão enviam um Jam Signal. O Jam Signal é usado para notificar os demais dispositi-
vos sobre uma colisão, de modo que um algoritmo de backoff7 seja invocado. Este algoritmo de backoff faz com que todos os dispositi-
vos parem de transmitir por um intervalo de tempo aleatório, o que permiteque os sinais de colisão sejam dissipados. 
 
6 É o atraso entre o momento em que um processo é iniciado e o momento em que os efeitos desse processo são detectados. Por exemplo, ao transmitir 
dados, a latência é o atraso necessário para que os dados sejam enviados entre o remetente e o receptor. 
7 Quando é detectada uma colisão, cada remetente inclui um atraso antes de transmitir. Cada remetente escolhe um atraso aleatório entre 0 e d (d é um 
valor padrão de atraso). Se ocorrer outra colisão, cada computado dobra o intervalo do qual o atraso é escolhido, quer dizer, o atraso aleatório passa a 
9.4.2 CSMA/CD – O PROCESSO 
22 
 
Após o término do intervalo, o dispositivo retornará ao modo de "espera para transmissão". O período de backoff aleatório 
assegura que os dispositivos envolvidos na colisão não tentem reenviar o mesmo tráfego ao mesmo tempo, o que poderia causar a 
repetição de todo o processo. No entanto, isso também significa que um terceiro dispositivo pode transmitir antes de qualquer um dos 
dois dispositivos envolvido na colisão original possam retransmitir. 
 
 
 
 
estar entre 0 e 2d. Se ocorrer outra colisão, o intervalo passa a estar em 0 a 4d, e assim por diante, ou seja, depois de cada colisão, o intervalo de atraso 
aleatório aumenta. 
23 
 
 
 
Hubs e domínios de colisão 
 
Considerando que as colisões poderão ocorrer em qualquer topologia de meio compartilhado, mesmo se o CSMA/CD for empregado, é 
preciso observar as condições que podem resultar no aumento das colisões. Devido ao rápido crescimento da Internet: 
 Um número maior de dispositivo são conectados à rede. 
 Os dispositivos acessam o meio físico de rede com mais frequência. 
 As distâncias entre os dispositivos aumentam a cada dia. 
 
Lembre-se de que os hubs foram criados como dispositivos de rede intermediários que permitem que mais nós sejam conec-
tados ao meio compartilhado. Também conhecidos como repetidores multiporta, os hubs retransmitem os sinais de dados recebidos a 
todos os dispositivos conectados, com exceção daquele que originou o sinal. Os hubs não são responsáveis por funções de rede, como 
transmitir dados baseado em endereços. 
 
Os hubs e repetidores são dispositivos intermediários que ampliam a distância de alcance dos cabos Ethernet. Uma vez que os 
hubs operam na camada física, processando somente os sinais do meio físico, as colisões podem ocorrer entre os dispositivos que co-
nectam e nos próprios hubs. 
 
Portanto, o uso de hubs para fornecer acesso de rede a um maior número de usuários reduz o desempenho por cada usuário, 
pois a capacidade fixa do meio deve ser compartilhada entre um número também maior de dispositivos. 
 
24 
 
Os dispositivos conectados que acessam um meio físico compartilhado por meio de um hub ou uma série de hubs diretamente 
conectados compõem o que chamamos de domínio de colisão8. O domínio de colisão também é conhecido como segmento de rede. Os 
hubs e repetidores contribuem para o aumento do tamanho do domínio de colisão. 
 
Conforme demonstrado na figura, a interconexão de hubs forma uma topologia física conhecida como estrela estendida. A 
topologia estrela estendida pode criar um grande domínio de colisão expandido. 
 
Um número elevado de colisões reduz a eficiência e desempenho da rede e se torna um aborrecimento ao usuário. 
 
Embora o CSMA/CD seja um sistema de gerenciamento de colisão de quadros, ele foi projetado para gerenciar as colisões de 
um número limitado de dispositivos apenas, e em redes com tráfego moderado. Portanto, outros mecanismos são exigidos para casos 
em que o número elevado de usuários solicitam acesso e quando um maior número de redes ativas for necessário. 
 
Veremos que o uso de switches em substituição aos hubs pode minimizar o problema. 
 
http://standards.ieee.org/getieee802/802.3.html 
 
 
 
 
 
 
 
 
A implementação de camadas físicas Ethernet mais velozes gera maior complexidade no gerenciamento das colisões. 
 
Latência 
 
Conforme discutido anteriormente, cada dispositivo que deseja transmitir deve primeiro "ouvir" o meio para verificar a presença de 
tráfego. Se não houve tráfego, a estação iniciará a transmissão imediatamente. O sinal elétrico que é transmitido leva algum tempo 
(latência) para se propagar (transportar-se) ao logo do cabo. Cada hub ou repetidor no caminho do sinal acrescenta latência à medida 
que encaminha os bits de uma porta à outra. 
 
Esse atraso acumulado aumenta a probabilidade de ocorrência de colisões, pois um nó de escuta pode mudar durante a 
transmissão dos sinais enquanto o hub ou repetidor estiver processando a mensagem. Uma vez que o sinal não atingiu o nó no estado 
de espera, ele reconhece o meio físico como disponível. Esta condição normalmente resulta em colisões. 
 
8 Segmento de rede onde, se determinado dispositivo envia um quadro em um segmento de rede, todos os outros dispositivos no mesmo segmento 
processam aquele quadro. Isso também significa que, se dois ou mais dispositivos naquele mesmo segmento transmitem um quadro ao mesmo tempo, 
haverá uma colisão. 
9.4.3 SINCRONIZAÇÃO ETHERNET 
25 
 
 
 
Temporização e sincronização 
 
No modo half-duplex, caso não ocorra uma colisão, o dispositivo de transmissão enviará 64 bits de dados de sincronização, conhecidos 
como Preâmbulo. 
 
O dispositivo de transmissão enviará, então, o quadro completo. 
 
Dispositivos Ethernet com taxas de transmissão de 10 Mbps ou menor são assíncronos. Uma comunicação assíncrona neste 
contexto significa que cada dispositivo receptor usará os 8 bytes dos dados de temporização para sincronizar o circuito de recepção aos 
dados de entrada e descartará os 8 bytes. 
 
Os dispositivos Ethernet com taxas de transmissão de 100 Mbps ou maior são síncronos. A comunicação síncrona neste con-
texto significa que os dados de temporização não são necessários. No entanto, para fins de compatibilidade, os campos Preâmbulo e 
Start Frame Delimiter (Delimitador de Início de Quadro (SFD)) devem estar presentes. 
 
 
 
 
Tempo de bit 
 
Para cada velocidade de meio físico distinta, um intervalo de tempo é exigido para inserção e detecção do bit no meio. O intervalo de 
tempo é conhecido como tempo de bit. Na Ethernet 10-Mbps, um bit na camada MAC requer 100 nanosegundos (nS) para ser transmi-
tido. Em 100 Mbps, o mesmo bit requer 10nS para ser transmitido. Em meios de 1000 Mbps, o bit leva apenas 1nS para ser transmitido. 
Aproximadamente 20,3 centímetros (8 polegadas) por nanosegundo são normalmente usados para calcular o intervalo de propagação 
em um cabo UTP. O resultado é que, para 100 metros de cabo UTP, leva-se menos de 5 tempos de bit para um sinal 10BASE-T ser 
transportado por toda a extensão do cabo. 
 
26 
 
Para que o CSMA/CD Ethernet possa funcionar, o dispositivo de transmissão deve prever uma colisão antes de completar a 
transmissão de um quadro de tamanho mínimo. Em 100 Mbps, a sincronização do dispositivo pode acomodar cabos com algo em torno 
de 100 metros. A 1000 Mbps, são necessários ajustes especiais, pois um quadro de tamanho mínimo não seria inteiramente transmitido 
antes do primeiro bit atingir a terminação dos primeiros 100 metros do cabo UTP. Por esse motivo, o modo half-duplex não é permitido 
para Ethernet 10-Gigabit. 
 
Essas considerações sobre sincronização devem ser aplicadas ao espaçamento entre quadros e intervalos de backoff (ambos 
discutidos na seção anterior) para assegurar que, quando um dispositivo transmitir seu quadro seguinte, o risco de colisãoseja minimi-
zado. 
 
Intervalo de slot 
 
Em Ethernet half-duplex, em que os dados só podem ser transmitidos em uma direção, o tempo de slot9 torna-se um parâmetro impor-
tante para se determinar quantos dispositivos podem compartilhar a rede. Para todas as velocidades de transmissão da Ethernet 1000 
Mbps ou inferiores, o padrão descreve como uma transmissão individual não pode ser menor que o intervalo de slot. 
 
A determinação do intervalo de slot combina a necessidade de redução do impacto de recuperação da colisão (intervalo de 
backoff e transmissão) e a necessidade de aumento das distâncias da rede de modo suficiente para acomodar tamanhos de rede apro-
priados. O objetivo era escolher um diâmetro de rede máximo (aproximadamente 2500 metros) e então determinar o comprimento 
mínimo do quadro de modo a assegurar a detecção de todas as colisões inesperadas. 
 
O intervalo de slot para Ethernet 10 e 100 Mbps é de 512 tempos de bit, ou 64 octetos. O intervalo de slot para Ethernet 1000 
Mbps é de 4096 tempos de bit, ou 512 octetos. 
 
O intervalo de slot assegura que, em caso de colisão, ela seja detectada nos primeiros 512 bits (4096 para Ethernet Gigabit) da 
transmissão do quadro. Isso simplifica o controle de novas transmissões de quadro após uma colisão. 
 
O intervalo de slot é um parâmetro importante pelos seguintes motivos: 
 O intervalo de slot de 512 bits estabelece o tamanho mínimo de um quadro Ethernet de 64 bytes. Qualquer quadro com com-
primento menor que 64 bytes é considerado um fragmento de colisão10 ou runt frame11 e é automaticamente descartado pelas 
estações de recepção. 
 O intervalo de slot estabelece um limite ao tamanho máximo dos segmentos de rede. Se a rede se tornar muito grande, podem 
ocorrer colisões tardias. As colisões tardias são consideradas falhas de rede, pois a colisão é detectada com atraso por um 
dispositivo durante a transmissão do quadro a ser automaticamente processado pelo CSMA/CD. 
 
O intervalo de slot é calculado levando-se em conta o comprimento máximo dos cabos ou a maior arquitetura de rede permi-
tida. Todos os intervalos de propagação do hardware estão no limite máximo aceito e o jam signal de 32 bits será usado quando nenhuma 
colisão for detectada. 
 
O intervalo de slot real calculado é maior que o intervalo de tempo teórico de transporte exigido entre os pontos mais distantes 
do domínio de colisão, para colisão com outra transmissão no último instante possível, e fazer com que os fragmentos de colisão retor-
nem à estação de origem para serem detectados. Veja a figura. 
 
Para que o sistema funcione corretamente, o primeiro dispositivo deve prever a colisão antes de completar o envio do menor 
tamanho de quadro permitido. 
 
Para que a Ethernet 1000 Mbps possa operar no modo half-duplex, o campo de extensão foi adicionado ao quadro ao enviar 
pequenos quadros simplesmente para manter o transmissor ocupado o tempo necessário para o retorno de um fragmento de colisão. 
Este campo está presente somente em links half-duplex de 1000 Mbps e permite que os quadros de tamanho mínimo sejam longos o 
bastante para satisfazer as exigências do intervalo de slot. Os bits de extensão são descartados no dispositivo de recepção. 
 
9 O tempo que leva para um pulso eletrônico percorrer a extensão das distância teórica máxima entre dois nós. Também é o tempo que uma estação 
transmissora aguarda antes de tentar transmitir depois de uma colisão. 
10 Fragmento de colisão são o produto de uma colisão num meio compartilhado. O tamanho dos fragmentos é menor que 64 bytes. 
11 Qualquer quadro com menos de 64 bytes (o tamanho mínimo para um quadro em uma rede Ethernet). Runts são causados por colisões e também são 
conhecidos como fragmentos de colisão. 
27 
 
 
 
 
 
 
 
Espaçamento entre quadros 
 
O padrão Ethernet requer um espaçamento mínimo entre dois quadros que não colidiram. Isso garante tempo ao meio físico para se 
estabilizar após a transmissão do quadro anterior e para que os dispositivos possam processar o quadro. Conhecido como espaçamento 
entre quadros, este intervalo é medido desde o último bit do campo FCS de um quadro até o primeiro bit do preâmbulo do quadro 
seguinte. 
 
Após o envio do quadro, todos os dispositivos em uma rede Ethernet 10 Mbps devem esperar no mínimo 96 tempos de bit (9,6 
microssegundos) antes de qualquer dispositivo transmitir o quadro seguinte. Em versões Ethernet mais rápidas, o espaçamento perma-
nece o mesmo - intervalos de 96 bits -, mas o espaçamento entre quadros, por sua vez, torna-se maior. 
 
Os intervalos de sincronização entre os dispositivos podem resultar na perda de alguns bits do preâmbulo do quadro. Isso pode 
causar uma pequena redução no espaçamento entre quadros se os hubs e repetidores regenerarem todos os 64 bits dos dados de sin-
cronização (Preâmbulo e SFD) no início de toda transmissão de quadro. Em redes Ethernet mais rápidas, alguns dispositivos sensíveis 
podem não reconhecer os quadros individuais que resultam em falha de comunicação. 
 
 
 
 
9.4.4 ESPAÇAMENTO ENTRE QUADROS E BACKOFF 
28 
 
Jam Signal 
 
Como podemos lembrar, a Ethernet permite que todos os dispositivos concorram ao mesmo intervalo de transmissão. Caso dois dispo-
sitivos sejam transmitidos simultaneamente, a rede CSMA/CD tenta solucionar o problema. Mas, lembre-se que, quando um número 
maior de dispositivos for adicionado à rede, as colisões podem se tornar cada vez mais difíceis de solucionar. 
 
Ao detectar uma colisão, os dispositivos de transmissão transmitem um "jam signal" de 32 bits que repetirá a colisão. Isso 
assegura que todos os dispositivos da LAN detectem a colisão. 
 
É importante que o jam signal não seja detectado como um quadro válido, caso contrário, a colisão não será identificada. O 
padrão de dados geralmente observado para um jam signal consiste em uma repetição do padrão 1, 0, 1, 0, o mesmo que o do preâmbulo. 
 
As mensagens transmitidas parcialmente corrompidas são normalmente chamadas de fragmentos de colisão ou "runts". As 
colisões normais são menores que 64 octetos de comprimento e, portanto, não são aceitas nos testes de comprimento mínimo e testes 
FCS, tornando-se fáceis de identificar. 
 
 
 
Intervalos de backoff 
 
Após a ocorrência da colisão e de todos os dispositivos permitirem que o cabo se torne ocioso, os dispositivos cujas transmissões colidi-
ram devem esperar um período adicional - e potencial e progressivamente maior – de tempo antes de tentar retransmitir o quadro 
colidido. O período de espera é intencionalmente elaborado para ser aleatório para que as duas estações não aguardem a mesma quan-
tidade de tempo antes de retransmitir, o que resultaria em mais colisões. Isso é, em parte, realizado ao se expandir o intervalo do qual 
o tempo de retransmissão aleatório é selecionado em cada tentativa de retransmissão. O período de espera é medido em incrementos 
do tempo de slot. 
 
Se congestionamento do meio físico resultar no fato da camada MAC se tornar incapaz de enviar o quadro após 16 tentativas, 
ela desiste e gera um erro à camada de Rede. Tal ocorrência é rara em uma rede operando de maneira adequada e aconteceria somente 
sob cargas de rede extremamente pesadas ou quando existir um problema físico na rede. 
Os métodos descritos nesta seção permitiram que a Ethernet fornecesse mais serviço em uma topologia de meio físico compartilhado 
com base na utilização de hubs. Na próxima seção de comutação, nós veremos como, com a utilização de switches, a necessidade do 
CSMA/CD começa a diminuir ou, em alguns casos, é toda desnecessária. 
29 
 
 
 
 
 
 
 
 
 
Asdiferenças entre os padrões Ethernet, Fast Ethernet, Gigabit Ethernet e 10 Gigabit Ethernet ocorrem na camada Física, geralmente 
chamada de PHY Ethernet12. 
 
A Ethernet é abrangida pelos padrões IEEE 802.3. Quatro taxas de transferência estão atualmente definidas para operação sobre fibra 
óptica e cabos de par trançado: 
 10 Mbps - 10Base-T Ethernet 
 100 Mbps - Fast Ethernet 
 1000 Mbps - Gigabit Ethernet 
 10 Gbps - 10 Gigabit Ethernet 
 
Embora haja muitas implementações Ethernet diferentes nessas várias taxas de transferência, somente as mais comuns serão 
aqui apresentadas. A figura mostra algumas das características da Ethernet PHY. 
 
A parte da Ethernet que opera na camada Física será discutida nesta seção, começando com a 10Base-T e continuando com a 
10 Gbps. 
 
 
12 PHY Ethernet é o transceptor de interface física, ou seja, ele lida com a Camada 1 (a camada física, de vem a sigla PHY) da Ethernet. 
9.5.1 VISÃO GERAL DA CAMADA FÍSICA DA ETHERNET 
30 
 
 
 
 
 
As principais implementações Ethernet de 10 Mbps incluem: 
 10BASE5 usando cabo coaxial Thicknet 
 10BASE2 usando cabo coaxial Thicknet 
 10BASE-T usando cabo de par trançado não blindado Cat3/Cat5 
 
As mais recentes implementações Ethernet, 10BASE5 e 10BASE2 usaram cabo coaxial em um barramento físico. Essas imple-
mentações não são mais usadas e não são suportadas pelos novos padrões 802.3. 
 
10 Mbps Ethernet - 10BASE-T 
 
O 10BASE-T usa codificação Manchester em dois cabos de par trançado não blindados. As implementações 10BASE-T recentes usaram 
cabeamento Cat3. No entanto, cabeamento Cat5 ou mais avançado é mais utilizado hoje em dia. 
 
A Ethernet 10Mbps é considerada a Ethernet clássica e usa uma topologia de estrela física. Os links da Ethernet 10BASE-T 
podem ser de até 100 metros de extensão antes de exigir um hub ou repetidor. 
 
O 10BASE-T usa dois pares de um cabo de quatro pares e termina em cada extremidade com um conector RJ-45 de 8 pinos. O 
par conectado aos pinos 1 e 2 é usado para transmitir e o par conectado aos pinos 3 e 6 é usado para recepção. A figura mostra a confi-
guração de pinos do RJ45 usado na Ethernet 10BASE-T. 
 
O 10BASE-T não é geralmente escolhido para novas instalações LAN. No entanto, ainda há muitas redes Ethernet 10BASE-T 
existentes hoje. A substituição de hubs por switches nas redes 10BASE-T aumentou muito a taxa de transferência disponível a essas 
redes e deu ao Legado Ethernet mais longevidade. Os links 10BASE-T conectados a um switch podem suportar operação half-duplex ou 
full-duplex. 
 
 
 
100 Mbps - Fast Ethernet 
 
Em meados da década de 90, vários padrões 802.3 foram estabelecidos para descrever os métodos para transmissão de dados sobre o 
meio físico Ethernet a 100 Mbps. Esses padrões usavam exigências diferentes de codificação para o alcance dessas taxas de transferência 
maiores. 
 
A Ethernet 100 Mbps, também conhecida como Fast Ethernet, foi implementada ao se usar cabo de cobre de par trançado ou fibra. As 
implementações mais populares da Ethernet 100 Mbps são: 
 100BASE-TX usando UTP Cat5 ou mais recente 
 100BASE-FX usando cabo de fibra óptica 
 
Pelo fato de que os sinais de maior frequência usados na Fast Ethernet são mais suscetíveis a ruído, dois passos de codificação 
separados são usados pela Ethernet 100-Mbps para aprimorar a integridade do sinal. 
 
9.5.2 ETHERNET 10 E 100 MBPS 
31 
 
100BASE-TX 
 
O 100BASE-TX foi elaborado para suportar transmissão sobre dois pares de fio de cobre de Categoria 5 UTP ou dois cabos de fibra óptica. 
A implementação 100BASE-TX usa os mesmos dois pares e pinouts UTP que o 10BASE-T. No entanto, o 100BASE-TX exige a Categoria 5 
ou mais recente de UTP. A codificação 4B/5B é usada para a Ethernet 100BASE-T. 
 
Assim como o 10BASE-TX, o 100Base-TX é conectado como uma estrela física. A figura mostra um exemplo de uma topologia 
de estrela física. No entanto, diferentemente do 10BASE-T, as redes do 100BASE-TX usam normalmente um switch no centro da estrela 
ao invés de um hub. Mais ou menos ao mesmo tempo em que as tecnologias 100BASE-TX se tornaram a tendência, os switches LAN 
também estavam sendo bastante empregados. Esse desenvolvimento concorrente levou a sua combinação natural na elaboração das 
redes 100BASE-TX. 
 
100BASE-FX 
 
O padrão 100BASE-FX usa o mesmo procedimento de sinalização que o 100BASE-TX, mas sobre um meio físico de fibra óptica em vez de 
cobre UTP. Embora os procedimentos de codificação, decodificação e recuperação de clock sejam os mesmos para ambos os meios 
físicos, a transmissão de sinal é diferente – pulsos elétricos em cobre e pulsos de luz em fibra óptica. O 100BASE-FX usa Conectores de 
Interface de Fibra a Baixo Custo (comumente chamados de conector SC duplex). 
 
Implementações de fibra são conexões ponto-a-ponto, ou seja, elas são usadas para interconectar dois dispositivos. Essas co-
nexões podem ser entre dois computadores, entre um computador e um switch ou entre dois switches. 
 
 
 
 
 
 
 
 
1000 Mbps - Gigabit Ethernet 
 
O desenvolvimento de padrões Gigabit Ethernet resultou em especificações para cabos de cobre UTP, fibra de monomodo e fibra multi-
modo. Nas redes Gigabit Ethernet, os bits ocorrem em uma fração de tempo que eles levam nas redes de 100 Mbps e de 10 Mbps. Com 
os sinais ocorrendo em menos tempo, os bits se tornam mais suscetíveis a ruído e, portanto, o timing é crucial. A questão de desempenho 
é baseada no quão rápido o adaptador de rede ou interface pode mudar os níveis de voltagem e o quão bem a mudança de voltagem 
pode ser detectada de maneira confiável a uma distância de 100 metros, na NIC ou interface do receptor. 
 
Nessas velocidades mais rápidas, dados de codificação e decodificação são mais complexos. A Gigabit Ethernet usa dois passos 
de codificação separados. A transmissão de dados é mais eficiente quando os códigos são usados para representar o fluxo de bits binário. 
Codificar os dados permite sincronização, uso eficiente de largura de banda e características de reação sinal-ruído aprimoradas. 
 
Ethernet 1000BASE-T 
 
A Ethernet 1000BASE-T fornece transmissão full-duplex usando todos os quatro pares do cabo Categoria 5 UTP ou mais recente. A Gigabit 
Ethernet sobre fio de cobre permite um aumento de 100 Mbps pó par de fios a 125 Mbps por par de fios, ou 500 Mbps para os quatro 
pares. Cada par de fios transmite sinal em full duplex, dobrando os 500 Mbps para 1000 Mbps. 
9.5.3 ETHERNET 1000 MBPS 
32 
 
O 1000BASE-T usa codificação de linha de 4D-PAM5 para obter taxa de transferência de dados de 1 Gbps. Esse esquema de 
codificação permite os sinais de transmissão sobre quatro pares de fios simultaneamente. Ele converte um byte de dados de 8-bits em 
uma transmissão simultânea de quatro símbolos de código (4D), que são enviados sobre o meio físico, um em cada par, como sinais 
Modulados de Amplitude de Pulso de 5-níveis (PAM5). Isso significa que todos os símbolos correspondem a dois bits de dados. Pelo fato 
de que a informação viaja simultaneamente pelos quatro caminhos, o conjunto de circuitos precisa dividir quadros no transmissor e 
remontá-los no receptor. A figura mostra uma representação do conjunto de circuitos usado pela Ethernet 1000BASE-T. 
 
O 1000BASE-T permite a transmissão e recepção de dados em ambas as direções – no mesmo fio e ao mesmo tempo. Esse 
fluxo de tráfego cria colisões permanentes nos pares de fios. Essas colisões resultam em padrões de voltagem complexos. Os circuitos 
híbridos detectando os sinais usam técnicas sofisticadas, tais como cancelamento de eco, Correção de ErroPosterior (FEC) da Camada 1 
e seleção prudente de níveis de voltagem. Usando essas técnicas, o sistema atinge uma produtividade de 1-Gigabit. 
 
Para ajudar na sincronização, a camada Física encapsula cada quadro com delimitadores de início-de-fluxo e de final-de-fluxo. 
O tempo de loop é mantido por fluxos contínuos de símbolos OCIOSOS enviados em cada par de fios durante o espaçamento entre 
quadros. 
 
Diferentemente da maioria dos sinais digitais onde existe geralmente certa quantidade de níveis de voltagem discretos, o 
1000BASE-T usa muitos níveis de voltagem. Em períodos ociosos, nove níveis de voltagem são encontrados no cabo. Durante os períodos 
de transmissão de dados, até 17 níveis de voltagem são encontrados no cabo. Com esse grande número de estados, combinados com os 
efeitos de ruído, o sinal no cabo parece mais um sinal analógico do que digital. Como no sinal analógico, o sistema é mais suscetível a 
ruído devido a problemas em cabos e terminações. 
 
 
 
Ethernet 1000BASE-SX e 1000BASE-LX Usando Fibra Óptica 
 
As versões de fibra da Gigabit Ethernet - 1000BASE-SX e 1000BASE-LX – oferecem as seguintes vantagens em relação ao UTP: imunidade 
a ruído, volume físico pequeno, maiores distâncias sem a necessidade de repetição, e largura de banda. 
 
Todas as versões do 1000BASE-SX e do 1000BASE-LX suportam transmissão binária full-duplex a 1250 Mbps sobre dois cabos 
de fibra óptica. Os códigos de transmissão são baseados no esquema de codificação 8B/10B. Por causa do overhead desta codificação, a 
taxa de transferência de dados ainda é de 1000 Mbps. 
 
Cada quadro de dados é encapsulado na camada Física antes da transmissão, e a sincronização de link é mantida com o envio 
de um fluxo contínuo de grupos de código OCIOSO durante o espaçamento entre quadros. 
 
As principais diferenças entre as versões de fibra do 1000BASE-SX e do 1000BASE-LX são o meio físico do link, os conectores e 
o comprimento de onda do sinal óptico. Essas diferenças são mostradas na figura. 
 
33 
 
 
 
 
 
 
 
 
O padrão IEEE 802.3ae foi adaptado para incluir transmissão de 10 Gbps, full-duplex sobre cabo de fibra óptica. O padrão 802.3ae e o 
802.3 para a Ethernet original são muito similares. A Ethernet 10-Gigabit (10GbE) está evoluindo para utilização não somente em LANs, 
mas também em WANs e MANs. 
 
Pelo fato de que o formato do quadro e outras especificações Ethernet Camada 2 serem compatíveis com padrões anteriores, 
o 10GbE pode fornecer largura de banda a redes individuais que sejam interoperáveis com a infra-estrutura de rede existente 
 
O 10Gbps pode ser comparado a outras variedades Ethernet nas seguintes formas: 
 O formato do quadro é o mesmo, permitindo interoperabilidade entre todas as variedades, fast, gigabit e 10 gigabit Ethernet, 
sem necessidade de conversões de reframing ou protocolo. 
 O tempo de bit é agora de 0,1 ns. Todas as outras variáveis de tempo se adaptam de acordo. 
 Pelo fato de que somente conexões de fibra full-duplex são usadas, não existe contenção de meio físico e o CSMA/CD não é 
necessário. 
 As sub-camadas IEEE 802.3 dentro das Camadas 1 e 2 do modelo OSI são preservadas em sua maioria, com poucas adições para 
acomodar 40 km de links e interoperabilidade com outras tecnologias de fibra. 
 
Com a Ethernet 10Gbps, as redes Ethernet ponto-a-ponto de custo relativamente baixo, confiáveis, eficientes e flexíveis tor-
nam-se possíveis. 
 
Futuras Velocidades Ethernet 
 
Embora o 1-Gigabit Ethernet esteja disponível e os produtos do 10-Gigabit estejam se tornando mais disponíveis, o IEEE e o 10-Gigabit 
Ethernet Alliance estão trabalhando em padrões de 40-, 100- ou mesmo 160-Gbps. As tecnologias adotadas dependerão de vários fato-
res, incluindo as taxas de maturação das tecnologias e padrões, a frequência de adoção no mercado e o custo de produtos emergentes. 
 
9.5.6 ETHERNET – FUTURAS OPÇÕES 
34 
 
 
 
 
 
 
Em seções anteriores, nós vimos como a Ethernet clássica usa o meio físico compartilhado e o controle de acesso ao meio físico com 
base em contenção. A Ethernet Clássica usa hubs para interconectar nós do segmento LAN. Os Hubs não desempenham qualquer tipo 
de filtragem de tráfego. Em vez disso, o hub envia todos os bits a todos os dispositivos conectados a ele. Isso força todos os dispositivos 
na LAN a compartilhar a largura de banda do meio físico. 
 
Além disso, essa implementação da Ethernet clássica resulta frequentemente em altos níveis de colisões na LAN. Por causa 
desses problemas de desempenho, esse tipo de LAN Ethernet limitou a utilização nas redes de hoje em dia. As implementações Ethernet 
usando hubs são, hoje, comumente usadas somente em pequenas LANs ou em LANs com baixas exigências de largura de banda. 
 
Compartilhar o meio físico entre dispositivos cria problemas significativos à medida que a rede cresce. A figura ilustra alguns 
dos problemas apresentados aqui. 
 
Escalabilidade 
 
Em uma rede com hub, há um limite à quantidade de largura de banda que os dispositivos conseguem compartilhar. Com cada dispositivo 
agregado ao meio físico compartilhado, a largura de banda média disponível a cada dispositivo diminui. A medida que aumenta o número 
de dispositivos no meio físico, o desempenho é degradado. 
 
Latência 
 
A latência de rede é a quantidade de tempo que se leva para um sinal atingir todos os destinos no meio físico. Cada nó em uma rede 
baseada em hub tem que esperar por uma oportunidade para transmitir, para evitar colisões. A latência pode aumentar significativa-
mente à medida que a distância entre os nós é expandida. A latência também é afetada por um atraso do sinal pelo meio físico, bem 
como pelo atraso adicionado pelo processamento dos sinais através de hubs e repetidores. Aumentar a extensão do meio físico ou o 
número de hubs e repetidores conectados a um segmento resulta em crescente latência. Com uma maior latência, é mais provável que 
os nós não recebam sinais iniciais, aumentando, assim, as colisões presentes na rede. 
 
Falha de Rede 
 
Pelo fato de que a Ethernet clássica compartilha o meio físico, qualquer dispositivo na rede poderia causar potenciais problemas a outros 
dispositivos. Se qualquer dispositivo conectado ao hub gera tráfego prejudicial, a comunicação para todos os dispositivos no meio físico 
poderia ser impedida. Esse tráfego perigoso pode ocorrer devido a velocidade incorreta ou configurações full-duplex em uma NIC. 
 
Colisões 
 
De acordo com o CSMA/CD, um nó não deve enviar um pacote a menos que a rede esteja livre de tráfego. Se dois nós enviam pacotes 
ao mesmo tempo, ocorre uma colisão e os pacotes são perdidos. Então, ambos os nós enviam um jam signal, esperam por uma quanti-
dade de tempo aleatória e retransmitem seus pacotes. Qualquer parte da rede onde os pacotes de dois ou mais nós podem interferir um 
com o outro é considerada um domínio de colisão. Uma rede com um número maior de nós no mesmo segmento possui um domínio de 
colisão maior e tem comumente mais tráfego. À medida que a quantidade de tráfego na rede aumenta, aumenta também a probabilidade 
de colisões. 
 
Switches fornecem uma alternativa ao ambiente baseado em contenção da Ethernet clássica. 
9.6.1 LEGADO ETHERNET – USANDO HUBS 
35 
 
 
 
 
 
 
 
 
 
Nos últimos anos, os switches se tornaram rapidamente uma parte fundamental da maioria das redes. Os switches permitem a segmen-
tação da LAN em domínios de colisão separados. Cada porta do switch representa um domínio de colisão separado e fornece largura de 
banda total ao nó ou nós conectado(s) nesta porta. Com menos nós em cada domínio de colisão, há um aumento na largura de bandamédia disponível para cada nó, e as colisões são reduzidas. 
 
Uma LAN pode ter um switch centralizado conectando-se a hubs que fornecem conectividade aos nós. Ou, uma LAN pode ter 
todos os nós conectados diretamente a um switch. Essas topologias são mostradas na figura. 
 
Em uma LAN onde um hub é conectado a uma porta de switch, ainda há compartilhamento de largura de banda, que poderá 
resultar em colisões dentro do ambiente compartilhado do hub. No entanto, o switch isolará o segmento e isolará as colisões nas portas 
do hub. 
9.6.2 ETHERNET – USANDO SWITCHES 
36 
 
 
 
Nós São Conectados Diretamente 
 
Em uma LAN onde todos os nós são conectados diretamente ao switch, a taxa de transferência da rede aumenta drasticamente. As três 
razões principais para esse aumento são: 
 Largura de banda dedicada a cada porta 
 Ambiente livre de colisão 
 Operação em full-duplex 
 
Essas topologias de estrela física são essencialmente links ponto-a-ponto. 
 
Largura de Banda Dedicada 
 
Cada nó possui a largura de banda total do meio físico disponível na conexão entre o nó e o switch. Pelo fato de que um hub replica os 
sinais que recebe e os envia a todas as outras portas, os hubs Ethernet formam um barramento lógico. Isso significa que todos os nós 
têm que compartilhar a mesma largura de banda desse barramento. Com os switches, cada dispositivo possui efetivamente uma conexão 
ponto-a-ponto dedicada entre o dispositivo e o switch, sem contenção de meio físico. 
 
Como um exemplo, compare duas LANs de 100 Mbps, cada uma com 10 nós. No segmento de rede A, os 10 nós são conectados 
a um hub. Cada nó compartilha a largura de banda de 100 Mbps disponível. Isso fornece uma média de 10 Mbps para cada nó. No 
segmento de rede B, os 10 nós são conectados a um switch. Nesse segmento, todos os 10 nós possuem toda a largura de banda de 100 
Mbps disponível para eles. 
 
Mesmo nesse pequeno exemplo de rede, o aumento na largura de banda é significativo. À medida que aumenta o número de 
nós, a discrepância entre a largura de banda disponível nas duas implementações aumenta significativamente. 
 
Ambiente Livre de Colisões 
 
Uma conexão ponto-a-ponto dedicada de um switch também remove qualquer contenção de meio físico entre os dispositivos, permi-
tindo que um nó opere com poucas ou nenhuma colisão. Em uma rede Ethernet clássica com tamanho moderado usando hubs, aproxi-
madamente de 40% a 50% da largura de banda é consumida pela recuperação de colisão. Em uma rede Ethernet comutada – onde não 
há colisões – o overhead dedicado a recuperação de colisão é eliminado. Isso fornece à rede comutada taxas de transferência significa-
tivamente melhores. 
 
Operação em Full-Duplex 
 
A Comutação também permite que uma rede opere em um ambiente Ethernet em full-duplex. Antes de existir a comutação, a Ethernet 
era somente half-duplex. Isso significava que a qualquer momento, um nó poderia transmitir ou receber. Com o full-duplex habilitado 
em uma rede Ethernet comutada, os dispositivos conectados diretamente às portas do switch podem transmitir e receber simultanea-
mente, com a largura de banda total do meio físico. 
 
37 
 
A conexão entre o dispositivo e o switch é livre de colisão. Isso dobra efetivamente a taxa de transmissão em comparação ao 
half-duplex. Por exemplo, se a velocidade da rede é de 100 Mbps, cada nó pode transmitir um quadro a 100 Mbps e, ao mesmo tempo, 
receber um quadro na mesma velocidade. 
 
Usando Switches em Vez de Hubs 
 
A maioria das Ethernet modernas usa switches para os dispositivos finais e opera em full duplex. Pelo fato dos switches fornecerem uma 
taxa de transferência muito maior do que os hubs e porque eles aumentam consideravelmente o desempenho, é justo perguntar: por 
que não usar switches em todas as LANs Ethernet? Existem três motivos para os hubs ainda estarem sendo usados: 
 Disponibilidade – Switches LAN não eram desenvolvidos até o início da década de 90 e não estavam disponíveis até a metade 
dessa mesma década. Ethernets recentes usavam hubs para UTP e muitas delas estão em operação até hoje 
 Economia – Inicialmente, os switches eram caros. Como o preço dos switches caiu, o uso de hubs diminuiu e o custo está se 
tornando o menor fator nas decisões. 
 Exigências – As recentes redes LAN eram simples redes elaboradas para trocar arquivos e compartilhar impressoras. Para mui-
tos locais, as redes recentes evoluíram para as redes convergidas atuais, resultando em uma necessidade substancial por maior 
largura de banda disponível a usuários individuais. Em algumas circunstâncias, no entanto, um hub de meio físico comparti-
lhado ainda será suficiente e esses produtos permanecem no mercado. 
 
A seção a seguir explora a operação básica de switches e como eles conseguem um desempenho aprimorado, do qual nossas 
redes dependem hoje. Um curso posterior apresentará mais detalhes e tecnologias adicionais relativas a comutação. 
 
 
 
 
38 
 
 
 
 
 
 
 
Os switches Ethernet enviam de maneira seletiva quadros individuais de uma porta de recebimento à porta onde o nó de destino está 
conectado. Esse processo de encaminhamento seletivo13 pode ser considerado como estabelecendo uma conexão ponto-a-ponto mo-
mentânea entre os nós de transmissão e recepção. A conexão é feita em tempo suficiente para enviar um único quadro. Durante esse 
instante, os dois nós possuem uma conexão de largura de banda total entre eles e representam uma conexão ponto-a-ponto lógica. 
 
Para ser tecnicamente preciso, essa conexão temporária não é feita entre os dois nós simultaneamente. Em essência, isso torna 
a conexão entre hosts uma conexão ponto-a-ponto. De fato, qualquer nó operando no modo full-duplex pode transmitir a qualquer 
momento que tiver um quadro, sem considerar a disponibilidade do nó de recebimento. Isso é porque um switch LAN fará um buffer de 
um quadro de entrada e então o enviará para a porta adequada quando essa porta estiver ociosa. Esse processo é chamado de store and 
forward (armazenar e encaminhar)14. 
 
Com o método de comutação armazenar e encaminhar, o switch recebe todo o quadro, checa erros no FSC e envia o quadro 
para a porta apropriada para o nó de destino. Pelo fato de que os nós não precisam esperar o meio físico ficar ociosa, os nós podem 
enviar e receber com total velocidade e sem perdas devido a colisões ou overhead associado ao gerenciamento de colisões. 
 
Envio Baseado no MAC de Destino 
 
O switch mantém uma tabela, chamada de tabela MAC que relaciona um endereço MAC de destino com a porta usada para conectar o 
nó. Para cada quadro de entrada, o endereço MAC de destino no cabeçalho do quadro é comparado à lista de endereços na tabela MAC. 
Se uma correspondência for encontrada, a porta na tabela que está relacionada com o endereço MAC é usada como a porta de saída 
para o quadro. 
 
 
13 Encaminhamento de pacotes em que a decisão de encaminhamento é tomada dinamicamente, saldo a salto, com base nas codificações nos nós de 
encaminhamento de fluxo 
14 Modo de comutar em que o switch armazena o quadro inteiro e processa todo o conteúdo quadro até o FCS e que, após o cálculo bem-sucedido do 
FCS, o switch envia o quadro por meio da porta de saída. 
9.6.3 SWITCHES – ENCAMINHAMENTO SELETIVO 
39 
 
A tabela MAC pode ser chamada por diversos nomes diferentes. Ela é comumente chamada de tabela do switch. Pelo fato de 
que a comutação se originou de uma tecnologia mais antiga chamada comutação transparente15, a tabela é chamada, às vezes, de tabela 
de bridge16. Por esse motivo, muitos processos executados pelos switches LAN podem conter bridge ou bridging em

Continue navegando