Buscar

protoolo de rede

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Aula 5 - Modelos de comunicação em redes: RM-OSI e TCP/IP
	
	
	Apresentação
	Nesta aula, você vai aprender um assunto muito importante e que vai até lhe ajudar no próprio processo de aprendizagem sobre redes. É que estudaremos o modelo de referência OSI, e, como você verá, ele divide as funções de uma rede em grupos, os quais são chamados de camadas. Sempre que se comenta sobre algum protocolo de rede ou sobre algum equipamento é comum se fazer referência a qual camada do modelo OSI ele trabalha. Desse modo, já se sabe um pouco sobre as funções que ele desempenha. Essa estruturação em camadas facilita bastante o processo de entendimento do funcionamento de uma rede.
		
	Objetivos
	 
	Ao final desta aula, você será capaz de: 
entender o que é o modelo de referência OSI;
conhecer quais as funções específicas de cada camada;
identificar em qual camada do modelo OSI cada equipamento de rede trabalha;
entender o modelo TCP/IP, saber quais protocolos ele utiliza, e como esse modelo se relaciona com o modelo OSI.
	 
	Visão da estrutura em camadas do RM-OSI
	Se você der uma olhada rápida na Aula 1, na seção histórico das redes, verá que falamos do surgimento em 1984 do modelo de referência OSI. Mas, o que seria esse modelo? Esse modelo foi uma proposta da ISO (International Standard Organization) para facilitar o desenvolvimento de padrões para a interconexão de sistemas. O modelo é chamado de Modelo de Referência OSI (de Open Systems Interconection), pois ele trata da interconexão de sistemas abertos – no sentido de que não impõe a utilização de nenhuma implementação ou tecnologia específica. Chamaremos de agora em diante apenas de OSI, para simplificar.
O modelo OSI divide todas as tarefas relacionadas às redes em sete camadas, conforme vemos no Quadro 1 a seguir. Cada camada é responsável por um subconjunto das funções que devem ser realizadas por uma rede. Para isso, cada camada tem seus próprios protocolos e manipula uma unidade de dados que é chamada de Unit Protocol Data (Unidade de Dados do Protocolo - PDU). Entenda a PDU como o conjunto de informações, ou o pacote, gerado por uma camada. 
	
No 
	Camada
	PDU
	7
	Aplicação
	Mensagem
	6
	Apresentação
	Mensagem
	5
	Sessão
	Mensagem
	4
	Transporte
	Segmento
	3
	Rede
	Pacote
	2
	Enlace
	Quadro
	1
	Físico
	Bit
Quadro 1 - Camadas do modelo de referência OSI com suas respectivas PDUs1
1 Protocolo Data Unit – Unidade de Dados do Protocolo. 
No transmissor, as informações descem da camada 7 até a camada 1 e no receptor elas são recebidas pela camada 1 e sobem até a camada 7. À medida que os dados descem nas camadas, a camada inferior trata os dados recebidos da camada superior como uma caixa preta, colocando-os no seu campo de dados. Desse modo, a PDU é formada por um campo de dados que corresponde aos dados recebidos da camada superior, acrescido de alguns campos adicionais que são inseridos pela própria camada para que possa realizar suas tarefas. Esses campos adicionais são chamados de cabeçalhos. Na máquina receptora, à medida que as informações sobem nas camadas, cada camada lê as informações do cabeçalho da sua PDU (gerada pela mesma camada na origem), processa essas informações, e as retira do pacote passando apenas o conteúdo da parte de dados para a camada superior. O conteúdo desse campo de dados é, evidentemente, a PDU da camada superior. Explicaremos quais informações são exatamente esses cabeçalhos quando descrevermos cada camada individualmente.
Na Figura 1, podem-se ver as PDUs ao lado de cada camada. As PDUs de aplicação e apresentação estão delimitadas por uma linha oval. Observe que os cabeçalhos adicionados por cada camada são representados por um retângulo cinza dentro da PDU com a letra inicial da camada. A parte branca (sem nenhuma cor) de cada PDU corresponde ao seu campo de dados. Veja que eles são exatamente a PDU da camada superior. Isso mostra que quando uma PDU é passada para uma camada inferior, seu conteúdo é tratado apenas como uma sequência de bytes a serem transferidos por essa camada, sem que ela se preocupe com seu significado.
	
	Figura 1 – Transmissão de dados no modelo OSI 
Fonte: autoria própria
	É importante perceber que o modelo OSI propriamente dito não é uma arquitetura de rede, já que não especifica os serviços e os protocolos exatos que devem ser usados em cada camada. Ele apenas informa o que cada camada deve fazer e não como deve fazer.
Ter uma arquitetura baseada em camadas é útil para entendermos sistemas complexos, pois ela provê modularidade, tornando muito mais fácil resolver problemas e modificar a forma como os serviços são implementados por cada camada. Modificações podem ser feitas em uma camada, mas ela deve continuar fornecendo o mesmo serviço para a camada superior e usando os mesmos serviços que são oferecidos pela camada inferior. O interessante de tudo isso é que o restante do sistema permanece inalterado, nem mesmo precisa tomar conhecimento das mudanças. 
Vamos agora dar uma olhada em quais são as funções de cada uma das camadas do modelo OSI. Mas, antes é importante você saber que algumas camadas são relacionadas ao hardware (as camadas 1 e 2) e outras a software (3 a 7). Naturalmente, os equipamentos de rede implementam uma ou mais dessas camadas. Fique sabendo que quando se diz que um dado equipamento implementa a camada X, na verdade, ele implementa as camadas de 1 a X. Costuma-se dizer que o equipamento “É” da camada X. Também é comum usar a palavra nível como sinônimo de camada, e usar o número da camada ao invés do seu nome. Desse modo, “camada 1”, “camada física”, ”nível 1” e ”nível físico” significam todos a mesma coisa.
		 
	Cada camada comunica-se com a camada equivalente (de mesmo nível) na máquina destino e as duas precisam falar o mesmo protocolo.
	 
	Camada física
	Essa é a camada mais baixa na hierarquia do modelo de referência OSI, conforme você pode ver na Figura 1. É aqui onde ocorre realmente todo o processo de transmissão de dados. Essa camada é a responsável por transformar os bits (0s e 1s) que representam as informações a serem transmitidas pelos meios de transmissão (cabos de par trançado, cabos coaxiais etc.) em forma de pulsos elétricos ou em forma de sinais de luz (caso das fibras ópticas). No receptor, a camada física desfaz o processo, ou seja, transforma esses sinais recebidos em bits novamente. Como foi mostrado no Quadro 1, a PDU da camada física é o bit, pois essa camada se preocupa apenas em transmitir os bits individualmente, sem se importar com o que eles significam em conjunto.
Como as principais funções da camada física, podemos citar: i) definir como os bits 0 e 1 serão representados no enlace durante a transmissão; ii) a quantidade de tempo dado em nano segundos que um bit deve durar; iii) especificar se a transmissão pode ocorrer nos dois sentidos, simultaneamente, conforme você aprendeu na Aula 2; iv) a quantidade de pinos dos conectores, e qual será a finalidade de cada pino etc.
Desse modo, como a camada física é responsável por essas questões, a especificação dos tipos de cabeamento e conectores que podem ser utilizados em uma dada rede é determinado por essa camada. Saiba que o esquema de codificação e decodificação dos bits, ou seja, a forma como os 0s e 1s são representados através dos sinais elétricos ou pulsos de luz, tem influência direta na taxa de transmissão da rede. Na próxima aula, quando estudarmos os padrões Ethernet, você verá que existem diferentes possíveis implementações de nível físico para essas redes, tanto para suportarem tipos de cabos diferentes quanto para oferecerem taxas de transmissão mais elevadas.
		 
	O repetidor é um equipamento da camada Física, pois ele apenas transmite bits. O mesmo se pode dizer do hub (até porque o hub é um repetidor multiporta).
	 
		
	Atividade 1
	 
	 
	 
	1. Pesquise sobre o padrão RS232 e descubra para que ele é utilizado.
	 
	2. O queé feito quando uma unidade de informação é mandada de uma camada para outra?
	 
	 
	Camada de enlace
	Você já sabe que uma rede consiste de algum mecanismo para permitir que diversas máquinas enviem informações umas para as outras, e que o nível físico é capaz de enviar bits através de um enlace. Lembre-se também de que os serviços de uma camada no modelo OSI são construídos utilizando os serviços oferecidos pela camada inferior. Portanto, a camada de enlace irá utilizar os serviços de transmissão de bits oferecidos pela camada física para fornecer seus próprios serviços. A camada de enlace, juntamente com a camada física, é responsável por permitir a troca de informações entre máquinas, de modo que elas duas juntas constituem uma rede.
Quais são as funções que você acha que uma rede deve realizar para permitir essa troca de informações? Pense um pouco e vamos então estudar quais são essas funções.
	Formação dos quadros (encapsulamento dos dados)
	Suponha que uma máquina A queira enviar a mensagem “Boa Noite” para uma máquina B. Será que basta enviar apenas os bits referentes a esse texto pelo cabo? Isso o nível físico seria capaz de fazer! Portanto, a resposta é não! Junto com a mensagem propriamente dita que desejamos enviar, no caso, “Boa Noite”, precisamos transmitir também informações adicionais que indicam quem está transmitindo e para quem a mensagem é destinada. Alem disso, podem ocorrer erros durante a transmissão dos bits pelo nível físico e precisamos detectar se isso aconteceu. Se considerarmos os bits a serem transmitidos como um grupo de bits, é possível inserir bits de redundância que permitem a detecção e eventual correção de erros. 
Dessa forma, as redes transmitem as suas informações em quadros, que são compostos de diversos campos. O quadro é o nome dado a PDU da camada de enlace, e o termo campo corresponde ao que chamamos de cabeçalhos, quando explicamos no Quadro 1. O número e o tipo desses campos são específicos para cada tecnologia de rede, mas tipicamente existe um campo de dados, que contém a mensagem que se deseja transmitir, e vários campos com informações para permitir que a camada de enlace realize suas funções, como campos de endereço e um campo para verificação de erros. 
Quando a camada de enlace recebe informações da camada de rede para serem transmitidas, essas informações podem ser colocadas em apenas um quadro ou serem divididas em vários quadros. A camada de enlace é que toma essa decisão e realiza a montagem dos quadros.
Existem redes que utilizam quadros de tamanho fixo, ou seja, todos os quadros transmitidos têm sempre o mesmo tamanho, e redes que usam quadros de tamanho variável, de modo que o tamanho de cada quadro vai depender da quantidade de informações a serem transmitidas. Observe que mesmo quando o tamanho é variável, normalmente existe um controle sobre o tamanho máximo e mínimo do quadro.
Os campos de endereço que citamos a pouco indicam que a camada de enlace precisa definir um endereço para cada máquina. Na verdade, como a camada de enlace é implementada quase na sua totalidade na placa de rede, o endereço de enlace é um endereço contido na placa de rede. Realmente, precisa ser assim, porque máquinas que pertencem a mais de uma rede precisam ter uma placa de rede (e um endereço) para cada rede. Cada tecnologia de rede utiliza seu próprio formato de endereço, mas lembre-se de que ele é apenas um identificador para cada placa de rede existente.
Você acha que o formato do quadro tem algum impacto na velocidade da rede? Tem sim! E claro que a taxa de transmissão em termos de bits por segundo não muda. Mas, o que realmente importa é quanto da taxa de transmissão de uma rede é utilizada para transmitir os dados dos usuários. Ter uma rede de 100Mbps significa que ela transmite 100.000.000 de bits por segundo. Mas, uma parte desses bits corresponde aos cabeçalhos dos quadros. Portanto, quanto maior o tamanho dos cabeçalhos menos banda de rede disponível sobra para os dados dos usuários. Fazendo uma conta simples, se a soma do tamanho dos campos de cabeçalhos para uma dada rede fosse 40 bytes, e o tamanho do campo de dados fosse também 40 bytes, a velocidade realmente disponível para o usuário seria reduzida pela metade. Para a rede de 100Mbps, essa velocidade seria de apenas de 50Mbps! E olha que estamos falando apenas dos cabeçalhos da camada de enlace, mas na verdade os cabeçalhos de todas as outras camadas também precisam entrar nessa conta. Por isso, é importante que o tamanho do campo de dados seja bem maior que o tamanho de todos os cabeçalhos somados.
	Controle de acesso ao meio
	Quando a placa de rede termina de montar um quadro, é natural pensarmos que ela vai enviar o quadro no meio de transmissão (cabo ou o ar). Isso está correto, mas será que ela o envia imediatamente após criá-lo? A resposta vai depender do tipo de rede, pois o enlace pode ser compartilhado por diversas outras máquinas. Desse modo, é necessário que existam regras que determinem o instante em que uma dada placa (ou seja, a camada de enlace) possa enviar um quadro no enlace. Sem essas regras, várias máquinas poderiam transmitir ao mesmo tempo e os sinais enviados por cada uma delas iria interferir nos demais, de modo que nenhuma das transmissões seria bem sucedida. Essas regras se chamam de Protocolo de Acesso ao Meio e cada tecnologia de rede possui o seu próprio protocolo.
Existem protocolos projetados especificamente para enlaces ponto a ponto e protocolos para enlaces multiponto. Pode acontecer, entretanto, de protocolos para enlaces multiponto acabarem sendo utilizados em enlaces ponto a ponto devido à introdução de switches na rede. Estudaremos alguns desses protocolos nas Aulas 6 e 7. Sobre os protocolos para enlaces multiponto, é importante observar que eles podem ser divididos em dois grupos: ordenados e baseados em contenção. 
Nos protocolos baseados em contenção, podem ocorrer colisões na rede e não há reserva do meio para nenhuma máquina. Assim sendo, não existe como garantir uma determinada banda de transmissão para nenhuma delas. Ou seja, não se pode determinar quantos quadros uma determinada máquina vai conseguir transmitir por segundo, pois o tempo decorrido entre o instante em que ela gera um quadro e o momento em que ela tem o direito de transmiti-lo, é imprevisível, e pode ser diferente a cada quadro gerado. 
Nos protocolos ordenados por outro lado, as colisões nunca ocorrem, porque existem esquemas que reservam a rede temporariamente para que apenas uma máquina transmita por vez. Essa reserva pode ser implementada de diversas formas. Por exemplo, pode ser através da utilização de uma máquina especial que fica perguntando a cada uma das outras máquinas se elas desejam transmitir (esquema chamado de pooling), ou através da passagem de uma permissão (token) entre as máquinas, de modo que quem tiver de posse do token em um dado instante tem o direito de transmitir (esquema chamado de passagem de permissão). Como existe reserva, é possível dar garantias a respeito do tempo decorrido entre a geração dos quadros e a sua transmissão. Em algumas redes, esse tempo é constante para todos os quadros, e para outras pode-se pelo menos prever o pior caso, ou seja, o tempo Máximo para se ganhar acesso ao meio. 
Essas questões referentes às garantias de tempo para se ter acesso ao meio são de fundamental importância para que a rede forneça um suporte adequado a aplicações que precisam transmitir dados a uma taxa constante, como é o caso da transmissão de voz e vídeo. 
		
	Atividade 2
	 
	 
	 
	1. Pesquise sobre o Protocolo ALOHA. Entenda seu funcionamento diga se ele é Ordenado ou Baseado em Contenção. 
<http://pt.wikilingue.com/es/ALOHAnet> (Site que contém bastante informação sobre o assunto, incluindo sua história)
	 
	2. Pesquise sobre o método de Pooling e procure identificar suas desvantagens. 
<http://www.tiosam.net/enciclopedia/?q=Modelo_OSI> (Nesse site, há informações sobre o assunto que lhe permitirão respondera questão).
	 
	 
	Controle de erros
	Quando explicamos a tarefa de criação dos quadros, dissemos que a camada de enlace insere um campo no quadro com bits de redundância, de modo que possa detectar se ocorreram erros durante a transmissão dos quadros pelo nível físico. Esse campo se chama genericamente de Frame Check Sequence (FCS), mas pode assumir outros nomes de acordo com o algoritmo utilizado, como é o caso das redes Ethernet, onde ele é chamado de CRC (Cyclic Redundancy Check – Checagem de Redundância Cíclica). 
O procedimento consiste em calcular um valor que depende dos bits do quadro e inserir esse valor no campo FCS. O cálculo normalmente é aplicado sobre o campo de dados e os campos de cabeçalhos. Quando uma máquina recebe o quadro, ela recalcula o valor considerando os mesmos campos utilizados para o cálculo pelo transmissor e compara o resultado obtido com o valor do campo FCS. Se forem iguais, não houve erro, se forem diferentes, algum erro aconteceu. Nesse caso, o quadro é descartado.
O tamanho do campo FCS está relacionado com a qualidade do método aplicado, ou seja, quanto mais bits são adicionados significa que mais bits com erro no quadro podem ser detectados. Lembre-se, entretanto, que quanto maior o tamanho total dos campos de cabeçalho, mas banda de rede é desperdiçada. Portanto, deve-se atingir um equilíbrio entre o número de bits do FCS e a qualidade da detecção de erros. Você verá na Aula 6 que as redes Ethernet usam um FCS de 32 bits. Também é possível corrigir os erros, mas como isso acaba sendo uma operação mais cara, normalmente, é realizada apenas a detecção.
Você acabou de ver que é possível saber se um quadro foi recebido com erro ou não. Isso permite a camada de enlace ter um serviço confiável ou não, ou seja, ela pode garantir que seus quadros são entregues ou apenas tentar entregá-los. Chamamos isso de serviço confiável e serviço não-confiável.
No serviço confiável, o receptor envia quadros especiais informando se o quadro foi recebido com sucesso ou não. Essas confirmações podem ser para cada quadro individualmente, ou feitas por grupos de quadros de cada vez, para reduzir o tráfego adicional gerado na rede.
O serviço não-confiável não informa se os quadros foram recebidos com sucesso ou com erros. O receptor apenas descarta os quadros com erro. Em princípio, você pode estar achando que uma rede assim não vai funcionar, mas lembre-se de que existem as camadas superiores e em alguma dessas camadas alguém vai se preocupar em tornar o serviço confiável, quando isso for necessário.
	 
		 
	Fique sabendo que as redes Ethernet utilizam o serviço não-confiável!
	 
		
	Atividade 3
	 
	 
	 
	Pesquise sobre a técnica de paridade e responda por que ela não é utilizada nas redes de computadores.
<http://www.inf.pucrs.br/~titocastro/redesi/assuntos/camada-enlace/enlace.html>.
	 
	 
	 
	Controle de fluxo
	Quando os quadros são recebidos pela camada de enlace, eles ficam armazenados até que sejam processados. Embora isso ocorra rapidamente, pode acontecer dos quadros estarem chegando pela rede mais rapidamente do que são processados. Isso implica na falta de espaço para armazená-los. Para evitar tal situação, o receptor pode informar ao transmissor para reduzir a frequência com que está enviando os quadros (ou até mesmo suspender temporariamente o envio). À medida que os quadros forem sendo processados, o receptor informa ao transmissor para aumentar a frequência de envio deles. 
Esse processo chama-se controle de fluxo e é de fundamental importância quando existem máquinas na rede com velocidades de transmissão diferentes, ou quando uma determinada máquina é o destino dos quadros enviados por diversas outras.
Embora seja muito importante, essa característica não é obrigatória para a camada de enlace. Existem redes que não a implementam. Nessas redes, quando não existe mais espaço de armazenamento no receptor, os quadros são descartados.
		 
	As bridges e os Switches são equipamentos da camada de enlace.
	 
	Camada de rede
	Como você acabou de estudar na sessão anterior, as camadas físicas e de enlace juntas formam uma rede, ou seja, permitem que diferentes máquinas se comuniquem. Naturalmente, diferentes empresas possuem cada uma sua própria rede, e é natural que diferentes empresas precisem que suas redes estejam interligadas, pois elas podem desejar trocar informações entre si. Como já mencionamos, a Internet nada mais é do que a interconexão de diversas redes. 
Você acha que podemos interligar as redes de duas empresas com um switch?
Não podemos, porque assim elas formariam uma única rede! Para não restar dúvidas disso, lembre-se de que, se qualquer máquina enviasse um quadro para o endereço de broadcast2, ele atingiria todas as máquinas das duas empresas!  
2 Processo pelo qual se transmite ou difunde determinada informação para todos os dispositivos da rede ao mesmo tempo. 
Precisamos de um equipamento que separe o tráfego das diferentes redes que conecta, deixando passar para outra rede apenas o que for realmente destinado a ela. Esse equipamento também deve permitir a interligação de redes com tecnologias (níveis físico e de enlace) diferentes. Além disso, se estendermos o problema para várias empresas, podemos ter várias redes ligadas umas às outras. Portanto, o equipamento precisa também ser capaz de encontrar o caminho até a rede de destino. 
Você já estudou na Aula 3 que o equipamento utilizado para fazer a ligação entre redes é o roteador. Agora, você entenderá que ele consegue realizar essa tarefa porque implementa a camada de rede. Desse modo, podemos dizer que as principais funções da camada de rede são:
interconectar redes diferentes (que podem ser da mesma tecnologia ou não);
localizar o caminho até uma determinada rede;
encaminhar os dados entre duas redes quaisquer.
Observe que o nível de enlace permite que duas máquinas se comuniquem desde que estejam ligadas ao mesmo enlace. O nível de rede deve permitir que as máquinas estejam separadas por diversas redes, de modo que precisa estabelecer um caminho através de diversos enlaces. Isso pode ser feito utilizando comutação de circuitos ou pacotes, como você já estudou na aula 4.
Deve estar claro para você que para que as máquinas de diversas redes possam se comunicar elas precisam “falar o mesmo protocolo” na camada de rede, incluindo aí os roteadores que interligam as redes. Dissemos que a camada de rede permite que redes de tecnologias diferentes (camadas física e enlace) se comuniquem. Mas, se as redes usarem tecnologias diferentes, como uma máquina vai dizer para quem ela quer enviar as informações, se ela não conhece nem o formato do endereço da rede de destino? A camada de rede define um novo tipo de endereço, que diferentemente do endereço da camada de enlace é um endereço lógico. Esse endereço também é associado a cada placa de rede, mas ele não o substitui. Assim, as máquinas possuem dois endereços (para cada placa), um da camada de enlace (o endereço MAC – Camada de Acesso ao Meio) e o endereço da camada de rede. Como todas as máquinas das diversas redes que desejam se comunicar usam o mesmo protocolo de rede, elas podem agora informar o endereço da máquina de destino usando o endereço da camada de rede. 
O usuário informa o endereço de rede da máquina com a qual quer se comunicar e existem protocolos que automaticamente traduzem o endereço de rede para o endereço de enlace da máquina de destino. Os pacotes (PDUs da camada de rede) são então enviados dentro da parte de dados do quadro de enlace. Caso a máquina de destino esteja em uma rede diferente da máquina de origem, o pacote é enviado para o roteador da rede de origem e será encaminhado de roteador em roteador até atingir a máquina de destino. Em cada roteador intermediário, a placa de rede extrai o pacote (PDU da camada de rede), analisa o endereço de rede do destino e calcula qual o próximo roteador no caminho. O pacote é então colocadonovamente em outro quadro da camada de enlace e encaminhado até o roteador escolhido. Observe que o quadro entra por uma interface de rede e sai por outra, que é a interface que conecta o roteador processando o quadro ao próximo roteador no caminho. Observe que a mesma PDU que foi gerada na camada de rede da origem chega até a camada de rede do destino. Ao longo do caminho, ela é transmitida dentro de quadros da camada de enlace que liga cada par de roteadores vizinhos.  Você vai estudar em detalhes como ocorre esse encaminhamento dos quadros através dos roteadores na Aula 10.
		 
	Os roteadores são equipamentos da camada de rede.
	 
	Modelos de serviço
	Quando falamos ao descrever de forma genérica o modelo de camadas, dissemos que as camadas fornecem serviços umas às outras. Assim, resta-nos saber quais serviços a camada de rede oferece. Para identificarmos esses serviços, devemos ter em mente algumas perguntas, tais como: quando a camada de transporte de um computador remetente entrega o pacote para a camada de rede (do mesmo computador), a camada de rede se encarrega mesmo de entregar esse pacote ao destino? Quando são enviados vários pacotes, a camada de rede os entrega na ordem em que foram enviados? A rede fornecerá algum tipo de informação sobre congestionamento na rede? 
Vejamos uma amostra dos serviços que a camada de rede pode prover, na situação expressa acima, onde a camada de transporte de um computador remetente passa um pacote para a camada de rede. Assim, alguns dos serviços seriam:
Entrega garantida – Garante que o pacote chegará ao destino, mais cedo ou mais tarde;
Entrega garantida com atraso limitado – Além de garantir a entrega do pacote, especifica um atraso máximo que pode ocorrer durante a entrega;
Entrega de pacotes na ordem – Esse serviço garante que pacotes chegarão ao destino na ordem em que foram enviados;
Largura de banda mínima garantida – Esse serviço emula o comportamento de um enlace de transmissão com uma taxa de bits especificada (XMbps) entre os computadores origem e destino (mesmo que existam vários roteadores entre eles ligando vários enlaces);
Jitter máximo garantido – Esse serviço garante que a quantidade máxima de tempo entre a transmissão de dois pacotes sucessivos no remetente seja igual à quantidade de tempo entre o recebimento dos dois pacotes no destino (ou que esse espaçamento não mude mais do que algum valor especificado).
Serviço de segurança – Através do uso de criptografia3 (Será visto quando estudarmos a parte de Segurança nesse curso) os computadores de origem e destino tornam as comunicações seguras, podendo ser lidas apenas por eles.
3 É uma técnica usada para fazer com que as informações sejam transformadas da sua forma original para outra ilegível, de modo que apenas o remetente e o destinatário consigam ler. 
		 
	Na Aula 8 estudaremos em detalhes o protocolo IP, que é o protocolo de camada de rede utilizado por todas as máquinas da Internet.
	 
	Camada de transporte
	Até agora, as funções implementadas pelas camadas estudadas (física, enlace e rede) estavam preocupadas em fazer a informação transmitida chegar à máquina destino. Como você viu, o serviço fornecido pela camada de rede permite o envio de informações entre duas máquinas em rede diferentes. Se você observar as informações de cabeçalho adicionadas em cada camada, verá que eram tratadas sempre pelo próximo equipamento no caminho. A camada de transporte é a primeira camada (olhando de baixo para cima) onde as informações de cabeçalhos adicionadas serão analisadas apenas na máquina de destino. 
O objetivo da camada de transporte é permitir que as aplicações usem os serviços oferecidos pela camada de rede. Quando se escreve um programa que transmite informações pela rede, utilizam-se funções para interagir com a camada de transporte. Assim como a camada de rede, a camada de transporte é um software instalado na máquina.
Se a mensagem passada para ser transmitida pela camada de transporte for muito grande, a camada pode optar por dividi-la em partes menores para que sejam transmitidas separadamente. Lembre-se de que a camada de rede pode ou não garantir a entrega dos pacotes e pode ou não entregá-los na ordem. Desse modo, é função da camada de transporte fornecer esses recursos caso eles sejam necessários, podendo também realizar controle de fluxo. Veja que controle de erros e de fluxo também podem ser serviços oferecidos na camada de enlace, mas lá essas operações eram realizadas para um enlace isoladamente, enquanto aqui ela é realizada fim a fim. 
Uma mesma máquina pode ter mais de uma implementação (protocolo) de camada de transporte instalada e cada aplicação pode usar o protocolo que quiser. Isso é importante porque as aplicações têm características diferentes. Para uma aplicação, a perda de um pacote pode não ser importante, como é o caso de aplicações que transmitem voz, mas para outras aplicações isso seria inaceitável, de modo que o pacote perdido precisaria ser retransmitido. Naturalmente, uma aplicação só consegue se comunicar com outras que utilizem a mesma camada de transporte.
Até agora, falamos sempre em endereços para identificar máquinas (ou placas), mas precisamos de uma forma de identificar para qual aplicação as informações transmitidas são destinadas. Existem, evidentemente, várias aplicações sendo executadas em cada máquina, de modo que quando ela recebe um pacote precisa saber para qual das aplicações deve entregá-lo. A PDU da camada de transporte possui um dos seus campos de cabeçalho destinado a essa finalidade. Conforme foi mostrado no início da aula no Quadro 1, a PDU da camada de transporte se chama segmento.
	Camada de sessão
	Vamos a mais uma camada do modelo OSI e suas funções. Essa é uma camada que, na prática, no modelo usado na Internet (TCP/IP), do qual iremos falar ainda nesta aula, não é implementado. Assim, essa camada existe apenas no âmbito conceitual, do modelo de referência OSI. Vamos então ver seus objetivos e funções.
O objetivo da camada de sessão é dá suporte para que os usuários consigam fazer a sincronização de seus diálogos e gerenciar a troca de informações. Para possibilitar que esses diálogos ocorram, ela cria uma conexão lógica, chamada de conexão de sessão que fica responsável por fornecer vários serviços que irão estruturar o diálogo entre as aplicações.
Assim, a camada de sessão tem a capacidade de proporcionar que dois computadores diferentes rodando aplicações possam estabelecer uma sessão de comunicação. Durante essa sessão, as aplicações “conversam” e decidem como será feita a transmissão dos dados e colocam pequenas marcações nos dados que serão transmitidos. Como nós sabemos, pode haver falha na rede durante a transmissão. Então, o que ocorre? Terá que ser feita a transmissão desde o início? A resposta é não. Lembra das marcações colocadas nos dados? Elas serão usadas para saber até onde as informações já foram transmitidas, sendo assim, a transmissão recomeça do ponto onde parou, ou seja, da última marcação.
A camada de sessão oferece então serviços importantes, pontos de controles periódicos (as marcações), que são usados para a recuperação da comunicação da rede em casos de problemas com a mesma.
	Camada de apresentação
	Os computadores representam as informações através de códigos binários. A tabela ASCII, por exemplo, define um valor inteiro de um byte para cada possível caractere. Mas, existem outras formas de representação, como o EBCDIC. Portanto, Uma máquina pode utilizar a tabela ASCII enquanto outra utiliza o esquema EBCDIC. Desse modo, uma mesma sequência de bits vai significar um valor se for considerada como um código ASCII e outra se for considerada como EBCDIC. Problemas semelhantes também ocorrem para tipos de dados numéricos com mais de um byte. Um inteiro em uma máquina pode ter 2 bytes enquanto em outra pode ter 4 bytes. Além disso, a forma como esses bytes são armazenados na memória do computador pode ser diferente.
		
	Atividade4
	 
	 
	 
	Pesquise o que são e qual a diferença entre os esquemas big-endian e little-endian?
Sugestão de pesquisa: <http://pt.wikipedia.org/wiki/Extremidade_(ordenação)>
	 
	 
	Uma das funções da camada de apresentação é evitar que as máquinas precisem conhecer os esquemas de codificação utilizados pelas outras máquinas. Para isso, as informações são transmitidas usando um formato padrão de representação. Caso o formato utilizado pelo transmissor seja diferente desse formato, ele realiza uma operação de conversão antes da transmissão. Do mesmo modo, caso o formato do receptor seja diferente do formato padrão, ele converte as informações recebidas para seu formato.
Além dessa operação, a camada de apresentação também pode realizar a compressão dos dados, de modo a gastar menos banda de rede, e a criptografia, para proteger as informações transmitidas contra a leitura indevida e adulteração.
	Camada de aplicação
	Você sabe que existem vários tipos de programas na Internet, como os browsers, os servidores web, os clientes de e-mail, e os servidores de e-mail, por exemplo. Talvez você já tenha notado que existem vários programas diferentes para cada um desses tipos. Como exemplo de browsers, podemos citar o Internet Explorer, o Firefox e o Chrome, e como exemplos de servidores Web, podemos citar o Apache e o IIS. Você não acha interessante o fato de que qualquer browser consegue se comunicar com qualquer servidor web? O mesmo vale para todas as outras aplicações, como e-mail, por exemplo. Antes que você se pergunte, saiba que provavelmente as pessoas que desenvolveram o Firefox, provavelmente nunca falaram com as pessoas que desenvolveram o IIS. 
A resposta para isso é que as aplicações que se comunicam em rede devem especificar quais mensagens elas vão trocar, quais os formatos dessas mensagens, e a ordem em que podem ser trocadas. Isso é um protocolo de aplicação. Desse modo, os programas são apenas implementações desses protocolos. Não importa qual é o nome do programa, ou seja, quem o escreveu, tudo que ele transmite e recebe deve seguir esse padrão. Assim, mesmo que tenhamos dois browsers diferentes enviando requisições para acessar o mesmo servidor web, as mensagens enviadas pelos dois serão idênticas.
A camada de aplicação corresponde à definição desses protocolos. Com ela, os programas passam a ser apenas a implementação dos protocolos, permitindo, assim, que programas escritos por diferentes pessoas possam se comunicar. Existem protocolos de aplicação para e-mail, web, transferência de arquivos, tradução de nomes de máquinas para endereços numéricos, entre vários outros. Você vai estudar alguns desses protocolos em detalhes na Aula 7 desta disciplina.
	Visão da estrutura em camadas TCP/IP
	Acabamos de estudar todas as camadas do modelo OSI e vimos as funções de cada uma delas, mas não estudamos ainda nenhum protocolo de nenhuma camada. Você já sabe que para duas máquinas se comunicarem elas precisam usar os mesmos protocolos em cada uma das camadas. Portanto, é necessário que exista uma arquitetura real que implemente os protocolos para cada camada. A arquitetura que apresentaremos agora é a utilizada na Internet e se chama TCP/IP. O conjunto dos protocolos de todas as camadas juntas é normalmente referenciado como pilha de protocolos. O Quadro 2 mostra as camadas da arquitetura TCP/IP.
	Aplicação
	Transporte
	Rede
	Enlace
	Físico
Quadro 2 - Camadas do modelo TCP/IP
Existem duas coisas muito importantes a serem observadas no Quadro 2. A primeira é que não existem as camadas de sessão e apresentação. Entretanto, atualmente muitas das funções dessas camadas são implementadas ou na camada de aplicação (como é o caso da compressão) ou na camada de transporte (como é o caso da criptografia). A segunda coisa importante é que embora apareçam os níveis físico e de enlace, o modelo TCP/IP não propõe nenhuma implementação para essas camadas. Isso foi feito porque a proposta do TCP/IP é ser utilizado sobre qualquer tecnologia de rede existente. Por causa disso é que a Internet consegue ser uma rede de dimensões globais, ou seja, formada por redes espalhas por todo o planeta. Desse modo, o TCP/IP é utilizado sobre redes Ethernet, ATM, Token Ring etc. Essas redes constituem os níveis físico e de enlace.
Como exemplos de protocolos da camada de aplicação do modelo TCP/IP, podemos citar: DNS, HTTP, SMTP, POP3, IMAP, FTP e NFS.  A camada de transporte fornece dois protocolos principais: TCP e o UDP. O TCP implementa controle de erros e de fluxo, além de realizar a segmentação (divisão em várias partes) e remontagem das mensagens, reordenando os segmentos que chegam fora de ordem. É utilizado pela maior parte das aplicações. O UDP é um protocolo mais simples que não fornece garantia de entrega das mensagens. O UDP é mais utilizado em aplicações que transmitem fluxos (streaming) de áudio e vídeo. Na camada de rede, é utilizado unicamente o protocolo IP. Conforme estudaremos a partir da Aula 8, o IP é o grande responsável pelo sucesso da Internet. Você pode observar que o nome da arquitetura leva o nome dos dois protocolos mais importantes da pilha de protocolos: o IP e o TCP. 
	Leituras complementares
	<http://www.teleco.com.br/tutoriais/tutorialosi/pagina_3.asp>
<http://www.networkexperts.com.br/CursoRedes/LivroCisco.htm>
<http://pt.wikipedia.org/wiki/Modelo_OSI>
Em cada um dos endereços mencionados, você irá encontrar informações importantes que podem complementar os estudos da camada OSI, além de informações sobre as outras camadas do modelo OSI.
<http://pt.wikilingue.com/es/EBCDIC>
Nesse site, você encontra mais informações a respeito do código EBCDIC.
	Resumo
	Nesta aula, você aprendeu que as funções de uma rede são divididas em sete camadas através do modelo de referência OSI da ISO. Viu que esse modelo foi criado principalmente para facilitar o desenvolvimento de novos padrões de rede, uma vez que torna as tarefas mais independentes uma das outras. Estudou que cada camada não determina como as coisas devem ser feitas, mas apenas limita o que deve ser feito em cada camada. Analisou detalhadamente as funções de cada uma das camadas. Como o modelo em camadas precisa de protocolos que implementem as funções das camadas, ao final da aula vimos os protocolos utilizados pelo TCP/IP, que é o modelo utilizado na Internet. 
		Autoavaliação
	 
	1. Quais os objetivos de se organizar as funções de uma rede em camadas?
	2. Relacione os equipamentos de rede que você conhece e a camada do modelo OSI com a qual eles trabalham.
	3. O que é uma PDU?
	4. Por que o modelo TCP/IP não especifica as camadas física e de enlace?
	5. Cite as principais funções de cada camada do modelo OSI.
	 
	 
	
	Aula 6 - Padrões de redes e as redes Ethernet
	 
	
	Apresentação
	Na aula passada, você estudou que as funções de uma rede são divididas em sete camadas, segundo o modelo OSI. Pôde observar também que as funções necessárias para transmitir informação de uma máquina para outra de uma mesma rede fazem parte apenas da camada física e da camada de enlace. Como existem várias formas de realizar as tarefas dessas camadas, para que máquinas diferentes consigam se comunicar elas precisam realizar cada uma dessas tarefas da mesma forma. Por isso, existem os padrões de rede, que iremos começar a estudar agora. Nesta aula, você vai estudar detalhadamente o padrão Ethernet, e na próxima aula estudará brevemente diversos outros padrões.
		
	Objetivos
	 
	Ao final desta aula, você será capaz de: 
entender o que é um padrão de rede;
entender como funcionam as redes Ethernet;
compreender as diferenças entre as variações do padrão Ethernet;
identificar características avançadas referentes ao funcionamento dos switches. 
	 
	Padrões de redes
	Como você viu na aula passada, quando duas aplicações executadas em máquinas diferentes estão se comunicando, podemos dizer que todas as camadas domodelo OSI são envolvidas. Apesar disso, você viu que apenas as camadas, física e de enlace, estão realmente envolvidas no processo de transferir fisicamente as informações de uma máquina para outra. Falamos que roteadores interligam redes, que podem ser do mesmo tipo ou de tipos diferentes, mas que o roteador pertence (possui uma placa de rede) a cada uma das redes que interligam. Portanto, as informações são passadas sempre de uma máquina para outra máquina da mesma rede.
Mas, como fazer para que todas as máquinas de uma mesma rede se comuniquem, se existem diversas funções realizadas pela camada de enlace e cada uma pode ser feita de diversas maneiras? Ou seja, existem vários tipos de endereço, vários protocolos de acesso ao meio diferentes, e assim por diante. Se as máquinas utilizarem, por exemplo, protocolos de acesso ao meio diferentes, elas não vão conseguir se “falar”. O mesmo ocorre para o nível físico, pois se duas máquinas utilizarem par trançado, mas não estiverem de acordo sobre qual o sinal que vão enviar em cada fio do cabo, a comunicação jamais vai ser bem sucedida. 
A solução para isso é fazer com que todas as máquinas executem cada uma das tarefas dos níveis físicos e de enlace exatamente do mesmo modo, definindo um padrão de rede. Desse modo cada padrão vai determinar o protocolo de controle de acesso ao meio, o tipo de endereço, o mecanismo de controle de erro, o formato dos quadros, o mecanismo de controle de fluxo, que serão utilizados na rede. O mesmo aplica-se ao nível físico, definindo, por exemplo, quais tipos de cabos podem ser utilizados e como os sinais são transmitidos. Evidentemente, existem diversos padrões, como Ethernet, ATM, e Token Ring, por exemplo, e cada um funciona de um modo diferente, sendo incompatíveis entre si. Portanto, todas as máquinas de uma rede devem ser do mesmo padrão de rede. 
		 
	Como praticamente todas as funções da camada de enlace são implementadas dentro da placa de rede, ela é quem determina o tipo da sua rede.
	 
	Para ilustrar, suponha que existem dois laboratórios na sua escola, um deles utiliza o padrão Ethernet, de modo que todas as máquinas têm que ter uma placa de rede Ethernet. O outro laboratório usa o padrão Token Ring, de modo que todas as máquinas devem possuir uma placa Token Ring. Caso desejássemos interligar os dois laboratórios, teríamos que colocar um roteador interligando os dois.
		
	Atividade 1
	 
	 
	 
	1. O roteador, mencionado no exemplo acima, deverá ter quantas placas de rede e qual(is) o(s) padrão(ões) dela(s)?
	 
	2. As máquinas de uma rede conseguem enviar mensagens para as máquinas da outra rede?
	 
	 
	Você pode estar se perguntando qual dos padrões de rede existentes e o melhor? Ou, talvez, por que existem tantos padrões? A resposta é que cada padrão acaba sendo mais indicado para certo tipo de ambiente, que pode ser o ambiente físico, mas, normalmente, se refere às aplicações que serão executadas sobre a rede. Portanto, dependendo da aplicação para qual a rede será utiliza, um padrão é mais indicado que outro.
Nas aulas anteriores, falamos que a comparação entre redes de diferentes padrões (ou tecnologias, como havíamos nos referido) deve considerar fatores como custo, desempenho, confiabilidade, tolerância a falhas, garantia do retardo de transmissão, entre outras. Portanto, quando for decidir o padrão de rede a utilizar, você deverá considerar quais dessas características são mais importantes no seu caso. Entretanto, como atualmente a maioria das redes são utilizadas para executarem aplicações dos mais variados tipos, cada uma com requisitos diferentes, a grande maioria das empresas utiliza o padrão Ethernet, pois ele oferece um bom equilíbrio entre todas as características citadas (custo, desempenho etc.).
Falamos sobre padrões, mas não dissemos quem os define. Na aula passada, você conheceu a ISO e viu que existem diversas organizações subordinadas a ela. O Institute of Electrical and Eletronics Engineers (IEEE) é uma dessas organizações, e possui grupos de trabalho (chamados 802) responsáveis pela definição dos padrões para redes locais (LANs) e Metropolitanas (MANs).
A Tabela 1 mostra os principais grupos de trabalho 802, em que se pode ver que todos eles recebem como prefixo do nome o termo 802.
Tabela 1 - Padrões 802 do IEEE
	
Padrão 802
	Descrição do Padrão
	802.1b
	Gerência de Rede
	802.1d
	Controle de acesso ao meio
	802.2
	Atua no LLC (Controle de Link Lógico)
	802.3
	CSMA/CD
	802.5
	Especificações do método de acesso Token Ring da camada física
	802.7
	Mans de banda larga
	802.6
	Fibra óptica
	802.9
	Integração de Redes Locais
	802.10
	Protocolo para provimento de segurança em uma MAN
	802.11
	Lans sem fio
	
	
		
	Atividade 2
	 
	 
	 
	Pesquise e descreva cada um dos padrões 802 citados na tabela acima.
Sugestão de pesquisa: http://pt.wikipedia.org/wiki/IEEE_802
	 
	 
	Redes Ethernet
	As redes Ethernet surgiram na década de 70 e ao longo desses 40 anos ela se firmou como a tecnologia de rede mais utilizada, dominando completamente o mercado das redes locais de computadores (LANs). Isso aconteceu graças a sua simplicidade de instalação e administração e ao surgimento de variações do padrão Ethernet original que garantiram sempre uma melhora no desempenho da rede de modo a atender as demandas de cada época. Inicialmente, estudaremos o padrão Ethernet original e depois analisaremos essas variações, que são conhecidas como Fast Ethernet, Gigabit Ethernet e 10 Giga.
A camada de enlace é dividida nas subcamadas de Controle do Link Lógico (Logic Link Control - LLC) e Controle de Acesso ao Meio (Media Access Control - MAC). As principais funções da LCC são: fazer a interação com a camada superior, e permitir a interoperabilidade entre diferentes tecnologias de rede. A subcamada MAC é que realmente realiza as principais tarefas, como montar e desmontar os quadros e controlar o acesso ao enlace. No nível físico, naturalmente, as principais tarefas são a codificação/decodificação dos bits (como os 0s e 1s são representados) e a transmissão/recepção desses sinais no enlace. 
Antes de continuar a leitura, pare e pense um pouco a respeito do que será que vamos explicar sobre as redes Ethernet. Pensou? Ora, se uma tecnologia de rede, como é o caso da Ethernet, compreende apenas as funções do nível físico e de enlace, vamos explicar como a Ethernet realiza cada uma das tarefas dessas camadas. Isso vale para qualquer tecnologia de rede que você for estudar, como, por exemplo, ATM e Token Ring, das quais falaremos na próxima aula.
	Endereçamento
	Você já sabe que para que se possa identificar quem transmitiu um quadro e para quem ele é destinado as placas de rede possuem um endereço. Nas redes Ethernet, esse endereço é de 48 bits (6 bytes) e já vem gravado na própria placa de rede. Por isso, muitas vezes é chamado de endereço de hardware ou endereço MAC. Cada endereço Ethernet é único no mundo, ou seja, não podem existir duas placas com o mesmo endereço. Para isso, cada fabricante recebe um código de três bytes e utiliza os outros três para identificar suas placas. Portanto, os três primeiros bytes de um endereço Ethernet identificam o fabricante e os outros três identificam cada placa feita pelo fabricante. A Figura 1 ilustra um endereço Ethernet. Veja que eles são representados como 12 dígitos hexadecimais.
	
	Figura 4 – Endereço Ethernet
	Essa aparente divisão serve apenas para evitar a repetição de endereços. Durante a operação da rede, essa divisão não é considerada, de modo que os endereços são utilizados como um único identificador de 6 bytes. Por isso, os endereços de uma placa não possuem relação nenhuma com qualquer outro endereço. Dizemos que o endereçamento é plano (significando o oposto de hierárquico).
		 
	Veja a lista dos códigos utilizados pelos fabricantes de placas Ethernet em: <http://standards.ieee.org/regauth/oui/oui.txt>Os endereços Ethernet podem ser unicast, multicast, ou broadcast, significando, respectivamente, que o quadro deve ser entregue a uma única máquina, a um grupo de máquinas ou a todas as máquinas da rede. Os endereços multicast e broadcast possuem o último bit do byte mais significativo sendo 1. Esse byte corresponde aos dois dígitos mais a esquerda da representação hexadecimal de um endereço Ethernet. Na Figura 1, esse byte seria 3C. Nos endereços broadcast, todos os bits do endereço são 1s, de modo que o endereço broadcast em uma rede Ethernet é FF:FF:FF:FF:FF:FF. Naturalmente, a maioria dos quadros transmitidos em uma rede utilizam endereços unicast, uma vez que são destinados a apenas uma das máquinas da rede.
Você acha que os quadros com endereços multicast e broadcast são repassados de modo diferente pelos swicthes? Se respondeu sim, acertou. Enquanto quadros com endereços unicast são encaminhados apenas na porta onde a estação de destino está conectada, esses quadros são encaminhados por todas as portas do switch. Portanto, mesmo que sua rede utilize apenas switches, lembre-se, um quadro enviado para um endereço de broadcast irá ocupar toda a rede, pois será retransmitido por todas as portas de todos os switches! Desse modo, embora os endereços broadcast sejam importantes para diversas aplicações, se utilizados em excesso, eles podem comprometer o desempenho da rede. Isso é um dos fatores que faz com que as pessoas evitem criar redes com um número muito alto de máquinas, preferindo dividir a rede em várias redes menores.
Como uma última colocação sobre endereços Ethernet, saiba que embora eles já venham gravados nas placas de rede, é possível redefinir esse endereço através de software, utilizando comandos do sistema operacional. Isso, entretanto, não altera o endereço gravado na placa, o comando precisa ser aplicado cada vez que o equipamento é ligado.
	Formato do quadro
	Uma questão de extrema importância em qualquer tecnologia de rede é o formato do quadro transmitido pelas placas de rede. Cada tecnologia diferente tem seu próprio formato. Em algumas redes, o tamanho do quadro é fixo e em outras é variável, ou seja, cada quadro transmitido pode ter um tamanho diferente. As redes Ethernet utilizam a segunda abordagem, pois a parte de dados do quadro pode conter um número variável de bytes. Isso é importante, pois permite que o tamanho do quadro se ajuste à quantidade de informações a serem transmitidas. 
Apesar de possuir um tamanho variável, o quadro deve possuir pelo menos 64 bytes e não pode ser maior que 1518 bytes. Você vai entender o porquê do tamanho mínimo em breve, quando estudar o protocolo de acesso ao meio. A definição de um tamanho Máximo é importante para garantir um justo compartilhamento do canal de transmissão e evitar problemas de espaço nos buffers dos switches. A Figura 2 mostra o formato do quadro Ethernet. Embora o CRC seja adicionado no final do quadro, também podemos considerá-lo como um campo de cabeçalho.
	
	Figura 2 – Formato do quadro Ethernet.
	Como era de se esperar, um quadro contém, além do campo para colocar os dados que se deseja transmitir, campos adicionais que possibilitam a rede realizar suas funções. A seguir, listamos todos os campos do quadro e descrevemos sua finalidade.
Campo de dados - Esse campo contém as informações que a camada de rede passou para serem transmitidas. Em redes que utilizam o protocolo IP, esse campo corresponde a um datagrama IP1. Lembre-se de que o tamanho mínimo do quadro como um todo é 64 bytes e o tamanho máximo é 1518. Desse modo, como a soma do tamanho dos campos de endereço (12 bytes) com os campos de tamanho/tipo (2 bytes) e o CRC (4 bytes) é 18 bytes, o tamanho mínimo desse campo é 48 bytes e seu tamanho máximo é 1500 bytes. Se as informações a serem transmitidas forem maiores que 1500 bytes, elas serão divididas em mais de um quadro. Se as informações forem menores que 46 bytes, bytes de enchimento são colocados no quadro para ele atingir o tamanho mínimo. Os bytes de enchimento são retirados no destino de modo a não comprometer a informação transmitida.
Campos de endereço de origem. Este campo contém o endereço de origem (6 bytes), são os 6 bytes que formam o endereço MAC da placa de rede da máquina que está transmitindo o quadro.
Campos de endereço de destino. Este campo contém o endereço de destino (6 bytes) da máquina que deve receber o quadro, mas pode ser também um endereço multicast ou broadcast. 
O campo de tipo. Nas primeiras versões da Ethernet, o campo de tipo inicialmente era na verdade um campo de tamanho que indicava quanto bytes tinham no campo de dados. Posteriormente, passou a ser utilizado para indicar o tipo da informação contida no campo de dados. Como o conteúdo do campo de dados na verdade é um pacote da camada de rede, o campo de tipo contém o identificador do protocolo da camada de rede que o gerou. Isso é necessário porque uma máquina pode ter mais de um protocolo de rede instalado, como o IP e o IPX, por exemplo. Assim sendo, quando uma placa Ethernet recebe um quadro, ela precisa passar seu conteúdo para o protocolo da camada de rede igual ao que gerou o quadro na máquina transmissora, e o campo de tipo é quem diz qual é esse protocolo. Cada um dos possíveis protocolos de rede possui um código específico. O código do protocolo IP, por exemplo, é 0800 (em hexadecimal). 
Cyclic Redundancy Check (Verificação de Redundância Cíclica - CRC). Possui um código de 4 bytes, calculado através do algoritmo CRC-32, utilizado para verificar se houve erros durante a transmissão do quadro. Explicaremos melhor como esse campo é utilizado posteriormente. 
Existe também um campo chamado preâmbulo que não foi mostrado na Figura 2, porque embora ele seja transmitido junto com o quadro, na frente do endereço de destino, podemos dizer que ele não faz parte do quadro. Esse campo, que contém sempre o mesmo valor, é inserido pelo nível físico e é utilizado para sincronização das máquinas. Esse sincronismo é necessário para que os bits possam ser lidos pelo receptor no momento exato. Para isso, o campo é composto por 8 bytes, onde os 7 primeiros possuem o valor 10101010 (em binário), e o último 10101011 (em binário). Os primeiros sete bytes avisam as outras máquinas que um quadro está sendo transmitido e permitem que elas realizem o sincronismo. Veja que esses bits são uma sequência de 0s e 1s alternados. O oitavo byte, que termina com os bits 11, informa que no próximo byte começa a transmissão do quadro propriamente dito. 
O valor do campo CRC é calculado no transmissor e recalculado quando uma máquina recebe o quadro. Caso os valores do campo CRC contido no quadro e do CRC calculado sobre o quadro sejam diferentes, o quadro apresenta erro e é, portanto, descartado. 
1 O datagrama IP é a unidade básica de dados no nível IP. Um datagrama está dividido em duas áreas, uma área de cabeçalho e outra de dados.
	Controle de acesso ao meio
	Você já sabe que após a camada de enlace montar o quadro, ela precisa obedecer às regras que determinam quando ela pode enviar o quadro pelo meio de transmissão ao qual a placa está conectada (um cabo ou o ar), e que isso se chama protocolo de controle de acesso ao meio. O protocolo utilizado pelas redes Ethernet se chama Carrier Sense Multiple Access with Collision Detection (CSMA/CD). Apesar desse nome complicado, ele é bem simples de entender, pois de certo modo parece com as regras que nós, pessoas comuns, utilizamos para conversar.
Procure entender o CSMA/CD por partes. Para nossa explicação, assuma que você está em uma sala conversando com mais algumas pessoas. 
Vamos entender o Multiple Access(MA)? O meio por onde as suas vozes vão ser transmitidas é o ar, que é compartilhado por todas as pessoas. Ainda nesta aula você estudará os possíveis tipos de cabos e topologias utilizados nas redes Ethernet, mas saiba que inicialmente elas eram redes em barra formadas por cabos coaxiais. Depois de algum tempo, passou-se a utilizar Hubs e finalmente os switches.Portanto, o CSMA/CD foi criado para permitir a comunicação de várias máquinas através de um meio compartilhado. Desse modo, o Multiple Access (MA) significa que várias máquinas podem acessar o meio.
E agora, entendendo o Carrier Sense (CS)! Voltando ao nosso exemplo, o que você faz quando quer falar? Como tenho certeza que você é bem educado, aposto que primeiro você escuta para ver se já tem alguém falando. Se não tiver, ou seja, se o meio estiver livre, você fala. Se estiver alguém falando, você espera um pouco. O Carrier Sense (CS) significa que a máquina primeiro escuta o meio antes de transmitir, caso ele esteja ocupado por outra transmissão, a máquina vai esperar certo tempo antes de tentar novamente. 
Veja que se todas as máquinas que tentaram transmitir enquanto outra estava utilizando o meio ficassem esperando ele ser liberado e iniciassem imediatamente suas transmissões neste instante, todas iriam tentar transmitir simultaneamente. Para diminuir as chances disso acontecer, cada máquina gera um tempo de espera aleatório, quando detecta o meio ocupado. Caso o meio também esteja ocupado nessa outra tentativa, a máquina volta a esperar, só que agora gera um tempo de espera ainda maior. A cada tentativa mal sucedida, o tempo cresce exponencialmente até um valor limite. Após atingir esse valor, são feitas mais algumas tentativas e caso não se consiga detectar o meio livre, a transmissão desse quadro é encerrada e o quadro é descartado. O tempo de espera cresce a cada tentativa para que quando a rede estiver muito sobrecarregada as máquinas passem a transmitir temporariamente com menos intensidade. Esse algoritmo é chamado de backoff exponencial.
Vamos falar agora sobre o Collision Detection(CD). Ainda considerando nosso exemplo, por mais que você seja educado, e escute antes de falar, pode acontecer de ninguém estar falando em um dado momento e você e outra pessoa quererem falar ao mesmo tempo. Então, os dois vão começar a falar ao mesmo tempo. Evidentemente, enquanto falam vocês escutam e, ao perceberem que outra pessoa está falando ao mesmo tempo, vocês param de falar.
Nas redes Ethernet, nas quais temos um meio compartilhado, isso se chama colisão, evidentemente compromete todos os sinais transmitidos. Portanto, o CD significa que é feita a detecção de colisão, ou seja, a detecção de transmissões simultâneas. Desse modo, após uma placa conseguir transmitir um quadro, ela continua escutando o meio até a conclusão da sua transmissão. Caso outra máquina comece a transmitir antes que ela termine sua transmissão, ambas irão detectar que houve colisão, parar suas transmissões, e utilizar o algoritmo de backoff exponencial antes de tentar transmitir novamente. A máquina que detectar primeiro a colisão gera um sinal de reforço de colisão para que todas as máquinas percebam que ocorreu uma colisão.
Quando falamos sobre o formato dos quadros Ethernet, dissemos que ele tinha que ter um tamanho mínimo de 64 bytes. Ter um tamanho mínimo é necessário para que se possa fazer a detecção de colisão. Não entraremos em detalhes de porque 64 bytes, mas isso tem a ver com a velocidade de transmissão e o tamanho máximo do cabo, ou seja, a distância entre as duas máquinas mais distantes da rede. O fato importante é que o tempo que a placa de rede demora transmitindo um quadro deve ser maior que o tempo para o primeiro bit do quadro atingir o ponto mais distante da rede, e o sinal de reforço de colisão gerado por aquela máquina, caso ela ocorra, ser recebido pelo transmissor.
	Controle de erros
	Você viu que o quadro Ethernet tem um campo para detecção de erros chamado CRC. O cálculo do CRC utiliza divisão de polinômios, mas nós não entraremos nesses detalhes. O mais importante para você saber é quais campos do quadro entram no cálculo do CRC e qual o tamanho do valor gerado. Você já viu que esse tamanho é de 4 bytes? O cálculo do CRC considera os seguintes campos: endereço de destino, endereço de origem, tipo e dados. Observe que o preâmbulo não entra no cálculo! Portanto, ele é calculado não apenas na parte dos dados como também nos campos de controle. Isso é importante porque, por exemplo, a ocorrência de um erro em um bit do endereço de destino pode fazer com que o quadro seja entregue a máquina errada.
O valor do CRC é calculado no transmissor e colocado no último campo do quadro (CRC). O receptor recalcula o CRC considerando os mesmos campos que o transmissor e compara o valor obtido com o valor contido no campo CRC. Se forem iguais, o quadro é aceito, em caso contrário, o quadro é descartado. Observe que nenhuma mensagem é enviada para o transmissor dizendo se o quadro foi aceito ou descartado. Portanto, a camada de enlace da rede Ethernet não garante a entrega de quadros. Se esse tipo de confiabilidade é necessário, ele deve ser implementado pelas camadas superiores, como a camada de transporte, por exemplo.
	Transmissão de um quadro por uma máquina
	O processo de transmissão de um quadro basicamente compreende a montagem do quadro e a aplicação do protocolo de acesso ao meio para determinar quando ele pode ser enviado no enlace. Lembre-se de que, durante a formação do quadro, o campo de tipo é preenchido com o número do protocolo da camada de rede que passou o pacote para ser transmitido pela camada de enlace.
	Recebimento de um quadro por uma máquina
	Quando uma máquina recebe um quadro através de sua placa de rede, o endereço do campo endereço de destino do quadro é analisado. Caso ele seja igual ao endereço da própria placa de rede ou ao endereço de broadcast, o quadro é recebido e processado pela máquina, caso contrário, é descartado. É possível, entretanto, configurar uma placa de rede para aceitar todos os quadros recebidos. Isso pode ser feito com boas intenções, como, por exemplo, para identificar o tipo de tráfego mais comum na rede, ou com má intenção, como tentar ler informações sigilosas de outro usuário. 
Quando o quadro é aceito, o campo de tipo é então utilizado para identificar para qual implementação de protocolo de rede os dados contidos no quadro devem ser passados.
	Padrões 802.3
	A tecnologia Ethernet foi criada no centro de pesquisas da Xerox (Palo Alto Research Center – PARC) e, posteriormente, foi padronizada pelo IEEE como o padrão 802.3. Para permitir a utilização do 802.3 com diferentes tipos de cabeamento, foram definidas quatro tipos de camada física diferentes, gerando as seguintes especificações: 10Base2, 10Base5, 10BaseT e 10BaseF. O 10 se refere ao fato da velocidade da rede ser de 10Mbps. Base se refere ao fato de utilizar banda básica, que significa que a rede envia os próprios sinais digitais no enlace, ou seja, não realiza modulação. A seguir, você pode ver mais algumas características de cada uma dessas especificações.
10Base2 – conhecidas também como Thin Ethernet. São redes em barra que utilizam cabos coaxiais finos e as máquinas se conectam utilizando os conectores BNC (vistos na aula 1). O 2 (em 10Base2) refere-se ao fato de que o comprimento máximo do cabo, sem usar repetidores, é de aproximadamente 200 metros (na verdade, o comprimento máximo é de 185 metros). As primeiras redes Ethernet foram dessa categoria. Os principais problemas dessas redes eram: i) o baixo desempenho causado pelo fato do meio ser compartilhado, permitindo que apenas uma máquina transmitisse por vez; ii) como a rede era formada por um único e longo cabo, onde todas as máquinas estavam conectadas, os problemas no cabo frequentemente deixavam toda a rede sem comunicação. Apesar desses problemas, seu baixo custo e facilidade de instalação ajudaram a tornar essas redes bastante populares. A conexão das estações ao cabo coaxial é feita por um dispositivo chamado transceptor, que é um TRANSmissor e um reCEPTOR, daí seu nome. O transceptor, que também realiza a tarefa de detectar as colisões, pode ser um dispositivo externo ou interno à máquina. A maioria das redes utilizava transceptores internos, que eram, portanto, integrados na própria placa de rede.
10Base5– conhecidas também como cabo coaxial grosso. Foi o primeiro padrão Ethernet a surgir e utilizar cabo coaxial grosso, com transceptores externos localizados junto a esse cabo. A ligação da placa de rede ao transceptor utilizava um cabo diferente com uma interface conhecida como AUI (Attachment Unit Interface).
10BaseT –  São redes que utilizam o par trançado para ligar as máquinas a hubs, formando uma topologia física em estrela. A principal vantagem dessas redes foi reduzir os problemas decorrentes de falhas no cabeamento, uma vez que cada máquina utiliza um cabo exclusivo para a sua ligação ao hub. Outra vantagem do hub é que ele tornou possível a utilização de mais de um tipo de cabo nas redes. 
10BaseF – São padrões Ethernet que suportam a utilização de fibras óticas. Existem o 10BaseFB, o 10BaseFP e o 10BaseFL. Esse último faz uso de hubs para interligar as máquinas e o comprimento dos cabos pode chegar a 2km, sem o uso de repetidores. 
Como a topologia em estrela mostrou-se a mais vantajosa, o padrão 10BaseT acabou sendo o padrão dominante. Entretanto, observe que um hub podia ter portas de mais de um padrão, como, por exemplo, diversas portas para par trançado e uma porta para fibra ótica para realizar a interligação entre dois hubs diferentes.
	Fast Ethernet
	É natural que as aplicações exijam cada vez maiores taxas de transmissão. Desse modo, o padrão Ethernet precisou evoluir para fornecer maiores velocidades. As modificações no padrão Ethernet, para que ele suportasse velocidades de 100Mbps, geraram um novo padrão chamado Fast Ethernet. Como compatibilidade é uma questão fundamental, o Fast Ethernet utiliza o mesmo protocolo de acesso ao meio (CSMA/CD), o mesmo formato de quadro e possui as mesmas restrições de tamanhos mínimo e máximo dos quadros que o Ethernet de 10Mbps. 
Uma característica importante adicionada juntamente com o Fast Ethernet foi a autonegociação, que permite a um dispositivo que pode trabalhar a 100Mbps baixar sua velocidade para 10Mbps, caso o dispositivo na outra extremidade do enlace suporte apenas essa velocidade.
No que diz respeito aos tipos de cabeamento, ou de nível físico suportados, o Fast Ethernet define as seguintes especificações: 100BaseTX, 100BaseFX e 100BaseT4. O 100BaseTX especifica a utilização com cabos de par trançado de categoria 5 ou 5e, onde são utilizados dois pares do cabo. O 100BaseFX utiliza cabos de fibra ótica. O 100BaseT4 foi definido para permitir o aproveitamento dos cabeamento categoria 3 já instalado nas empresas, e utiliza os 4 pares do cabo. Naturalmente, em novas instalações não é recomendado a utilização do 100BaseT4.
	Gibabit Ethernet
	Após o Fast Ethernet, a evolução seguinte no padrão Ethernet se chamou Gigabit Ethernet, naturalmente, porque a velocidade desse novo padrão é 1 Gbps (ou 1000Mbps). Como antes, procurou-se manter compatibilidade com os padrões Ethernet anterior. 
As principais especificações para a camada física são:
1000BaseT – Utiliza o mesmo cabeamento par trançado categoria 5e das redes Fast Ethernet, porém utiliza os quatro pares do cabo. Suporta distâncias de até 100 metros.
100BaseCX – Foi o primeiro padrão para Gigabit Ethernet que permitia sua utilização com cabos de cobre. Utiliza cabo par trançado blindado e possui um alcance de no máximo 25 metros. 
1000BaseSX – Suporta a utilização de fibras óticas monomodo e multímodo, mas normalmente utiliza essas últimas por serem mais baratas. Permite uma distância máxima de 550 metros.
100BaseLX – Também suporta a utilização de fibras óticas, mas pode ser utilizada em distâncias de até 5 km. Pode ser utilizada apenas com fibras monomodo e é uma tecnologia mais cara que a 100BaseSX. 
Outra diferença entre os diversos padrões Ethernet, mas que não entraremos em detalhes sobre esse assunto, é a forma como eles codificam e decodificam os bits. Cada um utiliza um esquema diferente. Enquanto a Ethernet padrão utiliza um esquema chamado Manchester, a Fast Ethernet utiliza 4B/5B e o Gigabit utiliza 8B/10B.
Após o Gigabit Ethernet já surgiu o padrão 10Gigabit Ethernet. Como você pode observar, cada nova evolução do padrão multiplica a velocidade de transmissão por 10.
Tipicamente, os padrões de velocidades mais elevadas são utilizados para formar o backbone2 da rede, e os de velocidade um pouco inferior para interligar os demais equipamentos ao backbone, e as máquinas dos usuários a esses equipamentos. Atualmente, é muito comum utilizar Gigabit para o backbone e Fast Ethernet para as demais ligações. Quando o preço dos equipamentos for reduzindo, será comum utilizar os backbones a 10Gigabit e as demais ligações no padrão Gigabit.
2 Infraestrutura central da Internet. 
		
	Atividade 3
	 
	 
	 
	1. Nas redes locais que existem nos campus das universidades e nas empresas, quais tipos de cabos e velocidades são mais comuns de serem encontrados?
	 
	2. Pesquise e defina o que é uma fibra monomodo e uma fibra multímodo.
	 
	 
	Aprendendo um pouco mais sobre os switches
	Nós já falamos sobre switches na aula 3, em que mostramos qual sua função, qual a diferença entre ele e um hub e a relação que ele tem com as pontes (bridges). Agora, nós iremos nos aprofundar um pouco mais nesse equipamento de camada dois (enlace) e que é de vital importância nas redes de computadores. 
Sabemos que os switches podem ter diversos números de portas a depender do modelo, sendo os mais comuns os de 4, 8, 16 e 24 portas, e, em geral, eles apresentam uma, duas ou quatro portas com velocidades maiores que as demais, as quais são usadas para fazer as interligações entre os switches. E que interligação é essa? Como dissemos, a quantidade de portas dos switches mais comuns são de até 24 portas, e muitas vezes em nossas redes o número de computadores é bem superior ao número de portas dos switches, então, surge a dúvida: o que fazer para ligar todos os computadores na mesma rede se um único switch não comporta todas as máquinas? Teremos de interligar os switches (essa interligação também pode ser chamada de cascateamento entre switches). Bem, podemos interligá-los de algumas formas. Se ligarmos um cabo de rede de uma porta qualquer de um switch para outra porta qualquer do outro switch, eles já estarão interligados e poderemos adicionar máquinas em ambos que elas terão capacidade de se comunicar, fazendo parte da mesma rede. Como dito antes, existem portas no switch com velocidades maiores e é bastante comum utilizarmos essas portas para fazer essa ligação entre eles, o que permitirá uma maior velocidade de transferência de dados entre os switches, fato necessário, pois todo o tráfego gerado pelas máquinas de cada switch fluirá apenas por esse cabo. Vale salientar que essa interligação de switches usando cabo de rede só permite a interligação de até cinco switches.
Já vimos que podemos interligar switches usando um cabo normal ligando uma ponta em cada switch, e que, em geral, se usam as portas mais rápidas. Mas, se quisermos que a velocidade de transmissão dos dados entre os switches seja ainda maior, podemos fazer essa ligação usando mais de um cabo para formar esse link entre os switches, e esse processo chama-se agregação de links (é necessário configurar as portas de cada switch que participarão desse compartilhamento (trunk) com a opção de port trunk), assim as velocidades das portas serão somadas. Por exemplo, se foram usados três cabos ligando portas de 100 Mbps para essa interligação, a velocidade de transmissão entre os switches será de 300 Mbps (soma das velocidades das três portas), além disso, essa ligação servirá de redundância, pois se uma das portas der algum problema e parar de funcionar, o tráfego entre os switches fica dividido entre as outras duas portas que permanecerem funcionando, agora a 200Mbps (soma das velocidades das duas portas que restaram funcionando).
Alguns tipos de switches, os melhores e mais caros, têm portas feitas especialmente para interligar switches que usam cabos específicos para isso e que têm umavelocidade muito superior a das portas normais.
	Modos de operação dos switches
	Você já sabe que a função do switch é interligar as máquinas da rede, permitindo que todas elas se comuniquem entre si. Veremos agora que eles podem trabalhar em quatro diferentes modos de operação: cut-through, store-and-forward, adaptative cut-through e ainda o fragment-free. Mas, nós só abordaremos os dois primeiros modos, pois eles é que são usados na prática.
No modo cut-through, o switch já começa a retransmitir os pacotes para o endereço de destino assim que recebe a parte do pacotes em que estão os endereços de origem e destino (cabeçalho do quadro). Perceba que aqui o switch não faz análise alguma no pacote, repassando-o para a porta de destino, da mesma forma que recebeu. Uma vantagem desse modo de operação é que o pacote fica pouco tempo dentro do switch, já que é repassado assim que chega, e isso reduz a latência3, pois diminui o trabalho executado pelo switch.
Já no modo store-and-forward, o switch recebe o pacote da porta de origem, armazena-o na memória, faz alguns tipos de checagem e depois o encaminha para a porta de destino. Isso lhe dá a possibilidade de descartar os quadros inválidos, bem como solicitar a retransmissão dos quadros defeituosos. Quais as vantagens que esse modo oferece em relação ao outro? Bem, ele oferece mais estabilidade e um uso mais eficaz da rede e ainda permite que os switches trabalhem com as portas em diferentes velocidades, sem ter que diminuir a velocidade da porta de maior velocidade para ficar compatível com a de menor velocidade.
3 Período de inatividade entre um estímulo e a resposta por ele provocada. 
	Capacidade do blackplane
	O circuito interno do switch responsável por fazer a movimentação dos pacotes entre as portas deverá ter uma capacidade de transferir dados muito superior à velocidade das portas do switch, pois ele precisa encaminhar ao mesmo tempo todos os dados que estão chegando ou saindo do switch de cada porta ao mesmo tempo. Assim, a relação que existe da velocidade do blackplane de um switch é que ele seja pelo menos a metade da soma das taxas máximas de transmissão de todas as portas do switch, para o caso delas serem half duplex.  Quando as portas estiverem operando no modo full duplex, a capacidade de repasse dos pacotes deverá ser igual ou maior à soma das taxas máximas de transmissão das portas do switch.
	Capacidade de aprendizagem de endereços MAC
	Como já falamos, os switches são equipamentos “inteligentes”, pois eles têm a capacidade de aprender os endereços MAC e as portas de origem dos equipamentos que estão ligados a ele. Essa aprendizagem é feita por meio de uma tabela, onde o switch armazena todos os endereços MACs conhecidos da rede. Assim, os switches implementam o repasse dos quadros baseados nas informações contidas nessa tabela, checando o endereço de destino e o endereço MAC de cada quadro. Bem, toda vez que um quadro chega ao switch é checado se o endereço MAC já está na tabela, caso não esteja, esse quadro é enviado para todas as portas. Perceba que isso funciona como um broadcast, e aumenta o tráfego na rede. Então, quando o equipamento receber esse quadro e o responder, será armazenado seu MAC na tabela SAT (Source Address Table) do switch.
	Protocolo IEEE 802.1D Spanning Tree
	É necessário ter bastante cuidado quando interligamos vários switches para não criamos loops entre eles. As pontes e os switches mais recentes implementam o protocolo IEEE 802.1d, que é usado para tentar evitar a ocorrência desses loops, bem como encontrar e desabilitar os caminhos menos eficientes, ou que apresentam uma largura de banda menor, além de habilitar um dos caminhos menos eficientes, caso o mais eficiente venha a falhar.
Esse protocolo é especificado e padronizado pelo IEEE e faz parte do conjunto de normas IEEE 802.1d.
	Dividindo a rede física em redes virtuais: VLANs
	Dando seguimento ao nosso estudo, falaremos agora sobre o conceito de Vlan (Virtual Lan), artifício usado para melhorar a forma de gerenciar as redes. O padrão que descreve essa tecnologia é o 802.1Q e que estudaremos agora.
Criar vlans em um switch é dividi-lo logicamente (não fisicamente) de forma que ele “pareça” ser dois ou mais equipamentos distintos. As portas de cada parte dessa divisão lógica não podem se comunicar diretamente, visto que estarão isoladas pela configuração empregada nas portas do switch. Para cada vlan que eu crio, eu associo algumas portas e apenas as portas que estiverem associadas a essa vlan conseguirão se comunicar. Chamamos a atenção novamente, pois é como se dividíssemos o switch fisicamente, mas que tudo é feito logicamente por software. Vamos exemplificar para que fique mais fácil de entender. Suponha que criamos uma vlan e atribuímos o número 10 a ela (pois as vlans têm números como identificadores sendo de 0 a 4096), e associarmos a essa vlan as portas 1,2,3,4 e 5 e as portas restantes associamos a vlan 11.
Dessa forma, nenhum equipamento que esteja nas portas da vlan 10 poderão se comunicar (enviar pacotes) diretamente para a vlan 11 e vice-versa. Assim, perceba que a função das vlans é isolar grupos de computadores na rede. Elas permitem que computadores conectados em vários switches diferentes façam parte da mesma rede (vlan). Além disso, cada par de switches pode estar conectado por um único cabo, ou seja, não é necessário um cabo para cada vlan.
	Tipos de VLAN
	Existem algumas formas de se criar vlans, mas abordaremos apenas as mais usadas.
Vlan por porta – O administrador da rede especifica a qual vlan cada porta irá pertencer. Os equipamentos que forem ligados nessas portas farão parte daquela vlan especificada. Esse é o tipo mais utilizado de vlan.
Vlan por MAC address – Essa forma oferece algumas vantagens, mas é muito trabalhosa, pois o administrador tem que pegar os MACs de cada equipamento e cadastrar no switch como fazendo parte de uma determinada vlan. Assim, mesmo que o equipamento mude de porta, ele continuará na mesma vlan, pois não estará atrelada à porta e sim ao MAC.
Vlan por autenticação 802.1x – Nesse método, só após ser autenticado na rede, o usuário poderá fazer alguma coisa. E podem ser criados vários tipos de configuração para os usuários, de modo que mesmo que pessoas diferentes se loguem na mesma máquina, cada uma obterá recursos diferentes. É importante entendermos que para que os equipamentos que fazem parte de vlans diferentes possam se comunicar, se faz necessário o uso de um roteador (conectado às varias vlans) que roteará os pacotes entre as redes, assim como acontece com as redes separadas fisicamente.
	Resumo
	Nesta aula, você aprendeu sobre os padrões de rede. Viu que cada padrão de rede define características diferentes de protocolos, de dispositivos e funciona a velocidades diferentes. Você também estudou sobre o padrão Ethernet, que foi o padrão original, e que evoluiu para o Fast Ethernet e já evoluiu para o padrão Gigabit Ethernt, bastante usado, e que também já evoluiu para o padrão 10 Gigabit Ethernet, já em uso, embora mais restritamente, devido a detalhes como preço ainda alto dos equipamentos que suportem essa velocidade. Além disso, você viu com mais detalhes as características dos switches e os modos em que eles podem operar. Abordamos, ainda, como podemos dividir a rede de maneira lógica, como se estivéssemos fazendo de maneira física, com o uso de vlans.
		Autoavaliação
	 
	1. Descreva quais são as diferenças entre o padrão de Ethernet original e o Fast Ethernet que temos atualmente.
	2. Dê dois exemplos em que seria interessante o uso de vlans.
	3. Para um sistema de rede sem fio de um campus universitário, onde centenas ou até milhares de alunos precisam ter acesso a uma rede sem fio, qual o melhor tipo de vlan utilizar?
	4. Descreva quais as principais diferenças entre um hub e um switch.
	5. Como se chama o protocolo da camada de enlace que é manipulado pelos switches?
	 
	 
	Protocolos ponto a ponto

Continue navegando