Baixe o app para aproveitar ainda mais
Prévia do material em texto
Recife, 2011 Redes de Computadores UNIVERSIDADE FEDERAL RURAL DE PERNAMBUCO (UFRPE) UNIDADE ACADÊMICA DE EDUCAÇÃO A DISTÂNCIA E TECNOLOGIA Juliano Bandeira Lima Obionor O. Nóbrega Volume 3 Universidade Federal Rural de Pernambuco Reitor: Prof. Valmar Corrêa de Andrade Vice-Reitor: Prof. Reginaldo Barros Pró-Reitor de Administração: Prof. Francisco Fernando Ramos Carvalho Pró-Reitor de Extensão: Prof. Paulo Donizeti Siepierski Pró-Reitor de Pesquisa e Pós-Graduação: Prof. Fernando José Freire Pró-Reitor de Planejamento: Prof. Rinaldo Luiz Caraciolo Ferreira Pró-Reitora de Ensino de Graduação: Profª. Maria José de Sena Coordenação Geral de Ensino a Distância: Profª Marizete Silva Santos Produção Gráfica e Editorial Capa e Editoração: Rafael Lira, Italo Amorim e Heitor Barbosa Revisão Ortográfica: Elias Vieira Ilustrações: Moisés de Souza Coordenação de Produção: Marizete Silva Santos Sumário Apresentação ................................................................................................................. 4 Conhecendo o Volume 3 ................................................................................................ 5 Capítulo 1 – A Camada de Enlace de Dados .................................................................... 6 1.1 Introdução .................................................................................................................6 1.2 Enquadramento .........................................................................................................8 1.3 Técnicas de deteção e correção de erros ...................................................................9 1.4 Protocolos de acesso múltiplo .................................................................................11 1.5 Endereçamento na camada de enlace .....................................................................14 1.6 Controle de fluxo na camada de enlace...................................................................16 1.7 Protocolo Ponto a Ponto ..........................................................................................19 1.8 MPLS – Comutação de Rótulos Multiprotocolo .......................................................22 Capítulo 2 – A Camada Física ........................................................................................ 27 2.1 Introdução: Aspectos Teóricos da Comunicação de Dados .....................................27 2.2 Meios de Transmissão .............................................................................................31 2.3 Algumas Redes de Acesso........................................................................................38 Capítulo 3 – Redes Sem Fio .......................................................................................... 50 3.1 Introdução ...............................................................................................................50 3.2 WLANs: Redes Locais Sem Fio .................................................................................52 3.3 Outras Tecnologias de Redes Sem Fio: Bluetooth e WiMAX ....................................57 Considerações Finais .................................................................................................... 66 Conheça os Autores ..................................................................................................... 67 4 Apresentação Caro(a) aluno(a), Seja bem-vindo(a) ao curso de Redes de Computadores. Este curso é composto por 4 volumes. Neste primeiro volume, vamos estudar os conceitos introdutórios e os principais modelos de referência na área Redes de Computadores. Também estudaremos, neste volume, as principais aplicações utilizadas em ambiente de Internet (como, por exemplo, navegação na Web, correio eletrônico, telefonia via Internet, dentre outros). Neste terceiro volume, serão abordados os principais aspectos da camada de enlace de dados e da camada física. No estudo das funcionalidades dessas camadas, destacaremos a necessidade de sua implementação e da sua independência das camadas superiores. Se toda a parte lógica relacionada a datagramas, segmentos e aplicações foi vista nos dois primeiros volumes desa disciplina, agora, nós estaremos interessados em saber como os dados, efetivamente, saem de um transmissor e são entregues na interface física do receptor apropriado. No terceiro capítulo, apresentaremos algumas tecnologias de redes de computadores utilizadas em ambientes sem fio. Estudaremos, em particular, os padrões que descrevem as tecnologias Wi-Fi (redes locais sem fio), Bluetooth (redes pessoais sem fio) e WiMAX (redes metropolitanas sem fio). Bons estudos! Juliano Bandeira Lima e Obionor O. Nóbrega Professores Autores 5 Redes de Computadores Conhecendo o Volume 3 Módulo 3 – Redes Locais Carga Horária: 15 h/aula Objetivo: Introduzir os principais conceitos relacionados à camada de enlace de dados e à camada física, apresentando seus protocolos básicos e descrevendo suas funcionalidades. Apresentar algumas das principais tecnologias de redes sem fio, enfazitando suas particularidades e sua importância diante das novas necessidades dos usuários. Conteúdo Programático » Camada de Enlace de Dados; » Camada Física; » Redes sem Fio. 6 Redes de Computadores Capítulo 1 – A Camada de Enlace de Dados Vamos conversar sobre o assunto? Caro(a) aluno(a), No volume 2, tivemos a oportunidade de conhecer um pouco mais sobre o funcionamento lógico das redes de computadores. Primeiro, conversamos sobre a camada de transporte e descobrimos as estratégias que ela usa para prover uma comunicação fim a fim confiável entre duas máquinas e fazer com que os dados sejam entregues aos processos corretos na camada de aplicação; depois, quando estudamos a camada de rede, vimos como o seu endereçamento é fundamental para que os datagramas sejam encaminhados da melhor forma possível pelos roteadores. Então, será que, agora, já sabemos tudo sobre as redes de computadores!? Com certeza não... só para entendermos o que está faltando, vamos, mais uma vez, empregar uma analogia entre a transmissão de dados numa rede de comunicação e a entrega de uma correspondência. Quando chegamos à camada de rede e dizemos por onde um pacote precisa passar até chegar ao seu destino, é como se listássemos uma série de pontos de referência que, ao serem percorridos em sequência, levarão à máquina que desejamos alcançar. No entanto, ainda não foi dito de maneira explícita como esses “saltos” entre os pontos de referência (roteadores!) devem acontecer. Será que, quando um roteador indica o próximo roteador a ser alcançado, os dados desaparecem num canto e aparecem noutro como num passe de mágica!? Mais uma vez, a resposta é: não! É preciso que se diga se esses dados serão “jogados” num fio de cobre, numa fibra óptica ou irradiados por uma antena, da mesma forma como é necessário dizer se o “carteiro” se locomoverá de um lugar a outro a pé, de carro ou de avião. Além disso, é preciso que se diga em que interface física os dados serão entregues ou, noutras palavras, em que placa de rede eles devem ser deixados. É por esses e por outros motivos que discutiremos nos próximos capítulos que a camada de enlace de dados e a camada são necessárias. Começaremos nosso estudo com a camada de enlace de dados e aprenderemos como são implementadas funções de enquadramento, controle de fluxo, controle de erros, controle de acesso ao meio etc. De modo mais específico, apresentaremos alguns dos principais protocolos dessa camada e sua importância no contexto de redes locais. No Capítulo 2, estudaremos a camada física e, por fim, no Capítulo 3, discutiremos algumas tecnologias de redes sem fio. 1.1 Introdução Na nossa última conversa, quando estudamos a camada de rede, vimos que o serviço que ela oferece tem o objetivo principal de prover a comunicação entre dois hosts. No entanto, do ponto de vista físico, o caminho entre esses dois hostscorresponde basicamente a uma série de roteadores interligados por enlaces. Observe a Figura 1.1, em que são ilustrados de forma esquemática dois roteadores que se comunicam por um protocolo de enlace de dados. O que o equipamento do lado esquerdo recebe são quadros da camada de enlace. Ele precisa, então, retirar o datagrama (camada de rede) de dentro deste quadro e, após desempenhar a sua função de roteamento, precisa “descer” o 7 Redes de Computadores datagrama de volta à camada 2, para que ele seja enviado pela linha física que o levará até o roteador seguinte. O próximo roteador executará os mesmos passos que o anterior e, nó a nó, o quadro (e consequantemente o datagrama contido neste quadro) vão “viajando” até o destino final. Figura 1.1 – Localização do protocolo de enlace de dados O que percebemos, a partir da descrição realizada, é que o protocolo de enlace de dados é algo local. Isso significa que a sua preocupação é dar apenas o “próximo salto”, fazendo com que o quadro seja entregue, na outra extremidade, da melhor forma possível. Pode ser até que, no próximo salto, outro protocolo de enlace esteja sendo empregado e um formato de quadro diferente precise ser definido; isso não vai fazer muita diferença para o protocolo usado no salto anterior. De qualquer forma, há alguns aspectos que são comuns à maioria dos protocolos da camada de enlace. Em primeiro lugar, é preciso que saibamos que, quando os dados são colocados num meio de transmissão, sob a forma de um sinal elétrico ou de uma onda eletromagnética, eles estão expostos a diversas fontes de distorção (falaremos mais sobre isso quando tratarmos da camada física). Isso pode levar à ocorrência de erros nos dados. Já que a camada de enlace é a primeira sobre a camada física, ela assume a responsabilidade de detectar quando esses erros estão presentes e informar a “alguém” que possa tomar alguma providência (em alguns casos, o próprio protocolo de enlace corrige os erros que encontra). Além disso, como o que a camada de enlace recebe da camada física corresponde a uma fluxo contínuo de bits sem “começo, meio e fim”, ela identifica em que pontos começam e terminam os blocos que podem ser interpretados pelas camadas superiores. Isso é chamado de enquadramento. De modo semelhante à camada de transporte, a camada de enlace também precisa implementar controle de fluxo. Isso é necessário para que um transmissor não envie quadros demais, a ponto de fazer “transbordar” a capacidade de armazenamento de um receptor. A diferença básica é que, na camada 2, esse controle é salto a salto (e não fim a fim, como na camada de transporte). À camada de enlace é atribuída, ainda, a responsabilidade de prover confiabilidade na entrega os quadros. Para isso, alguns dos serviços oferecidos por essa camada à camada de rede são orientados à conexão e com confirmação; são formas de assegurar que o outro lado da linha está recebendo de maneira bem sucedida o que se está enviando. Por fim, a camada de enlace se responsabiliza por organizar a maneira como as máquinas acessam o meio físico. Imagine, por exemplo, um cenário de rede sem fio, em que todas as máquinas enviam sinais (que carregam os dados) ao mesmo tempo e na mesma faixa de frequência... é claro que um sinal vai interferir no outro e os receptores não terão como reconhecer o sinal que lhes interessa. Isso acontece em redes em que o enlace é 8 Redes de Computadores compartilhado por diversas máquinas e que operam por broadcast (difusão). Essas situações são solucionadas por meio dos protocolos de múltiplo acesso. Nas próximas seções, cada uma dessas funcionalidades será estudada e tudo poderá ser melhor compreendido. Vamos em frente! 1.2 Enquadramento A primeira funcionalidade da camada de enlace de dados que iremos estudar é a de enquadramento. Como dissemos, o enquadramento é necessário para que um receptor saiba onde começa e termina cada bloco de dados e, assim, possa realizar o processamento necessário e repassar esses blocos às camadas superiores. Os métodos para realizar enquadramento são basicamente quatro: » Contagem de caracteres; » Bytes de flags, com inserção de bytes; » Flags iniciais e finais, com inserção de bits; » Violação de codificação da camada física. A contagem de caracteres consiste em inserir, num campo do quadro da camada de enlace, um valor que indica o número de caracteres do quadro, de modo a indicar ao receptor quantos caracteres ele deve processar antes que um novo quadro se inicie. O principal problema com esta técnica é que, caso ocorra um erro no próprio campo de contagem, o receptor vai achar que há menos (ou mais) caracteres do que deveria, o que compromete o sincronismo na comunicação. Para evitar essa possibilidade, foi proposto um método de enquadramento baseado em bytes de flags, com inserção de bytes. Nela, o início e o fim de um quadro são marcados com um byte especial que, aqui, denotamos por FLAG. Quando um receptor observa a chegada de dois FLAGs sucessivos, ele sabe que, ali, termina um quadro e se inicia outro. Para contonar situações em que o próprio FLAG apareça entre os dados úteis do quadro e, portanto, não deva ser interpretado como um delimitador, utiliza-se um byte de escape, denotado por ESC. Sempre que um FLAG (ou o próprio ESC) aparecer entre os dados úteis, devendo ser ignorado, ele será precedido por um byte ESC e a ambiguidade será corrigida. O terceiro esquema, com flags iniciais e finais e inserção de bits, remove a necessidade de se ter um protocolo orientado a bytes, como acontece na última técnica descrita. Cada quadro começa e termina com o padrão de bits 01111110 (na verdade, esse padrão corresponde a um byte de flag). Para evitar uma ambiguidade, caso esse padrão apareça no meio dos dados úteis, utiliza-se inserção de bits, que consiste, simplesmente, em inserir um bit 0 (zero) sempre que se observar a ocorrência de cinco bits 1 consecutivos. No momento da recepção, o padrão descrito pode ser interpretado como delimitador do quadro e os bits inseridos são retirados. A última alternativa para enquadramento consiste em violar a codificação da camada física, também conhecida como codificação de linha. Para entendermos melhor essa técnica, observemos a Figura 1.2. Na parte superior, ela apresenta uma sequência de bits e, na parte inferior, o sinal elétrico correspondente a ser injetado no meio de transmissão, conforme o código Manchester. Veja que o bit 1 é representado por um pulso “alto / baixo” e que o bit 0 é representado por um pulso “baixo / alto”. Caso enviássemos um pulso “alto / alto” (ou “baixo / baixo”), que não corresponderia nem ao bit 1 e nem ao bit 0 (eis a violação da codificação da camada física!), poderíamos interpretá-lo como um delimitador de quadro. Por fim, é importante dizermos que técnicas de enquadramento mais frágeis, 9 Redes de Computadores como a de contagem de caracteres, normalmente, são usadas de forma combinada com técnicas para detecção e correção de erros. Isso torna a transmissão mais robusta e evita que os dados sejam interpretados erroneamente. Figura 1.2 – Representação da codificação Manchester 1.3 Técnicas de deteção e correção de erros Quando desejamos realizar uma transmissão de dados, nunca temos a garantia plena de que, no lado do receptor, será recebida exatamente a mesma sequência de bits enviada. Isso acontece porque o meio de transmissão, seja ele qual for, está repleto de fontes de distorção que podem modificar os sinais que ali trafegam e ocasionar erros na forma como esses sinais são interpretados. É essa a situação que a camada de enlace precisa enfrentar. O que ela faz é incluir, no momento da montagem de um quadro, bits de redundância gerados conforme determinado código, para que os bits de dados estejam protegidos enquanto passam pelo canal físico. Do outro lado, a camada de enlace receptora utiliza esses bits de redundância para verificar se há algum erro nos bits de dadose, em alguns casos, corrigir os erros encontrados. Assim, serão aumentadas as chances de o quadro ser entregue sem erro às camadas superiores. Um estudo amplo sobre o tema detecção e correção de erros requer uma série de conceitos que estão fora do escopo deste material. Assim, apresentaremos de forma resumida três das principais técnicas empregadas nos protocolos da camada de enlace de dados: (i) verificações de paridade, (ii) métodos de soma de verificação e (iii) verificação de redundância cíclica. A forma mais simples de detectar a presença de erros numa sequência de bits é utilizar um único bit de paridade. Na chamada paridade par, quando se tem uma sequência de b bits, o que se faz é transmitir a própria sequência acrescentando um bit que force o número total de bits 1 ser par. Se desejássemos enviar, por exemplo, a sequência “011001011”, o bit de paridade seria igual a “1”; assim, a sequência a ser de fato transmitida seria “0110010111” (o bit de paridade incluído está sublinhado). No receptor, o número de 10 Redes de Computadores bits 1 seria contado e, caso esse número fosse ímpar, haveria a indicação de que pelo menos um erro aconteceu. Também se pode usar paridade ímpar, em que o bit adicional deve fazer com que o número total de bits 1 seja ímpar. Figura 1.3 – Paridade par bidimensional A inclusão de um bit de paridade único é, no entanto, um esquema bastante frágil. Se ocorrerem erros num número par de bits, por exemplo, com o esquema descrito, o receptor pensará que “está tudo certo”. Uma forma de incrementar a robustez deste método é aplicá-lo de forma bidimensional, conforme apresentado na Figura 1.3. Os bits são organizados linha a linha, formando uma matriz; são calculados os bits de paridade para cada linha e para cada coluna dessa matriz. Esse esquema, além de possibilitar a detecção de erros de dois bits, permite também a correção de erros de 1 bit, o que pode ser compreendido a partir da figura mencionada. Outra maneira de detectar erros na camada de enlace é utilizando a soma de verificação (checksum). Essa técnica consiste em interpretar os bits de um quadro como se fossem uma sequência de números inteiros. Esses números são, então, somados e o complemento a 1 do resultado obtido é colocado num campo específico do quadro (na Internet, por exemplo, emprega-se uma soma de verificação de 16 bits). Quando o quadro chega ao receptor, a soma é refeita e o resultado é confrontado com o que se encontra no campo soma de verificação. Se os valores não coincidirem, uma indicação de erro é 11 Redes de Computadores reportada. O terceiro e mais completo esquema para detecção de erros que estudaremos aqui é baseado na verificação de redundância cíclica (CRC, cyclic redundancy check). O procedimento básico consiste em anexar a uma parcela de dados D, com d bits, r bits adicionais, R, de modo que a nova sequência, agora com d + r bits, seja divisível por uma outra sequência binária G (gerador), previamente definida. Para ficar mais fácil de entender, imagine que desejamos transmitir o número D = 15. Antes de fazê-lo, incluiríamos uma redundância R, de modo que D + R fosse divisível por G = 6, por exemplo. Então, teríamos R = 3, pois (15 + 3) / 6 = 18 / 6 = 3 (o resto é zero). No receptor, essa conta seria refeita e, caso o resto da divisão não fosse zero, haveria uma indicação de erro. Na prática, o processo descrito é implementado usando aritmética módulo 2 e todas as sequências envolvidas são interpretadas como polinômios cujos coeficientes são os bits dessas sequências (há formas práticas de efetuar esses cálculos). Padrões internacionais foram definidos para geradores G de 8, 12, 16 e 32 bits. Cada um dos padrões de CRC pode detectar erros de bits consecutivos (erros em rajada) de r bits ou menos. Mostra-se que, sob determinadas condições, uma rajada de comprimento maior que r + 1 bits é detectada com probabilidade de 1 – 0,5r. Cada um dos padrões de CRC também pode dectectar qualquer número ímpar de erros de bits. Dica Os detalhes de implementação dos códigos de verificação de redundância cíclica fogem ao escopo deste material. No entanto, se você deseja aprender mais sobre este assunto, há bastante material disponível nos livros e na Internet. Selecionamos dois links interessantes para você. Em http://www.macs.hw.ac.uk/~pjbk/nets/crc/, você encontra uma applet em java que demonstra como são obtidas as sequências de bits envolvidas no CRC; a applet encontrada no endereço http://www.ee.uwa.edu.au/~roberto/teach/itc314/java/CRC/crc.html apresenta, também, um circuito lógico para cálculo do CRC. Acesse já! 1.4 Protocolos de acesso múltiplo O tema que estudaremos nesta seção tem uma importância fundamental para as redes de computadores. Você já imaginou se, sempre que uma máquina quisesse transmitir um quadro, o canal de comunicação ao qual ela está ligada estivesse ocupado? De nada adiantaria o bom funcionamento das camadas superiores... simplesmente, a comunicação propriamente dita não iria acontecer. É para isso que existem os protocolos de acesso múltiplo: para disciplinar a forma como as máquinas utilizam o canal de comunicação, oferecendo certos “direitos” e cobrando determinados “deveres”, conforme esclareceremos ao longo do texto. Naturalmente, esses protocolos não são imprescindíveis nos enlaces ponto a ponto. Se tivermos, por exemplo, dois roteadores ligados por um cabo que pertence apenas a eles, o canal sempre estará disponível, já que outras máquinas não terão acesso àquele meio de transmissão. No entanto, se considerarmos uma rede sem fio ou mesmo uma rede cabeada em que aconteça o compartilhamento dos fios (enlace broadcast), a coisa muda de figura, como já explicamos na introdução deste capítulo; cada máquina precisa saber quando pode transmitir e ter “consciência” de que as outras máquinas também desejam fazer uso do meio de transmissão. 12 Redes de Computadores Aqui, estudaremos os protocolos de acesso múltiplo segundo a seguinte classificação: protocolos de divisão de canal¸ protocolos de acesso aleatório e protocolos de revezamento. De maneira geral, um bom protocolo de acesso múltiplo para um canal de broadcast com velocidade R bits por segundo deve respeitar as seguintes premissas: » Quando apenas um nó tem dados a enviar, ele tem uma vazão de R bits por segundo; » Quando M nós têm dados a enviar, cada um deles deve ter uma vazão média de R/M bps; » O esquema é descentralizado, ou seja, não há nós mestres dos quais o funcionamento do protocolo dependa; » O protocolo é simples para que sua implementação seja econômica (tanto no ponto de vista financeiro quanto na questão da carga computacional requerida). 1.4.1. Protocolos de divisão do canal Os principais protocolos baseados em divisão de canal são o TDM (multiplexação por divisão no tempo), o FDM (multiplexação por divisão na frequência) e o CDMA (acesso mútiplo por divisão de código). No primeiro, o canal é dividido em quadros temporais. Cada um desses quadros é, ainda, dividido em compartimentos temporais menores conhecidos como time slots. Finalmente, cada um desses time slots é associado a um nó que deseja transmitir. A transmissão ocorre numa base de revezamento entre os nós, na mesma sequência em que eles foram associados aos time slots criados. Esse esquema é justo do ponto de vista de uso do canal, pois, se tivermos N time slots (e também N nós desejando transmitir), cada nó transmitirá a uma velocidade dedicada de R/N bps durante cada quadro temporal. Além disso, as colisões são completamente evitadas. A desvantagem é que, mesmo que outros nós não estejam transmitindo, um nó específico precisa aguardar a sua vez e não poderá elevar a sua taxa de transmissão ocupando outros time slots que estejam vazios, além daquele que lhe é de direito. Esse tipo de restrição acontece, dentre outros motivos, para facilitar o sincronismo entre transmissores e receptores; um receptor saberá encontrar exatamenteo time slot no qual os dados de seu interesse estão sendo carregados. O esquema de multiplexação por divisão na frequência utiliza o mesmo princípio descrito acima. Todavia, em vez de dividir o canal em quadros temporais, o FDM divide o canal em canais menores ao longo da frequência. Quando transmissões são realizadas em faixas de frequência distintas, os sinais não interferem um no outro. Naturalmente, numa comunicação de dados, quando um canal é dividido em subcanais mais estreitos na frequência, a taxa de transmissão é também dividida (quando esudarmos a camada física, falaremos um pouco mais sobre a teoria envovida nesse processo). Uma técnica de múltiplo acesso baseada em divisão de canal cujo uso vem crescendo bastante é a CDMA. Neste método, os nós que desejam transmitir podem fazê- lo ao mesmo tempo e na mesma faixa de frequência; não são criados quadros temporais nem canais menores ao longo da faixa de frequêncai disponível. O detalhe é que, antes da transmissão, precisa-se atribuir um código a cada nó transmissor, o qual será utilizado para “espalhar” os bits que se deseja enviar. Esse procedimento é conhecido como espalhamento espectral. Se esses códigos forem escolhidos respeitando alguns critérios matemáticos, mesmo após a interferência mútua entre os sinais que ocupam o meio de transmissão, um receptor poderá recuperar os bits transmitidos por um nó específico (desde que ele conheça o código que foi utilizado por este nó). Essa técnica é utilizada em algumas tecnologias de tefonia celular móvel e em certos padrões de redes sem fio. 13 Redes de Computadores Dica Uma excelente ilustração do funcionamento do CSMA/CD é encontrada no endereço http:// www.netbook.cs.purdue.edu/animations/CSMA-CD.html. Acesse e tenha a exata noção de como colisões e transmissões bem sucedidas podem acontecer, quando esse protocolo é usado. 1.4.2. Protocolos de acesso aleatório Nesta classe de protocolos de acesso mútiplo, quando um nó consegue transmitir, ele o faz aproveitando toda a taxa do canal; quando ocorre uma colisão, uma regra deve ser consultada, a fim de que o nó espere um tempo específico antes de tentar uma nova transmissão. A diversidade de critérios para determinar quando esta nova tentativa deve acontecer e outras regras adicionais deram origem a um número imenso de protocolos de acesso aleatório. Aqui, vamos estudar apenas dois deles: o Slotted ALOHA e o CSMA. O primeiro protocolo de acesso aleatório que vamos apresentar é o Slotted ALOHA. Ele funciona conforme os seguintes passos: » Os quadros que os nós desejam transmitir possuem L bits e o tempo é dividido em intervalos (slots) de L/R segundos. Assim, um quadro caberá exatamente num intervalo; » Os nós iniciam transmissões apenas no início de cada quadro; » Se dois ou mais nós colidirem, todos os nós detectarão essa colisão antes do fim do intervalo; » Os nós que não tenham conseguido uma transmissão bem sucedida tentarão retransmitir o quadro nos intervalos subsequentes com probabilidade p. A ideia do Slotted ALOHA parece perfeita, já que, quando um nó consegue transmitir, ele o faz utilizando toda a taxa do canal. Além do mais, as decisões de transmitir e retransmitir são tomadas de modo completamente descentralizado. No entanto, esse protocolo oferece um bom desempenho apenas quando poucos nós estão ativos. É possível demonstrar que, quando há muitos nós desejando transmitir quadros, apenas 37% dos intervalos são úteis; 63% dos intervalos são desperdiçados pela ocorrência de colisões. Em comparação com o ALOHA, o CSMA (acesso múltiplo com detecção de portadora) faz com que os nós sejam mais cuidadosos ao tentar transmitir. Este protocolo se baseia em duas premissas. A primeira delas é a de detecção da portadora, que significa que cada nó “ouve” o canal antes de transmitir. Se o canal não estiver livre, o nó aguarda um tempo aleatório antes de tentar transmitir novamente. Se o canal continuar ocupado, uma nova espera acontece e assim por diante. A premissa de detecção de colisão, que caracteriza o CSMA/CD, entra em ação quando um nó consegue transmitir. Se, enquanto transmite, um nó perceber que houve uma colisão, ele cessa a transmissão e aguarda um tempo aleatório antes de tentar uma retransmissão. É importante mencionarmos que esse protocolo não evita por completo a ocorrência de colisões. Quando um nó transmite, o sinal que carrega os dados demora um tempo (mesmo que muito pequeno) para alcançar todos os outros nós. Dessa forma, um nó ao qual o sinal ainda não chegou pode achar que o canal está livre e efetuar um transmissão, ocasionando uma colisão. A eficiência do CSMA é determinada basicamente pela política de retransmissão adotada após uma transmissão mal sucedida. Esse protocolo é fundamental em tecnologias como a Ethernet. 14 Redes de Computadores 1.4.3. Protocolos de revezamento Os protocolos de revezamento mais importantes são (1) o protocolo de seleção (polling) e (2) o protocolo de passagem de permissão. O primeiro depende fundamentalmente de um nó mestre, que estabelece a sequência em que cada um dos outros nós obterá o direito de transmitir. Quando o nó mestre “avisa” outro nó sobre esse direito de transmissão, um determinado número de quadros pode ser enviado, até que o direito seja repassado ao próximo nó da sequência. Com isso, a rede se livra das colisões existentes nos protocolos de acesso aleatório e os nós não perdem mais tempo com tentativas de retransmissões. As desvantagens do polling estão relacionadas ao atraso de seleção, que corresponde ao tempo que o nó mestre leva para notificar um nó sobre o direito de transmitir, e à centralização do protocolo; se o nó mestre falhar, o canal inteiro ficará inoperante. O Bluetooth é um exemplo de tecnologia que emprega um protocolo de seleção. O protocolo de passagem de permissão não depende de um nó mestre. Um pequeno quadro conhecido como token é repassado entre os nós, obdecendo a uma ordem fixa. Quando um nó detém o token, ele pode transmitir um número máximo de quadros. Após isso, o token é repassado ao próximo nó da “fila”. Apesar de ser descentralizado, a falha de um nó também pode comprometer o funcionamento do protocolo. Caso um nó retenha o token indevidamente, por exemplo, será necessário algum procedimento de recuperação para colocá-lo novamente em circulação. O FDDI e o IEEE 802.5 são exemplos de tecnologias que empregam protocolos de revezamento. 1.5 Endereçamento na camada de enlace No módulo 2 desta disciplina, quando estudamos a camada de rede, passamos um bom tempo conversando sobre questões relacionadas ao endereçamento naquela camada. O fato é que apenas o endereço de camada de rede não é suficiente para que os dados sejam entregues ao hospedeiro correto. Conforme sugerimos na introdução deste capítulo, a interface física de destino de um quadro precisa ser identificada com um endereço de camada de enlace. Este endereço é conhecido como endereço de LAN, endereço físico ou endereço MAC (media access control, controle de acesso ao meio) e está associado ao adaptador (placa) de rede de um host. Os endereços MAC possuem 48 bits e, normalmente, são expressos como 6 bytes escritos em hexadecimal. Em todo o mundo, não há duas placas de rede com o mesmo endereço MAC. Isso é assegurado pelo IEEE, que distribui os endereços MAC entre os diversos fabricantes de adaptadores de rede, fixando os primeiros 24 bits e deixando os 24 bits menos significativos sob responabilidade do próprio fabricante. Uma máquina com determinada placa de rede possui sempre o mesmo endereço MAC, não importando a rede ao qual ela esteja conectada. Isso é bem diferente dos endereços da camada 3, que são lógicos e que podem, inclusive, nem ser válidos no ambiente externo ao de uma rede local (lembram do NAT?). Quando um adaptador deseja enviar um quadro pelo enlace, os endereços MAC de origem e de destino são escritos no quadro. Isso permite que os adaptadores, ao receberem um quadro,confrontem o endereço MAC de destino presente no quadro com o seu próprio endereço MAC e processem (resp. descartem) o quadro caso haja (resp. não haja) coincidência. Envios de quadros em broadcast também são permitidos. Para isso, basta que, na camada de enlace de origem, seja montado um quadro com o endereço de destino FF-FF-FF-FF-FF-FF. Agora que já sabemos do que se trata o endereço MAC, vamos retomar a discussão 15 Redes de Computadores iniciada na introdução deste capítulo... Quando, na camada de rede, um novo salto na rota de um datagrama é definido, é necessário criar um quadro de enlace e colocar o datagrama no campo de carga útil desse quadro (isso pode acontecer num hospedeiro ou num roteador). Neste momento, é preciso que se conheça o endereço MAC correspondente ao enredeço de rede que deve ser alcançado. Essa tarefa é de resposabilidade do ARP (address resolution protocol, protocolo de resolução de endereços). O ARP mantém uma tabela em que endereços de rede e endereços MAC são associados. Quando um quadro precisa ser montado, o endereço de rede de destino é repassado ao ARP e ele informa o endereço MAC correspondente. O que ainda não dissemos é que os registros do ARP são apagados temporariamente. Entenderemos como esse problema é solucionado por meio do exemplo a seguir. Figura 1.4 – Funcionamento do ARP Considere a Figura 1.4, em que o hospedeiro A deseja enviar um pacote ao hospedeiro B. Pelo prefixo do endereço de rede de destino (final!) contido no datagrama, o hospedeiro A sabe que precisa enviar o datagrama para fora da subrede A, isto é, à porta e0 do roteador, cujo endereço é 172.16.20.99/24. O hospedeiro A deve, então, montar um quadro da camada de enlace e, para isso, deve recorrer ao ARP, a fim de descobrir o endereço MAC de e0. Se a tabela ARP não contiver esse registro, este protocolo vai criar um pacote de broadcast, “perguntando” qual o endereço MAC do adaptador associado ao endereço de rede 172.16.20.99/24. O hospedeiro B e a porta e0 do roteador receberão este pacote, mas, naturalmente, apenas o roteador responderá, informando o endereço MAC solicitado. A tabela ARP do hospedeiro A será atualizada e o quadro de enlace poderá ser montado e direcionado à porta e0. Este processo se repetirá no envio do quadro da porta e1 do roteador ao hospedeiro C. Aqui, é importante enfatizarmos que o datagrama criado no hospedeiro A não é alterado em nenhum momento do percurso. Os quadros montados em cada salto é que possuem endereços MAC de origem e de destino que são modificados, com a ajuda do ARP, conforme o enlace que precisa ser percorrido e o protocolo utilizado neste nível. Isso explica 16 Redes de Computadores ainda mais o porquê de termos dito que a camada 2 é uma camada com significado local. Na própria Figura 1.4, as subredes A e B poderiam ter topologias e características físicas diferentes, o que não impediriam que elas utilizassem o mesmo protocolo de camada de rede. 1.6 Controle de fluxo na camada de enlace 1.6.1. Ethernet Nesta seção, começaremos a estudar os principais protocolos e tecnologias da camada de enlace de dados. Como não poderia deixar de ser, iniciaremos nossa conversa sobre este tópico apresentando o protocolo mais amplamente utilizado nas redes locais com fio, a Ethernet. A LAN Ethernet original foi inventada em meados da década de 1970 por Bob Metcalfe e David Boggs. Na Figura 1.5, em que o clássico desenho esquemático de Metcalfe é apresentado, podemos observar os principais elementos do projeto que originou o padrão Ethernet 10Base5, o primeiro de uma série bem sucedida de tecnologias. Enfatizamos a presença de um barramento (Ether) ao qual todas as estações estavam conectadas, de terminadores resistivos (terminator) que impediam que os sinais enviados pelas máquinas ficassem “vagando” indefinidamente pelo barramento e de uma interface mais detalhada entre uma das máquinas e o meio físico. Nessa estrutura em barramento, os sinais seram transmitidos em broadcast, o que também acontecia nas estruturas em estrela baseadas em hubs, largamente utilizadas até a década de 90. Nos anos 2000, ganharam maior popularidade as redes em estrela baseadas em switches ou comutadores, que, diferentemente dos hubs, operam na camada de enlace. Falaremos mais sobre os switches em seços futuras. Figura 1.5 – Desenho original da Ethernet elaborado por Bob Metcalfe A Ethernet foi a primeira tecnologia para redes locais de alta velocidade. Isso fez com que ela saísse na frente de outros padrões que apareceram ao longo dos anos e que possuíam implementações mais caras e complexas. A produção de novas versões da Ethernet, com velocidades cada vez maiores e permitindo fácil atualização a partir de versões anteriores, fortaleceu a tecnologia, fazendo com que um número crescente de usuários fosse conquistado e barateando os equipamentos. 17 Redes de Computadores Diversos detalhes da Ethernet podem ser compreendidos pelo estudo da estrutura do seu quadro. O que se tem, basicamente, é um campo de dados (carga útil), o qual normalmente transporta datagramas IP (a Ethernet também funciona com outros protocolos da camada de rede), diversos campos de cabeçalho com finalidades específicas, além de um preâmbulo e de um CRC (observe a Figura 1.6). O campo de dados tem a capacidade de acomodar de 46 a 1500 bytes. Se um datagrama IP possuir um tamanho fora dessa faixa, ele pode ter de ser preenchido ou fragmentado. Os campos de endereço de origem e de destino contêm os endereços MAC que discutimos na seção 1.5. Os dois bytes do campo tipo servem para identificar o protocolo que está sendo utilizado na camada de rede. Os 7 primeiros bytes do preâmbulo contém o valor 10101010 e o último byte contém o valor 10101011. O preâmbulo tem o objetivo de colocar transmissor e receptor do quadro em sincronismo. Os bytes de CRC têm a função de detectar a presença de erros no quadro. Figura 1.6 – Estrutura do quadro Ethernet Na Ethernet, não se emprega modulação (entenderemos mais sobre isso quando estudarmos a camada física), isto é, não é necessário um modem. Utiliza-se uma codificação de linha, que se encarrega de converter os bits em sinais elétricos que possam ser colocados no meio de transmissão, o que caracteriza uma transmissão em banda-base. A codificação de linha normalmente empregada pela Ethernet é denominada Manchester e o seu funcionamento é ilustrado na Figura 1.7. Figura 1.7 – Codificação Manchester O serviço oferecido pela Ethernet é não confiável e não orientado à conexão. Isso significa que, quando um adaptador monta um quadro da camada de enlace, ele simplesmente o envia, sem se preocupar em estabelecer uma conexão com o outro lado para saber se ele está lá, “escutando” e pronto para receber os dados. Quando um quadro Ethernet é recebido por um adaptador, caso o CRC indique a presença de algum erro, o quadro será simplesmente descartado e nenhuma informação que avise que isso aconteceu será gerada. Naturalmente, o quadro perdido e todo o seu conteúdo serão recuperados por procedimentos implementados em camadas superiores. Se o quadro perdido estiver carregando, por exemplo, um datagrama IP e este, por sua vez, estiver carregando um segmento TCP, tudo será perdido. Como o IP também não provê confiabilidade, é claro que quem vai “sentir” a perda é o TCP, ao sofrer uma temporização por conta de uma 18 Redes de Computadores confirmação que não retornou. As diversas variantes da Ethernet foram padronizadas, ao longo dos anos, por grupos de trabalho IEEE 802.3. Em relação a isso, merecem destaque alguns aspectos que diferenciam cada versão desse protocolo, como o meio transmissão utilizado, a topologia e a técnica de múltiplo acesso empregada. Nas primeiras versões da Ethernet, 10Base-2 e 10Base-5, os dados trafegavam a velocidades de 10 Mbps, sobre cabos coaxiais limitados a 200 m de comprimento. Empregava-se uma topologia em barramento e, quando um quadro era enviado,ele era recebido por todos os adaptadores de rede (observe, mais uma vez, a Figura 1.5). O meio físico compartilhado requeria o CSMA/CD, a fim de evitar que colisões acontecessem o tempo todo. Nas versões mais atuais da Ethernet, muita coisa é diferente. A topologia em barramento foi substituída, na grande maioria dos casos, por uma topologia em estrela. Isso requer o uso de um comutador central ao qual as máquinas são ligadas por cabos de pares trançados de fios de cobre ou cabos de fibra óptica (observe a Figura 1.8). Em relação à velocidade, na metade da década de 1990, a Ethernet já operava a 100 Mbps (Fast Ethernet). O formato de quadro e o protocolo Ethernet MAC original foram, entretanto, preservados. Para permitir o tráfego de dados em velocidades mais altas, as comprimentos máximos dos cabos de cobre ficaram limitados a 100 metros (quando estudarmos a camada física, veremos que a distância que um sinal deve percorrer num meio físico é um fator limitante da taxa alcançada nessa transmissão); quando fibras ópticas são usadas, as distâncias toleradas são maiores, alcançando alguns quilômetros. Figura 1.8 – Topologia em estrela Dando sequência à Ethernet de 100 Mbps, foi introduzida a Ethernet de 1000 Mbps, a chamada Gigabit Ethernet. Algumas de suas principais características são: » Utilização do formato padrão do quadro Ethernet, o que facilita a integração com equipamentos voltados para versões anteriores do protocolo; » Implementação de enlaces ponto a ponto, bem como canais broadcast compartilhados; » Utilização do CSMA/CD para canais broadcast compartilhados; » Operação em full-duplex a 1000 Mbps em ambas as direções para canais ponto a ponto. Para concluirmos o nosso estudo sobre a Ethernet, vamos falar um pouco sobre 19 Redes de Computadores os comutadores utilizados nas topologias em estrela como a que ilustramos na Figura 1.8. O primeiro equipamento com essa finalidade foi o hub, que funcionava como uma “abreviação” do barramento. Isso quer dizer que, quando um hub recebia um sinal numa de suas portas, ele simplesmente repetia o sinal recebido para todas as outras portas, sem fazer qualquer espécie de reconhecimento de endereço de camada de enlace (um hub pode ser definido como um repetidor multiportas). O meio físico continuava compartilhado e, portanto, a ação de um protocolo de múltiplo acesso ainda era necessária. Os comutadores da camada de enlace, conhecidos como switches, trabalham um nível acima dos hubs. Quando, numa de suas portas, um switch recebe um sinal, ele tem condições de reconhecer o quadro que este sinal “carrega” e de verificar o endereço MAC de destino deste quadro. Assim, o switch encaminha o sinal apenas para uma porta de saída específica, aquela a qual a máquina de destino está conectada. Esse processo é chamado de repasse e é realizado com base numa tabela de comutação, que relaciona endereços MAC a interfaces do comutador. Tudo isso é feito de forma transparente, ou seja, para a máquina de origem, o quadro é enviado diretamente à máquina de destino, sem a intervenção de um equipamento intermediário. Isso elimina a necessidade de um protocolo de acesso mútiplo, não mais havendo desperdício de largura de banda por conta de colisões. O uso de switches permite também a inteconexão de enlaces heterogêneos. Como o comutador isola um enlace do outro, o enlaces da LAN podem operar em diferentes velocidades e podem ser executados em diferentes mídias. Além disso, permite-se a implementação de algumas funções de gerenciamento. Quando uma máquina apresenta uma falha em seu adaptador e passa a enviar quadros Ethernet continuamente, por exemplo, o switch pode detectar esse defeito e desconectar a máquina internamente. Dica Uma rede local virtual (VLAN) desempenha um importante papel na segmentação de redes locais, funcionando, por exemplo, como uma solução alternativa ao emprego de roteadores na contenção do tráfego de broadcast e oferecendo outras inúmeras vantagens. Acesse o wendereço http://www1.cse.wustl.edu/~jain/cis788-97/ftp/virtual_lans.pdf e aprenda mais sobre as VLANs; discuta o que você aprendeu com seus colegas e com seus professores. 1.7 Protocolo Ponto a Ponto Outro importante protocolo da camada de enlace de dados é o protocolo ponto a ponto (PPP), que é utilizado, normalmente, no estabelecimento de conexões entre hospedeiros e provedores. Como o próprio nome indica, o PPP é empregado em enlaces que conectam diretamente dois nós, um em cada extremidade do enlace. As funcionalidades que se exigiu do PPP, quando da sua elaboração, foram as seguintes: » Enquadramento do pacote: com o PPP, um receptor deve ser capaz de identificar o ínicio de cada quadro recebido e reconhecer, dentro dos quadros, o pacote da camada de rede encapsulado; » Transparência: o PPP não deve impor nenhum tipo de restrição sobre os dados que aparecem no pacote da camada de rede (quando estudamos as técnicas de enquadramento, vimos que algumas ambiguidades podem surgir se essa funcionalidade não for considerada); 20 Redes de Computadores » Múltiplos protocolos de camada de rede: o PPP deve estar habilitado a multiplexar diferentes protocolos de camada de rede sobre uma única conexão ponto a ponto; » Múltiplos tipos de enlaces: o PPP deve estar apto a funcionar sobre enlaces seriais ou paralelos, síncronos ou assíncronos, de baixa velocidade ou de alta velocidade, elétricos ouópticos; » Detecção de erros; » Negociação do endereço da camada de rede: com o PPP, as camadas de rede que se comunicam devem aprender e configurar seus endereços automaticamente; » Simplicidade: por meio do RFC 1547, estabelece-se que “a marca de um protocolo ponto a ponto deve ser a simplicidade”. Dentre os requisitos que o PPP não foi obrigado a implementar, podemos mencionar os seguintes: correção de erros, controle de fluxo, entrega dos quadrso em sequência e enlaces multiponto. A Figura 1.9 ilustra o formato de um quadro PPP. Nele, observamos os seguintes campos: » Flag, que possui o valor 01111110 e que é utilizado para fins de enquadramento (o PPP utiliza o byte de escape 01111101 para evitar que o padrão 01111110, quando presente nos dados úteis de um quadro, seja confundido com o Flag); » Endereço, cujo único valor possível é 11111111; » Controle, cujo único valor possível é 00000011. Os campos Controle e Endereço foram criados, pois, futuramente, poderiam acomodar novas funcionalidades do PPP. Até agora, isso não aconteceu. Assim, numa comunicação ponto a ponto, esses dois campos podem simplesmente ser omitidos, o que permite economizar o envio de 2 bytes por quadro PPP; » Protocolo, que identifica a que protocolo de camada de rede pertencem os dados contidos no campo de carga útil do quadro. Quando o protocolo de rede é o IP, por exemplo, coloca-se no campo Protocolo o valor 21 (em hexadecimal); » Carga útil, que contém o datagrama da camada de rede encapsulado; » Soma de verificação, que é usado para detectar erros. Figura 1.9 – Formato do quadro PPP No PPP, a inicialização, a manutenção, a indicação de erro e o fechamento de um enlace são realizados pelo protocolo de controle de enlace (LCP, link controle protocol) e pelo protocolo de controle de rede (NCP, network control protocol). A sequência básica de passos, desde a condição de enlace inativo, passando pelo estabelecimento da conexão, troca de dados e, finalmente, retorno à inatividade, é apresentada na Figura 1.10. 21 Redes de Computadores Figura 1.10 – Passos para configuração de um enlace e estabelecimento de uma conexão utilizando o protocolo ponto a ponto O enlace PPP sempre começa e termina em estado inativo. Quando um evento como a detecção de uma portadora ou a intervenção do administrador da rede mostra que a camada física está pronta para ser usada, o PPP entra no estado de estabelecimento do enlace. Nesse estado, um dos lados envia uma solicitação de configuração LCP (quadro PPP com o valor do LCP no campo de protocoloe com a solicitação específica de configuração no campo de informação). O outro lado responde com um quadro configure_ack (todas as opções aceitáveis), configure_nak (configurações entendidas, mas não aceitáveis) ou configure_reject (não reconhecidas ou não aceitáveis). As opções LCP incluem um tamanho máximo de quadro, a especificação de um protocolo de autenticação a ser usado e uma opção para omitir os campos de endereço e de controle. Estabelecido o enlace, os dois lados trocam pacotes de controle de rede específicos para cada protocolo de rede. Se o protocolo IP estiver rodando sobre o enlace PPP, o protocolo de controle IP (IPCP) será usado para configurar cada extremidade. Os dados IPCP são carregados dentro de um quadro PPP. O IPCP permite que os dois módulos IP troquem ou configurem seus endereços IP e negociem se seus datagramas serão enviados no modo comprimido. Assim que a camada de rede estiver configurada o PPP pode começar a enviar datagramas de camada de rede (o enlace está aberto e os dados começam a fluir pelo enlace). O enlace permanece configurado até que um pacote de solicitação de encerramento (terminate_request) seja enviado e reconhecido, o que torna o enlace, outra vez, inativo. Dica Apesar de o acesso discado à Internet utilizando modems na banda de voz (aqueles que só alcançavam, no máximo, 56 kbps), estar caindo em desuso, o protocolo PPP ainda é bastante importante para os usuários domésticos. Hoje, no entanto, possui importância uma versão modificada desse protocolo, a qual se denomina PPPoE (PPP over Ethernet). O PPPoE é utilizado para ligar a placa de rede de um computador ao modem ADSL, por exemplo, permitindo ações de autenticação e de atribuição de endereços IP. Leia mais sobre o PPPoE em http://tools.ietf. org/html/rfc2516. 22 Redes de Computadores 1.8 MPLS – Comutação de Rótulos Multiprotocolo Nesta seção, convesaremos um pouco sobre a Comutação de Rótulos Multiprotocolo (MPLS, Multiprotocol Label Switching). Antes de iniciarmos nosso estudo propriamente dito, é importante que expliquemos o porquê de estudarmos essa tecnologia num capitulo que trata da camada de enlace de dados. Bom, as redes MPLS são baseadas na comutação de pacotes por circuitos virtuais, assim como o ATM e o Frame Relay, que são tecnologias mais antigas, possuindo formato de pacote e comportamento de repasse próprios. No entanto, sob a perspectiva da Internet, o MPLS pode ser visto como uma tecnologia que serve para interconectar dispositivos IP, ocupando, portanto, a posição de uma tecnologia da camada de enlace. A Comutação de Rótulos Multiprotocolo baseou-se na ideia de empregar um rótulo de tamanho fixo, a fim de incrementar a velocidade de repasse de roteadores IP. No momento do repasse de um datagrama, a consulta ao rótulo (veremos onde esse rótulo é colocado) tem como objetivo refinar uma funcionalidade anteriormente desempenhada apenas pelo IP. Para entendermos melhor como isso vai acontecer, podemos observar a Figura 1.11, a qual apresenta um quadro de camada de enlace que é manipulado por um roteador habilitado para MPLS. De forma mais precisa, o que se vê é um pacote IP encapsulado num quadro de um protocolo da camada de enlace e, entre os cabeçalhos das camadas 2 e 3, um cabeçalho MPLS, o qual é detalhado na parte superior da figura. É como se o MPLS estivesse na camada 2,5. No cabeçalho MPLS, verificamos a presença do rótulo (identificador de circuito virtual), de 3 bits reservados para uso experimental, de 1 bit S, que é utilizado para identificar o último nível numa série de rótulos MPLS “empilhados”, e de um campo de tempo de vida (TTL). Naturalmente, apenas os roteadores habilitados para o MPLS terão a capacidade de interpretar tudo isso e, particularmente, de observar o rótulo de um pacote recebido, consultar sua tabela de repasse e encaminhar o pacote para a linha de saída adequada. Figura 1.11 – Cabeçalho MPLS, entre os cabeçalhos da camada de enlace e da camada de rede Quando um pacote entra numa rede MPLS, ele é recebe um rótulo. Além de ser utilizada para determinar a linha de saída deste pacote, a tabela de repasse que mencionamos é usada para determinar que novo rótulo o pacote deve receber. Daí o nome de comutação ou troca de rótulos. Isso faz com que os rótulos tenham um significado local. Assim, dois roteadores diferentes podem alimentar pacotes não-relacionados com o mesmo rótulo para outro roteador, isto é, com a transmissão sendo feita na mesma linha de saída. Para que os pacotes possam ser reconhecidos na outra extremidade, os rótulos têm de ser remapeados a cada salto. Este princípio de funcionamento torna o MPLS diferente de outras tecnologias baseadas em circuitos virtuais, no que diz respeito ao nível de agregação. O que normalmente acontece no MPLS é uma espécie de agrupamento de diversos fluxos que terminam num mesmo roteador ou LAN, aos quais é atribuído o mesmo rótulo. Diz-se que 23 Redes de Computadores os fluxos agregados num único rótulo estão associados à mesma Classe de Equivalência de Encaminhamento (FEC, Forwarding Equivalence Class), a qual determina, também, a classe de serviço à qual os pacotes desses fluxos pertencem. Esse mecanismo permite, ainda, que o MPLS especifique mais de um caminho para alcançar determinado destino, o que não acontece nos protocolos de roteamento IP usuais. Isso possibilita a implementação do que chamamos de Engenharia de Tráfego, um conjunto de técnicas por meio das quais uma distribuição mais racional e controlada dos fluxos de pacotes pode ser realizada. O MPLS também pode ser utilizado para implementar Qualidade de Serviço (QoS, Quality of Service) e redes virtuais privadas. Dica Além das Classes de Equivalência de Encaminhamento, as redes MPLS têm outros componentes e terminologias de grande importância. Entre esses componentes, podemos destacar os LSP (Label Switch Path), os LDP (Label Distribution), os LIB (Label Information Base) e os LSR (Label Switch Router). Acesse o link http://mesonpi.cat.cbpf.br/redes/mpls.pdf, conheça a funcionalidade de cada elemento que mencionamos e aprenda ainda mais sobre essa tecnologia que tem recebido cada vez mais destaque nos cenários práticos de redes de comunicação! Aprenda Praticando Agora é chegada a hora de você praticar os conceitos aprendidos. Para isso, alguns exercícios foram selecionados para você avaliar seu entendimento do nosso primeiro capítulo. Você deverá procurar entender os exercícios resolvidos e suas respectivas respostas com o intuito de consolidar os conceitos aprendidos neste capítulo. Algumas questões dos exercícios propostos fazem parte das atividades somativas que você deverá responder em relação ao capítulo 1, do Volume 3, de acordo com as orientações e prazos sugeridos pelo seu professor e tutor. Lista de exercícios propostos 1. Quais os possíveis serviços que um protocolo de camada de enlace de dados pode oferecer à camada de rede? Quais desse serviços de camada de enlace de dados têm serviços correspondentes no IP? E no TCP? 2. Por que existe a necessidade de realização de enquadramento na camada de enlace de dados? 3. Que estratégia os mecanismos de enquadramento empregam para evitar que os adaptadores de rede confundam dados úteis com aqueles usados para identificar o início e o fim de um quadro? 4. Na camada de enlace, normalmente, são implementados mecanismos apenas para a detecção de erros que um quadro recebido possa conter. Quando tal detecção acontece, o quadro não pode ser recuperado pelo receptor, sendo, na maioria das vezes, simplesmente descartado. Isso significa que o quadro terá sido perdido para sempre? Por que? 5. Apresente um exemplo que ilustre como a utilização de bits de paridade em bits organizados em duas dimensões pode elevar a robustez desse mecanismos para detecção de erros. 24 Redes de Computadores 6. Descreva o funcionamento dos seguintes mecanismos para detecção de erros na camada de enlace de dados:a) Soma de verificação; b) Verificação de redundância cíclica (CRC). 7. Antes de iniciarmos nosso estudo sobre os protocolos de acesso mútiplo, mencionamos algumas características que são desejáveis a esses protocolos. Lembrando disso, responda quais dessas características estão presentes no Slitted ALOHA. Quais estão presentes num protocolo de passagem de permissão? 8. Por que um protocolo de passagem de permissão seria ineficiente se uma LAN tivesse um perímetro muito grande? 9. Por que o endereçamento IP não é suficiente para que os dados, após um processo de roteamento, sejam levados às interfaces de rede corretas? 10. Que tamanho tem o espaço de endereçamento MAC? E os espaços de endereçamento IPv4 e IPv6? Justifique suas respostas. 11. Como se faz para impedir que duas placas de rede sejam fabricadas com o mesmo endereço MAC? 12. Qual o objetivo do ARP, Protocolo de Resolução de Endereços? Explique o seu funcionamento básico. 13. Que motivos tornaram a Ethernet o protocolo de enlace de dados para redes locais cabeadas mais aceito e utilizado até os dias atuais? 14. Na Ethernet, não se utiliza modulação. São utilizados os chamados códigos de linha, os quais associam os dados digitais a formatos de pulso específicos que podem ser injetados diretamente no meio de transmissão e conduzidos por determinada distância. Faça uma pesquisa e descubra quais os principais códigos de linha empregados nas redes de computadores. Destaque aqueles que são empregados na Ethernet. 15. Que protocolos trabalham em conjunto com o PPP, a fim de permitir o estabelecimento bem-sucedido de conexões e a troca de dados úteis entre transmissor e receptor? 16. Analise a Figura 1.10, identificando as diversas etapas percorridas até o estabelecimento de uma conexão ponto a ponto e justifique a necessidade de cada uma dessas etapas para a configuração completa do enlace a ser utilizado. 17. Que característica do MPLS torna natural o seu estudo como um protocolo da camada de enlace de dados? 18. Pesquis e descubra de que maneira o MPLS pode ser explorado no sentido de se conseguir níveis de Qualidade de Serviço específicos para aplicações multimídia, como a vídeoconferência e a voz sobre IP. Conheça Mais Caro(a) aluno(a), ao longo do nosso estudo, você deve ter percebido que os protocolos da camada de enlace de dados são de essencial importância para o bom funcionamento de uma rede de computadores. Nas redes locais, em particular, a escolha de 25 Redes de Computadores um protocolo de enlace tem relação com a topologia da rede e com os serviços nos quais seus usuários estão interessados. Num âmbito mais amplo, vimos que tecnologias como o MPLS podem se colocar numa posição intermediária entre a camada de enlace e a camada de rede, auxiliando no encaminhamento dos pacotes e provendo outras funcionalidades mais específicas. Para conhecer um pouco mais sobre o MPLS e, em particular, sobre sua importância na implementação de redes privadas virtuais, recomendamos o acesso aos links a seguir. Neles, você vai encontrar o vídeo de uma apresentação intitulada VPNs de Camada 2 e 3 usando MPLS, realizada em 2005, na 20ª reunião do Grupo de Trabalho de Engenharia e Operação de Redes, GTER (http://gter.nic.br). Está disponível, também, a apresentação em .pdf utilizada na palestra. Apesar de a apresentação discutir alguns pontos que, talvez, você ainda não conheça, procure identificar, ao longo do vídeo, pontos que você estudou so longo deste capítulo e perceba a aplicabilidade prática de cada conceito aprendido. Vídeo: ftp://ftp.registro.br/pub/gter/gter20/videos/vpncamada2_2.wmv Arquivo em .pdf: ftp://ftp.registro.br/pub/gter/gter20/03-vpn-l23.pdf Atividades e Orientações de Estudos Dedique, pelo menos, 15 horas de estudo para o Capítulo 1. Você deve organizar uma metodologia de estudo que envolva a leitura dos conceitos apresentados e pesquisas sobre o tema, usando a Internet e livros de referência. Vamos trocar idéias nos fóruns temáticos desta disciplina no ambiente virtual, pois a interação com colegas, tutores e o professor da disciplina irá ajudá-lo a refletir sobre aspectos fundamentais tratados aqui. Os chats também serão muito importantes para a interação em tempo real com o seu tutor virtual, seu professor e seus colegas. Também é importante que você leia atentamente o guia de estudo da disciplina, pois nele você encontrará a divisão de conteúdo semanal, ajudando-o a dividir e administrar o seu tempo de estudo semanal. Procure responder as atividades propostas como atividades somativas para este capítulo, dentro dos prazos estabelecidos pelo seu professor, pois você não será avaliado apenas pelas atividades presenciais, mas também pelas virtuais. Muitos alunos não acessam o ambiente e isso poderá comprometer a nota final. Não deixe que isso aconteça com você! Os assuntos abordados neste capítulo podem ser encontrados no Quiz de número 1 da disciplina de Redes de Computadores. Através do Quiz você poderá avaliar o seu próprio desempenho. Após respondê-lo, você terá o resultado de seu desempenho e conhecerá as suas deficiências, podendo supri-las nas suas próximas horas de estudo. Vamos Revisar? Neste capítulo, você estudou definições e conceitos relacionados à camada de enlace de dados. Dentro da abordagem que desenvolvemos, percebemos que, sem a camada de enlace de dados, os datagramas da camada de rede teriam apenas informações lógicas sobre os destinos a serem alcançados; é necessária a utilização de um esquema de endereçamento MAC, que permita a identificação de interfaces específicas e o consequente encaminhamento físico dos dados transmitidos. Com a camada de enlace, por meio das 26 Redes de Computadores diversas técnicas de enquadramento, o fluxo bruto de bits recebido da camada física se torna mais organizada, podendo ser entregue e interpretada pelas camadas superiores. Vimos que a camada de enlace de dados é a primeira responsável por detectar erros que possam ter ocorrido em função das imperfeições nas linhas físicas, utilizando, para isso, técnicas com forte apelo matemático e, muitas vezes, com alto grau de sofisticação. Aprendemos que a transmissão de quadros por um enlace depende da forma como as máquinas estão ligadas a este enlace. Caracterizamos, em particular, as redes em que os enlaces são baseados em broadcast, os quais necessitam de protocolos de múltiplo acesso para diminuir a ocorrência de colisões, quando do envio simultâneo de dados por duas máquinas. Estudamos as características desejáveis desses protocolos e descrevemos algumas estratégias práticas para múltiplo acesso. Por fim, investigamos alguns dos principais protocolos de enlace de dados. Inicialmente, estudamos o mais importante protocolo de enlace no contexto de redes locais, a Ethernet. Mencionamos os motivos que fazem desta tecnologia a mais popular no cenário de redes locais cabeadas e fizemos um apanhado histórico, citando as diversas variantes da Ethernet e que mudanças elas trouxeram ao longo dos anos. Depois, realizamos uma análise do protocolo ponto a ponto (PPP), enfatizando as necessidades exigidas deste protocolo quando da sua elaboração. Estudamos o seu formato de quadro e ilustramos os passos necessários à configuração de um enlace baseado esta tecnologia. Finalmente, apresentamos de maneira bastante objetiva o MPLS, uma tecnologia para comutação de rótulos multiprotocolo. Mencionamos algumas de suas aplicações e direcionamos o cursista para o aprendizado de mais detalhes acerca dessa importante rede. 27 Redes de Computadores Capítulo 2 – A Camada Física Vamos conversar sobre o assunto? Caro(a) aluno(a), Chegamos ao nível mais inferior da pilha de camadas que temos estudado desde o primeiro volume desta disciplina. Aqui, aprenderemos os diversos aspectos relacionados à camada física. Apesar de termos, eventualmente, enfatizado a importância de camadas como a de rede e a de transporte, considerando-as como asgrandes estrelas das redes de computadores, na prática, todas as camadas são imprescindíveis. Sem a camada de enlace, por exemplo, o princípio de funcionamento das camadas superiores seria algo muito bonito, mas completamente virtual, pois os dados não saberiam como chegar às interfaces fornecidas pelos adaptadores de rede dos hosts e dos equipamentos de interconexão. Neste sentido, a camada física pode ser vista como o “pedaço que faltava” para possibilitar a comunicação real entre os diversos componentes de uma rede. Nela, são definidas as interfaces mecânicas, elétricas e de sincronização para a rede. Para que todos os detalhes dessa camada sejam compreendidos, iniciaremos o nosso estudo explicando alguns aspectos teóricos da comunicação de dados. Você já se perguntou, por exemplo, por que os cabos de uma rede local não podem ser estendidos por uma distância indefinida!? Por que, quando utilizávamos os antigos modems de banda de voz, só alcançávamos taxas de, no máximo, 56 kbps e, hoje, com as tecnologias DSL, aproveitando a mesma rede de telefonia fixa, conseguimos taxas bem mais altas!? Para que questões como essas sejam esclarecidas, apresentaremos conceitos como o de largura de banda e o de taxa máxima de dados num canal. Os diversos meios de transmissão também serão estudados neste capítulo. No que diz respeito à transmissão por meios guiados, o par trançado, o cabo coaxial e a fibra óptica receberão destaque. Em relação à transmissão sem fio, discutiremos os aspectos mais importantes relacionadas ao espectro eletromagnético e à transmissão de rádio, de microondas e de ondas de infravermelho. Por fim, apresentaremos algumas redes de comunicação cujo princípio de funcionamento depende fundamentalmente do meio físico disponível e que proporcionam a implementação das chamadas redes de acesso. Dentre essas redes, estão incluídas a de telefonia pública comutada (incluindo as tecnologias DSL) e a de TV a cabo (incluindo a tecnologia de Cable Modem). Bom... é bastante coisa, não acha!? Creio que, após essa conversa inicial, a importância da camada física está mais do que clara. Agora, podemos iniciar o estudo detalhado dos tópicos mencionados. Vamos em frente! 2.1 Introdução: Aspectos Teóricos da Comunicação de Dados Ao longo dos assuntos que estudamos até agora, sempre que precisamos apresentar um formato de quadro ou de datagrama, baseamo-nos na representação da informação por meio de bits e bytes. Afinal de contas, são essas as unidades normalmente 28 Redes de Computadores armazenadas pelos computadores e “externadas” como imagem, áudio, vídeo ou texto, quando um usuário deseja acessá-las. No entanto, chegando à camada física, a coisa muda um pouco de figura. Isso acontece porque, mesmo que, em níveis mais altos da hierarquia de camadas, estejamos lidando com bits e bytes, essas unidades são convertidas em sinais no momento em que precisam ser enviadas por um meio de transmissão específico. Quando utilizamos um cabo metálico, por exemplo, o que “passa” por ali é uma voltagem (tensão) ou uma corrente elétrica, cuja variação da intensidade ao longo do tempo deve representar o que, em algum momento, era bit ou byte; quando realizamos uma transmissão sem fio, o sinal que “carrega” os bits e bytes é uma onda eletromagnética, que requer antenas para transmissão e recepção e circuitos específicos para dar suporte a esse processo. Figura 1.12 – Codificação de linha 2B1Q Para reforçarmos o entendimento do que acabamos de explicar, consideremos a Figura 1.12, a qual ilustra o funcionamento da codificação de linha 2B1Q. Observe, na parte superior da figura, a sequência de bits a ser enviada. Essa sequência, que pode ter sido obtida de uma imagem ou de um texto (aqui, isso não tem importância), é entregue da camada de enlace para a camada física. A camada física, que, supostamente, tem à sua disposição um meio de transmissão metálico, deve representar esses dados por um sinal elétrico. Conforme apresentado no lado direito da figura, a cada dois bits, um nível contínuo de tensão elétrica é colocado no meio físico. De maneira mais específica, os pares de bits 00, 01, 10 e 11 estão respectivamente associados aos níveis -3V, -1V, +3V e +1V. Na parte inferior da figura, observamos o sinal resultante, que corresponde a uma variação de tensão ao longo do tempo. Bom, já entendemos que bits e bytes, quando chegam à camada física, são convertidos em sinais. Mas será que, quando “injetamos” um sinal em determinado meio físico, temos 100% de garantia de ele vai chegar ao receptor exatamente como foi enviado? A resposta a essa pergunta é: não! Na verdade, muita coisa vai rolar ao longo do caminho entre um transmissor e um receptor e, para que compreendamos os diversos aspectos envolvidos nisso, precisamos de algo chamado Análise de Fourier. Calma! Antes que você comece a criar algum tipo de bloqueio em relação ao nome Fourier, preciso dizer que não vamos falar de nada muito complicado. No entanto, é importante que nos esforcemos para assimilar os benefícios práticos que essa ferramenta matemática proporciona. A Análise de Fourier permite que representemos sinais no chamado domínio da frequência. Assim, em vez de observarmos um sinal como uma variação de intensidade ao longo do tempo, podemos observá-lo como uma variação de intensidade ao longo da frequência. Além disso, a análise de Fourier nos permite afirmar que qualquer sinal é uma combinação de vários outros sinais (talvez, infinitos sinais) com frequências bem definidas. A representatividade de cada uma dessas componentes pode ser medida pelas ferramentas da 29 Redes de Computadores análise de Fourier. O fato é que os meios de transmissão também se comportam conforme a frequência. De maneira mais clara, pode-se dizer que determinado meio conduzirá muito bem componentes que se encontram em determinada faixa de frequência, mas poderá degradar bastante componentes que estão noutras faixas. A utilidade da análise de Fourier consiste em permitir que avaliemos se as componentes mais importantes de um sinal estão dentro da faixa de frequências para a qual o meio de transmissão que desejamos empregar se comporta de modo amigável. Figura 1.13 – (a) Sinal binário ao longo do tempo e intensidades de suas componentes de frequência. (b) a (e) Distorções no formato do sinal recebido, em função das componentes de frequência transmitidas pelo meio de transmissão Consideremos, por exemplo, a Figura 1.13. Na parte (a), à esquerda, é apresentado um sinal ao longo do tempo e, à direita, são apresentadas as intensidades de suas quinze primeiras componentes de frequência. Como o sinal é periódico, isto é, seu comportamento se repete a cada T unidades de tempo, é possível obter as intensidades de cada componente de frequência por meio da série de Fourier. As componentes de frequência apresentadas estão associadas às chamadas frequências harmônicas do sinal, as quais correspondem a 30 Redes de Computadores múltiplos inteiros de sua frequência fundamental (f1 = 1/T). Assim, a amplitude do harmônico 7, por exemplo, está relacionada à representatividade, para o sinal como um todo, da componente de frequência f7 = 7.f1. Nas outras subfiguras, o que se vê são situações em que apenas algumas componentes do sinal são consideradas e as consequências disso sobre o formato que o sinal assume. Por exemplo, se apenas 4 harmônicos fossem considerados, isto é, se estivéssemos transmitindo o sinal por um meio que permitisse a passagem apenas das quatro primeiras componentes, o sinal recebido seria aquele apresentado no lado esquerdo da parte (d) da figura, podendo não ser reconhecido como o sinal quadrado originalmente transmitido. Outra forma de ilustrar os conceitos que temos discutido é apresentada na Figura 1.14. Na parte superior da figura, é apresentado um sinal de voz ao longo do tempo. Na parte inferior, é apresentada a transformada de Fourier deste sinal. Esta ferramenta de análise,que é aplicável a sinais arbitrários (incluindo sinais não periódicos), permite que verifiquemos que as componentes mais representativas da voz se encontram até a frequência de 3 kHz, aproximadamente. Caso desejemos transmitir voz por um meio que rejeite frequências a partir deste valor, o prejuízo à inteligibilidade da voz recebida não será significativo. Figura 1.14 – Sinal de voz e transformada de Fourier correspondente Agora que já conhecemos a utilidade da análise de Fourier, podemos definir alguns termos importantes nesse contexto. O primeiro deles é o de banda passante. A banda passante de um sistema ou de um meio de transmissão corresponde à faixa de frequências transmitidas sem serem fortemente atenuadas (rejeitadas); a largura de banda, por sua vez, corresponde á largura da faixa determinada pela banda passante. A banda passante do sistema telefônico convencional, por exemplo, vai de 300 Hz a 3400 Hz. Neste caso, essa limitação foi imposta de forma proposital pelos projetistas do sistema, não sendo uma limitação propriamente dita dos meios físicos empregados. Observe que a banda passante mencionada está de acordo com a faixa de frequências ocupada pelas componentes mais representativas de um sinal de voz, conforme a explicação relacionada à Figura 1.14. A 31 Redes de Computadores largura de banda desse sistema seria, portanto, igual a 3400 – 300 = 3100 Hz. Outro termo intimamente ligado à largura de banda de um meio de transmissão é a taxa máxima de dados de um canal. O cálculo dessa medida, que é fornecida em bits/ segundo (bps), depende de um parâmetro que é denotado por V, o qual corresponde ao número de níveis de quantização utilizados no processo de digitalização do sinal. Admitindo que a largura de banda disponível é dada por W, a taxa máxima para um canal de comunicaçao livre de ruído foi derivada por Henry Nyquist (1924) como sendo: Taxa máxima de dados = 2W . log2V bps. Quando um canal possui ruído, o que representa uma situação mais próxima da realidade, a taxa máxima de dados envolve uma medida chamada relação sinal-ruído (SNR). Em decibéis (dB), a SNR é obtida por SNR = 10 . log10(S/N), em que S e N denotam, respectivamente, a potência em Watts do sinal sendo transmitido e do ruído presente no canal. Assim, seguindo a abordagem de Claude Shannon (1948), calculamos a taxa máxima de dados por: Taxa máxima de dados = W . log2(1 + SNR). Devemos ter em mente que, dados W e SNR, o valor obtido pela aplicação da expressão acima é apenas um limite superior, raramente alcançado pelos sistemas reais. Dica Do ponto de vista matemático, o entendimento das ferramentas da análise de Fourier requer uma série de pré-requisitos que fogem ao escopo da nossa disciplina. No entanto, há diversas applets e animações que facilitam o entendimento conceitual da série e da transformada de Fourier e permitem que reconheçamos a sua importância nos diversos cenários de transmissão de sinais. Em http://www.educypedia.be/electronics/javafourier.htm, algumas dessas applets e animações podem ser acessadas. Aproveite para pesquisar e amplie seus conhecimentos a respeito desse assunto tão importante! 2.2 Meios de Transmissão No nosso estudo sobre a camada de enlace, adiantamos que a camada física é responsável pela transmissão de um fluxo bruto de bits de uma máquina para outra. Na Seção 2.1 deste capítulo, ficou claro que isso se dá pelo uso de meios de transmissão, os quais possuem diferentes propriedades. Até agora, enfatizamos que uma dessas propriedades corresponde à largura de banda, que determina as componentes de frequência que são conduzidas de forma eficiente e as que são atenuadas por um meio de transmissão específico. As diferentes propriedades dos meios de transmissão contemplam, na verdade, muitos outros aspectos, como, por exemplo, a natureza do material empregado na sua construção, as fontes de distorção presentes, o custo e a facilidade de instalação e manutenção. Todas essas questões estão interrelacionadas e serão estudadas nas páginas a seguir. Para estruturarmos nossa abordagem, dividiremos os meios de transmissão em guiados, como fios de cobre e fibras ópticas, e não guiados, como as ondas de rádio. 2.2.1. Meios de transmissão guiados O primeiro meio de trasmissão guiado que estudaremos é o par trançado. Este 32 Redes de Computadores meio que, apesar de ser o mais antigo, é ainda o mais comum, consiste em dois fios de cobre encapados, com cerca de 1 mm de espessura cada. O entrançamento dos fios no formato helicoidal tem o objetivo de diminuir a interferência mútua entre eles. Devemos lembrar que esses fios serão atravessados por correntes elétricas que variam ao longo do tempo. Isso implica no aparecimento, em suas proximidades, de campos elétricos também variáveis. O fato de um fio se encontrar no raio de ação do campo elétrico do fio adjacente pode fazer com que, neste primeiro fio, seja induzida (apareça) uma corrente elétrica de baixa intensidade; isso poderia gerar interferências conhecidas como crosstalk (ou linha cruzada), o que é, naturalmente, indesejável. A teoria eletromagnética mostra que o fato dos fios serem trançados diminui tal efeito. Com os pares trançados, é possível transmitir sinais analógicos e digitais. A largura de banda depende da distância percorrida e da espessura do fio. Em muitos casos, alcançam- se diversos megabits/s ao longo de alguns quilômetros. Como os custos de aquisição, instalação e manutenção desses cabos são baixos e, para muitos sistemas de comunicação, o seu desempenho é satisfatório, é provável que eles continuem sendo usados por muito tempo. Os pares trançados ainda ocupam um papel de destaque na telefonia fixa e nas redes de computadores locais. Observe, na Figura 1.15, o detalhe de um par trançado STP (shielded twisted pair, par trançado blindado), o qual contém um revestimento exterior extra e uma blindagem para cada par. Na mesma figura, apresentamos conectores RJ-45, comumente usado para terminações de cabos de pares trançados empregados em redes de computadores. A Figura 1.16 fornece um resumo das características dos diversos tipos de pares trançados UTP (unshielded twisted pair, par trançado não-blindado). Figura 1.15 – Cabo de par trançado blindado e conectores RJ-45. 33 Redes de Computadores Categoria UTP Uso típico Técnica de sinalização Taxa de transmissão máxima Distância de transmissão máxima Vantagens Desvantagens Cat. 1 Telefonia Analógica e digital < 100 kbps 3-4 milhas Custo, instalação e interface Segurança, ruído Cat. 2 T-1, RDSI Digital < 2 Mbps 3-4 milhas Mesmas da Cat. 1 Segurança, ruído (obsoleto) Cat. 3 LANs, circuitos telefônicos Analógica e digital 10 Mbps 100 m Mesmas da Cat. 1, com menos ruído Segurança, ruído Cat. 4 LANs Digital 20 Mbps 100 m Mesmas da Cat. 1, com menos ruído Segurança, ruído (obsoleto) Cat. 5 LANs Digital 100 Mbps (100 MHz) 100 m Mesmas da Cat. 1, com menos ruído, muito comum Segurança, ruído Cat. 5e LANs Digital 125 Mbps (125 MHz) 100 m Mesmas da Cat. 5, mas inclui conectores, patch cords e outros componentes Segurança, ruído Cat. 6 LANs Digital 200 MHz 100 m Taxas mais altas que Cat. 5, menos ruído Segurança, ruído, custo Cat. 7 LANs Digital 600 MHz 100 m Em fase de padronização Segurança, ruído Figura 1.16 – Resumo das características dos cabos de pares trançados UTP. Outro meio de transmissão guiado bastante comum é o cabo coaxial. Por possuir uma blindagem melhor que a dos cabos de par trançado, o cabo coaxial pode ser estendido por distâncias maiores em velocidades mais altas. O cabo coaxial mais utilizado é o de 75 ohms (esse valor diz respeito à impedância do cabo), empregado nas transmissões analógicas e de TV a cabo. Sua estrutura básica corresponde a um fio de cobre esticado na parte central, envolvido por um material isolante. Este material isolante é, por sua vez, envolvido por um condutor cilíndrico, o qual corresponde, normalmente,
Compartilhar