Baixe o app para aproveitar ainda mais
Prévia do material em texto
REVISÃO DA BIBLIOGRAFIA DA CAMADA DE ENLACE DE DADOS DO MODELO OSI Diego Viana Elton Bahia de Brito Cunha Estevão Silva Cativo Jhon Wesley Santos de Oliveira Paulo Ricardo de Carvalho Moraes William Silva de Souza Lucas Iuri Pereira de Oliveira RESUMO Camada de Enlace de Dados aborda o estudo de umas das sete camadas do modelo de referência OSI (Open Systems Interconnection), especificamente a segunda camada chamada enlace, nesse contexto será apresentada as principais características dessa camada, bem como a sua organização e estrutura que engloba protocolos essenciais na organização de uma rede de computadores. Essa abordagem visa especificar de forma simplificada e sucinta os tópicos mais relevantes relacionados ao assunto em questão. Sendo assim, o conteúdo apresentado tem como principal objetivo apresentar e detalhar o funcionamento dos protocolos que compõe essa camada, enfatizando as funcionalidades e os serviços que cada um desses protocolos oferece. Palavras-chave: Camada, Enlace, Protocolos. 1. INTRODUÇÃO A principal tarefa da camada de enlace de dados é prover a comunicação entre dois Hosts e transformar um canal de transmissão bruta em uma linha que pareça livre de erros de transmissão não detectados para a camada de rede. Para executar essa tarefa, a camada de enlace de dados faz com que o transmissor divida os dados de entrada em quadros de dados (que, em geral, têm algumas centenas ou alguns milhares de bytes), e transmita os quadros sequencialmente. Se o serviço for confiável, o receptor confirmará a recepção correta de cada quadro, enviando de volta um quadro de confirmação. Outra questão que surge na camada de enlace de dados é como impedir que um transmissor rápido envie uma quantidade excessiva de dados a um receptor lento. Com frequência, é necessário algum mecanismo que regule o tráfego para informar ao transmissor quanto espaço o buffer do receptor tem no momento. Muitas vezes, esse controle de fluxo e o tratamento de erros estão integrados, as redes de 2 difusão tem uma questão adicional a ser resolvida na camada de enlace de dados: como controlar o acesso ao canal compartilhado essa e outras questões são especificadas nesse artigo que tem em seu conteúdo as principais funções da camada de enlace. 2. HISTÓRIA DO MODELO DE REFERÊNCIA OSI Nas primeiras redes, apenas computadores de um mesmo fabricante poderiam se comunicar. Isto por questões de compatibilidade, o qual cada fabricante adotava seu próprio padrão. Na época, os dois fabricantes que dominavam o mercado era a IBM e a DEC (Digital Equipament Corp, que hoje é a HP). Esse problema estava dando dor de cabeça a muitos empresários, pois, se uma empresa “A” que tinha a IBM como solução em TI, comprasse uma empresa “B” que se utilizam recursos DEC, a fusão das duas seria muito complicada, senão impossível tecnologicamente falando. Insatisfeito com a situação atual, os consumidores exigiram que esse problema fosse solucionado o mais rápido possível. No inicio da década de 1981 a ISO (International Organization For Standardization) se reuniu com representantes de várias empresas para tentar resolver este impasse. Foi quando em 1984 o modelo OSI (International Systems Interconnections) foi criado permitindo a comunicação de dados entre hardwares e softwares de fabricantes diferentes, e mais do que isso, o modelo OSI também padronizou a forma como os dados são preparados, organizados, enviados, recebidos, interpretados e utilizados, tudo organizado por camadas, onde cada camada tinha um conjunto de protocolos (regras), tudo padronizado para que todos os fabricantes “falassem a mesma língua". O modelo ficou conhecido como arquitetura em camadas. A figura a seguir ilustra o modelo OSI que se resume a sete camadas como mostra a figura. Fonte: https://gridra.wordpress.com/2008/09/ Figura 1. Modelo OSI 3 O governo americano tentou impor esse modelo e em seguida o governo brasileiro também o fez através da Lei da Informática, porém, todas as tentativas de se impor esse modelo, fracassaram e lentamente esse modelo foi sendo ultrapassado por outros. O modelo OSI foi o mais bem estruturado de sua época, porém, não foi o primeiro modelo de referência independente de fabricantes. Um outro modelo já estava rondando as redes havia um bom tempo, mas, sem a ISO lhe “apadrinhando”, era o modelo TCP/IP. Não era estruturado como o OSI nem tinha a ISO como endosse como dito anteriormente, por isso poder-se-ia dizer que era um modelo informal, entretanto, era e é ainda hoje muito mais flexível que o modelo OSI e muito mais fácil de ser aplicado, porém esse modelo não é irrelevante nesse momento, pois estamos tratando do OSI propriamente dito. 3. SERVIÇOS A camada de ligação de dados, também conhecida como camada de enlace de dados ou camada de link de dados, é uma das sete camadas do modelo OSI. Esta camada detecta e, opcionalmente, corrige erros que possam acontecer na camada física. É responsável pela transmissão e recepção (delimitação) de quadros e pelo controle de fluxo. Ela também estabelece um protocolo de comunicação entre sistemas diretamente conectados. A figura baixo ilustra a composição de uma rede usando enlace físico. Fonte: http://wiki.sj.ifsc.edu.br/wiki/index.php/IER-2013-2 Figura 2: Introdução e Serviços 4. DETECÇÃO E CORREÇÃO DE ERROS Como vimos, a camada física transmite diretamente os conjuntos de bits ao receptor, sem se preocupar com possíveis erros, ou ausência de bits, nos conjuntos originalmente entregues à camada física do transmissor. 4 Realmente, a camada física não possui nenhum mecanismo que possa corrigir eventuais meios de comunicação. Para resolver este problema em um sistema de transmissão de dados, é necessário utilizar um mecanismo de análise dos dados recebidos. Esse mecanismo de análise é possível se utilizarmos parte dos dados recebidos para verificar e conferir o conjunto completo dos dados. O fato de estar mais próximo da camada física, a função de corrigir possíveis erros de transmissão e permitir certa redundância nos dados recebidos, está atribuído à camada de enlace de dados. Outro papel importante desempenhado por esta camada é a detecção e correção de erros, muito utilizado nos serviços com confirmação. Para fazer o controle de erros, a camada de enlace utiliza dois métodos: a retransmissão ou a correção dos erros: - O primeiro método utiliza a retransmissão dos dados pelo emissor quando forem detectados os erros. - E o segundo método, utiliza a transmissão de códigos especiais junto aos dados transmitidos. Esses códigos conseguem corrigir os dados eventualmente defeituosos sem a necessidade de retransmissão por parte do transmissor dos dados. Ambos os métodos encontram problemas muito complexos, como a perda de conjuntos completos de dados, pois neste caso não há como detectar a existência de erros, porque parte dos dados desaparecem por completo no trajeto entre transmissor e receptor. Cronometrar o tempo máximo para a confirmação de recebimento dos quadros pelo receptor é uma forma de solucionar casos como estes, pois o receptor não enviará nenhuma confirmação devido à ausência dos quadros perdidos durante a conexão. Outro problema muito comum é quanto à ordenação na chegada dos quadros, caso ocorra uma falha de confirmação, o receptor poderá encontrar dificuldades para descartar os quadros repetidos que serão entregues à camada de rede. Enfim, para solucionar todos estes problemas quanto aos erros de comunicação, a camada de enlace dedados programa alguns algoritmos matemáticos, como: paridade, checksum e o código polinomial ou CRC (Código de Redundância Cíclica). Mas devido à extensão de cada um destes assuntos, eles só poderão ser comentados em um próximo artigo. 5 5. PROTOCOLOS DE MÚLTIPLO ACESSO O tema estudado nesta seção tem uma importância fundamental para as redes de computadores. Você já imaginou se, sempre que uma máquina quisesse transmitir um quadro, o canal de comunicação ao qual ela está ligada estivesse ocupado? De nada adiantaria o bom funcionamento das camadas superiores, simplesmente a comunicação propriamente dita não iria acontecer. É para isso que existem os protocolos de acesso múltiplo: para disciplinar a forma como as máquinas utilizam o canal de comunicação, oferecendo certos “direitos” e cobrando determinados “deveres”, conforme esclareceremos ao longo do texto. Naturalmente, esses protocolos não são imprescindíveis nos enlaces ponto a ponto. Se tivermos, por exemplo, dois roteadores ligados por um cabo que pertence apenas a eles, o canal sempre estará disponível, já que outras máquinas não terão acesso àquele meio de transmissão. No entanto, se considerarmos uma rede sem fio ou mesmo uma rede cabeada em que aconteça o compartilhamento dos fios (enlace broadcast), a coisa muda de figura, cada máquina precisa saber quando pode transmitir e ter “consciência” de que as outras máquinas também desejam fazer uso do meio de transmissão. De maneira geral, um bom protocolo de acesso múltiplo para um canal de broadcast com velocidade R bits por segundo deve respeitar as seguintes premissas: - Quando apenas um nó tem dados a enviar, ele tem uma vazão de R bits por segundo; - Quando M nós têm dados a enviar, cada um deles deve ter uma vazão média de R/M bps; - O esquema é descentralizado, ou seja, não há nós mestres dos quais o funcionamento do protocolo dependa; - O protocolo é simples para que sua implementação seja econômica (tanto no ponto de vista financeiro quanto na questão da carga computacional requerida). 5.1 PROTOCOLOS DE DIVISÃO DO CANAL Os principais protocolos baseados em divisão de canal são o TDM (multiplexação por divisão no tempo), o FDM (multiplexação por divisão na frequência) e o CDMA (acesso múltiplo por divisão de código). No primeiro, o canal é dividido em quadros temporais. Cada um desses quadros é, ainda, dividido em compartimentos temporais menores conhecidos 6 como time slots. Finalmente, cada um desses times slots é associado a um nó que deseja transmitir. A transmissão ocorre numa base de revezamento entre os nós, na mesma sequência em que eles foram associados aos times slots criados. Esse esquema é justo do ponto de vista de uso do canal, pois, se tivermos N time slots (e também N nós desejando transmitir), cada nó transmitirá a uma velocidade dedicada de R/N bps durante cada quadro temporal. Além disso, as colisões são completamente evitadas. A desvantagem é que, mesmo que outros nós não estejam transmitindo, um nó específico precisa aguardar a sua vez e não poderá elevar a sua taxa de transmissão ocupando outros times slots que estejam vazios, além daquele que lhe é de direito. Esse tipo de restrição acontece, dentre outros motivos, para facilitar o sincronismo entre transmissores e receptores; um receptor saberá encontrar exatamente o time slot no qual os dados de seu interesse estão sendo carregados. O esquema de multiplexação por divisão na frequência utiliza o mesmo princípio descrito acima. Todavia, em vez de dividir o canal em quadros temporais, o FDM divide o canal em canais menores ao longo da frequência. Quando transmissões são realizadas em faixas de frequência distintas, os sinais não interferem um no outro. Naturalmente, numa comunicação de dados, quando um canal é dividido em subcanais mais estreitos na frequência, a taxa de transmissão é também dividida (quando estudarmos a camada física, falaremos um pouco mais sobre a teoria envolvida nesse processo). Uma técnica de múltiplo acesso baseada em divisão de canal cujo uso vem crescendo bastante é a CDMA. Neste método, os nós que desejam transmitir podem fazê-lo ao mesmo tempo e na mesma faixa de frequência; não são criados quadros temporais nem canais menores ao longo da faixa de frequêncai disponível. O detalhe é que, antes da transmissão, precisa-se atribuir um código a cada nó transmissor, o qual será utilizado para “espalhar” os bits que se deseja enviar. Esse procedimento é conhecido como espalhamento espectral. 5.2 PROTOCOLOS DE ACESSO ALEATÓRIO Nesta classe de protocolos de acesso múltiplo, quando um nó consegue transmitir, ele o faz aproveitando toda a taxa do canal; quando ocorre uma colisão, uma regra deve ser consultada, a fim de que o nó espere um tempo específico antes de tentar uma nova transmissão. A diversidade de critérios para determinar quando esta nova tentativa deve acontecer e outras regras adicionais deram origem a um número imenso de protocolos de acesso aleatório. Aqui, vamos estudar apenas dois deles: o Slotted ALOHA e o CSMA. O 7 primeiro protocolo de acesso aleatório que vamos apresentar é o Slotted ALOHA. Ele funciona conforme os seguintes passos: - Os quadros que os nós desejam transmitir possuem L bits e o tempo é dividido em intervalos (slots) de L/R segundos. Assim, um quadro caberá exatamente num intervalo; - Os nós iniciam transmissões apenas no início de cada quadro; - Se dois ou mais nós colidirem, todos os nós detectarão essa colisão antes do fim do intervalo; - Os nós que não tenham conseguido uma transmissão bem sucedida tentarão retransmitir o quadro nos intervalos subsequentes com probabilidade p. A ideia do Slotted ALOHA parece perfeita, já que, quando um nó consegue transmitir, ele o faz utilizando toda a taxa do canal. Além do mais, as decisões de transmitir e retransmitir são tomadas de modo completamente descentralizadas. No entanto, esse protocolo oferece um bom desempenho apenas quando poucos nós estão ativos. A seguir temos o fluxograma do protocolo ALOHA. Em comparação com o ALOHA, o CSMA (acesso múltiplo com detecção de portadora) faz com que os nós sejam mais cuidadosos ao tentar transmitir. Este protocolo se baseia em duas premissas. A primeira delas é a de detecção da portadora, que significa que cada nó “ouve” o canal antes de transmitir. Se o canal não estiver livre, o nó aguarda um tempo aleatório antes de tentar transmitir novamente. Se o canal continuar ocupado, uma nova espera acontece e assim por diante. A premissa de detecção de colisão, que caracteriza o CSMA/CD, entra em ação quando um nó consegue transmitir. Se, enquanto transmite um nó Figura 3. Protocolo ALOHA puro. Adaptado Fonte: http://slideplayer.com.br/slide/348053/ 8 perceber que houve uma colisão, ele cessa a transmissão e aguarda um tempo aleatório antes de tentar uma retransmissão. É importante mencionarmos que esse protocolo não evita por completo a ocorrência de colisões. Quando um nó transmite, o sinal que carrega os dados demora um tempo (mesmo que muito pequeno) para alcançar todos os outros nós. Dessa forma, um nó ao qual o sinal ainda não chegou pode achar que o canal está livre e efetuar uma transmissão, ocasionando uma colisão. A ilustração a seguir mostra o fluxograma de funcionamento desse protocolo. 5.3 PROTOCOLOS DE REVEZAMENTO Os protocolos de revezamento mais importantes são (1) o protocolo de seleção (polling)e (2) o protocolo de passagem de permissão. O primeiro depende fundamentalmente de um nó mestre, que estabelece a sequência em que cada um dos outros nós obterá o direito de transmitir. Quando o nó mestre “avisa” outro nó sobre esse direito de transmissão, um determinado número de quadros pode ser enviado, até que o direito seja repassado ao próximo nó da sequência. Com isso, a rede se livra das colisões existentes nos protocolos de acesso aleatório e os nós não perdem mais tempo com tentativas de retransmissões. As desvantagens do polling estão relacionadas ao atraso de seleção, que corresponde ao tempo que o nó mestre leva para notificar um nó sobre o direito de transmitir, e à centralização do protocolo; se o nó Fonte:http://www.sj.ifsc.edu.br/~msobral/RCO2/slides/aula 8.pdf Figura 4. Fluxograma do protocolo CSMA/CD 9 mestre falhar, o canal inteiro ficará inoperante. O Bluetooth é um exemplo de tecnologia que emprega um protocolo de seleção. O protocolo de passagem de permissão não depende de um nó mestre. Um pequeno quadro conhecido como token é repassado entre os nós, obedecendo a uma ordem fixa. Quando um nó detém o token, ele pode transmitir um número máximo de quadros. Após isso, o token é repassado ao próximo nó da “fila”. Apesar de ser descentralizada, a falha de um nó também pode comprometer o funcionamento do protocolo. Caso um nó retenha o token indevidamente, por exemplo, será necessário algum procedimento de recuperação para colocá-lo novamente em circulação. O FDDI e o IEEE 802.5 são exemplos que empregam protocolos de revezamento. 6. ENDEREÇAMENTO DA CAMADA DE ENLACE Os endereços MAC possuem 48 bits e, normalmente, são expressos como 6 bytes escritos em hexadecimal. Em todo o mundo, não há duas placas de rede com o mesmo endereço MAC. Isso é assegurado pelo IEEE, que distribui os endereços MAC entre os diversos fabricantes de adaptadores de rede, fixando os primeiros 24 bits e deixando os 24 bits menos significativos sob-responsabilidade do próprio fabricante. Uma máquina com determinada placa de rede possui sempre o mesmo endereço MAC, não importando a rede ao qual ela esteja conectada. Isso é bem diferente dos endereços da camada 3, que são lógicos e que podem, inclusive, nem ser válidos no ambiente externo ao de uma rede local (lembram do NAT?). Quando um adaptador deseja enviar um quadro pelo enlace, os endereços MAC de origem e de destino são escritos no quadro. Isso permite que os adaptadores, ao receberem um quadro, confrontem o endereço MAC de destino presente no quadro com o seu próprio endereço MAC e processem (resp. descartem) o quadro caso haja (resp. não haja) coincidência. Envios de quadros em broadcast também são permitidos. Para isso, basta que, na camada de enlace de origem, seja montado um quadro com o endereço de destino FF-FF- FF-FF-FF-FF. Agora que já sabemos do que se trata o endereço MAC, vamos retomar a discussão iniciada na introdução deste capítulo...; Quando, na camada de rede, um novo salto na rota de um datagrama é definido, é necessário criar um quadro de enlace e colocar o datagrama no campo de carga útil desse quadro (isso pode acontecer num hospedeiro ou num roteador). 10 Neste momento, é preciso que se conheça o endereço MAC correspondente ao endereço de rede que deve ser alcançado. Essa tarefa é de responsabilidade do ARP (Address resolution protocol, protocolo de resolução de endereços). O ARP mantém uma tabela em que endereços de rede e endereços MAC são associados. Quando um quadro precisa ser montado, o endereço de rede de destino é repassado ao ARP e ele informa o endereço MAC correspondente. A figura a seguir é um exemplo de modelo básico de endereçamento. 7. ETHERNET Ethernet é uma arquitetura de interconexão para redes locais - Rede de Área Local (LAN) - baseada no envio de pacotes. Ela define cabeamento e sinais elétricos para a camada física, em formato de pacotes e protocolos para a subcamada de controle de acesso ao meio (Media Access Control - MAC) do modelo OSI. A Ethernet foi padronizada pelo IEEE como 802.3. A partir dos anos 90, ela vem sendo a tecnologia de LAN mais Figura 5: Endereçamento Fonte: https://novatec.com.br/livros/redescom/capitulo9788575221273.pdf 11 amplamente utilizada e tem tomado grande parte do espaço de outros padrões de rede como Token Ring, FDDI e ARCNET. A seguir temos a ilustração do padrão Ethernet. É constante a preocupação com novas tecnologias sem fio e prover mobilidade um bom sinal em qualquer parte do mundo tem desafiado a engenharia nas telecomunicações. As redes de computadores começaram a ser construída sobre uma tecnologia conhecida como ethernet: que hoje é muito associada ao uso de cabos. Na verdade ethernet é um conjunto de tecnologias, que independente de meios físicos. Preocupa-se mais com questões básicas de redes de computadores, tais como: formato de quadros, esquema de endereçamento e outras políticas de protocolos. Em 1985, o comitê de padronização de Redes Locais e Metropolitanas do Institute of Electricaland Electronics Engineers (IEEE) publicou padrões para redes locais. Esses padrões começam com o número 802. O padrão para Ethernet é 802.3. O IEEE procurou assegurar que os padrões fossem compatíveis com o modelo da International Standards Organization (ISO) /OSI. Para fazer isso, o padrão IEEE 802.3 teria que satisfazer às necessidades da camada 1 e da parte inferior da camada 2 do modelo OSI. Como resultado, no 802.3, foram feitas algumas pequenas modificações em relação ao padrão Ethernet original. As diferenças entre os dois padrões eram tão insignificantes que qualquer placa de rede Ethernet (NIC) poderia transmitir e receber quadros tanto Ethernet como 802.3. Essencialmente, Ethernet e IEEE 802.3 são padrões idênticos. Todos esses padrões são essencialmente compatíveis com o padrão Ethernet originais. Fonte: https://novatec.com.br/livros/redescom/capitulo9788575221273.pdf Figura 6: Rede Local padrão Ethernet 12 Um quadro Ethernet podia sair de uma placa de rede Ethernet de cabo coaxial mais antiga de 10Mbps instalada em um PC, ser colocado em um link de fibra Ethernet de 10 Gbps e ter seu destino em uma placa de rede de 100Mbps. Contanto que o pacote permaneça em redes Ethernet, não será modificado. Por essa razão, a Ethernet é considera bem escalável. A largura de banda da rede poderia ser aumentada muitas vezes sem modificar a tecnologia Ethernet subjacente 7.1 DESCRIÇÃO Ethernet é baseada na ideia de pontos da rede enviando mensagens, no que é essencialmente semelhante a um sistema de rádio, cativo entre um cabo comum ou canal, às vezes chamado de éter (no original, ether). Isto é uma referência oblíqua ao éter luminífero, meio através do qual os físicos do século XIX acreditavam que a luz viajasse. A primeira das figuras abaixo está relacionada à identificação e localização da camada de enlace no modelo de referência OSI, assim também como o padrão IEEE 802, e a segunda o próprio modelo OSI com suas respectivas camadas. Fonte: https://desmontacia.wordpress.com/category/infraestrutura/normas Figura 7: Padrão IEEE 802 138. HUBS E SWITCH Na infraestrutura de uma rede na qual você está trabalhando, jogando, navegando você deve estar conectado a um hub, um switch ou um roteador (router, em inglês). 8.1 HUBS O Hub é indicado para redes com poucos terminais de rede, pois o mesmo não comporta um grande volume de informações passando por ele ao mesmo tempo devido sua metodologia de trabalho por broadcast, que envia a mesma informação dentro de uma rede para todas as máquinas interligadas. Devido a isto, sua aplicação para uma rede maior é desaconselhada, pois geraria lentidão na troca de informações. O Hub é indicado para redes com poucos terminais de rede, pois o mesmo não comporta um grande volume de informações passando por ele ao mesmo tempo devido sua metodologia de trabalho por broadcast, que envia a mesma informação dentro de uma rede para todas as máquinas interligadas. Devido a isto, sua aplicação para uma rede maior é desaconselhada, pois geraria lentidão na troca de informações. Figura 8: Identificação das camadas do Modelo OSI Fonte:http://www.dltec.com.br/blog/cisco/entendendo-o-modelo-osi-para-melhorar- sua-capacidade-de-resolver-problemas-em-uma-rede-cisco/ 14 - Os hubs não processam o tráfego da camada 2 ou da camada 3. Não processam informações baseadas nos endereços MAC ou IP; - Tudo o que um hub faz é transferir dados a cada porta, excluindo-se aquela de onde os dados se originaram; - Hubs trabalham apenas no modo half-duplex, o que significa que um dispositivo conectado a ele não pode enviar e receber dados simultaneamente envia dados em um momento e recebe dados em outro; - Se mais de um dispositivo enviar dados simultaneamente ocorre à colisão de dados; - Em caso de colisão, o hub rejeita os dados de todos os dispositivos e envia-lhes um sinal para enviar novamente; - Hubs têm propensão a colisões e, à medida que vamos adicionando novos dispositivos e hubs à rede, as chances de ocorrerem colisões vão aumentando e o desempenho da rede, como consequência, vai caindo. 8.2 SWITCHES Um switch, que na gíria foi traduzido para comutador, é um dispositivo utilizado em redes de computadores para reencaminhar quadros ('frames' em inglês) entre os diversos nós. Possuem diversas portas, assim como os Hubs, e operam na camada acima dos Hubs. A diferença entre o switch e o hub é que o switch segmenta a rede internamente, sendo que a cada porta corresponde um segmento diferente, o que significa que não haverá colisões entre pacotes de segmentos diferentes, ao contrário dos Hubs cujas portas partilham o mesmo domínio de colisões, são também conhecidos como hubs inteligentes. Os computadores operam semelhantemente a um sistema telefônico com linhas privadas. Nesse sistema , quando uma pessoa liga para outra a central telefônica as conectará em uma linha dedicada, possibilitando um maior número de conversações simultâneas. Um comutador opera na camada 2 (camada de enlace), encaminhando os pacotes de acordo com o endereço MAC de destino, e é destinado a redes locais para segmentação. Porém, existem atualmente comutadores que operam juntamente na camada 3 (camada de rede), herdando algumas propriedades dos roteadores (routers). -Os switches operam com os endereços de hardware dos dispositivos conectados para transferir dados entre estes; 15 - O motivo de serem chamados hubs inteligentes é que montam uma tabela com os endereços de hardware e portas dos dispositivos conectados; - Assim que são ligados, agem de maneira limitada, tal como os hubs. Por isto são comparados a estes. 9. PPP-PROTOCOLO PONTO A PONTO O PPP significa (Point-to-Point Protocol) que no Português é “Protocolo ponto a ponto” que é um conjunto de protocolos padrão que permite a operação de programas de acesso remoto de diferentes fornecedores. Uma conexão ativada por PPP pode ser discada para qualquer rede remota através de qualquer servidor PPP padrão de uma indústria. Hoje em dia muitos usuários da internet que A função do PPP é enviar data gramas através de uma conexão serial, e permite que ambos os lados da conexão negociem certas opções como endereços IP e o tamanho máximo dos datagramas, além de prover modos de autenticação do cliente. Os dados são enviados pela rede através de uma conexão física serial (cabo serial, linha telefônica, telefone celular via conexão GPRS, ligações de rádio especializadas ou ligações de fibras óticas). O PPP suporta linhas síncronas e assíncronas. Embora seja um protocolo, encontra-se na lista de interfaces da camada de enlace. O PPP é utilizado através de conexões físicas do tipo RS-232 ou por modem. Hoje em dia o PPP é usado para conexões de banda larga da Internet também é usada para fazer ligações dial-up de acesso a Internet. 9.1 SERVIÇOS DO PPP O protocolo ponto a ponto oferece vários serviços que o tornam o um dos protocolos mais utilizados na camada de enlace. Alguns destes serviços são: - O fato de o PPP ser compatível com diversos tipos de enlaces físicos. - Definir como os dispositivos podem se autenticar. - Definir o formato do frame. - Definir como os dados da camada de rede são encapsulados em frames. - Atuar como mediador, definindo qual será a conexão e a troca de dados entre os dispositivos. 16 - Pelo fato do PPP ser um protocolo simples, alguns serviços não são oferecidos por ele. - Ele não oferece controle de fluxo, assim o receptor pode ficar sobrecarregado sem que o emissor perceba. -Se um arquivo estiver corrompido, ele simplesmente o descarta silenciosamente, as camadas superiores têm que detectar o erro sozinhas. - Tem um mecanismo de endereçamento simples. 9.2 FASES DO PPP O PPP passa por diferentes fases, e cada uma destas fases apresentam funções diferentes. Estas fases são: - Repouso: Quando o enlace não esta sendo usado. - Estabelecimento: Quando algum dispositivo inicia a comunicação. Nesta fase, o PPP serve como mediador para as partes definirem qual será a conexão e a troca de dados. - Autenticação: Esta fase é opcional. Se as partes decidirem pela autenticação, elas começam a trocar pacotes de autenticação entre si. Se a autenticação for bem sucedida, conexão vai para a próxima fase. Se a autenticação não der certo, a conexão não ocorrerá. - Rede: Nesta fase, são especificados os acordos dos níveis de camada de rede e a configuração dos protocolos. - Aberto: É nesta fase que ocorre a troca de dados. Esta fase permanece até que alguma das partes deseja encerrar a comunicação. - Encerramento: Esta é a fase que a conexão é encerrada, para isso vários pacotes para que o encerramento seja concluído. A figura a seguir ilustra justamente algumas das etapas pela qual esse protocolo passa. 17 9.3 LINK CONTROL PROTOCOL (LCP) Com o avanço, o protocolo PPP, recebe uma atualização, cujo nome é LCP (Link Control Protocol). O motivo de ele ser criado foi para a versatilidade, e maior portabilidade do mesmo. Ele tem a função de controlar a parte de encapsulamento, ou seja, o tamanho, o formato, a garantia de envio, e toda a padronização do mesmo. Este serve de opção para o anterior PPP. 9.4 NETWORK CONTROL PROTOCOLS (NCPS) O NCP (Network Control Protocols) é um conjunto de protocolos. Ele possui a função de configurar o protocolo PPP que será usado pela rede, e também têm a função de ver problemas que são notificados no mesmo. Ele possui umgerenciamento específico para cada atribuição IP. Figura 9: Fases do PPP Fonte: http://www.teleco.com.br/tutoriais/tutorialmplscam/pagina_2.asp http://www.teleco.com.br/tutoriais/tutorialmplscam/pagina_2.asp 18 Alguns protocolos conhecidos são: - PPP Link Group: Possui uma tabela, onde é armazenado o status da configuração (Link Status Table) e uma tabela que é armazenada todos os parâmetros (Link Configuration Table). - PPP Link Quality Report Group: Possui uma tabela de estatística, onde há o número de pacotes enviados/recebidos, erros, descartados e etc. Além disso, há também uma tabela onde estão os dados referente à qualidade de conexão. - PPP Security Table: Onde registra todas as configurações da mesma. - PPP Bridge Group: Possui dados sobre o status, e configurações referentes ao Bridge da rede. O PPP (Point-to-Point Protocol) definido pela RFC 1548, é protocolo de camada 2 do modelo OSI que fornece um método para transmissão de data gramas. Conforme (Fillipetti 2008, p. 366) “[...] pode ser usado através de links seriais síncrono (ex. ISDN) e assíncronos (dial-up) que utilizam LCP (Link Control Protocol) para estabelecer e gerenciar conexões na camada de enlace”. A figura a seguir representa a pilha de protocolo do PPP. Fonte: http://www.teleco.com.br/tutoriais/tutorialmplscam/pagina_2.asp Tabela 10: Pilha do protocolo PPP 19 10. VIRTUALIZAÇÃO DE ENLACE: ATM E MPLS ATM, MPLS separam duas redes por conta própria, modelos de serviço, endereçamento, roteamento diferentes da Internet. Visto pela Internet como enlace lógico conectando roteadores IP assim como enlace discado realmente faz parte da rede separada (rede telefônica) o ATM e MPLS: 10.1 ASYNCHRONOUS TRANSFER MODE: ATM Padrão das décadas de 1990/2000 para alta velocidade (155 Mbps a 622 Mbps e mais) arquitetura Broadband Integrated Service Digital Network Objetivo: transporte integrado, de fim a fim, de voz, vídeo e dados atendendo requisitos de temporização/QoS de voz, vídeo (contra modelo de melhor esforço da Internet) telefonia da “próxima geração”: raízes técnicas no mundo do telefone comutação de pacotes (pacotes de tamanho fixo, chamados “células”) usando circuitos virtuais. 10.2 MULTIPROTOCOL LABEL SWITCHING (MPLS) Objetivo inicial: agilizar o repasse do IP usando rótulo de tamanho fixo (em vez dendereço IP) para fazer o repasse das ideias apanhadas das técnicas de Virtual Circuit (VC) e datagrama IP ainda mantém endereço IP! Roteadores capazes de usar MPLS, também chamado roteador comutado por rótulo encaminha pacotes à interface de saída com base apenas no valor do rótulo (não inspeciona endereço IP) da tabela de repasse MPLS distintas das tabelas de repasse do IP protocolo de sinalização necessário para configurar repasse RSVP-TE repasse possível ao longo de caminhos que o IP sozinho não permitiria (p. e, roteamento específico da origem) usa MPLS para engenharia de tráfego deve coexistir com roteadores apenas IP. 20 11. CONCLUSÃO Este artigo mostrou, de forma muito simples e clara, a importância da camada de enlace de dados, não apenas para o controle de erros e de fluxo através dos diferentes protocolos de enlace, mas também no suporte, tanto para recepção como para transmissão de informações, para a camada imediatamente acima a camada de rede. No modelo de referência OSI (Open Systems Interconnection) vimos que, apesar dos protocolos serem programados visando uma comunicação virtual (fim-a-fim), outra função importante da camada de enlace, é a de oferecer a integridade das informações vindas tanto da camada de rede adjacente, como também oferecer a integridade das informações para as camadas adjacentes superiores, como: transporte, sessão, apresentação e aplicação. 21 12. REFERÊNCIAS Modelo OSI: Resumo da história. Disponível em: <http://plugandose.blogspot.com.br/2009/04/12-modelo-osi-resumo-da-historia.html>, acesso em 18 Set. 2015. A camada de enlace de dados. Disponível em:<http://www.vivaolinux.com.br/artigo/A- camada-de-enlace-de-dados>, Acesso em 26. Ago.2015 Camada de Enlace de Dados. Disponível em: <https://pt.wikipedia.org/wiki/Camada_de_enlace_de_dados>, Acesso em: 28 ago. 2015. O Modelo De Referência OSI Camadas. Disponível em: <https://www.passeidireto.com/arquivo/11019122/o-modelo-de-referencia-osi--camadas>, Acesso em: 27 ago. 2015. Instalação de Equipamentos de Redes-2013-2. Disponível em:<http://wiki.sj.ifsc.edu.br/wiki/index.php/IER-2013-2>, Acesso em: 01 ago. 2015. Kurose, James F.; Ross, Keith W. Redes de Computadores e a Internet, Editora Pearson, Tanembaum Andrew. Redes de Computadores. Campus, 2003.
Compartilhar