Baixe o app para aproveitar ainda mais
Prévia do material em texto
Fundamentos de Redes – FR - versão 2020 página 1 Prof. Bellotti 1. Introdução Atualmente, todo cidadão se depara com uma estrutura de rede: seja em um hipermercado, em bancos para movimentação de sua conta corrente e tantos outros estabelecimentos comerciais. As redes de computadores são compostas por meios físicos e lógicos através dos quais é possível trocar dados e compartilhar recursos entre máquinas. As redes tornam possível a implementação dos sistemas distribuídos em oposição aos sistemas autônomos. Em seu nível mais elementar, uma rede consiste em dois computadores conectados um ao outro por um cabo. O conceito de rede está presente já na década de 70, onde terminais de vídeo conectavam-se aos computadores de grande porte ( mainframe ). Com avanço da microinformática ( através dos PCs ) , no final dos anos 80 e com forte avanço no início dos anos 90 começa o conceito de LAN ( Local Area Network ) onde as redes eram formadas por poucos computadores e cobriam pequenas distâncias envolvendo, no máximo andares vizinhos de uma empresa. Devido as características do cabeamento era permitido, no máximo, 30 computadores conectados a uma distância de 180 metros. Hoje é possível ligar todo um prédio ou prédios vizinhos de uma empresa compondo, dessa forma a LAN dessa instituição. Porém é comum empresas possuírem escritórios em cidades distintas, estados e até países. A interligação de todas as filias de uma empresa com essa disposição geográfica forma a WAN ( Wide Area Network ) dessa instituição. Dessa forma, entendemos por WAN uma rede de grande abrangência. É comum definir uma rede intermediária, com Fundamentos de Redes – FR - versão 2020 página 2 Prof. Bellotti relação a sua disposição geográfica, de rede MAN ( Metropolitan Area Networks). De forma geral podemos classificar: Fundamentos de Redes – FR - versão 2020 página 3 Prof. Bellotti Fundamentos de Redes – FR - versão 2020 página 4 Prof. Bellotti 2. - Classificação da rede considerando o software da rede 2.1 - Redes Ponto a Ponto Nessa arquitetura todas as estações podem compartilhar seus recursos, dependendo exclusivamente de seu usuário. Dessa forma não existe uma estação servidora e nem o papel de um administrador de rede. Como os recursos ficam compartilhados em cada estação não é possível que os usuários usem um mesmo arquivo, que representa uma base de dados qualquer, ao mesmo tempo. Em uma rede ponto a ponto, somente um usuário pode modificar cada arquivo por vez, embora mais de um usuário possa ler um mesmo arquivo ao mesmo tempo. Dessa forma podemos resumir essa estrutura: Usada em redes pequenas ( máximo de 20 estações ); Baixo custo e fácil implementação pois os sistemas operacionais para PCs já estão preparados para redes ponto a ponto; Baixa segurança pois existe apenas a segurança via Ambiente de Rede e não a segurança local. Além disso é difícil administrar senhas por compartilhamento de cada recurso com segurança; Será difícil promover a expansão da rede Fundamentos de Redes – FR - versão 2020 página 5 Prof. Bellotti 2.2 - Redes Cliente/Servidor Um servidor normalmente é representado por um micro que gera recursos para as demais estações da rede. Por ser um equipamento com função especializada, a rede fica com sua operação mais rápida quando comparada com uma rede ponto a ponto. Podemos citar uma estação A, W98, realizando um processamento CAD e ao mesmo tempo compartilhando arquivos na rede. Quando uma estação B, W98, necessitar de um arquivo da estação A, via rede, o tempo de resposta será alto pios o processamento da estação A está sendo divido entre o CAD e a servir a estação B. Ainda pior, será se outras estações solicitarem, via rede, arquivos para a máquina A. Com o servidor dedicado a uma só tarefa ( autenticação, arquivos, impressão, banco de dados entre outras ), ele consegue responder rapidamente aos pedidos vindos dos demais micros da rede, não comprometendo o desempenho. Nas redes cliente/servidor, a administração é centralizada promovendo maior organização e segurança, além da possibilidade de serem executados programas cliente/servidor, como banco dados que pode ser utilizado por diversos usuários ao mesmo tempo. Dessa forma podemos resumir essa estrutura: Utilizada normalmente em redes com mais de 10 estações ou em redes que necessitem de alta segurança. Alto custo de implementação pois necessita de Sistemas operacionais especializados ( Windows NT Server, Windows 2000 Server, Unix, Netware ) e técnicos especializados ( administradores de redes ) Alto desempenho e segurança. Facilidade em expansão da rede. 3. Protocolos de comunicação de dados Podemos definir um protocolo de comunicação de dados como um conjunto de regras que controla a comunicação para que ela seja eficiente e sem erros. Um dos objetivos principais do protocolo é detectar e evitar a perda de dados ao longo da transmissão, solicitando retransmissão deles, caso isso ocorra. O protocolo nada mais é que um software ou programa de computador, que recebe ou envia os dados a serem transmitidos, agregando, no início e no fim das mensagens transmitidas, os caracteres de controle, confirmação de recebimento, controle de seqüência das mensagens ou blocos de dados transmitidos, cálculo e checagem do algoritmo de detecção de erros e outros controles necessários a uma boa transmissão. 3.1 - MODELO OSI O início do desenvolvimento de redes era desorganizado em várias maneiras. No início da década de 80 houve um grande aumento na quantidade e no tamanho das redes. À medida que as empresas percebiam as vantagens da utilização da tecnologia de redes, novas redes Fundamentos de Redes – FR - versão 2020 página 6 Prof. Bellotti eram criadas ou expandidas tão rapidamente quanto eram apresentadas novas tecnologias de rede. Lá pelos meados de 1980, essas empresas começaram a sentir os problemas causados pela rápida expansão. Assim como pessoas que não falam o mesmo idioma têm dificuldade na comunicação entre si, era difícil para as redes que usavam diferentes especificações e implementações trocarem informações. O mesmo problema ocorreu com as empresas que desenvolveram tecnologias de rede proprietária ou particular. Proprietário significa que uma empresa ou um pequeno grupo de empresas controla todos os usos da tecnologia. As tecnologias de rede que seguiam estritamente as regras proprietárias não podiam comunicar-se com tecnologias que seguiam diferentes regras proprietárias. Para tratar dos problemas de incompatibilidade entre as redes, a International Organization for Standardization (ISO) realizou uma pesquisa nos modelos de redes como Digital Equipment Corporation net (DECnet), Systems Network Architecture (SNA) e TCP/IP a fim de encontrar um conjunto de regras aplicáveis a todas as redes. Com o resultado desta pesquisa, a ISO criou um modelo de rede que ajuda os fabricantes na criação de redes que são compatíveis com outras redes. O modelo de referência da Open System Interconnection (OSI) lançado em 1984 foi o modelo descritivo de rede que foi criado pela ISO. Ele proporcionou aos fabricantes um conjunto de padrões que garantiam uma maior compatibilidade e interoperabilidade entre as várias tecnologias de rede produzidas pelas companhias ao redor do mundo. Interessante notar que a maioria dos protocolos existentes - como o TCP/IP, o IPX/SPX e o NetBEUI - não segue esse modelo de referência ao pé da letra (como veremos, esses protocolos só correspondem a partes do padrão OSI). Todavia,o estudo deste modelo é extremamente didático, pois através dele há como entender como deveria ser um "protocolo ideal", bem como facilita enormemente a comparação do funcionamento de protocolos criados por diferentes fabricantes. Dividir a rede nessas sete camadas oferece as seguintes vantagens: Decompõe as comunicações de rede em partes menores e mais simples. Padroniza os componentes de rede, permitindo o desenvolvimento e o suporte por parte de vários fabricantes. Possibilita a comunicação entre tipos diferentes de hardware e de software de rede para que possam comunicar entre si. Evita que as mudanças em uma camada afetem outras camadas. Decompõe as comunicações de rede em partes menores, facilitando sua aprendizagem e compreensão Para que os pacotes de dados trafeguem da origem para o destino, cada camada do modelo OSI na origem deve se comunicar com sua camada par no destino. Essa forma de comunicação é chamada ponto-a-ponto. Durante este processo, os protocolos de cada Fundamentos de Redes – FR - versão 2020 página 7 Prof. Bellotti camada trocam informações, denominadas unidades de dados de protocolo (PDUs). Cada camada de comunicação no computador de origem se comunica com uma PDU específica da camada, e com a sua camada correspondente no computador de destino. Pacotes de dados em uma rede são originados em uma origem e depois trafegam até um destino. Cada camada depende da função de serviço da camada OSI abaixo dela. Para fornecer esse serviço, a camada inferior usa o encapsulamento para colocar a PDU da camada superior no seu campo de dados; depois, adiciona os cabeçalhos e trailers que a camada precisa para executar sua função. A seguir, enquanto os dados descem pelas camadas do modelo OSI, novos cabeçalhos e trailers são adicionados. Depois que as Camadas 7, 6 e 5 tiverem adicionado suas informações, a Camada 4 adiciona mais informações. Esse agrupamento de dados, a PDU da Camada 4, é chamado segmento. A camada de rede, fornece um serviço à camada de transporte, e a camada de transporte apresenta os dados ao subsistema da internetwork. A camada de rede tem a tarefa de mover os dados através da internetwork. Ela efetua essa tarefa encapsulando os dados e anexando um cabeçalho, criando um pacote (a PDU da Camada 3). O cabeçalho tem as informações necessárias para completar a transferência, como os endereços lógicos da origem e do destino. A camada de enlace de dados fornece um serviço à camada de rede. Ela faz o encapsulamento das informações da camada de rede em um diagrama (a PDU da Camada 2). O cabeçalho do quadro contém informações (por exemplo, endereços físicos) necessárias para completar as funções de enlace de dados. A camada de enlace fornece um serviço à camada de rede encapsulando as informações da camada de rede em um quadro. A camada física também fornece um serviço à camada de enlace. A camada física codifica o quadro de enlace de dados em um padrão de 1s e 0s (bits) para a transmissão no meio (geralmente um cabo) na Camada 1. Fundamentos de Redes – FR - versão 2020 página 8 Prof. Bellotti O modelo de protocolos OSI é um modelo de sete camadas. Cada nível oferece serviços ao nível seguinte. As conexões de um nível são gerenciadas pelo protocolo daquele nível e assim: Devemos observar que cada nível, ao receber uma informação a ser transmitida, acrescenta bits de controle do seu nível. o que é feito pelo protocolo de controle desse nível; Ao chegar na outra ponta, nesse mesmo nível, os controles são retirados e os dados passados para o nível seguinte; Ou seja, cada nível, numa transmissão, coloca sobre a mensagem inicial camadas de controle do protocolo do nível. Esses controles são bits acrescentados e retirados pelo receptor após um bloco atravessar um determinado nível. Aplicação Apresentação Sessão Transporte Rede Link de Dados ou Enlace Física Aplicação Transporte Rede Fundamentos de Redes – FR - versão 2020 página 9 Prof. Bellotti As camadas do modelo OSI podem ser divididas em três grupos: Aplicação, Transporte e Rede. As camadas de rede se preocupam com a transmissão e recepção dos dados através da rede e, portanto, são camadas de baixo nível. A camada de transporte é responsável por pegar os dados recebidos pela rede e repassá-los para as camadas de aplicação de uma forma compreensível, isto é, ela pega os pacotes de dados e transforma-os em dados quase prontos para serem usados pela aplicação. As camadas de aplicação, que são camadas de alto nível, colocam o dado recebido em um padrão que seja compreensível pelo programa (aplicação) que fará uso desse dado. Até então estávamos usando os termos pacotes e quadros como sinônimos, mas estes termos se referem as duas coisas distintas. Um quadro é um conjunto de dados enviado através da rede, de forma mais "bruta" ou, melhor dizendo, de mais baixo nível. Dentro de um quadro encontramos informações de endereçamento físico, como exemplo, o endereço real de uma placa de rede. Logo, um quadro está associado às camadas mais baixas (1 e 2) do modelo OSI. Um pacote de dados se refere a um conjunto de dados manipulados nas camadas 3 e 4 do modelo OSI. No pacote há informações de endereçamento virtual. Por exemplo, a camada 4 cria um pacote de dados para ser enviado pela rede e a camada 2 divide esse pacote em vários quadros que serão efetivamente enviados através do cabo da rede. Um pacote, portanto, contém a informação proveniente de vários quadros. Para dar um exemplo real e elucidar de uma vez essa diferença, em uma rede usando o protocolo TCP/IP, a camada IP adiciona informações de endereçamento de um pacote (número do endereço IP da máquina de destino), que é um endereçamento virtual. Já a camada controle de Acesso ao Meio (MAC) - que corresponde à camada 2 do modelo OSI - transformará esse pacote em um ou mais quadros terão o endereço da placa de rede de destino (endereço real, físico) que corresponda ao número IP fornecido. Iremos estudar cada uma das camadas do modelo OSI e suas funções. Note que as explicações serão dadas como se estivéssemos transmitindo um dado do computador A para o computador B. O processo de recepção é o inverso do descrito. CAMADA 7 - APLICAÇÃO A camada de aplicação faz a interface entre o protocolo de comunicação e o aplicativo que pediu ou receberá a informação através da rede. Por exemplo, se você quiser baixar o seu e- mail com seu aplicativo de e-mail, ele entrará em contato com a camada de aplicação do protocolo de rede efetuando este pedido. Dessa forma, fica definido como as aplicações de banco de dados, browsers, correio eletrônico entre outras comunicam com o protocolo de comunicação. Fundamentos de Redes – FR - versão 2020 página 10 Prof. Bellotti CAMADA 6 - APRESENTAÇÃO A camada de Apresentação, também chamada camada de Tradução, converte o formato do dado recebido pela camada de aplicação em um formato comum a ser usado na transmissão desse dado, ou seja, um formato entendido pelo protocolo usado. Um exemplo comum é a conversão do padrão de caracteres (código de página) quando, por exemplo, o dispositivo transmissor usa um padrão diferente do ASCII, por exemplo. Pode ter outros usos, como compressão de dados e criptografia. A compressão de dados pega os dados recebidos da camada sete e os comprime (como se fosse um compactador comumente encontrado em PCs, como o Zip ou o Arj) e a camada 6 do dispositivo receptor fica responsável por descompactar esses dados. A transmissão dos dados torna-se mais rápida, já que haverá menos dados a serem transmitidos: os dados recebidos da camada 7 foram "encolhidos" e enviadosà camada 5. Para aumentar a segurança, pode-se usar algum esquema de criptografia neste nível, sendo que os dados só serão decodificados na camada 6 do dispositivo receptor. CAMADA 5 - SESSÃO A camada de Sessão permite que duas aplicações em computadores diferentes estabeleçam uma sessão de comunicação. Nesta sessão, essas aplicações definem como será feita a transmissão de dados e coloca marcações nos dados que estão sendo transmitidos. Se porventura a rede falhar, os computadores reiniciam a transmissão dos dados a partir da última marcação recebida pelo computador receptor. Por exemplo, você está baixando e-mails de um servidor de e-mails e a rede falha. Quando a rede voltar a estar operacional, a sua tarefa continuará do ponto em que parou, não sendo necessário reiniciá-la. CAMADA 4 - TRANSPORTE A camada de Transporte é responsável por pegar os dados enviados pela camada de Sessão e dividi-los em pacotes que serão transmitidos pela rede, ou, melhor dizendo, repassados para a camada de rede. No receptor, a camada de Transporte é responsável por pegar os pacotes recebidos da camada de Rede e remontar o dado original para enviá-lo à camada de Sessão. Isso inclui controle de fluxo (colocar os pacotes recebidos em ordem, caso eles tenham chegado fora de ordem) e correção de erros, tipicamente enviado para o transmissor Fundamentos de Redes – FR - versão 2020 página 11 Prof. Bellotti uma informação de reconhecimento (acknowledge), informando que o pacote foi recebido com sucesso. A camada de Transporte separa as camadas de nível de aplicação (camadas 5 a 7) das camadas de nível físico (camadas de 1 a 3). Como você pode facilmente perceber, as camadas de 1 a 3 estão preocupadas com a maneira com que os dados serão transmitidos e recebidos pela rede, mais especificamente com os quadros transmitidos pela rede. Já as camadas de 5 a 7 estão preocupadas com os dados contidos nos pacotes de dados, para serem enviados ou recebidos para a aplicação reponsável pelos dados. A camada 4, Transporte, faz a ligação entre esses dois grupos. Nesse nível, que é o primeiro a fazer controle fim a fim, a integridade das mensagens trocadas entre dois usuários finais deve ser garantida, independentemente dos controles dos níveis anteriores. CAMADA 3 - REDE A camada de Rede é responsável pelo endereçamento dos pacotes, convertendo endereços lógicos em endereços físicos, de forma que os pacotes consigam chegar corretamente ao destino. Essa camada também determina a rota que os pacotes irão seguir para atingir o destino, baseada em fatores como condições de tráfego da rede e prioridades. Dessa forma, o nível de rede controla a transferência do pacote entre a origem e o destino. Como você pode ter percebido, falamos em rota. Essa camada é, portanto, usada quando a rede possui mais de um segmento e, com isso, há mais de um caminho para um pacote de dados trafegar da origem até o destino. Uma rota pode ser: Estática: usa-se smpre o mesmo caminho definido para origem atingir o destino. Dinâmica: escolhe-se o melhor caminho. Requer troca de informações entre os nós da rede e o status dos links que interligam os nós. CAMADA 2 - LINK DE DADOS OU ENLACE A camada de Link de Dados (também chamada camada de Enlace) pega os pacotes de dados recebidos da camada de Rede e os transforma em quadros que serão trafegados pela rede, adicionando informações como o endereço da placa de rede de origem, o endereço da placa de rede de destino, dados de controle, os dados em si e o CRC. Fundamentos de Redes – FR - versão 2020 página 12 Prof. Bellotti O quadro criado pela camada Link de Dados é enviado para a camada Física, que converte esse quadro em sinais elétricos para serem enviados através do cabo da rede. Quando o receptor recebe um quadro, a sua camada Link de Dados confere se o dado chegou íntegro, refazendo o CRC. Se os dados estiverem corretos; ele envia uma confirmação de recebimento (chamada acknowledge ou simplesmente ACK). Caso essa confirmação não seja recebida, a camada Link de Dados do transmissor reenvia o quadro, já que ele não chegou até o receptor ou então chegou com os dados corrompidos. Dessa forma, o nível de Enlace controla a informação entre os nós adjacentes de uma rede. CAMADA 1 – FÍSICA A camada Física pega os quadros enviados pela camada de Link de Dados e os transforma em sinais compatíveis com o meio onde os dados deverão ser transmitidos. Se o meio for elétrico, essa camada converte os Os e 1s dos quadros em sinais elétricos a serem transmitidos pelo cabo. Se o meio for óptico (uma fibra óptica), essa camada converte os Os e 1s dos quadros em sinais luminosos e assim por diante, dependendo do meio de transmissão de dados. A camada Física específica, portanto, a maneira com que os Os e 1s dos quadros serão enviados para a rede (ou recebidos da rede, no caso da recepção de dados). Ela não sabe o significado dos Os e 1s que está recebendo ou transmitindo. Por exemplo, no caso da recepção de um quadro, a camada física converte os sinais do cabo em Os e 1s e envia essas informações para a camada de Link de Dados, que montará o quadro e verificará se ele foi recebido corretamente. Como você pode facilmente perceber, o papel dessa camada é efetuado pela placa de rede dos dispositivos conectados em rede. Note que a camada Física não inclui o meio onde os dados circulam, isto é, o cabo da rede. O máximo com que essa camada se preocupa é com o tipo de conector e o tipo de cabo usado para a transmissão e recepção dos dados, de forma que os Os e 1s sejam convertidos corretamente no tipo de sinal requerido pelo cabo, mas o cabo em si não é responsabilidade dessa camada. Exemplos de recomendações que se encaixam no nível 1 são: V28; V24; X21. Fundamentos de Redes – FR - versão 2020 página 13 Prof. Bellotti 3.2 - MODELO TCP/IP A figura a seguir exibe a comparação ente o modelo OSI e o modelo TCP/IP. O modelo OSI é um modelo e utilizado de forma acadêmica enquanto o modelo TCP/IP é um modelo de fato, ou seja, utilizado pelos fabricantes de equipamentos e softwares. A próxima figura exibe os protocolos utilizados no modelo TCP/IP: Fundamentos de Redes – FR - versão 2020 página 14 Prof. Bellotti Por comparação temos: As camadas de aplicação, apresentação e sessão do modelo OSI equivalem a camada de aplicação do modelo TCP/IP; A camada de transporte tem o mesmo nome e as mesmas funções nos dois modelos; A camada de rede do modelo OSI equivale a camada de internet do modelo TCP/IP; As camadas Enlace e Fisica do modelo OSI não são definidas no modelo TCP/IP e neste caso todos os protocolos que desempenham as características de Enlace e Fisica podem ser usados no modelo TCP/IP. Vamos destacar alguns protocolos definidos nas camadas do modelo TCP/IP: Camada de Aplicação: o HTTP: Hypertext Transfer Protocol é utilizado para o transporte do protocolo de hyper text, ou seja, o protocolo HTML. Esse transporte é feito sem autenticação e sem criptografia. Dessa forma esse protocolo só faz uso da camada de aplicação do modelo OSI e não faz uso das características das camadas de apresentação e sessão do modelo OSI. Faz uso da porta TCP 80; o HTTPS: Hyper Text Transfer Protocol Secure é utilizado para o transporte seguro do protocolo de hyper text. Nesse caso além da camada de aplicação do OSI é utilizada também a parte da criptografia e em alguns casos também de autenticação. Faz uso da porta TCP 443; o FTP: File Transfer Protocol é utilizado para a transferência de dois arquivos entre duas máquinas. Além da camada de aplicação é utilizada também a Fundamentosde Redes – FR - versão 2020 página 15 Prof. Bellotti camada de sessão para autenticação e também para pontos de restart. Faz uso da porta TCP 21; o SMTP: Simple Mail Transfer Protocol é utilizado para o envio de e-mails. Não é utilizado quando é trabalhado em WebMail. Faz uso da porta TCP 25 e agora também da porta TCP 587 quando utilizado com criptografia; o POP3: Post Office Protocol é utilizado para o recebimento de e-mails que estão armazenadas em uma caixa postal de um servidor de correios. Essas mensagens são transferidas de forma sequencial. Faz uso da porta TCP 110 e agora também da porta TCP 995 quando utilizado com criptografia; o IMAP: Internet Message Access Protocol é utilizado também para gerenciar o recebimento de e-mails de uma caixa postal de um servidor, porém tem um gerenciamento mais avançado do que o POP3 no que diz respeito a ter controles de e-mails já recebidos, gerenciamento de listas de contas de e- mails bloqueadas. Faz uso da porta TCP 993; o TFTP: Trivial File Transfer Protocol é utilizado também para a transferência de arquivos, mas sem uso de autenticação, listagem de diretórios e pontos de restart. O TFTP é mais rápido que o FTP e só deve ser utilizado para arquivos pequenos e em redes LAN e nunca em redes WAN. O TFTP é mais utilizado para transferências entre arquivos de caixas de rede (switchs, roteadores). Faz uso da porta UDP 69; o SNMP: Simple Mail Transfer Protocol é utilizado para poder fazer o gerenciamento de dispositivos de redes. Pode trabalhar com GETs ou TRAPs e alimentam uma aplicação de gerenciamento. Através desse software é possível saber quando equipamentos tem indisponibilidade, ou gerencia de contabilização e até de configuração. Faz uso da porta UDP 161 para GETs e porta UDP 162 para TRAPs; o TELNET: permite o acesso remoto a linha de comando. Utilizado para a configuração de equipamentos de rede como roteadores e switchs. O TELNET faz uso da porta TCP 23. O acesso a linha de comando (CLI) é distinto ao acesso a interface gráfica (GUI). Para acesso à interface gráfica temos o Termial Service da Microsoft que utiliza como porta TCP = 3389. Existe também o software “teamviewer” que faz uso da porta TCP/UDP 5938; o SSH: idêntico ao protocolo TELNET, porém não faz uso de texto claro na comunicação através da rede e sim faz a comunicação fazendo uso de criptografia. Dessa forma é ideal para proteger o usuário e a senha que são utilizadas para a configuração dos equipamentos de rede. Tanto o TELNET como o SSH trabalham na forma cliente/servidor e o principal aplicativo utilizado como cliente para o TELNET é o software PUTTY. Faz uso da porta TCP 22; o DNS: Domain Name Service baseia-se na arquitetura cliente-servidor e tem função primordial de traduzir nomes para endereços IPs e vice-versa. Um exemplo quando digitamos www.uol.com.br o cliente DNS envia uma solicitação para o servidor DNS e este devolve o endereço IP 200.147.67.142 para o cliente. Quando uma consulta é feito de um cliente Fundamentos de Redes – FR - versão 2020 página 16 Prof. Bellotti para um servidor DNS normalmente o mesmo é feito pela porta UDP 53 e quando a consulta é de servidor para servidor, ou quando temos consultas que necessitam devolver uma grande quantidade de de informações é utilizada a porta TCP 53. Camada de Transporte o TCP – Transmission Control Protocol recebe um fluxo de dados de uma aplicação e os divide (quebra) em partes menores que são denominados de segmentos. Estes segmentos são numerados e sequenciados, permitindo a remontagem do fluxo original na camada de Aplicação da máquina de destino. Antes que o processo de transmissão seja iniciado, o protocolo TCP na máquina de origem contata o protocolo TCP na máquina de destino e negociam o estabelecimento de um circuito virtual para o envio dos segmentos. Esse circuito virtual garante confibidade no processo de fim a fim permitindo o resequenciamento de uma mensagem e solicitar retransmissão de um segmento perdido e/ou recebido com erro. Pelo fato do circuito virtual ser estabelecido antes do início da transmissão dos segmentos o TCP é orientado à conexão. Após a transmissão de um determinado número de segmentos, o protocolo TCP na máquina de origem aguarda uma confirmação conhecido como ACK (acknowled) do TCP da máquina de destino. Caso o ACK não seja recebido, a máquina origem procederá com a retransmissão dos segmentos não confirmados. Durante o processo inicial da negociação entre as pontas que são conhecidas como 3- way hand-shake o protocolo TCP na origem também determina qual o volume de dados que pode ser transmitido antes que uma confirmação por parte do TCP destino seja recebida. Este processo garante o controle de fluxo. O TCP opera em full-duplex. Para garantir todo esse processo o cabeçalho do TCP possui 20 bytes no minino impondo um maior overhead à comunicação. o UDP – User Datagram Protocol é um protocolo não orientado a conexão e que não solicita retransmissão e não faz controle de fluxo. Ideal para aplicações que trabalham em tempo real como voz, vídeo e jogos online pois essas aplicações não se beneficiam com o processo de confirmação de segmentos e retransmissões. Outros tipos de aplicações são as que fazem uso de protocolos SNMP, TFTP e DNS. Outro ponto é que algumas aplicações, como por exemplo, o Skype, que já incorporam mecanismos de controle dispensando o uso do TCP. O cabeçalho do UDP é de 8 bytes e por isso agiliza a comunicação. Dessa forma o UDP é caracterizado por ser um protocolo rápido. Fundamentos de Redes – FR - versão 2020 página 17 Prof. Bellotti Segue um quadro resumo: TCP UDP Numera e sequencia os segmentos Não numera ou sequencia Comunicação confiável Comunicação não confiável Comunicação orientada à comexão Comunicação não orientada à comexão Maior latência na transmissão Baixa latência na transmissão Comparado à uma carta registrada (AR) Carta comum Camada de Internet: O principal protocolo é o IPv4 que trabalha com o endereçamento lógico IPv4 conhecido como IP. A estrutura do endereço IP é formada por duas porções: rede + host. A porção rede garante o roteamento enquanto a parte host garante à entrega ao equipamento destinário da mensagem. Trata-se de um protocolo não orientado à conexão e no caso de erros o pacote é descartado e será recuperado na camada de transporte no caso do uso do TCP. Existem outros protocolos que rodam nessa camada como é o caso do IPv6, ARP, RARP e o ICMP que serão estudados mais adiante. Camada de Acesso à Rede: Como exemplos de protocolos temos: Ethernet; Frame- Relay; MPLS; PPP; HDLC; X-25 e ATM sendo o mais importante deles o Ethernet para redes LAN e o Frame-Relay; MPLS; HDLC e PPP para redes WANs e enquanto o protocolo ATM nunca foi largamente utilizado. O protocolo X-25 já teve grande importância no uso de comunicações WAN. 4. Ethernet A maior parte do tráfego na Internet origina-se e termina com conexões Ethernet. Desde seu início nos anos 70, a Ethernet evoluiu para acomodar o grande aumento na demanda de redes locais de alta velocidade. Quando foram produzidos novos meios físicos, como a fibra ótica, a Ethernet adaptou-se para aproveitar a largura de banda superior e a baixa taxa de erros que as fibras oferecem. Atualmente, o mesmo protocolo que transportava dados a 3 Mbps em 1973 está transportando dados a 10 Gbps. O primeiro padrão Ethernet foi publicado em 1980 por um consórcio entre a Digital Equipment Company, a Intel, e a Xerox (DIX). Em 1985, o comitê de padronização de Redes Locais e Metropolitanas do Institute of Electrical and Electronics Engineers (IEEE) publicou padrões para redes locais. Esses padrões começam com o número 802. O padrão para Ethernet é 802.3. Todos os padrõessão essencialmente compatíveis com o padrão Ethernet original. Um quadro Ethernet podia sair de uma placa de rede Ethernet de cabo coaxial mais antiga de 10 Fundamentos de Redes – FR - versão 2020 página 18 Prof. Bellotti Mbps instalada em um PC, ser colocado em um link de fibra Ethernet de 10 Gbps e ter seu destino em uma placa de rede de 100 Mbps. Contanto que o pacote permaneça em redes Ethernet, não será modificado. Por essa razão, a Ethernet é considera bem escalável. A largura de banda da rede poderia ser aumentada muitas vezes sem modificar a tecnologia Ethernet subjacente. A descrição abreviada consiste em: Um número indicando o número de Mbps transmitido. A palavra base, indicando que foi usada a sinalização banda base (baseband). Uma ou mais letras do alfabeto, indicando o tipo do meio físico usado (F = cabo de fibra ótica, T = par trançado de cobre não blindado). A Ethernet se vale da sinalização banda base (baseband), que usa toda a largura de banda disponível no meio físico de transmissão. O sinal de dados é transmitido diretamente através do meio físico de transmissão. Na sinalização de banda larga (broadband), o sinal de dados jamais é colocado diretamente no meio físico. Um sinal analógico, a portadora, é modulado pelo sinal de dados e o sinal da portadora modulado é então transmitido no meio físico. As transmissões de rádio e TV a cabo usam a sinalização de banda larga (broadband). A Ethernet utiliza a sinalização de banda larga (broadband). A Ethernet opera em duas áreas do modelo OSI, a metade inferior da camada de enlace de dados, conhecida como subcamada MAC, e a camada física. A próxima figura mapeia uma variedade de tecnologias Ethernet para a metade inferior da camada 2 do modelo OSI e toda a camada 1. A camada 1 da Ethernet envolve as interfaces entre meios físicos, sinais, fluxo de bits que se propagam nos meios físicos, componentes que colocam sinais nos meios e várias topologias. A camada 1 da Ethernet realiza um papel importante na comunicação que ocorre entre dispositivos, mas cada uma de suas funções tem limitações. A camada 2 trata dessas limitações. Fundamentos de Redes – FR - versão 2020 página 19 Prof. Bellotti As subcamadas de enlace de dados contribuem significativamente para a compatibilidade da tecnologia e a comunicação entre computadores. A subcamada MAC trata dos componentes físicos que serão usados para comunicar as informações. A camada LLC (Logical Link Control) permanece relativamente independente do equipamento físico que será usado para o processo de comunicação. Para permitir uma entrega local de quadros na Ethernet, deverá existir um sistema de endereçamento, uma maneira exclusiva de identificação de computadores e interfaces. A Ethernet usa endereços MAC que têm 48 bits de comprimento e são expressos como doze dígitos hexadecimais. Os primeiros seis dígitos hexadecimais, que são administrados pelo IEEE, identificam o fabricante ou o fornecedor. Esta parte do endereço MAC é conhecida como OUI (Organizational Unique Identifier). Os seis dígitos hexadecimais restantes representam o número de série da interface ou outro valor administrado pelo fabricante do equipamento específico. Os endereços MAC são gravados na memória apenas de leitura (ROM) e são copiados na memória de acesso aleatório (RAM) quando a placa de rede é inicializada. Fundamentos de Redes – FR - versão 2020 página 20 Prof. Bellotti Na camada de enlace de dados, cabeçalhos e trailers MAC são adicionados aos dados da camada superior. O cabeçalho e o trailer contêm informações de controle destinadas à camada de enlace de dados no sistema de destino. Os dados das camadas superiores são encapsulados dentro do quadro da camada de enlace de dados, entre o cabeçalho e o trailer, que é então transmitido na rede. As placas de rede usam o endereço MAC para avaliar se a mensagem deve ser passada para as camadas superiores do modelo OSI. A placa de rede faz essa avaliação sem usar o tempo de processamento da CPU, proporcionando melhores tempos de comunicações na rede Ethernet. Em uma rede Ethernet, quando um dispositivo quer enviar dados, ele pode abrir um caminho de comunicação com o outro dispositivo, usando o endereço MAC de destino. O dispositivo de origem insere um cabeçalho com o endereço MAC do destino pretendido e envia os dados para a rede. Como esses dados trafegam pelos meios físicos da rede, a placa de rede em cada dispositivo na rede verifica se o seu endereço MAC corresponde ao endereço de destino físico carregado pelo quadro de dados. Se não houver correspondência, a placa de rede descartará o quadro de dados. Quando os dados chegam ao seu nó de destino, a placa de rede faz uma cópia e passa o quadro adiante pelas camadas OSI. Em uma rede Ethernet, todos os nós precisam examinar o cabeçalho MAC, mesmo que os nós de comunicação estejam lado a lado. Todos os dispositivos conectados à rede local Ethernet têm interfaces endereçadas, inclusive estações de trabalho, impressoras, roteadores e switches. Na camada de enlace de dados, a estrutura do quadro é quase idêntica para todas as velocidades da Ethernet, desde 10 Mbps até 10.000 Mbps Fundamentos de Redes – FR - versão 2020 página 21 Prof. Bellotti No entanto, na camada física, quase todas as versões de Ethernet são substancialmente diferentes umas das outras, com cada velocidade tendo um diferente conjunto de regras de projeto de arquitetura. Os fluxos de bits codificados (dados) em meios físicos representam uma grande realização tecnológica, mas eles, sozinhos, não são suficientes para fazer com que a comunicação ocorra. O enquadramento ajuda a obter as informações essenciais que não poderiam, de outra forma, ser obtidas apenas com fluxos de bit codificados. Exemplos dessas informações são: Quais computadores estão se comunicando entre si Quando a comunicação entre computadores individuais começa e quando termina Providencia um método para a detecção de erros que ocorreram durante a comunicação De quem é a vez de "falar" em uma "conversa" entre computadores Enquadramento é o processo de encapsulamento da camada 2. Um quadro é uma unidade de dados de protocolo da camada 2. Na versão da Ethernet que foi desenvolvida por DIX antes da adoção da versão IEEE 802.3 da Ethernet, o Preâmbulo e o SFD (Start Frame Delimiter) foram combinados em um único campo, apesar do padrão binário ser idêntico. O campo denominado Comprimento/Tipo foi identificado apenas como Comprimento nas primeiras versões do IEEE e apenas como Tipo na versão DIX. Esses dois usos do campo foram oficialmente combinados em uma versão mais recente do IEEE, pois os dois usos do campo são comuns por toda a indústria. O campo Tipo da Ethernet II está incorporado na definição de um quadro no padrão 802.3 atual. O nó receptor precisa determinar qual é o protocolo de camada superior que está Fundamentos de Redes – FR - versão 2020 página 22 Prof. Bellotti presente em um quadro de entrada, examinando o campo Comprimento/Tipo. Se o valor dos dois octetos é igual ou maior que 0x0600 (hexadecimal), 1536 em decimal, então o conteúdo do campo de dados (data field) do quadro é decodificado de acordo com o protocolo indicado O Preâmbulo é um padrão de uns e zeros alternantes usado para a sincronização da temporização em Ethernet assíncrona de 10 Mbps e em implementações mais lentas. As versões mais rápidas da Ethernet são síncronas, e essa informação de temporização é redundante mas mantida para fins de compatibilidade. Um Delimitador de Início de Quadro consiste em um campo de um octeto que marca o finaldas informações de temporização e contém a seqüência de bits 10101011. O campo Endereço de Destino contém um endereço de destino MAC. O endereço de destino pode ser unicast, multicast ou broadcast. O campo Endereço de Origem contém um endereço de origem MAC. O endereço de origem é geralmente o endereço unicast do nó Ethernet que está transmitindo. Existe, contudo, um crescente número de protocolos virtuais em uso que utiliza, e às vezes, compartilha um endereço MAC de origem específico para identificar a entidade virtual. O campo Comprimento/Tipo suporta dois usos diferentes. Se o valor for inferior a 1536 decimal, 0x600 (hexadecimal), então o valor indica o comprimento. A interpretação do comprimento é usada onde a Camada LLC proporciona a identificação do protocolo. O valor do tipo especifica o protocolo da camada superior que recebe os dados depois que o processamento da Ethernet estiver concluído. O tamanho indica o número de bytes de dados que vêm depois desse campo. O campo Dados e o enchimento (padding), se necessário, pode ser de qualquer tamanho que não faça com que o quadro exceda o tamanho máximo permitido para o quadro A MTU (Unidade de Transmissão Máxima) para Ethernet é de 1500 octetos. Portanto, os dados não devem exceder esse tamanho. O conteúdo desse campo não é especificado. Um enchimento não especificado será inserido imediatamente após os dados do usuário quando não houver dados de usuário suficientes para que o quadro satisfaça o comprimento mínimo para o quadro. A Ethernet exige que o quadro tenha entre 64 e 1518 octetos. Fundamentos de Redes – FR - versão 2020 página 23 Prof. Bellotti Uma FCS contém um valor CRC de 4 bytes que é criado pelo dispositivo emissor e recalculado pelo dispositivo receptor para verificar se há quadros danificados. Já que a corrupção de um único bit em qualquer lugar desde o início do Endereço de Destino até o final do campo FCS fará com que o checksum seja diferente, o cálculo do FCS inclui o próprio campo FCS. Não é possível distinguir entre a corrupção do próprio FCS e a corrupção de qualquer outro campo usado no cálculo. Media Access Control (MAC) MAC refere-se aos protocolos que determina qual dos computadores em um ambiente de meios físicos compartilhados, ou domínio de colisão, tem permissão para transmitir os dados. O MAC, com o LLC, compreende a versão IEEE da Camada 2 do OSI. O MAC e o LLC são subcamadas da Camada 2. Há duas abrangentes categorias de Controle de Acesso aos Meios, determinístico (revezamento) e não determinístico (primeiro a chegar, primeiro a usar). Exemplos de protocolos determinísticos incluem Token Ring e FDDI. Em uma rede Token Ring, os hosts individuais são organizados em um anel e um token especial de dados circula ao redor do anel, chegando a cada host seqüencialmente. Quando um host quer transmitir, ele captura o token, transmite os dados durante um tempo limitado e depois encaminha o token até o próximo host no anel. O Token Ring é um ambiente sem colisões pois apenas um host é capaz de transmitir em qualquer dado momento. Os protocolos MAC não-determinísticos usam uma abordagem primeiro a chegar, primeiro a usar. O CSMA/CD (Carrier Sense Multple Access / Collision Detection) é um sistema bem simples. A placa de rede observa se há ausência de sinal nos meios físicos e começa a transmitir. Se dois nós transmitirem simultaneamente, ocorrerá uma colisão e nenhum dos nós poderá transmitir. Três tecnologias comuns da camada 2 são Token Ring, FDDI e Ethernet. Todas as três especificam questões relativas à camada 2, LLC, nomeação, enquadramento e MAC, assim como componentes de sinalização da Camada 1 e questões dos meios físicos. As tecnologias específicas de cada uma delas são as seguintes: Fundamentos de Redes – FR - versão 2020 página 24 Prof. Bellotti Ethernet: topologia de barramento lógico (o fluxo de informações acontece em um barramento linear) e estrela física ou estrela estendida (cabeada como uma estrela). Token Ring: topologia lógica em anel (em outras palavras, o fluxo de informações é controlado em um anel) e uma topologia física em estrela (em outras palavras, é cabeada como uma estrela) FDDI: topologia em anel lógico (o fluxo de informações é controlado em um anel) e topologia em anel duplo (cabeado como um anel duplo) A Ethernet é uma tecnologia de broadcast de meios físicos compartilhados. O método de acesso CSMA/CD usado na Ethernet executa três funções: Transmitir e receber quadros de dados Decodificar quadros de dados e verificar se os endereços são válidos, antes de passá-los às camadas superiores do modelo OSI Detectar erros dentro dos quadros de dados ou na rede No método de acesso CSMA/CD, os dispositivos de rede com dados a serem transmitidos funcionam em modalidade de "escutar antes de transmitir". Isso significa que, quando um nó deseja enviar dados, ele deve verificar primeiramente se os meios da rede estão ocupados. Se o nó determinar que a rede está ocupada, o nó aguardará um tempo aleatório antes de tentar novamente. Se o nó determinar que os meios físicos da rede não estão ocupados, o nó começará a transmitir e a escutar. O nó escuta para garantir que nenhuma outra estação esteja transmitindo ao mesmo tempo. Depois de completar a transmissão dos dados, o dispositivo retornará ao modo de escuta. Os dispositivos de rede detectam a ocorrência de uma colisão pelo aumento da amplitude do sinal nos meios físicos da rede. Quando ocorre uma colisão, cada um dos nós que está transmitindo continuará a transmitir por um curto espaço de tempo, para garantir que todos Fundamentos de Redes – FR - versão 2020 página 25 Prof. Bellotti os dispositivos identifiquem a colisão. Depois que todos os dispositivos detectaram a colisão, um algoritmo de recuo (backoff) será invocado e a transmissão será interrompida. Os nós param então de transmitir durante um tempo aleatório determinado pelo algoritmo de backoff. Quando este período expirar, cada um dos nós envolvidos poderá tentar obter acesso aos meios físicos da rede. Os dispositivos envolvidos na colisão não terão prioridade na transmissão. Qualquer estação em uma rede Ethernet que deseje transmitir uma mensagem, primeiro "escuta" para garantir que nenhuma outra estação esteja atualmente transmitindo. Se o cabo estiver silencioso, a estação começará imediatamente a transmitir. O sinal elétrico demora um pouco para trafegar pelo cabo (atraso) e cada repetidor subseqüente introduz um pouco de latência no encaminhamento do quadro de uma porta até a próxima. Devido ao atraso e à latência, é possível que mais de uma estação comece a transmissão no mesmo, ou quase no mesmo momento. Isso resulta em uma colisão. Se a estação conectada estiver operando em full-duplex, a estação poderá enviar e receber simultaneamente e não deverão ocorrer colisões. A operação full-duplex também muda as considerações de temporização e elimina o conceito de slot time (tempo de espera). A operação full-duplex acomoda projetos de arquitetura de redes maiores já que é removida a restrição de temporização para detecção de colisões. Em half-duplex, contanto que não ocorra uma colisão, a estação emissora transmitirá 64 bits de informações de sincronização de temporização, conhecidos como preâmbulo. A estação emissora então transmitirá as seguintes informações: Informações de endereçamento MAC de destino e origem Outras informações de cabeçalho O próprio payload de dados Checksum (FCS) usado para garantir que a mensagem não foi corrompida ao longo do caminho As estações que recebem o quadro recalculam o FCS para determinar se a mensagem recebida é válida e depois passam as mensagens válidas para a camada superior na pilha de protocolos.As versões de 10 Mbps e mais lentas da Ethernet são assíncronas. Assíncrona significa que cada estação receptora usará os oito octetos de informações de temporização para sincronizar o circuito receptor aos dados recebidos para depois descartá-las. As implementações de 100 Mbps e mais rápidas são síncronas. Síncrona significa que as informações de temporização não são necessárias, porém por razões de compatibilidade o Preâmbulo e o Delimitador de Inicio de Quadro (Start Frame Delimiter – SFD) permanecem presentes. Fundamentos de Redes – FR - versão 2020 página 26 Prof. Bellotti Para que a CSMA/CD Ethernet possa operar, a estação emissora deve estar ciente de uma colisão antes de completar a transmissão de um quadro de tamanho mínimo. A 100 Mbps, a temporização do sistema mal pode acomodar 100 metros de cabos. Se a camada MAC for incapaz de enviar o quadro após dezesseis tentativas, ela desiste e gera um erro para a camada da rede. Tal ocorrência é comparativamente rara e só acontece sob cargas de rede extremamente pesadas, ou quando existe um problema físico na rede. A condição de erro mais comum em redes Ethernet é a colisão. As colisões representam o mecanismo para resolver a competição para o acesso à rede. A existência de algumas colisões proporciona uma maneira elegante, simples e econômica dos nós da rede arbitrarem a competição pelos recursos da rede. Quando a competição para a rede se torna excessiva, as colisões podem se tornar um impedimento significativo para a operação útil da rede. As colisões resultam em perda de largura de banda na rede igual à transmissão inicial e o sinal de bloqueio (jam signal) da colisão. Isso é um atraso de consumo e afeta todos os nós de rede e possivelmente causa uma redução significativa no throughput da rede. A grande maioria de colisões ocorre bem no início do quadro, geralmente antes do SFD. As colisões que ocorrerem antes do SFD geralmente não serão relatadas às camadas mais altas, como se a colisão nunca tivesse ocorrido. Assim que uma colisão for detectada, as estações emissoras transmitirão um sinal de "bloqueio" de 32 bits que cuidará da colisão. Isso é feito para que quaisquer dados sendo transmitidos sejam completamente corrompidos e todas as estações tenham a oportunidade de detectar a colisão. Um sinal de bloqueio (jam signal) pode ser composto de quaisquer dados binários desde que não formem um checksum apropriado para a porção do quadro já transmitido. O padrão de dados mais universalmente observado para um sinal de bloqueio (jam signal) é simplesmente uma repetição de um, zero, um, zero, o mesmo que o Preâmbulo. Quando observado por um analisador de protocolos, esse padrão se parece como uma seqüência de repetição hexadecimal 5 ou A. As mensagens corrompidas e parcialmente transmitidas são conhecidas como fragmentos de colisão ou "runts". As colisões normais têm um comprimento inferior a 64 octetos e por isso falham no teste de comprimento mínimo e no teste de checksum FCS. Um quadro recebido que tenha uma seqüência de verificação de quadro (FCS) defeituoso, também conhecido como erro de Checksum ou erro de CRC, difere da transmissão original em pelo menos um bit. Em um quadro de erro de FCS, as informações do cabeçalho provavelmente estão corretas, mas o checksum calculado pela estação receptora não é igual ao checksum incluído no final do quadro pela estação transmissora. O quadro é, então, descartado. Um grande número de erros FCS originados de uma única estação geralmente indica uma placa de rede defeituosa e/ou softwares de drivers corrompidos ou, ainda, um defeito no Fundamentos de Redes – FR - versão 2020 página 27 Prof. Bellotti cabo que liga essa estação à rede. Se os erros de FCS forem associados a várias estações, então eles geralmente podem ser atribuídos a defeitos no cabeamento, uma versão defeituosa do driver das placas de rede, um defeito da porta de um hub ou um ruído derivado do sistema de cabeamento. Uma mensagem que não termina em um limite de octeto é conhecida como erro de alinhamento. Em vez de existir um número correto de bits na formação dos grupos de octetos, existem bits adicionais ou restantes (menos de oito). Tal tipo de quadro é truncado até o limite de octeto mais próximo e, se o checksum FCS falhar, é relatado um erro de alinhamento. Em muitos casos, este tipo de erro é causado por defeitos no software de drivers ou por colisões e, freqüentemente, é acompanhado por falhas do checksum FCS. Autonegociação da Ethernet Com o crescimento da Ethernet de 10 a 100 e até 1000 Mbps, uma exigência era possibilitar a interoperabilidade de cada uma destas tecnologias, a ponto de permitir a conexão direta entre as interfaces de 10, 100 e 1000. Foi elaborado um processo denominado Autonegociação de velocidades em half-duplex ou full-duplex. Especificamente, por ocasião da introdução da Fast Ethernet, o padrão incluía um método de configurar automaticamente uma dada interface para coincidir com a velocidade e capacidade do parceiro interligado. Este processo define como dois parceiros de interligação podem negociar automaticamente a sua configuração para oferecer o melhor nível de desempenho conjunto. O processo ainda possui a vantagem de envolver somente a parte mais baixa da camada física. 10BASE-T exigia que cada estação emitisse um link pulse a cada 16 milissegundos, aproximadamente, enquanto a estação não estivesse ocupada com a transmissão de uma mensagem. A autonegociação adotou este sinal e deu-lhe o novo nome de Normal Link Pulse (NLP). A Autonegociação é realizada pela transmissão de uma rajada de Link Pulses 10BASE-T de cada um dos parceiros interligados. A rajada comunica as capacidades da estação transmissora ao seu parceiro interligado. Após ambas as estações interpretarem o que a outra parte está oferecendo, cada uma alterna para a configuração de desempenho conjunto mais alto e estabelecem um link naquela velocidade. Se algo interromper as comunicações e o link for perdido, os dois parceiros primeiro tentarão restabelecer o link à velocidade anteriormente negociada. Se isso falhar, ou se tiver decorrido muito tempo desde a perda do link, o processo de Autonegociação irá recomeçar. O link pode ser perdido devido a influências externas, como falha do cabo, ou pela emissão de um reset por um dos parceiros. Existem dois modos de operação, half e full duplex. Para meios compartilhados, o modo half-duplex é obrigatório. Todas as implementações por cabo coaxial são half-duplex por natureza e não podem operar em full-duplex. As implementações em UTP e em fibra podem ser operadas em half-duplex. As implementações de 10-Gbps são especificadas exclusivamente para full-duplex. Fundamentos de Redes – FR - versão 2020 página 28 Prof. Bellotti No modo half-duplex, só uma estação pode transmitir de cada vez. Para implementações por cabo coaxial, uma segunda estação transmitindo ao mesmo tempo causa uma sobreposição de sinais que se tornam corrompidos. Dado que UTP e fibra geralmente transmitem em pares separados, os sinais não têm oportunidade de se sobreporem e se tornarem corrompidos. Ethernet possui regras para arbitrar conflitos que surgem em ocasiões em que mais de uma estação tenta transmitir de uma só vez. As ambas as estações em uma ligação full-duplex ponto-a-ponto é permitido transmitir a qualquer momento, independentemente da outra estação estar transmitindo ou não. A Autonegociação evita a maioria das situações onde uma estação de uma ligação ponto-a- ponto esteja transmitindo sob as regras de half-duplex e a outra esteja transmitindo sob as regras de full-duplex. Ethernet 10Mbps Ethernet 10BASE5, 10BASE2 e 10BASE-T são consideradas Ethernet Legadas (Antigas). As quatro características comuns em todosos tipos de Ethernet legadas são os parâmetros de temporização, o formato de quadros, o processo de transmissão e as regras básicas de projeto. Todas se utilizam do quadro Ethernet padrão. 10Base5 O produto original Ethernet 10BASE5 de 1980 transmitia 10 Mbps através de um único barramento de cabo coaxial grosso. O 10BASE5 é importante pois foi o primeiro meio físico usado pela Ethernet. 10BASE5 fazia parte do padrão 802.3 original. A principal vantagem de 10BASE5 era o comprimento. Hoje pode ser encontrado em instalações antigas, mas não seria recomendado para novas instalações. Os sistemas 10BASE5 são econômicos e não exigem configuração, mas os componentes básicos, como placas de rede, são muito difíceis de se encontrar por serem sensíveis às reflexões de sinais no cabo. Os sistemas 10BASE5 representam também, um único ponto de falha. Possui um condutor central sólido. Cada um dos (no máximo) cinco segmentos de coaxial grosso pode ter até 500 m de comprimento. O cabo é grande, pesado e difícil de se instalar. No entanto, os limites de distância foram favoráveis e isso prolongou a sua utilização em certas aplicações. Já que o meio físico é composto de um único cabo coaxial, apenas uma estação pode transmitir de cada vez, caso contrário, ocorrerá uma colisão. Portanto, 10BASE5 só funciona em half-duplex, resultando num máximo de 10 Mbps de transferência de dados. 10Base2 10BASE2 foi introduzido em 1985. A instalação era mais fácil porque o cabo era menor, mais leve e mais flexível. Esta tecnologia ainda existe em redes antigas. Como o 10BASE5, atualmente não é recomendado para novas instalações. É econômico e não necessita de hubs. Da mesma forma, placas de rede para este meio também são difíceis de obter. Fundamentos de Redes – FR - versão 2020 página 29 Prof. Bellotti Os computadores de rede local eram ligados um ao outro por uma série de lances de cabos coaxiais ininterruptos. Estes lances de cabo eram ligados por conectores BNC a um conector em formato de T na placa de rede, permitindo uma distância de até 185 metros desse barramento. Apenas uma estação pode transmitir por vez, caso contrário ocorrerá uma colisão. 10BASE2 também usa half-duplex. A taxa máxima de transmissão de 10BASE2 é de 10 Mbps. 10BaseT 10BASE-T foi introduzido em 1990. 10BASE-T usava cabos de cobre de par trançado, não blindado (UTP), que era mais barato e mais fácil de instalar que o cabo coaxial. O cabo era plugado a um dispositivo central de conexão que continha o barramento compartilhado. Esse dispositivo era um hub. Ele se localizava no centro de um conjunto de cabos que eram distribuídos aos PCs como os raios de uma roda. Isto é conhecido como topologia estrela. As distâncias que os cabos podiam ter até o hub, e a maneira pela qual o UTP era instalado, levavam cada vez mais à utilização de estrelas compostas de estrelas, em uma topologia chamada de estrela estendida. Originalmente, o 10BASE-T era um protocolo half-duplex, mas a funcionalidade de full-duplex foi adicionada posteriormente. A explosão da popularidade da Ethernet entre meados e fins dos anos 90 foi quando a Ethernet passou a dominar a tecnologia de redes locais. Um cabo UTP 10BASE-T tem um condutor sólido para cada fio nos 90 metros (no máximo) de cabo horizontal. O cabo UTP usa conectores RJ-45 de oito pinos. Embora o cabo Categoria 3 seja adequado para utilização nas redes 10BASE-T, recomenda-se enfaticamente que qualquer instalação nova de cabos seja feita com Categoria 5 ou melhor. Todos os quatro pares de fios deverão ser usados conforme os padrões de pinagem T568-A ou T568-B. Com os cabos instalados desta forma, é suportada a utilização de vários protocolos sem que a fiação precise ser alterada. Ethernet 100Mbps A Ethernet 100 Mbps é também conhecida como Fast Ethernet. As duas tecnologias que se destacaram foram a 100BASE-TX, que utiliza um meio físico de cabo de cobre UTP e a 100BASE-FX que utiliza um meio físico de fibra ótica multimodo. O formato de quadro 100-Mbps é o mesmo do quadro 10-Mbps. Em 1995, o 100BASE-TX era o padrão, usando cabo UTP Cat 5, que se tornou um sucesso comercial. O cabo coaxial Ethernet original usava transmissão half-duplex e apenas um dispositivo podia transmitir de cada vez. Porém, em 1997, a Ethernet foi expandida para Fundamentos de Redes – FR - versão 2020 página 30 Prof. Bellotti incluir a capacidade de incluir full-duplex permitindo que mais de um PC em uma rede pudesse transmitir ao mesmo tempo. Pouco a pouco os switches substituíram os hubs. Esses switches ou comutadores tinham a capacidade de full-duplex e de manipular rapidamente quadros Ethernet. Utiliza-se da mesma pinagem do 10BaseT e pode trabalhar a half-duplex e full-duplex. 100BaseFx Na época em que a Fast Ethernet baseada em cobre foi introduzida, foi também necessária uma versão para fibra ótica. Uma versão para fibra ótica poderia ser usada para aplicações de backbone, conexões entre andares e edifícios onde o cobre é menos desejável e também em ambientes com muito ruído. 100BASE-FX foi criado para satisfazer essa necessidade. Porém, 100BASE-FX nunca foi adotado com êxito. Isto ocorreu devido à conveniente introdução dos padrões Gigabit Ethernet em cobre e fibra. Os padrões Gigabit Ethernet são agora a tecnologia dominante para as instalações de backbone, conexões cruzadas de alta velocidade e necessidades de infra-estrutura geral. Geralmente, são mais usados os pares de fibra com conectores ST ou SC. Caminhos separados de Transmissão (TX) e Recepção (RX) na fibra óptica 100BASE-FX permitem uma transmissão a 200 Mbps Os links Fast Ethernet geralmente consistem numa conexão entre uma estação e um hub ou switch. Os hubs são considerados repetidores multiportas e os switches são considerados bridges multiportas. Estão sujeitos ao limite de distância dos meios físicos UTP de 100 m. Ethernet 1000Mbps ou GigabitEthernet ou 1Gbps Os padrões para Ethernet 1000-Mbps ou Gigabit Ethernet representam transmissões usando meios físicos tanto de fibra como de cobre. O padrão 1000BASE-X, IEEE 802.3z, especifica 1 Gbps full duplex sobre fibra óptica. O padrão 1000BASE-T, IEEE 802.3ab, usa cabo de par trançado balanceado categoria 5, ou maior. Fundamentos de Redes – FR - versão 2020 página 31 Prof. Bellotti As diferenças entre o padrão Ethernet, Fast Ethernet e Gigabit Ethernet ocorre na camada física. Esta transmissão de alta velocidade exige freqüências próximas aos limites de largura de banda dos meios de cobre. Isto faz com que os bits se tornem mais sensíveis ao ruído em meios de cobre. 1000BaseT Ao ser instalada a Fast Ethernet para aumentar a largura de banda das estações de trabalho, começaram a aparecer gargalos nos troncos da rede. 1000BASE-T (IEEE 802.3ab) foi desenvolvido para proporcionar largura de banda adicional para ajudar a aliviar tais gargalos. Isto proporcionou mais throughput para dispositivos como backbones entre edifícios, links entre switches, server farms e outras aplicações de wiring closet, assim como conexões para estações de trabalho de alto desempenho. Fast Ethernet foi projetada para funcionar através de cabos de cobre Cat 5 que foram terminados corretamente e que conseguissem passar nos testes de certificação de cabos 5e. A maioria dos cabos Cat 5 que foram instalados conseguem passar nos testes de certificação de cabos 5e. Um dos atributos mais importantes do padrão 1000BASE-T é que seja mutuamente operável com 10BASE-T e 100BASE-TX. Já que o cabo Cat 5e pode transportar com confiabilidade até 125 Mbps de tráfego, conseguir 1000 Mbps (Gigabit) de largura de banda foi um desafio para o projeto. A primeira etapa para viabilizar o 1000BASE-T é usar todos os quatro pares de fios, aoinvés dos dois pares tradicionais de fios usados para 10BASE-T e 100BASE-TX Isto é feito usando-se circuitos complexos para permitir transmissões full-duplex no mesmo par de fios. Isto proporciona 250 Mbps por par. Com todos os pares de quatro fios, isto proporciona os 1000 Mbps desejados. Já que as informações se propagam simultaneamente através dos quatro caminhos, os circuitos precisam dividir quadros no transmissor e reorganizá-los no receptor. Em períodos de inatividade, existem nove níveis de voltagem encontrados no cabo e, durante períodos de transmissão de dados, podem ser encontrados 17 níveis de voltagem no cabo. Fundamentos de Redes – FR - versão 2020 página 32 Prof. Bellotti Com este grande número de estados e com os efeitos de ruído, o sinal no fio parece mais analógico que digital. Como é o caso de um sistema analógico, este sistema é mais sensível a ruídos oriundos de problemas nos cabos e nas terminações. Os dados vindos da estação emissora são cuidadosamente divididos em quatro fluxos paralelos, codificados, transmitidos e detectados em paralelo e depois reorganizados e recebidos em um só fluxo de bits. A figura anterior representa full-duplex simultâneo em pares de quatro fios. 1000BASE-T suporta uma operação tanto em half-duplex como em full-duplex. 1000BASE-T full-duplex é amplamente utilizado. Fundamentos de Redes – FR - versão 2020 página 33 Prof. Bellotti 1000 Base Sx e Lx O padrão IEEE 802.3 recomenda que a Gigabit Ethernet através de fibra seja a tecnologia adequada para o backbone. 10 GigabitEthernet ou TenGigabitEthernet ou 10Gbps IEEE 802.3ae foi adaptado para incluir transmissões 10 Gbps full-duplex através de cabos de fibra óptica. As semelhanças básicas entre 802.3ae e 802.3, a Ethernet original, são impressionantes. Esta 10-Gigabit Ethernet (10GbE) está evoluindo não só para redes locais mas também para MANs e WANs. Uma mudança conceitual importante para Ethernet está surgindo com 10GbE. Ethernet é tradicionalmente considerada uma tecnologia para redes locais, mas os padrões da camada física de 10GbE permitem uma extensão da distância de até 40 km sobre fibra monomodo. A próxima tabela faz um resumo dos padrões Ethernet: Equipamentos de redes locais HUB Os hubs são dispositivos concentradores responsáveis por centralizar a distribuição dos quadros de dados em redes fisicamente ligadas em estrela. Todo hub é um repetidor. Por repetidor devemos entender como um equipamento que era utilizado para redes Ethernet montadas com cabo coaxial e sua função era regenerar o sinal e promover sua amplificação para que esse sinal pudesse ser transmitido para o outro segmento da rede. Fundamentos de Redes – FR - versão 2020 página 34 Prof. Bellotti Observe o desenho de uma rede com uso de um repetidor: Se no desenho anterior foi utilizado cabo coaxial fino a rede pode ter até 370m (185m x 2) O HUB replica para todas as portas as informações recebidas pelas máquinas da rede pois trabalha na camada física do modelo OSI. Vejamos algumas classificações para os HUBs: a) Passivo: não possuem qualquer tipo de alimentação elétrica e portanto não tem capacidade de amplificar o sinal. São denominados de patch panels. b) Ativo: Tem alimentação elétrica e por isso são capazes de regenerar os sinais que recebem de suas portas antes de enviá-los para todas as portas. Funcionam como repetidores. c) Inteligente: São hubs ativos que permitem monitoramento através de software e varia de acordo com o fabricante. Dessa forma é possível a obtenção de relatórios estatísticos de acesos e a detecção de falhas. d) Empilhável: Também conhecidos como cascateável. Sabemos que existem regras para a conexão entre hubs e repetidores, não há limites para o número de portas que um hub pode ter. Dessa forma, um hub empilhável possui uma porta especial, normalmente em sua parte traseira, onde um hub pode ser conectado ao outro de forma a ser considerado como um único HUB. HUB empilhável de n portas HUB empilhável de m portas Como se fosse um único HUB de n + m portas, ou seja, um único segmento Estação A Estação B Estação C Estação D Estação E Estação F Segmento coaxial 1 Segmento coaxial 2 Repetidor 1 Repetidor 2 terninador terninador Fundamentos de Redes – FR - versão 2020 página 35 Prof. Bellotti Fundamentos de Redes – FR - versão 2020 página 36 Prof. Bellotti Switches A ponte é um repetidor inteligente. Operando na camada de Enlace tem a capacidade de ler e analisar os quadros de dados que estão circulando na rede. Dessa forma, ela consegue ler os campos de endereçamento MAC do quadro de dados e dessa forma não replica para outras segmentos dados que tenham como destino o mesmo segmento de origem. Atualmente é difícil encontrar uma ponte e sim um switch que trata-se de uma ponte com várias portas. A Ethernet é uma tecnologia half duplex. Cada host Ethernet verifica a rede para ver se dados estão sendo transmitidos antes de transmitir dados adicionais. Se a rede já estiver em uso, a transmissão sofrerá um atraso. Apesar do atraso na transmissão, dois ou mais hosts Ethernet poderão transmitir ao mesmo tempo, o que resultará em uma colisão. Quando uma colisão ocorrer, o host que detectar primeiro a colisão irá emitir um sinal de congestionamento. Ao escutar o sinal de congestionamento, cada host irá aguardar por um período de tempo aleatório antes de tentar transmitir. Esse período de tempo aleatório é conhecido como algoritmo de backoff. Quanto mais hosts são adicionados à rede e comecem a transmitir, maior a probabilidade das colisões ocorrerem. As LANs Ethernet ficam sobrecarregadas porque os usuários executam softwares que exigem muito da rede, como as aplicações cliente/servidor, o que faz com que os hosts transmitam com mais freqüência e por maiores períodos de tempo. O conector físico (por exemplo, a placa de rede) usado pelos dispositivos em uma LAN Ethernet fornece vários circuitos para que as comunicações entre os dispositivos possam ocorrer. A latência, às vezes chamada de atraso de propagação, é o tempo que um quadro, ou pacote, de dados leva para trafegar do nó ou da estação de origem até o destino final na rede. Como as LANs Ethernet usam o CSMA/CD para fazer a melhor entrega possível, deverá haver uma determinada quantidade de latência no sistema para detectar as colisões e negociar os direitos de transmissão na rede. Fundamentos de Redes – FR - versão 2020 página 37 Prof. Bellotti A latência não depende somente da distância e do número de dispositivos. Por exemplo, se três switches separarem duas estações de trabalho, as estações de trabalho terão menos latência do que se dois roteadores as separassem. Isto acontece porque os roteadores executam funções de tomada de decisões mais complexas e que demandam mais tempo. . A Ethernet full duplex permite a transmissão de um pacote e o recebimento de um pacote diferente ao mesmo tempo. Essa recepção e transmissão simultânea exige o uso de dois pares de fios no cabo e uma conexão com comutação entre cada nó. Essa conexão é considerada ponto a ponto e é livre de colisão. Como os nós podem transmitir e receber ao mesmo tempo, não haverá negociações para a largura de banda. A Ethernet full duplex pode usar um meio compartilhado existente desde que o meio atenda aos padrões Ethernet mínimos. Para transmitir e receber simultaneamente, uma porta dedicada é exigida para cada nó. As conexões full duplex podem usar meios10BASE-T, 100BASE-TX ou 100BASE-FX para criar conexões ponto a ponto. As placas de rede em ambas as extremidades precisam ter as capacidades full duplex. O switch Ethernet full duplex tira vantagem dos dois pares de fios no cabo. Isso é feito criando-se uma conexão direta entre o transmissor (TX) em uma extremidade do circuito e o receptor (RX) na outra extremidade. Com essas duas estações conectadas dessa forma, um domínio livre de colisão será criado porque a transmissão e recepção dos dados ocorrem em circuitos não competitivos separados. A Ethernet geralmente só pode usar de 50% a 60% dos 10 Mbps de largura de banda disponíveis devido às colisões e à latência. A Ethernet full duplex oferece 100% da largura de banda nas duas direções. Isso produz um possível throughput de 20 Mbps - 10 Mbps de TX e 10 Mbps de RX. Fundamentos de Redes – FR - versão 2020 página 38 Prof. Bellotti Uma rede pode ser dividida em unidades menores chamadas de segmentos. Cada segmento usa o método de acesso CSMA/CD e mantém o tráfego entre os usuários no segmento. Temos um exemplo de uma rede Ethernet segmentada. A rede completa tem 15 computadores (6 servidores de arquivos e 9 PCs). Ao usar segmentos em uma rede, menos usuários/dispositivos estarão compartilhando os mesmos 10 Mbps ao se comunicarem entre si no segmento. Cada segmento é considerado seu próprio domínio de colisão. Ao dividir a rede em três segmentos, um gerenciador de rede poderá diminuir o congestionamento na rede em cada segmento. Ao transmitir dados em um segmento, os cinco dispositivos em cada segmento estarão compartilhando a largura de banda de 10 Mbps por segmento. Em uma LAN Ethernet segmentada, os dados passados entre os segmentos é transmitido no backbone da rede usando uma bridge, um roteador ou um switch Fundamentos de Redes – FR - versão 2020 página 39 Prof. Bellotti As LANs Ethernet que usam uma bridge para segmentar a LAN fornecem mais largura de banda por usuário, pois têm menos usuários em cada segmento. Ao contrário, as LANs que não usam as bridges para a segmentação fornecem menos largura de banda por usuário, pois existem mais usuários em uma LAN não segmentada. As bridges "descobrem" a segmentação de uma rede criando tabelas de endereços que contêm o endereço de cada dispositivo de rede e o segmento que deve ser usado para alcançar esse dispositivo. As bridges são dispositivos da camada 2 do modelo OSI que encaminham quadros de dados de acordo com os endereços Media Access Control (MAC) dos quadros. Além disso, as bridges são transparentes para os outros dispositivos na rede. As bridges aumentam de 10% a 30% a latência em uma rede. Essa latência se deve à tomada de decisões da bridge, ou das bridges, necessária na transmissão de dados. Uma bridge é considerada um dispositivo de armazenar e encaminhar porque ela deve examinar o campo de endereço de destino no quadro antes de determinar a qual interface o quadro será encaminhado. Fundamentos de Redes – FR - versão 2020 página 40 Prof. Bellotti O tempo necessário para executar essas tarefas retarda as transmissões da rede causando latência. O switching LAN ameniza a escassez de largura de banda e os gargalos de rede, como os que ocorrem entre um grupo de PCs e um servidor de arquivos remoto. Um switch pode segmentar uma LAN em microssegmentos, que são segmentos únicos de host. Isso cria domínios sem colisão a partir de um domínio de colisão maior. Mesmo que o switch LAN elimine os domínios de colisão, todos os hosts conectados ao switch ainda estarão no mesmo domínio de broadcast. Logo, todos os nós conectados através do switch LAN podem ver um broadcast a partir de apenas um nó. A Ethernet com comutação é baseada na Ethernet. Cada nó está diretamente conectado a uma de suas portas ou a um segmento que está conectado a uma das portas do switch. Isso cria uma conexão de largura de banda de 10 Mbps entre cada nó e cada segmento no switch. Um computador conectado diretamente a um switch Ethernet é o seu próprio domínio de colisão e acessa todos os 10 Mbps. Uma LAN que usa um topologia Ethernet com comutação cria uma rede que funciona como se tivesse apenas dois nós, o nó emissor e o nó receptor. Esses dois nós compartilham uma largura de banda de 10 Mbps, significando que quase toda a largura de banda está disponível para a transmissão dos dados. Como a LAN Ethernet com comutação usa a largura de banda de forma tão eficiente, ela pode fornecer uma topologia de LAN mais rápida que as LANs Ethernet. Em uma implementação da Ethernet com comutação, a largura de banda disponível pode chegar perto de 100%. O switching Ethernet aumenta a largura de banda disponível em uma rede criando segmentos de rede dedicados (ou conexões ponto a ponto) e conectando esses segmentos a uma rede virtual no switch. Esse circuito de rede virtual existirá apenas quando dois nós precisarem se comunicar. Isso é chamado circuito virtual, porque existe apenas quando for necessário e estará estabelecido no switch. Fundamentos de Redes – FR - versão 2020 página 41 Prof. Bellotti Hoje, nas comunicações de dados, todos os equipamentos de switching executam duas operações básicas: Switching de quadro de dados - isso acontece quando um quadro chegar a um meio de entrada e for transmitido para um meio de saída. Manutenção das operações de switching - um switch cria e mantém tabelas de switching. O termo bridging se refere a uma tecnologia na qual um dispositivo conhecido como uma bridge conecta dois ou mais segmentos de LAN. Uma bridge transmite datagramas de um segmento aos destinos em outros segmentos. Quando uma bridge for ativada e começar a operar, ela examinará o endereço MAC dos datagramas de chegada e criará uma tabela dos destinos conhecidos. Se a bridge souber que o destino de um datagrama está no mesmo segmento da origem do datagrama, ela irá abandonar o datagrama porque não haverá necessidade de transmiti-lo. Se a bridge souber que o destino está em outro segmento, ela transmitirá o datagrama apenas naquele segmento. Se ela não souber o segmento de destino, transmitirá o datagrama em todos os segmentos exceto no segmento de origem (uma técnica conhecida como sobrecarga). A principal vantagem do bridging é limitar o tráfego para determinados segmentos da rede. Como as bridges, os switches conectam os segmentos LAN, usam uma tabela de endereços MAC para determinar o segmento para onde um datagrama precisa ser transmitido e reduzem o tráfego. Os switches são mais funcionais que as bridges nas redes atuais porque operam em velocidades muito mais altas que as bridges e podem suportar novas funcionalidades, como as LANs virtuais (VLANs). As bridges normalmente fazem switch usando o software; os switches normalmente fazem switch usando o hardware. Fundamentos de Redes – FR - versão 2020 página 42 Prof. Bellotti Cada switch usado em uma LAN Ethernet de 10 Mbps adiciona latência à rede. Devido ao switching usado, conhecido como cut-through, o endereço MAC do dispositivo de destino é lido e o switch começa a transmitir o pacote antes dele ser completamente recebido pelo switch. Isso compensa a latência inerente ao switch. Um switch Ethernet pode aprender o endereço de cada dispositivo na rede lendo o endereço de origem de cada pacote transmitido e observando a porta por onde o quadro atingiu o switch. O switch adiciona essas informações ao seu banco de dados de encaminhamento. Os endereços são aprendidos de forma dinâmica. Isso significa que enquanto os novos endereços são lidos, eles são aprendidos e armazenados na content-addressable memory (CAM). Quando uma origem
Compartilhar