Prévia do material em texto
----
A camada de rede de uma rede de computadores
pode oferecer os serviços de circuitos virtuais ou de
datagramas. O tipo de serviço oferecido influencia
diretamente na forma como os pacotes serão
transportados entre origem e destino.
Abaixo são realizadas comparações entre circuitos
virtuais e datagramas:
I - Nas redes de circuitos virtuais é estabelecido um
caminho a ser seguido por todos os pacotes de uma
conexão, enquanto nas redes de datagrama não
existe o conceito de conexão.
II - Em uma rede de circuitos virtuais os roteadores
precisam armazenar as informações de todas as
conexões que passam por ele, enquanto nas redes de
datagrama basta saber como chegar a cada destino.
III - Como necessitam conhecer o caminho, somente
as redes de circuito virtual precisam executar
algoritmos de roteamento. Redes de datagramas não
possuem esta necessidade.
Com base nas comparações acima, é correto o que se
afirma em:
I e II somente
II e III somente
I e III somente
Todas as afirmações estão corretas
I somente
m administrador de redes recebe para utilização
uma rede classe C e resolve fazer a divisão desta
rede em sub-redes utilizando a máscara de sub-rede
255.255.255.248.
Quais são, respectivamente, a quantidade máxima
de sub-redes e de interfaces de rede que poderão
ser utilizadas em cada sub-rede?
Dado: (248)10 = (11111000)2
8 sub-redes com um máximo de 32 interfaces de
rede por sub-rede
8 sub-redes com um máximo de 30 interfaces de
rede por sub-rede
16 sub-redes com um máximo de 16 interfaces de
rede por sub-rede
32 sub-redes com um máximo de 10 interfaces de
rede por sub-rede
32 sub-redes com um máximo de 6 interfaces de
rede por sub-rede
Em uma rede IP, o endereço de difusão foi criado
para:
Identificar para qual aplicação deve ser entregue a
mensagem
Mapear o endereço do hospedeiro no endereço
externo da organização
Entregar um datagrama ao roteador da sub-rede
Enviar uma mensagem a todos os hospedeiros de
uma sub-rede
Identificar o endereço da rede
Um dos protocolos de controle que são fundamentais
para a implementação da arquitetura TCP/IP é o
protocolo ARP. Sua função é:
Distribuir dinamicamente informações de
configurações para os hospedeiros em uma sub-rede
Fazer o mapeamento entre os endereços de rede e
de enlace dos hospedeiros
Transferir informações de controle entre os
roteadores de uma sub-rede
Possibilitar a utilização de mais endereços na rede
interna do que os disponíveis para tal
Possibilitar a divisão de uma rede em sub-redes
Dentre as alternativas, selecione a correta em
relação à tabela de repasse.
São montadas com base em informações
processadas pelo algoritmo de roteamento
Deve possuir uma entrada para cada possível
hospedeiro
São necessárias apenas quando se utiliza algoritmo
de roteamento adaptativo
Todos os roteadores da sub-rede devem possuir a
mesma tabela de repasse
São criadas para estabelecer as rotas em algoritmos
de roteamento estáticos
Ao realizar uma análise de segurança em
determinada empresa, um consultor identificou
que seria possível invadir o servidor web da
empresa. Podemos afirmar que o consultor
identificou um(a):
Ataque, porque o invasor pode acessar o servidor da
empresa.
Risco, porque a invasão requer uma análise de
segurança da rede.
Ativo, porque o servidor web tem valor para a
organização.
Ameaça, que está relacionada à probabilidade de
ocorrer um incidente.
Incidente, porque o atacante pode roubar
informações do servidor web.
Ao realizarmos compras em um site de
comércio eletrônico, temos a preocupação de
verificar se estamos utilizando o protocolo
HTTPS para poder garantir:
A legalidade da transação, porque há integridade e
autenticidade da transação.
Autenticidade dos dados, o que assegurará a
veracidade do emissor e do receptor de informações
trocadas.
A confiabilidade dos dados, o que assegurará que os
dados não serão interceptados.
Confidencialidade dos dados, porque o HTTPS
criptografará os dados trafegados.
A disponibilidade, porque o HTTPS assegura a
existência de redundância dos servidores.
Certa empresa sofreu um ataque de negação de
serviço, que tem por objetivo sobrecarregar a
rede com dados acima da capacidade dela. Para
esta atividade, o atacante utilizou máquinas de
usuários que estavam vulneráveis na internet,
enviando dados para a rede da empresa.
Podemos afirmar que este ataque é:
De fabricação
Passivo
Indireto
Interno
De autenticação
Atualmente, existem organizações criminosas
que são especializadas em realizar ataques
cibernéticos. Para aumentar a chance de o
ataque ser bem-sucedido, essas organizações
buscam informações em diversas fontes
disponíveis na internet, a fim de obter
informações que possam auxiliar no ataque.
Podemos afirmar que esta é a fase de:
Entrega
Conquista
Instalação
Exploração
Reconhecimento
A criptografia é um recurso utilizado desde
tempos antigos, e a Cifra de César é um dos
algoritmos mais conhecidos. Acerca das
técnicas de criptografia, assinale a alternativa
correta:
Em um algoritmo de chave pública, ao utilizar a
chave pública primeiro, é garantida a
confidencialidade.
Um algoritmo de criptografia assimétrica emprega
uma única chave para decifrar.
Um algoritmo de criptografia simétrica emprega
duas chaves - uma para cifrar e outra para decifrar.
Em um algoritmo de chave privada, ao utilizar a
chave privada primeiro, é garantida a
confidencialidade.
Um algoritmo de criptografia assimétrica emprega
uma única chave para cifrar e decifrar.
Na comutação de circuitos, é necessário o estabelecimento prévio de um
circuito físico entre a origem e o destino antes da transmissão da informação
propriamente dita. Tomemos como exemplo a ilustração de uma conversa
telefônica que utilize as redes tradicionais de telefonia fixa.
Na comutação de pacotes, não existem as fases 1 e 3 descritas anteriormente,
que compreendem o estabelecimento prévio de um circuito antes da
transmissão dos dados e a desconexão ou o encerramento do circuito
estabelecido ao final da comunicação.
-----Estudamos sobre a história e evolução das redes de computadores. Com
base nos fatos relatados no corrente módulo, assinale a alternativa correta:
a) A ARPANET, sendo uma rede financiada pelo governo dos Estados Unidos, ficou restrita
ao território americano.
b) As tecnologias desenvolvidas para a Internet foram essenciais para a criação da ARPANET.
c) A comutação de pacotes trouxe uma mudança de paradigma na comunicação de dados.
d) O surgimento das LANs e WLANs permitiu o estabelecimento de conexões de grande
alcance entre os nós da rede.
------Em relação à comutação de circuitos e comutação de pacotes, selecione a
opção incorreta:
a) Na comutação de circuitos, o processo de transmissão da informação ocorre em três
fases.
b) Na comutação de pacotes, cada pacote é encaminhado de forma independente dos
demais.
c) A comutação de circuitos é uma tecnologia anterior à comutação de pacotes.
d) Na comutação de pacotes, a ordem de recepção dos pacotes no destino é preservada.
Nós
Os nós representam os sistemas finais ou sistemas intermediários que são interconectados
em rede.
Enlaces
Os enlaces representam as ligações físicas entre os nós da rede, podendo empregar os mais
diferentes meios de transmissão: fibra ótica, par trançado, cabo coaxial, transmissão em RF,
micro-ondas, enlace satelital, etc.
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.htmlProtocolos
Os protocolos implementam as regras de comunicação nas redes que organizam e
controlam o fluxo de informação. Os protocolos automatizam a comunicação entre os nós e
resolvem os problemas de transmissão, erros, controles, gerência, serviços e políticas de
uso.
A topologia de uma rede é representada pelo arranjo de ligação dos nós
através dos enlaces.
As topologias são divididas em formas
Topologia Barramento
Topologia Estrela
Topologia Anel ou ring
Topologia Árvore
Topologia ponto a ponto
Topologia Mesh
Topologia de paul Daran-
-Topologia centralizada: todos os nós se ligam ao no central se um falhar
todos falham
-Topologia descentralizada: os nós estão ligados a sub-regiões de
centralização. Se um elo falha pode comprometer partes isoladas da rede
-Topologia distribuída: os nós apresentam quase a mesma importância, a falha
de um deles tem significância mínima para a rede, apresenta mais robustei e
depende da coperação de todos os elos,
Classificação quanto à área de cobertura (alcance)
As redes de computadores podem também ser classificadas quanto à região ou
área física em que são dispostas para prestarem serviços aos usuários. São
classificadas sob diversas siglas, que detalharemos no vídeo a seguir: LAN,
MAN, WAN, WLAN, WMAN, SAN e PAN.
Redes cabeadas
Nas redes cabeadas (ou redes por cabo), as conexões entre os dispositivos
empregam meios físicos por onde o sinal é transmitido de forma confinada.
São geralmente empregados como meios físicos o cabo coaxial, o cabo de par
trançado ou o cabo de fibra óptica
TRANSPORTE DE SINAL
Tanto o par trançado quanto o cabo coaxial transportam o sinal eletromagnético, enquanto
na fibra óptica o sinal é propagado na forma de luz.
VANTAGENS E DESVANTAGENS
Cada um dos meios oferece vantagens e desvantagens em relação aos demais. Embora o
par trançado seja mais flexível e barato, enfrenta o problema de interferências
eletromagnéticas em maior escala. Já a fibra óptica, que é mais cara, está imune às
interferências e possui a capacidade de atingir altas taxas de transmissão.
Redes sem fio
Nas redes sem fio o sinal é transmitido em espaço aberto, não guiado.
Esses tipos de rede apresentam diversas facilidades em relação às redes
cabeadas. Ex.: rapidez na instalação, capacidade de mobilidade, pouco ou
nenhum impacto sobre a infraestrutura predial. Em alguns prédios históricos e
locais críticos, acabam sendo a única possibilidade viável para uma rede ser
instalada.
1. Em relação aos diferentes arranjos topológicos que uma rede de computadores pode
assumir, assinale a alternativa correta:
a) A topologia centralizada não apresenta vantagens em relação a uma topologia
distribuída.
b) As topologias em estrela e anel são resistentes à queda de um enlace, mas a queda de
dois enlaces sempre desconecta os demais nós da rede.
c) A topologia distribuída apresenta uma maior tolerância a falhas do que as topologias
descentralizadas e centralizadas.
d) O arranjo topológico não interfere no desempenho global da rede.
Responder
Comentário
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-01
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-02
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html
Parabéns! A alternativa C está correta.
A topologia distribuída é a mais tolerante a falhas por não apresentar nós ou enlaces críticos
que afetem o funcionamento global da rede. Nos outros dois tipos de arranjos existem nós
que caso apresentem falhas são capazes de comprometer toda a estrutura da rede.
2. Neste módulo estudamos algumas formas de classificação das redes de computadores.
Está incorreta a afirmativa:
a) As redes de computadores podem ser classificadas quanto ao seu tamanho ou área de
cobertura.
b) Uma MAN pode ser caracterizada pela ligação de diversas LANs.
c) Os meios físicos empregados em redes cabeadas apresentam diferentes características
quanto à imunidade ao ruído.
d) As WLANs substituíram as LANs para poderem atingir maiores distâncias de ligação entre
os terminais.
Responder
Comentário
Parabéns! A alternativa D está correta.
Tanto as WLANs quanto as LANs são classificadas como redes locais e, portanto, não visam
ligações de longo alcance, as WLANs permitem, no entanto, que os terminais sejam ligados
em rede por meio de enlaces sem fio.
ALOHAnet
Pode-se afirmar que a primeira demonstração pública das redes sem fio em pacotes (dados)
ocorreu em junho de 1971, na Universidade do Havaí, conhecida como ALOHAnet.
O objetivo da ALOHAnet era empregar equipamentos de rádio de baixo custo
para as transmissões que possibilitassem a conexão dos terminais dos usuários
espalhados pela universidade até um grande computador central de uso
compartilhado.
A contribuição que o sistema trouxe foi tão importante que, mais tarde,
diversos protocolos de comunicação empregados em redes celulares e até
mesmo em redes cabeadas foram inspirados na ALOHAnet.
A partir de então, o desenvolvimento das redes sem fio seguiu um ritmo
constante, até chegarmos à explosão de seu uso nos dias de hoje. Pode-se
dizer que as tecnologias de redes sem fio foram responsáveis pela imensa
conectividade de usuários que observamos em todo o mundo, como também
são um veículo de participação e inclusão social.
Porém, antes de abordarmos algumas de suas principais tecnologias, é
importante entender alguns conceitos e algumas peculiaridades das redes sem
fio que as diferem das redes cabeadas tradicionais.
Peculiaridades e características das redes sem fio
A simples possibilidade de se utilizar enlaces sem fio em vez de enlaces por
cabo em redes de computadores introduz diversas vantagens.
Vantagem
O lançamento de cabos em áreas urbanas ou rurais, ou mesmo a instalação
predial de cabos, pode, por vezes, ser bastante complicado, custoso ou até
mesmo proibido. No exemplo citado anteriormente da ALOHAnet, o terreno
acidentado e a dispersão dos terminais na universidade se tornaram
claramente fatores motivadores para a utilização de enlaces sem fio.
Existem também outras situações onde a adoção dos enlaces sem fio acaba se
tornando a única opção disponível.
Ex.: a instalação de uma rede em um prédio histórico tombado onde não é
permitida qualquer alteração, obra ou reforma; dentro de um centro cirúrgico
de um hospital; instalação de redes temporárias etc.
A mobilidade dos terminais também aparece como uma das grandes
vantagens da utilização de redes sem fio; assim, uma infinidade de diferentes
cenários para a utilização das redes de computadores se tornou possível, tais
como: campos de batalha, regiões afetadas por calamidades, operações de
resgate, atividades esportivas, eventos, shows, veículos autônomos não
tripulados, redes de sensores.
A facilidade de expansão da rede com a inclusão de novos dispositivos e a
rapidez com que esses dispositivos podem ser instalados e ganhar acesso à
rede sem fio também configuram grandes vantagens em relação às redes com
cabos. Podemos adicionar a isso a flexibilidade de o terminal poder alcançar
locais onde o cabo não chega.
Desvantagem
No entanto, é importante também conhecer as desvantagens ou dificuldades
encontradas pelas redes sem fio. Em primeiro lugar, a transmissão em espaço
aberto traz preocupações imediatas com a segurança, visto que os sinais
podem ser mais facilmente capturados por algum terminal não autorizado que
esteja escutando o meio.
A transmissão do sinal em espaço aberto também está sujeita a maior
atenuação do sinal e interferência de outras fontes, tendo em vista que não há
a proteção e o isolamento do meio guiado. Isso afeta diretamente as taxas de
transmissão,o alcance e a potência necessária nos transmissores.
A propagação do sinal também sofre o que se chama de propagação multivias;
como o meio não é guiado, o sinal pode sofrer reflexões em obstáculos pelo
caminho, o que dificulta a detecção da informação por parte dos receptores.
Até mesmo as condições climáticas (temperatura, pressão, umidade do ar)
impõem dificuldades nas transmissões. Em suma, a transmissão de sinais em
meio aberto está sujeita a diferentes intemperes e dificuldades que
geralmente não afetam ou são mitigadas pelos meios guiados.
Sinal sendo refletido por múltiplos caminhos no espaço aberto (propagação multivias),
dificultando a recepção da informação no receptor.
Condições climáticas (chuva) causando a atenuação do sinal para o receptor.
Redes Locais Sem Fio – WiFi
As redes locais sem fio se tornaram atualmente uma das mais importantes tecnologias de
acesso à Internet, estando presente nos mais diversos locais de atividade das pessoas: em
casa, no trabalho, nos hotéis, nas universidades, escolas, nos restaurantes, cafés,
aeroportos, estádios etc.
A tecnologia dominante empregada em redes locais sem fio é a tecnologia WiFi, identificada
pelo padrão IEEE 802.11.
Redes Móveis Celulares
Outra tecnologia de redes de comunicação sem fio amplamente utilizada nos dias atuais é a
tecnologia de redes móveis celulares. A cobertura que essas redes oferecem nas grandes
cidades, estradas e até mesmo em zonas rurais é bastante ampla, o que motivou a explosão
do consumo e a utilização de aparelhos celulares como plataformas de acesso à Internet.
Um levantamento realizado pela empresa GSMA Intelligence estimou que, até janeiro de
2020, cerca de 5,18 billhões de pessoas aparecem como usuários de serviço de telefonia
celular, ou seja, 66.77% da população mundial. Esse dado confirma o grande sucesso e a
evolução tecnológica dessas redes ao longo dos anos e também reflete a necessidade da
população mundial por serviços de redes móveis sem fio.
Veja, a seguir, uma ilustração da estrutura básica de uma rede móvel celular. As células
representadas pelos hexágonos cobrem determinada região geográfica na qual o acesso à
rede é oferecido. O conjunto de células, então, garante a cobertura em uma área maior:
uma cidade, por exemplo. Cada célula possui uma estação-base – BS (Base Station), que
desempenha um papel semelhante ao dos APs nas redes IEEE 802.11.
HANDOFF
Um dos objetivos das redes móveis celulares é oferecer mobilidade total aos usuários. Ao se
movimentarem, os usuários podem trocar de célula de cobertura e, assim, trocar também
de acesso a outra BS. Esse processo é conhecido como handoff. O handoff é totalmente
despercebido pelos usuários e realizado automaticamente pela rede e pelos dispositivos
móveis.
UPLINK E DOWNLINK
A comunicação dos terminais até a BS é realizada pelo canal chamado uplink (canal de
subida que é compartilhado entre os terminais), e a comunicação da BS até os terminais é
realizada pelo downlink (canal de decida controlado unicamente pela BS).
Assim, no canal compartilhado uplink, são necessários também os protocolos de múltiplo
acesso para organizar a comunicação dos diversos terminais. Porém, diferente das redes
WiFi, aqui não se utiliza o protocolo CSMA/CA, e sim soluções de compartilhamento
estáticas baseadas, por exemplo, na técnica de múltiplo acesso por divisão no tempo –
TDMA (Time Division Multiple Access) ou divisão de frequência – FDMA (Frequency Division
Multiple Access). Essas soluções foram herdadas das redes de telefonia anteriores, e não
das redes de dados.
1. Em relação às características das redes sem fio e de todo o seu desenvolvimento, pode-se
afirmar que:
a) O desenvolvimento da ALOHAnet foi motivado pelo surgimento das WLANs.
b) A propagação multivias e a sensibilidade às condições climáticas afetam tanto as redes
cabeadas quanto as redes sem fio.
c) Soluções de múltiplo acesso ao meio físico são empregadas tanto nas WLANs quanto nos
uplinks de redes móveis celulares.
d) O protocolo CSMA/CA padronizado para as redes móveis celulares verifica se o meio está
livre antes de iniciar uma transmissão.
Responder
Comentário
Parabéns! A alternativa C está correta.
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-01x
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-02x
Ambos os canais são compartilhados pelos terminais dos usuários e portanto são
empregadas técnicas de múltiplo acesso para organizar as transmissões.
2. Assinale a alternativa incorreta:
a) Um dos objetivos do protocolo CSMA/CA é evitar a colisão entre os terminais durante as
transmissões.
b) Em uma BSS só pode existir um AP.
c) O handoff garante o suporte à mobilidade em redes celulares.
d) No protocolo CSMA/CA o terminal interrompe a transmissão tão logo detecta que
ocorreu uma colisão.
Responder
Comentário
Parabéns! A alternativa D está correta.
O protocolo CSMA/CA não emprega dispositivo para detecção de colisão durante a
transmissão. Uma colisão é detectada quando o terminal fonte não recebe a confirmação do
terminal destino, vide Figura 14.
Modelos de referência OSI e arquitetura TCP/IP
Definição
Organização das redes de comunicação de dados utilizadas pelos dispositivos
computacionais e os modelos e arquitetura de redes empregados.
Propósito
Reconhecer como as redes de computadores estão organizadas e estruturadas para definir
as ferramentas adequadas ao processo de troca de dados entre todos os dispositivos.
Introdução
Uma infinidade de serviços é oferecida por meio da internet, como, por exemplo, os
governamentais, financeiros, educacionais, entre muitos outros que mudaram o
comportamento humano. Ao ficarmos sem acesso à internet nos sentimos como se
estivéssemos em uma ilha deserta. Experimente colocar seu smartphone em modo avião
durante um dia e perceba como se sentirá isolado.
Mas, para que todos esses serviços possam funcionar, um conjunto de funcionalidades
complexas e difíceis de implementar deve ser disponibilizada pelos dispositivos que
compõem uma rede. Portanto, desde o início das redes de comunicação de dados foram
pensadas formas de otimizar o processo da transmissão de dados.
Modelo em camadas
A internet é um conjunto de redes de computadores que permite a troca de informações
entre dispositivos computacionais.
Para que essa troca seja realizada de forma eficiente, devem ser estabelecidas regras de
comunicação.
Essas regras são os protocolos de rede, que devem garantir que a comunicação ocorra de
forma confiável, segura, eficaz, no momento certo e para a pessoa certa.
De maneira intuitiva, percebemos que satisfazer a todos esses requisitos não é uma tarefa
fácil. São muitas regras que devem ser implementadas para garantir a efetividade da
comunicação, tornando o processo de troca de dados entre computadores uma tarefa
extremamente complexa.
Por causa dessa complexidade, os engenheiros e projetistas de redes do passado pensaram
em formas de facilitar o desenvolvimento das regras nos dispositivos computacionais. Eles
utilizaram um princípio básico de resolução de diversos outros problemas:
Dividir para conquistar
Nesta técnica, os projetistas dividem o problema em problemas menores e resolvem cada
um de forma isolada. Se cada pequeno problema for resolvido, o grande problema será
resolvido.
Para que essa divisão ocorresse de forma simplificada, os projetistas dividiram a organização
das redes de computadores em camadas, em que cada camada é responsável por cuidar de
determinada regra ou protocolo necessário ao processo de comunicação.
A quantidade de camadas utilizadas depende de como as funcionalidades são
divididas. Quanto maior a divisão, maior o número de camadas que serãoempilhadas, numerando da mais baixa, camada 1, para a mais alta, camada n.
As camadas se inter-relacionam da seguinte maneira: a camada superior utiliza
os serviços oferecidos por outra imediatamente inferior, portanto, a camada 3
utiliza os serviços oferecidos pela camada 2.
De forma contrária, podemos dizer que a camada inferior oferece serviços para
outra imediatamente superior, logo, a camada 2 oferece serviços para a
camada 3.
Elementos da camada
As camadas são formadas por três elementos principais:
Serviço: é o conjunto de funcionalidades que uma determinada camada
oferece. Por exemplo, uma camada pode ser responsável pela verificação de
erros na transmissão, por determinar o endereço de um computador, entre
outras funcionalidades. O serviço diz o que a camada faz e não como ela faz.
Protocolo: responsável pelo como a camada faz. Assim, o protocolo é a
implementação do serviço da camada, ou seja, executa as regras para que os
erros possam ser corrigidos ou para que um computador possa ser
identificado. “Um conjunto de camada e protocolos é a arquitetura de rede e o
conjunto de protocolos utilizados por determinado sistema é uma pilha de
protocolos”
Interface: para que uma camada possa utilizar a camada imediatamente
inferior, é necessário que haja um ponto de comunicação entre ambas
chamado interface. Por meio dela, uma camada pode utilizar o serviço de
outra, passando informação para a camada vizinha.
Onde, exatamente, tudo isso é implementado no computador?
O que está implementado são os protocolos e interfaces, que podem estar
desenvolvidos em um hardware, como uma placa de rede, ou em um
software, como no sistema operacional da máquina.
Agora que os elementos da camada foram apresentados, é possível entender
dois conceitos importantes da arquitetura de redes:
Comunicação horizontal e vertical
Já vimos que uma camada utiliza os serviços de outra imediatamente inferior,
sucessivamente, até chegar à camada mais baixa. Como estão empilhadas,
podemos fazer analogia à comunicação vertical, uma vez que o dado original,
no topo do conjunto de camadas, desce até a camada 1, caracterizando a
verticalidade desse processo.
Na origem, o dado a ser transmitido desce pelas camadas até o nível mais
baixo, a camada 1. Essa camada está conectada ao meio de transmissão, como,
por exemplo, uma fibra ótica, um cabo de rede metálico ou o ar, possíveis
caminhos para o dado fluir até o destino.
No destino, o processo ocorrerá de modo contrário, pois o dado sobe pelas
camadas até o nível mais alto da arquitetura. Podemos, assim, associar a
comunicação vertical aos serviços das camadas
Conforme o dado passa por determinada camada, o hardware ou o software,
responsável por implementar o protocolo, irá preparar esse dado para que a
regra (para a qual ele foi projetado) possa ser executada.
Por exemplo, se a camada 2 é responsável pela verificação de erro, o dado será
preparado na origem por essa camada para que, ao passar pela camada 2 do
destino, seja verificado se houve erro ou não.
No exemplo anterior, vimos que a camada 2 de origem preparou o dado para
que a camada 2 de destino verificasse se a informação está correta,
caracterizando a existência de uma conversa entre as duas camadas de mesmo
nível em computadores distintos. Essa conversa é a comunicação horizontal,
realizada pelos protocolos que implementarão a regra.
Encapsulamento
Ainda pode estar um pouco abstrato como realmente a comunicação vertical
e, principalmente, horizontal funcionam.
Como a camada 2 da máquina de origem consegue conversar com a mesma
camada na máquina de destino?
A comunicação horizontal ocorre de forma virtual. A camada 2 da máquina de
origem, ao preparar o dado para ser enviado, adiciona informações que serão
lidas e tratadas única e exclusivamente pela mesma camada do dispositivo de
destino. Essas informações são denominadas cabeçalhos.
Cada camada adicionará um novo cabeçalho ao dado que será enviado, e esse
processo é chamado de encapsulamento.
Cada camada receberá o dado da camada superior, através da interface, e
adicionará seu próprio cabeçalho, encapsulando o dado recebido.
Nesse processo, quando determinada camada recebe os dados, ela não se
preocupa com o conteúdo que recebeu, apenas adiciona o seu cabeçalho para
permitir que o protocolo execute as regras necessárias à comunicação.
Esse procedimento acontece, repetidamente, até alcançar a camada 1 e a
informação ser transmitida ao destino, onde ocorrerá o processo inverso. A
informação subirá, desencapsulando as informações, da camada 1 até o
usuário do serviço.
Importante
Ao realizar o encapsulamento, a unidade de dados do protocolo ou PDU (Protocol Data Unit,
na sigla em inglês) é criada.
A PDU é constituída pela informação que vem da camada superior (PDU da camada
superior) e o cabeçalho da própria camada.
Após analisar o conceito de arquitetura de camadas e ver o processo de
encapsulamento, é possível deduzir que a grande desvantagem é o acréscimo
de informações ao dado original, aumentando o volume de tráfego.
Entretanto, essa desvantagem é mínima comparada às vantagens que temos
de modularização, facilidade de manutenção e atualização dos protocolos, que
permitiram uma enorme evolução na área de redes.
1. A transmissão de dados entre dois dispositivos é uma tarefa complexa e envolve diversas
funções que devem ser executadas a fim de garantir uma comunicação eficiente. Para
reduzir a complexidade e tornar a comunicação uma tarefa realizável, a estrutura de rede
foi:
a) Dividida em protocolos que oferecem serviços aos usuários da rede.
b) Dividida em camadas que são responsáveis por realizar um conjunto de atividades.
c) Dividida em diversos tipos de placas de rede para permitir o uso de vários meios de
transmissão.
d) Dividida em cabeçalhos que permitem a comunicação horizontal.
Comentário
Parabéns! A alternativa B está correta.
A divisão em camadas permitiu a separação das funções necessárias à comunicação de
dados entre os diferentes níveis de camadas, utilizando a ideia de dividir para conquistar,
técnica que divide um problema grande e complexo em pequenos problemas mais simples,
que, ao serem resolvidos, solucionarão o problema como um todo. Cada camada fica
responsável por realizar um conjunto de atividades ou funções necessárias à transmissão
dos dados.
2. Cada camada de uma arquitetura de redes possui três elementos: serviço, protocolo e
interface. Esses elementos básicos permitem que as tarefas necessárias à transmissão de
dados sejam corretamente divididas e executadas, por isso, podemos dizer que:
a) O serviço é a implementação das regras de comunicação, os protocolos.
b) A interface é responsável por garantir a eficiência na transmissão dos dados.
c) O protocolo é a implementação do serviço que a camada deve executar.
d) Em virtude da evolução dos protocolos, os serviços deixaram de ser necessários.
Comentário
Parabéns! A alternativa C está correta.
Cada camada é responsável por uma determinada regra, ou seja, o serviço define o que a
camada deve fazer, mas não como. A responsabilidade de implementar a regra, de definir o
como é do protocolo de rede implementado naquela camada. Portanto, é comum dizer que
o protocolo é a implementação do serviço.
Modelo OSI
Na década de 1970, a International Organization for Standardization (ISO), um
órgão que desenvolve padrões internacionais, criou um modelo de referência
de camadas denominado OSI (Open System Interconnection - ISO/IEC 7498-
1:1994).
O objetivo foi elaborar um modelo que permitisse a comunicação entre
sistemas diferentes, independentemente de suas arquiteturas, facilitando a
comunicação, sem a necessidade de realizar mudanças na lógica do hardware
ou software (FOROUZAN, 2010).
“Observe que o modelo OSI propriamente dito não é uma arquiteturade rede,
pois não especifica os serviços e protocolos exatos que devem ser usados em
cada camada. Ele apenas informa o que cada camada deve fazer. No entanto, a
ISO também produziu padrões para todas as camadas, embora esses padrões
não façam parte do próprio modelo de referência. Cada um foi publicado como
um padrão internacional distinto. O modelo (em parte) é bastante utilizado,
embora os protocolos associados há muito tempo tenham sido deixados de
lado.” (TANENBAUM, 2011)
Importante
O que utilizamos hoje do modelo OSI é a referência para as funções das camadas, então,
quando ouvimos falar que determinado protocolo é da camada X (1, 2, 3, ...). Esse X refere-
se ao OSI, tanto que é encontrada, em diversos livros e artigos, a expressão modelo de
referência OSI (RM-OSI em inglês).
O modelo OSI possui sete camadas, de cima para baixo: aplicação,
apresentação, sessão, transporte, rede, enlace e física.
De acordo com o conceito de camadas que estudamos, cada uma delas é
responsável por determinada tarefa no processo de transmissão de dados.
Entretanto, já sabemos que, por mais que tenham sido especificados
protocolos para cada camada, na prática, eles não são utilizados.
Os conceitos estudados de comunicação vertical, horizontal e encapsulamento são válidos
nesse modelo. Portanto, um dado transmitido por um dispositivo de origem será inserido na
estrutura de rede a partir da camada de aplicação e irá descer até a camada física, quando
será enviado pelo meio de transmissão. Cada camada irá adicionar o seu próprio cabeçalho,
encapsulando a PDU da camada superior e permitindo a comunicação horizontal entre
camadas de mesmo nível.
É possível dividir as sete camadas em três subgrupos.
• As três camadas mais altas( aplicação, apresentação e sessão) estão
relacionadas a funções que dão suporte para os usuários possam acessar
os diversos serviços de redes, garantindo a interoperabilidade de
sistemas heterogêneos
• As três camadas mais inferiores ( redes, enlace e Física) estão
relacionadas as operações ligadas aos aspectos da movimentação dos
dados de um dispositivo para o outro, dando suporte as operações de
rede.
• A camada de transporte faz a interligação entre o suporte ao usuário e o
suporte de rede. Ela vai permitir que os dados que chegaram das
camadas mais baixas estejam em condições de serem utilizados pelas
camadas mais altas.
Aplicação
A camada de aplicação é a que está mais próxima de nós, usuários da rede. Podemos citar
algumas das aplicações oferecidas por essa camada:
Serviço Web
Serviço de correio eletrônico
Serviço de transferência de arquivos
Serviço de streaming de áudio e vídeo
Serviço de compartilhamento de arquivos
Os serviços citados acima ou quaisquer outros oferecidos pela camada de aplicação são
executados por processos dos usuários que estão em andamento em determinado
dispositivo.
Apresentação
A camada de apresentação é responsável por garantir a interoperabilidade dos sistemas
heterogêneos, ou seja, permitir que, independentemente do dispositivo que você esteja
utilizando (computador, smartphone, televisão, carro etc.) e do sistema operacional (MS
Windows, Apple IOS, Linux etc.), seja possível acessar qualquer tipo de serviço
disponibilizado pela rede.
Para que haja essa interoperabilidade, a camada de apresentação é responsável por fazer a
transformação dos dados, por isso, podemos chamá-la de tradutor da rede. Ela será
responsável pela conversão entre formatos, compressão de dados e criptografia.
Sessão
Essa camada é responsável por organizar a comunicação entre os dispositivos e permitirá
que os usuários, em diferentes máquinas, possam estabelecer sessões de comunicação;
cada sessão terá dois serviços básicos: controle de diálogo e sincronização.
Controle de diálogo
Define quem transmitirá em determinado momento. Considerando a existência de dois
usuários, A e B, a camada de sessão determinará se eles podem transmitir
simultaneamente, caracterizando a comunicação full duplex, ou de forma intercalada, em
um sentido por vez, a exemplo da comunicação half duplex.
Sincronização
Permite que sejam estabelecidos pontos de controle em determinado fluxo de dados. Esses
pontos permitem que, se houver uma perda de comunicação, a transmissão de dados seja
restabelecida a partir daquele ponto e não desde o início da transmissão.
Transporte
Essa camada tem por finalidade garantir a entrega de processo a processo de todos os dados
enviados pelo usuário. Podemos dizer que a camada de transporte é responsável por entregar os
dados corretamente para os processos que estão em execução na camada de aplicação.
Esse papel da camada de transporte a torna uma das mais complexas dentro da estrutura do
modelo OSI. Para garantir que as mensagens da camada de aplicação sejam entregues
corretamente, diversas funções são necessárias:
Segmentação e remontagem
A camada de transporte receberá os dados originados na camada de aplicação (PDU da
camada de aplicação) e irá dividi-los em pedaços, segmentos de dados (PDU da camada de
transporte), que possam ser enviados e, na camada de transporte de destino, irá remontá-
los na ordem correta. Para isso, será necessário estabelecer números de sequência para
garantir que, independentemente da ordem de chegada, os dados sejam remontados na
ordem correta.
Controle de erros fim a fim
A camada de transporte irá verificar se ocorreram erros na comunicação fim a fim, ou seja,
entre os processos da camada de aplicação. Na origem, serão adicionadas informações que
permitam identificar no destino se durante o tráfego pela rede ocorreu algum erro e,
possivelmente, corrigi-lo.
Controle de fluxo
A camada de transporte será encarregada de evitar que o processo na origem
sobrecarregue o processo no destino.
Controle de conexão
A camada de transporte pode ser orientada ou não à conexão. No serviço orientado à
conexão, a camada de transporte será responsável por estabelecer a conexão entre os
processos de origem e destino.
Endereçamento do ponto de acesso ao serviço
Em um dispositivo, normalmente, estão em andamento diversos tipos de serviços
executados por vários processos e não apenas um. A camada de transporte será responsável
por fazer a entrega para o processo correto e, para isso, será utilizado o chamado endereço
de porta. Ele indicará o serviço correto que deverá receber os dados.
Controle de congestionamento
No mundo real, as máquinas não estão diretamente conectadas, ou seja, não há uma
comunicação ponto a ponto direta. Entre a máquina de origem e de destino existem
diversos outros dispositivos cuja finalidade é fazer a informação ir de um ponto a outro.
Como esses equipamentos transmitirão dados de diversas outras origens, poderá haver uma
sobrecarga desses dispositivos. A camada de transporte será responsável por monitorar
esse congestionamento e, possivelmente, tratá-lo.
Rede
A camada de rede é responsável por determinar o caminho da origem até o destino. Ela receberá
os segmentos gerados pela camada de transporte e, no cabeçalho da camada de rede, irá inserir o
endereço da máquina de destino para que seja enviado pela rede por meio dos diversos dispositivos
intermediários. Enquanto a camada de transporte é responsável pela comunicação processo a
processo, a camada de rede é encarregada da comunicação máquina a máquina.
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-01
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-02
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-03
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-04
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-05http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-06
Veja a representação desse fluxo a seguir:
Para cumprir com nosso objetivo, duas funcionalidades principais devem ser estabelecidas:
Endereço lógico
O endereço da porta, definido pela camada de transporte, permitirá a entrega no processo
de destino. Mas, para que isso aconteça, é necessário que os segmentos cheguem à
máquina de destino. Por isso, são empregados endereços lógicos a fim de permitir que os
dispositivos intermediários encaminhem os dados pelas redes e alcancem o destino.
Roteamento
A função de roteamento permite estabelecer um caminho entre origem e destino. Os
dispositivos intermediários irão verificar o endereço lógico de destino e, com base nas
informações de caminho que eles possuem, farão o processo de encaminhamento para
outros dispositivos intermediários a fim de alcançar o destino da informação.
Enlace
A camada de rede tem a responsabilidade da entrega dos dados para a máquina de destino.
Normalmente, as máquinas não estão diretamente conectadas, ou seja, origem e destino não estão
ligados diretamente por um meio físico, mas por dispositivos intermediários, como a internet. Então,
como visto na camada de rede, os dados serão roteados por essa internet até chegar ao destino.
Após ser definido por qual caminho os dados devem prosseguir, a camada de enlace surgirá para
garantir essa comunicação ponto a ponto ou hop to hop.
Veja a representação desse fluxo a seguir:
A camada de enlace é responsável por garantir a comunicação entre dispositivos adjacentes. Ela
corrigirá quaisquer problemas que tenham ocorrido no meio físico de transmissão e entregará para a
camada de rede um serviço de transmissão de dados aparentemente livre de erros.
É possível fazer uma analogia entre as camadas de enlace e de transporte:
ransporte
Realiza a entrega confiável processo a processo.
Enlace
Realiza a entrega confiável entre máquinas adjacentes, nó a nó.
Por esse motivo, muitas das funções existentes na camada de transporte
também estarão presentes na de enlace:
Controle de erros
Os meios de transmissão não são livres de erro, portanto, os dados que trafegam através
deles estão sujeitos a erros. A camada de enlace pode implementar mecanismos de controle
de erro com a finalidade de agregar confiabilidade ao serviço de transmissão.
Controle de acesso ao meio
Como alguns meios de transmissão são compartilhados, ou seja, mais de um dispositivo
pode transmitir pelo mesmo meio, é necessário um mecanismo para controlar qual dos
dispositivos pode transmitir naquele momento.
Endereçamento físico
Enquanto o endereço de porta indica o processo na máquina de destino e o endereço lógico
indica o dispositivo de destino, o endereço físico indicará qual será o próximo dispositivo no
caminho origem-destino. Ao chegar à rede de destino, o endereço físico será o do
dispositivo final.
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-01
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-02
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-03
Controle de fluxo
Semelhante ao que acontece na camada de transporte, o controle de fluxo evitará que o nó
de origem sobrecarregue o nó de destino.
Enquadramento
A camada de enlace receberá os dados da camada de rede (PDU da camada de rede),
encapsulando-os em quadros (PDU da camada de enlace). Os quadros criados pela camada
de enlace terão uma função importante, que será a adição de delimitadores de início e fim
do quadro na origem, para permitir que, no nó vizinho, a camada de enlace possa ver o
fluxo de bits e definir corretamente onde inicia e termina o quadro.
Física
Essa camada é responsável por transmitir os dados pelo meio de transmissão. Ela receberá
os quadros da camada de enlace, que serão formados por uma sequência de bits, e irá
codificar corretamente para que sejam enviados pelo meio de transmissão.
A camada física será responsável pela representação dos bits, ou seja, de acordo com o
meio de transmissão, ela irá definir se essa representação ocorrerá por pulsos de luz, no
caso da fibra ótica, ou pulsos elétricos, no caso de empregar cabos de par trançado. Além
disso, a camada física é responsável por:
Taxa de dados
A velocidade em que os bits são inseridos no meio de transmissão é responsabilidade da
camada física. Quando ouvimos a expressão megabits por segundo (Mbps), que define a
velocidade de determinado enlace, é responsabilidade da camada física estabelecer esse
valor. Assim, a velocidade de transmissão definirá a duração de um bit: quanto maior a
velocidade, menor a duração do bit, e vice-versa.
Sincronização dos bits
O nó transmissor e o receptor devem operar na mesma velocidade, ou seja, na mesma taxa
de bits. Entretanto, os relógios (clocks) das camadas físicas têm pequenas diferenças,
portanto, é possível que ocorram falhas de sincronismos. A camada física deve implementar
algum tipo de mecanismo que permita o correto sincronismo dos bits entre origem e
destino.
Topologia física
Define como os nós da rede estão interligados, podendo ser uma configuração de um enlace
ponto a ponto, em que cada nó está diretamente conectado a outro, sem
compartilhamento do meio, ou uma ligação ponto-multiponto, em que o enlace é
compartilhado por diversos nós.
Modo de transmissão
A camada física definirá o modo de transmissão em um determinado meio: simplex, half
duplex ou full duplex. Considerando dois dispositivos, A e B, no modo simplex só existe
envio de dados em um sentido, por exemplo, de A para B; no modo half duplex os dados
podem ser enviados nos dois sentidos, porém, não simultaneamente (de A para B em um
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-04
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-05
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-01
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-03a
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-03
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-04
momento e de B para A em outro momento); e no modo full duplex os dados podem ser
enviados simultaneamente por A e B.
3. O modelo de referência OSI organiza a estrutura de rede em sete camadas e define o que
cada camada faz, sem definir como faz. As camadas podem ser agrupadas em três
subgrupos, sendo:
a) As três camadas mais altas responsáveis por dar suporte às operações de redes.
b) As três camadas mais baixas responsáveis por dar suporte às operações dos usuários.
c) A camada de transporte e rede são responsáveis por dar suporte às operações de rede.
d) As três camadas mais baixas responsáveis por dar suporte às operações de rede.
Comentário
Parabéns! A alternativa D está correta.
As camadas de rede, enlace e física permitirão que os dados possam sair do dispositivo de
origem e alcançar o dispositivo de destino. A camada física vai permitir que o fluxo de bits
flua pelo meio de comunicação; a camada de enlace vai garantir que não houve erro na
transmissão do fluxo de bits e, de acordo com o caminho definido pela camada de rede, irá
encaminhar os dados para o próximo nó.
4. O modelo de referência OSI define as funcionalidades de cada camada do modelo e
podemos dizer que:
a) A camada física é responsável por realizar a correção dos bits que porventura tenham
ocorrido no meio de transmissão.
b) A camada de rede atua no domíniodo processo, entregando os dados ao processo
correto no destino.
c) A camada de enlace é responsável por oferecer um serviço de transmissão de bits
confiável para a camada de rede.
d) A camada de sessão tem por finalidade garantir a interoperabilidade de sistemas
heterogêneos.
Comentário
Parabéns! A alternativa C está correta.
Os serviços oferecidos pela camada de enlace permitem que os erros que ocorram no meio
de transmissão sejam identificados e tratados, seja descartando o quadro com erro ou
identificando o bit errado e corrigindo-o.
Arquitetura TCP/IP
“A arquitetura foi batizada por TCP/IP por causa dos seus dois principais
protocolos: Transmission Control Protocol (TCP) e Internet Protocol (IP). Ela foi
apresentada pela primeira vez em 1974 (CERF, 1974) com o objetivo de criar
uma arquitetura que permitisse a interligação de diversas redes de
comunicação, sendo posteriormente adotada como padrão, de fato, para a
comunidade internet.” (CERF; KAHN, 1974)
Evolução do Protocolo TCP/IP
Vamos conhecer um pouco mais sobre o protocolo TCP/IP e o seu papel na
história da internet.
A arquitetura foi criada utilizando quatro camadas: aplicação, transporte, internet e acesso
à rede.
As duas últimas camadas podem ser encontradas com nomes diferentes na literatura. A
camada de rede pode ser encontrada como rede e inter-rede e a camada de acesso à rede
pode ser encontrada como camada de enlace, host-rede, intrarrede e host-network.
Após identificarmos que a arquitetura TCP/IP tem apenas quatro camadas, é possível
imaginar que algumas das funções executadas pelas camadas de apresentação, sessão,
enlace e rede, ausentes na arquitetura TCP/IP, serão acumuladas por outras camadas.
As funções das camadas de apresentação e sessão serão acumuladas pela camada de
aplicação e a funções das camadas de enlace e física serão executadas pela camada de
acesso à rede. Observe a relação entre os dois modelos a seguir.
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html
Uma grande diferença que temos entre o modelo de referência OSI e a
arquitetura TCP /IP é:
Modelo OSI
É baseado, principalmente, nas funcionalidades das camadas.
Arquitetura TCP/IP
Não ficou presa apenas nas funcionalidades, mas, sim, no desenvolvimento de
protocolos relativamente independentes e hierárquicos. A hierarquia baseia-se
em um protocolo de nível superior que é suportado pelos protocolos de nível
inferior.
É comum ouvirmos falar da pilha de protocolos TCP/IP. Agora que dominamos
o conceito do modelo de camadas, como vimos no modelo OSI, fica fácil de
entender que a pilha de protocolos TCP/IP é o conjunto de todos os protocolos
implementados pela arquitetura. E não são poucos.
Os principais protocolos de padrão aberto da arquitetura Internet foram
desenvolvidos pelo IETF (The Internet Engineering Task Force), uma grande
comunidade internacional aberta, composta por designers de rede,
operadores, fornecedores e pesquisadores preocupados com a evolução da
arquitetura da internet.
Funções das camadas e principais protocolos
Depois de estudarmos o modelo OSI, é possível ter uma ideia geral dos
serviços de cada camada, portanto, vamos focar, principalmente, nos
protocolos.
Aplicação
A camada de aplicação da arquitetura TCP/IP nos permite acessar uma
infinidade de serviços na internet. Desde os que são utilizados de forma direta
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html
pelos usuários, como o serviço Web, serviço de correio eletrônico, entre
outros, bem como os que funcionam dando suporte à operação da rede, como
o serviço de nomes (DNS).
Os serviços são implementados pelos diversos protocolos existentes.
Correlacionamos, a seguir, alguns serviços e protocolos utilizados na camada
de aplicação.
Os protocolos apresentados são implementados por meio de softwares, que
são executados nos diversos dispositivos computacionais, e podem estar
associados a dois tipos principais de arquitetura:
Cliente-servidor
Na arquitetura cliente-servidor, como já evidencia o nome, existirá um cliente
e um servidor. O cliente será executado por um usuário como nós e irá
requisitar um serviço do servidor. Por exemplo, para o serviço Web, o cliente é
o navegador que acessa determinado servidor, por exemplo, o servidor que
está disponibilizando esse conteúdo.
Par a par (peer-to-peer (P2P))
A arquitetura P2P foi pensada no emprego mínimo de servidores, caso exista
algum. A ideia da arquitetura peer-to-peer é que os usuários possam trocar
informações de forma direta. Esse tipo de arquitetura ficou muito conhecida
com os programas de compartilhamento de arquivos, mas também pode ser
utilizada em outras situações, como em um chat entre duas pessoas.
Independentemente da arquitetura utilizada, dizemos que os processos da
camada de aplicação trocam mensagens, que é o nome da unidade de dados
do protocolo (PDU) da camada de aplicação.
Transporte
Tem a mesma funcionalidade da camada existente no modelo OSI: garantir a
entrega de processo a processo de todos os dados enviados pelo usuário.
Porém, na arquitetura TCP/IP temos dois protocolos principais:
TCP (Transmission Control Protocol)
O protocolo TCP, efetivamente, confere confiabilidade.
O protocolo TCP é um protocolo orientado à conexão, com controle de erros,
de congestionamento e de fluxo. Também define os endereços das portas e
divide a mensagem (PDU-A) da camada de aplicação em segmentos (PDU-T),
determinando números de sequência para cada um, para garantir a entrega
dos dados na ordem correta para a aplicação. O TCP é adequado para as
aplicações de rede que precisam de confiabilidade na troca de mensagens
entre processos.
UDP (User Datagram Protocol)
O protocolo UDP não confere confiabilidade.
O protocolo UDP é o oposto do TCP. Ele não é orientado à conexão e não faz a
maioria das funções da camada de rede. Podemos dizer que o UDP existe
apenas para permitir que uma mensagem (PDU-A) seja encapsulada em um
datagrama (PDU-T) e entregue para o processo de destino correto, já que ele
utiliza o endereço da porta para fazer a correta entrega na máquina de
destino.
Então, por que usamos o UDP?
Ele é importante para as aplicações que demandam tempo de resposta baixo
na comunicação, como em um áudio ou uma videoconferência, e nas
aplicações que podem funcionar tolerando algum tipo de perda.
Internet
A camada internet ou, simplesmente, camada de rede tem por objetivo
permitir que os dados injetados na rede pela máquina de origem possam
alcançar o destino.
O principal protocolo da camada de rede é o IP (Internet Protocol).
Ele é encontrado em duas versões principais:
Objetivo
Os dois protocolos têm por objetivo definir o endereço lógico, conhecido como
endereço IP, e permitir o tratamento dos datagramas (PDU-R) para que
possam ser roteados da origem até o destino.
Diferença
A diferença entre as duas versões do protocolo está no tamanho do endereço
lógico, 32 bits para o IPv4 e 128 bits para o IPv6, no formato do datagrama e
em algumas funções mais específicas que não abordaremos neste tema
Semelhança
Mas, os dois têm em comum o fato de serem não orientados à conexão, sem
confiabilidade, ou seja, não realizam o tratamento de erros e os datagramas
são enviados de forma independente, portanto, podem chegar em ordem
diferente da qual foram enviados.
Dizemos que o serviço da camada internet é de melhor esforço.
Será feito o maior esforço de entregar as informações, mas não será garantida
a entrega, nem a ordem, nem a ausência de erro. Qualquer problema deverá
ser corrigido pelas camadas superiores.
Importante
Além do protocolo IP, a camada internet emprega outros protocolos que dão suporte ao
encaminhamento dos dados. Existem protocoloscom o objetivo de fazer sinalização e avisos
de erros, como o ICMP (Internet Control Message Protocol), tradução do endereço lógico
para o físico, como o ARP (Address Resolution Protocol), e a chamada comunicação
multicast, que permite o envio dos dados para um grupo de estações, como o protocolo
IGMP (Internet Group Management Protocol).
Acesso à rede
A camada de acesso à rede não foi bem definida pela arquitetura TCP/IP, nem
define um protocolo específico a ser empregado. O que foi dito inicialmente é
que a camada de acesso à rede seria qualquer coisa que pudesse ligar o
dispositivo ao enlace de transmissão.
Mas, como para chegar até aqui já estudamos vários conceitos, sabemos que,
apesar de não estar definida pela arquitetura TCP/IP, nesta camada
encontraremos os serviços que são oferecidos pelas camadas de enlace e física
do modelo OSI.
Apesar de não fazer parte da arquitetura TCP/IP, a arquitetura desenvolvida
pelo Instituto de Engenheiros Eletricistas e Eletrônicos (Institute of Electrical
and Electronics Engineers – IEEE), denominada IEEE 802, é largamente utilizada
na camada de acesso à rede.
Ela define diversos padrões utilizados nas redes locais e metropolitanas, como
o padrão Ethernet e o famoso WiFi, que provavelmente você está usando
agora para acessar este conteúdo.
Agora que terminamos a apresentação dos principais protocolos da
arquitetura TCP/IP, podemos fazer uma correlação entre a arquitetura internet
e seus protocolos com o modelo OSI, conforme se vê a seguir:
Saiba mais
A arquitetura Internet ou TCP/IP como uma estrutura de camadas não evoluiu ao longo dos
anos. A grande evolução que tivemos foram nos protocolos empregados.
Inicialmente, os protocolos da camada de aplicação eram concentrados nas aplicações
textuais, com um pequeno volume de informação a ser trocado, como o Serviço Web criado
por Sir Tim Berners-Lee, com foco em páginas textuais para troca de informações entre os
centros de pesquisa.
Hoje, os protocolos evoluíram significativamente para oferecer maior qualidade de serviço,
suporte ao tráfego de vídeo, segurança, transações financeiras, entre outros. Falando
novamente do Serviço Web, o protocolo HTTP evoluiu de um protocolo textual para binário,
a fim de dar suporte aos diversos usos do Serviço Web, como assistir a vídeos, CRMs, ERPs,
entre muitos outros sistemas complexos.
5. Diferente do modelo OSI, a arquitetura TCP/IP ou internet foi projetada utilizando quatro
camadas. Algumas funções das camadas do modelo OSI foram absorvidas, e podemos dizer
que a:
a) Camada de aplicação inclui as funções da camada de apresentação e sessão.
b) Camada de transporte inclui a função da camada de sessão.
c) Camada de enlace inclui a função da camada de rede.
d) Camada de aplicação inclui as funções da camada de sessão e transporte.
Comentário
Parabéns! A alternativa A está correta.
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html
Os projetistas da arquitetura TCP/IP não viram necessidade das camadas de apresentação e
sessão, por isso, resolveram não as utilizar. Quando fosse necessário, a camada de aplicação
ficaria incumbida de incluir as funções que fossem necessárias.
6. A arquitetura TCP/IP tem foco principal na definição dos protocolos que devem ser
empregados em cada uma das camadas. O conjunto de protocolos empregados é conhecido
como pilha de protocolos e podemos dizer que:
a) O protocolo IP é empregado na camada de rede e oferece um serviço com confiabilidade.
b) O protocolo TCP é empregado na camada de transporte e oferece um serviço com
confiabilidade.
c) O protocolo UDP é empregado na camada de rede e oferece o serviço de melhor esforço.
d) O protocolo IP é empregado na camada de aplicação e oferece um serviço de
configuração automática de estações.
Comentário
Parabéns! A alternativa B está correta.
Os serviços oferecidos pela camada de enlace permitem que os erros ocorridos no meio de
transmissão sejam identificados e tratados, descartando o quadro com erro ou identificando
o bit errado e corrigindo-o.
Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.
Quando realizamos uma compra com cartão de crédito ou débito em um estabelecimento
comercial, é fundamental a existência de uma rede de comunicação, já que ela será o
alicerce para execução da operação.
Ao inseri-lo na máquina de cartão, precisamos colocar uma senha para confirmar a
operação. Tal dado é inserido no sistema por meio de um software executado nesta
máquina.
resposta-Na camada de aplicação.
O software de aplicação, também conhecido como software aplicativo, é nossa interface
com o sistema (e, por consequência, com toda a rede de comunicação que suporta essa
operação). Portanto, sempre que houver um serviço na rede, virá à mente a interface com
ele.
Outros exemplos de softwares de aplicação:
Navegador web
Cliente de e-mail
Jogos executados em rede
Ressaltamos que a camada de aplicação é aquela de mais alto nível do modelo OSI, fazendo
a interface com os usuários do sistema e realizando as tarefas que eles desejam.
Arquiteturas de aplicações
Façamos a seguinte suposição: nosso objetivo é desenvolver uma aplicação a ser executada
em rede. Para criá-la, deve-se utilizar uma linguagem de programação que possua
comandos e/ou funções para a comunicação em rede.
Mas não basta conhecer uma linguagem de programação e suas bibliotecas. Antes disso, é
preciso definir qual arquitetura terá sua aplicação. Entre as mais conhecidas, destacam-se
as seguintes:
Cliente-servidor
Nesta arquitetura, há pelo menos duas entidades: um cliente e um servidor. O servidor
executa operações continuamente aguardando por requisições daquele(s).
Modelo de arquitetura cliente-servidor
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Servidor
Quando chega uma solicitação, o servidor pode:
Atender imediatamente caso esteja ocioso;
Enfileirar a solicitação para ser atendida mais tarde;
Gerar um processo-filho para o atendimento da solicitação;
Criar uma thread para esse atendimento.
Independentemente do momento em que uma solicitação é processada, o servidor, no final,
Vamos analisar esse processo no exemplo a seguir.
envia ao cliente uma mensagem contendo o resultado do processamento.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Você deseja fazer uma receita especial, descobrindo, em um site, aquele prato que gostaria
de preparar. Ao clicar em um link, ela irá aparecer. Para isso acontecer, o servidor web
(software servidor do site de receitas) fica aguardando as conexões dos clientes.
Quando você clica no link da receita, seu browser envia uma mensagem ao servidor
indicando qual delas você quer.
Ele faz então o processamento solicitado e devolve ao browser o resultado disso (sua
receita).
É muito importante compreender, de maneira prática, o funcionamento do processamento
de resultados.
É fundamental saber que...
Servidores desempenham uma função muito importante; por isso, há equipamentos
apropriados para eles, com MTBF alto e recursos redundantes.
O tipo de software instalado neste equipamento é o responsável por determinar se ele é cliente ou
servidor.
Além disso, um processo pode atuar simultaneamente como cliente e servidor.
Voltemos ao exemplo da aplicação web :
Quando seu browser solicita a receita ao servidor web, aquele está atuando como cliente e
este, como servidor.
Mas esse processo nem sempre é simples; afinal, a aplicação que executa no servidor web e
realiza o processamento solicitado pode precisar de uma informação armazenada em um
banco de dados externo.
Paraobtê-la, este servidor deve enviar uma mensagem ao servidor de banco de dados
solicitando aqueles de que necessita para continuar. Neste momento, ele atua como um
cliente do servidor de banco de dados.
Peer-to-peer
Enquanto existe uma distinção bem clara entre os processos que trocam informações na
arquitetura cliente-servidor, na peer-to-peer – também conhecida como arquitetura P2P –,
todos os processos envolvidos desempenham funções similares.
Em geral, nesses sistemas, os processos não são uma propriedade de corporações. Quase
todos os participantes (senão todos) são provenientes de usuários comuns executando seus
programas em desktops e notebooks.
Hospedeiro
Também conhecido como host, o hospedeiro é qualquer equipamento conectado à rede
capaz de trocar informações com outros equipamentos. Exemplos: computadores,
roteadores, impressoras de rede, smartphones etc.
Modelo de arquitetura peer-to-peer :
Na ordem, 1, 2 e 3, o fluxo de informações e como elas se organizam.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Vamos analisar os conceitos estudados na prática? Responda à questão a seguir.
Você conhece algum tipo de sistema de compartilhamento utilizado na internet? Em qual
tipo de arquitetura ele está fundamentado?
Resposta: Uma aplicação amplamente utilizada na internet é o sistema de compartilhamento
de arquivos BitTorrent.
Baseado na arquitetura peer-to-peer, este sistema permite que seus usuários compartilhem
arquivos sem haver a necessidade de eles estarem armazenados em um servidor.
1. Uma arquitetura amplamente utilizada no desenvolvimento de aplicações em rede é a
cliente-servidor. Sobre ela, responda:
a) Cabe ao servidor iniciar toda negociação com seus clientes.
b) Existe uma distinção bem clara entre clientes e servidores. Um processo não pode ser
cliente e servidor simultaneamente.
c) É a função desempenhada pelo software que determina se a entidade é cliente ou
servidor.
d) Quando chega uma requisição de um cliente, o sistema operacional deve iniciar a
execução do servidor.
Comentário
Parabéns! A alternativa C está correta.
O que determina se a função desempenhada pela entidade é de cliente ou de servidor é seu
comportamento definido pelo algoritmo executado, ou seja, pelo software.
2. Marque a afirmativa verdadeira no que se refere à arquitetura peer-to-peer:
a) Permite uma forma de armazenamento distribuída desde as informações do sistema.
b) Cada processo na arquitetura desempenha uma função bem definida e diferente das
funções dos demais processos.
c) Um dos maiores problemas é sua baixa escalabilidade.
d) A comunicação entre os processos deve ser intermediada por um servidor.
Comentário
Parabéns! A alternativa A está correta.
Na arquitetura peer-to-peer, todas as entidades desempenham a mesma função, possuindo
igual capacidade de armazenamento das informações do sistema. Dessa forma, uma
informação procurada pode estar com qualquer um dos participantes da rede, estando
distribuída por todo o sistema.
Protocolos da camada de aplicação
Conforme estudamos, é na camada de aplicação que são executados os processos dos
usuários. Nos processos em que eles interagem, realiza-se o que seus usuários esperam.
Porém, para que uma aplicação possa trocar dados com outra, é necessário definir um
protocolo de aplicação.
Mas o que é um protocolo da camada de aplicação?
Um protocolo de camada de aplicação define como processos de uma aplicação, que
funcionam em sistemas finais diferentes, passam mensagens entre si. Em particular, um
protocolo de camada de aplicação define:
• Os tipos de mensagens trocadas, por exemplo, de requisição e de resposta;
• A sintaxe dos vários tipos de mensagens, tais como os campos da mensagem e como
os campos são delineados;
• A semântica dos campos, isto é, o significado da informação nos campos;
• Regras para determinar quando e como um processo envia e responde mensagens.
Enquanto o algoritmo da camada de aplicação determina seu funcionamento no ambiente
local, o protocolo dela estipula tudo que é necessário para que aplicações em diferentes
hospedeiros possam trocar mensagens de maneira estruturada.
Os protocolos públicos da internet são especificados por RFCs. Desse modo, qualquer
pessoa é capaz de acessar as especificações de tais protocolos e implementar os próprios
softwares.
Para que possamos compreender melhor o funcionamento das camadas de aplicação,
analisaremos aquela aplicada na internet; afinal, trata-se de uma rede de abrangência
mundial presente no dia a dia de milhões de pessoas.
Camadas de aplicação na internet
Descreveremos a seguir o funcionamento de três importantes aplicações das camadas de
aplicação na internet:
HTTP (serviço web)
Definido pelas RFCs 1945 e 2616, o HTTP (hypertext transfer protocol) é o protocolo padrão
para transferência de páginas web na internet.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
javascript:void(0);
javascript:void(0);
Em 1991, a web foi idealizada no CERN como uma forma de fazer com que grupos de
cientistas de diferentes nacionalidades pudessem colaborar por meio da troca de
informações baseadas em hipertextos. Em dezembro daquele ano, foi realizada uma
demonstração pública na conferência Hypertext 91.
Como esse protocolo é constituído?
1- Uma página web típica é um documento em formato HTML que pode conter imagens e
outros tipos de objetos, como vídeos, texto, som etc.
Para exibir determinada página web, o usuário digita no browser o endereço no qual ela se
encontra (ou clica em um hiperlink para esta página), indicando o local em que deve ser
buscada. Para que uma página seja transferida do servidor até o browser, um padrão deve
ser seguido pelos softwares (cliente e servidor). Ele especifica como o cliente solicita a
página e o servidor a transfere para o cliente.
2- Esse padrão é o protocolo HTTP. A mensagem HTTP, por sua vez, é carregada pelo por
outro protocolo: TCP.
Uma interação entre cliente e servidor se inicia quando ele envia uma requisição a um
servidor. A solicitação mais comum consiste em:
• Enviar um texto em formato ASCII;
• Iniciar com a palavra GET;
• Inserir página solicitada, protocolo utilizado na transferência e servidor a ser
contatado.
Na prática
Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.
Para solicitar a página web da Organização das Nações Unidas utilizando o protocolo HTTP,
o browser estabelece uma conexão TCP com o servidor web situado no endereço
www.un.org e lhe envia a seguinte solicitação:
Como esse processo é organizado?
Ao receber a solicitação, o servidor busca a página web solicitada, a transfere para o cliente
e, após confirmada a entrega, encerra a conexão.
Como o HTTP utiliza o TCP, não é necessário se preocupar com questões de confiabilidade
na entrega dos dados. Ele é um protocolo em constante evolução, havendo atualmente
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
várias versões em uso. Por isso, o cliente deve informar a versão do protocolo a ser usado
quando solicita uma página web.
Correio eletrônico (e-mail)
Trouxemos um exemplo paraesclarecer essa questão:
Os primeiros sistemas de correio eletrônico foram concebidos como um simples sistema
voltado para a troca de arquivos. O destinatário da mensagem era especificado na primeira
linha do texto.
Bastava então que o sistema procurasse ali para quem a mensagem deveria ser entregue.
Porém, com o passar do tempo, surgiram novas necessidades que dificilmente eram
atendidas por ele.
Em 1982, ainda na era da ARPANET, foram publicadas as RFCs 821 e 822, definindo,
respectivamente, o protocolo de transmissão a ser utilizado e o formato da mensagem.
Entretanto, apesar de ambas resolverem o problema inicial a que se propunham, elas
especificavam que todo o texto deveria ser composto pelo código ASCII.
Tal restrição precisava ser resolvida para ser possível o envio de mensagens:
Como é construída a arquitetura do correio eletrônico?
A arquitetura do sistema de correio eletrônico é construída com base em dois agentes:
1. Do usuário;
2. De transferência de mensagens.
O agente do usuário é o programa que faz a interface do usuário com o sistema de correio
eletrônico.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
javascript:void(0);
javascript:void(0);
É por meio dele que o usuário:
Para entendermos melhor o assunto, analisaremos a seguir a comunicação entre Orlando e
Maria. Esse caso explicita uma arquitetura do sistema de correio eletrônico:
1-Orlando deseja enviar uma mensagem para Maria. Após a compor em seu agente do
usuário, ele solicita seu envio para ela.
2-A mensagem é enviada do agente do usuário de Orlando até seu agente de transferência
de mensagens, que a recebe, a analisa e, em seguida, a encaminha ao agente de Maria.
3-No destino, tal agente armazena as mensagens que chegam em um local conhecido como
caixa de mensagens (mailbox), cujo cada usuário do sistema possui uma caixa própria.
4-Quando Maria deseja ler suas mensagens, o agente do usuário dela se liga a seu agente de
transferência de mensagens e verifica quais estão armazenadas em sua caixa de mensagens.
Para concluirmos esse estudo, analisaremos importantes características dos protocolos
apresentados:
SMTP- O protocolo responsável pela transferência da mensagem até seu destino é o SMTP.
Definido pela RFC 5321, ele utiliza o protocolo de transporte TCP, obtendo, assim, a
garantia de que ela será entregue no destino sem erros.
O servidor SMTP aguarda por conexões de seus clientes. Quando uma conexão é
estabelecida, o servidor inicia a conversação enviando uma linha de texto na qual se
identifica e informa se está pronto (ou não) para receber mensagens. Se ele não estiver, o
cliente deverá encerrar a conexão e tentar novamente mais tarde.
Caso o servidor esteja acessível, o cliente precisa informar aos usuários a origem e o destino
da mensagem. Se o servidor considerar que se trata de uma transferência válida, sinalizará
para que ele a envie. Após o envio, o servidor confirma sua recepção e a conexão é
encerrada.
Exemplo:
Retomando o caso da comunicação anterior, podemos ver, na sequência apresentada
adiante, a conversação entre cliente e servidor para estabelecer a transferência da
mensagem de orlando@origem.net para maria@destino.net:
220 Protegido SMTP server
hello rayra.origem.net
250 Hello rayra.origem.net, pleased to meet you
mail from:
250 ... Sender ok
rcpt to: < maria@destino.net >
250 < maria@destino.net >... Recipient ok
data
354 Please start mail input.
subject: Teste de email
Primeira linha da mensagem de teste.
Segunda linha.
Quarta linha.
mailto:orlando@origem.net
mailto:maria@destino.net
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
mailto:maria@destino.net
mailto:maria@destino.net
.
250 Mail queued for delivery.
Entrega final
Quando uma mensagem chega ao servidor do destinatário, ela deve ser armazenada em
algum local para que possa ser acessada mais tarde (assim que o destinatário estiver on-
line). Este local é a caixa de mensagens.
Como o SMTP é responsável somente pela entrega da mensagem no servidor destino, isso
requer a utilização de outro protocolo de modo que o cliente possa buscar suas mensagens
no mailbox.
POP3 - A RFC 1939 estipula que o POP3 (post office protocol version 3) tem a finalidade de
fazer o download das mensagens que se encontram no mailbox do usuário para o sistema
local. Caso estejam neste sistema, ele pode utilizá-las em qualquer momento, mesmo sem
ter conexão com a internet.
O POP3 é implementado na maioria dos agentes de usuário. Basta configurar os parâmetros
de conta e senha do usuário para que o agente faça o download das mensagens. Ele permite
o download seletivo delas, assim como apagar as selecionadas no servidor.
IMAP - Assim como o POP3, o IMAP (internet message access protocol) permite que um
usuário tenha acesso às mensagens armazenadas em sua caixa. Porém, enquanto o POP3 é
baseado na transferência delas para o sistema local a fim de serem lidas, o IMAP consegue
permitir sua leitura diretamente no servidor, dispensando, portanto, a transferência para o
sistema local.
Isso será particularmente útil para usuários que não utilizarem sempre o mesmo
computador, pois isso permite que suas mensagens possam ser acessadas a partir de
qualquer sistema. Definido pela RFC 3501, o IMAP também fornece mecanismos para criar,
excluir e manipular várias caixas de correio no servidor.
DNS
A comunicação entre hospedeiros na internet ocorre por meio de endereços binários de
rede. Afinal, para se comunicar com um destino, o hospedeiro precisa conhecer seu
endereço.
Entretanto, é bem mais fácil trabalhar com nomes de hospedeiros do que com seus
endereços de rede. Além de ser muito difícil conhecer todos os endereços dos hospedeiros
com os quais precisamos trabalhar, precisaríamos ser notificados toda vez que algum deles
mudasse de endereço.
Para resolver esse problema, foi desenvolvido o domain name system (DNS). Sua finalidade
é a criação de um sistema de nomes de forma hierárquica e baseada em domínios. Para
acessar um hospedeiro, portanto, basta conhecer seu nome de domínio e fazer uma
consulta ao servidor DNS, que é responsável por descobrir seu endereço.
javascript:void(0);
javascript:void(0);
Quais são os serviços oferecidos por ele?
Além do mapeamento de nomes de hospedeiros em endereços IP, o DNS ainda provê:
• Identificação de servidores de correios eletrônicos;
• Apelidos para hospedeiros;
• Distribuição de carga;
• Descoberta de nomes de hospedeiros (mapeamento reverso).
Destacaremos a seguir importantes aspectos do DNS.
O espaço de nomes
O espaço de nomes do DNS é dividido em domínios estruturados em níveis. Confira a
organização do primeiro nível:
Os domínios genéricos informam o tipo de organização ao qual o domínio está vinculado.
Alguns exemplos são:
• .com = comercial;
• .edu = instituições educacionais;
• .int = algumas organizações internacionais;
• .org = organizações sem fins lucrativos.
Os domínios de países, por sua vez, possuem uma entrada para cada país. Alguns exemplos
são:
• .br = Brasil;
• .pt = Portugal;
• .jp = Japão;
• .ar = Argentina.
Cada domínio tem seu nome definido pelo caminho entre ele e a raiz, enquanto seus componentes
são separados por pontos.
Cada domínio controla como são criados seus subdomínios. Para a criação de um novo
domínio, é necessária apenas a permissão daquele no qual será incluído.
Não há qualquer restrição sobre a quantidade de subdomínios que podem ser criados
dentro de um domínio. Os nomes de domínio não fazem distinção entre letras maiúsculas e
minúsculas.
EDU e edu, por exemplo, são o mesmo.
Os nomes de componentes podem ter até 63 caracteres, enquanto os de caminhos
completos não podem ultrapassar os 255.
O DNS é implementado sobreo protocolo UDP (user datagram protocol). Trata-se de um
protocolo do nível de transporte que não garante a entrega dos dados no destino. Dessa
forma, cabe ao software DNS garantir uma comunicação confiável.
Resolução de Nomes
O espaço de nomes do DNS é dividido em zonas. Independentes, elas possuem um servidor
de nomes principal e pelo menos um de nomes secundário:
• Servidor de nomes principal: Configurado com as informações das zonas sob sua
responsabilidade, ele faz o repasse delas para os servidores de nome secundários;
• Servidor de nomes secundário: Responde pelas zonas caso haja uma falha do
servidor de nomes principal.
As zonas do DNS definem o que um servidor deve resolver. Se ele for o responsável pela
zona pesquisada (servidor autoritativo), deverá fazer a resolução solicitada.
• Três principais componentes do DNS:
1. Registros de recursos armazenados em um banco de dados distribuído;
2. Servidores de nomes DNS responsáveis pela manutenção de zonas específicas;
3. Solucionadores DNS em execução nos clientes.
• Solucionador X servidor DNS.
Quando um solucionador solicita a resolução de um nome para o servidor DNS, pode
acontecer o seguinte:
1. O servidor DNS é o responsável pela zona: O servidor resolve o nome solicitado e
o devolve ao solucionador;
2. O servidor DNS não é o responsável pela zona, mas possui a resolução em cache:
O servidor envia a resolução ao solucionador;
3. O servidor DNS não é o responsável pela zona nem possui a resolução em cache: O
servidor precisa realizar uma busca para resolver o nome.
Vamos entender como é feita a busca para a resolução do nome www.sus.gov.br:
A: Quando a aplicação do cliente solicita a resolução do nome www.sus.gov.br, o
solucionador envia a requisição para o servidor de nomes local, que é o responsável por
tratá-la até obter a resposta completa. Desse modo, ele não retorna respostas parciais para
o solucionador. A este tipo de consulta damos o nome de consulta recursiva.
B: No entanto, para obter a resposta completa, o servidor de nomes precisa realizar uma
série de iterações com outros servidores. Caso nenhuma informação parcial esteja em seu
cache, o servidor local primeiramente precisa descobrir quem é o servidor responsável por
resolver o domínio br.
C: Para isso, ele consulta um servidor de nomes raiz, que indica onde o servidor DNS de “br”
pode ser encontrado. O servidor local continua realizando consultas para resolver cada
domínio parcial até que haja uma resolução completa. Este tipo de consulta é conhecido
como consulta iterativa.
O excesso de consultas em um servidor DNS pode levar à sobrecarga.
Como evitar esse tipo de problema?
Os servidores devem evitar responder consultas recursivas de clientes não autorizados. Para
isso, os administradores de servidores DNS precisam configurar no servidor aqueles
autorizados a realizar consultas recursivas. Dessa forma, se houver a consulta de um que
não esteja, ela automaticamente será nega
1. Cabe ao protocolo da camada de aplicação definir como funcionam os processos de uma
aplicação. Nesse sentido, não é função dele definir:
a) Os tipos de mensagens trocadas.
b) O significado de cada campo do protocolo.
c) Quando um processo pode enviar e responder mensagens.
d) O endereço de rede do servidor.
Comentário
Parabéns! A alternativa D está correta.
Servidores de aplicações podem estar espalhados por todo o mundo, cada um deles com o
próprio endereço. Dessa forma, o protocolo da camada de aplicação não pode determinar
em qual endereço de rede o servidor está localizado.
2. Um sistema de correio eletrônico é um exemplo de sistema implementado com base em
uma série de protocolos. Dentre os protocolos a seguir, selecione o único que não é
utilizado pelos sistemas de correio eletrônico:
a) HTTP
b) SMTP
c) POP3
d) IMAP
Comentário
Parabéns! A alternativa A está correta.
O HTTP é o protocolo utilizado para transferência de páginas web. Ele não é usado como
protocolo de correio eletrônico.
ENVIAR
Graças a essa abordagem, podemos compreender os conceitos do protocolo TPC/IP, bem
como os exemplos práticos aplicados na camada de transporte. Além disso, percebemos a
importância da interface para esta camada.
Mas para que serve a camada de transporte?
Executadas na camada de aplicação, as aplicações precisam de um modelo de rede no qual
haja a entrega de uma mensagem (ou um fluxo de dados) tanto em um ponto de rede
quanto em sua aplicação par no hospedeiro destino.
O objetivo da camada de transporte é, independentemente das redes físicas em uso,
promover a confiabilidade na transferência de dados entre os hospedeiros origem e destino.
Como veremos no decorrer do nosso estudo, esta camada deve oferecer um serviço de
transferência confiável, embora caiba à aplicação decidir sobre o seu uso.
Serviço de transporte
Em uma arquitetura de camadas, podemos afirmar que o objetivo geral de uma camada é
oferecer serviços àquela imediatamente superior. No caso da camada de transporte, sua
pretensão é oferecê-los à de aplicação.
Como um dos principais objetivos da camada de transporte é ofertar um serviço confiável e
eficiente a seus usuários, ela precisa oferecer, no mínimo, um serviço orientado à conexão e
outro sem conexão.
Para atingir esse objetivo, a camada de transporte utiliza os serviços oferecidos pela de
rede. No serviço de transporte orientado à conexão (serviço confiável), existem três fases:
Por meio de um controle apurado da conexão, esse serviço de transporte consegue verificar
quais pacotes chegaram com erro ao destino e até mesmo aqueles que não foram enviados,
sendo capaz de retransmiti-los até que os dados estejam corretos.
Já no serviço de transporte sem conexão, não existe nenhum controle sobre os pacotes
enviados. Se um deles se perder ou chegar ao destino com erro, nada será feito para obter a
sua recuperação.
Se a rede oferece um serviço com que garanta uma entrega sem erros, por que uma aplicação
optaria por um serviço sem essa garantia?
A resposta é simples: por questões de desempenho.
Pelo fato de ser preciso cuidar de cada pacote no serviço orientado à conexão, verificando-
os e retransmitindo-os em caso de necessidade, esse controle gera um overhead. Como
nada disso é feito no serviço sem conexão, os pacotes são entregues no destino de forma
mais simples e rápida.
Aplicações como transferência de arquivos e e-mail exigem que seus dados cheguem ao
destino livres de erros. Dessa forma, elas utilizam um serviço orientado à conexão.
Ainda assim, em certas aplicações, o mais importante é a chegada a tempo de uma
informação, mesmo que ela contenha erros ou que a mensagem anterior tenha se
perdido.
No serviço de telefonia em rede, por exemplo, o atraso na transmissão tem um efeito pior
que um pequeno ruído causado pela eventual perda de pacote.
Endereçamento
Quando seu programa solicita algo a um servidor, o sistema envia uma mensagem para ser
entregue à aplicação que executa em um hospedeiro remoto. Mas podem existir várias
aplicações nele.
Como identificamos uma aplicação específica?
Surge neste momento o endereçamento no nível de transporte. Sua função é identificar em
qual aplicação determinada mensagem deve ser entregue. Afinal, toda mensagem do
protocolo de transporte carrega o endereço da aplicação.
Verificaremos agora a importância do endereçamento no nível de transporte. Afinal, é
necessário indicar em qual aplicação os dados devem ser entregues por meio de seu
endereço (de transporte). Assim, o hospedeiro destino consegue saber o destino deles.
Estudaremos mais adiante TCP e UDP, dois protocolos da camada de transporte da
arquitetura TCP/IP. Neles, o endereço de transporte é conhecido como porta.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/1
Como a aplicação do hospedeiro 1 sabe em que endereço de transporte se encontra o
servidor no 2? Uma possibilidade é que:
• Ele esteja associado ao endereço há anos;
• Aos poucos, todos os usuários da rede tenham se acostumado com isso.
2
Neste modelo, os serviços possuem endereços estáveis que podem ser impressos e
distribuídos aos novos usuários quando eles se associam à rede.
Multiplexação e demultiplexação
A multiplexação e a demultiplexação fornecem um serviço de entrega processo a processo
para aplicações executadas nos hospedeiros.
No hospedeiro destino, a camada de transporte recebe segmentos de dados da camada de
rede, tendo a responsabilidade de entregá-los ao processo de aplicação correto.
Como o hospedeiro destino direciona à porta correta um segmento que chega?
Para essa finalidade, cada segmento da camada de transporte tem um conjunto de campos
de endereçamento no cabeçalho. No receptor, a camada de transporte examina esses
campos para identificar a porta receptora e direcionar o segmento a ela. A tarefa de
entregar os dados contidos em um segmento para a porta correta é denominada
demultiplexação.
Já a multiplexação consiste no trabalho de, no hospedeiro origem:
• Reunir porções de dados provenientes de diferentes portas;
• Encapsular cada porção de dados com as informações de cabeçalho (as quais, mais
tarde, serão usadas na demultiplexação) para criar segmentos;
• Passar os segmentos para a camada de rede.
Vamos pensar no computador que Eduardo utiliza em suas atividades.
Navegando na web, ele acessa seu e-mail e faz o download de arquivos usando um
programa específico para isso.
De fato, o objetivo da multiplexação é possibilitar uma melhor utilização do meio de
comunicação ao permitir que ele seja compartilhado pelos diversos programas utilizados.
Eduardo utiliza a internet, cujo protocolo de transporte é o TCP.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Todos os programas operados por ele (browser web, cliente de e-mail e programa de
transferência de arquivos) utilizam o TCP, que fará a transferência da informação até o
destino.
A multiplexação, portanto, permite que vários programas possam utilizar o TCP ao mesmo
tempo, fazendo, assim, com que Eduardo possa ter tantos programas quanto queira ao
acessar a rede.
Como o TCP sabe quem é quem?
Para fazer uso dele, um processo deve se registrar em uma porta (endereço de transporte)
do protocolo TCP. Servidores possuem portas conhecidas, mas programas clientes se
registram nas aleatórias.
Vamos supor que os programas de Eduardo se registraram nas seguintes portas:
Browser web = 11278
Cliente de e-mail = 25786
Transferência de arquivos = 3709
Dessa maneira, o TCP pode identificar cada uma. Quando o browser envia uma solicitação a
um servidor web, o TCP coloca na informação enviada o número de porta 11278. O servidor,
portanto, já sabe que deve responder-lhe enviando a resposta para esta porta.
Observemos, por fim, a multiplexação e a demultiplexação na prática:
Multiplexação
Ao receber mensagens das aplicações para envio, o protocolo de transporte as identifica por
seus respectivos números de porta, permitindo, assim, que várias aplicações possam utilizá-
los ao mesmo tempo.
Demultiplexação
Quando recebe as mensagens do hospedeiro remoto para entregá-las em cada aplicação, o
protocolo de transporte verifica o número da porta destino que a mensagem carrega e a
entrega para o processo registrado nela.
1. Para qual das aplicações a seguir é recomendado o uso de um serviço de transporte sem
conexão?
a) Telefonia
b) Correio eletrônico
c) Serviço web
d) Transferência de arquivos
Comentário
Parabéns! A alternativa A está correta.
No serviço de telefonia, uma eventual tentativa de correção de erros provocaria atraso na
chegada da fala de uma pessoa em seu destino. Atrasos são muito prejudiciais neste tipo de
serviço, pois os interlocutores se confundem quando ocorrem defasagens entre a
transmissão e a recepção da mensagem.
2. O endereçamento no nível de transporte é importante para a realização de:
a) Identificação do hospedeiro
b) Correção de erros
c) Encerramento da conexão
d) Demultiplexação
Comentário
Parabéns! A alternativa D está correta.
Como a camada de transporte precisa identificar a qual dos processos da camada de
aplicação ela deve entregar os dados que chegam, são definidos campos de endereçamento
de transporte para a identificação desses processos. Dá-se o nome de demultiplexação à
identificação e ao envio de informações para o processo correto.
Protocolos de transporte da internet
Agora que já estudamos os serviços que um protocolo de transporte deve oferecer,
apresentaremos casos reais de protocolos utilizados em redes de computadores. Para isso,
vamos utilizar como exemplo os protocolos de transporte da internet: TCP e UDP.
Iniciaremos nosso estudo pelo UDP. Mesmo sendo um protocolo simples, ele se revela
bastante eficiente, principalmente no quesito agilidade de entrega, quando a aplicação
requer uma entrega rápida.
Em seguida, nos debruçaremos sobre o TCP. Protocolo de transporte completo, ele é capaz
de garantir a entrega de mensagens livres de erros, não importando a qualidade da rede em
que ele trabalha.
Por fim, apontaremos alguns exemplos de portas, um mecanismo que permite que as
aplicações serem encontradas pela internet.
UDP
O protocolo de transporte mais simples que poderia existir seria aquele que, no envio, se
limitasse a receber mensagens da camada de aplicação e as entregasse diretamente na de
rede. Na recepção, ele, por outro lado, receberia os pacotes da camada de rede e os
entregaria na de aplicação. Este tipo de protocolo, em suma, não efetua nenhum trabalho
para garantir a entrega das mensagens. Felizmente, o UDP não se limita a isso.
Os campos porta origem e porta destino têm a função de identificar os processos nas
máquinas origem e destino. Quando uma aplicação A deseja enviar dados para uma B, o
UDP coloca o número da porta da aplicação origem (A) no campo “porta origem” e o de
porta da aplicação (B) em “porta destino”.
Quando a mensagem chega ao destino, o UDP pode entregá-la para a aplicação correta por
meio do campo “porta destino”. Já a “porta origem” é importante para a aplicação que
recebe a mensagem, pois ela torna possível saber o número da porta para a qual a resposta
deve ser enviada. É por meio desses campos que o UDP realiza a multiplexação e a
demultiplexação.
O campo tamanho especifica o tamanho do segmento, incluindo o cabeçalho. Como se trata
de um campo de 16 bits, isso significa que o maior segmento UDP será de:
216 = 65.536 bytes (64 KBytes)
O campo soma de verificação tem a função de garantir que a mensagem chegue ao destino
livre de erros. Para tanto, o UDP calcula o CRC dela e o envia neste campo. No destino, o
CRC é novamente calculado e comparado. Se ambos forem iguais, a mensagem é
considerada livre de erros e entregue na aplicação destino.
Caso haja alguma divergência no valor do CRC, o segmento normalmente é descartado,
porém algumas implementações permitem – acompanhadas de uma mensagem de aviso – a
entrega dele com erro.
O UDP é um protocolo sem estado e não orientado à conexão. Descrito pela RFC 768, ele é
projetado tanto para pequenas transmissões de dados quanto para aqueles que não
requerem um mecanismo de transporte confiável.
Apesar de o UDP não oferecer uma confiabilidade nas transmissões, isso não significa que
aplicações que o utilizam não possam ter uma garantia de entrega.
Protocolos de aplicações que utilizam o UDP:
DNS
SNMP
TFTP
RPC
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/javascript:void(0);
TCP
Enquanto o UDP é um protocolo de transporte simples, voltado para aplicações que não
necessitam de confiabilidade na transmissão, o TCP é um orientado à conexão, sendo
indicado para aplicações que precisam trocar uma grande quantidade de dados por meio de
uma rede com múltiplos roteadores.
O TCP oferece um fluxo de bytes fim a fim confiável, podendo ser utilizado, inclusive, em
redes de baixa confiabilidade. Na transmissão, ele aceita fluxos de dados da aplicação:
dividindo-os em partes de, no máximo, 64 KBytes, ele envia cada uma em um datagrama IP
distinto. Quando os datagramas IP com dados TCP chegam ao hospedeiro destino, eles são,
em seguida, enviados à entidade TCP, que restaura o fluxo de dados original.
A camada de rede (protocolo IP) não oferece nenhuma garantia de que os datagramas serão
entregues corretamente. Portanto, cabe ao TCP administrar os temporizadores e
retransmitir os datagramas sempre que for necessário.
Os datagramas também podem chegar fora de ordem, cabendo a ele reorganizá-los em
mensagens na sequência correta. O TCP deve fornecer a confiabilidade que o IP não
oferece.
O TCP é definido pelas seguintes RFCs:
793
2018
1122
2581
1323
Modelo de serviço TCP
O serviço TCP é obtido quando tanto o transmissor quanto o receptor criam pontos
terminais; denominados portas, eles são identificados por um número de 16 bits. É
necessário que uma conexão seja explicitamente estabelecida entre um hospedeiro
transmissor e um receptor.
Todas as conexões TCP são:
Full-duplex
Dados podem ser enviados e recebidos por ela simultaneamente. Uma linha telefônica é um
exemplo de sistema full-duplex, pois permite que dois interlocutores falem de forma
simultânea. O walkie-talkie, no entanto, é diferente: como tal equipamento está no modo
de transmissão ou no de recepção, ele nunca consegue transmitir e receber ao mesmo
tempo.
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Ponto a ponto
Interliga diretamente dois hospedeiros, não permitindo a participação de um terceiro na
conversação. Exemplo: quando ligamos um smartphone a um computador por meio de seu
cabo de dados, ocorre uma ligação ponto a ponto, pois somente eles podem utilizar esse
meio (cabo de dados) para a troca de informações.
Do ponto de vista da aplicação, uma conexão consiste em dois fluxos independentes de
direções opostas. Uma conexão TCP é um fluxo de dados, e não de mensagens. Isso
significa que as fronteiras das mensagens não são preservadas de uma extremidade à outra.
Quando uma aplicação passa dados para a entidade TCP, ela pode enviá-los imediatamente
ou armazená-los em um buffer de acordo com suas necessidades.
As entidades TCP transmissoras e receptoras trocam dados na forma de segmentos. Um
segmento consiste em um cabeçalho fixo de 20 bytes mais uma parte opcional, seguido de
zero ou mais bytes de dados. O software TCP decide qual deve ser o tamanho dos
segmentos, podendo:
-Acumular dados de várias escritas em um único segmento.
- Dividir os dados de uma única escrita em vários segmentos.
O protocolo básico utilizado pelas entidades TCP é o de janela deslizante. Quando envia um
segmento, o transmissor dispara um temporizador. Assim que ele chega ao destino, a
entidade TCP receptora retorna um segmento (com ou sem dados segundo as
circunstâncias) com um número de confirmação igual ao próximo número de sequência que
ela espera receber. Se o temporizador do transmissor expirar antes de a confirmação ser
recebida, o segmento será retransmitido.
Dessa forma, caso um segmento chegue ao destino e apresente erro em sua soma de
verificação, o TCP simplesmente o descarta. Como não haverá confirmação de recebimento
neste caso, a entidade TCP do transmissor entenderá que o segmento não chegou ao
destino e providenciará sua retransmissão.
Cabeçalho de segmento TCP
Cada segmento TCP começa com um cabeçalho de formato fixo – podendo ser seguido por
opções de cabeçalho – de 20 bytes. Depois das opções, é possível haver 65.515 bytes de
dados.
Gerenciamento de conexão TCP
As conexões estabelecidas no TCP utilizam um esquema conhecido como three way
handshake. Para estabelecer uma conexão, um lado aguarda passivamente, enquanto o
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
outro solicita uma especificando o endereço de rede (endereço IP) e a porta com a qual
deseja se conectar.
É enviado então um segmento TCP com o bit SYN ativado e o bit ACK desativado. Quando
ele chega ao destino, a entidade TCP do destino verifica se existe um processo aguardando
na porta destino. Se não existir, ela enviará uma resposta com o bit RST ativado para rejeitar
a conexão.
No entanto, se algum processo estiver na escuta dessa porta, a ele será entregue o
segmento TCP recebido. Em seguida, tal processo poderá aceitar ou rejeitar a conexão. Se
ele aceitar, um segmento de confirmação será retornado.
Apesar de conseguir fazer esse transporte, ACK só consumirá tal número quando ele surgir.
Portas conhecidas
Para que uma aplicação possa acessar outra remota, é necessário conhecer o endereço do
hospedeiro no qual ela se encontra. Ele serve, portanto, para que se consiga chegar ao
hospedeiro remoto.
Como o protocolo de transporte do destino consegue saber para qual de suas aplicações
deve entregar a mensagem? A resposta é o conceito de porta, que é responsável por
identificar a aplicação no destino.
Como podemos identificar a porta utilizada pela aplicação?
1-Empregar um sistema no qual a aplicação é registrada toda vez que inicializa para o cliente
poder consultar sua porta.
2-Usar sempre o mesmo endereço de forma que as aplicações a iniciarem a conversação
saibam de antemão com qual endereço trocar mensagens.
Uma porta TCP ou UDP é identificada por um número inteiro de 16 bits.
Para que um pacote chegue à aplicação de destino, é necessário que o transmissor saiba, de
alguma forma, em que porta a aplicação está esperando a chegada do pacote. Para facilitar
o trabalho dele, algumas aplicações esperam seus pacotes sempre em uma mesma porta: a
“porta conhecida” da aplicação.
Atenção!
A RFC 3232 define um repositório on-line no qual podem ser consultadas as portas
conhecidas. No momento da criação deste documento, o repositório on-line estava definido
como service name and transport protocol port number registry.
javascript:void(0);
Esta tabela mostra as portas reservadas para algumas aplicações:
PORTA APLICAÇÃO
7 echo
20 ftp-data
21 ftp
22 ssh
23 telnet
25 smtp
53 domain
69 tftp
80 http
110 pop-3
119 nntp
161 snmp
162 snmp-trap
443 https
1. Sobre o protocolo UDP, marque a resposta correta.
a) Verifica se a mensagem contém erros antes de entregá-la à aplicação destino.
b) Garante a entrega da mensagem no destino.
c) Não realiza a multiplexação e a demultiplexação.
d) Não limita a quantidade máxima de dados que um segmento pode transportar.
Comentário
Parabéns! A alternativa A está correta.
A camada de transporte deve oferecer confiabilidade na entrega das mensagens. Apesar de
ser um protocolo que não garante a entrega dos dados, o UDP procura os erros para
garantir, pelo menos, a entrega de uma mensagem sem a presença deles.
2. No protocolo TCP, o campo número de confirmação carrega:
a) O número do último byte recebido com sucesso.
b) O número do próximo byte esperado no sentido contrário.
c) Uma solicitação para o receptor confirmar os dados recebidos.
d) A quantidade de confirmações pendentes.
Comentário
Parabéns! A alternativa B está correta.
O número de confirmação é a forma como o protocolo TCP faz para indicar quantos bytes
foramrecebidos com sucesso. Ele carrega o número no próximo byte esperado no sentido
contrário, indicando, dessa maneira, que todos os bytes anteriores já foram recebidos
corretamente.
Camada de rede
DEFINIÇÃO
Apresentação da camada de rede do modelo OSI e o seu relacionamento com as camadas
superior e inferior, bem como a sua implementação na Arquitetura TCP/IP (arquitetura
utilizada na Internet).
PROPÓSITO
Reconhecer o funcionamento da camada de rede para o desenvolvimento de aplicações
modernas que tenham como requisito a comunicação em rede; realizar um endereçamento
uniforme permitindo que equipamentos e aplicações possam trocar informações.
No Modelo OSI, a camada de rede situa-se logo acima da camada de enlace, utilizando os
serviços oferecidos por esta camada.
A camada de enlace tem como objetivo organizar a comunicação em nível de enlace, ou
seja, ela deve garantir que um hospedeiro consiga se comunicar com o hospedeiro vizinho.
O objetivo da camada de rede é, a partir deste serviço de comunicação lado a lado,
promover uma comunicação de âmbito global, permitindo que a informação que sai de um
hospedeiro chegue a seu destino não importando em qual local da rede esteja este destino.
Para isso, ele deve realizar duas grandes funções: definir um esquema de endereçamento
que seja aceito por toda a grande rede, e realizar o roteamento .
CONCEITOS BÁSICOS DA CAMADA DE REDE
A quantidade máxima de dados que podem ser trocados entre entidades da camada de rede
possui um tamanho limitado. Para que as mensagens maiores que o limite possam ser
trocadas entre aplicações, a camada de transporte deverá segmentar tais mensagens em
partes menores e colocar cada segmento em uma unidade de dados da camada de rede.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
ESTA UNIDADE DE DADOS TROCADA ENTRE ENTIDADES DA CAMADA DE REDE RECEBE A
DENOMINAÇÃO DE PACOTE.
A camada de rede cuida da transferência de pacotes desde a origem até seu destino. Em
uma grande rede, isso significa que estes pacotes podem necessitar passar por vários meios
de comunicação e diferentes roteadores até que possam ser entregues.
comentário
É um trabalho diferente daquele realizado pela camada de enlace, que necessita apenas entregar a
informação na outra extremidade do meio de transmissão.
A camada de enlace de dados cuida apenas da comunicação de um hospedeiro com outro que esteja
diretamente conectado a ele por intermédio de um meio de comunicação. Já a camada de rede é a
camada de mais baixo nível que lida com a comunicação fim a fim.
Para conseguir realizar esta comunicação a camada de rede deve:
• Conhecer toda a topologia da sub-rede de comunicação.
• Escolher rotas que evitem sobrecarregar partes da rede enquanto outras ficam
ociosas.
• Compatibilizar a comunicação entre os diferentes tipos de sub-redes existentes.
Na origem, a camada de rede cria um pacote com dados provenientes da
camada superior e acrescenta a ele um cabeçalho com informações de
endereço origem e destino. Em sistemas com mais de uma interface de rede
deve também consultar suas tabelas de repasse para determinar por qual
interface o pacote deve ser encaminhado.
Nos hospedeiros intermediários, a camada de rede deve receber o pacote,
consultar suas tabelas de roteamento e enviar o pacote pela interface de rede
apropriada.
No destino, a camada de rede deve verificar se o endereço destino do pacote é
o mesmo do hospedeiro e, caso seja, entregar o pacote à camada superior
(camada de transporte).
COMUTAÇÃO DE PACOTES STORE AND FORWARD
Neste momento você deve estar se perguntando como o pacote vai da origem
até o destino. Diretamente? Saltando de hospedeiro em hospedeiro?
Lembre-se de que, no modelo OSI, uma camada utiliza os serviços da camada
imediatamente inferior para realizar seus trabalhos e oferecer serviços para a
camada superior. Assim, um hospedeiro com um pacote a enviar, o transmite
para o roteador mais próximo. O pacote é então totalmente recebido pelo
roteador e, após ter chegado por completo, é conferido. Em seguida, ele é
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
encaminhado para o próximo roteador ao longo do caminho até alcançar o
hospedeiro de destino, onde é entregue. Esse mecanismo que tem como base
armazenar totalmente o pacote antes de enviá-lo ao próximo hospedeiro é
conhecido como comutação de pacotes store and forward.
Confira esse passo a passo na imagem abaixo:
Repasse
Um roteador é um equipamento que possui, normalmente, várias interfaces de rede.
Quando um pacote chega por uma de suas interfaces, o roteador deve verificar o destino
deste pacote e decidir por qual de suas linhas o pacote deve ser enviado para que consiga
chegar ao destino. Chamamos de repasse o trabalho (local) de escolher por qual das
interfaces deve seguir o pacote que chega.
Roteamento
O repasse refere-se a uma ação realizada localmente por um roteador sobre um pacote que
chega, enquanto o roteamento a uma ação global envolvendo todos os roteadores de uma
sub-rede para a escolha do melhor caminho.
Você já deve ter percebido que existe uma relação bastante próxima entre
repasse e roteamento, mas como é esta relação?
Vamos iniciar pelos algoritmos de roteamento. Para escolher a melhor rota,
um conjunto de roteadores precisa trocar informações sobre a situação da
rede em sua vizinhança, de modo que os roteadores do conjunto possam
decidir sobre o caminho a ser seguido em cada situação. Diferentes algoritmos
com diferentes propriedades podem ser utilizados nesta tarefa.
Como funcionam esses algoritmos e de que forma eles se diferenciam,
estudaremos adiante. Por ora, o importante é que existem algoritmos capazes
de encontrar o melhor caminho em uma rede.
O mesmo algoritmo é então executado nos roteadores da sub-rede, trocando
informações de tráfego e calculando a melhor rota. Uma vez calculadas as
rotas para cada destino, os algoritmos de roteamento criam as chamadas
tabelas de repasse, as quais são indexadas pelos possíveis endereços destino
de um pacote e indicam a interface pela qual o pacote deve ser enviado com
base em seu endereço destino.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-01
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-02
Ao chegar um pacote em um roteador, e sendo necessário fazer seu repasse, o
processo responsável por esta função verifica o endereço de destino do
pacote, consulta a tabela de repasse utilizando o endereço destino como
índice e obtém a interface pela qual o pacote deve seguir. Resumidamente, as
tabelas de repasse são montadas pelos algoritmos de roteamento e
consultadas pelo processo de repasse para determinar por qual interface deve
seguir um pacote que chega.
CIRCUITOS VIRTUAIS E DATAGRAMAS
Há basicamente duas formas para a organização da camada de rede de uma sub-rede: uma
utilizando conexões e a outra trabalhando sem conexão. Na camada de rede, um serviço
orientado à conexão costuma ser chamado de circuito virtual, enquanto um serviço que
realiza a entrega de pacotes independentes, sem conexão, costuma ser chamado de serviço
de datagramas.
A camada de transporte também ofereceserviços com conexão e sem conexão, mas estes
se diferem dos serviços oferecidos pela camada de rede.
Comentário
Pensando na arquitetura TCP/IP, a camada cliente da camada de transporte é a camada de
aplicação, portanto, o serviço de transporte com conexão é um serviço aplicação a
aplicação, ou seja, uma conexão de transporte conecta diretamente duas aplicações. Já a
camada de rede é voltada para a interligação de hospedeiros, logo, uma conexão da camada
de rede é uma conexão hospedeiro a hospedeiro.
Circuitos virtuais
A ideia dos circuitos virtuais é evitar a necessidade de escolher uma nova rota para cada
pacote que passa, sendo por isso utilizado em sub-redes com serviço de rede orientado à
conexão. Ao se estabelecer uma conexão, é criada uma rota entre o hospedeiro origem e o
hospedeiro destino como parte do estabelecimento da conexão. Essa rota é utilizada por
todo o tráfego que flui pela conexão entre os hospedeiros. Quando a conexão é liberada o
circuito virtual deixa de existir.
Um circuito virtual (CV) consiste em:
Considere a rede da figura a seguir. Os números em cada extremidade dos
enlaces representam o número da interface do comutador naquele enlace.
• Um caminho definido entre origem e destino;
• Números de identificação de circuitos virtuais, um para cada enlace ao longo do
caminho; e
• Registros em tabelas de comutadores ao longo do caminho.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Considere a rede da figura a seguir. Os números em cada extremidade dos
enlaces representam o número da interface do comutador naquele enlace.
O hospedeiro H1 solicita à rede que estabeleça um circuito virtual até o
hospedeiro H2, e a rede estabelece o caminho H1-A-B-E-F-H2, atribuindo
respectivamente os seguintes circuitos virtuais: 23, 8, 37, 22, e 16 (numerações
aleatórias).
Com base nestas informações são montadas as seguintes tabelas de repasse
em cada um dos comutadores ao longo do caminho:
Sempre que um novo circuito virtual (CV) é estabelecido através de um
comutador, um registro para este CV é adicionado à tabela do comutador. De
forma análoga, sempre que um CV termina, suas informações são removidas
das tabelas do comutador ao longo do percurso.
A utilização de diferentes identificadores para os CVs, ao longo do caminho,
simplifica o trabalho, uma vez que, a utilização de um mesmo CV durante todo
o trajeto iria requerer a concordância de todos os comutadores participantes
da rota. O importante para que os comutadores possam definir o caminho é
que o número de saída do CV de um comutador seja o mesmo número de
entrada do CV do comutador seguinte.
No exemplo, o circuito estabelecido entre os comutadores E e F possui CV 22
(o CV 22 sai pela linha 3 de E e entra como CV 22 pela linha 1 de F). Da mesma
forma, o CV entre A e B possui valor 8 e o CV entre B e E possui valor 37.
Reveja as figuras com os circuitos em destaque.
Ao estabelecer um caminho desta forma, é como se fosse colocado um circuito
físico (como um cabo de rede) ligando diretamente os hospedeiros, por isso o
nome circuito virtual.
Outra característica da rede de circuitos virtuais é que, como os pacotes
seguem sempre pelo mesmo caminho, eles chegam ao destino na mesma
ordem em que saíram da origem.
Existem 3 fases que podem ser identificadas em um circuito virtual:
- Estabelecimento do CV
Nesta fase os comutadores estabelecem os parâmetros da conexão e o
caminho pelo qual os pacotes irão seguir durante a fase de transferência de
dados.
- Transferência de dados
Fase seguinte ao estabelecimento do CV, durante a qual ocorre a transferência
de pacotes desde a origem até o destino. Todos os pacotes seguem pelo
caminho definido durante a fase de estabelecimento do CV.
- Encerramento do CV
Fase na qual o circuito virtual é desfeito. Necessária para que os comutadores
sejam avisados do encerramento e possam retirar de suas tabelas as
informações sobre o circuito virtual encerrado.
Datagramas
Em uma sub-rede de datagramas, nenhuma rota é previamente definida. Ao
ser transmitido, um pacote passa por uma série de roteadores, e cada
roteador, ao longo do caminho, utiliza o endereço destino para determinar por
qual interface de saída enviar o pacote (realiza o repasse).
Como não há estabelecimento de circuitos para as transferências, os
roteadores, ao longo do caminho, deverão manter tabelas de repasse
baseadas no endereço destino do pacote, qualquer que seja o destino.
Significa dizer que, se as tabelas de repasse forem alteradas durante uma
transferência, os datagramas de uma mensagem podem fazer caminhos
diferentes até o destino.
Suponha que você esteja assistindo a um filme pela rede e que o vídeo seja
enviado até seu equipamento por uma sub-rede de datagramas. Parece real?
Sim, é real. Atualmente, assistimos a filmes pela Internet e ela é uma rede de
datagramas.
O filme possui cerca de 90 minutos. Será que as rotas de uma rede mudam
durante 90 minutos? Sim, essa é uma possibilidade. Isso significa que, em
determinado momento, as tabelas de repasse mudarão, então, os datagramas
passarão a fazer outro caminho até chegarem em seu equipamento. Assim,
vemos que, ao contrário dos circuitos virtuais, os pacotes em uma rede de
datagramas não seguem sempre pelo mesmo caminho.
Por que a rota é alterada?
Uma possibilidade é que os pacotes estavam passando por uma região que ficou
sobrecarregada, e os roteadores descobriram uma outra região com melhores condições de
tráfego, preferindo enviar os pacotes por essa nova região. Uma consequência disso é que
os primeiros pacotes que estão seguindo pelo novo caminho podem chegar ao destino antes
de alguns dos pacotes que seguiram pelo caminho antigo.
Assim sendo, existe a possibilidade de que alguns pacotes cheguem ao destino fora de
ordem.
Os problemas que podem acontecer em uma rede de datagramas são:
-A perda de datagramas
-Datagramas chegarem com erro
-Datagramas chegarem fora de ordem
-Datagramas serem duplicados
ENDEREÇAMENTO
Alguns tipos de rede permitem que sejam criados vários endereços por
hospedeiro, enquanto outros tipos de rede permitem a utilização de apenas
um por hospedeiro. Porém, qualquer que seja o tipo de rede, o
endereçamento deve ser completamente independente do endereçamento
dos protocolos de outras camadas. A camada de rede tem a função de unificar
toda a comunicação da rede, portanto ela deve definir uma forma de
identificação dos hospedeiros que seja aceita por toda a rede.
Basicamente dois tipos de endereçamento são possíveis:
Endereçamento hierárquico
No endereçamento hierárquico, o endereço de uma entidade é constituído de acordo com
os endereços correspondentes aos vários níveis da hierarquia da qual faz parte. O endereço
hierárquico é o método sugerido pelo ITU-T para interconexão de redes públicas de
telefonia. Nessa recomendação, os endereços são números decimais formados por três
campos: um código do país, um código para a rede, e um campo para o endereçamento
dentro da rede.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse02-01
Observação: Setor da ITU (International Telecommunication Union) responsável pela
elaboração de padrões e normas consensuais sobre tecnologia que garantam o
funcionamento, a interoperabilidade e a integração dos sistemas de comunicação em todo o
mundo, com a finalidade de facilitar o acesso das indústrias aos diferentes mercados de
cada país.
Endereçamento horizontal
No endereçamento horizontal, os endereços não têm relação alguma com o lugar onde
estão as entidades dentro da rede. Um exemplo comum desse tipo de endereçamento são
os endereços utilizados nas placas de rede ethernet, que são gravados durante seu processo
de fabricação e será sempre o mesmo,não importando em qual lugar do mundo a placa seja
utilizada.
Observação: Placas de rede ethernet é um dispositivo de hardware que permite a ligação de
um computador a uma rede de computadores padrão ethernet.
Considerações sobre o roteamento indicam vantagens na utilização de
endereçamento hierárquico, uma vez que este contém informações explícitas
sobre o local onde se localizam as entidades. Já o endereçamento horizontal
permite uma mobilidade das entidades sem reconfiguração.
Apesar do endereçamento universal ser realizado pela camada de rede, o
envio dos pacotes é realizado por camada inferior que possui seu próprio
esquema de endereçamento específico da tecnologia da rede física em uso.
Ocorre, portanto, um mapeamento entre os endereços físicos e de rede, e esta
tarefa deve ser realizada pela camada de rede. Existem duas técnicas usuais
para essa conversão: resolução através de mapeamento direto e resolução
através de vinculação dinâmica.
Mapeamento direto A estação sabe como computar o endereço
de enlace por intermédio de uma função
que mapeia o endereço de rede no
endereço de enlace. Por exemplo, o
endereçamento hierárquico onde o campo
de endereçamento dentro da rede
corresponda exatamente ao endereço físico
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse02-02
da estação. Conversões mais complexas
podem ser realizadas através de tabelas de
conversão e técnicas de acesso rápido a
estas tabelas.
Vinculação dinâmica Para evitar o uso de tabelas de conversão,
uma vinculação dinâmica pode ser efetuada
entre o endereço de rede e o físico por
intermédio da utilização de algum
protocolo de resolução. A exemplo, temos
o protocolo ARP, o qual estudaremos mais
adiante.
1. Quando um pacote chega para ser encaminhado por um roteador, o processo
responsável pelo repasse deve:
a) Consultar outros roteadores para determinar a interface de saída a ser utilizada.
b) Decidir pela interface de saída com base no endereço origem do pacote.
c) Montar a tabela de repasse com base nos dados obtidos pelo algoritmo de roteamento.
d) Escolher a interface de saída com base em sua tabela de repasse.
Comentário
Parabéns! A alternativa D está correta.
O algoritmo de roteamento de um roteador troca constantemente informações com outros
roteadores sobre o estado da rede e, com base nestas informações, monta a tabela de
repasse que determina por qual interface deve seguir um pacote que chega. Quando o
pacote chega, cabe ao processo de repasse apenas consultar a tabela de repasse que
definirá por qual interface o pacote deve seguir.
2. Em uma rede de circuitos virtuais:
a) A identificação do circuito virtual permanece a mesma ao longo de todo o caminho.
b) Os pacotes sempre chegam ao destino na ordem em que foram enviados.
c) A rota é definida pelos comutadores antes mesmo do estabelecimento da conexão.
d) A rota pode ser alterada se o algoritmo de roteamento encontrar um caminho melhor.
Comentário
Parabéns! A alternativa B está correta.
Em uma rede de circuito virtual, a rota a ser seguida pelos pacotes é definida no momento
do estabelecimento da conexão e nunca muda. Como os pacotes seguem sempre pelo
mesmo caminho, eles mantêm a posição um em relação ao outro, chegando ao destino na
mesma ordem em que foram enviados.
A CAMADA DE REDE NA INTERNET
Na camada de rede, a Internet pode ser vista como um conjunto de sub-redes
ou Sistemas Autônomos (SA) conectados entre si. Não existe uma estrutura
real, mas diversos backbones que interligam redes regionais, que por sua vez
estão conectadas às redes locais.
O protocolo que mantém a Internet unida é o protocolo de camada de rede IP (Internet
Protocol). A tarefa do IP é fornecer a melhor forma de transportar datagramas da origem
para o destino, independentemente de esses hospedeiros estarem na mesma rede ou em
outras redes intermediárias.
Imagine que você está solicitando a transferência de dados de seu computador para um
hospedeiro remoto (está fazendo o upload do arquivo). A camada de transporte de seu
computador receberá o fluxo de dados referente à transferência de seu arquivo. Como
provavelmente esse fluxo é muito grande para caber em um único pacote IP, ele será
quebrado em partes menores pela camada de transporte e cada parte desta será entregue
para a camada de rede (cada um será colocado em um datagrama IP).
Estes datagramas serão transmitidos pela Internet, podendo ainda serem fragmentados ao
longo do caminho. Quando todos os fragmentos de um datagrama chegam ao destino, o
datagrama original é remontado pela camada de rede do destino sendo entregue à camada
de transporte que recriará o fluxo original para o processo de recepção.
PROTOCOLO IP VERSÃO 4 (IPV4)
Na Internet, a camada de rede trata cada pacote de forma independente, não tendo
qualquer relação com pacotes anteriores ou posteriores. Pacotes com mesma origem e
destino podem, inclusive, passar por diferentes rotas.
O IPv4 é definido pela RFC 791, sendo atualizado pelas RFC 1349, RFC 2474 e RFC 6864.
Datagramas
São unidades básicas de informações que passam pela Internet. Dentro do datagrama está
seu cabeçalho, que contém informações sobre sua origem e seu destino, assim como
informações sobre para qual protocolo o IP deverá passar os dados. Também fazem parte
dele os dados que devem ser entregues à camada de transporte no destino.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Fragmentos
São partes de um datagrama muito grande que foi quebrado em unidades menores. Como
os dados precisam caber dentro da porção de dados da rede física, pode ser que seja
necessário fragmentar os dados da aplicação para que eles possam ser transportados pela
rede. O tamanho do fragmento é determinado pelo MTU da interface de hardware da
rede. O IPv4 especifica que a fragmentação ocorre em cada roteador baseado
na MTU da interface pela qual o datagrama IP deve passar.
Quando um datagrama é quebrado em fragmentos, cada um destes
fragmentos passa a ser um novo datagrama que está passando pela rede.
Um datagrama IP consiste em duas partes: cabeçalho e dados. O cabeçalho
tem uma parte fixa de 20 bytes e uma parte opcional de tamanho variável.
-Versão: controla a versão do protocolo a que o datagrama pertence.
-IHL: informa o tamanho do cabeçalho em palavras de 32 bits. O valor minimo
é 5 e o valor maximo é 60
-Tipo de serviço: permite que o hospedeiro informe à sub-rede o tipo de rede
que deseja. São possiveis varias combinações de confiabilidade e velocidade
-Comprimento total: informa o tamnho total do datagrama( cabeçalho e
dados). O tamanho maximo é de 65,535 bytes
-Identificação: o campo identificação é necessário para permitir que o
hospedeiro de destino determine a qual datagrama pertence em fragmento
recem-chegado. Todos os fragmentos de um datagrama contem o mesmo
valor de identificação.
-DF: Don’t fragment - não fragmente): Informa aos roteadores para não
fragmentarem o datagrama.
-MF: More fragments – mais fragmentos, indica que ainda existem mais
fragmentos do datagrama. Todos os fragmentos, exceto o ultimo, têm esse bit
marcado.
-Deslocamento: informa a que ponto do datagrama atual o fragmento
pertence. Todos os fragmentos de datagrama, com exeção do ultimo, devem
ser multiplos de 8 bytes.
-Tempo de vida( TTL): contador usado para limitar a vida util do pacote, esse
campo é decrementado a cada roteador que passa, permitindo uma vida util
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
maxima de 255. Ele evita que os datagramas fiquem vagando indefinidamente,
algo que poderia acontecer se as tabelas de roteamento fossem danificadas.
-Protocolo: informa para qual protocolo de transporte o datagrama devera ser
entregue. Alguns ecemplossão 6 (TCP) e 17 (USP).
-Soma de verificação do cabeçalho: confere o cabeçalho para determinar se
ocorreram erros durante sua transmissão.
-endereço origem e endereço destino:Indicam respectivamente, os endereços
de origem e de destino do datagrama.
-Opções: utilizado para permitir que sejam inseridas opções ao protocolo IP
que não estão contidas no projeto original.
ENDEREÇAMENTO IPV4
Um hospedeiro normalmente possui apenas uma interface com a rede de
computadores. Quando o protocolo IP de um hospedeiro quer enviar um
datagrama, ele o faz por meio dessa interface.
A INTERFACE DE REDE É A FRONTEIRA ENTRE O HOSPEDEIRO E A REDE FÍSICA.
Considere, neste momento, um roteador e suas interfaces. Como a tarefa de um roteador é
receber um datagrama por uma interface e repassá-lo por outra interface, ele estará ligado
a duas ou mais redes físicas. A fronteira entre o roteador e qualquer uma dessas redes
também é denominada uma interface. Assim, um roteador tem múltiplas interfaces, uma
para cada uma das redes a qual está conectado.
Atenção
Independentemente de quantas interfaces tenha um hospedeiro, o IP exige que cada uma
delas tenha seu próprio endereço IP de modo que este, tecnicamente, esteja associado a
uma interface, e não ao hospedeiro que a contém.
Cada endereço IP tem comprimento de 32 bits (4 bytes), havendo um total de 232 endereços
possíveis (aproximadamente 4 bilhões de endereços IP), os quais são escritos em notação
decimal separada por pontos, na qual cada byte do endereço é escrito em sua forma
decimal e separado dos outros bytes por um ponto.
Considere o endereço IP 192.168.23.67. O 192 é o número decimal equivalente aos
primeiros 8 bits do endereço; o 168 é o decimal equivalente ao segundo conjunto de 8 bits
do endereço, e assim por diante. Em notação binária, o endereço 192.168.23.67 fica:
11000000 10101000 00010111 01000011
Cada interface em cada hospedeiro da Internet precisa de um endereço IP
globalmente exclusivo, ou seja, não pode haver duas interfaces com o mesmo
endereço IP na Internet válida.
A figura, a seguir, fornece um exemplo de endereçamento IP e interfaces em
que um roteador com 2 interfaces é usado para interconectar os 6
hospedeiros. Observando os endereços dos hospedeiros da esquerda e da
interface do roteador que os liga, percebe-se que todos possuem endereço IP
na forma 192.168.0.x, enquanto os hospedeiros e a interface do roteador
localizados na parte direita da figura possuem endereço na forma 192.168.1.x.
Diz-se que cada uma destas redes que interconecta 3 hospedeiros mais a
interface do roteador formam uma sub-rede.
Como pode-se observar, no exemplo, os 3 campos mais à esquerda do
endereço (formados por 24 bits) nunca mudam dentro da sub-rede. Deste
modo, temos à esquerda a sub-rede 192.168.0.0/24 e à direita a sub-rede
192.168.1.0/24. O “/24” indica que os 24 bits mais à esquerda do endereço
definem a sub-rede.
A estratégia de atribuição de endereços da Internet é conhecida como
Roteamento Interdomínio sem Classes (Classless Inter-domain Routing – CIDR).
CIDR
O CIDR generaliza a noção de endereçamento de sub-rede. O endereço IP de 32 bits é
dividido em 2 partes sendo representado por A.B.C.D/X, em que X indica o número de bits
existentes na primeira parte do endereço.
Os X bits mais significativos de um endereço na forma A.B.C.D/X constituem a parcela da
rede do endereço IP e normalmente são denominados prefixo (ou prefixo de rede). Este
prefixo determina qual parte do endereço IP identifica a rede. Uma organização
normalmente recebe um bloco de endereços contíguos, ou seja, uma faixa de endereços
com um prefixo comum. Assim, os endereços IP de hospedeiros dentro da organização
compartilharão o prefixo comum, o que reduz consideravelmente o tamanho da tabela de
repasse nos roteadores, visto que um único registro da forma A.B.C.D/X será suficiente para
transmitir pacotes partindo de fora para qualquer destino dentro da organização.
Os últimos (32-X) bits de um endereço podem ser considerados como os bits que
distinguem os hospedeiros dentro da sub-rede. Esses bits menos significativos podem (ou
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse03-01
não) ter uma estrutura adicional de sub-rede tal como aquela discutida anteriormente. Por
exemplo, suponha que os primeiros 24 bits do endereço A.B.C.D/24 especificam o prefixo da
rede da organização e são comuns aos endereços IP de todos os hospedeiros da
organização. Os 8 bits restantes, então, identificam os hospedeiros específicos da
organização.
A estrutura interna da organização poderia ser tal que esses 8 bits mais à direita seriam
usados para criar uma sub-rede dentro da organização, como discutido. Por exemplo,
A.B.C.D/28 poderia se referir a uma sub-rede específica dentro da organização.
Anteriormente ao CIDR, os bits reservados para indicar a parte da sub-rede possuíam
exatamente 8, 16 ou 24 bits. Esse esquema é conhecido como endereçamento de classes
cheias, e as sub-redes com endereços de sub-rede de 8, 16 e 24 eram conhecidas,
respectivamente, como redes de classe A, B e C. Tal divisão em classes cheias se mostrou
problemática para suportar o rápido crescimento da quantidade de organizações com sub-
redes de pequeno e médio portes.
Uma sub-rede de classe C (/24) poderia acomodar apenas 28 - 2 = 254 hospedeiros (dois dos
28 = 256 endereços são reservados para uso especial). Esta sub-rede é muito pequena para
muitas organizações, por outro lado, uma sub-rede de classe B (/16), que suporta até 216 - 2
= 65.534 hospedeiros, seria demasiadamente grande. Com o endereçamento de classes
cheias, uma organização com 2.000 hospedeiros recebia um endereço de sub-rede de classe
B (/16), o que resultava no rápido esgotamento do espaço de endereços de classe B e na má
utilização do espaço de endereço alocado.
Os 2 endereços especiais de uma sub-rede que não podem ser utilizados são o primeiro e o
último endereço da faixa de endereços da organização. O primeiro é reservado para o
endereço de rede, que identifica a rede como um todo. Nele, todos os bits que não fazem
parte do prefixo de rede recebem o valor 0.
Já o último endereço é utilizado como endereço de difusão (broadcast). Roteadores não
repassam mensagens de difusão, portando, em uma rede IP a difusão fica limitada ao
segmento de rede limitado pelo roteador. No endereço de difusão, todos os bits que não
fazem parte do prefixo de rede recebem o valor 1.
O 255.255.255.255 é um endereço especial de difusão em que a mensagem é entregue a
todos os demais hospedeiros que estão na mesma sub-rede do hospedeiro que enviou a
mensagem.
No endereçamento de classes cheias, o número total de redes e hospedeiros para cada
classe é:
Classe A
126 redes com aproximadamente 16 milhões de hospedeiros cada.
Classe
16.384 redes com até 64K hospedeiros cada.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Classe C
Cerca de 2 milhões de redes com até 254 hospedeiros cada.
Classe D
Cerca de 268 milhões de grupos multicast.
A distribuição de endereços IP é controlada pela ICANN (Internet Corporation for Assigned
Names and Numbers).
Sub-Redes
O mundo exterior a uma organização enxerga sua rede como sendo única, e nenhuma
informação sobre sua estrutura interna é necessária. Porém, sem a utilização de sub-redes,
o espaço de endereçamento pode se tornar muito ineficiente.
A fim de tornar mais eficiente a utilização da rede, é comum sua divisão em várias sub-
redes. O mecanismo que permite tal divisão é conhecido como máscara de rede.
Assim como um endereço IP, uma máscara de rede possui 32 bits divididos em 4 campos
com 8 bits cada, seguindo o padrão:
• bits da rede – bit 1
• bits da sub-rede – bit 1
• bits do hospedeiro – bit 0
Os bits da sub-rede são utilizados para especificar quais bitsno campo do hospedeiro são
usados para especificar as sub-redes de uma rede.
A máscara padrão (default) para cada classe é dada por:
Classe Decimal Notação IDR Hexadecimal
A 255.0.0.0 /8 FF:00:00:00
B 255.255.0.0 /16 FF:FF:00:00
C 255.255.255.0 /24 FF:FF:FF:00
Ao se dividir uma rede em sub-redes, deve-se alocar os bits para a sub-rede a
partir dos bits de mais alta ordem (bits mais à esquerda) do campo do
hospedeiro. A tabela a seguir mostra os valores usados no campo do
hospedeiro quando se divide uma rede em sub-redes.
128 64 32 16 8 4 2 1
1 0 0 0 0 0 0 0 128
1 1 0 0 0 0 0 0 192
1 1 1 0 0 0 0 0 224
1 1 1 1 0 0 0 0 240
1 1 1 1 1 0 0 0 248
1 1 1 1 1 1 0 0 252
1 1 1 1 1 1 1 0 254
Uma rede pode ser dividida em diversas partes para uso interno, continuando
a ser vista como uma única rede externamente. Essas partes são as sub-redes.
Existem diversas razões para se dividir uma rede em sub-redes. Algumas destas
razões são:
• Isolar o tráfego de uma sub-rede, reduzindo assim o tráfego total da rede.
• Proteger ou limitar o acesso a uma sub-rede.
• Permitir a associação de uma sub-rede com um departamento ou espaço geográfico
específico.
NAT
Atualmente, endereços IP são escassos e este esgotamento não é um problema teórico que
pode ocorrer em algum momento no futuro distante, ele já está acontecendo, e a solução
atual para este problema é o NAT (Network Address Translation – Tradução de Endereço de
Rede), descrito na RFC 3022.
Com essa técnica, uma organização pode utilizar internamente uma faixa de endereços que
não é válida na Internet, e quando é necessário fazer acesso externo, o dispositivo
responsável pelo NAT faz a tradução do endereço da rede interna para o endereço válido da
organização. Dessa forma, a organização poderá obter internamente uma quantidade maior
de hospedeiros do que endereços disponíveis para utilização da Internet.
Comentário
A ideia básica do NAT é atribuir a cada organização uma pequena quantidade
de endereços IP para tráfego na Internet. Dentro da organização, todo
computador obtém um endereço IP exclusivo (também conhecido como
endereço IP privado) usado para roteamento do tráfego interno e, quando um
pacote sai da organização e vai para a Internet, ocorre uma conversão do
endereço.
Para tornar esse esquema possível, três intervalos de endereços IP foram
declarados como endereços privativos (reservados) e as organizações podem
utilizá-los internamente da maneira que quiserem, a única regra é que nenhum
pacote contendo esses endereços pode aparecer na própria Internet. Os três
intervalos reservados são:
Faixa Máscara Classe
10.0.0.0 a 10.255.255.255 255.0.0.0 A
172.16.0.0 a 172.31.255.255 255.255.0.0 B
192.168.0.0 a
192.168.255.255
255.255.255.0 C
Dentro da organização, toda máquina tem um endereço exclusivo que não é
válido na Internet. Quando um pacote deixa a organização, ele passa por uma
caixa NAT (normalmente um roteador), que converte o endereço de origem no
endereço IP válido da organização. Desse modo, o pacote poderá transitar sem
problemas pela Internet, porém, a resposta do pacote voltará para o endereço
IP válido da organização e não para a máquina que fez tal requisição. Por causa
disso, a caixa NAT deverá manter uma tabela na qual poderá mapear a
máquina que enviou a requisição para Internet, de forma que, quando a
resposta voltar, ela possa ser mapeada para a máquina correta.
Na técnica de NAT, os endereços utilizados pelos hospedeiros de uma
organização não são válidos na Internet, não há como tais equipamentos
receberem acesso direto da rede externa, conferindo um certo grau de
proteção aos hospedeiros da rede interna.
1. No CIDR (Classless Inter-domain Routing – Roteamento Interdomínio sem Classes) o
prefixo de rede é utilizado para:
a) Identificar a interface de rede do hospedeiro.
b) Informar a quantidade de bytes do endereço IP.
c) Identificar o hospedeiro que deve receber o datagrama.
d) Determinar qual parte do endereço IP identifica a rede.
Comentário
Parabéns! A alternativa D está correta.
Um endereço IP possui 32 bits. Quando se utiliza o CIDR, é definido um prefixo, sendo este
utilizado para dividir o endereço IP em 2 partes: rede e hospedeiro. O prefixo CIDR
determina a quantidade de bits a ser alocada na identificação da rede, ou seja, determina a
parte do endereço IP que identifica a rede.
2. A técnica de NAT foi desenvolvida para:
a) Realizar a fragmentação de datagramas IP.
b) Calcular a máscara de rede.
c) Associar uma sub-rede a um espaço geográfico específico.
d) Resolver o problema da escassez de endereços IP.
Comentário
Parabéns! A alternativa D está correta.
A quantidade de endereços IP disponíveis para utilização na Internet já é escassa, e a cada
dia mais organizações e pessoas desejam se conectar à internet, Dessa forma, foi criada a
técnica de NAT (Network Address Translation), que permite que uma organização possua
um conjunto de endereços internos que não são válidos na Internet mas que, quando um
hospedeiro deseja acessá-la, seu endereço é traduzido em um endereço válido, permitindo,
assim, a possibilidade de conectar mais hospedeiros à Internet do que a quantidade de
endereços disponíveis para isso.
PROTOCOLO DE CONTROLE DA INTERNET
O protocolo IP é o responsável por manter a unidade de toda a Internet,
porém, ele não consegue realizar sozinho todo o trabalho necessário. Para
auxiliá-lo nesta tarefa, foram desenvolvidos protocolos auxiliares na camada
de rede, conhecidos como protocolos de controle.
Neste módulo, estudaremos os principais protocolos de controle que
trabalham em conjunto com o protocolo IP.
ARP (ADDRESS RESOLUTION PROTOCOL)
Embora na Internet cada hospedeiro possua um ou mais endereços IP, na
verdade eles não podem ser usados diretamente para o envio de informações
pela rede, pois o hardware da camada de enlace de dados não entende os
endereços Internet.
Suponha que você esteja utilizando um notebook e que ele enviará dados para um servidor
na mesma rede. O software IP do notebook receberá os dados a serem enviados e
construirá um pacote com o endereço IP do servidor no campo ENDEREÇO DESTINO do
datagrama para transmissão. O software IP descobrirá que o servidor está em sua própria
rede e que, portanto, deverá transmitir os dados diretamente a ele.
Neste ponto existe um problema. A placa de rede trabalha com endereços físicos da camada
de enlace, ela não reconhece endereços IP. Logo, é necessário encontrar uma forma de
mapear os endereços de rede nos endereços de enlace.
A solução adotada é fazer com que o hospedeiro que precise descobrir o endereço de enlace do
destinatário envie um pacote por difusão perguntando: “A quem pertence o endereço IP A.B.C.D?”.
Então, o hospedeiro destinatário responderá com seu endereço de enlace. O protocolo que faz essa
pergunta e obtém a resposta é o ARP (Address Resolution Protocol, que é definido na RFC 826.
No exemplo da imagem, a seguir, a requisição ARP é enviada para o endereço de enlace ff-ff-ff-ff-ff-
ff, o que permite que a camada de enlace promova uma difusão (entregue a requisição a todos os
hospedeiros ligados ao meio de transmissão).
Continuando em nosso exemplo, o software IP do notebook constrói um
quadro de enlace endereçado ao servidor, coloca o pacote IP no campo de
carga útil e o envia. A placa de rede do destinatário detecta esse quadro,
reconhece-o como um quadro destinado a ela e o recolhe. O software de
enlace extrai o pacote IP da carga útil e o repassa para o software IP, que
verifica se ele está corretamente endereçado e o processa.
SÃO POSSÍVEIS VÁRIAS OTIMIZAÇÕES PARA TORNAR O ARP MAIS EFICAZ. EM
PRIMEIRO LUGAR, DEPOIS QUE UMA MÁQUINA EXECUTA O ARP, ELA
ARMAZENA O RESULTADO EM UM CACHE.
Em muitos casos, o destinatário precisará enviar uma resposta, o que forçará
tambéma execução do ARP para determinar o endereço de enlace do
transmissor. Essa difusão do ARP pode ser evitada fazendo-se com que o
destinatário inclua em sua tabela o mapeamento entre os endereços de rede e
de enlace do transmissor.
Se um hospedeiro precisar enviar dados para outro hospedeiro que se
encontra em uma sub-rede diferente da sua, este sistema de entrega direta
não funcionará. Neste caso, o hospedeiro transmissor precisará enviar seus
dados para um roteador, que deverá providenciar o encaminhamento do
datagrama para a sub-rede do destinatário. Poderá ser necessário que o
protocolo ARP seja utilizado mais de uma vez ao longo do caminho.
Para saber mais sobre o funcionamento do ARP quando existe um roteador no
meio do caminho, assista ao vídeo abaixo:
DHCP (DYNAMIC HOST CONFIGURATION PROTOCOL)
Para ter acesso à Internet, um hospedeiro precisa ser configurado com alguns parâmetros.
Os parâmetros mínimos a serem configurados são:
1-Endereço IP
Para permitir que o hospedeiro possa ser endereçado e receber dados de outro hospedeiro.
2-Máscara de sub-rede
Para que o hospedeiro possa determinar qual a sua sub-rede.
3-Endereço do gateway (roteador)
Para que o hospedeiro possa enviar informações para fora de sua sub-rede.
4-Endereço do servidor DNS
Para que o hospedeiro possa acessar outros hospedeiros por seus nomes em vez de precisar
conhecer seus endereços IP.
Esses parâmetros devem ser configurados em todos os hospedeiros da organização, o que
pode ser feito manualmente pelos administradores da rede. Isso funcionaria muito bem em
um ambiente relativamente estático onde os hospedeiros raramente fossem mudados de
lugar ou trocados.
E no caso de ambientes onde existe uma grande variação nos hospedeiros presentes na
rede?
Imagine, por exemplo, como seria na praça de alimentação de um shopping que oferece
acesso à Internet. Seria viável solicitar que todo o dispositivo móvel que chegasse nesse
shopping e quisesse acessar a Internet fizesse um pré-cadastro para poder ter esse acesso?
Como cada dispositivo precisa de um endereço único no momento do acesso, como seria
administrar esta distribuição por todos os possíveis clientes?
Comentário
Para facilitar a distribuição de endereços IP e demais parâmetros de rede entre
os vários hospedeiros que podem estar presentes em uma rede, e administrar
a atribuição destes parâmetros de forma automatizada, a IETF desenvolveu o
DHCP, cuja especificação encontra-se na RFC 2131.
Para utilizar o mecanismo dinâmico de alocação de endereços do DHCP, o
administrador do sistema deve configurar um servidor fornecendo um grupo
de endereços IP. Sempre que um novo computador se conecta à rede, entra
em contato com o servidor e solicita um endereço. O servidor opta por um dos
endereços especificados pelo administrador e aloca tal endereço para o
computador.
De modo geral, o DHCP permite três tipos de atribuição de endereços:
1-Configuração manual
O administrador especifica o endereço que cada hospedeiro receberá quando se conectar à
rede.
2-Configuração automática
O administrador permite que um servidor DHCP atribua um endereço quando um
hospedeiro se conectar pela primeira vez à rede. A partir deste momento, este endereço
estará reservado para este hospedeiro para sempre.
3-Configuração dinâmica
O servidor “empresta” um endereço a um hospedeiro, por um tempo limitado. Quando o
hospedeiro não estiver mais utilizando este endereço, ele poderá ser alocado a outro
hospedeiro.
Um servidor DHCP empresta um endereço para o hospedeiro por um período de tempo
determinado que ele especifica ao alocar o endereço. Durante esse período, o servidor não
alocará o mesmo endereço a outro cliente, entretanto, quando a alocação terminar, o
cliente deverá renová-la ou cancelar o uso do endereço.
O período ideal de alocação depende da rede e das necessidades de um hospedeiro em
particular. O DHCP não especifica uma quantidade de tempo para o período de alocação. O
protocolo permite que um cliente solicite um tempo de alocação específico e que um
servidor informe ao cliente quanto tempo de alocação lhe será concedido. Fica a cargo do
administrador determinar este tempo.
A figura mostra os seis estados em que um cliente DHCP pode estar:
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
ICMP (INTERNET CONTROL MESSAGE PROTOCOL)
Durante o tráfego de informações pela rede, podem ocorrer erros ou situações anormais
que precisam ser do conhecimento dos hospedeiros. Para permitir a troca deste tipo de
informação, foi criado o protocolo ICMP. Com ele, hospedeiros conseguem enviar
mensagens de controle e erros para outros hospedeiros. O erro sempre é reportado ao
sistema que gerou o datagrama.
Além de oferecer a possibilidade de troca de informações sobre erros e de controle, o ICMP
inclui um mecanismo de envio e resposta (echo) para testar quando um destino é alcançável
ou não. O comando ping utiliza este protocolo.
O ICMP é definido na RFC 792.
Uma mensagem ICMP é carregada dentro de um datagrama IP, ou seja, as
mensagens ICMP são transportadas pelo protocolo IP. Existem diversas
mensagens ICMP. As mais importantes são:
Destination unreachable (destino inalcançável)
Datagrama não pode ser entregue. Usada quando a sub-rede ou um roteador não pode
localizar o destino, ou um datagrama com o bit DF não pode ser entregue porque há uma
rede de pacotes pequenos no caminho.
Time exceeded (tempo excedido)
Campo tempo de vida do IP chegou a zero. Enviada quando um pacote é descartado porque
seu contador chegou a zero. Esse evento é um sintoma de que os datagramas estão
entrando em loop, de que há congestionamento ou de que estão sendo definidos valores
muito baixos para o temporizador.
Parameter problem (problema de parâmetro)
Campo de cabeçalho inválido. Essa mensagem indica existência de um problema no
software IP do hospedeiro transmissor ou no software de um roteador pelo qual o pacote
transitou.
Source quench (redução de origem)
Conhecida como pacote regulador. Usada para ajustar os hospedeiros que estejam
enviando pacotes demais a fim de controlar o congestionamento na rede.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-01
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-02
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-03
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-04
Redirect (Redirecionar)
Usada quando um roteador percebe que o pacote pode ter sido incorretamente roteado. É
usada pelo roteador para informar ao hospedeiro transmissor a respeito do provável erro.
Echo request (solicitação de eco)
Perguntar a um hospedeiro se ele está ativo. Ao receber a mensagem echo request, o
destino deve enviar de volta uma mensagem echo reply.
Echo reply (resposta de eco)
Confirmação de que o hospedeiro está ativo.
Timestamp request (solicitação de carimbo de data e hora)
Mesmo que echo request, mas solicita que a hora da chegada da mensagem e da partida da
resposta sejam registradas na mensagem de resposta.
Timestamp reply (resposta de carimbo de data e hora)
Resposta à mensagem timestamp request.
1. O DHCP é um protocolo que foi desenvolvido para:
a) Fazer o mapeamento entre o endereço de rede e o endereço de enlace.
b) Traduzir o endereço interno de um hospedeiro em um endereço externo válido.
c) Facilitar a configuração de rede dos hospedeiros de uma sub-rede.
d) Permitir a configuração manual dos parâmetros de rede.
Comentário
Parabéns! A alternativa C está correta.
A tarefa de configurar os parâmetros de rede em todos os hospedeiros de uma rede pode
ser uma tarefa demorada, principalmente para grandes redes. Desta forma, o DHCP foi
desenvolvido para facilitar o trabalho do administrador,o qual configura os parâmetros em
um servidor, sendo estes parâmetros recebidos pelos hospedeiros de forma automática
durante sua inicialização.
2. Quando um datagrama não pode ser entregue porque o roteador não consegue localizar
o destino, o protocolo responsável por informar este problema é o:
a) ICMP.
b) DHCP.
c) NAT.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-05
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-06
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-07
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-08
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-09
d) ARP.
Comentário
Parabéns! A alternativa A está correta.
O ICMP foi desenvolvido como o protocolo responsável pelo envio das mensagens de
controle e de erro de uma rede. Assim, quando o roteador não consegue localizar o destino,
o software ICMP do equipamento envia de volta à origem do datagrama uma mensagem
ICMP contendo esta informação.
ROTEAMENTO
A principal função da camada de rede é rotear pacotes do hospedeiro origem
para o hospedeiro destino da melhor forma possível. Na maioria dos casos, os
pacotes necessitarão passar por vários roteadores para chegar ao destino.
O algoritmo de roteamento é a parte do software da camada de rede
responsável pela decisão sobre a linha de saída a ser usada na transmissão do
pacote que entra. Caso a sub-rede utilize datagramas, esta decisão deverá ser
tomada para todos os pacotes de dados recebidos e se utilizar circuitos virtuais
internamente, as decisões de roteamento serão tomadas somente quando o
circuito virtual estiver sendo estabelecido.
PRINCÍPIO DA OTIMIZAÇÃO
O princípio da otimização de Bellman (1957) estabelece que se o roteador B
estiver no caminho ótimo entre o roteador A e o roteador C, o caminho ótimo
de B a C também estará na mesma rota.
Esse princípio nos diz que o conjunto de rotas ótimas de todas as origens para
um determinado destino é uma árvore conhecida como árvore de escoamento
(sink tree, em inglês), cuja raiz é o hospedeiro destino. Os algoritmos de
roteamento precisam descobrir a árvore de escoamento a partir da topologia
da rede.
ROTEAMENTO PELO CAMINHO MAIS CURTO
O protocolo de roteamento pelo caminho mais curto é um protocolo estático cuja ideia é
criar um grafo da sub-rede, com cada nó do grafo representando um roteador e cada arco
indicando um enlace. Para escolher uma rota entre um determinado par de roteadores, o
algoritmo simplesmente encontra o caminho mais curto entre eles no grafo.
Uma forma de medir o comprimento do caminho é em número de saltos (quantidade de
enlaces que devem ser utilizados). Utilizando essa unidade métrica na figura anterior, os
caminhos ABC e ABE são igualmente longos. Outra unidade métrica é a distância geográfica,
caso em que ABC é mais longo que ABE.
Há também a unidade métrica baseada no tráfego entre os enlaces. Nesse grafo, o caminho
mais curto é o caminho mais rápido, e não o caminho com menos arcos ou com menor
distância.
Os valores dos arcos podem ser calculados como uma função da distância, da largura de
banda, do tráfego médio, do custo de comunicação, do comprimento médio de fila, do
retardo detectado ou de outros fatores. Alterando a função de atribuição de pesos, o
algoritmo calcularia o caminho mais curto medido de acordo com determinados critérios
que podem ser ou não combinados.
Existem diversos algoritmos para o cálculo do caminho mais curto. O mais conhecido deles
foi desenvolvido por Dijkstra em 1959. Nele, cada roteador armazena sua menor distância
até a origem e o caminho a ser seguido. Na inicialização do algoritmo não existe caminho
conhecido, assim, a distância é marcada como infinito. Conforme o algoritmo progride, os
caminhos e seus custos são encontrados.
Para encontrar a árvore de escoamento de A, na figura, marca-se o nó A como permanente, o que é
indicado por um círculo preenchido (a). Depois é examinado, um a um, cada nó adjacente a A
alterando o rótulo de cada um deles para a distância até A.
Sempre que um nó é rotulado novamente, ele também é rotulado com o nó a partir do qual o teste
foi feito, assim, pode-se reconstruir o caminho final posteriormente. Após examinar cada nó
adjacente a A, verifica-se todos os nós provisoriamente rotulados no grafo tornando permanente o
de menor rótulo, que passa a ser o novo nó ativo.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
No segundo passo (b) verifica-se que o nó B é o que possui o menor valor entre os
nós rotulados não permanentes. Logo, ele é marcado como permanente e os
nós adjacentes são rotulados. Como B tem custo 2 e o enlace entre B e D
possui custo 6, o custo de D passando por B será 6 + 2 = 8. Da mesma forma, o
custo de E passando por B será rotulado como 4. E assim o algoritmo
prossegue, até que todos os nós sejam marcados como permanentes.
Uma Situação interessante acontece no quarto passo (d). Quando o nó C é
marcado como permanente, verifica-se que D anteriormente foi rotulado com
valor 8 passando por B, porém como vizinho de C seu custo será 7. Então, o nó
D é rotulado novamente com o valor 7.
Ao final, para obter a árvore de escoamento até A, basta seguir o caminho
marcado por cada roteador até seu vizinho de menor custo.
ALGORITMOS DE ROTEAMENTO
Conforme estudamos anteriormente, os algoritmos de roteamento são executados pelos
roteadores de uma sub-rede para que sejam criadas as tabelas de repasse dos roteadores.
Para isso, eles precisam trocar informações sobre o estado da rede e concordarem com a
árvore de escoamento a ser montada para cada destino.
Os algoritmos de roteamento podem ser agrupados em:
Não adaptativos
Não baseiam suas decisões de roteamento em medidas ou estimativas do tráfego e da
topologia atuais. A escolha da rota a ser utilizada é previamente calculada e transferida para
os roteadores quando a rede é inicializada. Tal procedimento também é conhecido como
roteamento estático.
Adaptativos
Mudam suas decisões de roteamento para refletir mudanças na topologia e/ou no tráfego.
Tal procedimento também é conhecido como roteamento dinâmico.
Ainda, os algoritmos de roteamento podem ser classificados como algoritmos de
roteamento globais ou descentralizados.
Global
Calcula o melhor caminho com base no conhecimento completo da rede. Para este fim, o
roteador deve obter informações sobre o estado de todos os roteadores e enlaces que
compõem a sub-rede. Um exemplo deste tipo de roteamento é o roteamento de estado de
enlace.
Descentralizado
Neste algoritmo, nenhum roteador possui informação completa sobre o estado da rede. As
rotas são calculadas com base em informações obtidas com roteadores vizinhos. Um
exemplo deste tipo de roteamento é o roteamento de vetor de distância.
Roteamento de Vetor de Distâncias
O roteamento de vetor de distância é um algoritmo dinâmico que opera fazendo com que
cada roteador mantenha uma tabela que fornece a melhor distância conhecida a cada
destino e determina qual linha deve ser utilizada para se chegar lá. Essas tabelas são
atualizadas através da troca de informações com os vizinhos.
TRATA-SE DO ALGORITMO DE ROTEAMENTO ORIGINAL DA ARPANET QUE TAMBÉM FOI
UTILIZADO NA INTERNET COM O NOME RIP. ALGUNS ROTEADORES UTILIZAM
PROTOCOLOS DE VETOR DE DISTÂNCIA MAIS APERFEIÇOADOS.
Comentário
Cada roteador mantém uma tabela de roteamento indexada por cada roteador da sub-rede.
Cada entrada contém duas partes: a linha de saída preferencial a ser utilizada para esse
destino e uma estimativa do tempo ou distância até o destino. A unidade métrica utilizada
pode ser o número de hops, o retardo de tempo, o número total de pacotes enfileirados no
caminho ou algo semelhante.
Presume-seque o roteador conheça a distância até cada um de seus vizinhos. Se a unidade
métrica for contagem de saltos, a distância será de apenas um salto. Se a unidade métrica
for o comprimento da fila, o roteador examinará cada uma das filas. Se a unidade métrica
for o retardo, o roteador poderá medi-lo com pacotes “ICMP ECHO”.
E como saber qual o caminho que possui melhor distância apenas obtendo informações dos
vizinhos?
Seja dv(y) o custo do caminho de menor custo do roteador v para o roteador y, e seja c(x,v)
o custo da ligação entre os roteadores x e v. Seja ainda v um vizinho do roteador x.
Então, o custo do caminho para ir de x a y passando pelo vizinho v será {c(x,v) + dv(y)}.
Logo, pelo princípio da otimização, o menor custo para ir de x a y será:
dx(y) = minv{c(x,v) + dv(y)},
onde minv retornará o menor valor calculado para todos os vizinhos.
Conforme os vizinhos vão trocando informações sobre o estado da rede, o algoritmo
converge para um estado de equilíbrio onde são obtidas as árvores de escoamento para
cada destino.
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Sempre que houver alguma modificação na rede, o roteador comunicará esta mudança a
seus vizinhos, que atualizarão suas tabelas e repassarão estas alterações a seus próprios
vizinhos. Assim, a alteração se propagará entre todos os roteadores e rapidamente a rede
convergirá para um novo estado de equilíbrio.
Na Internet o roteamento de vetor de distância é implementado pelo RIP (Routing
Information Protocol). A versão 1 do RIP é definida pela RFC 1058, enquanto sua versão 2 é
definida pela RFC 2453.
Roteamento de estado de enlace
O roteamento de vetor de distância era utilizado na ARPANET até 1979, quando então foi
substituído pelo roteamento de estado de enlace. Essa substituição foi basicamente
motivada por dois problemas:
• A unidade métrica de retardo era o comprimento de fila, não levando em conta a
largura de banda.
• O algoritmo geralmente levava muito tempo para convergir.
A ideia do roteamento de estado de enlace é simples. Cada roteador deve:
Descobrir seus vizinhos e aprender seus endereços de rede
Determinação dos Vizinhos: Quando um roteador é inicializado, ele envia um pacote HELLO
em cada linha. O roteador da outra extremidade envia de volta uma resposta identificando-
se.
Medir o retardo ou o custo para cada um de seus vizinhos
Medição do Custo da Linha: A forma mais simples de determinar o retardo é enviar um
pacote ECHO pela linha. Medindo o tempo de ida e volta o roteador pode obter uma
estimativa razoável do retardo. Para obter resultados melhores pode-se fazer o teste mais
de uma vez e usar a média.
Criar um pacote que diga tudo o que acaba de ser aprendido
Criação de Pacotes por Estado de Enlace: O pacote começa com a identidade do
transmissor, seguida do número de sequência, da idade, e de uma lista de vizinhos. É
fornecido o custo referente a cada vizinho. Um exemplo de sub-rede é ilustrado na figura
abaixo, sendo os custos mostrados por linhas. Os pacotes de estado de enlace
correspondentes a todos os seis roteadores são mostrados na figura abaixo.
Enviar esse pacote a todos os outros roteadores
Distribuição dos Pacotes de Estado de Enlace: Se estamos querendo criar as rotas para que
os datagramas possam ser enviados pela rede, como distribuir as informações? A ideia é
usar a inundação de pacotes, onde os pacotes que são recebidos por uma interface são
replicados para as outras interfaces, fazendo, assim, com que a informação se espalhe por
toda a rede.
Para controlar a inundação cada pacote contém um número de sequência que é
incrementado para cada pacote enviado. Quando é recebido, o novo pacote de estado de
enlace é conferido na lista de pacotes já verificados. Se for novo, o pacote será
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-01
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-02
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-03
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-04
encaminhado a todas as linhas, menos para aquela em que chegou. Se for uma cópia, o
pacote será descartado. Se for recebido um pacote com número de sequência inferior ao
mais alto detectado até o momento, ele será rejeitado.
Mas se um roteador apresentar falha, ele perderá o controle de seu número de sequência.
A solução é incluir a idade de cada pacote após o número de sequência e decrementá-la
uma vez por segundo. Quando a idade atingir zero, as informações desse roteador serão
descartadas. O campo de idade é também decrementado por cada roteador durante o
processo inicial de inundação para garantir que nenhum pacote viverá por um período
indefinido.
Calcular o melhor caminho para cada um dos outros roteadores
Cálculo das Novas Rotas: Uma vez que um roteador tenha acumulado um conjunto
completo de pacotes de estado de enlace poderá criar o grafo completo da sub-rede. Neste
momento o algoritmo de Dijkstra pode ser executado localmente para calcular o melhor
caminho.
Na Internet o roteamento de estado de enlace é implementado pelo protocolo OSPF (Open
Shortest Path First), definido pela RFC 2328.
Assim, a topologia completa e todos os retardos são medidos e distribuídos para cada
roteador. Em seguida, o algoritmo de Dijkstra pode ser usado para encontrar o caminho
mais curto.
Roteamento hierárquico
Conforme as redes aumentam, as tabelas de roteamento crescem proporcionalmente até
que chega um momento em que não é mais possível que os roteadores conheçam todos os
caminhos da rede. Assim, é necessário pensar em uma nova forma de realizar o
roteamento. Foi pensando nesta situação que foi criado o roteamento hierárquico.
Quando o roteamento hierárquico é utilizado, os roteadores são divididos em regiões, com
cada roteador conhecendo todos os detalhes sobre como rotear pacotes para destinos
dentro de sua própria região, mas sem conhecer a estrutura interna de outras. No caso de
redes muito grandes, uma hierarquia de dois níveis pode ser insuficiente, sendo necessário
agrupar as regiões em clusters, os clusters em zonas, as zonas em grupos etc.
A figura abaixo mostra um exemplo quantitativo do roteamento em uma hierarquia de dois
níveis com quatro regiões. A tabela de roteamento completa do roteador A1 tem 16
entradas, mas quando o roteamento é feito hierarquicamente são necessárias apenas 7
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-05
entradas. Porém, este tipo de roteamento pode implicar um provável aumento do caminho
para alguns hospedeiros.
1. Um algoritmo de roteamento adaptativo possui como característica:
a) Adaptar suas interfaces de acordo com a vazão dos enlaces.
b) Calcular as rotas a serem utilizadas com base no conhecimento completo da rede.
c) Basear suas decisões de roteamento de acordo com o tráfego e a topologia recentes.
d) Distribuir as informações de roteamento por intermédio de inundação de pacotes.
Comentário
Parabéns! A alternativa C está correta
Um algoritmo de roteamento adaptativo, conforme seu nome indica, adapta as rotas ao
estado atual de enlaces e topologia, promovendo alterações na rota sempre que houver
alguma mudança significativa no estado da rede.
2. Quando a rede cresce a ponto de ser necessário alterar o esquema de roteamento para
diminuir o tamanho das tabelas, deve-se utilizar o roteamento:
a) de vetor de distância.
b) hierárquico.
c) não adaptativo.
d) de estado de enlace.
Comentário
Parabéns! A alternativa B está correta.
O roteamento hierárquico foi criado para resolver os problemas de armazenamento das
tabelas de roteamento quando as redes crescem muito. Com sua utilização não é necessário
que os roteadores conheçam a topologia de toda a rede para tomar suas decisõesde
roteamento, bastando saber como rotear dentro de sua região e como chegar às outras
regiões.
CAMADA FÍSICA
A camada física é responsável pela geração e transmissão do sinal
propriamente dito, que é levado de um transmissor ao receptor
correspondente. Eles estão conectados por um enlace físico de transmissão.
Para ativar, manter e desativar o link físico entre sistemas finais, a camada
física define especificações:
• Elétricas;
• Mecânicas;
• Funcionais;
• De procedimentos.
A partir disso, são determinadas características como:
• Níveis de voltagem;
• Temporização de alterações de voltagem;
• Taxas de dados físicos;
• Distâncias máximas de transmissão;
• Conectores físicos;
• Outros atributos similares.
ssa camada está completamente associada ao hardware dos equipamentos e enlaces.
Na camada física, a unidade de dados é o bit de informação. O bit é codificado em um
sinal elétrico ou óptico, de forma a ser transmitido pelo transmissor do enlace até o
receptor através do meio físico de transmissão.
O sinal sofre diversos efeitos causados pelo meio de transmissão (como interferências,
ruídos, atenuação) e chega ao receptor após ter experimentado todas essas alterações.
Assim, em razão desses efeitos, o receptor precisa decodificar o sinal para receber o bit de
informação. Dependendo da situação, o receptor pode ou não decodificar corretamente o
bit enviado.
A figura 2 ilustra um diagrama em blocos simplificado do procedimento descrito
anteriormente, em que o ruído e outros fatores podem dificultar a recepção do sinal e
causar erros na interpretação dos bits.
TRANSMISSÃO DE SINAIS
Em redes de comunicação, a informação deve ser codificada em um sinal transmitido pelo canal do
transmissor até o receptor.
Os sinais podem ser analógicos ou digitais.
Você sabe qual é a diferença?
javascript:void(0)
Sinais analógicos
Apresentam a intensidade (amplitude), variando suavemente com o tempo.
Sinais digitais
Mantêm um nível constante de intensidade e, depois, mudam abruptamente para outro nível
constante
de intensidade.
Sinal periódico
Sinal periódico é qualquer sinal (analógico ou digital) que se repete em um período de tempo T
(figura 4).
Figura 4 – Sinal periódico (STALLINGS, 2005)
A frequência do sinal é dada pelo valor inverso do
período de repetição:
f = 1 / T
O Período (T) é expresso em segundos (s), e a frequência (f), em hertz (Hz).
Quanto mais rápida for a variação do sinal (menor período), maior será a frequência.
É importante guardar essa relação quando formos estudar outros conceitos mais avançados, como
banda passante e taxa de transmissão de dados.
Além da frequência, o sinal apresenta ainda como propriedades:
AMPLITUDE A
Ponto máximo de intensidade
FASE Φ
Posição relativa do sinal dentro de um período de repetição
É possível codificar a informação variando as grandezas do sinal (f, A, Φ); assim, o sinal pode
transportar o dado de um ponto ao outro do enlace.
A figura 5 mostra o sinal variando em amplitude, frequência e fase.
Pela análise de Fourier, é possível demonstrar que qualquer sinal pode ser decomposto em
componentes (senoides) de frequência e intensidades diferentes.
Na figura 6, o sinal de baixo pode ser obtido pela soma do primeiro sinal de frequência f e amplitude
A com o segundo sinal de frequência 3f e amplitude 0,4A.
Banda passante
Agora, podemos entender o conceito de banda passante do canal de comunicações.
Trata-se do conjunto contíguo de frequências de sinal que, ao passarem pelo canal de
comunicação, são praticamente inalteradas.
As componentes de frequência do sinal que estão além da banda passante
sofrem forte atenuação e são eliminadas.
Podemos imaginar o canal de comunicação como um filtro que deixa passar as
componentes dentro da faixa de frequências especificadas pela banda
passante e bloqueia as demais componentes fora da banda passante.
Vamos ver um exemplo?
Digamos que o sinal da parte inferior da figura 6 será transmitido por um canal
de largura de banda 2f Hz, que deixa passar sem atenuação componentes de
frequência entre valores 0,5f e 2,5f.
Ao transmitir esse sinal pelo canal, a componente de frequência 3f será
completamente eliminada, e o sinal que aparecerá do outro lado será
simplesmente a senoide de frequência f (vide figura 7).
Um sinal digital apresenta variações abruptas na sua intensidade, o que pode ser representado no
domínio da frequência por componentes de frequência muito elevados.
Assim, ao passar por um canal de comunicação, o sinal sofre distorções causadas pela banda
passante do canal.
Quanto maior for a banda passante, menor será o efeito de filtragem do canal.
Com isso, o receptor terá mais facilidade para interpretar a informação contida
no sinal.
A figura 8 ilustra a codificação de um caractere de informação (101111011) em
uma possível representação por um sinal digital. Os desenhos que se seguem
ilustram os efeitos de diferentes larguras de banda sobre a composição do
sinal.
javascript:void(0)
Taxa de transmissão
Outro conceito importante é a taxa de transmissão (bit rate) de um canal ou meio físico, que é dada
pela quantidade de bits que esse meio consegue transmitir por segundo.
Essa taxa pode ser expressa em bits por segundo (bps), kilobits por segundo (Kbps), megabits por
segundo (Mbps),
gigabits por segundo (Gbps).
O sinal recebido pelo receptor é diferente do sinal que foi transmitido, pois sofreu todos os
efeitos introduzidos pelo canal de comunicação.
Esses efeitos degradam o sinal e podem gerar erros de bits, ou seja, erros de interpretação
na decodificação do sinal pelo receptor, em razão das alterações sofridas.
ATENUAÇÃO
A atenuação é a perda de potência do sinal devido à passagem pelo meio de transmissão
(canal), fazendo com que a potência do sinal recebido pelo receptor seja menor do que a
potência do sinal no momento em que foi transmitido. Caso a potência seja muito baixa na
recepção (abaixo de determinado limiar), o sinal estará muito fraco e mais sujeito aos
ruídos, podendo gerar erros no receptor.
O sinal transmitido em espaço livre (meio físico) sem obstáculos, onde o transmissor e o
receptor são separados por uma distância d, sofre uma atenuação proporcional ao inverso
do quadrado da distância 1/d2.
Em outras palavras, a razão entre a potência do sinal recebido (Pr) e a potência do sinal
transmitido (Pt) é proporcional ao inverso do quadrado da distância: Pr/Pt ~ 1/d2
(RAPPAPORT, 2001). Para outros meios físicos e contextos de transmissão, as relações
seguem outra formulação.
RUÍDO
Pode ser entendido de forma ampla como sinais indesejados que são inseridos pelo meio
físico de transmissão, comprometendo a integridade do sinal.
Os ruídos são classificados em diversos tipos e podem ser provenientes de fontes distintas.
O tipo de ruído mais comum é o ruído térmico (ou ruído branco), que afeta todos os
sistemas, pois ocorre em função da agitação dos elétrons no meio físico em virtude da
temperatura.
O ruído térmico não pode ser eliminado completamente, limitando a capacidade máxima de
um sistema de comunicação. A figura 9 ilustra o efeito do ruído do canal sobre o sinal digital
e os erros de interpretação de bits por parte do receptor.
MEIOS FÍSICOS DE TRANSMISSÃO
Os meios físicos de transmissão que compõem o canal de comunicação são classificados em:
GUIADOS
Sinal é confinado
NÃO GUIADOS
Transmissão em espaço aberto
Vamos conhecer melhor cada um?
Meios de transmissão guiados
São geralmente empregados como meios físicos guiados o cabo de par
trançado, o cabo coaxial ou o cabo de fibra óptica:
PAR TRANÇADO
A figura a seguir apresenta um diagrama esquemático do par trançado. Esse meio físico é
composto por dois fios de cobre em espiral. O trançado facilita o manejo e reduz
interferências. Cada partrançado pode representar um canal de comunicação isolado.
Assim como na figura acima, mais de um par é normalmente agrupado em um cabo com
capa protetora, sendo geralmente comercializado dessa forma.
É um dos meios físicos mais comuns para telefonia e redes locais prediais. As categorias
mais encontradas são: categoria 5, com banda passante de 100Mhz, e a categoria 7, com
banda passante de 1Ghz.
COAXIAL
O diagrama esquemático do cabo coaxial está representado na figura 11. O cabo é
composto de quatro elementos, de dentro para fora, no condutor interno (núcleo de cobre,
isolador dielétrico interno, malha de cobre e revestimento plástico). Devido à sua própria
confecção, ele é mais imune às interferências do que o par trançado, porém é menos
flexível e usualmente mais caro. Alcança bandas passantes da ordem de 500Mhz, sendo
muito empregado até os dias de hoje em redes de televisão a cabo.
FIBRA ÓPTICA
A fibra ótica é o outro tipo de meio físico guiado bastante utilizado.
De forma diferente do par trançado e do cabo coaxial, na fibra óptica, os sinais são
constituídos de pulsos de luz; sendo assim, a fibra óptica não sofre interferências
eletromagnéticas.
A fibra óptica é constituída de um filamento flexível e transparente fabricado a partir de
vidro ou plástico. Ela é composta de um material com maior índice de refração (núcleo)
envolto por um material com menor índice de refração (casca). Na Figura 12, o núcleo e o
revestimento são caracterizados por diferentes índices de refração da luz n1 > n2.
Pela Lei de Snell, também conhecida como lei da refração da luz, existe uma relação direta
entre os índices e ângulos de incidência da luz, de forma que ela possa ser refletida e seguir
se propagando pelo interior da fibra, vide feixe de luz “a” da Figura 13. Esse é o princípio de
propagação dos sinais luminosos em uma fibra óptica.
O par trançado e o cabo coaxial transportam o sinal eletromagnético. Na fibra
óptica, o sinal é propagado na forma de luz.
E quais as vantagens e desvantagens?
PAR TRANÇADO
Vantagens
Mais flexível e barato
Desvantagens
Enfrenta em maior escala o problema de interferências eletromagnéticas.
CABO COAXIAL
Vantagens
javascript:void(0)
O sinal fica mais protegido de interferências quando comparado ao par trançado. Não
precisa de nenhum componente eletro-óptico (caso da fibra óptica).
Desvantagens
Menos flexível e mais pesado que o par trançado. Menos capacidade de transmissão de
informação que a fibra óptica.
FIBRA ÓPTICA
Vantagens
Possibilita altas taxas de transmissão de dados (elevada banda passante), apresenta baixa
atenuação com a distância, é imune a interferências eletromagnéticas e possui baixo peso.
Desvantagens
Pouca flexibilidade, custos mais elevados e conectorização mais difícil.
Meios de transmissão não guiados (espaço aberto)
A transmissão de sinais em meios não guiados se refere à transmissão em espaço aberto.
Nesse ambiente, uma série de sinais e ondas eletromagnéticas estão presentes e compartilham o
espaço em diferentes frequências.
É possível classificar as transmissões em meio não guiado (sem fio) de acordo com as frequências
das ondas utilizadas. A figura 15 ilustra o espectro eletromagnético e a correspondente classificação.
De acordo com a figura 15, é possível separar as transmissões em espaço aberto em três grandes
grupos que apresentam características distintas: ondas de rádio (radiofrequência – RF), micro-ondas
e infravermelho. Cada grupo pode ainda ser dividido em subgrupos.
Os sinais de radiofrequência se espalham desde as centenas de Khz até, no máximo, poucas
unidades de Ghz. Estão incluídas nessa faixa as ondas de rádio AM e FM, a TV e a telefonia celular.
As redes Wi-Fi operam na faixa conhecida como ISM, nas frequências de 900Mhz, 2.4Ghz e 5Ghz.
Nessas faixas de frequência, o sinal transmitido é irradiado em diversas direções, o que permite um
bom suporte à mobilidade para as estações receptoras.
Na faixa das micro-ondas, os comprimentos de onda dos sinais são pequenos, e existe a necessidade
de haver um alinhamento entre as antenas dos transmissores e receptores dos sinais (linha de
visada). As frequências mais altas garantem elevadas bandas passantes para os canais de micro-
ondas, porém esses canais são mais suscetíveis às interferências causadas pelas condições
climáticas.
A figura 16 ilustra a comunicação via satélite que opera na faixa de micro-ondas tanto em enlaces
ponto a ponto quanto em enlaces do tipo broadcast.
O terceiro grupo emprega transmissões em frequências ainda mais elevadas na
faixa do infravermelho e dos lasers. Nessa faixa, também é necessário o
alinhamento entre transmissor e receptor. Geralmente, são empregados em
enlaces de curto alcance, pois apresentam dificuldade para transpor
obstáculos.
1. Assinale a alternativa correta:
A)O ruído branco só aparece em canais com elevada largura de banda.
B)Quanto maior o período de um sinal periódico maior será a sua frequência.
C)Sinais digitais são imunes ao ruído.
D)O ruído branco está presente em qualquer canal de comunicação.
Comentário
Parabéns! A alternativa "D" está correta.
O ruído branco (ruído térmico) está presente em todos os sistemas de comunicação, pois
ocorre devido à agitação dos elétrons no meio físico em função da temperatura.
2. Assinale a alternativa incorreta:
A)A fibra óptica apresenta maior largura de banda que o par trançado.
B)O par trançado está mais sujeito à interferência eletromagnética do que a fibra óptica.
C)Os enlaces de micro-ondas operam em faixas de frequência superiores aos enlaces rádio.
D)Em enlace de micro-ondas não é necessário haver linha de visada.
Comentário
Parabéns! A alternativa "D" está correta.
Devido às altas frequências e consequentemente pequenos comprimentos de onda a faixa
de micro-ondas requer linha de visada entre as antenas do transmissor e receptor. O feixe
do sinal é direcional e requer alinhamento de antenas.
INTRODUÇÃO
A camada de enlace está situada imediatamente acima da camada física. Elas
atuam juntas de forma direta.
Conforme estudado no módulo 1, apresentamos diversos fatores que podem
afetar a transmissão do sinal no meio físico. Alguns desses fatores representam
características do meio, não sendo possível eliminá-los (como o ruído).
Os erros na recepção dos sinais são previstos e a camada física por si só não
pode recuperá-los, cabendo à camada de enlace controlá-los.
A camada de enlace é subdividida em duas subcamadas: LLC (Controle de
Enlace Lógico) e MAC (Controle de Acesso ao Meio). Suas funções são:
DELIMITAÇÃO DE QUADROS (ENQUADRAMENTO)
Para o melhor desempenho de suas funções, a camada de enlace utiliza o
quadro como unidade de dados.
O quadro é um conjunto de bytes de informação que pode variar de tamanho
conforme o protocolo a ser utilizado.
Suponhamos que determinado transmissor tenha uma quantidade muito
grande de dados para transmitir ao receptor. Ao final dessa transmissão,
percebe-se que, em algum momento, houve um erro no sinal recebido por
conta dos problemas do canal.
Dessa forma, o transmissor precisaria repetir toda a transmissão para garantir
a informação correta ao receptor. No entanto, se dividíssemos essa grande
quantidade de dados em conjuntos menores (quadros) e transmitíssemos
quadro após quadro, havendo um erro na transmissão, seria possível
identificar qual quadro foi afetado.
Com isso, só repetiríamos a transmissão desse quadro, tornando o controle de erros muito
mais eficiente.
Entendendo a importância da utilização de quadros no nível de enlace,
verificaremos como criar os quadros, ou seja, como particionar os dados
delimitando o início e o fim de cada quadro.
Existem basicamente quatro técnicas para realizar o enquadramento dos
dados e, em alguns casos, as técnicas são combinadas:
• Contagem de caractere;• Enquadramento por caractere;
• Enquadramento por bit;
• Violação de códigos do nível físico.
Vamos ver cada um deles a seguir:
Contagem de caractere
Na técnica de contagem de caractere, a ideia é adicionar um campo no início
do quadro, informando o número total de caracteres presentes.
Ao receber o quadro, o receptor (RX) lê o campo de contagem e, a partir de
então, consegue determinar onde está o final do quadro.
O problema dessa técnica simples é que, se houver um erro justamente nesse
campo de contagem, o transmissor (TX) e o receptor (RX) terão interpretações
diferentes sobre os quadros e perderão completamente o sincronismo.
Enquadramento por caractere
Na técnica de enquadramento por caractere, a ideia é utilizar caracteres
especiais para indicar o início (STX) e o fim do quadro (ETX). O transmissor
insere essas marcas. Com isso, o receptor fica sabendo exatamente onde
começa e termina cada quadro.
Além disso, outros campos são incluídos no quadro, como os campos de
sincronização (SYN), cabeçalho (HEADER) e códigos para verificação de erros
(CRC). A figura 20 ilustra o quadro com todos esses campos.
Uma dificuldade que pode ocorrer com essa técnica é que o campo de dados representa as
informações do usuário, e a camada de enlace não tem controle sobre elas. Assim, pode
estar presente no campo de dados o padrão idêntico ao do caractere ETX. Ao receber o
quadro e percorrê-lo, o receptor interpretaria esse ETX como fim do quadro, o que seria um
erro de interpretação.
Qual é a solução para esse problema?
Software é, em primeiro lugar, a utilização de outro caractere especial (DLE) para indicar
que, imediatamente após esse caractere, aparecerá o caractere delimitador (STX ou ETX).
Dessa forma, um início de quadro seria marcado como DLE STX e um fim de quadro por DLE
ETX. Isso ainda não resolve o problema, pois o DLE também pode estar presente no campo
de DADOS do usuário.
A solução completa é implementada da seguinte forma: ao gerar o quadro, o transmissor
percorre o campo de DADOS do usuário em busca do padrão DLE. Encontrando esse padrão,
ele insere no campo de dados outro DLE (operação conhecida como caracter stuffing), e
segue normalmente com a construção do quadro.
Ao receber o quadro, o receptor analisa os caracteres do quadro e, ao se deparar com um
DLE, ele verifica qual é o próximo caractere. Caso seja outro DLE, ele sabe que este foi
inserido pelo transmissor. Assim, ele exclui esse DLE e continua varrendo o quadro. Caso o
caractere seguinte não seja outro DLE, mas um marcador (por exemplo, ETX), ele sabe que a
marcação está correta. A figura 21 exemplifica esse processo de caracter stuffing.
Uma desvantagem da técnica de enquadramento por caractere é ser orientada
completamente pela existência e pelo reconhecimento de caracteres. Uma
alternativa similar a essa é o enquadramento por bit, onde não há a
necessidade de se trabalhar com caracteres, mas, sim, com bits de dados.
Enquadramento por bit
Nesta técnica, o delimitador de quadros é o flag – sequência padrão de bits,
geralmente 01111110. Cada quadro começa e termina com uma marca flag.
Havendo falta de sincronismo por algum motivo, tudo o que o receptor tem a
fazer é procurar por um flag para ficar sincronizado com o transmissor
novamente.
De forma análoga à técnica anterior, aqui também ocorre o stuffing. O
transmissor percorre o campo de DADOS todo e, ao perceber uma sequência
de 5 bits “1”, ele insere um bit “0”, para quebrar o padrão de flag. Ao
percorrer o quadro e identificar 5 bits “1” seguidos, o receptor fica alerta; se o
próximo bit for “0”, ele sabe que esse bit foi inserido pelo transmissor, caso
contrário (o próximo bit for “1”) ele sabe que se trata de um delimitador de
quadro, flag.
Violação de códigos do nível físico
A última técnica de enquadramento estudada é conhecida como violação de
códigos do nível físico. A ideia é bastante simples: na transmissão do sinal no
meio físico, o bit “1” é representado por alguma característica ou variação do
sinal, e o bit “0”, por outra.
Se o sinal puder apresentar ainda outras variações que não sejam utilizadas
para codificar os bits, essas variações podem ser utilizadas para marcar o início
e o fim do quadro, tendo em vista que não serão confundidas com os bits
propriamente ditos.
Um exemplo é a codificação Manchester padronizada pelo IEEE para redes
locais. Nesta codificação, o bit “1” é representado por uma transição do sinal
de alto para baixo, e o bit “0”, pela transição contrária do sinal de baixo para
alto. Assim, as outras duas transições (ou ausência de transições), de baixo
para baixo e de alto para alto, estão livres para serem usadas como
marcadores de quadro.
CONTROLE DE ERROS (CODIFICAÇÃO)
Existem duas estratégicas básicas para o controle de erro no nível de enlace:
open loop (malha aberta, sem canal de retorno) e feedback (malha fechada,
com canal de retorno).
Open loop
Na estratégia de open loop, a detecção e correção de erros são feitas
completamente pelo receptor. São empregados códigos especiais (FEC:
Forward Error Correction) para inserir informação redundante no quadro. Tudo
isso para que, ao receber um quadro, o receptor:
• Possa usar a codificação para verificar a integridade do quadro;
• Havendo algum problema, possa, por si só, alterar o quadro para a forma correta.
A desvantagem dessa técnica é a necessidade de se inserir grande quantidade
de informação redundante no quadro, de forma que o receptor possa executar
as duas tarefas listadas acima sozinho. No entanto, pode ser a única solução,
caso a transmissão não tenha canal de retorno.
Feedback
A estratégia feedback emprega apenas códigos de detecção de erros, isto é,
insere informação redundante que seja suficiente apenas para o receptor
testar a integridade do quadro. Havendo um problema, o receptor solicita ao
transmissor que retransmita aquele quadro. Assim, é necessário haver um
canal de retorno do receptor ao transmissor, situação comum em redes de
dados, pois as estações geralmente precisam transmitir e receber dados.
Exemplo
Um exemplo simples de código de detecção de erros é o bit de paridade, que é
inserido ao final do quadro. Assumindo a escolha da paridade par, o
transmissor, ao transmitir o quadro, verifica a quantidade de bits “1” presentes
nele. Se houver um número par de números 1, a paridade estará correta, e o
bit de paridade receberá o valor “0”. Caso haja um número ímpar de bits “1” a
ser transmitido no quadro, o transmissor fechará a paridade par inserindo o bit
“1” no campo do bit de paridade. Ao receber o quadro, o receptor deve checar
a paridade; se não for par, certamente houve algum problema com a recepção
do quadro, e ele deve solicitar uma nova transmissão deste mesmo quadro.
O bit de paridade, apesar de ser simples e de fácil implementação, não é eficaz
em muitos casos, como, por exemplo, na situação em que houve um problema
no sinal, fazendo com que o receptor interprete erradamente dois bits do
quadro. Assim, quando o receptor fizer o teste, a paridade estará correta, e o
receptor não perceberá o erro na recepção do quadro. Dessa forma, outros
códigos de detecção mais poderosos foram desenvolvidos e padronizados para
uso em redes de computadores, como, por exemplo, o CRC (Verificação Cíclica
de Redundância), conforme ilustrado no quadro da figura 20 (STALLINGS,
2004).
Depois de termos estudado as técnicas de enquadramento e codificação,
entendemos como os quadros podem ser formados e como o receptor é capaz
de verificar se houve ou não erro na recepção do quadro. Falta agora
estudarmos como as retransmissões são realizadas automaticamente por meio
de protocolos de enlace.
CONTROLE DE FLUXO
Outra operação que pode ser implementada aproveitando-se dos protocolos
ARQ é o controle de fluxo.
O objetivo desse controle é evitar queum transmissor mais rápido acabe
sobrecarregando um receptor mais lento com o envio de quadros a uma
velocidade mais rápida que o receptor é capaz de suportar, causando um
“afogamento” no receptor.
Esse descompasso não é desejável, pois o receptor vai acabar descartando os
quadros novos e o transmissor teria que retransmiti-los em um outro
momento.
javascript:void(0)
Uma forma do receptor dosar a velocidade de transmissão de quadros quando
estiver empregando os protocolos da família ARQ é simplesmente retardando
o envio dos ACKs.
Desta forma, o receptor consegue reduzir a velocidade com que novos quadros
são inseridos no canal por parte do transmissor. O receptor pode inclusive
reter todos os ACKs em um determinado momento o que causaria timeouts no
transmissor e a pausa na transmissão de novos quadros.
Assim que o receptor estivesse pronto, bastaria enviar os ACKs para que a
comunicação fosse reestabelecida e seguisse com os novos quadros.
1. Complete a frase a seguir. A técnica de enquadramento:
A)Por contagem de caractere garante o sincronismo entre o transmissor e o receptor.
B)Por caractere exige que o receptor insira um caractere DLE a cada DLE que aparecer no
campo de DADOS.
C)Por violação de códigos do nível físico utiliza sinais especiais não empregados na
codificação dos bits.
D)Por bit não é mais empregada atualmente.
Comentário
Parabéns! A alternativa "C" está correta.
Essa técnica de enquadramento se aplica quando o nível físico apresenta redundância da
codificação, ou seja, além dos códigos que representam os bits “0” e “1” existem outros
códigos não utilizados para representar a informação. Desta forma, esses códigos
redundantes podem ser empregados para delimitar o início e o fim dos quadros
(enquadramento).
2. Considerando os passos estudados na construção do protocolo Stop-and-Wait ARQ,
podemos afirmar que:
A) O campo necessário para numerar os quadros é de apenas um bit.
B)O timeout deve ser escolhido de forma a não exceder o tempo de transmissão de um
quadro.
C) A utilização de ACKs numerados é opcional.
D) O protocolo é considerado de alto desempenho.
Comentário
Parabéns! A alternativa "A" está correta.
Com o campo de um bit é possível numerar os quadros com os números “0” e “1”, o que é
necessário para o corretor funcionamento do protocolo top-and-Wait ARQ.
INTRODUÇÃO
Como vimos, a camada de enlace é subdividida em duas subcamadas: LLC
(Controle de Enlace Lógico), conforme abordado no módulo 2, e MAC
(Controle de Acesso ao Meio), para lidar com o problema de acesso em enlaces
multiponto, tema deste módulo.
Vamos ver a seguir?
A figura 24 ilustra uma rede de computadores composta de quatro redes locais
(LANs) conectadas por uma sub-rede. Na sub-rede os roteadores são
conectados por enlaces ponto a ponto, enquanto nas LANs as estações estão
ligadas a enlaces multiponto.
Os enlaces ponto a ponto são dedicados e o fluxo de informação segue sempre
de um único transmissor a um único receptor. Já os enlaces multiponto são de
uso compartilhado entre transmissores e receptores diferentes.
Nas ligações multiponto, o enlace é compartilhado por diversas estações,
porém, para que uma transmissão seja recebida com sucesso pela estação
receptora, é necessário que cada estação transmissora envie seus dados em
momentos diferentes.
Havendo mais de uma transmissão ao mesmo tempo no enlace multiponto, a
estação receptora não terá condições de decodificar o sinal – fenômeno
conhecido como colisão.
Desta forma, em enlaces multiponto, é necessário haver uma regra de acesso a
fim de organizar as transmissões, evitando (ou minimizando), com isso, as
colisões.
O uso do recurso compartilhado, no caso o enlace multiponto, requer o
emprego de protocolos de controle de acesso ao meio, o que constitui a
principal função da subcamada MAC.
Em suma, o controle de acesso ao meio se faz necessário sempre que houver
contenção (disputa) de múltiplas estações pelo acesso ao meio de transmissão.
Redes móveis celulares nas quais o uplink (canal de subida dos terminais celulares para a
estação-base) é compartilhado pelos usuários móveis.
COMO SOLUCIONAR OS PROBLEMAS
As soluções para o problema de compartilhamento de enlaces entre múltiplas estações
podem ser divididas em três grandes grupos:
• Alocação estática;
• Contenção;
• Acesso ordenado.
Vamos ver os protocolos que aplicam essas soluções a seguir.
Protocolos baseados em alocação estática
A figura 25 apresenta uma ilustração de duas técnicas de alocação estática
bastante comuns:
FDMA
(Acesso Múltiplo por Divisão em Frequência)
A largura de banda W do enlace compartilhado é dividida em N, formando,
assim, N canais individuais. Cada estação transmissora, ao ingressar no
sistema, recebe a alocação estática de um desses subcanais e pode utilizá-la de
forma exclusiva com o seu par até o momento de desconexão.
TDMA
(Acesso Múltiplo por Divisão no Tempo)
A divisão ocorre em função do tempo, onde o tempo de uso do canal é dividido
em N fatias (ou slots). Cada estação recebe um slot designado a ela para as
suas transmissões com a estação receptora.
Apesar de resolver o problema de compartilhamento do enlace, as técnicas de
alocação estática, como as ilustradas anteriormente, apresentam algumas
desvantagens:
1
Existe um número máximo de estações que podem ser atendidas pelo sistema. No exemplo,
esse número é representado por N. Com a chegada de mais uma estação ao sistema (N+1),
ela será bloqueada por falta de recursos.
2
Nessas técnicas, é comum haver desperdício de recursos. Imagine que determinada estação
é alocada para utilizar determinado canal. Se essa estação, em algum momento, não tiver
nada a transmitir, o canal ficará ocioso e não poderá ser utilizado por outra estação. Como o
tráfego de dados ocorre em rajadas (períodos de muita atividade seguidos por períodos de
silêncio), essas técnicas podem causar desperdícios significativos de recursos.
Tradicionalmente, elas são mais empregadas para o tráfego telefônico (voz), daí o seu uso
ter sido mais difundido em redes de telefonia fixa e em redes de telefonia celular.
Protocolos que empregam contenção
Um dos primeiros protocolos a empregar a contenção como técnica de compartilhamento
do enlace foi o protocolo ALOHA, no início da década de 1970, na Universidade do Havaí
(ABRAMSON, 2009).
A figura 26 ilustra o cenário de aplicação do protocolo ALOHA na época. Existia uma
unidade central de processamento (um computador mainframe) que deveria ser acessada
por terminais remotos espalhados pela universidade.
Observe que, nesse caso, ambos compartilhavam os recursos da CPU e do canal sem fio
para as transmissões e acesso à CPU.
A solução empregada para o acesso ao meio físico foi bastante direta. Se
determinado terminal tivesse algo a transmitir, ele simplesmente faria isso
usando a sua interface rádio sem qualquer tipo de regra ou restrição. Caso
houvesse também outro terminal na mesma situação, a colisão seria certa.
Nesse caso, o que precisaria ser feito era o tratamento da colisão.
O terminal a transmitir não sabia se a transmissão seria bem-sucedida ou não
(colisão); tudo o que ele tinha a fazer era aguardar a confirmação (ACK)
enviada no sentido contrário pela estação central (na figura, CPU). Quando a
confirmação era recebida, o terminal entendia que a transmissão foi um
sucesso. Caso contrário, o terminal ficava ciente de que houve uma colisão
com a transmissão de outro terminal.
O protocolo ALOHA determinava, então, que, em uma situação de colisão, o
terminal precisaria sortear um número aleatório de espera e só poderia tentar
novamente a transmissão após esse tempo. Como os intervalos de tempo de
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_enlace_e_fisica/#collapse01-01abxm
espera para cada terminaleram sorteados aleatoriamente, os terminais
acabariam transmitindo em momentos diferentes, evitando novas colisões.
A solução empregada pelo protocolo ALOHA era bastante simples, e isso
ocasionava baixo desempenho para a rede como um todo. O melhor
desempenho teórico do protocolo ALOHA pode ser calculado como 18%, ou
seja, na melhor hipótese, apenas 18% dos casos seriam caracterizados como
transmissões bem-sucedidas (TANENBAUM, 2011).
O baixo desempenho do protocolo ALOHA motivou o desenvolvimento de
protocolos mais elaborados:
S-ALOHA
A ideia imediata era reduzir os eventos em que as colisões pudessem ocorrer. Levando isso
em consideração, foi desenvolvido o S-ALOHA (ALOHA com slots de tempo). Assim, o
terminal só poderia transmitir algo sempre no início de cada slot, fazendo com que o
número de eventos de colisão ocorresse apenas nesses momentos. O desempenho do S-
ALOHA era duas vezes maior do que o desempenho do ALOHA, mas, ainda assim, isso era
considerado muito baixo.
CSMA
Na tentativa de reduzir as colisões, foi desenvolvido o protocolo CSMA (Acesso múltiplo
com Detecção de Portadora). Para reduzir os eventos de colisão, os terminais que
empregam o CSMA “escutam” o meio físico antes de transmitir e só realizam a transmissão
ao perceberem que o meio está livre, ou seja, não existe outro terminal transmitindo
naquele momento (não foi possível detectar a presença de algum sinal no meio).
As colisões ainda podem ocorrer no CSMA se o meio estiver livre e mais de um terminal
estiver “escutando” o meio antes de transmitir. Com o meio livre, esses terminais
transmitem ao mesmo tempo, gerando a colisão. A detecção de um evento de colisão
acontece tal como no ALOHA, ao aguardar a confirmação ACK do terminal receptor.
Havendo colisão, os terminais aguardam um intervalo de tempo sorteado aleatoriamente.
Depois disso, tentam iniciar novamente a transmissão.
Na verdade, o CSMA é uma família de protocolos que podem ter variações quanto ao
momento de iniciar uma transmissão no canal. A figura 27 relaciona em um gráfico o
desempenho dos protocolos ALOHA, S-ALOHA e as variações do CSMA em um sistema
teórico com cem terminais (TANENBAUM, 2011).
No eixo das ordenadas, o parâmetro S indica a proporção de eventos de transmissão com
sucesso (de 0 a 1 ou, analogamente, de 0% a 100%), e, no eixo das abcissas G, a intensidade
de tráfego que os terminais impõem ao canal (quantidade de pacotes de dados enviados
pelos terminais a cada tempo).
Pode-se observar que a curva do ALOHA (na figura, ele é chamado de Pure ALOHA) é a curva
mais baixa e apresenta o seu pico (melhor resultado) em torno dos 18%, conforme já
mencionado. É interessante observar também que, à medida que o G (intensidade de
tráfego) aumenta, o desempenho do ALOHA diminui até entrar em pleno colapso –
desempenho praticamente nulo. O mesmo ocorre para outras curvas, mas tal ponto de
colapso é atingido para valores de intensidade de tráfego cada vez maiores, indicando
melhores desempenhos em situações de mais alta carga. O destaque fica mesmo para o
0.01 persistent CSMA, que apresenta, no cenário teórico de estudo, um desempenho de
quase 100% (TANENBAUM, 2011).
Outro protocolo da família do CSMA que vale a pena destacar é o CSMA/CD (Acesso
múltiplo com detecção de portadora e detecção de colisão), que foi padronizado pelo IEEE
por meio da série IEEE802.3 (ETHERNET), para ser utilizado em redes locais cabeadas.
O CSMA/CD emprega uma função de detecção antecipada de colisão. Em vez de aguardar
pela mensagem de reconhecimento (ACK), o CSMA/CD é capaz de perceber a ocorrência de
uma colisão no momento em que o terminal estiver transmitindo o seu próprio pacote de
dados. Assim, é possível interromper antecipadamente uma transmissão que não teria
sucesso. Essa detecção antecipada reduz os tempos de colisão, que ficariam ocupando
desnecessariamente o canal.
Protocolos de acesso ordenado
Na última categoria de protocolos, encontramos aqueles que garantem o acesso ordenado
ao meio físico, e, portanto, são livres de colisões.
São várias as possibilidades dentro dessa categoria, mas nos concentraremos nos protocolos
que utilizam passagem de permissão.
Permissão nada mais é do que um quadro especial que circula pela rede. Com isso, a
estação que capturar a permissão terá o direito de realizar a transmissão.
Todas as outras estações que não possuem a permissão ficam impedidas de realizar uma
transmissão no enlace compartilhado. Após a sua transmissão, a estação devolve a
permissão para a rede, a fim de que outra estação consiga transmitir.
Dois protocolos de passagem de permissão foram padronizados pelo IEEE:
TOKEN RING (PASSAGEM DE PERMISSÃO EM ANEL)
Observe a figura 28 a seguir:
javascript:void(0)
javascript:void(0)
Figura 28 - (a) Rede de passagem de permissão em anel, (b) diagrama do funcionamento da
interface de cada estação (TANENBAUM, 2011)
a) Topologia de rede de passagem de permissão em anel:
As estações são conectadas em uma estrutura topológica em anel para que a permissão
(token) possa circular pelo anel. Quando a estação deseja transmitir, ela captura a
permissão e realiza a sua transmissão. Após esse momento, ela libera novamente a
permissão para circular pelo anel e permitir que outra estação possa também receber a
permissão e realizar a sua transmissão.
b) Formas de operação das interfaces de cada estação com o anel:
A figura superior mostra o comportamento padrão da interface durante o modo de escuta
do barramento em anel, enquanto a figura inferior ilustra a interface da estação quando no
modo de transmissão. Durante a transmissão, a estação abre a interface com o anel para
capturar o token e também para inserir o seu quadro de informação no barramento.
O padrão IEEE 802.5 token ring especifica ainda uma série de modos de operação para o
anel e as funções de gerência necessárias para o controle do token, contribuindo, assim,
para o bom funcionamento da rede.
TOKEN BUS (PASSAGEM DE PERMISSÃO EM BARRA)
As redes de passagem em permissão em barra, padrão IEEE 802.4, são
semelhantes às redes em anel, porém as estações são conectadas em um
barramento. Elas caracterizam um bom exemplo de topologia física (conexão
física das estações) em barra e topologia lógica (dada pelo funcionamento do
protocolo) em anel, conforme ilustra a figura 29.
A motivação para a padronização de tais redes veio do setor industrial e fabril,
que opera com as suas máquinas em linhas de produção, o que exige como
pré-requisito uma rede com topologia em barra.
Nas redes token bus, as estações possuem um número de identificação
(endereço físico) e cada estação conhece os endereços das estações vizinhas.
Assim como no token ring, existe um quadro especial de controle (token) que
regula o acesso ao meio de transmissão. A estação que possui o token (uma
por vez – não há colisões) tem garantia de transmissão por determinado
espaço de tempo. O token “circula” pelas estações no sentido decrescente dos
endereços, formando um anel lógico.
Embora as tecnologias token ring e token bus não sejam mais utilizadas em
redes locais, as soluções são elegantes e foram cuidadosamente especificadas
e padronizadas.
O estudo das soluções se justifica, pois as técnicas de passagem de permissão
têm emprego amplo na área de redes, principalmente em problemas de
compartilhamento e alocação de recursos entre múltiplos usuários.
1. O protocolo ALOHA:
A)Apresenta bom desempenho.
B)Apresenta bom desempenho.
C)Permite colisões.
D)Garante acesso ordenado ao meio.
Comentário
Parabéns! A alternativa "C" está correta.
No protocolo ALOHA, as colisões ocorrem e são previstas pela própria construção do
protocolo.
2. Os protocolos da família CSMA:
A)Apresentam um desempenho superior ao ALOHA.
B)São considerados como técnicas de alocação estática.
C)Não são mais empregadosnos dias de hoje.
D)Garantem acesso ordenado ao meio.
Comentário
Parabéns! A alternativa "A" está correta.
Os protocolos CSMA foram desenvolvidos após o ALOHA, e uma de suas finalidades é
justamente a melhoria no desempenho.
DEFINIÇÃO
Princípios teóricos de segurança e administração de redes de computadores. Ferramentas
para o alcance de um nível adequado de segurança e gerência de redes.
PROPÓSITO
Conhecer os riscos da operação e da utilização de redes de computadores, bem como os
protocolos de segurança e os tipos de ferramentas adequadas para a administração e o
gerenciamento de tais processos.
INTRODUÇÃO
A internet é uma rede comercial que pode ser utilizada por qualquer pessoa ou
empresa em todos os cantos do mundo. Com isso, possíveis problemas de
segurança afloram.
Pessoas mal-intencionadas utilizam essa rede para realizar atividades
maliciosas, como roubo de informações e de identidade, paralisação de
serviços etc.
Por isso, o tópico segurança destaca-se atualmente como uma das grandes
preocupações dos administradores de redes. Garantir a segurança na
comunicação de dados passou a ser uma das questões cruciais na utilização da
internet.
É fundamental que tanto usuários quanto profissionais de tecnologia da
informação (TI) tenham conhecimento dos riscos no uso da rede e saibam
identificar ferramentas capazes de minimizá-los.
DEFINIÇÕES
Para identificar os riscos relacionados ao uso de uma rede de computadores, é
importante conhecer algumas definições. Por conta disso, iremos nos basear
na norma ABNT NBR ISO IEC 27001:2013, reconhecida mundialmente como
uma referência na área de segurança. Essa norma apresenta as seguintes
definições:
AMEAÇA
Causa potencial de um incidente indesejado que pode resultar em danos a um sistema ou
organização.
ATAQUE
Tudo aquilo que tenta destruir, expor, alterar, desativar, roubar, obter acesso não
autorizado ou fazer uso não autorizado de um ativo.
ATIVO
Qualquer coisa que tenha valor para uma pessoa ou organização. Exemplo: os dados do
cartão de crédito, um projeto de uma empresa, um equipamento e até mesmo os
colaboradores de uma empresa podem ser definidos como ativos humanos.
Como é possível perceber nessas definições, a ameaça está relacionada a algo que pode
comprometer a segurança, enquanto o ataque é a ação efetiva contra determinado ativo.
Importante
Um incidente de segurança ocorre quando uma ameaça se concretiza e causa um dano a um
ativo.
Se uma ameaça se concretizou e causou um dano, isso significa que alguma propriedade da
segurança foi comprometida.
Três propriedades são tratadas como os pilares da segurança: Confidencialidade,
Integridade e Disponibilidade (CID).
Além delas, outras propriedades também são importantes no contexto de segurança. A
norma ABNT NBR ISO IEC 27001:2013 destaca as seguintes:
Confidencialidade
Propriedade cuja informação não está disponível para pessoas, entidades ou
processos não autorizados. Em outras palavras, a confidencialidade está
relacionada ao sigilo dos dados. Somente entes autorizados podem acessá-los.
Integridade
Propriedade que protege a exatidão e a completeza de ativos. Trata-se da
indicação de que o dado não foi adulterado. Exemplo: um ativo permanece
intacto após ser armazenado ou transportado.
Disponibilidade
Propriedade de tornar o dado acessível e utilizável sob demanda por fontes
autorizadas. Se uma pessoa ou um processo autorizado quiser acessar um
dado ou equipamento, ele estará em funcionamento.
Autenticidade
Propriedade que assegura a veracidade do emissor e do receptor de
informações trocadas. A autenticidade assevera que quem está usando ou
enviando a informação é realmente uma determinada pessoa ou processo. Em
outras palavras, garante a identidade.
Não repúdio ou irretratabilidade
Propriedade muito importante para fins jurídicos. Trata-se da garantia de que
o autor de uma informação não pode negar falsamente a autoria dela. Desse
modo, se uma pessoa praticou determinada ação ou atividade, ela não terá
como negá-la. O não repúdio é alcançado quando a integridade e a
autenticidade são garantidas.
Confiabilidade
Propriedade da garantia de que um sistema vai se comportar segundo o
esperado e projetado. Exemplo: se determinado equipamento foi projetado
para realizar uma operação matemática, esse cálculo será realizado
corretamente.
Legalidade
Propriedade relacionada com o embasamento legal, ou seja, ela afere se as
ações tomadas têm o suporte de alguma legislação ou norma. No caso do
Brasil, podemos citar o Marco Civil da Internet , a Lei Geral de Proteção de
Dados (LGPD) e o conjunto de normas 27.000 da ABNT.
Os mecanismos de proteção se relacionam a práticas, procedimentos ou
mecanismos capazes de proteger os ativos contra as ameaças, reduzindo ou
eliminando vulnerabilidades. Além disso, eles evitam que uma dessas
propriedades sejam comprometidas.
TIPOS DE ATAQUES
Para haver a identificação dos riscos, será necessário entender e classificar os
tipos de ataques que podem ser realizados contra uma rede de computadores.
Interligadas, as tabelas a seguir apresentam os critérios de classificação desses
tipos e as suas descrições:
ATAQUES DESCRIÇÃO TIPOS
ATIVOS Tentam alterar os recursos
do sistema ou afetar a sua
operação.
Ataques de interrupção
Ataques de modificação
Ataques de fabricação ou
personificação
Ataques de repetição
PASSIVOS Tentam descobrir ou utilizar
as informações do sistema
sem o objetivo de afetar
seus recursos.
Ataques de interceptação
CRITÉRIOS TIPOS DESCRIÇÃO ATAQUES
PONTO DE
INICIAÇÃO
Ataques internos
(inside attack)
Realizados dentro
da própria rede. O
atacante e a vítima
estão na mesma
rede (doméstica ou
corporativa).
Ataques externos
(outside attack)
Feitos a partir de um
ponto externo à
rede da vítima.
MÉTODO DE
ENTREGA
Ataques diretos O atacante, sem a
ajuda de terceiros,
realiza uma ação
diretamente contra
a vítima.
Ataques indiretos O atacante emprega
terceiros, ou seja,
outros usuários da
rede, para que o
ataque seja
realizado.
OBJETIVO Ataques de
interceptação
Buscam obter
informações que
trafegam na rede,
atacando a
confidencialidade.
Ataques passivos
(predominantement
e)
Ataques de
interceptação
Seu objetivo é
indisponibilizar um
ou mais serviços de
rede por meio do
excesso de
informação ou
simplesmente
desligando o
equipamento.
Ataques ativos
Ataques de
modificação
Ocorrem quando um
atacante tem acesso
não autorizado a um
sistema ou a uma
rede e modifica o
conteúdo das
informações ou as
configurações de um
sistema.
Ataques de
fabricação ou
personificação
Pretendem a
quebra,
principalmente, da
autenticidade de um
serviço ou de uma
rede.
Ataques de
repetição
Uma entidade
maliciosa intercepta
e repete uma
transmissão de
javascript:void(0)
dados válida que
trafega através de
uma rede para
produzir um efeito
não autorizado,
como a redundância
de pedidos de um
item.
ETAPAS DE UM ATAQUE
Precisamos dividir um ataque em sete etapas para poder analisá-lo de forma mais criteriosa:
• Reconhecimento;
• Armamento (weaponization);
• Entrega (delivery);
• Exploração;
• Installation;
• Comando e controle;
• Conquista.
Os atacantes passam a ter mais privilégios no alvo à medida que avançam nas etapas.
Portanto, pelo lado da defesa, o objetivo é pará-los o mais cedo possível para diminuir o
dano causado.
Analisaremos a seguir cada uma dessas etapas.
1. Reconhecimento:
Na primeira etapa, o ator da ameaça realiza uma pesquisa para coletar informações sobre o
local a ser atacado. Trata-se de uma fase preparatória na qual o atacante procura reunir o
máximo de informações sobre o alvo antes de lançar um ataque ou analisar se vale a pena
executá-lo.
As informaçõespodem ser obtidas por meio de diversas fontes:
• Sites;
• Dispositivos de rede voltados para o público;
• Artigos de notícias;
• Anais de conferências;
• Meios de comunicação social.
Qualquer local público é capaz de ajudar a determinar o que, onde e como o ataque pode ser
realizado. O atacante escolhe alvos negligenciados ou desprotegidos, pois eles possuem a
maior probabilidade de serem penetrados e comprometidos.
2. Armamento (weaponization):
Após a coleta de informações, o atacante seleciona uma arma a fim de explorar as
vulnerabilidades dos sistemas. É comum utilizar a expressão exploits para essas armas, que
podem estar disponíveis em sites na internet ou ser desenvolvidas especificamente para
determinado ataque.
O desenvolvimento de uma arma própria dificulta a detecção pelos mecanismos de defesa.
Essas armas próprias são chamadas de zero-day attack.
Após o emprego da ferramenta de ataque, espera-se que o atacante tenha conseguido
alcançar seu objetivo: obter acesso à rede ou ao sistema que será atacado.
3. Entrega (delivery)
Nesta fase, o atacante entrega a arma desenvolvida para o alvo. Para essa entrega, podem
ser utilizados diversos mecanismos. Eis alguns exemplos:
• Mensagens de correio eletrônico (e-mail);
• Mídias USB;
• Websites falsos ou infectados;
• Interação nas redes sociais.
O atacante pode usar um método ou uma combinação de métodos para aumentar a chance
de entrega do exploit. Seu objetivo é fazer com que a arma pareça algo inocente e válido, pois
ludibriar o usuário permite que ela seja entregue.
Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails
com algum assunto aparentemente de interesse da vítima. Nesta mensagem, existe um link
ou um anexo malicioso que serve de meio de entrega da arma na máquina alvo.
4. Exploração
A etapa de exploração ocorre quando o atacante, após entregar a arma, explora alguma
vulnerabilidade (conhecida ou não) na máquina infectada em busca de outros alvos dentro
da rede de destino. As vulnerabilidades que não são publicamente conhecidas são chamadas
de zero-day.
No caso do emprego de phishing, a exploração ocorre quando o e-mail recebido é aberto e o
usuário clica no link ou abre o anexo, instalando um software malicioso que infecta a sua
máquina. Isso permite o controle dela por parte do autor do ataque.
A partir desse momento, o atacante obtém acesso ao alvo, podendo obter as informações e
os sistemas disponíveis dentro da rede atacada.
Os alvos de exploração mais comuns são aplicativos, vulnerabilidades do sistema operacional
e pessoas.
5. Installation
A partir da exploração da máquina realizada na fase anterior, o atacante busca instalar algum
tipo de software que permita a manutenção do acesso à máquina ou à rede em um momento
posterior.
Para essa finalidade, é instalado no sistema alvo um Remote Access Trojan (RAT). Conhecido
também como backdoor, o RAT permite ao atacante obter o controle sobre o sistema
infectado.
Pelo lado do atacante, é importante que o acesso remoto não alerte nenhum sistema de
proteção e permaneça ativo mesmo após varreduras por sistemas de segurança da rede de
destino.
O atacante pode usar um método ou uma combinação de métodos para aumentar a chance
de entrega do exploit. Seu objetivo é fazer com que a arma pareça algo inocente e válido, pois
ludibriar o usuário permite que ela seja entregue.
Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails
com algum assunto aparentemente de interesse da vítima. Nesta mensagem, existe um link
ou um anexo malicioso que serve de meio de entrega da arma na máquina alvo.
6. Comando e controle
A partir do momento em que um RAT (backdoor) é instalado no sistema alvo, o atacante passa
a ter um canal de comunicação com o software instalado no alvo.
Denominado comando e controle, tal canal possibilita o envio de comandos para realizar
ataques na própria rede local ou para atacar a rede de terceiros, caracterizando, assim, um
ataque indireto.
7. Conquista
Quando o atacante chega à última etapa, isso é um indício de que o objetivo original foi
alcançado. A partir de agora, ele pode roubar informações, utilizar o alvo para realizar ataques
de negação de serviço, envio de spam, manipulação de pesquisas ou jogos online, entre
outras atividades.
Nesse ponto, o agente de ameaças já está profundamente enraizado nos sistemas da
organização, escondendo seus movimentos e cobrindo seus rastros.
É extremamente difícil remover o agente de ameaças da rede quando ele já chegou a esta
fase.
Saiba mais
Vamos analisar a seguinte noticia:
“Brasil sofreu 15 bilhões de ataques cibernéticos em apenas três meses. A
questão não é mais ‘o que podemos fazer se sofrermos um ataque
cibernético?’, mas, sim, ‘o que podemos fazer quando sofremos um ataque
cibernético?’”
(Fonte: TECMUNDO, 2019)
Ao analisarmos o caso, percebemos a importância da análise dos riscos
relacionados ao uso de uma rede de computadores sem a devida proteção.
Pesquise outras situações similares e procure perceber a intervenção dos
mecanismos de proteção nesses casos.
1. Os ataques podem ser classificados de diversas formas: ativo ou passivo, interno ou
externo, direto ou indireto. Os passivos são os de interceptação; os ativos, os de
modificação, interrupção, personificação ou repetição.
Considere que você esteja realizando a compra online de uma caneta. Ao verificar o extrato
de sua conta, percebe que havia duas cobranças do mesmo valor. Esse tipo de evento pode
ser associado ao ataque de:
A)Modificação, porque o atacante modificou a transação, permitindo que a operação fosse
executada duas vezes.
B)Repetição, pois o atacante capturou os pacotes com as informações de pagamento e os
enviou novamente para a cobrança no banco.
C)Interceptação, uma vez que o atacante monitorou a transação e, percebendo a troca de
informações financeiras, repetiu a operação.
D)Personificação, já que o atacante assumiu a identidade da loja online, repetindo a
operação financeira.
Comentário
Parabéns! A alternativa "B" está correta.
O ataque de repetição permitiu que fosse debitado duas vezes o mesmo valor de sua conta.
Como o atacante capturou os pacotes que realizam a transação financeira, ele pôde
modificar a conta de destino e – considerando que os dados da transação estivessem
presentes no pacote – receber o valor cobrado. Esse mesmo ataque pode ser utilizado
quando um atacante captura pacotes de autenticação, permitindo o acesso a determinada
rede ou sistema.
2. Uma das grandes ameaças existentes na internet é a chamada APT. Sigla para Advanced
Persisten Threat, ela se refere a ataques direcionados de organizações a determinadas
organizações e empresas.
Imagine que você, após ser convocado para analisar as ações de uma APT, tenha percebido
que ela estava enviando e-mails a determinada empresa com um anexo possivelmente
malicioso.
A etapa de ataque identificada está relacionada com:
A) Conquista, porque a APT obteve acesso a um endereço de e-mail válido da empresa.
B) Installation, pois a APT enviou a arma para obter acesso ao alvo.
C) Exploração, uma vez que a APT se aproveitou de uma vulnerabilidade no sistema de e-
mail.
D) Entrega, já que a APT utilizou um meio de entregar a arma a seu alvo.
Comentário
Parabéns! A alternativa "D" está correta.
O entendimento das fases dos ataques é de suma importância na segurança da rede.
Quanto mais cedo o ataque for detectado e interrompido, menos danos ele causará, porque
o atacante (no caso ilustrado, uma APT) terá tido uma menor penetração na rede e
comprometido menos o ambiente.
Estar conectado à internet nos expõe a diversos riscos, como roubo de informações e de
identidade, adulteração de informações etc. Deacordo com a norma ABNT 27001:2013,
para minimizar os riscos dessa conexão, é necessário implementar mecanismos de controle
a fim de garantir a segurança dela.
Esses mecanismos podem ser divididos em dois tipos:
Mecanismos de controle físicos
Evitam ou dificultam as falhas nos equipamentos e instalações.
Mecanismos de controle lógicos
Evitam ou dificultam as falhas relacionadas aos softwares utilizados.
Verificaremos a seguir a aplicação de ambos na manutenção da segurança de
uma conexão.
Abrange todo ambiente em que os sistemas de informação estão instalados. Seu objetivo
principal é garantir que nenhum dano físico ocorra nos equipamentos.
Exemplo
Roubo de equipamentos, incêndio, inundação e qualquer ameaça às instalações físicas.
A norma ABNT NBR ISO/IEC 27002:2013 divide a segurança física em dois itens principais:
Áreas seguras
Previnem o acesso físico não autorizado, os danos e as interferências em instalações e
informações da organização.
Equipamentos
Impedem perdas, danos, furto ou comprometimento de ativos e interrupção das atividades
da organização.
A segurança física envolve outras áreas da Engenharia, como a civil e a elétrica, ao permitir a
projeção de prédios com paredes adequadas à proteção dos equipamentos, sistemas de
para-raios, aterramento, limpeza da área para evitar incêndios etc.
Alguns exemplos de mecanismos de controle físicos podem ser encontrados no emprego
de:
Sistemas de refrigeração e de combate a incêndio
Projetados para os equipamentos poderem operar em condições adequadas de
temperatura e umidade. Ainda garantem que os casos de incêndio possam ser combatidos o
mais rápido possível.
Sala-cofre
Espaço construído com paredes corta-fogo, sistemas de refrigeração e de forma hermética
para proteger equipamentos críticos de TI.
Sistemas de energia redundantes
Funcionam como no-breaks (Uninterruptable Power Supply - UPS) e geradores. Ambos são
necessários ao permitirem que, em caso de queda de energia, os equipamentos
permaneçam em operação. Isso garante tanto o fornecimento constante de energia quanto
a manutenção dela dentro da tensão recomendada.
Preparação do ambiente contra alagamento
No caso de chuvas fortes.
Limpeza da área externa
Para evitar incêndios.
SEGURANÇA LÓGICA
A segurança lógica envolve o emprego de soluções baseadas em softwares para garantir a
CID. Entre os diversos mecanismos existentes, destacaremos os oito listados a seguir:
1. Autenticação;
2. Sistemas de controle de acesso;
3. Criptografia;
4. Funções de hash;
5. Assinatura digital;
6. Certificado digital;
7. Redes Virtuais Privadas (VPN);
8. Firewall, sistemas de detecção de intrusão e antivírus.
Vamos entender agora o funcionamento de cada um desses mecanismos.
1. Autenticação
Está relacionada à garantia da propriedade da autenticidade, evitando que terceiros possam
fingir ser uma das partes legítimas a fim de acessar sistemas ou informações não
autorizadas.
A autenticação diminui o risco de um ataque de personificação ou fabricação. Para realizá-
la, podem ser utilizados os seguintes mecanismos:
• Senhas;
• Controles biométricos;
• Tokens;
• Certificados digitais.
O mecanismo escolhido deve se adequar ao objetivo de segurança a ser alcançado.
Atualmente, os controles biométricos são considerados os mais eficientes.
Exemplo: Digitais, reconhecimento de íris, palma da mão e certificados digitais.
2. Sistemas de controle de acesso
Gerenciam os usuários que podem acessar sistemas e redes, autorizando apenas o acesso às
informações que lhes couberem. Desse modo, a confidencialidade dos dados está garantida.
Exemplo: o uso de senhas nas redes wi-fi garante que somente as pessoas autorizadas
possam utilizá-las.
Para que o controle de acesso seja efetivo, deve-se empregar um mecanismo de
autenticação a fim de validar a identidade e – caso o acesso esteja autorizado – restringir os
direitos de acesso para cada indivíduo de acordo com o seu perfil de uso.
3. Criptografia
Esta é uma vasta área que, assim como a criptoanálise – cujas técnicas não abordaremos
aqui –, compõe a criptologia.
A criptografia é uma área que estuda técnicas para esconder não a mensagem real, mas, na
verdade, o seu significado. Ela pode inclusive ser utilizada para garantir a CID. A propriedade
a ser garantida depende do mecanismo utilizado e de que maneira ele foi empregado.
Funções
Para entendermos o processo criptográfico, iremos, inicialmente, identificar duas funções
principais:
CIFRAMENTO
Transforma um escrito simples, cujo alfabeto comum é utilizado para compor a mensagem
original, em um texto cifrado. Nesse texto, as letras originais são substituídas pelas do
alfabeto cifrado, escondendo, dessa forma, o conteúdo da mensagem. A função do
ciframento é responsável pela criptografia da mensagem original. Já a substituição das letras
da original na mensagem cifrada é feita pelas cifras.(Qualquer forma de substituição
criptográfica aplicada ao texto original da mensagem.)
DECIFRAMENTO
Realiza o processo oposto. Como o texto cifrado é transformado no original, o conteúdo de
sua mensagem pode ser entendido. A função de deciframento é a responsável pela
decriptografia da mensagem cifrada.
javascript:void(0)
javascript:void(0)
javascript:void(0)
As técnicas modernas de criptografia envolvem o uso de um algoritmo de criptografia
associado a uma chave. O segredo do processo não está no algoritmo em si, e sim na chave
utilizada para a realização do ciframento.
Classificação
Quanto ao tipo de chave empregada, os algoritmos criptográficos podem ser classificados
como:
Algoritmos de chave simétrica
Criptografia de chave privada. Empregam uma única chave. Dessa forma, a mesma chave
que realiza a cifragem faz a decifragem. Alguns exemplos de algoritmos simétricos: DES,
3DES, Blowfish, RC4, RC5, IDEA, Rinjdael e Advanced Encrytion Standard (AES).(Advanced
Encrytion Standard (AES) Algoritmo padrão adotado por diversos governos e várias
empresas para garantir a confidencialidade.)
Algoritmos de chave assimétrica
Criptografia de chave pública. Utilizam duas chaves (pública e privada): uma para cifrar e
outra para decifrar. Dependendo da ordem em que ambas são empregadas, o algoritmo
pode garantir a confidencialidade ou a autenticidade.
Quando a chave pública é utilizada na função de cifragem, apenas a privada pode decifrar.
Como o nome sugere, a chave privada fica restrita à entidade.
Exemplo: pessoa, empresa ou equipamento.
Portanto, neste caso, está garantida a confidencialidade, porque só quem possui a chave
privada pode decifrar o conteúdo.
Quando ocorre o inverso, a chave privada é empregada no processo de cifragem e apenas a
pública pode decifrar.
Entretanto, como a chave usada é a pública, qualquer pessoa pode possui-la e, portanto,
decifrar a mensagem.
Não há como garantir a confidencialidade dessa forma: o que está garantido, na verdade, é
a autenticidade. A aplicação das chaves nesta ordem permite o emprego da assinatura
digital.
4. Funções de hash
O objetivo das funções de resumo de mensagem ou de hash é a garantia da integridade das
informações. Para calcular o resumo, pode ser utilizado qualquer algoritmo que pegue uma
mensagem de qualquer tamanho e a mapeie em uma sequência de caracteres de tamanho
fixo.
javascript:void(0)
Exemplo
Você tem um arquivo chamado aula.doc e quer calcular o resumo dessa mensagem. Uma
das funções de hash bastante utilizadas é o Message-Digest Algorithm 5 (MD5). Então, caso
você tenha instalado em seu computador o MD5, pode utilizar o seguinte comando:
md5sum aula.doc
A saída desse comando é uma sequência de caracteres:
5 9 5 f 4 4 f e c 1 e 9 2 a 7 1 d 3 e 9 e 7 7 4 5 6 b a 8 0 d 1
Essa saída será permanente enquanto não ocorrer nenhuma alteração no arquivo. Portanto,
toda vez que quiserverificar se ele foi modificado, basta executar novamente a função de
hash e compará-la à sequência original. Se ela permanecer a mesma, isso demonstra que o
arquivo é íntegro; caso contrário, é uma evidência de que ele foi modificado.
Uma propriedade desejável na função de resumo é que, diante de qualquer
modificação mínima na informação, o resumo gerado deve ser totalmente
diferente. As funções de resumo também são utilizadas como auxiliares no
processo de autenticação.
Alguns sistemas usam o hash para armazenar a senha de um usuário. Portanto,
quando ele cadastra uma senha, o sistema calcula o hash e armazena esse
valor. Quando o usuário for digitar sua senha para entrar no mesmo sistema, o
sistema calculará o hash, enviará essa informação e comparará com o que está
armazenado. Se for igual, o seu acesso será autorizado.
A vantagem dessa solução é que a senha do usuário não fica armazenada no
sistema nem trafega pela rede. Quem o faz é o hash.
Outra propriedade desejável das funções de resumo é que ela não é inversível,
ou seja, se temos o hash da mensagem, não conseguimos descobrir a
mensagem original. Dessa forma, podemos afirmar que ele configura uma
função criptográfica, pois esconde o conteúdo de uma mensagem. Então,
quando ocorre o envio do hash da senha, não há como um atacante descobrir
a senha original.
Entretanto, o uso isolado dele na autenticação pode gerar uma facilidade para
o ataque de reprodução. Um atacante que conseguir obter o hash das
assinaturas poderá repetir o seu processo, enviando o resumo e obtendo a
autorização de acesso.
Além do MD5, outras funções de resumo muito utilizadas são as seguintes:
Secure Hash Algorithm version 1 (SHA-1);
Secure Hash Algorithm version 2 (SHA-2);
Secure Hash Algorithm version 3 (SHA-3).
5. Assinatura digital
O objetivo do emprego da assinatura digital é assegurar a autenticidade e a
integridade das informações. Automaticamente, está garantido o não repúdio.
A assinatura ainda garante tanto a validade jurídica dos documentos, pois
existe a certeza de que eles não sofreram qualquer adulteração, estando
íntegros e completos, quanto a sua autoria, asseverando que eles realmente
foram assinados por determinada pessoa.
O processo utilizado para realizar a assinatura digital combina o emprego da
criptografia assimétrica com as funções de resumo da mensagem. Para que um
documento seja assinado digitalmente, o usuário deve seguir estes passos:
Calcular o resumo da mensagem.
Cifrar esse resumo com a chave privada do emissor do documento.
Enviar a mensagem com o resumo criptografado, que é a assinatura digital.
Ao receber o documento, o receptor precisa realizar o seguinte processo para
o validar:
O usuário deve calcular o hash da mensagem e decifrar o outro recebido com a
utilização da chave pública do emissor. Em seguida, ele vai comparar os dois
hashes. Se forem iguais, há a garantira de que o documento não foi modificado
e o emissor é autêntico. Caso sejam diferentes, algum problema ocorreu. Mas
não é possível garantir o que aconteceu, já que não se sabe se o problema
reside na modificação dele ou na autenticidade do emissor. Estabelece-se
apenas que o documento não é válido.
6. Certificado digital
Ele é utilizado para vincular a chave pública a uma entidade, como pessoa,
empresa, equipamento etc. O certificado contém a chave pública da entidade,
que é assinada digitalmente por uma terceira parte confiável chamada de
Autoridade Certificadora (AC).
O emprego do certificado digital é importante para garantir um ataque
conhecido como “homem no meio” ou, em inglês, Man In The Middle (MITM).
O MITM ocorre quando um atacante pode interceptar o envio da chave pública
e ter acesso às informações.
Ao monitorar a troca de mensagens entre Alice e Bob, Darth conseguiu obter
as informações, quebrando a confidencialidade desse processo de
comunicação.
Para resolver esse problema, é necessária uma terceira parte confiável: a AC.
Ela é a responsável por armazenar as chaves públicas das entidades envolvidas
no processo de comunicação. Dessa maneira, a chave fica assinada
digitalmente pela autoridade certificadora, como ilustra o esquema a seguir:
Voltemos ao exemplo da comunicação entre Alice e Bob. Agora ela já pode solicitar o
certificado digital dele para a AC. Ao receber esse certificado, Alice irá verificar a assinatura
digital da AC. Se ela estiver correta, é um indício de que Alice possui o certificado correto de
Bob, podendo, dessa forma, realizar a transmissão das mensagens.
O processo para obter a chave privada da AC, contudo, pode esbarrar no mesmo problema.
Para o processo funcionar corretamente, o usuário deve ir ao site da AC e realizar o
download dos certificados – chamados de certificados raiz –, garantindo, assim, a obtenção
da chave pública correta.
Saiba mais
No Brasil, as ACs estão organizadas na Infraestrutura de Chaves Públicas Brasileira (ICP-
Brasil). Trata-se de uma cadeia hierárquica de confiança que viabiliza a emissão de
certificados digitais para a identificação virtual do cidadão.
6. Redes Virtuais Privadas (VPN)
Sigla de Virtual Private Network, a VPN permite a utilização de um meio inseguro de forma
segura. Afinal, quando estamos conectados à internet e desejamos acessar algum serviço ou
rede, ficamos vulneráveis a diversos tipos de ataques.
Para minimizar o risco inerente a esse acesso, podemos empregar uma VPN, que utilizará
um túnel de comunicação entre dois dispositivos. Considere a topologia desta imagem na
qual as redes da matriz e da filial desejam trocar informações por meio da internet:
Ao trafegar pela internet, as informações trocadas entre as redes da matriz e da
filial estão sujeitas a diversos tipos de ataque. Na utilização de uma VPN, é
criado, como ilustra a imagem a seguir, um túnel virtual entre essas duas redes:
javascript:void(0)
Na utilização do túnel, as informações trafegadas ficam protegidas, já que os
dados são criptografados. Além disso, podem ser utilizados mecanismos de
autenticação e integridade para garantir tanto a entrada em cada uma das
redes só de pacotes autorizados quanto a manutenção de sua estrutura, ou
seja, que eles não sejam modificados.
7. Firewall, sistemas de detecção de intrusão e antivírus
No vídeo a seguir, falaremos sobre os seguintes mecanismos de segurança
lógica: firewall, sistemas de detecção de intrusão e antivírus.
Saiba mais
Veja o trecho da seguinte notícia:
“PF identifica invasão nos celulares de presidentes de STJ, Câmara e Senado;
PGR também foi alvo”.
(Fonte: G1, 2019)
Analisando esse ocorrido, percebemos a importância dos softwares, cuja
função é a de garantir a CID nas instituições.
Pesquise outras situações similares e procure perceber como foi a intervenção
da segurança lógica nesses casos.
1. Você foi contratado por uma empresa para realizar uma consultoria na área de
segurança. Durante o trabalho realizado, identificou que ela estava sujeita a ataques contra
a disponibilidade por falta de mecanismos de controle físicos ou lógicos.
No relatório escrito para a empresa, uma de suas sugestões foi a implantação de um
mecanismo de controle:
A) Físico, com o emprego de no-breaks para garantir o fornecimento de energia.
B) Físico, com o uso de assinaturas digitais para garantir a identidade do emissor.
C) Lógico, com o emprego de no-breaks para garantir o suprimento de energia.
D) Lógico, com a aplicação de firewalls para garantir o controle de acesso físico.
Comentário
Parabéns! A alternativa "A" está correta.
O objetivo dos mecanismos de controle físico é proteger as instalações físicas, ou seja, a
destruição, o roubo ou a paralisação de serviços. Os mecanismos físicos podem incluir desde
o uso de portões, grades e cadeados até a manutenção do ambiente dentro de condições
climáticas adequadas,como a utilização de equipamentos de refrigeração e o fornecimento
de energia ininterruptos graças ao emprego de fontes de energia redundantes (geradores e
no-breaks).
2. Leia o fragmento de texto a seguir:
“Durante um grande surto em maio de 2017, Rússia, China, Ucrânia, Taiwan, Índia e Brasil
foram os países mais afetados. O WannaCry afetou tanto pessoas quanto organizações
governamentais, hospitais, universidades, empresas ferroviárias, firmas de tecnologia e
operadoras de telecomunicações em mais de 150 países. O National Health Service do Reino
Unido, Deutsche Bahn, a empresa espanhola Telefónica, FedEx, Hitachi e Renault estavam
entre as vítimas.”
Fonte: (AVAST, s.d.)
Como foi descrito anteriormente, o WannaCry causou, em 2017, uma grande infecção em
diversas empresas no Brasil e no mundo. Esse tipo de ataque sequestrava os dados dos
usuários e exigia uma recompensa para que eles fossem disponibilizados novamente.
Para minimizar os riscos de um usuário ou uma empresa sofrer o mesmo tipo de ataque, é
necessário o emprego de:
A) Um firewall, já que este tipo de controle impede a invasão à rede, não sendo possível o
sequestro dos dados.
B) Um sistema de detecção de intrusão, pois pode monitorar o tráfego da rede,
identificando o sequestro dos dados.
C) Um antivírus, porque este tipo de ataque é realizado por um malware conhecido como
ransonware.
D) Um sistema de criptografia dos dados, uma vez que o atacante não consegue sequestrar
os dados criptografados.
Comentário
Parabéns! A alternativa "C" está correta.
A segurança de um ambiente pode ser considerada completa quando ela emprega um
conjunto de mecanismos de controle físico e lógico com o objetivo de garantir a CID. Afinal,
os mecanismos de controle lógicos, firewalls, IDS, criptografia, controle de acesso e antivírus
são soluções que devem atuar em conjunto. Os antivírus, por exemplo, são os responsáveis
pela detecção dos malwares como o WannaCry.
INTRODUÇÃO
Com o crescimento das redes, a administração e o gerenciamento delas
passaram a ser atividades de suma importância. Afinal, seus ambientes são
complexos e heterogêneos, tendo diversos tipos de equipamentos, fabricantes
e protocolos em operação.
O esquema a seguir apresenta um cenário típico de uma rede local (LAN):
Podemos observar na imagem diversos servidores e várias estações de
trabalho com sistemas operacionais Windows e Linux, firewalls, roteadores,
switches(Switches ou comutadores são ferramentas de camada de enlace que
conseguem identificar os equipamentos conectados em cada porta e
direcionar os quadros para os destinos corretos, segmentando a rede.) e
equipamentos para redes sem fio.
Imaginemos agora a seguinte situação corriqueira: uma paralisação de algum
serviço ou parte da rede. Nesses casos, muitos se perguntam: onde ocorreu a
falha? No servidor? No switch? Na estação?
A gerência de redes auxilia no processo de identificação das falhas e na
correção de problemas, permitindo que a rede possa operar corretamente e
oferecer níveis de serviços adequados à necessidade dos usuários.
O objetivo dessa gerência é monitorar e controlar os elementos físicos ou
lógicos da rede, assegurando, segundo Stallings (1998), certo nível de
qualidade de serviços.(Qualidade de serviços Trata-se do ato de oferecer
serviços que atendam à necessidade dos usuários com um funcionamento
adequado, bom desempenho e disponibilidade.)
Descobriremos a seguir como é possível atingir esse nível de qualidade.
javascript:void(0)
ARQUITETURA DE GERENCIAMENTO OSI
Para oferecer uma organização das tarefas de gerenciamento de redes, a International
Organization for Standardization (ISO) criou a M.3400, um modelo de gerência derivado de
recomendação publicada pela International Telecommunications Union (ITU).
Esse modelo se baseia em cinco áreas conhecidas pela sigla FCAPS (abreviação, em inglês,
de fault, configuration, accounting performance e security). Vamos conhecê-las agora!
Gerência de detecção e correção de falhas (F = fault)
A área de gerenciamento de falhas é importante para garantir que os serviços e as redes
permaneçam em operação. De acordo com a norma ISO, esta área permite registrar,
detectar e reagir às condições de falha da rede.
Atenção
Tal gerenciamento depende do bom funcionamento de cada componente da rede tanto de
forma isolada quanto pela interoperação com outros equipamentos dela.
As possíveis falhas nas redes podem ser causadas por problemas de:
1
Software: Falha no sistema operacional de um servidor ou em um serviço.
2
Enlace: Paralisação de operação de uma ligação entre uma matriz e uma filial por um
rompimento de cabo.
3
Equipamentos: Interrupção no fornecimento de energia.
Quando uma falha ocorre, o gerente da rede deve analisar as informações de gerência para
identificar a causa raiz do problema, descobrindo, em uma diversidade de equipamentos,
softwares e protocolos, o que realmente causou o problema.
O gerenciamento de falhas pode ser dividido em dois subsistemas:
1. Reativo: Trata as falhas no curto prazo (detecção, isolamento, correção e registro de
falhas).
2. Proativo: Monitora a rede para tentar impedir que ocorram falhas.
Gerência de configuração e operação (C = configuration)
As redes são compostas por diversos equipamentos interligados entre si que possuem uma
configuração.
Essas configurações devem ser consistentes em todos eles, permitindo que, no caso de uma
reinicialização, o dispositivo volte a operar com a configuração correta.
Desse modo, é necessário realizar o gerenciamento das configurações dos equipamentos
para:
• Garantir seu funcionamento com os ajustes corretos;
• Identificar quais dispositivos estão presentes na rede;
• Verificar se eles estão com as configurações corretas.
De acordo com Forouzan (2010), um sistema de gerenciamento de configuração
precisa saber o estado de cada entidade e sua relação com outras entidades a
todo instante.
Gerência de contabilidade e faturamento (A = accounting)
De acordo com a ISO, a gerência de contabilidade e faturamento permite especificar,
registrar e controlar o acesso de usuários e dispositivos aos recursos da rede. Por meio
desta área de gerenciamento, é possível contabilizar o consumo de determinado recurso da
rede.
Exemplo
A franquia de consumo de internet de uma linha telefônica, o que possibilita a tarifação
para o usuário.
Este tipo de gerenciamento impede que usuários possam monopolizar os recursos da rede e
libera a elaboração de planos de evolução de acordo com a demanda de uso dela.
Gerência de desempenho e otimização (P = performance)
O objetivo do gerenciamento de desempenho e otimização é garantir que uma rede esteja
em operação da forma mais eficiente possível. De acordo com a ISO, sua função é
quantificar, medir, informar, analisar e controlar o desempenho de diferentes componentes
dela.
Dentro desta área de gerenciamento, é possível realizar dois tipos de avaliação de
desempenho:
AVALIAÇÃO DE DIAGNÓSTICO
Detecta problemas e ineficiências na operação da rede.
Exemplo: Se o gerente da rede percebe um equipamento ou enlace com baixa utilização, ele
pode alterar a configuração para permitir que haja uma melhor distribuição de carga.
Esse tipo de avaliação auxilia no gerenciamento de falhas, porque é capaz de antever
situações que poderiam causar uma falha na rede.
AVALIAÇÃO DE TENDÊNCIAS
Auxilia no planejamento da evolução da rede, observando seu comportamento e estimando
a necessidade de aumento de determinado recurso.
Exemplo: O monitoramento de um enlace entre matriz e filial poderá indicar a necessidade
de um aumento na capacidade dele quando a utilização média ultrapassar determinado
valor.
Para avaliar a operação da rede, devem ser utilizadas, aponta Forouzan (2010), medidas
mensuráveis, comocapacidade, tráfego, vazão (throughput) e tempo de resposta.
Gerência de segurança e proteção (S = security)
A gerência de segurança e proteção permite controlar o acesso aos recursos da
rede e verificar se ela está de acordo com a Política de Segurança da
Informação (PSI) da empresa.
Que papel desempenha a segurança nesse contexto?
Ela envolve todas as camadas da pilha de protocolos TCP/IP, o que engloba
cada dispositivo e informação trafegando pela rede. Por isso, é possível afirmar
que esta é a área mais difícil de ser gerenciada.
ARQUITETURA DE GERENCIAMENTO EM REDE
No vídeo a seguir, falaremos sobre a arquitetura de gerenciamento de rede.
1. O diretor da empresa em que você trabalha informou a ocorrência de diversas
paralisações na rede, o que prejudica a realização das atividades dos funcionários. Alegando
que ela está subdimensionada, ele defende que a rede não consegue atender à demanda de
trabalho existente.
Você argumenta que a rede, apesar de constantemente monitorada, possui uma utilização
considerada alta (70%), precisando, portanto, ser ampliada para o atendimento dessa
demanda.
Essa situação se refere à área de gerenciamento de:
A) Desempenho, que realiza a avaliação de tendências e auxilia no planejamento da
evolução da rede.
B) Contabilização, que monitora o consumo de recursos da rede, permitindo o uso racional
dos dispositivos.
C) Falhas, que é responsável por realizar um monitoramento proativo da rede, evitando que
haja uma sobrecarga dela.
D) Configuração, que realiza o monitoramento da configuração dos dispositivos,
apresentando o consumo da rede.
Comentário
Parabéns! A alternativa "A" está correta.
A situação apresentada é típica em diversas redes. Por meio dos sistemas de
gerenciamento, é possível monitorar o seu uso e planejar os investimentos necessários para
que as demandas da rede sejam atendidas, garantindo um nível de satisfação elevado para
os seus usuários.
2. Uma arquitetura de gerenciamento de rede é composta por quatro componentes básicos:
estação de gerenciamento, dispositivo gerenciado, base de informações gerenciais e
protocolo de gerenciamento.
Tais componentes trabalham em conjunto para permitir que a rede possa ser monitorada e
controlada. Para isso:
A) O agente envia mensagens para o gerente solicitando informações dos objetos.
B) A gerência da rede é realizada pelo protocolo de gerenciamento, permitindo que os
comandos sejam executados pelo gerente.
C) A base de informações gerenciais mantém informações do estado dos diversos objetos
existentes em um dispositivo.
D) O gerente emite comandos para a base de informações gerenciais, informando os valores
de cada objeto.
Comentário
Parabéns! A alternativa "C" está correta.
A arquitetura de gerenciamento de redes é genérica, mas os sistemas de gerenciamento
existentes são baseados nos componentes apresentados. A entidade gerenciadora ou de
gerenciamento monitora e controla os dispositivos da rede por intermédio do software
gerente. No dispositivo gerenciado, o software agente recebe os comandos do gerente por
meio do protocolo de comunicação. Já o conjunto de objetos existentes compõe a base de
informações gerenciais.
-----Estudamos sobre a história e evolução das redes de computadores. Com base nos fatos relatados no corrente módulo, assinale a alternativa correta:
------Em relação à comutação de circuitos e comutação de pacotes, selecione a opção incorreta:
Nós
Enlaces
Protocolos
Classificação quanto à área de cobertura (alcance)
Redes cabeadas
TRANSPORTE DE SINAL
VANTAGENS E DESVANTAGENS
Redes sem fio
1. Em relação aos diferentes arranjos topológicos que uma rede de computadores pode assumir, assinale a alternativa correta:
2. Neste módulo estudamos algumas formas de classificação das redes de computadores. Está incorreta a afirmativa:
Peculiaridades e características das redes sem fio
Redes Locais Sem Fio – WiFi
Redes Móveis Celulares
HANDOFF
UPLINK E DOWNLINK
1. Em relação às características das redes sem fio e de todo o seu desenvolvimento, pode-se afirmar que:
2. Assinale a alternativa incorreta:
Definição
Propósito
Introdução
Modelo em camadas
Dividir para conquistar
Elementos da camada
Comunicação horizontal e vertical
Encapsulamento
Importante
1. A transmissão de dados entre dois dispositivos é uma tarefa complexa e envolve diversas funções que devem ser executadas a fim de garantir uma comunicação eficiente. Para reduzir a complexidade e tornar a comunicação uma tarefa realizável, a estrut...
2. Cada camada de uma arquitetura de redes possui três elementos: serviço, protocolo e interface. Esses elementos básicos permitem que as tarefas necessárias à transmissão de dados sejam corretamente divididas e executadas, por isso, podemos dizer que:
Modelo OSI
Importante
Aplicação
Apresentação
Sessão
Controle de diálogo
Sincronização
Transporte
Segmentação e remontagem
Controle de erros fim a fim
Controle de fluxo
Controle de conexão
Endereçamento do ponto de acesso ao serviço
Controle de congestionamento
Rede
Endereço lógico
Roteamento
Enlace
ransporte
Enlace
Controle de erros
Controle de acesso ao meio
Endereçamento físico
Controle de fluxo
Enquadramento
Física
Taxa de dados
Sincronização dos bits
Topologia física
Modo de transmissão
3. O modelo de referência OSI organiza a estrutura de rede em sete camadas e define o que cada camada faz, sem definir como faz. As camadas podem ser agrupadas em três subgrupos, sendo:
4. O modelo de referência OSI define as funcionalidades de cada camada do modelo e podemos dizer que:
Arquitetura TCP/IP
“A arquitetura foi batizada por TCP/IP por causa dos seus dois principais protocolos: Transmission Control Protocol (TCP) e Internet Protocol (IP). Ela foi apresentada pela primeira vez em 1974 (CERF, 1974) com o objetivo de criar uma arquitetura que ...
Evolução do Protocolo TCP/IP
Modelo OSI
Arquitetura TCP/IP
Funções das camadas e principais protocolos
Aplicação
Os protocolos apresentados são implementados por meio de softwares, que são executados nos diversos dispositivos computacionais, e podem estar associados a dois tipos principais de arquitetura:
Cliente-servidor
Par a par (peer-to-peer (P2P))
Transporte
TCP (Transmission Control Protocol)
UDP (User Datagram Protocol)
Então, por que usamos o UDP?
Internet
Importante
Acesso à rede
Saiba mais
5. Diferente do modelo OSI, a arquitetura TCP/IP ou internet foi projetada utilizando quatro camadas. Algumas funções das camadas do modelo OSI foram absorvidas, e podemos dizer que a:
6. A arquitetura TCP/IP tem foco principal na definição dos protocolos que devem ser empregados em cada uma das camadas. O conjunto de protocolos empregados é conhecido como pilha de protocolos e podemos dizer que:
Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.
resposta-Na camada de aplicação.
Outros exemplos de softwares de aplicação:
Navegador web
Cliente de e-mail
Jogos executados em rede
Arquiteturas de aplicações
Façamos a seguinte suposição: nosso objetivo é desenvolver uma aplicação a ser executada em rede. Para criá-la, deve-se utilizar uma linguagem de programação que possua comandos e/ou funções para a comunicação em rede.
Cliente-servidor
Servidor
Independentemente do momento em que uma solicitação é processada, o servidor, no final, Vamos analisar esse processo no exemplo a seguir.
Ele faz então o processamento solicitado e devolve ao browser o resultado disso (sua receita).
É fundamental saber que...
Servidores desempenham uma função muito importante; por isso, há equipamentos apropriados para eles, com MTBF alto e recursos redundantes.
O tipo de software instalado neste equipamento é o responsável por determinar se ele é cliente ou servidor.
Voltemos ao exemplo da aplicação web :
Para obtê-la, este servidor deve enviar uma mensagem ao servidor de bancode dados solicitando aqueles de que necessita para continuar. Neste momento, ele atua como um cliente do servidor de banco de dados.
Peer-to-peer
Em geral, nesses sistemas, os processos não são uma propriedade de corporações. Quase todos os participantes (senão todos) são provenientes de usuários comuns executando seus programas em desktops e notebooks.
Hospedeiro
Modelo de arquitetura peer-to-peer :
Vamos analisar os conceitos estudados na prática? Responda à questão a seguir.
1. Uma arquitetura amplamente utilizada no desenvolvimento de aplicações em rede é a cliente-servidor. Sobre ela, responda:
2. Marque a afirmativa verdadeira no que se refere à arquitetura peer-to-peer:
Protocolos da camada de aplicação
Mas o que é um protocolo da camada de aplicação?
Enquanto o algoritmo da camada de aplicação determina seu funcionamento no ambiente local, o protocolo dela estipula tudo que é necessário para que aplicações em diferentes hospedeiros possam trocar mensagens de maneira estruturada.
Os protocolos públicos da internet são especificados por RFCs. Desse modo, qualquer pessoa é capaz de acessar as especificações de tais protocolos e implementar os próprios softwares.
Camadas de aplicação na internet
HTTP (serviço web)
Como esse protocolo é constituído?
Na prática
Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.
Correio eletrônico (e-mail)
Tal restrição precisava ser resolvida para ser possível o envio de mensagens:
Como é construída a arquitetura do correio eletrônico?
1. Do usuário; 2. De transferência de mensagens.
É por meio dele que o usuário:
1-Orlando deseja enviar uma mensagem para Maria. Após a compor em seu agente do usuário, ele solicita seu envio para ela.
2-A mensagem é enviada do agente do usuário de Orlando até seu agente de transferência de mensagens, que a recebe, a analisa e, em seguida, a encaminha ao agente de Maria.
3-No destino, tal agente armazena as mensagens que chegam em um local conhecido como caixa de mensagens (mailbox), cujo cada usuário do sistema possui uma caixa própria.
4-Quando Maria deseja ler suas mensagens, o agente do usuário dela se liga a seu agente de transferência de mensagens e verifica quais estão armazenadas em sua caixa de mensagens.
DNS
Quais são os serviços oferecidos por ele?
Além do mapeamento de nomes de hospedeiros em endereços IP, o DNS ainda provê:
Destacaremos a seguir importantes aspectos do DNS.
Cada domínio tem seu nome definido pelo caminho entre ele e a raiz, enquanto seus componentes são separados por pontos.
1. Cabe ao protocolo da camada de aplicação definir como funcionam os processos de uma aplicação. Nesse sentido, não é função dele definir:
2. Um sistema de correio eletrônico é um exemplo de sistema implementado com base em uma série de protocolos. Dentre os protocolos a seguir, selecione o único que não é utilizado pelos sistemas de correio eletrônico:
Mas para que serve a camada de transporte?
O objetivo da camada de transporte é, independentemente das redes físicas em uso, promover a confiabilidade na transferência de dados entre os hospedeiros origem e destino.
Serviço de transporte
Se a rede oferece um serviço com que garanta uma entrega sem erros, por que uma aplicação optaria por um serviço sem essa garantia?
A resposta é simples: por questões de desempenho.
Endereçamento
Como identificamos uma aplicação específica?
Verificaremos agora a importância do endereçamento no nível de transporte. Afinal, é necessário indicar em qual aplicação os dados devem ser entregues por meio de seu endereço (de transporte). Assim, o hospedeiro destino consegue saber o destino deles.
1
2
Multiplexação e demultiplexação
Como o hospedeiro destino direciona à porta correta um segmento que chega?
Navegando na web, ele acessa seu e-mail e faz o download de arquivos usando um programa específico para isso.
Todos os programas operados por ele (browser web, cliente de e-mail e programa de transferência de arquivos) utilizam o TCP, que fará a transferência da informação até o destino.
Como o TCP sabe quem é quem?
Browser web = 11278
Cliente de e-mail = 25786
Transferência de arquivos = 3709
Multiplexação
Demultiplexação
1. Para qual das aplicações a seguir é recomendado o uso de um serviço de transporte sem conexão?
2. O endereçamento no nível de transporte é importante para a realização de:
Protocolos de transporte da internet
UDP
Quando a mensagem chega ao destino, o UDP pode entregá-la para a aplicação correta por meio do campo “porta destino”. Já a “porta origem” é importante para a aplicação que recebe a mensagem, pois ela torna possível saber o número da porta para a qual ...
216 = 65.536 bytes (64 KBytes)
DNS
SNMP
TFTP
RPC
TCP
O TCP é definido pelas seguintes RFCs:
Modelo de serviço TCP
Full-duplex
Ponto a ponto
-Acumular dados de várias escritas em um único segmento.
- Dividir os dados de uma única escrita em vários segmentos.
Cabeçalho de segmento TCP
Cada segmento TCP começa com um cabeçalho de formato fixo – podendo ser seguido por opções de cabeçalho – de 20 bytes. Depois das opções, é possível haver 65.515 bytes de dados.
Gerenciamento de conexão TCP
Apesar de conseguir fazer esse transporte, ACK só consumirá tal número quando ele surgir.
Portas conhecidas
Como podemos identificar a porta utilizada pela aplicação?
1-Empregar um sistema no qual a aplicação é registrada toda vez que inicializa para o cliente poder consultar sua porta.
2-Usar sempre o mesmo endereço de forma que as aplicações a iniciarem a conversação saibam de antemão com qual endereço trocar mensagens.
Uma porta TCP ou UDP é identificada por um número inteiro de 16 bits.
Atenção!
1. Sobre o protocolo UDP, marque a resposta correta.
2. No protocolo TCP, o campo número de confirmação carrega:
DEFINIÇÃO
PROPÓSITO
CONCEITOS BÁSICOS DA CAMADA DE REDE
ESTA UNIDADE DE DADOS TROCADA ENTRE ENTIDADES DA CAMADA DE REDE RECEBE A DENOMINAÇÃO DE PACOTE.
comentário
COMUTAÇÃO DE PACOTES STORE AND FORWARD
Repasse
Roteamento
CIRCUITOS VIRTUAIS E DATAGRAMAS
Comentário
Circuitos virtuais
- Estabelecimento do CV
- Transferência de dados
- Encerramento do CV
Datagramas
Por que a rota é alterada?
ENDEREÇAMENTO
Endereçamento hierárquico
Endereçamento horizontal
1. Quando um pacote chega para ser encaminhado por um roteador, o processo responsável pelo repasse deve:
2. Em uma rede de circuitos virtuais:
A CAMADA DE REDE NA INTERNET
PROTOCOLO IP VERSÃO 4 (IPV4)
Datagramas
Fragmentos
ENDEREÇAMENTO IPV4
A INTERFACE DE REDE É A FRONTEIRA ENTRE O HOSPEDEIRO E A REDE FÍSICA.
Atenção
A estratégia de atribuição de endereços da Internet é conhecida como Roteamento Interdomínio sem Classes (Classless Inter-domain Routing – CIDR).
CIDR
Classe A
Classe
Classe C
Classe D
Sub-Redes
NAT
Comentário
1. No CIDR (Classless Inter-domain Routing – Roteamento Interdomínio sem Classes) o prefixo de rede é utilizado para:
2. A técnica de NAT foi desenvolvida para:
PROTOCOLO DE CONTROLE DA INTERNET
ARP (ADDRESS RESOLUTION PROTOCOL)
SÃO POSSÍVEIS VÁRIAS OTIMIZAÇÕES PARA TORNAR O ARP MAIS EFICAZ. EM PRIMEIRO LUGAR, DEPOIS QUE UMA MÁQUINA EXECUTA O ARP, ELA ARMAZENA O RESULTADO EM UM CACHE.
DHCP (DYNAMIC HOST CONFIGURATION PROTOCOL)
1-Endereço IP
2-Máscara de sub-rede
3-Endereço do gateway (roteador)
4-Endereço do servidor DNS
E no caso de ambientes onde existe uma grande variação nos hospedeiros presentes na rede?
Comentário
1-Configuração manual
2-Configuração automática
3-Configuração dinâmica
ICMP (INTERNET CONTROL MESSAGE PROTOCOL)
Destination unreachable (destino inalcançável)
Time exceeded (tempo excedido)
Parameter problem (problema de parâmetro)
Source quench (redução de origem)
Redirect (Redirecionar)
Echo request (solicitação de eco)
Echo reply (resposta de eco)
Timestamp request (solicitação de carimbo de data e hora)
Timestamp reply (resposta de carimbo de data e hora)
1. O DHCP é um protocolo que foi desenvolvidopara:
2. Quando um datagrama não pode ser entregue porque o roteador não consegue localizar o destino, o protocolo responsável por informar este problema é o:
ROTEAMENTO
PRINCÍPIO DA OTIMIZAÇÃO
ROTEAMENTO PELO CAMINHO MAIS CURTO
ALGORITMOS DE ROTEAMENTO
Não adaptativos
Adaptativos
Global
Descentralizado
Roteamento de Vetor de Distâncias
TRATA-SE DO ALGORITMO DE ROTEAMENTO ORIGINAL DA ARPANET QUE TAMBÉM FOI UTILIZADO NA INTERNET COM O NOME RIP. ALGUNS ROTEADORES UTILIZAM PROTOCOLOS DE VETOR DE DISTÂNCIA MAIS APERFEIÇOADOS.
Comentário
E como saber qual o caminho que possui melhor distância apenas obtendo informações dos vizinhos?
Roteamento de estado de enlace
Descobrir seus vizinhos e aprender seus endereços de rede
Medir o retardo ou o custo para cada um de seus vizinhos
Criar um pacote que diga tudo o que acaba de ser aprendido
Enviar esse pacote a todos os outros roteadores
Calcular o melhor caminho para cada um dos outros roteadores
Roteamento hierárquico
1. Um algoritmo de roteamento adaptativo possui como característica:
2. Quando a rede cresce a ponto de ser necessário alterar o esquema de roteamento para diminuir o tamanho das tabelas, deve-se utilizar o roteamento:
CAMADA FÍSICA
TRANSMISSÃO DE SINAIS
Sinal periódico
Quanto mais rápida for a variação do sinal (menor período), maior será a frequência.
Banda passante
Taxa de transmissão
ATENUAÇÃO
RUÍDO
MEIOS FÍSICOS DE TRANSMISSÃO
Meios de transmissão guiados
PAR TRANÇADO
COAXIAL
FIBRA ÓPTICA
Meios de transmissão não guiados (espaço aberto)
1. Assinale a alternativa correta:
2. Assinale a alternativa incorreta:
INTRODUÇÃO
DELIMITAÇÃO DE QUADROS (ENQUADRAMENTO)
Contagem de caractere
Enquadramento por caractere
Enquadramento por bit
Violação de códigos do nível físico
CONTROLE DE ERROS (CODIFICAÇÃO)
Open loop
Feedback
Exemplo
CONTROLE DE FLUXO
1. Complete a frase a seguir. A técnica de enquadramento:
2. Considerando os passos estudados na construção do protocolo Stop-and-Wait ARQ, podemos afirmar que:
INTRODUÇÃO
COMO SOLUCIONAR OS PROBLEMAS
Protocolos baseados em alocação estática
1
2
Protocolos que empregam contenção
S-ALOHA
CSMA
Protocolos de acesso ordenado
TOKEN RING (PASSAGEM DE PERMISSÃO EM ANEL)
TOKEN BUS (PASSAGEM DE PERMISSÃO EM BARRA)
1. O protocolo ALOHA:
2. Os protocolos da família CSMA:
DEFINIÇÃO
PROPÓSITO
INTRODUÇÃO
DEFINIÇÕES
AMEAÇA
ATAQUE
ATIVO
Importante
Três propriedades são tratadas como os pilares da segurança: Confidencialidade, Integridade e Disponibilidade (CID).
Confidencialidade
Integridade
Disponibilidade
Autenticidade
Não repúdio ou irretratabilidade
Confiabilidade
Legalidade
TIPOS DE ATAQUES
ETAPAS DE UM ATAQUE
1. Reconhecimento:
2. Armamento (weaponization):
3. Entrega (delivery)
4. Exploração
5. Installation
6. Comando e controle
7. Conquista
Saiba mais
1. Os ataques podem ser classificados de diversas formas: ativo ou passivo, interno ou externo, direto ou indireto. Os passivos são os de interceptação; os ativos, os de modificação, interrupção, personificação ou repetição. Considere que você esteja...
2. Uma das grandes ameaças existentes na internet é a chamada APT. Sigla para Advanced Persisten Threat, ela se refere a ataques direcionados de organizações a determinadas organizações e empresas. Imagine que você, após ser convocado para analisar as...
Mecanismos de controle físicos
Mecanismos de controle lógicos
Verificaremos a seguir a aplicação de ambos na manutenção da segurança de uma conexão.
Exemplo
Áreas seguras
Equipamentos
A segurança física envolve outras áreas da Engenharia, como a civil e a elétrica, ao permitir a projeção de prédios com paredes adequadas à proteção dos equipamentos, sistemas de para-raios, aterramento, limpeza da área para evitar incêndios etc.
Sistemas de refrigeração e de combate a incêndio
Sala-cofre
Sistemas de energia redundantes
Preparação do ambiente contra alagamento
Limpeza da área externa
SEGURANÇA LÓGICA
Vamos entender agora o funcionamento de cada um desses mecanismos.
1. Autenticação
2. Sistemas de controle de acesso
Para que o controle de acesso seja efetivo, deve-se empregar um mecanismo de autenticação a fim de validar a identidade e – caso o acesso esteja autorizado – restringir os direitos de acesso para cada indivíduo de acordo com o seu perfil de uso.
3. Criptografia
Funções
CIFRAMENTO
Transforma um escrito simples, cujo alfabeto comum é utilizado para compor a mensagem original, em um texto cifrado. Nesse texto, as letras originais são substituídas pelas do alfabeto cifrado, escondendo, dessa forma, o conteúdo da mensagem. A função...
DECIFRAMENTO
As técnicas modernas de criptografia envolvem o uso de um algoritmo de criptografia associado a uma chave. O segredo do processo não está no algoritmo em si, e sim na chave utilizada para a realização do ciframento.
Classificação
Algoritmos de chave simétrica
Criptografia de chave privada. Empregam uma única chave. Dessa forma, a mesma chave que realiza a cifragem faz a decifragem. Alguns exemplos de algoritmos simétricos: DES, 3DES, Blowfish, RC4, RC5, IDEA, Rinjdael e Advanced Encrytion Standard (AES).(A...
Algoritmos de chave assimétrica
Quando a chave pública é utilizada na função de cifragem, apenas a privada pode decifrar.
Quando ocorre o inverso, a chave privada é empregada no processo de cifragem e apenas a pública pode decifrar.
4. Funções de hash
Exemplo
md5sum aula.doc
5 9 5 f 4 4 f e c 1 e 9 2 a 7 1 d 3 e 9 e 7 7 4 5 6 b a 8 0 d 1
Secure Hash Algorithm version 1 (SHA-1);
Secure Hash Algorithm version 2 (SHA-2);
Secure Hash Algorithm version 3 (SHA-3).
5. Assinatura digital
O processo utilizado para realizar a assinatura digital combina o emprego da criptografia assimétrica com as funções de resumo da mensagem. Para que um documento seja assinado digitalmente, o usuário deve seguir estes passos:
Calcular o resumo da mensagem.
Cifrar esse resumo com a chave privada do emissor do documento.
Enviar a mensagem com o resumo criptografado, que é a assinatura digital.
6. Certificado digital
O emprego do certificado digital é importante para garantir um ataque conhecido como “homem no meio” ou, em inglês, Man In The Middle (MITM). O MITM ocorre quando um atacante pode interceptar o envio da chave pública e ter acesso às informações.
O processo para obter a chave privada da AC, contudo, pode esbarrar no mesmo problema. Para o processo funcionar corretamente, o usuário deve ir ao site da AC e realizar o download dos certificados – chamados de certificados raiz –, garantindo, assim,...
Saiba mais
6. Redes Virtuais Privadas (VPN)
Na utilização do túnel, as informações trafegadas ficam protegidas, já que os dados são criptografados. Além disso, podem ser utilizados mecanismos de autenticação e integridade para garantir tanto a entrada em cada uma das redes só de pacotes autoriz...
7. Firewall, sistemas de detecção de intrusão e antivírus
Saiba mais
1. Você foi contratado por uma empresa para realizar uma consultoria na área de segurança. Durante o trabalho realizado, identificou que ela estava sujeita a ataques contra a disponibilidade por falta de mecanismos de controle físicos ou lógicos. No ...
2. Leia o fragmento de texto a seguir: “Durante um grande surto em maio de 2017, Rússia, China, Ucrânia, Taiwan, Índia e Brasil foram os países mais afetados. O WannaCry afetou tanto pessoas quanto organizações governamentais, hospitais, universidade...
INTRODUÇÃO
Podemos observar na imagem diversos servidores e várias estações de trabalho com sistemas operacionais Windows e Linux, firewalls, roteadores, switches(Switches ou comutadores são ferramentas de camada de enlace que conseguem identificar os equipament...
Imaginemos agora a seguinte situação corriqueira: uma paralisação de algum serviço ou parte da rede. Nesses casos, muitos se perguntam: onde ocorreu a falha? No servidor? No switch? Na estação?
O objetivo dessa gerência é monitorar e controlaros elementos físicos ou lógicos da rede, assegurando, segundo Stallings (1998), certo nível de qualidade de serviços.(Qualidade de serviços Trata-se do ato de oferecer serviços que atendam à necessidad...
Descobriremos a seguir como é possível atingir esse nível de qualidade.
ARQUITETURA DE GERENCIAMENTO OSI
Esse modelo se baseia em cinco áreas conhecidas pela sigla FCAPS (abreviação, em inglês, de fault, configuration, accounting performance e security). Vamos conhecê-las agora!
Gerência de detecção e correção de falhas (F = fault)
Atenção
1
2
Gerência de configuração e operação (C = configuration)
Essas configurações devem ser consistentes em todos eles, permitindo que, no caso de uma reinicialização, o dispositivo volte a operar com a configuração correta.
Gerência de contabilidade e faturamento (A = accounting)
Exemplo
Gerência de desempenho e otimização (P = performance)
AVALIAÇÃO DE DIAGNÓSTICO
AVALIAÇÃO DE TENDÊNCIAS
Gerência de segurança e proteção (S = security)
Que papel desempenha a segurança nesse contexto?
ARQUITETURA DE GERENCIAMENTO EM REDE
1. O diretor da empresa em que você trabalha informou a ocorrência de diversas paralisações na rede, o que prejudica a realização das atividades dos funcionários. Alegando que ela está subdimensionada, ele defende que a rede não consegue atender à dem...
2. Uma arquitetura de gerenciamento de rede é composta por quatro componentes básicos: estação de gerenciamento, dispositivo gerenciado, base de informações gerenciais e protocolo de gerenciamento. Tais componentes trabalham em conjunto para permitir...