Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

---- 
 A camada de rede de uma rede de computadores 
pode oferecer os serviços de circuitos virtuais ou de 
datagramas. O tipo de serviço oferecido influencia 
diretamente na forma como os pacotes serão 
transportados entre origem e destino. 
Abaixo são realizadas comparações entre circuitos 
virtuais e datagramas: 
I - Nas redes de circuitos virtuais é estabelecido um 
caminho a ser seguido por todos os pacotes de uma 
conexão, enquanto nas redes de datagrama não 
existe o conceito de conexão. 
II - Em uma rede de circuitos virtuais os roteadores 
precisam armazenar as informações de todas as 
conexões que passam por ele, enquanto nas redes de 
datagrama basta saber como chegar a cada destino. 
III - Como necessitam conhecer o caminho, somente 
as redes de circuito virtual precisam executar 
algoritmos de roteamento. Redes de datagramas não 
possuem esta necessidade. 
Com base nas comparações acima, é correto o que se 
afirma em: 
 
 
 
 
 
I e II somente 
 II e III somente 
 
I e III somente 
 Todas as afirmações estão corretas 
 I somente 
 
m administrador de redes recebe para utilização 
uma rede classe C e resolve fazer a divisão desta 
rede em sub-redes utilizando a máscara de sub-rede 
255.255.255.248. 
Quais são, respectivamente, a quantidade máxima 
de sub-redes e de interfaces de rede que poderão 
ser utilizadas em cada sub-rede? 
Dado: (248)10 = (11111000)2 
 
 
 
 
 8 sub-redes com um máximo de 32 interfaces de 
rede por sub-rede 
 8 sub-redes com um máximo de 30 interfaces de 
rede por sub-rede 
 16 sub-redes com um máximo de 16 interfaces de 
rede por sub-rede 
 32 sub-redes com um máximo de 10 interfaces de 
rede por sub-rede 
 
32 sub-redes com um máximo de 6 interfaces de 
rede por sub-rede 
 
Em uma rede IP, o endereço de difusão foi criado 
para: 
 
 
 
 
 Identificar para qual aplicação deve ser entregue a 
mensagem 
 
Mapear o endereço do hospedeiro no endereço 
externo da organização 
 Entregar um datagrama ao roteador da sub-rede 
 
Enviar uma mensagem a todos os hospedeiros de 
uma sub-rede 
 Identificar o endereço da rede 
 
Um dos protocolos de controle que são fundamentais 
para a implementação da arquitetura TCP/IP é o 
protocolo ARP. Sua função é: 
 
 
 
 
 Distribuir dinamicamente informações de 
configurações para os hospedeiros em uma sub-rede 
 
Fazer o mapeamento entre os endereços de rede e 
de enlace dos hospedeiros 
 Transferir informações de controle entre os 
roteadores de uma sub-rede 
 Possibilitar a utilização de mais endereços na rede 
interna do que os disponíveis para tal 
 Possibilitar a divisão de uma rede em sub-redes 
 
Dentre as alternativas, selecione a correta em 
relação à tabela de repasse. 
 
 
 
 
 
São montadas com base em informações 
processadas pelo algoritmo de roteamento 
 Deve possuir uma entrada para cada possível 
hospedeiro 
 São necessárias apenas quando se utiliza algoritmo 
de roteamento adaptativo 
 
Todos os roteadores da sub-rede devem possuir a 
mesma tabela de repasse 
 São criadas para estabelecer as rotas em algoritmos 
de roteamento estáticos 
 
 
 
Ao realizar uma análise de segurança em 
determinada empresa, um consultor identificou 
que seria possível invadir o servidor web da 
empresa. Podemos afirmar que o consultor 
identificou um(a): 
 
 
 
 
 Ataque, porque o invasor pode acessar o servidor da 
empresa. 
 Risco, porque a invasão requer uma análise de 
segurança da rede. 
 Ativo, porque o servidor web tem valor para a 
organização. 
 
Ameaça, que está relacionada à probabilidade de 
ocorrer um incidente. 
 Incidente, porque o atacante pode roubar 
informações do servidor web. 
Ao realizarmos compras em um site de 
comércio eletrônico, temos a preocupação de 
verificar se estamos utilizando o protocolo 
HTTPS para poder garantir: 
 
 
 
 
 
 A legalidade da transação, porque há integridade e 
autenticidade da transação. 
 Autenticidade dos dados, o que assegurará a 
veracidade do emissor e do receptor de informações 
trocadas. 
 A confiabilidade dos dados, o que assegurará que os 
dados não serão interceptados. 
 
Confidencialidade dos dados, porque o HTTPS 
criptografará os dados trafegados. 
 A disponibilidade, porque o HTTPS assegura a 
existência de redundância dos servidores. 
 
Certa empresa sofreu um ataque de negação de 
serviço, que tem por objetivo sobrecarregar a 
rede com dados acima da capacidade dela. Para 
esta atividade, o atacante utilizou máquinas de 
usuários que estavam vulneráveis na internet, 
enviando dados para a rede da empresa. 
Podemos afirmar que este ataque é: 
 
 
 
 
 De fabricação 
 
Passivo 
 
Indireto 
 Interno 
 De autenticação 
 
Atualmente, existem organizações criminosas 
que são especializadas em realizar ataques 
cibernéticos. Para aumentar a chance de o 
ataque ser bem-sucedido, essas organizações 
buscam informações em diversas fontes 
disponíveis na internet, a fim de obter 
informações que possam auxiliar no ataque. 
Podemos afirmar que esta é a fase de: 
 
 
 
 
 Entrega 
 
Conquista 
 Instalação 
 Exploração 
 
Reconhecimento 
 
A criptografia é um recurso utilizado desde 
tempos antigos, e a Cifra de César é um dos 
algoritmos mais conhecidos. Acerca das 
técnicas de criptografia, assinale a alternativa 
correta: 
 
 
 
 
 
Em um algoritmo de chave pública, ao utilizar a 
chave pública primeiro, é garantida a 
confidencialidade. 
 Um algoritmo de criptografia assimétrica emprega 
uma única chave para decifrar. 
 Um algoritmo de criptografia simétrica emprega 
duas chaves - uma para cifrar e outra para decifrar. 
 Em um algoritmo de chave privada, ao utilizar a 
chave privada primeiro, é garantida a 
confidencialidade. 
 Um algoritmo de criptografia assimétrica emprega 
uma única chave para cifrar e decifrar. 
 
Na comutação de circuitos, é necessário o estabelecimento prévio de um 
circuito físico entre a origem e o destino antes da transmissão da informação 
propriamente dita. Tomemos como exemplo a ilustração de uma conversa 
telefônica que utilize as redes tradicionais de telefonia fixa. 
Na comutação de pacotes, não existem as fases 1 e 3 descritas anteriormente, 
que compreendem o estabelecimento prévio de um circuito antes da 
transmissão dos dados e a desconexão ou o encerramento do circuito 
estabelecido ao final da comunicação. 
-----Estudamos sobre a história e evolução das redes de computadores. Com 
base nos fatos relatados no corrente módulo, assinale a alternativa correta: 
a) A ARPANET, sendo uma rede financiada pelo governo dos Estados Unidos, ficou restrita 
ao território americano. 
b) As tecnologias desenvolvidas para a Internet foram essenciais para a criação da ARPANET. 
c) A comutação de pacotes trouxe uma mudança de paradigma na comunicação de dados. 
d) O surgimento das LANs e WLANs permitiu o estabelecimento de conexões de grande 
alcance entre os nós da rede. 
------Em relação à comutação de circuitos e comutação de pacotes, selecione a 
opção incorreta: 
a) Na comutação de circuitos, o processo de transmissão da informação ocorre em três 
fases. 
b) Na comutação de pacotes, cada pacote é encaminhado de forma independente dos 
demais. 
c) A comutação de circuitos é uma tecnologia anterior à comutação de pacotes. 
d) Na comutação de pacotes, a ordem de recepção dos pacotes no destino é preservada. 
 
Nós 
Os nós representam os sistemas finais ou sistemas intermediários que são interconectados 
em rede. 
 
Enlaces 
Os enlaces representam as ligações físicas entre os nós da rede, podendo empregar os mais 
diferentes meios de transmissão: fibra ótica, par trançado, cabo coaxial, transmissão em RF, 
micro-ondas, enlace satelital, etc. 
 
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.htmlProtocolos 
Os protocolos implementam as regras de comunicação nas redes que organizam e 
controlam o fluxo de informação. Os protocolos automatizam a comunicação entre os nós e 
resolvem os problemas de transmissão, erros, controles, gerência, serviços e políticas de 
uso. 
 
A topologia de uma rede é representada pelo arranjo de ligação dos nós 
através dos enlaces. 
 As topologias são divididas em formas 
Topologia Barramento 
Topologia Estrela 
Topologia Anel ou ring 
Topologia Árvore 
Topologia ponto a ponto 
Topologia Mesh 
Topologia de paul Daran- 
-Topologia centralizada: todos os nós se ligam ao no central se um falhar 
todos falham 
-Topologia descentralizada: os nós estão ligados a sub-regiões de 
centralização. Se um elo falha pode comprometer partes isoladas da rede 
-Topologia distribuída: os nós apresentam quase a mesma importância, a falha 
de um deles tem significância mínima para a rede, apresenta mais robustei e 
depende da coperação de todos os elos, 
 
Classificação quanto à área de cobertura (alcance) 
As redes de computadores podem também ser classificadas quanto à região ou 
área física em que são dispostas para prestarem serviços aos usuários. São 
classificadas sob diversas siglas, que detalharemos no vídeo a seguir: LAN, 
MAN, WAN, WLAN, WMAN, SAN e PAN. 
 
 
Redes cabeadas 
Nas redes cabeadas (ou redes por cabo), as conexões entre os dispositivos 
empregam meios físicos por onde o sinal é transmitido de forma confinada. 
São geralmente empregados como meios físicos o cabo coaxial, o cabo de par 
trançado ou o cabo de fibra óptica 
 
TRANSPORTE DE SINAL 
Tanto o par trançado quanto o cabo coaxial transportam o sinal eletromagnético, enquanto 
na fibra óptica o sinal é propagado na forma de luz. 
VANTAGENS E DESVANTAGENS 
Cada um dos meios oferece vantagens e desvantagens em relação aos demais. Embora o 
par trançado seja mais flexível e barato, enfrenta o problema de interferências 
eletromagnéticas em maior escala. Já a fibra óptica, que é mais cara, está imune às 
interferências e possui a capacidade de atingir altas taxas de transmissão. 
 
Redes sem fio 
Nas redes sem fio o sinal é transmitido em espaço aberto, não guiado. 
Esses tipos de rede apresentam diversas facilidades em relação às redes 
cabeadas. Ex.: rapidez na instalação, capacidade de mobilidade, pouco ou 
nenhum impacto sobre a infraestrutura predial. Em alguns prédios históricos e 
locais críticos, acabam sendo a única possibilidade viável para uma rede ser 
instalada. 
 
1. Em relação aos diferentes arranjos topológicos que uma rede de computadores pode 
assumir, assinale a alternativa correta: 
a) A topologia centralizada não apresenta vantagens em relação a uma topologia 
distribuída. 
b) As topologias em estrela e anel são resistentes à queda de um enlace, mas a queda de 
dois enlaces sempre desconecta os demais nós da rede. 
c) A topologia distribuída apresenta uma maior tolerância a falhas do que as topologias 
descentralizadas e centralizadas. 
d) O arranjo topológico não interfere no desempenho global da rede. 
Responder 
Comentário 
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-01
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-02
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html
Parabéns! A alternativa C está correta. 
A topologia distribuída é a mais tolerante a falhas por não apresentar nós ou enlaces críticos 
que afetem o funcionamento global da rede. Nos outros dois tipos de arranjos existem nós 
que caso apresentem falhas são capazes de comprometer toda a estrutura da rede. 
 
 
2. Neste módulo estudamos algumas formas de classificação das redes de computadores. 
Está incorreta a afirmativa: 
a) As redes de computadores podem ser classificadas quanto ao seu tamanho ou área de 
cobertura. 
b) Uma MAN pode ser caracterizada pela ligação de diversas LANs. 
c) Os meios físicos empregados em redes cabeadas apresentam diferentes características 
quanto à imunidade ao ruído. 
d) As WLANs substituíram as LANs para poderem atingir maiores distâncias de ligação entre 
os terminais. 
Responder 
Comentário 
Parabéns! A alternativa D está correta. 
Tanto as WLANs quanto as LANs são classificadas como redes locais e, portanto, não visam 
ligações de longo alcance, as WLANs permitem, no entanto, que os terminais sejam ligados 
em rede por meio de enlaces sem fio. 
 
ALOHAnet 
Pode-se afirmar que a primeira demonstração pública das redes sem fio em pacotes (dados) 
ocorreu em junho de 1971, na Universidade do Havaí, conhecida como ALOHAnet. 
O objetivo da ALOHAnet era empregar equipamentos de rádio de baixo custo 
para as transmissões que possibilitassem a conexão dos terminais dos usuários 
espalhados pela universidade até um grande computador central de uso 
compartilhado. 
A contribuição que o sistema trouxe foi tão importante que, mais tarde, 
diversos protocolos de comunicação empregados em redes celulares e até 
mesmo em redes cabeadas foram inspirados na ALOHAnet. 
A partir de então, o desenvolvimento das redes sem fio seguiu um ritmo 
constante, até chegarmos à explosão de seu uso nos dias de hoje. Pode-se 
dizer que as tecnologias de redes sem fio foram responsáveis pela imensa 
conectividade de usuários que observamos em todo o mundo, como também 
são um veículo de participação e inclusão social. 
Porém, antes de abordarmos algumas de suas principais tecnologias, é 
importante entender alguns conceitos e algumas peculiaridades das redes sem 
fio que as diferem das redes cabeadas tradicionais. 
 
Peculiaridades e características das redes sem fio 
A simples possibilidade de se utilizar enlaces sem fio em vez de enlaces por 
cabo em redes de computadores introduz diversas vantagens. 
Vantagem 
O lançamento de cabos em áreas urbanas ou rurais, ou mesmo a instalação 
predial de cabos, pode, por vezes, ser bastante complicado, custoso ou até 
mesmo proibido. No exemplo citado anteriormente da ALOHAnet, o terreno 
acidentado e a dispersão dos terminais na universidade se tornaram 
claramente fatores motivadores para a utilização de enlaces sem fio. 
Existem também outras situações onde a adoção dos enlaces sem fio acaba se 
tornando a única opção disponível. 
Ex.: a instalação de uma rede em um prédio histórico tombado onde não é 
permitida qualquer alteração, obra ou reforma; dentro de um centro cirúrgico 
de um hospital; instalação de redes temporárias etc. 
A mobilidade dos terminais também aparece como uma das grandes 
vantagens da utilização de redes sem fio; assim, uma infinidade de diferentes 
cenários para a utilização das redes de computadores se tornou possível, tais 
como: campos de batalha, regiões afetadas por calamidades, operações de 
resgate, atividades esportivas, eventos, shows, veículos autônomos não 
tripulados, redes de sensores. 
A facilidade de expansão da rede com a inclusão de novos dispositivos e a 
rapidez com que esses dispositivos podem ser instalados e ganhar acesso à 
rede sem fio também configuram grandes vantagens em relação às redes com 
cabos. Podemos adicionar a isso a flexibilidade de o terminal poder alcançar 
locais onde o cabo não chega. 
Desvantagem 
No entanto, é importante também conhecer as desvantagens ou dificuldades 
encontradas pelas redes sem fio. Em primeiro lugar, a transmissão em espaço 
aberto traz preocupações imediatas com a segurança, visto que os sinais 
podem ser mais facilmente capturados por algum terminal não autorizado que 
esteja escutando o meio. 
A transmissão do sinal em espaço aberto também está sujeita a maior 
atenuação do sinal e interferência de outras fontes, tendo em vista que não há 
a proteção e o isolamento do meio guiado. Isso afeta diretamente as taxas de 
transmissão,o alcance e a potência necessária nos transmissores. 
A propagação do sinal também sofre o que se chama de propagação multivias; 
como o meio não é guiado, o sinal pode sofrer reflexões em obstáculos pelo 
caminho, o que dificulta a detecção da informação por parte dos receptores. 
Até mesmo as condições climáticas (temperatura, pressão, umidade do ar) 
impõem dificuldades nas transmissões. Em suma, a transmissão de sinais em 
meio aberto está sujeita a diferentes intemperes e dificuldades que 
geralmente não afetam ou são mitigadas pelos meios guiados. 
Sinal sendo refletido por múltiplos caminhos no espaço aberto (propagação multivias), 
dificultando a recepção da informação no receptor. 
Condições climáticas (chuva) causando a atenuação do sinal para o receptor. 
Redes Locais Sem Fio – WiFi 
As redes locais sem fio se tornaram atualmente uma das mais importantes tecnologias de 
acesso à Internet, estando presente nos mais diversos locais de atividade das pessoas: em 
casa, no trabalho, nos hotéis, nas universidades, escolas, nos restaurantes, cafés, 
aeroportos, estádios etc. 
A tecnologia dominante empregada em redes locais sem fio é a tecnologia WiFi, identificada 
pelo padrão IEEE 802.11. 
Redes Móveis Celulares 
Outra tecnologia de redes de comunicação sem fio amplamente utilizada nos dias atuais é a 
tecnologia de redes móveis celulares. A cobertura que essas redes oferecem nas grandes 
cidades, estradas e até mesmo em zonas rurais é bastante ampla, o que motivou a explosão 
do consumo e a utilização de aparelhos celulares como plataformas de acesso à Internet. 
Um levantamento realizado pela empresa GSMA Intelligence estimou que, até janeiro de 
2020, cerca de 5,18 billhões de pessoas aparecem como usuários de serviço de telefonia 
celular, ou seja, 66.77% da população mundial. Esse dado confirma o grande sucesso e a 
evolução tecnológica dessas redes ao longo dos anos e também reflete a necessidade da 
população mundial por serviços de redes móveis sem fio. 
Veja, a seguir, uma ilustração da estrutura básica de uma rede móvel celular. As células 
representadas pelos hexágonos cobrem determinada região geográfica na qual o acesso à 
rede é oferecido. O conjunto de células, então, garante a cobertura em uma área maior: 
uma cidade, por exemplo. Cada célula possui uma estação-base – BS (Base Station), que 
desempenha um papel semelhante ao dos APs nas redes IEEE 802.11. 
HANDOFF 
Um dos objetivos das redes móveis celulares é oferecer mobilidade total aos usuários. Ao se 
movimentarem, os usuários podem trocar de célula de cobertura e, assim, trocar também 
de acesso a outra BS. Esse processo é conhecido como handoff. O handoff é totalmente 
despercebido pelos usuários e realizado automaticamente pela rede e pelos dispositivos 
móveis. 
UPLINK E DOWNLINK 
A comunicação dos terminais até a BS é realizada pelo canal chamado uplink (canal de 
subida que é compartilhado entre os terminais), e a comunicação da BS até os terminais é 
realizada pelo downlink (canal de decida controlado unicamente pela BS). 
Assim, no canal compartilhado uplink, são necessários também os protocolos de múltiplo 
acesso para organizar a comunicação dos diversos terminais. Porém, diferente das redes 
WiFi, aqui não se utiliza o protocolo CSMA/CA, e sim soluções de compartilhamento 
estáticas baseadas, por exemplo, na técnica de múltiplo acesso por divisão no tempo – 
TDMA (Time Division Multiple Access) ou divisão de frequência – FDMA (Frequency Division 
Multiple Access). Essas soluções foram herdadas das redes de telefonia anteriores, e não 
das redes de dados. 
 
1. Em relação às características das redes sem fio e de todo o seu desenvolvimento, pode-se 
afirmar que: 
a) O desenvolvimento da ALOHAnet foi motivado pelo surgimento das WLANs. 
b) A propagação multivias e a sensibilidade às condições climáticas afetam tanto as redes 
cabeadas quanto as redes sem fio. 
c) Soluções de múltiplo acesso ao meio físico são empregadas tanto nas WLANs quanto nos 
uplinks de redes móveis celulares. 
d) O protocolo CSMA/CA padronizado para as redes móveis celulares verifica se o meio está 
livre antes de iniciar uma transmissão. 
Responder 
Comentário 
Parabéns! A alternativa C está correta. 
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-01x
http://estacio.webaula.com.br/cursos/temas/introducao_a_redes_de_computadores_e_historico_da_internet/index.html#collapse01-02x
Ambos os canais são compartilhados pelos terminais dos usuários e portanto são 
empregadas técnicas de múltiplo acesso para organizar as transmissões. 
 
2. Assinale a alternativa incorreta: 
a) Um dos objetivos do protocolo CSMA/CA é evitar a colisão entre os terminais durante as 
transmissões. 
b) Em uma BSS só pode existir um AP. 
c) O handoff garante o suporte à mobilidade em redes celulares. 
d) No protocolo CSMA/CA o terminal interrompe a transmissão tão logo detecta que 
ocorreu uma colisão. 
Responder 
Comentário 
Parabéns! A alternativa D está correta. 
O protocolo CSMA/CA não emprega dispositivo para detecção de colisão durante a 
transmissão. Uma colisão é detectada quando o terminal fonte não recebe a confirmação do 
terminal destino, vide Figura 14. 
 
 
 
 
Modelos de referência OSI e arquitetura TCP/IP 
Definição 
Organização das redes de comunicação de dados utilizadas pelos dispositivos 
computacionais e os modelos e arquitetura de redes empregados. 
Propósito 
Reconhecer como as redes de computadores estão organizadas e estruturadas para definir 
as ferramentas adequadas ao processo de troca de dados entre todos os dispositivos. 
 
Introdução 
Uma infinidade de serviços é oferecida por meio da internet, como, por exemplo, os 
governamentais, financeiros, educacionais, entre muitos outros que mudaram o 
comportamento humano. Ao ficarmos sem acesso à internet nos sentimos como se 
estivéssemos em uma ilha deserta. Experimente colocar seu smartphone em modo avião 
durante um dia e perceba como se sentirá isolado. 
 
Mas, para que todos esses serviços possam funcionar, um conjunto de funcionalidades 
complexas e difíceis de implementar deve ser disponibilizada pelos dispositivos que 
compõem uma rede. Portanto, desde o início das redes de comunicação de dados foram 
pensadas formas de otimizar o processo da transmissão de dados. 
Modelo em camadas 
A internet é um conjunto de redes de computadores que permite a troca de informações 
entre dispositivos computacionais. 
Para que essa troca seja realizada de forma eficiente, devem ser estabelecidas regras de 
comunicação. 
Essas regras são os protocolos de rede, que devem garantir que a comunicação ocorra de 
forma confiável, segura, eficaz, no momento certo e para a pessoa certa. 
De maneira intuitiva, percebemos que satisfazer a todos esses requisitos não é uma tarefa 
fácil. São muitas regras que devem ser implementadas para garantir a efetividade da 
comunicação, tornando o processo de troca de dados entre computadores uma tarefa 
extremamente complexa. 
Por causa dessa complexidade, os engenheiros e projetistas de redes do passado pensaram 
em formas de facilitar o desenvolvimento das regras nos dispositivos computacionais. Eles 
utilizaram um princípio básico de resolução de diversos outros problemas: 
Dividir para conquistar 
Nesta técnica, os projetistas dividem o problema em problemas menores e resolvem cada 
um de forma isolada. Se cada pequeno problema for resolvido, o grande problema será 
resolvido. 
Para que essa divisão ocorresse de forma simplificada, os projetistas dividiram a organização 
das redes de computadores em camadas, em que cada camada é responsável por cuidar de 
determinada regra ou protocolo necessário ao processo de comunicação. 
A quantidade de camadas utilizadas depende de como as funcionalidades são 
divididas. Quanto maior a divisão, maior o número de camadas que serãoempilhadas, numerando da mais baixa, camada 1, para a mais alta, camada n. 
As camadas se inter-relacionam da seguinte maneira: a camada superior utiliza 
os serviços oferecidos por outra imediatamente inferior, portanto, a camada 3 
utiliza os serviços oferecidos pela camada 2. 
De forma contrária, podemos dizer que a camada inferior oferece serviços para 
outra imediatamente superior, logo, a camada 2 oferece serviços para a 
camada 3. 
 
Elementos da camada 
As camadas são formadas por três elementos principais: 
Serviço: é o conjunto de funcionalidades que uma determinada camada 
oferece. Por exemplo, uma camada pode ser responsável pela verificação de 
erros na transmissão, por determinar o endereço de um computador, entre 
outras funcionalidades. O serviço diz o que a camada faz e não como ela faz. 
Protocolo: responsável pelo como a camada faz. Assim, o protocolo é a 
implementação do serviço da camada, ou seja, executa as regras para que os 
erros possam ser corrigidos ou para que um computador possa ser 
identificado. “Um conjunto de camada e protocolos é a arquitetura de rede e o 
conjunto de protocolos utilizados por determinado sistema é uma pilha de 
protocolos” 
Interface: para que uma camada possa utilizar a camada imediatamente 
inferior, é necessário que haja um ponto de comunicação entre ambas 
chamado interface. Por meio dela, uma camada pode utilizar o serviço de 
outra, passando informação para a camada vizinha. 
 
Onde, exatamente, tudo isso é implementado no computador? 
O que está implementado são os protocolos e interfaces, que podem estar 
desenvolvidos em um hardware, como uma placa de rede, ou em um 
software, como no sistema operacional da máquina. 
Agora que os elementos da camada foram apresentados, é possível entender 
dois conceitos importantes da arquitetura de redes: 
Comunicação horizontal e vertical 
Já vimos que uma camada utiliza os serviços de outra imediatamente inferior, 
sucessivamente, até chegar à camada mais baixa. Como estão empilhadas, 
podemos fazer analogia à comunicação vertical, uma vez que o dado original, 
no topo do conjunto de camadas, desce até a camada 1, caracterizando a 
verticalidade desse processo. 
Na origem, o dado a ser transmitido desce pelas camadas até o nível mais 
baixo, a camada 1. Essa camada está conectada ao meio de transmissão, como, 
por exemplo, uma fibra ótica, um cabo de rede metálico ou o ar, possíveis 
caminhos para o dado fluir até o destino. 
No destino, o processo ocorrerá de modo contrário, pois o dado sobe pelas 
camadas até o nível mais alto da arquitetura. Podemos, assim, associar a 
comunicação vertical aos serviços das camadas 
Conforme o dado passa por determinada camada, o hardware ou o software, 
responsável por implementar o protocolo, irá preparar esse dado para que a 
regra (para a qual ele foi projetado) possa ser executada. 
Por exemplo, se a camada 2 é responsável pela verificação de erro, o dado será 
preparado na origem por essa camada para que, ao passar pela camada 2 do 
destino, seja verificado se houve erro ou não. 
No exemplo anterior, vimos que a camada 2 de origem preparou o dado para 
que a camada 2 de destino verificasse se a informação está correta, 
caracterizando a existência de uma conversa entre as duas camadas de mesmo 
nível em computadores distintos. Essa conversa é a comunicação horizontal, 
realizada pelos protocolos que implementarão a regra. 
 
Encapsulamento 
Ainda pode estar um pouco abstrato como realmente a comunicação vertical 
e, principalmente, horizontal funcionam. 
Como a camada 2 da máquina de origem consegue conversar com a mesma 
camada na máquina de destino? 
A comunicação horizontal ocorre de forma virtual. A camada 2 da máquina de 
origem, ao preparar o dado para ser enviado, adiciona informações que serão 
lidas e tratadas única e exclusivamente pela mesma camada do dispositivo de 
destino. Essas informações são denominadas cabeçalhos. 
Cada camada adicionará um novo cabeçalho ao dado que será enviado, e esse 
processo é chamado de encapsulamento. 
Cada camada receberá o dado da camada superior, através da interface, e 
adicionará seu próprio cabeçalho, encapsulando o dado recebido. 
Nesse processo, quando determinada camada recebe os dados, ela não se 
preocupa com o conteúdo que recebeu, apenas adiciona o seu cabeçalho para 
permitir que o protocolo execute as regras necessárias à comunicação. 
Esse procedimento acontece, repetidamente, até alcançar a camada 1 e a 
informação ser transmitida ao destino, onde ocorrerá o processo inverso. A 
informação subirá, desencapsulando as informações, da camada 1 até o 
usuário do serviço. 
Importante 
Ao realizar o encapsulamento, a unidade de dados do protocolo ou PDU (Protocol Data Unit, 
na sigla em inglês) é criada. 
 
A PDU é constituída pela informação que vem da camada superior (PDU da camada 
superior) e o cabeçalho da própria camada. 
Após analisar o conceito de arquitetura de camadas e ver o processo de 
encapsulamento, é possível deduzir que a grande desvantagem é o acréscimo 
de informações ao dado original, aumentando o volume de tráfego. 
Entretanto, essa desvantagem é mínima comparada às vantagens que temos 
de modularização, facilidade de manutenção e atualização dos protocolos, que 
permitiram uma enorme evolução na área de redes. 
 
 
1. A transmissão de dados entre dois dispositivos é uma tarefa complexa e envolve diversas 
funções que devem ser executadas a fim de garantir uma comunicação eficiente. Para 
reduzir a complexidade e tornar a comunicação uma tarefa realizável, a estrutura de rede 
foi: 
a) Dividida em protocolos que oferecem serviços aos usuários da rede. 
b) Dividida em camadas que são responsáveis por realizar um conjunto de atividades. 
c) Dividida em diversos tipos de placas de rede para permitir o uso de vários meios de 
transmissão. 
d) Dividida em cabeçalhos que permitem a comunicação horizontal. 
Comentário 
Parabéns! A alternativa B está correta. 
A divisão em camadas permitiu a separação das funções necessárias à comunicação de 
dados entre os diferentes níveis de camadas, utilizando a ideia de dividir para conquistar, 
técnica que divide um problema grande e complexo em pequenos problemas mais simples, 
que, ao serem resolvidos, solucionarão o problema como um todo. Cada camada fica 
responsável por realizar um conjunto de atividades ou funções necessárias à transmissão 
dos dados. 
2. Cada camada de uma arquitetura de redes possui três elementos: serviço, protocolo e 
interface. Esses elementos básicos permitem que as tarefas necessárias à transmissão de 
dados sejam corretamente divididas e executadas, por isso, podemos dizer que: 
a) O serviço é a implementação das regras de comunicação, os protocolos. 
b) A interface é responsável por garantir a eficiência na transmissão dos dados. 
c) O protocolo é a implementação do serviço que a camada deve executar. 
d) Em virtude da evolução dos protocolos, os serviços deixaram de ser necessários. 
Comentário 
Parabéns! A alternativa C está correta. 
Cada camada é responsável por uma determinada regra, ou seja, o serviço define o que a 
camada deve fazer, mas não como. A responsabilidade de implementar a regra, de definir o 
como é do protocolo de rede implementado naquela camada. Portanto, é comum dizer que 
o protocolo é a implementação do serviço. 
Modelo OSI 
Na década de 1970, a International Organization for Standardization (ISO), um 
órgão que desenvolve padrões internacionais, criou um modelo de referência 
de camadas denominado OSI (Open System Interconnection - ISO/IEC 7498-
1:1994). 
O objetivo foi elaborar um modelo que permitisse a comunicação entre 
sistemas diferentes, independentemente de suas arquiteturas, facilitando a 
comunicação, sem a necessidade de realizar mudanças na lógica do hardware 
ou software (FOROUZAN, 2010). 
“Observe que o modelo OSI propriamente dito não é uma arquiteturade rede, 
pois não especifica os serviços e protocolos exatos que devem ser usados em 
cada camada. Ele apenas informa o que cada camada deve fazer. No entanto, a 
ISO também produziu padrões para todas as camadas, embora esses padrões 
não façam parte do próprio modelo de referência. Cada um foi publicado como 
um padrão internacional distinto. O modelo (em parte) é bastante utilizado, 
embora os protocolos associados há muito tempo tenham sido deixados de 
lado.” (TANENBAUM, 2011) 
Importante 
O que utilizamos hoje do modelo OSI é a referência para as funções das camadas, então, 
quando ouvimos falar que determinado protocolo é da camada X (1, 2, 3, ...). Esse X refere-
se ao OSI, tanto que é encontrada, em diversos livros e artigos, a expressão modelo de 
referência OSI (RM-OSI em inglês). 
O modelo OSI possui sete camadas, de cima para baixo: aplicação, 
apresentação, sessão, transporte, rede, enlace e física. 
De acordo com o conceito de camadas que estudamos, cada uma delas é 
responsável por determinada tarefa no processo de transmissão de dados. 
Entretanto, já sabemos que, por mais que tenham sido especificados 
protocolos para cada camada, na prática, eles não são utilizados. 
Os conceitos estudados de comunicação vertical, horizontal e encapsulamento são válidos 
nesse modelo. Portanto, um dado transmitido por um dispositivo de origem será inserido na 
estrutura de rede a partir da camada de aplicação e irá descer até a camada física, quando 
será enviado pelo meio de transmissão. Cada camada irá adicionar o seu próprio cabeçalho, 
encapsulando a PDU da camada superior e permitindo a comunicação horizontal entre 
camadas de mesmo nível. 
É possível dividir as sete camadas em três subgrupos. 
 
• As três camadas mais altas( aplicação, apresentação e sessão) estão 
relacionadas a funções que dão suporte para os usuários possam acessar 
os diversos serviços de redes, garantindo a interoperabilidade de 
sistemas heterogêneos 
• As três camadas mais inferiores ( redes, enlace e Física) estão 
relacionadas as operações ligadas aos aspectos da movimentação dos 
dados de um dispositivo para o outro, dando suporte as operações de 
rede. 
• A camada de transporte faz a interligação entre o suporte ao usuário e o 
suporte de rede. Ela vai permitir que os dados que chegaram das 
camadas mais baixas estejam em condições de serem utilizados pelas 
camadas mais altas. 
 
 
 
Aplicação 
A camada de aplicação é a que está mais próxima de nós, usuários da rede. Podemos citar 
algumas das aplicações oferecidas por essa camada: 
Serviço Web 
Serviço de correio eletrônico 
Serviço de transferência de arquivos 
Serviço de streaming de áudio e vídeo 
Serviço de compartilhamento de arquivos 
Os serviços citados acima ou quaisquer outros oferecidos pela camada de aplicação são 
executados por processos dos usuários que estão em andamento em determinado 
dispositivo. 
Apresentação 
A camada de apresentação é responsável por garantir a interoperabilidade dos sistemas 
heterogêneos, ou seja, permitir que, independentemente do dispositivo que você esteja 
utilizando (computador, smartphone, televisão, carro etc.) e do sistema operacional (MS 
Windows, Apple IOS, Linux etc.), seja possível acessar qualquer tipo de serviço 
disponibilizado pela rede. 
Para que haja essa interoperabilidade, a camada de apresentação é responsável por fazer a 
transformação dos dados, por isso, podemos chamá-la de tradutor da rede. Ela será 
responsável pela conversão entre formatos, compressão de dados e criptografia. 
Sessão 
Essa camada é responsável por organizar a comunicação entre os dispositivos e permitirá 
que os usuários, em diferentes máquinas, possam estabelecer sessões de comunicação; 
cada sessão terá dois serviços básicos: controle de diálogo e sincronização. 
Controle de diálogo 
Define quem transmitirá em determinado momento. Considerando a existência de dois 
usuários, A e B, a camada de sessão determinará se eles podem transmitir 
simultaneamente, caracterizando a comunicação full duplex, ou de forma intercalada, em 
um sentido por vez, a exemplo da comunicação half duplex. 
Sincronização 
Permite que sejam estabelecidos pontos de controle em determinado fluxo de dados. Esses 
pontos permitem que, se houver uma perda de comunicação, a transmissão de dados seja 
restabelecida a partir daquele ponto e não desde o início da transmissão. 
Transporte 
Essa camada tem por finalidade garantir a entrega de processo a processo de todos os dados 
enviados pelo usuário. Podemos dizer que a camada de transporte é responsável por entregar os 
dados corretamente para os processos que estão em execução na camada de aplicação. 
Esse papel da camada de transporte a torna uma das mais complexas dentro da estrutura do 
modelo OSI. Para garantir que as mensagens da camada de aplicação sejam entregues 
corretamente, diversas funções são necessárias: 
Segmentação e remontagem 
A camada de transporte receberá os dados originados na camada de aplicação (PDU da 
camada de aplicação) e irá dividi-los em pedaços, segmentos de dados (PDU da camada de 
transporte), que possam ser enviados e, na camada de transporte de destino, irá remontá-
los na ordem correta. Para isso, será necessário estabelecer números de sequência para 
garantir que, independentemente da ordem de chegada, os dados sejam remontados na 
ordem correta. 
Controle de erros fim a fim 
A camada de transporte irá verificar se ocorreram erros na comunicação fim a fim, ou seja, 
entre os processos da camada de aplicação. Na origem, serão adicionadas informações que 
permitam identificar no destino se durante o tráfego pela rede ocorreu algum erro e, 
possivelmente, corrigi-lo. 
Controle de fluxo 
A camada de transporte será encarregada de evitar que o processo na origem 
sobrecarregue o processo no destino. 
Controle de conexão 
A camada de transporte pode ser orientada ou não à conexão. No serviço orientado à 
conexão, a camada de transporte será responsável por estabelecer a conexão entre os 
processos de origem e destino. 
Endereçamento do ponto de acesso ao serviço 
Em um dispositivo, normalmente, estão em andamento diversos tipos de serviços 
executados por vários processos e não apenas um. A camada de transporte será responsável 
por fazer a entrega para o processo correto e, para isso, será utilizado o chamado endereço 
de porta. Ele indicará o serviço correto que deverá receber os dados. 
Controle de congestionamento 
No mundo real, as máquinas não estão diretamente conectadas, ou seja, não há uma 
comunicação ponto a ponto direta. Entre a máquina de origem e de destino existem 
diversos outros dispositivos cuja finalidade é fazer a informação ir de um ponto a outro. 
Como esses equipamentos transmitirão dados de diversas outras origens, poderá haver uma 
sobrecarga desses dispositivos. A camada de transporte será responsável por monitorar 
esse congestionamento e, possivelmente, tratá-lo. 
Rede 
A camada de rede é responsável por determinar o caminho da origem até o destino. Ela receberá 
os segmentos gerados pela camada de transporte e, no cabeçalho da camada de rede, irá inserir o 
endereço da máquina de destino para que seja enviado pela rede por meio dos diversos dispositivos 
intermediários. Enquanto a camada de transporte é responsável pela comunicação processo a 
processo, a camada de rede é encarregada da comunicação máquina a máquina. 
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-01
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-02
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-03
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-04
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-05http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse01-06
Veja a representação desse fluxo a seguir: 
Para cumprir com nosso objetivo, duas funcionalidades principais devem ser estabelecidas: 
Endereço lógico 
O endereço da porta, definido pela camada de transporte, permitirá a entrega no processo 
de destino. Mas, para que isso aconteça, é necessário que os segmentos cheguem à 
máquina de destino. Por isso, são empregados endereços lógicos a fim de permitir que os 
dispositivos intermediários encaminhem os dados pelas redes e alcancem o destino. 
Roteamento 
A função de roteamento permite estabelecer um caminho entre origem e destino. Os 
dispositivos intermediários irão verificar o endereço lógico de destino e, com base nas 
informações de caminho que eles possuem, farão o processo de encaminhamento para 
outros dispositivos intermediários a fim de alcançar o destino da informação. 
Enlace 
A camada de rede tem a responsabilidade da entrega dos dados para a máquina de destino. 
Normalmente, as máquinas não estão diretamente conectadas, ou seja, origem e destino não estão 
ligados diretamente por um meio físico, mas por dispositivos intermediários, como a internet. Então, 
como visto na camada de rede, os dados serão roteados por essa internet até chegar ao destino. 
Após ser definido por qual caminho os dados devem prosseguir, a camada de enlace surgirá para 
garantir essa comunicação ponto a ponto ou hop to hop. 
Veja a representação desse fluxo a seguir: 
A camada de enlace é responsável por garantir a comunicação entre dispositivos adjacentes. Ela 
corrigirá quaisquer problemas que tenham ocorrido no meio físico de transmissão e entregará para a 
camada de rede um serviço de transmissão de dados aparentemente livre de erros. 
É possível fazer uma analogia entre as camadas de enlace e de transporte: 
ransporte 
Realiza a entrega confiável processo a processo. 
Enlace 
Realiza a entrega confiável entre máquinas adjacentes, nó a nó. 
Por esse motivo, muitas das funções existentes na camada de transporte 
também estarão presentes na de enlace: 
Controle de erros 
Os meios de transmissão não são livres de erro, portanto, os dados que trafegam através 
deles estão sujeitos a erros. A camada de enlace pode implementar mecanismos de controle 
de erro com a finalidade de agregar confiabilidade ao serviço de transmissão. 
Controle de acesso ao meio 
Como alguns meios de transmissão são compartilhados, ou seja, mais de um dispositivo 
pode transmitir pelo mesmo meio, é necessário um mecanismo para controlar qual dos 
dispositivos pode transmitir naquele momento. 
Endereçamento físico 
Enquanto o endereço de porta indica o processo na máquina de destino e o endereço lógico 
indica o dispositivo de destino, o endereço físico indicará qual será o próximo dispositivo no 
caminho origem-destino. Ao chegar à rede de destino, o endereço físico será o do 
dispositivo final. 
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-01
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-02
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-03
Controle de fluxo 
Semelhante ao que acontece na camada de transporte, o controle de fluxo evitará que o nó 
de origem sobrecarregue o nó de destino. 
Enquadramento 
A camada de enlace receberá os dados da camada de rede (PDU da camada de rede), 
encapsulando-os em quadros (PDU da camada de enlace). Os quadros criados pela camada 
de enlace terão uma função importante, que será a adição de delimitadores de início e fim 
do quadro na origem, para permitir que, no nó vizinho, a camada de enlace possa ver o 
fluxo de bits e definir corretamente onde inicia e termina o quadro. 
Física 
Essa camada é responsável por transmitir os dados pelo meio de transmissão. Ela receberá 
os quadros da camada de enlace, que serão formados por uma sequência de bits, e irá 
codificar corretamente para que sejam enviados pelo meio de transmissão. 
A camada física será responsável pela representação dos bits, ou seja, de acordo com o 
meio de transmissão, ela irá definir se essa representação ocorrerá por pulsos de luz, no 
caso da fibra ótica, ou pulsos elétricos, no caso de empregar cabos de par trançado. Além 
disso, a camada física é responsável por: 
Taxa de dados 
A velocidade em que os bits são inseridos no meio de transmissão é responsabilidade da 
camada física. Quando ouvimos a expressão megabits por segundo (Mbps), que define a 
velocidade de determinado enlace, é responsabilidade da camada física estabelecer esse 
valor. Assim, a velocidade de transmissão definirá a duração de um bit: quanto maior a 
velocidade, menor a duração do bit, e vice-versa. 
Sincronização dos bits 
O nó transmissor e o receptor devem operar na mesma velocidade, ou seja, na mesma taxa 
de bits. Entretanto, os relógios (clocks) das camadas físicas têm pequenas diferenças, 
portanto, é possível que ocorram falhas de sincronismos. A camada física deve implementar 
algum tipo de mecanismo que permita o correto sincronismo dos bits entre origem e 
destino. 
Topologia física 
Define como os nós da rede estão interligados, podendo ser uma configuração de um enlace 
ponto a ponto, em que cada nó está diretamente conectado a outro, sem 
compartilhamento do meio, ou uma ligação ponto-multiponto, em que o enlace é 
compartilhado por diversos nós. 
Modo de transmissão 
A camada física definirá o modo de transmissão em um determinado meio: simplex, half 
duplex ou full duplex. Considerando dois dispositivos, A e B, no modo simplex só existe 
envio de dados em um sentido, por exemplo, de A para B; no modo half duplex os dados 
podem ser enviados nos dois sentidos, porém, não simultaneamente (de A para B em um 
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-04
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse02-05
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-01
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-03a
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-03
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html#collapse03-04
momento e de B para A em outro momento); e no modo full duplex os dados podem ser 
enviados simultaneamente por A e B. 
3. O modelo de referência OSI organiza a estrutura de rede em sete camadas e define o que 
cada camada faz, sem definir como faz. As camadas podem ser agrupadas em três 
subgrupos, sendo: 
a) As três camadas mais altas responsáveis por dar suporte às operações de redes. 
b) As três camadas mais baixas responsáveis por dar suporte às operações dos usuários. 
c) A camada de transporte e rede são responsáveis por dar suporte às operações de rede. 
d) As três camadas mais baixas responsáveis por dar suporte às operações de rede. 
 
Comentário 
Parabéns! A alternativa D está correta. 
As camadas de rede, enlace e física permitirão que os dados possam sair do dispositivo de 
origem e alcançar o dispositivo de destino. A camada física vai permitir que o fluxo de bits 
flua pelo meio de comunicação; a camada de enlace vai garantir que não houve erro na 
transmissão do fluxo de bits e, de acordo com o caminho definido pela camada de rede, irá 
encaminhar os dados para o próximo nó. 
 
4. O modelo de referência OSI define as funcionalidades de cada camada do modelo e 
podemos dizer que: 
a) A camada física é responsável por realizar a correção dos bits que porventura tenham 
ocorrido no meio de transmissão. 
b) A camada de rede atua no domíniodo processo, entregando os dados ao processo 
correto no destino. 
c) A camada de enlace é responsável por oferecer um serviço de transmissão de bits 
confiável para a camada de rede. 
d) A camada de sessão tem por finalidade garantir a interoperabilidade de sistemas 
heterogêneos. 
 
Comentário 
Parabéns! A alternativa C está correta. 
Os serviços oferecidos pela camada de enlace permitem que os erros que ocorram no meio 
de transmissão sejam identificados e tratados, seja descartando o quadro com erro ou 
identificando o bit errado e corrigindo-o. 
Arquitetura TCP/IP 
“A arquitetura foi batizada por TCP/IP por causa dos seus dois principais 
protocolos: Transmission Control Protocol (TCP) e Internet Protocol (IP). Ela foi 
apresentada pela primeira vez em 1974 (CERF, 1974) com o objetivo de criar 
uma arquitetura que permitisse a interligação de diversas redes de 
comunicação, sendo posteriormente adotada como padrão, de fato, para a 
comunidade internet.” (CERF; KAHN, 1974) 
Evolução do Protocolo TCP/IP 
Vamos conhecer um pouco mais sobre o protocolo TCP/IP e o seu papel na 
história da internet. 
 
A arquitetura foi criada utilizando quatro camadas: aplicação, transporte, internet e acesso 
à rede. 
As duas últimas camadas podem ser encontradas com nomes diferentes na literatura. A 
camada de rede pode ser encontrada como rede e inter-rede e a camada de acesso à rede 
pode ser encontrada como camada de enlace, host-rede, intrarrede e host-network. 
 
Após identificarmos que a arquitetura TCP/IP tem apenas quatro camadas, é possível 
imaginar que algumas das funções executadas pelas camadas de apresentação, sessão, 
enlace e rede, ausentes na arquitetura TCP/IP, serão acumuladas por outras camadas. 
As funções das camadas de apresentação e sessão serão acumuladas pela camada de 
aplicação e a funções das camadas de enlace e física serão executadas pela camada de 
acesso à rede. Observe a relação entre os dois modelos a seguir. 
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html
Uma grande diferença que temos entre o modelo de referência OSI e a 
arquitetura TCP /IP é: 
 
Modelo OSI 
É baseado, principalmente, nas funcionalidades das camadas. 
 Arquitetura TCP/IP 
Não ficou presa apenas nas funcionalidades, mas, sim, no desenvolvimento de 
protocolos relativamente independentes e hierárquicos. A hierarquia baseia-se 
em um protocolo de nível superior que é suportado pelos protocolos de nível 
inferior. 
É comum ouvirmos falar da pilha de protocolos TCP/IP. Agora que dominamos 
o conceito do modelo de camadas, como vimos no modelo OSI, fica fácil de 
entender que a pilha de protocolos TCP/IP é o conjunto de todos os protocolos 
implementados pela arquitetura. E não são poucos. 
Os principais protocolos de padrão aberto da arquitetura Internet foram 
desenvolvidos pelo IETF (The Internet Engineering Task Force), uma grande 
comunidade internacional aberta, composta por designers de rede, 
operadores, fornecedores e pesquisadores preocupados com a evolução da 
arquitetura da internet. 
Funções das camadas e principais protocolos 
Depois de estudarmos o modelo OSI, é possível ter uma ideia geral dos 
serviços de cada camada, portanto, vamos focar, principalmente, nos 
protocolos. 
Aplicação 
A camada de aplicação da arquitetura TCP/IP nos permite acessar uma 
infinidade de serviços na internet. Desde os que são utilizados de forma direta 
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html
pelos usuários, como o serviço Web, serviço de correio eletrônico, entre 
outros, bem como os que funcionam dando suporte à operação da rede, como 
o serviço de nomes (DNS). 
Os serviços são implementados pelos diversos protocolos existentes. 
Correlacionamos, a seguir, alguns serviços e protocolos utilizados na camada 
de aplicação. 
Os protocolos apresentados são implementados por meio de softwares, que 
são executados nos diversos dispositivos computacionais, e podem estar 
associados a dois tipos principais de arquitetura: 
 
 Cliente-servidor 
Na arquitetura cliente-servidor, como já evidencia o nome, existirá um cliente 
e um servidor. O cliente será executado por um usuário como nós e irá 
requisitar um serviço do servidor. Por exemplo, para o serviço Web, o cliente é 
o navegador que acessa determinado servidor, por exemplo, o servidor que 
está disponibilizando esse conteúdo. 
 Par a par (peer-to-peer (P2P)) 
A arquitetura P2P foi pensada no emprego mínimo de servidores, caso exista 
algum. A ideia da arquitetura peer-to-peer é que os usuários possam trocar 
informações de forma direta. Esse tipo de arquitetura ficou muito conhecida 
com os programas de compartilhamento de arquivos, mas também pode ser 
utilizada em outras situações, como em um chat entre duas pessoas. 
Independentemente da arquitetura utilizada, dizemos que os processos da 
camada de aplicação trocam mensagens, que é o nome da unidade de dados 
do protocolo (PDU) da camada de aplicação. 
Transporte 
Tem a mesma funcionalidade da camada existente no modelo OSI: garantir a 
entrega de processo a processo de todos os dados enviados pelo usuário. 
Porém, na arquitetura TCP/IP temos dois protocolos principais: 
TCP (Transmission Control Protocol) 
 
 
O protocolo TCP, efetivamente, confere confiabilidade. 
 
 
O protocolo TCP é um protocolo orientado à conexão, com controle de erros, 
de congestionamento e de fluxo. Também define os endereços das portas e 
divide a mensagem (PDU-A) da camada de aplicação em segmentos (PDU-T), 
determinando números de sequência para cada um, para garantir a entrega 
dos dados na ordem correta para a aplicação. O TCP é adequado para as 
aplicações de rede que precisam de confiabilidade na troca de mensagens 
entre processos. 
 
UDP (User Datagram Protocol) 
 
 
O protocolo UDP não confere confiabilidade. 
 
 
O protocolo UDP é o oposto do TCP. Ele não é orientado à conexão e não faz a 
maioria das funções da camada de rede. Podemos dizer que o UDP existe 
apenas para permitir que uma mensagem (PDU-A) seja encapsulada em um 
datagrama (PDU-T) e entregue para o processo de destino correto, já que ele 
utiliza o endereço da porta para fazer a correta entrega na máquina de 
destino. 
Então, por que usamos o UDP? 
 
 
Ele é importante para as aplicações que demandam tempo de resposta baixo 
na comunicação, como em um áudio ou uma videoconferência, e nas 
aplicações que podem funcionar tolerando algum tipo de perda. 
Internet 
A camada internet ou, simplesmente, camada de rede tem por objetivo 
permitir que os dados injetados na rede pela máquina de origem possam 
alcançar o destino. 
O principal protocolo da camada de rede é o IP (Internet Protocol). 
Ele é encontrado em duas versões principais: 
Objetivo 
Os dois protocolos têm por objetivo definir o endereço lógico, conhecido como 
endereço IP, e permitir o tratamento dos datagramas (PDU-R) para que 
possam ser roteados da origem até o destino. 
Diferença 
A diferença entre as duas versões do protocolo está no tamanho do endereço 
lógico, 32 bits para o IPv4 e 128 bits para o IPv6, no formato do datagrama e 
em algumas funções mais específicas que não abordaremos neste tema 
Semelhança 
Mas, os dois têm em comum o fato de serem não orientados à conexão, sem 
confiabilidade, ou seja, não realizam o tratamento de erros e os datagramas 
são enviados de forma independente, portanto, podem chegar em ordem 
diferente da qual foram enviados. 
Dizemos que o serviço da camada internet é de melhor esforço. 
Será feito o maior esforço de entregar as informações, mas não será garantida 
a entrega, nem a ordem, nem a ausência de erro. Qualquer problema deverá 
ser corrigido pelas camadas superiores. 
Importante 
Além do protocolo IP, a camada internet emprega outros protocolos que dão suporte ao 
encaminhamento dos dados. Existem protocoloscom o objetivo de fazer sinalização e avisos 
de erros, como o ICMP (Internet Control Message Protocol), tradução do endereço lógico 
para o físico, como o ARP (Address Resolution Protocol), e a chamada comunicação 
multicast, que permite o envio dos dados para um grupo de estações, como o protocolo 
IGMP (Internet Group Management Protocol). 
Acesso à rede 
A camada de acesso à rede não foi bem definida pela arquitetura TCP/IP, nem 
define um protocolo específico a ser empregado. O que foi dito inicialmente é 
que a camada de acesso à rede seria qualquer coisa que pudesse ligar o 
dispositivo ao enlace de transmissão. 
Mas, como para chegar até aqui já estudamos vários conceitos, sabemos que, 
apesar de não estar definida pela arquitetura TCP/IP, nesta camada 
encontraremos os serviços que são oferecidos pelas camadas de enlace e física 
do modelo OSI. 
Apesar de não fazer parte da arquitetura TCP/IP, a arquitetura desenvolvida 
pelo Instituto de Engenheiros Eletricistas e Eletrônicos (Institute of Electrical 
and Electronics Engineers – IEEE), denominada IEEE 802, é largamente utilizada 
na camada de acesso à rede. 
Ela define diversos padrões utilizados nas redes locais e metropolitanas, como 
o padrão Ethernet e o famoso WiFi, que provavelmente você está usando 
agora para acessar este conteúdo. 
Agora que terminamos a apresentação dos principais protocolos da 
arquitetura TCP/IP, podemos fazer uma correlação entre a arquitetura internet 
e seus protocolos com o modelo OSI, conforme se vê a seguir: 
Saiba mais 
A arquitetura Internet ou TCP/IP como uma estrutura de camadas não evoluiu ao longo dos 
anos. A grande evolução que tivemos foram nos protocolos empregados. 
 
Inicialmente, os protocolos da camada de aplicação eram concentrados nas aplicações 
textuais, com um pequeno volume de informação a ser trocado, como o Serviço Web criado 
por Sir Tim Berners-Lee, com foco em páginas textuais para troca de informações entre os 
centros de pesquisa. 
 
Hoje, os protocolos evoluíram significativamente para oferecer maior qualidade de serviço, 
suporte ao tráfego de vídeo, segurança, transações financeiras, entre outros. Falando 
novamente do Serviço Web, o protocolo HTTP evoluiu de um protocolo textual para binário, 
a fim de dar suporte aos diversos usos do Serviço Web, como assistir a vídeos, CRMs, ERPs, 
entre muitos outros sistemas complexos. 
 
 
5. Diferente do modelo OSI, a arquitetura TCP/IP ou internet foi projetada utilizando quatro 
camadas. Algumas funções das camadas do modelo OSI foram absorvidas, e podemos dizer 
que a: 
a) Camada de aplicação inclui as funções da camada de apresentação e sessão. 
b) Camada de transporte inclui a função da camada de sessão. 
c) Camada de enlace inclui a função da camada de rede. 
d) Camada de aplicação inclui as funções da camada de sessão e transporte. 
 
Comentário 
Parabéns! A alternativa A está correta. 
http://estacio.webaula.com.br/cursos/temas/modelos_de_referencia_osi_arquitetura_tcp/index.html
Os projetistas da arquitetura TCP/IP não viram necessidade das camadas de apresentação e 
sessão, por isso, resolveram não as utilizar. Quando fosse necessário, a camada de aplicação 
ficaria incumbida de incluir as funções que fossem necessárias. 
 
 
6. A arquitetura TCP/IP tem foco principal na definição dos protocolos que devem ser 
empregados em cada uma das camadas. O conjunto de protocolos empregados é conhecido 
como pilha de protocolos e podemos dizer que: 
a) O protocolo IP é empregado na camada de rede e oferece um serviço com confiabilidade. 
b) O protocolo TCP é empregado na camada de transporte e oferece um serviço com 
confiabilidade. 
c) O protocolo UDP é empregado na camada de rede e oferece o serviço de melhor esforço. 
d) O protocolo IP é empregado na camada de aplicação e oferece um serviço de 
configuração automática de estações. 
 
Comentário 
Parabéns! A alternativa B está correta. 
Os serviços oferecidos pela camada de enlace permitem que os erros ocorridos no meio de 
transmissão sejam identificados e tratados, descartando o quadro com erro ou identificando 
o bit errado e corrigindo-o. 
 
Vamos analisar os conceitos estudados na prática? Veja o caso a seguir. 
Quando realizamos uma compra com cartão de crédito ou débito em um estabelecimento 
comercial, é fundamental a existência de uma rede de comunicação, já que ela será o 
alicerce para execução da operação. 
Ao inseri-lo na máquina de cartão, precisamos colocar uma senha para confirmar a 
operação. Tal dado é inserido no sistema por meio de um software executado nesta 
máquina. 
resposta-Na camada de aplicação. 
 
 
 
O software de aplicação, também conhecido como software aplicativo, é nossa interface 
com o sistema (e, por consequência, com toda a rede de comunicação que suporta essa 
operação). Portanto, sempre que houver um serviço na rede, virá à mente a interface com 
ele. 
Outros exemplos de softwares de aplicação: 
Navegador web 
Cliente de e-mail 
Jogos executados em rede 
Ressaltamos que a camada de aplicação é aquela de mais alto nível do modelo OSI, fazendo 
a interface com os usuários do sistema e realizando as tarefas que eles desejam. 
Arquiteturas de aplicações 
Façamos a seguinte suposição: nosso objetivo é desenvolver uma aplicação a ser executada 
em rede. Para criá-la, deve-se utilizar uma linguagem de programação que possua 
comandos e/ou funções para a comunicação em rede. 
Mas não basta conhecer uma linguagem de programação e suas bibliotecas. Antes disso, é 
preciso definir qual arquitetura terá sua aplicação. Entre as mais conhecidas, destacam-se 
as seguintes: 
Cliente-servidor 
Nesta arquitetura, há pelo menos duas entidades: um cliente e um servidor. O servidor 
executa operações continuamente aguardando por requisições daquele(s). 
Modelo de arquitetura cliente-servidor 
 
 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
 
 
 
 
Servidor 
Quando chega uma solicitação, o servidor pode: 
 Atender imediatamente caso esteja ocioso; 
 Enfileirar a solicitação para ser atendida mais tarde; 
 Gerar um processo-filho para o atendimento da solicitação; 
 Criar uma thread para esse atendimento. 
Independentemente do momento em que uma solicitação é processada, o servidor, no final, 
Vamos analisar esse processo no exemplo a seguir. 
 envia ao cliente uma mensagem contendo o resultado do processamento. 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Você deseja fazer uma receita especial, descobrindo, em um site, aquele prato que gostaria 
de preparar. Ao clicar em um link, ela irá aparecer. Para isso acontecer, o servidor web 
(software servidor do site de receitas) fica aguardando as conexões dos clientes. 
Quando você clica no link da receita, seu browser envia uma mensagem ao servidor 
indicando qual delas você quer. 
Ele faz então o processamento solicitado e devolve ao browser o resultado disso (sua 
receita). 
É muito importante compreender, de maneira prática, o funcionamento do processamento 
de resultados. 
É fundamental saber que... 
Servidores desempenham uma função muito importante; por isso, há equipamentos 
apropriados para eles, com MTBF alto e recursos redundantes. 
O tipo de software instalado neste equipamento é o responsável por determinar se ele é cliente ou 
servidor. 
 
Além disso, um processo pode atuar simultaneamente como cliente e servidor. 
Voltemos ao exemplo da aplicação web : 
Quando seu browser solicita a receita ao servidor web, aquele está atuando como cliente e 
este, como servidor. 
Mas esse processo nem sempre é simples; afinal, a aplicação que executa no servidor web e 
realiza o processamento solicitado pode precisar de uma informação armazenada em um 
banco de dados externo. 
Paraobtê-la, este servidor deve enviar uma mensagem ao servidor de banco de dados 
solicitando aqueles de que necessita para continuar. Neste momento, ele atua como um 
cliente do servidor de banco de dados. 
Peer-to-peer 
Enquanto existe uma distinção bem clara entre os processos que trocam informações na 
arquitetura cliente-servidor, na peer-to-peer – também conhecida como arquitetura P2P –, 
todos os processos envolvidos desempenham funções similares. 
Em geral, nesses sistemas, os processos não são uma propriedade de corporações. Quase 
todos os participantes (senão todos) são provenientes de usuários comuns executando seus 
programas em desktops e notebooks. 
Hospedeiro 
Também conhecido como host, o hospedeiro é qualquer equipamento conectado à rede 
capaz de trocar informações com outros equipamentos. Exemplos: computadores, 
roteadores, impressoras de rede, smartphones etc. 
Modelo de arquitetura peer-to-peer : 
Na ordem, 1, 2 e 3, o fluxo de informações e como elas se organizam. 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
 
 
 
 
 
Vamos analisar os conceitos estudados na prática? Responda à questão a seguir. 
Você conhece algum tipo de sistema de compartilhamento utilizado na internet? Em qual 
tipo de arquitetura ele está fundamentado? 
Resposta: Uma aplicação amplamente utilizada na internet é o sistema de compartilhamento 
de arquivos BitTorrent. 
 
Baseado na arquitetura peer-to-peer, este sistema permite que seus usuários compartilhem 
arquivos sem haver a necessidade de eles estarem armazenados em um servidor. 
 
 
 
1. Uma arquitetura amplamente utilizada no desenvolvimento de aplicações em rede é a 
cliente-servidor. Sobre ela, responda: 
a) Cabe ao servidor iniciar toda negociação com seus clientes. 
b) Existe uma distinção bem clara entre clientes e servidores. Um processo não pode ser 
cliente e servidor simultaneamente. 
c) É a função desempenhada pelo software que determina se a entidade é cliente ou 
servidor. 
d) Quando chega uma requisição de um cliente, o sistema operacional deve iniciar a 
execução do servidor. 
 
Comentário 
Parabéns! A alternativa C está correta. 
O que determina se a função desempenhada pela entidade é de cliente ou de servidor é seu 
comportamento definido pelo algoritmo executado, ou seja, pelo software. 
 
 
2. Marque a afirmativa verdadeira no que se refere à arquitetura peer-to-peer: 
a) Permite uma forma de armazenamento distribuída desde as informações do sistema. 
b) Cada processo na arquitetura desempenha uma função bem definida e diferente das 
funções dos demais processos. 
c) Um dos maiores problemas é sua baixa escalabilidade. 
d) A comunicação entre os processos deve ser intermediada por um servidor. 
 
Comentário 
Parabéns! A alternativa A está correta. 
Na arquitetura peer-to-peer, todas as entidades desempenham a mesma função, possuindo 
igual capacidade de armazenamento das informações do sistema. Dessa forma, uma 
informação procurada pode estar com qualquer um dos participantes da rede, estando 
distribuída por todo o sistema. 
 
 
Protocolos da camada de aplicação 
Conforme estudamos, é na camada de aplicação que são executados os processos dos 
usuários. Nos processos em que eles interagem, realiza-se o que seus usuários esperam. 
Porém, para que uma aplicação possa trocar dados com outra, é necessário definir um 
protocolo de aplicação. 
Mas o que é um protocolo da camada de aplicação? 
Um protocolo de camada de aplicação define como processos de uma aplicação, que 
funcionam em sistemas finais diferentes, passam mensagens entre si. Em particular, um 
protocolo de camada de aplicação define: 
• Os tipos de mensagens trocadas, por exemplo, de requisição e de resposta; 
• A sintaxe dos vários tipos de mensagens, tais como os campos da mensagem e como 
os campos são delineados; 
• A semântica dos campos, isto é, o significado da informação nos campos; 
• Regras para determinar quando e como um processo envia e responde mensagens. 
Enquanto o algoritmo da camada de aplicação determina seu funcionamento no ambiente 
local, o protocolo dela estipula tudo que é necessário para que aplicações em diferentes 
hospedeiros possam trocar mensagens de maneira estruturada. 
Os protocolos públicos da internet são especificados por RFCs. Desse modo, qualquer 
pessoa é capaz de acessar as especificações de tais protocolos e implementar os próprios 
softwares. 
Para que possamos compreender melhor o funcionamento das camadas de aplicação, 
analisaremos aquela aplicada na internet; afinal, trata-se de uma rede de abrangência 
mundial presente no dia a dia de milhões de pessoas. 
Camadas de aplicação na internet 
Descreveremos a seguir o funcionamento de três importantes aplicações das camadas de 
aplicação na internet: 
HTTP (serviço web) 
Definido pelas RFCs 1945 e 2616, o HTTP (hypertext transfer protocol) é o protocolo padrão 
para transferência de páginas web na internet. 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
javascript:void(0);
javascript:void(0);
Em 1991, a web foi idealizada no CERN como uma forma de fazer com que grupos de 
cientistas de diferentes nacionalidades pudessem colaborar por meio da troca de 
informações baseadas em hipertextos. Em dezembro daquele ano, foi realizada uma 
demonstração pública na conferência Hypertext 91. 
Como esse protocolo é constituído? 
1- Uma página web típica é um documento em formato HTML que pode conter imagens e 
outros tipos de objetos, como vídeos, texto, som etc. 
Para exibir determinada página web, o usuário digita no browser o endereço no qual ela se 
encontra (ou clica em um hiperlink para esta página), indicando o local em que deve ser 
buscada. Para que uma página seja transferida do servidor até o browser, um padrão deve 
ser seguido pelos softwares (cliente e servidor). Ele especifica como o cliente solicita a 
página e o servidor a transfere para o cliente. 
2- Esse padrão é o protocolo HTTP. A mensagem HTTP, por sua vez, é carregada pelo por 
outro protocolo: TCP. 
Uma interação entre cliente e servidor se inicia quando ele envia uma requisição a um 
servidor. A solicitação mais comum consiste em: 
• Enviar um texto em formato ASCII; 
• Iniciar com a palavra GET; 
• Inserir página solicitada, protocolo utilizado na transferência e servidor a ser 
contatado. 
Na prática 
Vamos analisar os conceitos estudados na prática? Veja o caso a seguir. 
Para solicitar a página web da Organização das Nações Unidas utilizando o protocolo HTTP, 
o browser estabelece uma conexão TCP com o servidor web situado no endereço 
www.un.org e lhe envia a seguinte solicitação: 
 
Como esse processo é organizado? 
Ao receber a solicitação, o servidor busca a página web solicitada, a transfere para o cliente 
e, após confirmada a entrega, encerra a conexão. 
 
Como o HTTP utiliza o TCP, não é necessário se preocupar com questões de confiabilidade 
na entrega dos dados. Ele é um protocolo em constante evolução, havendo atualmente 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
várias versões em uso. Por isso, o cliente deve informar a versão do protocolo a ser usado 
quando solicita uma página web. 
 
Correio eletrônico (e-mail) 
Trouxemos um exemplo paraesclarecer essa questão: 
Os primeiros sistemas de correio eletrônico foram concebidos como um simples sistema 
voltado para a troca de arquivos. O destinatário da mensagem era especificado na primeira 
linha do texto. 
Bastava então que o sistema procurasse ali para quem a mensagem deveria ser entregue. 
Porém, com o passar do tempo, surgiram novas necessidades que dificilmente eram 
atendidas por ele. 
Em 1982, ainda na era da ARPANET, foram publicadas as RFCs 821 e 822, definindo, 
respectivamente, o protocolo de transmissão a ser utilizado e o formato da mensagem. 
Entretanto, apesar de ambas resolverem o problema inicial a que se propunham, elas 
especificavam que todo o texto deveria ser composto pelo código ASCII. 
Tal restrição precisava ser resolvida para ser possível o envio de mensagens: 
 
Como é construída a arquitetura do correio eletrônico? 
A arquitetura do sistema de correio eletrônico é construída com base em dois agentes: 
1. Do usuário; 
2. De transferência de mensagens. 
 
 
O agente do usuário é o programa que faz a interface do usuário com o sistema de correio 
eletrônico. 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
javascript:void(0);
javascript:void(0);
É por meio dele que o usuário: 
 
Para entendermos melhor o assunto, analisaremos a seguir a comunicação entre Orlando e 
Maria. Esse caso explicita uma arquitetura do sistema de correio eletrônico: 
 
 
1-Orlando deseja enviar uma mensagem para Maria. Após a compor em seu agente do 
usuário, ele solicita seu envio para ela. 
2-A mensagem é enviada do agente do usuário de Orlando até seu agente de transferência 
de mensagens, que a recebe, a analisa e, em seguida, a encaminha ao agente de Maria. 
3-No destino, tal agente armazena as mensagens que chegam em um local conhecido como 
caixa de mensagens (mailbox), cujo cada usuário do sistema possui uma caixa própria. 
4-Quando Maria deseja ler suas mensagens, o agente do usuário dela se liga a seu agente de 
transferência de mensagens e verifica quais estão armazenadas em sua caixa de mensagens. 
 
Para concluirmos esse estudo, analisaremos importantes características dos protocolos 
apresentados: 
SMTP- O protocolo responsável pela transferência da mensagem até seu destino é o SMTP. 
Definido pela RFC 5321, ele utiliza o protocolo de transporte TCP, obtendo, assim, a 
garantia de que ela será entregue no destino sem erros. 
O servidor SMTP aguarda por conexões de seus clientes. Quando uma conexão é 
estabelecida, o servidor inicia a conversação enviando uma linha de texto na qual se 
identifica e informa se está pronto (ou não) para receber mensagens. Se ele não estiver, o 
cliente deverá encerrar a conexão e tentar novamente mais tarde. 
Caso o servidor esteja acessível, o cliente precisa informar aos usuários a origem e o destino 
da mensagem. Se o servidor considerar que se trata de uma transferência válida, sinalizará 
para que ele a envie. Após o envio, o servidor confirma sua recepção e a conexão é 
encerrada. 
Exemplo: 
Retomando o caso da comunicação anterior, podemos ver, na sequência apresentada 
adiante, a conversação entre cliente e servidor para estabelecer a transferência da 
mensagem de orlando@origem.net para maria@destino.net: 
220 Protegido SMTP server 
hello rayra.origem.net 
250 Hello rayra.origem.net, pleased to meet you 
mail from: 
250 ... Sender ok 
rcpt to: < maria@destino.net > 
250 < maria@destino.net >... Recipient ok 
data 
354 Please start mail input. 
subject: Teste de email 
Primeira linha da mensagem de teste. 
Segunda linha. 
Quarta linha. 
mailto:orlando@origem.net
mailto:maria@destino.net
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
mailto:maria@destino.net
mailto:maria@destino.net
. 
250 Mail queued for delivery. 
Entrega final 
 
Quando uma mensagem chega ao servidor do destinatário, ela deve ser armazenada em 
algum local para que possa ser acessada mais tarde (assim que o destinatário estiver on-
line). Este local é a caixa de mensagens. 
 
Como o SMTP é responsável somente pela entrega da mensagem no servidor destino, isso 
requer a utilização de outro protocolo de modo que o cliente possa buscar suas mensagens 
no mailbox. 
POP3 - A RFC 1939 estipula que o POP3 (post office protocol version 3) tem a finalidade de 
fazer o download das mensagens que se encontram no mailbox do usuário para o sistema 
local. Caso estejam neste sistema, ele pode utilizá-las em qualquer momento, mesmo sem 
ter conexão com a internet. 
O POP3 é implementado na maioria dos agentes de usuário. Basta configurar os parâmetros 
de conta e senha do usuário para que o agente faça o download das mensagens. Ele permite 
o download seletivo delas, assim como apagar as selecionadas no servidor. 
IMAP - Assim como o POP3, o IMAP (internet message access protocol) permite que um 
usuário tenha acesso às mensagens armazenadas em sua caixa. Porém, enquanto o POP3 é 
baseado na transferência delas para o sistema local a fim de serem lidas, o IMAP consegue 
permitir sua leitura diretamente no servidor, dispensando, portanto, a transferência para o 
sistema local. 
Isso será particularmente útil para usuários que não utilizarem sempre o mesmo 
computador, pois isso permite que suas mensagens possam ser acessadas a partir de 
qualquer sistema. Definido pela RFC 3501, o IMAP também fornece mecanismos para criar, 
excluir e manipular várias caixas de correio no servidor. 
DNS 
A comunicação entre hospedeiros na internet ocorre por meio de endereços binários de 
rede. Afinal, para se comunicar com um destino, o hospedeiro precisa conhecer seu 
endereço. 
Entretanto, é bem mais fácil trabalhar com nomes de hospedeiros do que com seus 
endereços de rede. Além de ser muito difícil conhecer todos os endereços dos hospedeiros 
com os quais precisamos trabalhar, precisaríamos ser notificados toda vez que algum deles 
mudasse de endereço. 
Para resolver esse problema, foi desenvolvido o domain name system (DNS). Sua finalidade 
é a criação de um sistema de nomes de forma hierárquica e baseada em domínios. Para 
acessar um hospedeiro, portanto, basta conhecer seu nome de domínio e fazer uma 
consulta ao servidor DNS, que é responsável por descobrir seu endereço. 
javascript:void(0);
javascript:void(0);
Quais são os serviços oferecidos por ele? 
Além do mapeamento de nomes de hospedeiros em endereços IP, o DNS ainda provê: 
• Identificação de servidores de correios eletrônicos; 
• Apelidos para hospedeiros; 
• Distribuição de carga; 
• Descoberta de nomes de hospedeiros (mapeamento reverso). 
Destacaremos a seguir importantes aspectos do DNS. 
O espaço de nomes 
O espaço de nomes do DNS é dividido em domínios estruturados em níveis. Confira a 
organização do primeiro nível: 
 
Os domínios genéricos informam o tipo de organização ao qual o domínio está vinculado. 
Alguns exemplos são: 
• .com = comercial; 
• .edu = instituições educacionais; 
• .int = algumas organizações internacionais; 
• .org = organizações sem fins lucrativos. 
Os domínios de países, por sua vez, possuem uma entrada para cada país. Alguns exemplos 
são: 
• .br = Brasil; 
• .pt = Portugal; 
• .jp = Japão; 
• .ar = Argentina. 
 
Cada domínio tem seu nome definido pelo caminho entre ele e a raiz, enquanto seus componentes 
são separados por pontos. 
Cada domínio controla como são criados seus subdomínios. Para a criação de um novo 
domínio, é necessária apenas a permissão daquele no qual será incluído. 
 
Não há qualquer restrição sobre a quantidade de subdomínios que podem ser criados 
dentro de um domínio. Os nomes de domínio não fazem distinção entre letras maiúsculas e 
minúsculas. 
 
EDU e edu, por exemplo, são o mesmo. 
 
Os nomes de componentes podem ter até 63 caracteres, enquanto os de caminhos 
completos não podem ultrapassar os 255. 
O DNS é implementado sobreo protocolo UDP (user datagram protocol). Trata-se de um 
protocolo do nível de transporte que não garante a entrega dos dados no destino. Dessa 
forma, cabe ao software DNS garantir uma comunicação confiável. 
 
Resolução de Nomes 
O espaço de nomes do DNS é dividido em zonas. Independentes, elas possuem um servidor 
de nomes principal e pelo menos um de nomes secundário: 
• Servidor de nomes principal: Configurado com as informações das zonas sob sua 
responsabilidade, ele faz o repasse delas para os servidores de nome secundários; 
 
 
• Servidor de nomes secundário: Responde pelas zonas caso haja uma falha do 
servidor de nomes principal. 
As zonas do DNS definem o que um servidor deve resolver. Se ele for o responsável pela 
zona pesquisada (servidor autoritativo), deverá fazer a resolução solicitada. 
• Três principais componentes do DNS: 
 
1. Registros de recursos armazenados em um banco de dados distribuído; 
 
2. Servidores de nomes DNS responsáveis pela manutenção de zonas específicas; 
 
3. Solucionadores DNS em execução nos clientes. 
 
 
• Solucionador X servidor DNS. 
Quando um solucionador solicita a resolução de um nome para o servidor DNS, pode 
acontecer o seguinte: 
 
1. O servidor DNS é o responsável pela zona: O servidor resolve o nome solicitado e 
o devolve ao solucionador; 
 
2. O servidor DNS não é o responsável pela zona, mas possui a resolução em cache: 
O servidor envia a resolução ao solucionador; 
 
3. O servidor DNS não é o responsável pela zona nem possui a resolução em cache: O 
servidor precisa realizar uma busca para resolver o nome. 
 
 
 
Vamos entender como é feita a busca para a resolução do nome www.sus.gov.br: 
 
A: Quando a aplicação do cliente solicita a resolução do nome www.sus.gov.br, o 
solucionador envia a requisição para o servidor de nomes local, que é o responsável por 
tratá-la até obter a resposta completa. Desse modo, ele não retorna respostas parciais para 
o solucionador. A este tipo de consulta damos o nome de consulta recursiva. 
 
 
B: No entanto, para obter a resposta completa, o servidor de nomes precisa realizar uma 
série de iterações com outros servidores. Caso nenhuma informação parcial esteja em seu 
cache, o servidor local primeiramente precisa descobrir quem é o servidor responsável por 
resolver o domínio br. 
 
 
C: Para isso, ele consulta um servidor de nomes raiz, que indica onde o servidor DNS de “br” 
pode ser encontrado. O servidor local continua realizando consultas para resolver cada 
domínio parcial até que haja uma resolução completa. Este tipo de consulta é conhecido 
como consulta iterativa. 
O excesso de consultas em um servidor DNS pode levar à sobrecarga. 
 
Como evitar esse tipo de problema? 
 
Os servidores devem evitar responder consultas recursivas de clientes não autorizados. Para 
isso, os administradores de servidores DNS precisam configurar no servidor aqueles 
autorizados a realizar consultas recursivas. Dessa forma, se houver a consulta de um que 
não esteja, ela automaticamente será nega 
 
 
1. Cabe ao protocolo da camada de aplicação definir como funcionam os processos de uma 
aplicação. Nesse sentido, não é função dele definir: 
a) Os tipos de mensagens trocadas. 
b) O significado de cada campo do protocolo. 
c) Quando um processo pode enviar e responder mensagens. 
d) O endereço de rede do servidor. 
 
Comentário 
Parabéns! A alternativa D está correta. 
Servidores de aplicações podem estar espalhados por todo o mundo, cada um deles com o 
próprio endereço. Dessa forma, o protocolo da camada de aplicação não pode determinar 
em qual endereço de rede o servidor está localizado. 
 
 
2. Um sistema de correio eletrônico é um exemplo de sistema implementado com base em 
uma série de protocolos. Dentre os protocolos a seguir, selecione o único que não é 
utilizado pelos sistemas de correio eletrônico: 
a) HTTP 
b) SMTP 
c) POP3 
d) IMAP 
 
Comentário 
Parabéns! A alternativa A está correta. 
O HTTP é o protocolo utilizado para transferência de páginas web. Ele não é usado como 
protocolo de correio eletrônico. 
 
 
ENVIAR 
Graças a essa abordagem, podemos compreender os conceitos do protocolo TPC/IP, bem 
como os exemplos práticos aplicados na camada de transporte. Além disso, percebemos a 
importância da interface para esta camada. 
Mas para que serve a camada de transporte? 
Executadas na camada de aplicação, as aplicações precisam de um modelo de rede no qual 
haja a entrega de uma mensagem (ou um fluxo de dados) tanto em um ponto de rede 
quanto em sua aplicação par no hospedeiro destino. 
O objetivo da camada de transporte é, independentemente das redes físicas em uso, 
promover a confiabilidade na transferência de dados entre os hospedeiros origem e destino. 
Como veremos no decorrer do nosso estudo, esta camada deve oferecer um serviço de 
transferência confiável, embora caiba à aplicação decidir sobre o seu uso. 
Serviço de transporte 
Em uma arquitetura de camadas, podemos afirmar que o objetivo geral de uma camada é 
oferecer serviços àquela imediatamente superior. No caso da camada de transporte, sua 
pretensão é oferecê-los à de aplicação. 
Como um dos principais objetivos da camada de transporte é ofertar um serviço confiável e 
eficiente a seus usuários, ela precisa oferecer, no mínimo, um serviço orientado à conexão e 
outro sem conexão. 
Para atingir esse objetivo, a camada de transporte utiliza os serviços oferecidos pela de 
rede. No serviço de transporte orientado à conexão (serviço confiável), existem três fases: 
Por meio de um controle apurado da conexão, esse serviço de transporte consegue verificar 
quais pacotes chegaram com erro ao destino e até mesmo aqueles que não foram enviados, 
sendo capaz de retransmiti-los até que os dados estejam corretos. 
Já no serviço de transporte sem conexão, não existe nenhum controle sobre os pacotes 
enviados. Se um deles se perder ou chegar ao destino com erro, nada será feito para obter a 
sua recuperação. 
 
 
Se a rede oferece um serviço com que garanta uma entrega sem erros, por que uma aplicação 
optaria por um serviço sem essa garantia? 
A resposta é simples: por questões de desempenho. 
Pelo fato de ser preciso cuidar de cada pacote no serviço orientado à conexão, verificando-
os e retransmitindo-os em caso de necessidade, esse controle gera um overhead. Como 
nada disso é feito no serviço sem conexão, os pacotes são entregues no destino de forma 
mais simples e rápida. 
 
Aplicações como transferência de arquivos e e-mail exigem que seus dados cheguem ao 
destino livres de erros. Dessa forma, elas utilizam um serviço orientado à conexão. 
Ainda assim, em certas aplicações, o mais importante é a chegada a tempo de uma 
informação, mesmo que ela contenha erros ou que a mensagem anterior tenha se 
perdido. 
No serviço de telefonia em rede, por exemplo, o atraso na transmissão tem um efeito pior 
que um pequeno ruído causado pela eventual perda de pacote. 
Endereçamento 
Quando seu programa solicita algo a um servidor, o sistema envia uma mensagem para ser 
entregue à aplicação que executa em um hospedeiro remoto. Mas podem existir várias 
aplicações nele. 
Como identificamos uma aplicação específica? 
Surge neste momento o endereçamento no nível de transporte. Sua função é identificar em 
qual aplicação determinada mensagem deve ser entregue. Afinal, toda mensagem do 
protocolo de transporte carrega o endereço da aplicação. 
Verificaremos agora a importância do endereçamento no nível de transporte. Afinal, é 
necessário indicar em qual aplicação os dados devem ser entregues por meio de seu 
endereço (de transporte). Assim, o hospedeiro destino consegue saber o destino deles. 
Estudaremos mais adiante TCP e UDP, dois protocolos da camada de transporte da 
arquitetura TCP/IP. Neles, o endereço de transporte é conhecido como porta. 
 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/1 
Como a aplicação do hospedeiro 1 sabe em que endereço de transporte se encontra o 
servidor no 2? Uma possibilidade é que: 
• Ele esteja associado ao endereço há anos; 
• Aos poucos, todos os usuários da rede tenham se acostumado com isso. 
2 
Neste modelo, os serviços possuem endereços estáveis que podem ser impressos e 
distribuídos aos novos usuários quando eles se associam à rede. 
 
 
Multiplexação e demultiplexação 
A multiplexação e a demultiplexação fornecem um serviço de entrega processo a processo 
para aplicações executadas nos hospedeiros. 
No hospedeiro destino, a camada de transporte recebe segmentos de dados da camada de 
rede, tendo a responsabilidade de entregá-los ao processo de aplicação correto. 
Como o hospedeiro destino direciona à porta correta um segmento que chega? 
Para essa finalidade, cada segmento da camada de transporte tem um conjunto de campos 
de endereçamento no cabeçalho. No receptor, a camada de transporte examina esses 
campos para identificar a porta receptora e direcionar o segmento a ela. A tarefa de 
entregar os dados contidos em um segmento para a porta correta é denominada 
demultiplexação. 
 
Já a multiplexação consiste no trabalho de, no hospedeiro origem: 
• Reunir porções de dados provenientes de diferentes portas; 
• Encapsular cada porção de dados com as informações de cabeçalho (as quais, mais 
tarde, serão usadas na demultiplexação) para criar segmentos; 
• Passar os segmentos para a camada de rede. 
Vamos pensar no computador que Eduardo utiliza em suas atividades. 
 
Navegando na web, ele acessa seu e-mail e faz o download de arquivos usando um 
programa específico para isso. 
De fato, o objetivo da multiplexação é possibilitar uma melhor utilização do meio de 
comunicação ao permitir que ele seja compartilhado pelos diversos programas utilizados. 
 
Eduardo utiliza a internet, cujo protocolo de transporte é o TCP. 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
 
Todos os programas operados por ele (browser web, cliente de e-mail e programa de 
transferência de arquivos) utilizam o TCP, que fará a transferência da informação até o 
destino. 
A multiplexação, portanto, permite que vários programas possam utilizar o TCP ao mesmo 
tempo, fazendo, assim, com que Eduardo possa ter tantos programas quanto queira ao 
acessar a rede. 
Como o TCP sabe quem é quem? 
Para fazer uso dele, um processo deve se registrar em uma porta (endereço de transporte) 
do protocolo TCP. Servidores possuem portas conhecidas, mas programas clientes se 
registram nas aleatórias. 
Vamos supor que os programas de Eduardo se registraram nas seguintes portas: 
Browser web = 11278 
 
 
Cliente de e-mail = 25786 
 
 
Transferência de arquivos = 3709 
 
Dessa maneira, o TCP pode identificar cada uma. Quando o browser envia uma solicitação a 
um servidor web, o TCP coloca na informação enviada o número de porta 11278. O servidor, 
portanto, já sabe que deve responder-lhe enviando a resposta para esta porta. 
Observemos, por fim, a multiplexação e a demultiplexação na prática: 
Multiplexação 
Ao receber mensagens das aplicações para envio, o protocolo de transporte as identifica por 
seus respectivos números de porta, permitindo, assim, que várias aplicações possam utilizá-
los ao mesmo tempo. 
Demultiplexação 
Quando recebe as mensagens do hospedeiro remoto para entregá-las em cada aplicação, o 
protocolo de transporte verifica o número da porta destino que a mensagem carrega e a 
entrega para o processo registrado nela. 
 
1. Para qual das aplicações a seguir é recomendado o uso de um serviço de transporte sem 
conexão? 
a) Telefonia 
b) Correio eletrônico 
c) Serviço web 
d) Transferência de arquivos 
 
Comentário 
Parabéns! A alternativa A está correta. 
No serviço de telefonia, uma eventual tentativa de correção de erros provocaria atraso na 
chegada da fala de uma pessoa em seu destino. Atrasos são muito prejudiciais neste tipo de 
serviço, pois os interlocutores se confundem quando ocorrem defasagens entre a 
transmissão e a recepção da mensagem. 
 
2. O endereçamento no nível de transporte é importante para a realização de: 
a) Identificação do hospedeiro 
b) Correção de erros 
c) Encerramento da conexão 
d) Demultiplexação 
 
Comentário 
Parabéns! A alternativa D está correta. 
Como a camada de transporte precisa identificar a qual dos processos da camada de 
aplicação ela deve entregar os dados que chegam, são definidos campos de endereçamento 
de transporte para a identificação desses processos. Dá-se o nome de demultiplexação à 
identificação e ao envio de informações para o processo correto. 
 
Protocolos de transporte da internet 
Agora que já estudamos os serviços que um protocolo de transporte deve oferecer, 
apresentaremos casos reais de protocolos utilizados em redes de computadores. Para isso, 
vamos utilizar como exemplo os protocolos de transporte da internet: TCP e UDP. 
Iniciaremos nosso estudo pelo UDP. Mesmo sendo um protocolo simples, ele se revela 
bastante eficiente, principalmente no quesito agilidade de entrega, quando a aplicação 
requer uma entrega rápida. 
Em seguida, nos debruçaremos sobre o TCP. Protocolo de transporte completo, ele é capaz 
de garantir a entrega de mensagens livres de erros, não importando a qualidade da rede em 
que ele trabalha. 
Por fim, apontaremos alguns exemplos de portas, um mecanismo que permite que as 
aplicações serem encontradas pela internet. 
UDP 
O protocolo de transporte mais simples que poderia existir seria aquele que, no envio, se 
limitasse a receber mensagens da camada de aplicação e as entregasse diretamente na de 
rede. Na recepção, ele, por outro lado, receberia os pacotes da camada de rede e os 
entregaria na de aplicação. Este tipo de protocolo, em suma, não efetua nenhum trabalho 
para garantir a entrega das mensagens. Felizmente, o UDP não se limita a isso. 
Os campos porta origem e porta destino têm a função de identificar os processos nas 
máquinas origem e destino. Quando uma aplicação A deseja enviar dados para uma B, o 
UDP coloca o número da porta da aplicação origem (A) no campo “porta origem” e o de 
porta da aplicação (B) em “porta destino”. 
Quando a mensagem chega ao destino, o UDP pode entregá-la para a aplicação correta por 
meio do campo “porta destino”. Já a “porta origem” é importante para a aplicação que 
recebe a mensagem, pois ela torna possível saber o número da porta para a qual a resposta 
deve ser enviada. É por meio desses campos que o UDP realiza a multiplexação e a 
demultiplexação. 
O campo tamanho especifica o tamanho do segmento, incluindo o cabeçalho. Como se trata 
de um campo de 16 bits, isso significa que o maior segmento UDP será de: 
216 = 65.536 bytes (64 KBytes) 
O campo soma de verificação tem a função de garantir que a mensagem chegue ao destino 
livre de erros. Para tanto, o UDP calcula o CRC dela e o envia neste campo. No destino, o 
CRC é novamente calculado e comparado. Se ambos forem iguais, a mensagem é 
considerada livre de erros e entregue na aplicação destino. 
Caso haja alguma divergência no valor do CRC, o segmento normalmente é descartado, 
porém algumas implementações permitem – acompanhadas de uma mensagem de aviso – a 
entrega dele com erro. 
O UDP é um protocolo sem estado e não orientado à conexão. Descrito pela RFC 768, ele é 
projetado tanto para pequenas transmissões de dados quanto para aqueles que não 
requerem um mecanismo de transporte confiável. 
Apesar de o UDP não oferecer uma confiabilidade nas transmissões, isso não significa que 
aplicações que o utilizam não possam ter uma garantia de entrega. 
Protocolos de aplicações que utilizam o UDP: 
DNS 
SNMP 
TFTP 
RPC 
 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/javascript:void(0);
 
TCP 
Enquanto o UDP é um protocolo de transporte simples, voltado para aplicações que não 
necessitam de confiabilidade na transmissão, o TCP é um orientado à conexão, sendo 
indicado para aplicações que precisam trocar uma grande quantidade de dados por meio de 
uma rede com múltiplos roteadores. 
O TCP oferece um fluxo de bytes fim a fim confiável, podendo ser utilizado, inclusive, em 
redes de baixa confiabilidade. Na transmissão, ele aceita fluxos de dados da aplicação: 
dividindo-os em partes de, no máximo, 64 KBytes, ele envia cada uma em um datagrama IP 
distinto. Quando os datagramas IP com dados TCP chegam ao hospedeiro destino, eles são, 
em seguida, enviados à entidade TCP, que restaura o fluxo de dados original. 
A camada de rede (protocolo IP) não oferece nenhuma garantia de que os datagramas serão 
entregues corretamente. Portanto, cabe ao TCP administrar os temporizadores e 
retransmitir os datagramas sempre que for necessário. 
Os datagramas também podem chegar fora de ordem, cabendo a ele reorganizá-los em 
mensagens na sequência correta. O TCP deve fornecer a confiabilidade que o IP não 
oferece. 
O TCP é definido pelas seguintes RFCs: 
793 
2018 
1122 
2581 
1323 
Modelo de serviço TCP 
O serviço TCP é obtido quando tanto o transmissor quanto o receptor criam pontos 
terminais; denominados portas, eles são identificados por um número de 16 bits. É 
necessário que uma conexão seja explicitamente estabelecida entre um hospedeiro 
transmissor e um receptor. 
Todas as conexões TCP são: 
Full-duplex 
Dados podem ser enviados e recebidos por ela simultaneamente. Uma linha telefônica é um 
exemplo de sistema full-duplex, pois permite que dois interlocutores falem de forma 
simultânea. O walkie-talkie, no entanto, é diferente: como tal equipamento está no modo 
de transmissão ou no de recepção, ele nunca consegue transmitir e receber ao mesmo 
tempo. 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
Ponto a ponto 
Interliga diretamente dois hospedeiros, não permitindo a participação de um terceiro na 
conversação. Exemplo: quando ligamos um smartphone a um computador por meio de seu 
cabo de dados, ocorre uma ligação ponto a ponto, pois somente eles podem utilizar esse 
meio (cabo de dados) para a troca de informações. 
 
Do ponto de vista da aplicação, uma conexão consiste em dois fluxos independentes de 
direções opostas. Uma conexão TCP é um fluxo de dados, e não de mensagens. Isso 
significa que as fronteiras das mensagens não são preservadas de uma extremidade à outra. 
Quando uma aplicação passa dados para a entidade TCP, ela pode enviá-los imediatamente 
ou armazená-los em um buffer de acordo com suas necessidades. 
As entidades TCP transmissoras e receptoras trocam dados na forma de segmentos. Um 
segmento consiste em um cabeçalho fixo de 20 bytes mais uma parte opcional, seguido de 
zero ou mais bytes de dados. O software TCP decide qual deve ser o tamanho dos 
segmentos, podendo: 
-Acumular dados de várias escritas em um único segmento. 
- Dividir os dados de uma única escrita em vários segmentos. 
 
O protocolo básico utilizado pelas entidades TCP é o de janela deslizante. Quando envia um 
segmento, o transmissor dispara um temporizador. Assim que ele chega ao destino, a 
entidade TCP receptora retorna um segmento (com ou sem dados segundo as 
circunstâncias) com um número de confirmação igual ao próximo número de sequência que 
ela espera receber. Se o temporizador do transmissor expirar antes de a confirmação ser 
recebida, o segmento será retransmitido. 
 
Dessa forma, caso um segmento chegue ao destino e apresente erro em sua soma de 
verificação, o TCP simplesmente o descarta. Como não haverá confirmação de recebimento 
neste caso, a entidade TCP do transmissor entenderá que o segmento não chegou ao 
destino e providenciará sua retransmissão. 
 
Cabeçalho de segmento TCP 
Cada segmento TCP começa com um cabeçalho de formato fixo – podendo ser seguido por 
opções de cabeçalho – de 20 bytes. Depois das opções, é possível haver 65.515 bytes de 
dados. 
 
Gerenciamento de conexão TCP 
As conexões estabelecidas no TCP utilizam um esquema conhecido como three way 
handshake. Para estabelecer uma conexão, um lado aguarda passivamente, enquanto o 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_aplicacao_e_transporte/
outro solicita uma especificando o endereço de rede (endereço IP) e a porta com a qual 
deseja se conectar. 
 
É enviado então um segmento TCP com o bit SYN ativado e o bit ACK desativado. Quando 
ele chega ao destino, a entidade TCP do destino verifica se existe um processo aguardando 
na porta destino. Se não existir, ela enviará uma resposta com o bit RST ativado para rejeitar 
a conexão. 
No entanto, se algum processo estiver na escuta dessa porta, a ele será entregue o 
segmento TCP recebido. Em seguida, tal processo poderá aceitar ou rejeitar a conexão. Se 
ele aceitar, um segmento de confirmação será retornado. 
Apesar de conseguir fazer esse transporte, ACK só consumirá tal número quando ele surgir. 
 
Portas conhecidas 
Para que uma aplicação possa acessar outra remota, é necessário conhecer o endereço do 
hospedeiro no qual ela se encontra. Ele serve, portanto, para que se consiga chegar ao 
hospedeiro remoto. 
Como o protocolo de transporte do destino consegue saber para qual de suas aplicações 
deve entregar a mensagem? A resposta é o conceito de porta, que é responsável por 
identificar a aplicação no destino. 
Como podemos identificar a porta utilizada pela aplicação? 
1-Empregar um sistema no qual a aplicação é registrada toda vez que inicializa para o cliente 
poder consultar sua porta. 
 
2-Usar sempre o mesmo endereço de forma que as aplicações a iniciarem a conversação 
saibam de antemão com qual endereço trocar mensagens. 
 
 
Uma porta TCP ou UDP é identificada por um número inteiro de 16 bits. 
Para que um pacote chegue à aplicação de destino, é necessário que o transmissor saiba, de 
alguma forma, em que porta a aplicação está esperando a chegada do pacote. Para facilitar 
o trabalho dele, algumas aplicações esperam seus pacotes sempre em uma mesma porta: a 
“porta conhecida” da aplicação. 
 
 
 
Atenção! 
A RFC 3232 define um repositório on-line no qual podem ser consultadas as portas 
conhecidas. No momento da criação deste documento, o repositório on-line estava definido 
como service name and transport protocol port number registry. 
javascript:void(0);
Esta tabela mostra as portas reservadas para algumas aplicações: 
PORTA APLICAÇÃO 
7 echo 
20 ftp-data 
21 ftp 
22 ssh 
23 telnet 
25 smtp 
53 domain 
69 tftp 
80 http 
110 pop-3 
119 nntp 
161 snmp 
162 snmp-trap 
443 https 
 
 
1. Sobre o protocolo UDP, marque a resposta correta. 
a) Verifica se a mensagem contém erros antes de entregá-la à aplicação destino. 
b) Garante a entrega da mensagem no destino. 
c) Não realiza a multiplexação e a demultiplexação. 
d) Não limita a quantidade máxima de dados que um segmento pode transportar. 
Comentário 
Parabéns! A alternativa A está correta. 
A camada de transporte deve oferecer confiabilidade na entrega das mensagens. Apesar de 
ser um protocolo que não garante a entrega dos dados, o UDP procura os erros para 
garantir, pelo menos, a entrega de uma mensagem sem a presença deles. 
 
2. No protocolo TCP, o campo número de confirmação carrega: 
a) O número do último byte recebido com sucesso. 
b) O número do próximo byte esperado no sentido contrário. 
c) Uma solicitação para o receptor confirmar os dados recebidos. 
d) A quantidade de confirmações pendentes. 
 
Comentário 
Parabéns! A alternativa B está correta. 
O número de confirmação é a forma como o protocolo TCP faz para indicar quantos bytes 
foramrecebidos com sucesso. Ele carrega o número no próximo byte esperado no sentido 
contrário, indicando, dessa maneira, que todos os bytes anteriores já foram recebidos 
corretamente. 
 
 
 
Camada de rede 
DEFINIÇÃO 
Apresentação da camada de rede do modelo OSI e o seu relacionamento com as camadas 
superior e inferior, bem como a sua implementação na Arquitetura TCP/IP (arquitetura 
utilizada na Internet). 
PROPÓSITO 
Reconhecer o funcionamento da camada de rede para o desenvolvimento de aplicações 
modernas que tenham como requisito a comunicação em rede; realizar um endereçamento 
uniforme permitindo que equipamentos e aplicações possam trocar informações. 
 
 
No Modelo OSI, a camada de rede situa-se logo acima da camada de enlace, utilizando os 
serviços oferecidos por esta camada. 
A camada de enlace tem como objetivo organizar a comunicação em nível de enlace, ou 
seja, ela deve garantir que um hospedeiro consiga se comunicar com o hospedeiro vizinho. 
O objetivo da camada de rede é, a partir deste serviço de comunicação lado a lado, 
promover uma comunicação de âmbito global, permitindo que a informação que sai de um 
hospedeiro chegue a seu destino não importando em qual local da rede esteja este destino. 
Para isso, ele deve realizar duas grandes funções: definir um esquema de endereçamento 
que seja aceito por toda a grande rede, e realizar o roteamento . 
CONCEITOS BÁSICOS DA CAMADA DE REDE 
A quantidade máxima de dados que podem ser trocados entre entidades da camada de rede 
possui um tamanho limitado. Para que as mensagens maiores que o limite possam ser 
trocadas entre aplicações, a camada de transporte deverá segmentar tais mensagens em 
partes menores e colocar cada segmento em uma unidade de dados da camada de rede. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
ESTA UNIDADE DE DADOS TROCADA ENTRE ENTIDADES DA CAMADA DE REDE RECEBE A 
DENOMINAÇÃO DE PACOTE. 
A camada de rede cuida da transferência de pacotes desde a origem até seu destino. Em 
uma grande rede, isso significa que estes pacotes podem necessitar passar por vários meios 
de comunicação e diferentes roteadores até que possam ser entregues. 
 
comentário 
É um trabalho diferente daquele realizado pela camada de enlace, que necessita apenas entregar a 
informação na outra extremidade do meio de transmissão. 
A camada de enlace de dados cuida apenas da comunicação de um hospedeiro com outro que esteja 
diretamente conectado a ele por intermédio de um meio de comunicação. Já a camada de rede é a 
camada de mais baixo nível que lida com a comunicação fim a fim. 
Para conseguir realizar esta comunicação a camada de rede deve: 
• Conhecer toda a topologia da sub-rede de comunicação. 
• Escolher rotas que evitem sobrecarregar partes da rede enquanto outras ficam 
ociosas. 
• Compatibilizar a comunicação entre os diferentes tipos de sub-redes existentes. 
Na origem, a camada de rede cria um pacote com dados provenientes da 
camada superior e acrescenta a ele um cabeçalho com informações de 
endereço origem e destino. Em sistemas com mais de uma interface de rede 
deve também consultar suas tabelas de repasse para determinar por qual 
interface o pacote deve ser encaminhado. 
Nos hospedeiros intermediários, a camada de rede deve receber o pacote, 
consultar suas tabelas de roteamento e enviar o pacote pela interface de rede 
apropriada. 
No destino, a camada de rede deve verificar se o endereço destino do pacote é 
o mesmo do hospedeiro e, caso seja, entregar o pacote à camada superior 
(camada de transporte). 
COMUTAÇÃO DE PACOTES STORE AND FORWARD 
Neste momento você deve estar se perguntando como o pacote vai da origem 
até o destino. Diretamente? Saltando de hospedeiro em hospedeiro? 
Lembre-se de que, no modelo OSI, uma camada utiliza os serviços da camada 
imediatamente inferior para realizar seus trabalhos e oferecer serviços para a 
camada superior. Assim, um hospedeiro com um pacote a enviar, o transmite 
para o roteador mais próximo. O pacote é então totalmente recebido pelo 
roteador e, após ter chegado por completo, é conferido. Em seguida, ele é 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
encaminhado para o próximo roteador ao longo do caminho até alcançar o 
hospedeiro de destino, onde é entregue. Esse mecanismo que tem como base 
armazenar totalmente o pacote antes de enviá-lo ao próximo hospedeiro é 
conhecido como comutação de pacotes store and forward. 
Confira esse passo a passo na imagem abaixo: 
Repasse 
Um roteador é um equipamento que possui, normalmente, várias interfaces de rede. 
Quando um pacote chega por uma de suas interfaces, o roteador deve verificar o destino 
deste pacote e decidir por qual de suas linhas o pacote deve ser enviado para que consiga 
chegar ao destino. Chamamos de repasse o trabalho (local) de escolher por qual das 
interfaces deve seguir o pacote que chega. 
Roteamento 
O repasse refere-se a uma ação realizada localmente por um roteador sobre um pacote que 
chega, enquanto o roteamento a uma ação global envolvendo todos os roteadores de uma 
sub-rede para a escolha do melhor caminho. 
 
 
 
Você já deve ter percebido que existe uma relação bastante próxima entre 
repasse e roteamento, mas como é esta relação? 
Vamos iniciar pelos algoritmos de roteamento. Para escolher a melhor rota, 
um conjunto de roteadores precisa trocar informações sobre a situação da 
rede em sua vizinhança, de modo que os roteadores do conjunto possam 
decidir sobre o caminho a ser seguido em cada situação. Diferentes algoritmos 
com diferentes propriedades podem ser utilizados nesta tarefa. 
Como funcionam esses algoritmos e de que forma eles se diferenciam, 
estudaremos adiante. Por ora, o importante é que existem algoritmos capazes 
de encontrar o melhor caminho em uma rede. 
O mesmo algoritmo é então executado nos roteadores da sub-rede, trocando 
informações de tráfego e calculando a melhor rota. Uma vez calculadas as 
rotas para cada destino, os algoritmos de roteamento criam as chamadas 
tabelas de repasse, as quais são indexadas pelos possíveis endereços destino 
de um pacote e indicam a interface pela qual o pacote deve ser enviado com 
base em seu endereço destino. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-01
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-02
Ao chegar um pacote em um roteador, e sendo necessário fazer seu repasse, o 
processo responsável por esta função verifica o endereço de destino do 
pacote, consulta a tabela de repasse utilizando o endereço destino como 
índice e obtém a interface pela qual o pacote deve seguir. Resumidamente, as 
tabelas de repasse são montadas pelos algoritmos de roteamento e 
consultadas pelo processo de repasse para determinar por qual interface deve 
seguir um pacote que chega. 
 
CIRCUITOS VIRTUAIS E DATAGRAMAS 
Há basicamente duas formas para a organização da camada de rede de uma sub-rede: uma 
utilizando conexões e a outra trabalhando sem conexão. Na camada de rede, um serviço 
orientado à conexão costuma ser chamado de circuito virtual, enquanto um serviço que 
realiza a entrega de pacotes independentes, sem conexão, costuma ser chamado de serviço 
de datagramas. 
A camada de transporte também ofereceserviços com conexão e sem conexão, mas estes 
se diferem dos serviços oferecidos pela camada de rede. 
Comentário 
Pensando na arquitetura TCP/IP, a camada cliente da camada de transporte é a camada de 
aplicação, portanto, o serviço de transporte com conexão é um serviço aplicação a 
aplicação, ou seja, uma conexão de transporte conecta diretamente duas aplicações. Já a 
camada de rede é voltada para a interligação de hospedeiros, logo, uma conexão da camada 
de rede é uma conexão hospedeiro a hospedeiro. 
Circuitos virtuais 
A ideia dos circuitos virtuais é evitar a necessidade de escolher uma nova rota para cada 
pacote que passa, sendo por isso utilizado em sub-redes com serviço de rede orientado à 
conexão. Ao se estabelecer uma conexão, é criada uma rota entre o hospedeiro origem e o 
hospedeiro destino como parte do estabelecimento da conexão. Essa rota é utilizada por 
todo o tráfego que flui pela conexão entre os hospedeiros. Quando a conexão é liberada o 
circuito virtual deixa de existir. 
Um circuito virtual (CV) consiste em: 
Considere a rede da figura a seguir. Os números em cada extremidade dos 
enlaces representam o número da interface do comutador naquele enlace. 
• Um caminho definido entre origem e destino; 
• Números de identificação de circuitos virtuais, um para cada enlace ao longo do 
caminho; e 
• Registros em tabelas de comutadores ao longo do caminho. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Considere a rede da figura a seguir. Os números em cada extremidade dos 
enlaces representam o número da interface do comutador naquele enlace. 
O hospedeiro H1 solicita à rede que estabeleça um circuito virtual até o 
hospedeiro H2, e a rede estabelece o caminho H1-A-B-E-F-H2, atribuindo 
respectivamente os seguintes circuitos virtuais: 23, 8, 37, 22, e 16 (numerações 
aleatórias). 
Com base nestas informações são montadas as seguintes tabelas de repasse 
em cada um dos comutadores ao longo do caminho: 
Sempre que um novo circuito virtual (CV) é estabelecido através de um 
comutador, um registro para este CV é adicionado à tabela do comutador. De 
forma análoga, sempre que um CV termina, suas informações são removidas 
das tabelas do comutador ao longo do percurso. 
A utilização de diferentes identificadores para os CVs, ao longo do caminho, 
simplifica o trabalho, uma vez que, a utilização de um mesmo CV durante todo 
o trajeto iria requerer a concordância de todos os comutadores participantes 
da rota. O importante para que os comutadores possam definir o caminho é 
que o número de saída do CV de um comutador seja o mesmo número de 
entrada do CV do comutador seguinte. 
No exemplo, o circuito estabelecido entre os comutadores E e F possui CV 22 
(o CV 22 sai pela linha 3 de E e entra como CV 22 pela linha 1 de F). Da mesma 
forma, o CV entre A e B possui valor 8 e o CV entre B e E possui valor 37. 
Reveja as figuras com os circuitos em destaque. 
Ao estabelecer um caminho desta forma, é como se fosse colocado um circuito 
físico (como um cabo de rede) ligando diretamente os hospedeiros, por isso o 
nome circuito virtual. 
Outra característica da rede de circuitos virtuais é que, como os pacotes 
seguem sempre pelo mesmo caminho, eles chegam ao destino na mesma 
ordem em que saíram da origem. 
Existem 3 fases que podem ser identificadas em um circuito virtual: 
- Estabelecimento do CV 
Nesta fase os comutadores estabelecem os parâmetros da conexão e o 
caminho pelo qual os pacotes irão seguir durante a fase de transferência de 
dados. 
 
- Transferência de dados 
Fase seguinte ao estabelecimento do CV, durante a qual ocorre a transferência 
de pacotes desde a origem até o destino. Todos os pacotes seguem pelo 
caminho definido durante a fase de estabelecimento do CV. 
 
- Encerramento do CV 
Fase na qual o circuito virtual é desfeito. Necessária para que os comutadores 
sejam avisados do encerramento e possam retirar de suas tabelas as 
informações sobre o circuito virtual encerrado. 
 
 
Datagramas 
Em uma sub-rede de datagramas, nenhuma rota é previamente definida. Ao 
ser transmitido, um pacote passa por uma série de roteadores, e cada 
roteador, ao longo do caminho, utiliza o endereço destino para determinar por 
qual interface de saída enviar o pacote (realiza o repasse). 
Como não há estabelecimento de circuitos para as transferências, os 
roteadores, ao longo do caminho, deverão manter tabelas de repasse 
baseadas no endereço destino do pacote, qualquer que seja o destino. 
Significa dizer que, se as tabelas de repasse forem alteradas durante uma 
transferência, os datagramas de uma mensagem podem fazer caminhos 
diferentes até o destino. 
 
Suponha que você esteja assistindo a um filme pela rede e que o vídeo seja 
enviado até seu equipamento por uma sub-rede de datagramas. Parece real? 
Sim, é real. Atualmente, assistimos a filmes pela Internet e ela é uma rede de 
datagramas. 
O filme possui cerca de 90 minutos. Será que as rotas de uma rede mudam 
durante 90 minutos? Sim, essa é uma possibilidade. Isso significa que, em 
determinado momento, as tabelas de repasse mudarão, então, os datagramas 
passarão a fazer outro caminho até chegarem em seu equipamento. Assim, 
vemos que, ao contrário dos circuitos virtuais, os pacotes em uma rede de 
datagramas não seguem sempre pelo mesmo caminho. 
Por que a rota é alterada? 
Uma possibilidade é que os pacotes estavam passando por uma região que ficou 
sobrecarregada, e os roteadores descobriram uma outra região com melhores condições de 
tráfego, preferindo enviar os pacotes por essa nova região. Uma consequência disso é que 
os primeiros pacotes que estão seguindo pelo novo caminho podem chegar ao destino antes 
de alguns dos pacotes que seguiram pelo caminho antigo. 
Assim sendo, existe a possibilidade de que alguns pacotes cheguem ao destino fora de 
ordem. 
Os problemas que podem acontecer em uma rede de datagramas são: 
 
-A perda de datagramas 
-Datagramas chegarem com erro 
-Datagramas chegarem fora de ordem 
-Datagramas serem duplicados 
 
 
ENDEREÇAMENTO 
Alguns tipos de rede permitem que sejam criados vários endereços por 
hospedeiro, enquanto outros tipos de rede permitem a utilização de apenas 
um por hospedeiro. Porém, qualquer que seja o tipo de rede, o 
endereçamento deve ser completamente independente do endereçamento 
dos protocolos de outras camadas. A camada de rede tem a função de unificar 
toda a comunicação da rede, portanto ela deve definir uma forma de 
identificação dos hospedeiros que seja aceita por toda a rede. 
Basicamente dois tipos de endereçamento são possíveis: 
Endereçamento hierárquico 
No endereçamento hierárquico, o endereço de uma entidade é constituído de acordo com 
os endereços correspondentes aos vários níveis da hierarquia da qual faz parte. O endereço 
hierárquico é o método sugerido pelo ITU-T para interconexão de redes públicas de 
telefonia. Nessa recomendação, os endereços são números decimais formados por três 
campos: um código do país, um código para a rede, e um campo para o endereçamento 
dentro da rede. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse02-01
Observação: Setor da ITU (International Telecommunication Union) responsável pela 
elaboração de padrões e normas consensuais sobre tecnologia que garantam o 
funcionamento, a interoperabilidade e a integração dos sistemas de comunicação em todo o 
mundo, com a finalidade de facilitar o acesso das indústrias aos diferentes mercados de 
cada país. 
 
 
Endereçamento horizontal 
No endereçamento horizontal, os endereços não têm relação alguma com o lugar onde 
estão as entidades dentro da rede. Um exemplo comum desse tipo de endereçamento são 
os endereços utilizados nas placas de rede ethernet, que são gravados durante seu processo 
de fabricação e será sempre o mesmo,não importando em qual lugar do mundo a placa seja 
utilizada. 
Observação: Placas de rede ethernet é um dispositivo de hardware que permite a ligação de 
um computador a uma rede de computadores padrão ethernet. 
 
 
Considerações sobre o roteamento indicam vantagens na utilização de 
endereçamento hierárquico, uma vez que este contém informações explícitas 
sobre o local onde se localizam as entidades. Já o endereçamento horizontal 
permite uma mobilidade das entidades sem reconfiguração. 
Apesar do endereçamento universal ser realizado pela camada de rede, o 
envio dos pacotes é realizado por camada inferior que possui seu próprio 
esquema de endereçamento específico da tecnologia da rede física em uso. 
Ocorre, portanto, um mapeamento entre os endereços físicos e de rede, e esta 
tarefa deve ser realizada pela camada de rede. Existem duas técnicas usuais 
para essa conversão: resolução através de mapeamento direto e resolução 
através de vinculação dinâmica. 
 
Mapeamento direto A estação sabe como computar o endereço 
de enlace por intermédio de uma função 
que mapeia o endereço de rede no 
endereço de enlace. Por exemplo, o 
endereçamento hierárquico onde o campo 
de endereçamento dentro da rede 
corresponda exatamente ao endereço físico 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse02-02
da estação. Conversões mais complexas 
podem ser realizadas através de tabelas de 
conversão e técnicas de acesso rápido a 
estas tabelas. 
 
Vinculação dinâmica Para evitar o uso de tabelas de conversão, 
uma vinculação dinâmica pode ser efetuada 
entre o endereço de rede e o físico por 
intermédio da utilização de algum 
protocolo de resolução. A exemplo, temos 
o protocolo ARP, o qual estudaremos mais 
adiante. 
 
 
1. Quando um pacote chega para ser encaminhado por um roteador, o processo 
responsável pelo repasse deve: 
a) Consultar outros roteadores para determinar a interface de saída a ser utilizada. 
b) Decidir pela interface de saída com base no endereço origem do pacote. 
c) Montar a tabela de repasse com base nos dados obtidos pelo algoritmo de roteamento. 
d) Escolher a interface de saída com base em sua tabela de repasse. 
Comentário 
Parabéns! A alternativa D está correta. 
O algoritmo de roteamento de um roteador troca constantemente informações com outros 
roteadores sobre o estado da rede e, com base nestas informações, monta a tabela de 
repasse que determina por qual interface deve seguir um pacote que chega. Quando o 
pacote chega, cabe ao processo de repasse apenas consultar a tabela de repasse que 
definirá por qual interface o pacote deve seguir. 
2. Em uma rede de circuitos virtuais: 
a) A identificação do circuito virtual permanece a mesma ao longo de todo o caminho. 
b) Os pacotes sempre chegam ao destino na ordem em que foram enviados. 
c) A rota é definida pelos comutadores antes mesmo do estabelecimento da conexão. 
d) A rota pode ser alterada se o algoritmo de roteamento encontrar um caminho melhor. 
Comentário 
Parabéns! A alternativa B está correta. 
Em uma rede de circuito virtual, a rota a ser seguida pelos pacotes é definida no momento 
do estabelecimento da conexão e nunca muda. Como os pacotes seguem sempre pelo 
mesmo caminho, eles mantêm a posição um em relação ao outro, chegando ao destino na 
mesma ordem em que foram enviados. 
 
 
 
A CAMADA DE REDE NA INTERNET 
Na camada de rede, a Internet pode ser vista como um conjunto de sub-redes 
ou Sistemas Autônomos (SA) conectados entre si. Não existe uma estrutura 
real, mas diversos backbones que interligam redes regionais, que por sua vez 
estão conectadas às redes locais. 
O protocolo que mantém a Internet unida é o protocolo de camada de rede IP (Internet 
Protocol). A tarefa do IP é fornecer a melhor forma de transportar datagramas da origem 
para o destino, independentemente de esses hospedeiros estarem na mesma rede ou em 
outras redes intermediárias. 
Imagine que você está solicitando a transferência de dados de seu computador para um 
hospedeiro remoto (está fazendo o upload do arquivo). A camada de transporte de seu 
computador receberá o fluxo de dados referente à transferência de seu arquivo. Como 
provavelmente esse fluxo é muito grande para caber em um único pacote IP, ele será 
quebrado em partes menores pela camada de transporte e cada parte desta será entregue 
para a camada de rede (cada um será colocado em um datagrama IP). 
 
Estes datagramas serão transmitidos pela Internet, podendo ainda serem fragmentados ao 
longo do caminho. Quando todos os fragmentos de um datagrama chegam ao destino, o 
datagrama original é remontado pela camada de rede do destino sendo entregue à camada 
de transporte que recriará o fluxo original para o processo de recepção. 
PROTOCOLO IP VERSÃO 4 (IPV4) 
Na Internet, a camada de rede trata cada pacote de forma independente, não tendo 
qualquer relação com pacotes anteriores ou posteriores. Pacotes com mesma origem e 
destino podem, inclusive, passar por diferentes rotas. 
O IPv4 é definido pela RFC 791, sendo atualizado pelas RFC 1349, RFC 2474 e RFC 6864. 
Datagramas 
São unidades básicas de informações que passam pela Internet. Dentro do datagrama está 
seu cabeçalho, que contém informações sobre sua origem e seu destino, assim como 
informações sobre para qual protocolo o IP deverá passar os dados. Também fazem parte 
dele os dados que devem ser entregues à camada de transporte no destino. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Fragmentos 
São partes de um datagrama muito grande que foi quebrado em unidades menores. Como 
os dados precisam caber dentro da porção de dados da rede física, pode ser que seja 
necessário fragmentar os dados da aplicação para que eles possam ser transportados pela 
rede. O tamanho do fragmento é determinado pelo MTU da interface de hardware da 
rede. O IPv4 especifica que a fragmentação ocorre em cada roteador baseado 
na MTU da interface pela qual o datagrama IP deve passar. 
Quando um datagrama é quebrado em fragmentos, cada um destes 
fragmentos passa a ser um novo datagrama que está passando pela rede. 
Um datagrama IP consiste em duas partes: cabeçalho e dados. O cabeçalho 
tem uma parte fixa de 20 bytes e uma parte opcional de tamanho variável. 
-Versão: controla a versão do protocolo a que o datagrama pertence. 
-IHL: informa o tamanho do cabeçalho em palavras de 32 bits. O valor minimo 
é 5 e o valor maximo é 60 
-Tipo de serviço: permite que o hospedeiro informe à sub-rede o tipo de rede 
que deseja. São possiveis varias combinações de confiabilidade e velocidade 
-Comprimento total: informa o tamnho total do datagrama( cabeçalho e 
dados). O tamanho maximo é de 65,535 bytes 
-Identificação: o campo identificação é necessário para permitir que o 
hospedeiro de destino determine a qual datagrama pertence em fragmento 
recem-chegado. Todos os fragmentos de um datagrama contem o mesmo 
valor de identificação. 
-DF: Don’t fragment - não fragmente): Informa aos roteadores para não 
fragmentarem o datagrama. 
-MF: More fragments – mais fragmentos, indica que ainda existem mais 
fragmentos do datagrama. Todos os fragmentos, exceto o ultimo, têm esse bit 
marcado. 
-Deslocamento: informa a que ponto do datagrama atual o fragmento 
pertence. Todos os fragmentos de datagrama, com exeção do ultimo, devem 
ser multiplos de 8 bytes. 
 -Tempo de vida( TTL): contador usado para limitar a vida util do pacote, esse 
campo é decrementado a cada roteador que passa, permitindo uma vida util 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
maxima de 255. Ele evita que os datagramas fiquem vagando indefinidamente, 
algo que poderia acontecer se as tabelas de roteamento fossem danificadas. 
-Protocolo: informa para qual protocolo de transporte o datagrama devera ser 
entregue. Alguns ecemplossão 6 (TCP) e 17 (USP). 
-Soma de verificação do cabeçalho: confere o cabeçalho para determinar se 
ocorreram erros durante sua transmissão. 
-endereço origem e endereço destino:Indicam respectivamente, os endereços 
de origem e de destino do datagrama. 
-Opções: utilizado para permitir que sejam inseridas opções ao protocolo IP 
que não estão contidas no projeto original. 
 
ENDEREÇAMENTO IPV4 
Um hospedeiro normalmente possui apenas uma interface com a rede de 
computadores. Quando o protocolo IP de um hospedeiro quer enviar um 
datagrama, ele o faz por meio dessa interface. 
 
A INTERFACE DE REDE É A FRONTEIRA ENTRE O HOSPEDEIRO E A REDE FÍSICA. 
Considere, neste momento, um roteador e suas interfaces. Como a tarefa de um roteador é 
receber um datagrama por uma interface e repassá-lo por outra interface, ele estará ligado 
a duas ou mais redes físicas. A fronteira entre o roteador e qualquer uma dessas redes 
também é denominada uma interface. Assim, um roteador tem múltiplas interfaces, uma 
para cada uma das redes a qual está conectado. 
Atenção 
Independentemente de quantas interfaces tenha um hospedeiro, o IP exige que cada uma 
delas tenha seu próprio endereço IP de modo que este, tecnicamente, esteja associado a 
uma interface, e não ao hospedeiro que a contém. 
Cada endereço IP tem comprimento de 32 bits (4 bytes), havendo um total de 232 endereços 
possíveis (aproximadamente 4 bilhões de endereços IP), os quais são escritos em notação 
decimal separada por pontos, na qual cada byte do endereço é escrito em sua forma 
decimal e separado dos outros bytes por um ponto. 
Considere o endereço IP 192.168.23.67. O 192 é o número decimal equivalente aos 
primeiros 8 bits do endereço; o 168 é o decimal equivalente ao segundo conjunto de 8 bits 
do endereço, e assim por diante. Em notação binária, o endereço 192.168.23.67 fica: 
11000000 10101000 00010111 01000011 
 
Cada interface em cada hospedeiro da Internet precisa de um endereço IP 
globalmente exclusivo, ou seja, não pode haver duas interfaces com o mesmo 
endereço IP na Internet válida. 
A figura, a seguir, fornece um exemplo de endereçamento IP e interfaces em 
que um roteador com 2 interfaces é usado para interconectar os 6 
hospedeiros. Observando os endereços dos hospedeiros da esquerda e da 
interface do roteador que os liga, percebe-se que todos possuem endereço IP 
na forma 192.168.0.x, enquanto os hospedeiros e a interface do roteador 
localizados na parte direita da figura possuem endereço na forma 192.168.1.x. 
Diz-se que cada uma destas redes que interconecta 3 hospedeiros mais a 
interface do roteador formam uma sub-rede. 
Como pode-se observar, no exemplo, os 3 campos mais à esquerda do 
endereço (formados por 24 bits) nunca mudam dentro da sub-rede. Deste 
modo, temos à esquerda a sub-rede 192.168.0.0/24 e à direita a sub-rede 
192.168.1.0/24. O “/24” indica que os 24 bits mais à esquerda do endereço 
definem a sub-rede. 
A estratégia de atribuição de endereços da Internet é conhecida como 
Roteamento Interdomínio sem Classes (Classless Inter-domain Routing – CIDR). 
CIDR 
O CIDR generaliza a noção de endereçamento de sub-rede. O endereço IP de 32 bits é 
dividido em 2 partes sendo representado por A.B.C.D/X, em que X indica o número de bits 
existentes na primeira parte do endereço. 
Os X bits mais significativos de um endereço na forma A.B.C.D/X constituem a parcela da 
rede do endereço IP e normalmente são denominados prefixo (ou prefixo de rede). Este 
prefixo determina qual parte do endereço IP identifica a rede. Uma organização 
normalmente recebe um bloco de endereços contíguos, ou seja, uma faixa de endereços 
com um prefixo comum. Assim, os endereços IP de hospedeiros dentro da organização 
compartilharão o prefixo comum, o que reduz consideravelmente o tamanho da tabela de 
repasse nos roteadores, visto que um único registro da forma A.B.C.D/X será suficiente para 
transmitir pacotes partindo de fora para qualquer destino dentro da organização. 
Os últimos (32-X) bits de um endereço podem ser considerados como os bits que 
distinguem os hospedeiros dentro da sub-rede. Esses bits menos significativos podem (ou 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse03-01
não) ter uma estrutura adicional de sub-rede tal como aquela discutida anteriormente. Por 
exemplo, suponha que os primeiros 24 bits do endereço A.B.C.D/24 especificam o prefixo da 
rede da organização e são comuns aos endereços IP de todos os hospedeiros da 
organização. Os 8 bits restantes, então, identificam os hospedeiros específicos da 
organização. 
A estrutura interna da organização poderia ser tal que esses 8 bits mais à direita seriam 
usados para criar uma sub-rede dentro da organização, como discutido. Por exemplo, 
A.B.C.D/28 poderia se referir a uma sub-rede específica dentro da organização. 
Anteriormente ao CIDR, os bits reservados para indicar a parte da sub-rede possuíam 
exatamente 8, 16 ou 24 bits. Esse esquema é conhecido como endereçamento de classes 
cheias, e as sub-redes com endereços de sub-rede de 8, 16 e 24 eram conhecidas, 
respectivamente, como redes de classe A, B e C. Tal divisão em classes cheias se mostrou 
problemática para suportar o rápido crescimento da quantidade de organizações com sub-
redes de pequeno e médio portes. 
Uma sub-rede de classe C (/24) poderia acomodar apenas 28 - 2 = 254 hospedeiros (dois dos 
28 = 256 endereços são reservados para uso especial). Esta sub-rede é muito pequena para 
muitas organizações, por outro lado, uma sub-rede de classe B (/16), que suporta até 216 - 2 
= 65.534 hospedeiros, seria demasiadamente grande. Com o endereçamento de classes 
cheias, uma organização com 2.000 hospedeiros recebia um endereço de sub-rede de classe 
B (/16), o que resultava no rápido esgotamento do espaço de endereços de classe B e na má 
utilização do espaço de endereço alocado. 
Os 2 endereços especiais de uma sub-rede que não podem ser utilizados são o primeiro e o 
último endereço da faixa de endereços da organização. O primeiro é reservado para o 
endereço de rede, que identifica a rede como um todo. Nele, todos os bits que não fazem 
parte do prefixo de rede recebem o valor 0. 
Já o último endereço é utilizado como endereço de difusão (broadcast). Roteadores não 
repassam mensagens de difusão, portando, em uma rede IP a difusão fica limitada ao 
segmento de rede limitado pelo roteador. No endereço de difusão, todos os bits que não 
fazem parte do prefixo de rede recebem o valor 1. 
O 255.255.255.255 é um endereço especial de difusão em que a mensagem é entregue a 
todos os demais hospedeiros que estão na mesma sub-rede do hospedeiro que enviou a 
mensagem. 
No endereçamento de classes cheias, o número total de redes e hospedeiros para cada 
classe é: 
Classe A 
126 redes com aproximadamente 16 milhões de hospedeiros cada. 
 
Classe 
16.384 redes com até 64K hospedeiros cada. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
 
Classe C 
Cerca de 2 milhões de redes com até 254 hospedeiros cada. 
 
Classe D 
Cerca de 268 milhões de grupos multicast. 
 
 
 
A distribuição de endereços IP é controlada pela ICANN (Internet Corporation for Assigned 
Names and Numbers). 
Sub-Redes 
O mundo exterior a uma organização enxerga sua rede como sendo única, e nenhuma 
informação sobre sua estrutura interna é necessária. Porém, sem a utilização de sub-redes, 
o espaço de endereçamento pode se tornar muito ineficiente. 
A fim de tornar mais eficiente a utilização da rede, é comum sua divisão em várias sub-
redes. O mecanismo que permite tal divisão é conhecido como máscara de rede. 
Assim como um endereço IP, uma máscara de rede possui 32 bits divididos em 4 campos 
com 8 bits cada, seguindo o padrão: 
• bits da rede – bit 1 
• bits da sub-rede – bit 1 
• bits do hospedeiro – bit 0 
Os bits da sub-rede são utilizados para especificar quais bitsno campo do hospedeiro são 
usados para especificar as sub-redes de uma rede. 
A máscara padrão (default) para cada classe é dada por: 
Classe Decimal Notação IDR Hexadecimal 
A 255.0.0.0 /8 FF:00:00:00 
B 255.255.0.0 /16 FF:FF:00:00 
C 255.255.255.0 /24 FF:FF:FF:00 
 
Ao se dividir uma rede em sub-redes, deve-se alocar os bits para a sub-rede a 
partir dos bits de mais alta ordem (bits mais à esquerda) do campo do 
hospedeiro. A tabela a seguir mostra os valores usados no campo do 
hospedeiro quando se divide uma rede em sub-redes. 
128 64 32 16 8 4 2 1 
1 0 0 0 0 0 0 0 128 
1 1 0 0 0 0 0 0 192 
1 1 1 0 0 0 0 0 224 
1 1 1 1 0 0 0 0 240 
1 1 1 1 1 0 0 0 248 
1 1 1 1 1 1 0 0 252 
1 1 1 1 1 1 1 0 254 
 
Uma rede pode ser dividida em diversas partes para uso interno, continuando 
a ser vista como uma única rede externamente. Essas partes são as sub-redes. 
Existem diversas razões para se dividir uma rede em sub-redes. Algumas destas 
razões são: 
• Isolar o tráfego de uma sub-rede, reduzindo assim o tráfego total da rede. 
• Proteger ou limitar o acesso a uma sub-rede. 
• Permitir a associação de uma sub-rede com um departamento ou espaço geográfico 
específico. 
NAT 
Atualmente, endereços IP são escassos e este esgotamento não é um problema teórico que 
pode ocorrer em algum momento no futuro distante, ele já está acontecendo, e a solução 
atual para este problema é o NAT (Network Address Translation – Tradução de Endereço de 
Rede), descrito na RFC 3022. 
Com essa técnica, uma organização pode utilizar internamente uma faixa de endereços que 
não é válida na Internet, e quando é necessário fazer acesso externo, o dispositivo 
responsável pelo NAT faz a tradução do endereço da rede interna para o endereço válido da 
organização. Dessa forma, a organização poderá obter internamente uma quantidade maior 
de hospedeiros do que endereços disponíveis para utilização da Internet. 
Comentário 
A ideia básica do NAT é atribuir a cada organização uma pequena quantidade 
de endereços IP para tráfego na Internet. Dentro da organização, todo 
computador obtém um endereço IP exclusivo (também conhecido como 
endereço IP privado) usado para roteamento do tráfego interno e, quando um 
pacote sai da organização e vai para a Internet, ocorre uma conversão do 
endereço. 
Para tornar esse esquema possível, três intervalos de endereços IP foram 
declarados como endereços privativos (reservados) e as organizações podem 
utilizá-los internamente da maneira que quiserem, a única regra é que nenhum 
pacote contendo esses endereços pode aparecer na própria Internet. Os três 
intervalos reservados são: 
Faixa Máscara Classe 
10.0.0.0 a 10.255.255.255 255.0.0.0 A 
172.16.0.0 a 172.31.255.255 255.255.0.0 B 
192.168.0.0 a 
192.168.255.255 
255.255.255.0 C 
Dentro da organização, toda máquina tem um endereço exclusivo que não é 
válido na Internet. Quando um pacote deixa a organização, ele passa por uma 
caixa NAT (normalmente um roteador), que converte o endereço de origem no 
endereço IP válido da organização. Desse modo, o pacote poderá transitar sem 
problemas pela Internet, porém, a resposta do pacote voltará para o endereço 
IP válido da organização e não para a máquina que fez tal requisição. Por causa 
disso, a caixa NAT deverá manter uma tabela na qual poderá mapear a 
máquina que enviou a requisição para Internet, de forma que, quando a 
resposta voltar, ela possa ser mapeada para a máquina correta. 
Na técnica de NAT, os endereços utilizados pelos hospedeiros de uma 
organização não são válidos na Internet, não há como tais equipamentos 
receberem acesso direto da rede externa, conferindo um certo grau de 
proteção aos hospedeiros da rede interna. 
 
 
1. No CIDR (Classless Inter-domain Routing – Roteamento Interdomínio sem Classes) o 
prefixo de rede é utilizado para: 
a) Identificar a interface de rede do hospedeiro. 
b) Informar a quantidade de bytes do endereço IP. 
c) Identificar o hospedeiro que deve receber o datagrama. 
d) Determinar qual parte do endereço IP identifica a rede. 
Comentário 
Parabéns! A alternativa D está correta. 
Um endereço IP possui 32 bits. Quando se utiliza o CIDR, é definido um prefixo, sendo este 
utilizado para dividir o endereço IP em 2 partes: rede e hospedeiro. O prefixo CIDR 
determina a quantidade de bits a ser alocada na identificação da rede, ou seja, determina a 
parte do endereço IP que identifica a rede. 
 
2. A técnica de NAT foi desenvolvida para: 
a) Realizar a fragmentação de datagramas IP. 
b) Calcular a máscara de rede. 
c) Associar uma sub-rede a um espaço geográfico específico. 
d) Resolver o problema da escassez de endereços IP. 
Comentário 
Parabéns! A alternativa D está correta. 
A quantidade de endereços IP disponíveis para utilização na Internet já é escassa, e a cada 
dia mais organizações e pessoas desejam se conectar à internet, Dessa forma, foi criada a 
técnica de NAT (Network Address Translation), que permite que uma organização possua 
um conjunto de endereços internos que não são válidos na Internet mas que, quando um 
hospedeiro deseja acessá-la, seu endereço é traduzido em um endereço válido, permitindo, 
assim, a possibilidade de conectar mais hospedeiros à Internet do que a quantidade de 
endereços disponíveis para isso. 
 
 
PROTOCOLO DE CONTROLE DA INTERNET 
O protocolo IP é o responsável por manter a unidade de toda a Internet, 
porém, ele não consegue realizar sozinho todo o trabalho necessário. Para 
auxiliá-lo nesta tarefa, foram desenvolvidos protocolos auxiliares na camada 
de rede, conhecidos como protocolos de controle. 
 
Neste módulo, estudaremos os principais protocolos de controle que 
trabalham em conjunto com o protocolo IP. 
ARP (ADDRESS RESOLUTION PROTOCOL) 
Embora na Internet cada hospedeiro possua um ou mais endereços IP, na 
verdade eles não podem ser usados diretamente para o envio de informações 
pela rede, pois o hardware da camada de enlace de dados não entende os 
endereços Internet. 
Suponha que você esteja utilizando um notebook e que ele enviará dados para um servidor 
na mesma rede. O software IP do notebook receberá os dados a serem enviados e 
construirá um pacote com o endereço IP do servidor no campo ENDEREÇO DESTINO do 
datagrama para transmissão. O software IP descobrirá que o servidor está em sua própria 
rede e que, portanto, deverá transmitir os dados diretamente a ele. 
Neste ponto existe um problema. A placa de rede trabalha com endereços físicos da camada 
de enlace, ela não reconhece endereços IP. Logo, é necessário encontrar uma forma de 
mapear os endereços de rede nos endereços de enlace. 
 
A solução adotada é fazer com que o hospedeiro que precise descobrir o endereço de enlace do 
destinatário envie um pacote por difusão perguntando: “A quem pertence o endereço IP A.B.C.D?”. 
Então, o hospedeiro destinatário responderá com seu endereço de enlace. O protocolo que faz essa 
pergunta e obtém a resposta é o ARP (Address Resolution Protocol, que é definido na RFC 826. 
No exemplo da imagem, a seguir, a requisição ARP é enviada para o endereço de enlace ff-ff-ff-ff-ff-
ff, o que permite que a camada de enlace promova uma difusão (entregue a requisição a todos os 
hospedeiros ligados ao meio de transmissão). 
 
Continuando em nosso exemplo, o software IP do notebook constrói um 
quadro de enlace endereçado ao servidor, coloca o pacote IP no campo de 
carga útil e o envia. A placa de rede do destinatário detecta esse quadro, 
reconhece-o como um quadro destinado a ela e o recolhe. O software de 
enlace extrai o pacote IP da carga útil e o repassa para o software IP, que 
verifica se ele está corretamente endereçado e o processa. 
SÃO POSSÍVEIS VÁRIAS OTIMIZAÇÕES PARA TORNAR O ARP MAIS EFICAZ. EM 
PRIMEIRO LUGAR, DEPOIS QUE UMA MÁQUINA EXECUTA O ARP, ELA 
ARMAZENA O RESULTADO EM UM CACHE. 
 
Em muitos casos, o destinatário precisará enviar uma resposta, o que forçará 
tambéma execução do ARP para determinar o endereço de enlace do 
transmissor. Essa difusão do ARP pode ser evitada fazendo-se com que o 
destinatário inclua em sua tabela o mapeamento entre os endereços de rede e 
de enlace do transmissor. 
Se um hospedeiro precisar enviar dados para outro hospedeiro que se 
encontra em uma sub-rede diferente da sua, este sistema de entrega direta 
não funcionará. Neste caso, o hospedeiro transmissor precisará enviar seus 
dados para um roteador, que deverá providenciar o encaminhamento do 
datagrama para a sub-rede do destinatário. Poderá ser necessário que o 
protocolo ARP seja utilizado mais de uma vez ao longo do caminho. 
Para saber mais sobre o funcionamento do ARP quando existe um roteador no 
meio do caminho, assista ao vídeo abaixo: 
DHCP (DYNAMIC HOST CONFIGURATION PROTOCOL) 
Para ter acesso à Internet, um hospedeiro precisa ser configurado com alguns parâmetros. 
Os parâmetros mínimos a serem configurados são: 
1-Endereço IP 
Para permitir que o hospedeiro possa ser endereçado e receber dados de outro hospedeiro. 
2-Máscara de sub-rede 
Para que o hospedeiro possa determinar qual a sua sub-rede. 
3-Endereço do gateway (roteador) 
Para que o hospedeiro possa enviar informações para fora de sua sub-rede. 
4-Endereço do servidor DNS 
Para que o hospedeiro possa acessar outros hospedeiros por seus nomes em vez de precisar 
conhecer seus endereços IP. 
 
 
Esses parâmetros devem ser configurados em todos os hospedeiros da organização, o que 
pode ser feito manualmente pelos administradores da rede. Isso funcionaria muito bem em 
um ambiente relativamente estático onde os hospedeiros raramente fossem mudados de 
lugar ou trocados. 
E no caso de ambientes onde existe uma grande variação nos hospedeiros presentes na 
rede? 
Imagine, por exemplo, como seria na praça de alimentação de um shopping que oferece 
acesso à Internet. Seria viável solicitar que todo o dispositivo móvel que chegasse nesse 
shopping e quisesse acessar a Internet fizesse um pré-cadastro para poder ter esse acesso? 
Como cada dispositivo precisa de um endereço único no momento do acesso, como seria 
administrar esta distribuição por todos os possíveis clientes? 
 
 
Comentário 
Para facilitar a distribuição de endereços IP e demais parâmetros de rede entre 
os vários hospedeiros que podem estar presentes em uma rede, e administrar 
a atribuição destes parâmetros de forma automatizada, a IETF desenvolveu o 
DHCP, cuja especificação encontra-se na RFC 2131. 
Para utilizar o mecanismo dinâmico de alocação de endereços do DHCP, o 
administrador do sistema deve configurar um servidor fornecendo um grupo 
de endereços IP. Sempre que um novo computador se conecta à rede, entra 
em contato com o servidor e solicita um endereço. O servidor opta por um dos 
endereços especificados pelo administrador e aloca tal endereço para o 
computador. 
De modo geral, o DHCP permite três tipos de atribuição de endereços: 
1-Configuração manual 
O administrador especifica o endereço que cada hospedeiro receberá quando se conectar à 
rede. 
2-Configuração automática 
O administrador permite que um servidor DHCP atribua um endereço quando um 
hospedeiro se conectar pela primeira vez à rede. A partir deste momento, este endereço 
estará reservado para este hospedeiro para sempre. 
3-Configuração dinâmica 
O servidor “empresta” um endereço a um hospedeiro, por um tempo limitado. Quando o 
hospedeiro não estiver mais utilizando este endereço, ele poderá ser alocado a outro 
hospedeiro. 
Um servidor DHCP empresta um endereço para o hospedeiro por um período de tempo 
determinado que ele especifica ao alocar o endereço. Durante esse período, o servidor não 
alocará o mesmo endereço a outro cliente, entretanto, quando a alocação terminar, o 
cliente deverá renová-la ou cancelar o uso do endereço. 
O período ideal de alocação depende da rede e das necessidades de um hospedeiro em 
particular. O DHCP não especifica uma quantidade de tempo para o período de alocação. O 
protocolo permite que um cliente solicite um tempo de alocação específico e que um 
servidor informe ao cliente quanto tempo de alocação lhe será concedido. Fica a cargo do 
administrador determinar este tempo. 
A figura mostra os seis estados em que um cliente DHCP pode estar: 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
 
 
 
 
 
 
ICMP (INTERNET CONTROL MESSAGE PROTOCOL) 
Durante o tráfego de informações pela rede, podem ocorrer erros ou situações anormais 
que precisam ser do conhecimento dos hospedeiros. Para permitir a troca deste tipo de 
informação, foi criado o protocolo ICMP. Com ele, hospedeiros conseguem enviar 
mensagens de controle e erros para outros hospedeiros. O erro sempre é reportado ao 
sistema que gerou o datagrama. 
Além de oferecer a possibilidade de troca de informações sobre erros e de controle, o ICMP 
inclui um mecanismo de envio e resposta (echo) para testar quando um destino é alcançável 
ou não. O comando ping utiliza este protocolo. 
O ICMP é definido na RFC 792. 
 
Uma mensagem ICMP é carregada dentro de um datagrama IP, ou seja, as 
mensagens ICMP são transportadas pelo protocolo IP. Existem diversas 
mensagens ICMP. As mais importantes são: 
Destination unreachable (destino inalcançável) 
Datagrama não pode ser entregue. Usada quando a sub-rede ou um roteador não pode 
localizar o destino, ou um datagrama com o bit DF não pode ser entregue porque há uma 
rede de pacotes pequenos no caminho. 
Time exceeded (tempo excedido) 
Campo tempo de vida do IP chegou a zero. Enviada quando um pacote é descartado porque 
seu contador chegou a zero. Esse evento é um sintoma de que os datagramas estão 
entrando em loop, de que há congestionamento ou de que estão sendo definidos valores 
muito baixos para o temporizador. 
Parameter problem (problema de parâmetro) 
Campo de cabeçalho inválido. Essa mensagem indica existência de um problema no 
software IP do hospedeiro transmissor ou no software de um roteador pelo qual o pacote 
transitou. 
Source quench (redução de origem) 
Conhecida como pacote regulador. Usada para ajustar os hospedeiros que estejam 
enviando pacotes demais a fim de controlar o congestionamento na rede. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-01
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-02
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-03
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-04
Redirect (Redirecionar) 
Usada quando um roteador percebe que o pacote pode ter sido incorretamente roteado. É 
usada pelo roteador para informar ao hospedeiro transmissor a respeito do provável erro. 
Echo request (solicitação de eco) 
Perguntar a um hospedeiro se ele está ativo. Ao receber a mensagem echo request, o 
destino deve enviar de volta uma mensagem echo reply. 
Echo reply (resposta de eco) 
Confirmação de que o hospedeiro está ativo. 
Timestamp request (solicitação de carimbo de data e hora) 
Mesmo que echo request, mas solicita que a hora da chegada da mensagem e da partida da 
resposta sejam registradas na mensagem de resposta. 
Timestamp reply (resposta de carimbo de data e hora) 
Resposta à mensagem timestamp request. 
 
 
1. O DHCP é um protocolo que foi desenvolvido para: 
a) Fazer o mapeamento entre o endereço de rede e o endereço de enlace. 
b) Traduzir o endereço interno de um hospedeiro em um endereço externo válido. 
c) Facilitar a configuração de rede dos hospedeiros de uma sub-rede. 
d) Permitir a configuração manual dos parâmetros de rede. 
Comentário 
Parabéns! A alternativa C está correta. 
A tarefa de configurar os parâmetros de rede em todos os hospedeiros de uma rede pode 
ser uma tarefa demorada, principalmente para grandes redes. Desta forma, o DHCP foi 
desenvolvido para facilitar o trabalho do administrador,o qual configura os parâmetros em 
um servidor, sendo estes parâmetros recebidos pelos hospedeiros de forma automática 
durante sua inicialização. 
 
 
2. Quando um datagrama não pode ser entregue porque o roteador não consegue localizar 
o destino, o protocolo responsável por informar este problema é o: 
a) ICMP. 
b) DHCP. 
c) NAT. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-05
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-06
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-07
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-08
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse04-09
d) ARP. 
Comentário 
Parabéns! A alternativa A está correta. 
O ICMP foi desenvolvido como o protocolo responsável pelo envio das mensagens de 
controle e de erro de uma rede. Assim, quando o roteador não consegue localizar o destino, 
o software ICMP do equipamento envia de volta à origem do datagrama uma mensagem 
ICMP contendo esta informação. 
 
 
ROTEAMENTO 
A principal função da camada de rede é rotear pacotes do hospedeiro origem 
para o hospedeiro destino da melhor forma possível. Na maioria dos casos, os 
pacotes necessitarão passar por vários roteadores para chegar ao destino. 
O algoritmo de roteamento é a parte do software da camada de rede 
responsável pela decisão sobre a linha de saída a ser usada na transmissão do 
pacote que entra. Caso a sub-rede utilize datagramas, esta decisão deverá ser 
tomada para todos os pacotes de dados recebidos e se utilizar circuitos virtuais 
internamente, as decisões de roteamento serão tomadas somente quando o 
circuito virtual estiver sendo estabelecido. 
PRINCÍPIO DA OTIMIZAÇÃO 
O princípio da otimização de Bellman (1957) estabelece que se o roteador B 
estiver no caminho ótimo entre o roteador A e o roteador C, o caminho ótimo 
de B a C também estará na mesma rota. 
Esse princípio nos diz que o conjunto de rotas ótimas de todas as origens para 
um determinado destino é uma árvore conhecida como árvore de escoamento 
(sink tree, em inglês), cuja raiz é o hospedeiro destino. Os algoritmos de 
roteamento precisam descobrir a árvore de escoamento a partir da topologia 
da rede. 
ROTEAMENTO PELO CAMINHO MAIS CURTO 
O protocolo de roteamento pelo caminho mais curto é um protocolo estático cuja ideia é 
criar um grafo da sub-rede, com cada nó do grafo representando um roteador e cada arco 
indicando um enlace. Para escolher uma rota entre um determinado par de roteadores, o 
algoritmo simplesmente encontra o caminho mais curto entre eles no grafo. 
Uma forma de medir o comprimento do caminho é em número de saltos (quantidade de 
enlaces que devem ser utilizados). Utilizando essa unidade métrica na figura anterior, os 
caminhos ABC e ABE são igualmente longos. Outra unidade métrica é a distância geográfica, 
caso em que ABC é mais longo que ABE. 
Há também a unidade métrica baseada no tráfego entre os enlaces. Nesse grafo, o caminho 
mais curto é o caminho mais rápido, e não o caminho com menos arcos ou com menor 
distância. 
Os valores dos arcos podem ser calculados como uma função da distância, da largura de 
banda, do tráfego médio, do custo de comunicação, do comprimento médio de fila, do 
retardo detectado ou de outros fatores. Alterando a função de atribuição de pesos, o 
algoritmo calcularia o caminho mais curto medido de acordo com determinados critérios 
que podem ser ou não combinados. 
Existem diversos algoritmos para o cálculo do caminho mais curto. O mais conhecido deles 
foi desenvolvido por Dijkstra em 1959. Nele, cada roteador armazena sua menor distância 
até a origem e o caminho a ser seguido. Na inicialização do algoritmo não existe caminho 
conhecido, assim, a distância é marcada como infinito. Conforme o algoritmo progride, os 
caminhos e seus custos são encontrados. 
 
 
Para encontrar a árvore de escoamento de A, na figura, marca-se o nó A como permanente, o que é 
indicado por um círculo preenchido (a). Depois é examinado, um a um, cada nó adjacente a A 
alterando o rótulo de cada um deles para a distância até A. 
Sempre que um nó é rotulado novamente, ele também é rotulado com o nó a partir do qual o teste 
foi feito, assim, pode-se reconstruir o caminho final posteriormente. Após examinar cada nó 
adjacente a A, verifica-se todos os nós provisoriamente rotulados no grafo tornando permanente o 
de menor rótulo, que passa a ser o novo nó ativo. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
 
 
No segundo passo (b) verifica-se que o nó B é o que possui o menor valor entre os 
nós rotulados não permanentes. Logo, ele é marcado como permanente e os 
nós adjacentes são rotulados. Como B tem custo 2 e o enlace entre B e D 
possui custo 6, o custo de D passando por B será 6 + 2 = 8. Da mesma forma, o 
custo de E passando por B será rotulado como 4. E assim o algoritmo 
prossegue, até que todos os nós sejam marcados como permanentes. 
 
Uma Situação interessante acontece no quarto passo (d). Quando o nó C é 
marcado como permanente, verifica-se que D anteriormente foi rotulado com 
valor 8 passando por B, porém como vizinho de C seu custo será 7. Então, o nó 
D é rotulado novamente com o valor 7.
 
Ao final, para obter a árvore de escoamento até A, basta seguir o caminho 
marcado por cada roteador até seu vizinho de menor custo. 
ALGORITMOS DE ROTEAMENTO 
Conforme estudamos anteriormente, os algoritmos de roteamento são executados pelos 
roteadores de uma sub-rede para que sejam criadas as tabelas de repasse dos roteadores. 
Para isso, eles precisam trocar informações sobre o estado da rede e concordarem com a 
árvore de escoamento a ser montada para cada destino. 
Os algoritmos de roteamento podem ser agrupados em: 
Não adaptativos 
Não baseiam suas decisões de roteamento em medidas ou estimativas do tráfego e da 
topologia atuais. A escolha da rota a ser utilizada é previamente calculada e transferida para 
os roteadores quando a rede é inicializada. Tal procedimento também é conhecido como 
roteamento estático. 
Adaptativos 
Mudam suas decisões de roteamento para refletir mudanças na topologia e/ou no tráfego. 
Tal procedimento também é conhecido como roteamento dinâmico. 
Ainda, os algoritmos de roteamento podem ser classificados como algoritmos de 
roteamento globais ou descentralizados. 
Global 
Calcula o melhor caminho com base no conhecimento completo da rede. Para este fim, o 
roteador deve obter informações sobre o estado de todos os roteadores e enlaces que 
compõem a sub-rede. Um exemplo deste tipo de roteamento é o roteamento de estado de 
enlace. 
Descentralizado 
Neste algoritmo, nenhum roteador possui informação completa sobre o estado da rede. As 
rotas são calculadas com base em informações obtidas com roteadores vizinhos. Um 
exemplo deste tipo de roteamento é o roteamento de vetor de distância. 
Roteamento de Vetor de Distâncias 
O roteamento de vetor de distância é um algoritmo dinâmico que opera fazendo com que 
cada roteador mantenha uma tabela que fornece a melhor distância conhecida a cada 
destino e determina qual linha deve ser utilizada para se chegar lá. Essas tabelas são 
atualizadas através da troca de informações com os vizinhos. 
TRATA-SE DO ALGORITMO DE ROTEAMENTO ORIGINAL DA ARPANET QUE TAMBÉM FOI 
UTILIZADO NA INTERNET COM O NOME RIP. ALGUNS ROTEADORES UTILIZAM 
PROTOCOLOS DE VETOR DE DISTÂNCIA MAIS APERFEIÇOADOS. 
Comentário 
Cada roteador mantém uma tabela de roteamento indexada por cada roteador da sub-rede. 
Cada entrada contém duas partes: a linha de saída preferencial a ser utilizada para esse 
destino e uma estimativa do tempo ou distância até o destino. A unidade métrica utilizada 
pode ser o número de hops, o retardo de tempo, o número total de pacotes enfileirados no 
caminho ou algo semelhante. 
Presume-seque o roteador conheça a distância até cada um de seus vizinhos. Se a unidade 
métrica for contagem de saltos, a distância será de apenas um salto. Se a unidade métrica 
for o comprimento da fila, o roteador examinará cada uma das filas. Se a unidade métrica 
for o retardo, o roteador poderá medi-lo com pacotes “ICMP ECHO”. 
E como saber qual o caminho que possui melhor distância apenas obtendo informações dos 
vizinhos? 
Seja dv(y) o custo do caminho de menor custo do roteador v para o roteador y, e seja c(x,v) 
o custo da ligação entre os roteadores x e v. Seja ainda v um vizinho do roteador x. 
Então, o custo do caminho para ir de x a y passando pelo vizinho v será {c(x,v) + dv(y)}. 
Logo, pelo princípio da otimização, o menor custo para ir de x a y será: 
dx(y) = minv{c(x,v) + dv(y)}, 
onde minv retornará o menor valor calculado para todos os vizinhos. 
Conforme os vizinhos vão trocando informações sobre o estado da rede, o algoritmo 
converge para um estado de equilíbrio onde são obtidas as árvores de escoamento para 
cada destino. 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html
Sempre que houver alguma modificação na rede, o roteador comunicará esta mudança a 
seus vizinhos, que atualizarão suas tabelas e repassarão estas alterações a seus próprios 
vizinhos. Assim, a alteração se propagará entre todos os roteadores e rapidamente a rede 
convergirá para um novo estado de equilíbrio. 
Na Internet o roteamento de vetor de distância é implementado pelo RIP (Routing 
Information Protocol). A versão 1 do RIP é definida pela RFC 1058, enquanto sua versão 2 é 
definida pela RFC 2453. 
Roteamento de estado de enlace 
O roteamento de vetor de distância era utilizado na ARPANET até 1979, quando então foi 
substituído pelo roteamento de estado de enlace. Essa substituição foi basicamente 
motivada por dois problemas: 
• A unidade métrica de retardo era o comprimento de fila, não levando em conta a 
largura de banda. 
• O algoritmo geralmente levava muito tempo para convergir. 
A ideia do roteamento de estado de enlace é simples. Cada roteador deve: 
Descobrir seus vizinhos e aprender seus endereços de rede 
Determinação dos Vizinhos: Quando um roteador é inicializado, ele envia um pacote HELLO 
em cada linha. O roteador da outra extremidade envia de volta uma resposta identificando-
se. 
Medir o retardo ou o custo para cada um de seus vizinhos 
Medição do Custo da Linha: A forma mais simples de determinar o retardo é enviar um 
pacote ECHO pela linha. Medindo o tempo de ida e volta o roteador pode obter uma 
estimativa razoável do retardo. Para obter resultados melhores pode-se fazer o teste mais 
de uma vez e usar a média. 
Criar um pacote que diga tudo o que acaba de ser aprendido 
Criação de Pacotes por Estado de Enlace: O pacote começa com a identidade do 
transmissor, seguida do número de sequência, da idade, e de uma lista de vizinhos. É 
fornecido o custo referente a cada vizinho. Um exemplo de sub-rede é ilustrado na figura 
abaixo, sendo os custos mostrados por linhas. Os pacotes de estado de enlace 
correspondentes a todos os seis roteadores são mostrados na figura abaixo. 
Enviar esse pacote a todos os outros roteadores 
Distribuição dos Pacotes de Estado de Enlace: Se estamos querendo criar as rotas para que 
os datagramas possam ser enviados pela rede, como distribuir as informações? A ideia é 
usar a inundação de pacotes, onde os pacotes que são recebidos por uma interface são 
replicados para as outras interfaces, fazendo, assim, com que a informação se espalhe por 
toda a rede. 
Para controlar a inundação cada pacote contém um número de sequência que é 
incrementado para cada pacote enviado. Quando é recebido, o novo pacote de estado de 
enlace é conferido na lista de pacotes já verificados. Se for novo, o pacote será 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-01
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-02
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-03
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-04
encaminhado a todas as linhas, menos para aquela em que chegou. Se for uma cópia, o 
pacote será descartado. Se for recebido um pacote com número de sequência inferior ao 
mais alto detectado até o momento, ele será rejeitado. 
Mas se um roteador apresentar falha, ele perderá o controle de seu número de sequência. 
A solução é incluir a idade de cada pacote após o número de sequência e decrementá-la 
uma vez por segundo. Quando a idade atingir zero, as informações desse roteador serão 
descartadas. O campo de idade é também decrementado por cada roteador durante o 
processo inicial de inundação para garantir que nenhum pacote viverá por um período 
indefinido. 
Calcular o melhor caminho para cada um dos outros roteadores 
Cálculo das Novas Rotas: Uma vez que um roteador tenha acumulado um conjunto 
completo de pacotes de estado de enlace poderá criar o grafo completo da sub-rede. Neste 
momento o algoritmo de Dijkstra pode ser executado localmente para calcular o melhor 
caminho. 
Na Internet o roteamento de estado de enlace é implementado pelo protocolo OSPF (Open 
Shortest Path First), definido pela RFC 2328. 
 
 
Assim, a topologia completa e todos os retardos são medidos e distribuídos para cada 
roteador. Em seguida, o algoritmo de Dijkstra pode ser usado para encontrar o caminho 
mais curto. 
Roteamento hierárquico 
Conforme as redes aumentam, as tabelas de roteamento crescem proporcionalmente até 
que chega um momento em que não é mais possível que os roteadores conheçam todos os 
caminhos da rede. Assim, é necessário pensar em uma nova forma de realizar o 
roteamento. Foi pensando nesta situação que foi criado o roteamento hierárquico. 
Quando o roteamento hierárquico é utilizado, os roteadores são divididos em regiões, com 
cada roteador conhecendo todos os detalhes sobre como rotear pacotes para destinos 
dentro de sua própria região, mas sem conhecer a estrutura interna de outras. No caso de 
redes muito grandes, uma hierarquia de dois níveis pode ser insuficiente, sendo necessário 
agrupar as regiões em clusters, os clusters em zonas, as zonas em grupos etc. 
A figura abaixo mostra um exemplo quantitativo do roteamento em uma hierarquia de dois 
níveis com quatro regiões. A tabela de roteamento completa do roteador A1 tem 16 
entradas, mas quando o roteamento é feito hierarquicamente são necessárias apenas 7 
http://estacio.webaula.com.br/cursos/temas/camada_de_rede/index.html#collapse05-05
entradas. Porém, este tipo de roteamento pode implicar um provável aumento do caminho 
para alguns hospedeiros. 
 
 
1. Um algoritmo de roteamento adaptativo possui como característica: 
a) Adaptar suas interfaces de acordo com a vazão dos enlaces. 
b) Calcular as rotas a serem utilizadas com base no conhecimento completo da rede. 
c) Basear suas decisões de roteamento de acordo com o tráfego e a topologia recentes. 
d) Distribuir as informações de roteamento por intermédio de inundação de pacotes. 
Comentário 
Parabéns! A alternativa C está correta 
Um algoritmo de roteamento adaptativo, conforme seu nome indica, adapta as rotas ao 
estado atual de enlaces e topologia, promovendo alterações na rota sempre que houver 
alguma mudança significativa no estado da rede. 
 
 
2. Quando a rede cresce a ponto de ser necessário alterar o esquema de roteamento para 
diminuir o tamanho das tabelas, deve-se utilizar o roteamento: 
a) de vetor de distância. 
b) hierárquico. 
c) não adaptativo. 
d) de estado de enlace. 
 
Comentário 
Parabéns! A alternativa B está correta. 
O roteamento hierárquico foi criado para resolver os problemas de armazenamento das 
tabelas de roteamento quando as redes crescem muito. Com sua utilização não é necessário 
que os roteadores conheçam a topologia de toda a rede para tomar suas decisõesde 
roteamento, bastando saber como rotear dentro de sua região e como chegar às outras 
regiões. 
 
 
 
CAMADA FÍSICA 
A camada física é responsável pela geração e transmissão do sinal 
propriamente dito, que é levado de um transmissor ao receptor 
correspondente. Eles estão conectados por um enlace físico de transmissão. 
Para ativar, manter e desativar o link físico entre sistemas finais, a camada 
física define especificações: 
• Elétricas; 
• Mecânicas; 
• Funcionais; 
• De procedimentos. 
 
A partir disso, são determinadas características como: 
• Níveis de voltagem; 
• Temporização de alterações de voltagem; 
• Taxas de dados físicos; 
• Distâncias máximas de transmissão; 
• Conectores físicos; 
• Outros atributos similares. 
ssa camada está completamente associada ao hardware dos equipamentos e enlaces. 
Na camada física, a unidade de dados é o bit de informação. O bit é codificado em um 
sinal elétrico ou óptico, de forma a ser transmitido pelo transmissor do enlace até o 
receptor através do meio físico de transmissão. 
O sinal sofre diversos efeitos causados pelo meio de transmissão (como interferências, 
ruídos, atenuação) e chega ao receptor após ter experimentado todas essas alterações. 
Assim, em razão desses efeitos, o receptor precisa decodificar o sinal para receber o bit de 
informação. Dependendo da situação, o receptor pode ou não decodificar corretamente o 
bit enviado. 
A figura 2 ilustra um diagrama em blocos simplificado do procedimento descrito 
anteriormente, em que o ruído e outros fatores podem dificultar a recepção do sinal e 
causar erros na interpretação dos bits. 
TRANSMISSÃO DE SINAIS 
Em redes de comunicação, a informação deve ser codificada em um sinal transmitido pelo canal do 
transmissor até o receptor. 
Os sinais podem ser analógicos ou digitais. 
Você sabe qual é a diferença? 
javascript:void(0)
Sinais analógicos 
Apresentam a intensidade (amplitude), variando suavemente com o tempo. 
 
Sinais digitais 
Mantêm um nível constante de intensidade e, depois, mudam abruptamente para outro nível 
constante 
de intensidade. 
Sinal periódico 
Sinal periódico é qualquer sinal (analógico ou digital) que se repete em um período de tempo T 
(figura 4). 
 
Figura 4 – Sinal periódico (STALLINGS, 2005) 
A frequência do sinal é dada pelo valor inverso do 
período de repetição: 
f = 1 / T 
O Período (T) é expresso em segundos (s), e a frequência (f), em hertz (Hz). 
Quanto mais rápida for a variação do sinal (menor período), maior será a frequência. 
É importante guardar essa relação quando formos estudar outros conceitos mais avançados, como 
banda passante e taxa de transmissão de dados. 
Além da frequência, o sinal apresenta ainda como propriedades: 
AMPLITUDE A 
Ponto máximo de intensidade 
 
FASE Φ 
Posição relativa do sinal dentro de um período de repetição 
 
 
É possível codificar a informação variando as grandezas do sinal (f, A, Φ); assim, o sinal pode 
transportar o dado de um ponto ao outro do enlace. 
A figura 5 mostra o sinal variando em amplitude, frequência e fase. 
Pela análise de Fourier, é possível demonstrar que qualquer sinal pode ser decomposto em 
componentes (senoides) de frequência e intensidades diferentes. 
Na figura 6, o sinal de baixo pode ser obtido pela soma do primeiro sinal de frequência f e amplitude 
A com o segundo sinal de frequência 3f e amplitude 0,4A. 
 
 
Banda passante 
Agora, podemos entender o conceito de banda passante do canal de comunicações. 
Trata-se do conjunto contíguo de frequências de sinal que, ao passarem pelo canal de 
comunicação, são praticamente inalteradas. 
 
As componentes de frequência do sinal que estão além da banda passante 
sofrem forte atenuação e são eliminadas. 
Podemos imaginar o canal de comunicação como um filtro que deixa passar as 
componentes dentro da faixa de frequências especificadas pela banda 
passante e bloqueia as demais componentes fora da banda passante. 
Vamos ver um exemplo? 
Digamos que o sinal da parte inferior da figura 6 será transmitido por um canal 
de largura de banda 2f Hz, que deixa passar sem atenuação componentes de 
frequência entre valores 0,5f e 2,5f. 
Ao transmitir esse sinal pelo canal, a componente de frequência 3f será 
completamente eliminada, e o sinal que aparecerá do outro lado será 
simplesmente a senoide de frequência f (vide figura 7). 
Um sinal digital apresenta variações abruptas na sua intensidade, o que pode ser representado no 
domínio da frequência por componentes de frequência muito elevados. 
Assim, ao passar por um canal de comunicação, o sinal sofre distorções causadas pela banda 
passante do canal. 
Quanto maior for a banda passante, menor será o efeito de filtragem do canal. 
Com isso, o receptor terá mais facilidade para interpretar a informação contida 
no sinal. 
A figura 8 ilustra a codificação de um caractere de informação (101111011) em 
uma possível representação por um sinal digital. Os desenhos que se seguem 
ilustram os efeitos de diferentes larguras de banda sobre a composição do 
sinal. 
javascript:void(0)
 
Taxa de transmissão 
Outro conceito importante é a taxa de transmissão (bit rate) de um canal ou meio físico, que é dada 
pela quantidade de bits que esse meio consegue transmitir por segundo. 
Essa taxa pode ser expressa em bits por segundo (bps), kilobits por segundo (Kbps), megabits por 
segundo (Mbps), 
gigabits por segundo (Gbps). 
O sinal recebido pelo receptor é diferente do sinal que foi transmitido, pois sofreu todos os 
efeitos introduzidos pelo canal de comunicação. 
Esses efeitos degradam o sinal e podem gerar erros de bits, ou seja, erros de interpretação 
na decodificação do sinal pelo receptor, em razão das alterações sofridas. 
 
 
ATENUAÇÃO 
A atenuação é a perda de potência do sinal devido à passagem pelo meio de transmissão 
(canal), fazendo com que a potência do sinal recebido pelo receptor seja menor do que a 
potência do sinal no momento em que foi transmitido. Caso a potência seja muito baixa na 
recepção (abaixo de determinado limiar), o sinal estará muito fraco e mais sujeito aos 
ruídos, podendo gerar erros no receptor. 
O sinal transmitido em espaço livre (meio físico) sem obstáculos, onde o transmissor e o 
receptor são separados por uma distância d, sofre uma atenuação proporcional ao inverso 
do quadrado da distância 1/d2. 
Em outras palavras, a razão entre a potência do sinal recebido (Pr) e a potência do sinal 
transmitido (Pt) é proporcional ao inverso do quadrado da distância: Pr/Pt ~ 1/d2 
(RAPPAPORT, 2001). Para outros meios físicos e contextos de transmissão, as relações 
seguem outra formulação. 
 
 
RUÍDO 
Pode ser entendido de forma ampla como sinais indesejados que são inseridos pelo meio 
físico de transmissão, comprometendo a integridade do sinal. 
Os ruídos são classificados em diversos tipos e podem ser provenientes de fontes distintas. 
O tipo de ruído mais comum é o ruído térmico (ou ruído branco), que afeta todos os 
sistemas, pois ocorre em função da agitação dos elétrons no meio físico em virtude da 
temperatura. 
O ruído térmico não pode ser eliminado completamente, limitando a capacidade máxima de 
um sistema de comunicação. A figura 9 ilustra o efeito do ruído do canal sobre o sinal digital 
e os erros de interpretação de bits por parte do receptor. 
 
MEIOS FÍSICOS DE TRANSMISSÃO 
Os meios físicos de transmissão que compõem o canal de comunicação são classificados em: 
GUIADOS 
Sinal é confinado 
NÃO GUIADOS 
Transmissão em espaço aberto 
Vamos conhecer melhor cada um? 
Meios de transmissão guiados 
São geralmente empregados como meios físicos guiados o cabo de par 
trançado, o cabo coaxial ou o cabo de fibra óptica: 
PAR TRANÇADO 
A figura a seguir apresenta um diagrama esquemático do par trançado. Esse meio físico é 
composto por dois fios de cobre em espiral. O trançado facilita o manejo e reduz 
interferências. Cada partrançado pode representar um canal de comunicação isolado. 
Assim como na figura acima, mais de um par é normalmente agrupado em um cabo com 
capa protetora, sendo geralmente comercializado dessa forma. 
É um dos meios físicos mais comuns para telefonia e redes locais prediais. As categorias 
mais encontradas são: categoria 5, com banda passante de 100Mhz, e a categoria 7, com 
banda passante de 1Ghz. 
COAXIAL 
O diagrama esquemático do cabo coaxial está representado na figura 11. O cabo é 
composto de quatro elementos, de dentro para fora, no condutor interno (núcleo de cobre, 
isolador dielétrico interno, malha de cobre e revestimento plástico). Devido à sua própria 
confecção, ele é mais imune às interferências do que o par trançado, porém é menos 
flexível e usualmente mais caro. Alcança bandas passantes da ordem de 500Mhz, sendo 
muito empregado até os dias de hoje em redes de televisão a cabo. 
FIBRA ÓPTICA 
 
A fibra ótica é o outro tipo de meio físico guiado bastante utilizado. 
De forma diferente do par trançado e do cabo coaxial, na fibra óptica, os sinais são 
constituídos de pulsos de luz; sendo assim, a fibra óptica não sofre interferências 
eletromagnéticas. 
A fibra óptica é constituída de um filamento flexível e transparente fabricado a partir de 
vidro ou plástico. Ela é composta de um material com maior índice de refração (núcleo) 
envolto por um material com menor índice de refração (casca). Na Figura 12, o núcleo e o 
revestimento são caracterizados por diferentes índices de refração da luz n1 > n2. 
Pela Lei de Snell, também conhecida como lei da refração da luz, existe uma relação direta 
entre os índices e ângulos de incidência da luz, de forma que ela possa ser refletida e seguir 
se propagando pelo interior da fibra, vide feixe de luz “a” da Figura 13. Esse é o princípio de 
propagação dos sinais luminosos em uma fibra óptica. 
 
O par trançado e o cabo coaxial transportam o sinal eletromagnético. Na fibra 
óptica, o sinal é propagado na forma de luz. 
E quais as vantagens e desvantagens? 
PAR TRANÇADO 
Vantagens 
Mais flexível e barato 
Desvantagens 
Enfrenta em maior escala o problema de interferências eletromagnéticas. 
 
 
CABO COAXIAL 
Vantagens 
javascript:void(0)
O sinal fica mais protegido de interferências quando comparado ao par trançado. Não 
precisa de nenhum componente eletro-óptico (caso da fibra óptica). 
Desvantagens 
Menos flexível e mais pesado que o par trançado. Menos capacidade de transmissão de 
informação que a fibra óptica. 
 
FIBRA ÓPTICA 
Vantagens 
Possibilita altas taxas de transmissão de dados (elevada banda passante), apresenta baixa 
atenuação com a distância, é imune a interferências eletromagnéticas e possui baixo peso. 
Desvantagens 
Pouca flexibilidade, custos mais elevados e conectorização mais difícil. 
 
Meios de transmissão não guiados (espaço aberto) 
A transmissão de sinais em meios não guiados se refere à transmissão em espaço aberto. 
Nesse ambiente, uma série de sinais e ondas eletromagnéticas estão presentes e compartilham o 
espaço em diferentes frequências. 
É possível classificar as transmissões em meio não guiado (sem fio) de acordo com as frequências 
das ondas utilizadas. A figura 15 ilustra o espectro eletromagnético e a correspondente classificação. 
De acordo com a figura 15, é possível separar as transmissões em espaço aberto em três grandes 
grupos que apresentam características distintas: ondas de rádio (radiofrequência – RF), micro-ondas 
e infravermelho. Cada grupo pode ainda ser dividido em subgrupos. 
Os sinais de radiofrequência se espalham desde as centenas de Khz até, no máximo, poucas 
unidades de Ghz. Estão incluídas nessa faixa as ondas de rádio AM e FM, a TV e a telefonia celular. 
As redes Wi-Fi operam na faixa conhecida como ISM, nas frequências de 900Mhz, 2.4Ghz e 5Ghz. 
Nessas faixas de frequência, o sinal transmitido é irradiado em diversas direções, o que permite um 
bom suporte à mobilidade para as estações receptoras. 
Na faixa das micro-ondas, os comprimentos de onda dos sinais são pequenos, e existe a necessidade 
de haver um alinhamento entre as antenas dos transmissores e receptores dos sinais (linha de 
visada). As frequências mais altas garantem elevadas bandas passantes para os canais de micro-
ondas, porém esses canais são mais suscetíveis às interferências causadas pelas condições 
climáticas. 
A figura 16 ilustra a comunicação via satélite que opera na faixa de micro-ondas tanto em enlaces 
ponto a ponto quanto em enlaces do tipo broadcast. 
O terceiro grupo emprega transmissões em frequências ainda mais elevadas na 
faixa do infravermelho e dos lasers. Nessa faixa, também é necessário o 
alinhamento entre transmissor e receptor. Geralmente, são empregados em 
enlaces de curto alcance, pois apresentam dificuldade para transpor 
obstáculos. 
1. Assinale a alternativa correta: 
A)O ruído branco só aparece em canais com elevada largura de banda. 
B)Quanto maior o período de um sinal periódico maior será a sua frequência. 
C)Sinais digitais são imunes ao ruído. 
D)O ruído branco está presente em qualquer canal de comunicação. 
Comentário 
Parabéns! A alternativa "D" está correta. 
O ruído branco (ruído térmico) está presente em todos os sistemas de comunicação, pois 
ocorre devido à agitação dos elétrons no meio físico em função da temperatura. 
 
 
2. Assinale a alternativa incorreta: 
A)A fibra óptica apresenta maior largura de banda que o par trançado. 
B)O par trançado está mais sujeito à interferência eletromagnética do que a fibra óptica. 
C)Os enlaces de micro-ondas operam em faixas de frequência superiores aos enlaces rádio. 
D)Em enlace de micro-ondas não é necessário haver linha de visada. 
Comentário 
Parabéns! A alternativa "D" está correta. 
Devido às altas frequências e consequentemente pequenos comprimentos de onda a faixa 
de micro-ondas requer linha de visada entre as antenas do transmissor e receptor. O feixe 
do sinal é direcional e requer alinhamento de antenas. 
 
 
INTRODUÇÃO 
A camada de enlace está situada imediatamente acima da camada física. Elas 
atuam juntas de forma direta. 
Conforme estudado no módulo 1, apresentamos diversos fatores que podem 
afetar a transmissão do sinal no meio físico. Alguns desses fatores representam 
características do meio, não sendo possível eliminá-los (como o ruído). 
Os erros na recepção dos sinais são previstos e a camada física por si só não 
pode recuperá-los, cabendo à camada de enlace controlá-los. 
A camada de enlace é subdividida em duas subcamadas: LLC (Controle de 
Enlace Lógico) e MAC (Controle de Acesso ao Meio). Suas funções são: 
DELIMITAÇÃO DE QUADROS (ENQUADRAMENTO) 
Para o melhor desempenho de suas funções, a camada de enlace utiliza o 
quadro como unidade de dados. 
O quadro é um conjunto de bytes de informação que pode variar de tamanho 
conforme o protocolo a ser utilizado. 
Suponhamos que determinado transmissor tenha uma quantidade muito 
grande de dados para transmitir ao receptor. Ao final dessa transmissão, 
percebe-se que, em algum momento, houve um erro no sinal recebido por 
conta dos problemas do canal. 
Dessa forma, o transmissor precisaria repetir toda a transmissão para garantir 
a informação correta ao receptor. No entanto, se dividíssemos essa grande 
quantidade de dados em conjuntos menores (quadros) e transmitíssemos 
quadro após quadro, havendo um erro na transmissão, seria possível 
identificar qual quadro foi afetado. 
Com isso, só repetiríamos a transmissão desse quadro, tornando o controle de erros muito 
mais eficiente. 
Entendendo a importância da utilização de quadros no nível de enlace, 
verificaremos como criar os quadros, ou seja, como particionar os dados 
delimitando o início e o fim de cada quadro. 
Existem basicamente quatro técnicas para realizar o enquadramento dos 
dados e, em alguns casos, as técnicas são combinadas: 
• Contagem de caractere;• Enquadramento por caractere; 
• Enquadramento por bit; 
• Violação de códigos do nível físico. 
Vamos ver cada um deles a seguir: 
Contagem de caractere 
Na técnica de contagem de caractere, a ideia é adicionar um campo no início 
do quadro, informando o número total de caracteres presentes. 
Ao receber o quadro, o receptor (RX) lê o campo de contagem e, a partir de 
então, consegue determinar onde está o final do quadro. 
O problema dessa técnica simples é que, se houver um erro justamente nesse 
campo de contagem, o transmissor (TX) e o receptor (RX) terão interpretações 
diferentes sobre os quadros e perderão completamente o sincronismo. 
Enquadramento por caractere 
Na técnica de enquadramento por caractere, a ideia é utilizar caracteres 
especiais para indicar o início (STX) e o fim do quadro (ETX). O transmissor 
insere essas marcas. Com isso, o receptor fica sabendo exatamente onde 
começa e termina cada quadro. 
 
Além disso, outros campos são incluídos no quadro, como os campos de 
sincronização (SYN), cabeçalho (HEADER) e códigos para verificação de erros 
(CRC). A figura 20 ilustra o quadro com todos esses campos. 
Uma dificuldade que pode ocorrer com essa técnica é que o campo de dados representa as 
informações do usuário, e a camada de enlace não tem controle sobre elas. Assim, pode 
estar presente no campo de dados o padrão idêntico ao do caractere ETX. Ao receber o 
quadro e percorrê-lo, o receptor interpretaria esse ETX como fim do quadro, o que seria um 
erro de interpretação. 
 
Qual é a solução para esse problema? 
Software é, em primeiro lugar, a utilização de outro caractere especial (DLE) para indicar 
que, imediatamente após esse caractere, aparecerá o caractere delimitador (STX ou ETX). 
Dessa forma, um início de quadro seria marcado como DLE STX e um fim de quadro por DLE 
ETX. Isso ainda não resolve o problema, pois o DLE também pode estar presente no campo 
de DADOS do usuário. 
A solução completa é implementada da seguinte forma: ao gerar o quadro, o transmissor 
percorre o campo de DADOS do usuário em busca do padrão DLE. Encontrando esse padrão, 
ele insere no campo de dados outro DLE (operação conhecida como caracter stuffing), e 
segue normalmente com a construção do quadro. 
Ao receber o quadro, o receptor analisa os caracteres do quadro e, ao se deparar com um 
DLE, ele verifica qual é o próximo caractere. Caso seja outro DLE, ele sabe que este foi 
inserido pelo transmissor. Assim, ele exclui esse DLE e continua varrendo o quadro. Caso o 
caractere seguinte não seja outro DLE, mas um marcador (por exemplo, ETX), ele sabe que a 
marcação está correta. A figura 21 exemplifica esse processo de caracter stuffing. 
Uma desvantagem da técnica de enquadramento por caractere é ser orientada 
completamente pela existência e pelo reconhecimento de caracteres. Uma 
alternativa similar a essa é o enquadramento por bit, onde não há a 
necessidade de se trabalhar com caracteres, mas, sim, com bits de dados. 
Enquadramento por bit 
Nesta técnica, o delimitador de quadros é o flag – sequência padrão de bits, 
geralmente 01111110. Cada quadro começa e termina com uma marca flag. 
Havendo falta de sincronismo por algum motivo, tudo o que o receptor tem a 
fazer é procurar por um flag para ficar sincronizado com o transmissor 
novamente. 
De forma análoga à técnica anterior, aqui também ocorre o stuffing. O 
transmissor percorre o campo de DADOS todo e, ao perceber uma sequência 
de 5 bits “1”, ele insere um bit “0”, para quebrar o padrão de flag. Ao 
percorrer o quadro e identificar 5 bits “1” seguidos, o receptor fica alerta; se o 
próximo bit for “0”, ele sabe que esse bit foi inserido pelo transmissor, caso 
contrário (o próximo bit for “1”) ele sabe que se trata de um delimitador de 
quadro, flag. 
Violação de códigos do nível físico 
A última técnica de enquadramento estudada é conhecida como violação de 
códigos do nível físico. A ideia é bastante simples: na transmissão do sinal no 
meio físico, o bit “1” é representado por alguma característica ou variação do 
sinal, e o bit “0”, por outra. 
Se o sinal puder apresentar ainda outras variações que não sejam utilizadas 
para codificar os bits, essas variações podem ser utilizadas para marcar o início 
e o fim do quadro, tendo em vista que não serão confundidas com os bits 
propriamente ditos. 
Um exemplo é a codificação Manchester padronizada pelo IEEE para redes 
locais. Nesta codificação, o bit “1” é representado por uma transição do sinal 
de alto para baixo, e o bit “0”, pela transição contrária do sinal de baixo para 
alto. Assim, as outras duas transições (ou ausência de transições), de baixo 
para baixo e de alto para alto, estão livres para serem usadas como 
marcadores de quadro. 
CONTROLE DE ERROS (CODIFICAÇÃO) 
Existem duas estratégicas básicas para o controle de erro no nível de enlace: 
open loop (malha aberta, sem canal de retorno) e feedback (malha fechada, 
com canal de retorno). 
Open loop 
Na estratégia de open loop, a detecção e correção de erros são feitas 
completamente pelo receptor. São empregados códigos especiais (FEC: 
Forward Error Correction) para inserir informação redundante no quadro. Tudo 
isso para que, ao receber um quadro, o receptor: 
• Possa usar a codificação para verificar a integridade do quadro; 
• Havendo algum problema, possa, por si só, alterar o quadro para a forma correta. 
A desvantagem dessa técnica é a necessidade de se inserir grande quantidade 
de informação redundante no quadro, de forma que o receptor possa executar 
as duas tarefas listadas acima sozinho. No entanto, pode ser a única solução, 
caso a transmissão não tenha canal de retorno. 
Feedback 
A estratégia feedback emprega apenas códigos de detecção de erros, isto é, 
insere informação redundante que seja suficiente apenas para o receptor 
testar a integridade do quadro. Havendo um problema, o receptor solicita ao 
transmissor que retransmita aquele quadro. Assim, é necessário haver um 
canal de retorno do receptor ao transmissor, situação comum em redes de 
dados, pois as estações geralmente precisam transmitir e receber dados. 
Exemplo 
Um exemplo simples de código de detecção de erros é o bit de paridade, que é 
inserido ao final do quadro. Assumindo a escolha da paridade par, o 
transmissor, ao transmitir o quadro, verifica a quantidade de bits “1” presentes 
nele. Se houver um número par de números 1, a paridade estará correta, e o 
bit de paridade receberá o valor “0”. Caso haja um número ímpar de bits “1” a 
ser transmitido no quadro, o transmissor fechará a paridade par inserindo o bit 
“1” no campo do bit de paridade. Ao receber o quadro, o receptor deve checar 
a paridade; se não for par, certamente houve algum problema com a recepção 
do quadro, e ele deve solicitar uma nova transmissão deste mesmo quadro. 
O bit de paridade, apesar de ser simples e de fácil implementação, não é eficaz 
em muitos casos, como, por exemplo, na situação em que houve um problema 
no sinal, fazendo com que o receptor interprete erradamente dois bits do 
quadro. Assim, quando o receptor fizer o teste, a paridade estará correta, e o 
receptor não perceberá o erro na recepção do quadro. Dessa forma, outros 
códigos de detecção mais poderosos foram desenvolvidos e padronizados para 
uso em redes de computadores, como, por exemplo, o CRC (Verificação Cíclica 
de Redundância), conforme ilustrado no quadro da figura 20 (STALLINGS, 
2004). 
Depois de termos estudado as técnicas de enquadramento e codificação, 
entendemos como os quadros podem ser formados e como o receptor é capaz 
de verificar se houve ou não erro na recepção do quadro. Falta agora 
estudarmos como as retransmissões são realizadas automaticamente por meio 
de protocolos de enlace. 
CONTROLE DE FLUXO 
Outra operação que pode ser implementada aproveitando-se dos protocolos 
ARQ é o controle de fluxo. 
O objetivo desse controle é evitar queum transmissor mais rápido acabe 
sobrecarregando um receptor mais lento com o envio de quadros a uma 
velocidade mais rápida que o receptor é capaz de suportar, causando um 
“afogamento” no receptor. 
Esse descompasso não é desejável, pois o receptor vai acabar descartando os 
quadros novos e o transmissor teria que retransmiti-los em um outro 
momento. 
javascript:void(0)
Uma forma do receptor dosar a velocidade de transmissão de quadros quando 
estiver empregando os protocolos da família ARQ é simplesmente retardando 
o envio dos ACKs. 
Desta forma, o receptor consegue reduzir a velocidade com que novos quadros 
são inseridos no canal por parte do transmissor. O receptor pode inclusive 
reter todos os ACKs em um determinado momento o que causaria timeouts no 
transmissor e a pausa na transmissão de novos quadros. 
Assim que o receptor estivesse pronto, bastaria enviar os ACKs para que a 
comunicação fosse reestabelecida e seguisse com os novos quadros. 
 
 
1. Complete a frase a seguir. A técnica de enquadramento: 
A)Por contagem de caractere garante o sincronismo entre o transmissor e o receptor. 
B)Por caractere exige que o receptor insira um caractere DLE a cada DLE que aparecer no 
campo de DADOS. 
C)Por violação de códigos do nível físico utiliza sinais especiais não empregados na 
codificação dos bits. 
D)Por bit não é mais empregada atualmente. 
Comentário 
Parabéns! A alternativa "C" está correta. 
Essa técnica de enquadramento se aplica quando o nível físico apresenta redundância da 
codificação, ou seja, além dos códigos que representam os bits “0” e “1” existem outros 
códigos não utilizados para representar a informação. Desta forma, esses códigos 
redundantes podem ser empregados para delimitar o início e o fim dos quadros 
(enquadramento). 
 
2. Considerando os passos estudados na construção do protocolo Stop-and-Wait ARQ, 
podemos afirmar que: 
A) O campo necessário para numerar os quadros é de apenas um bit. 
B)O timeout deve ser escolhido de forma a não exceder o tempo de transmissão de um 
quadro. 
C) A utilização de ACKs numerados é opcional. 
D) O protocolo é considerado de alto desempenho. 
Comentário 
Parabéns! A alternativa "A" está correta. 
Com o campo de um bit é possível numerar os quadros com os números “0” e “1”, o que é 
necessário para o corretor funcionamento do protocolo top-and-Wait ARQ. 
 
 
 
 
 
INTRODUÇÃO 
Como vimos, a camada de enlace é subdividida em duas subcamadas: LLC 
(Controle de Enlace Lógico), conforme abordado no módulo 2, e MAC 
(Controle de Acesso ao Meio), para lidar com o problema de acesso em enlaces 
multiponto, tema deste módulo. 
Vamos ver a seguir? 
A figura 24 ilustra uma rede de computadores composta de quatro redes locais 
(LANs) conectadas por uma sub-rede. Na sub-rede os roteadores são 
conectados por enlaces ponto a ponto, enquanto nas LANs as estações estão 
ligadas a enlaces multiponto. 
Os enlaces ponto a ponto são dedicados e o fluxo de informação segue sempre 
de um único transmissor a um único receptor. Já os enlaces multiponto são de 
uso compartilhado entre transmissores e receptores diferentes. 
Nas ligações multiponto, o enlace é compartilhado por diversas estações, 
porém, para que uma transmissão seja recebida com sucesso pela estação 
receptora, é necessário que cada estação transmissora envie seus dados em 
momentos diferentes. 
Havendo mais de uma transmissão ao mesmo tempo no enlace multiponto, a 
estação receptora não terá condições de decodificar o sinal – fenômeno 
conhecido como colisão. 
Desta forma, em enlaces multiponto, é necessário haver uma regra de acesso a 
fim de organizar as transmissões, evitando (ou minimizando), com isso, as 
colisões. 
O uso do recurso compartilhado, no caso o enlace multiponto, requer o 
emprego de protocolos de controle de acesso ao meio, o que constitui a 
principal função da subcamada MAC. 
Em suma, o controle de acesso ao meio se faz necessário sempre que houver 
contenção (disputa) de múltiplas estações pelo acesso ao meio de transmissão. 
Redes móveis celulares nas quais o uplink (canal de subida dos terminais celulares para a 
estação-base) é compartilhado pelos usuários móveis. 
COMO SOLUCIONAR OS PROBLEMAS 
As soluções para o problema de compartilhamento de enlaces entre múltiplas estações 
podem ser divididas em três grandes grupos: 
• Alocação estática; 
• Contenção; 
• Acesso ordenado. 
Vamos ver os protocolos que aplicam essas soluções a seguir. 
Protocolos baseados em alocação estática 
A figura 25 apresenta uma ilustração de duas técnicas de alocação estática 
bastante comuns: 
FDMA 
(Acesso Múltiplo por Divisão em Frequência) 
A largura de banda W do enlace compartilhado é dividida em N, formando, 
assim, N canais individuais. Cada estação transmissora, ao ingressar no 
sistema, recebe a alocação estática de um desses subcanais e pode utilizá-la de 
forma exclusiva com o seu par até o momento de desconexão. 
TDMA 
(Acesso Múltiplo por Divisão no Tempo) 
A divisão ocorre em função do tempo, onde o tempo de uso do canal é dividido 
em N fatias (ou slots). Cada estação recebe um slot designado a ela para as 
suas transmissões com a estação receptora. 
Apesar de resolver o problema de compartilhamento do enlace, as técnicas de 
alocação estática, como as ilustradas anteriormente, apresentam algumas 
desvantagens: 
1 
Existe um número máximo de estações que podem ser atendidas pelo sistema. No exemplo, 
esse número é representado por N. Com a chegada de mais uma estação ao sistema (N+1), 
ela será bloqueada por falta de recursos. 
2 
Nessas técnicas, é comum haver desperdício de recursos. Imagine que determinada estação 
é alocada para utilizar determinado canal. Se essa estação, em algum momento, não tiver 
nada a transmitir, o canal ficará ocioso e não poderá ser utilizado por outra estação. Como o 
tráfego de dados ocorre em rajadas (períodos de muita atividade seguidos por períodos de 
silêncio), essas técnicas podem causar desperdícios significativos de recursos. 
Tradicionalmente, elas são mais empregadas para o tráfego telefônico (voz), daí o seu uso 
ter sido mais difundido em redes de telefonia fixa e em redes de telefonia celular. 
Protocolos que empregam contenção 
Um dos primeiros protocolos a empregar a contenção como técnica de compartilhamento 
do enlace foi o protocolo ALOHA, no início da década de 1970, na Universidade do Havaí 
(ABRAMSON, 2009). 
A figura 26 ilustra o cenário de aplicação do protocolo ALOHA na época. Existia uma 
unidade central de processamento (um computador mainframe) que deveria ser acessada 
por terminais remotos espalhados pela universidade. 
Observe que, nesse caso, ambos compartilhavam os recursos da CPU e do canal sem fio 
para as transmissões e acesso à CPU. 
 
A solução empregada para o acesso ao meio físico foi bastante direta. Se 
determinado terminal tivesse algo a transmitir, ele simplesmente faria isso 
usando a sua interface rádio sem qualquer tipo de regra ou restrição. Caso 
houvesse também outro terminal na mesma situação, a colisão seria certa. 
Nesse caso, o que precisaria ser feito era o tratamento da colisão. 
O terminal a transmitir não sabia se a transmissão seria bem-sucedida ou não 
(colisão); tudo o que ele tinha a fazer era aguardar a confirmação (ACK) 
enviada no sentido contrário pela estação central (na figura, CPU). Quando a 
confirmação era recebida, o terminal entendia que a transmissão foi um 
sucesso. Caso contrário, o terminal ficava ciente de que houve uma colisão 
com a transmissão de outro terminal. 
O protocolo ALOHA determinava, então, que, em uma situação de colisão, o 
terminal precisaria sortear um número aleatório de espera e só poderia tentar 
novamente a transmissão após esse tempo. Como os intervalos de tempo de 
https://estaciodocente.webaula.com.br/cursos/temas/refatorados/camadas_de_enlace_e_fisica/#collapse01-01abxm
espera para cada terminaleram sorteados aleatoriamente, os terminais 
acabariam transmitindo em momentos diferentes, evitando novas colisões. 
A solução empregada pelo protocolo ALOHA era bastante simples, e isso 
ocasionava baixo desempenho para a rede como um todo. O melhor 
desempenho teórico do protocolo ALOHA pode ser calculado como 18%, ou 
seja, na melhor hipótese, apenas 18% dos casos seriam caracterizados como 
transmissões bem-sucedidas (TANENBAUM, 2011). 
O baixo desempenho do protocolo ALOHA motivou o desenvolvimento de 
protocolos mais elaborados: 
S-ALOHA 
A ideia imediata era reduzir os eventos em que as colisões pudessem ocorrer. Levando isso 
em consideração, foi desenvolvido o S-ALOHA (ALOHA com slots de tempo). Assim, o 
terminal só poderia transmitir algo sempre no início de cada slot, fazendo com que o 
número de eventos de colisão ocorresse apenas nesses momentos. O desempenho do S-
ALOHA era duas vezes maior do que o desempenho do ALOHA, mas, ainda assim, isso era 
considerado muito baixo. 
CSMA 
Na tentativa de reduzir as colisões, foi desenvolvido o protocolo CSMA (Acesso múltiplo 
com Detecção de Portadora). Para reduzir os eventos de colisão, os terminais que 
empregam o CSMA “escutam” o meio físico antes de transmitir e só realizam a transmissão 
ao perceberem que o meio está livre, ou seja, não existe outro terminal transmitindo 
naquele momento (não foi possível detectar a presença de algum sinal no meio). 
As colisões ainda podem ocorrer no CSMA se o meio estiver livre e mais de um terminal 
estiver “escutando” o meio antes de transmitir. Com o meio livre, esses terminais 
transmitem ao mesmo tempo, gerando a colisão. A detecção de um evento de colisão 
acontece tal como no ALOHA, ao aguardar a confirmação ACK do terminal receptor. 
Havendo colisão, os terminais aguardam um intervalo de tempo sorteado aleatoriamente. 
Depois disso, tentam iniciar novamente a transmissão. 
Na verdade, o CSMA é uma família de protocolos que podem ter variações quanto ao 
momento de iniciar uma transmissão no canal. A figura 27 relaciona em um gráfico o 
desempenho dos protocolos ALOHA, S-ALOHA e as variações do CSMA em um sistema 
teórico com cem terminais (TANENBAUM, 2011). 
No eixo das ordenadas, o parâmetro S indica a proporção de eventos de transmissão com 
sucesso (de 0 a 1 ou, analogamente, de 0% a 100%), e, no eixo das abcissas G, a intensidade 
de tráfego que os terminais impõem ao canal (quantidade de pacotes de dados enviados 
pelos terminais a cada tempo). 
Pode-se observar que a curva do ALOHA (na figura, ele é chamado de Pure ALOHA) é a curva 
mais baixa e apresenta o seu pico (melhor resultado) em torno dos 18%, conforme já 
mencionado. É interessante observar também que, à medida que o G (intensidade de 
tráfego) aumenta, o desempenho do ALOHA diminui até entrar em pleno colapso – 
desempenho praticamente nulo. O mesmo ocorre para outras curvas, mas tal ponto de 
colapso é atingido para valores de intensidade de tráfego cada vez maiores, indicando 
melhores desempenhos em situações de mais alta carga. O destaque fica mesmo para o 
0.01 persistent CSMA, que apresenta, no cenário teórico de estudo, um desempenho de 
quase 100% (TANENBAUM, 2011). 
Outro protocolo da família do CSMA que vale a pena destacar é o CSMA/CD (Acesso 
múltiplo com detecção de portadora e detecção de colisão), que foi padronizado pelo IEEE 
por meio da série IEEE802.3 (ETHERNET), para ser utilizado em redes locais cabeadas. 
O CSMA/CD emprega uma função de detecção antecipada de colisão. Em vez de aguardar 
pela mensagem de reconhecimento (ACK), o CSMA/CD é capaz de perceber a ocorrência de 
uma colisão no momento em que o terminal estiver transmitindo o seu próprio pacote de 
dados. Assim, é possível interromper antecipadamente uma transmissão que não teria 
sucesso. Essa detecção antecipada reduz os tempos de colisão, que ficariam ocupando 
desnecessariamente o canal. 
Protocolos de acesso ordenado 
Na última categoria de protocolos, encontramos aqueles que garantem o acesso ordenado 
ao meio físico, e, portanto, são livres de colisões. 
São várias as possibilidades dentro dessa categoria, mas nos concentraremos nos protocolos 
que utilizam passagem de permissão. 
Permissão nada mais é do que um quadro especial que circula pela rede. Com isso, a 
estação que capturar a permissão terá o direito de realizar a transmissão. 
Todas as outras estações que não possuem a permissão ficam impedidas de realizar uma 
transmissão no enlace compartilhado. Após a sua transmissão, a estação devolve a 
permissão para a rede, a fim de que outra estação consiga transmitir. 
Dois protocolos de passagem de permissão foram padronizados pelo IEEE: 
TOKEN RING (PASSAGEM DE PERMISSÃO EM ANEL) 
Observe a figura 28 a seguir: 
javascript:void(0)
javascript:void(0)
 
Figura 28 - (a) Rede de passagem de permissão em anel, (b) diagrama do funcionamento da 
interface de cada estação (TANENBAUM, 2011) 
a) Topologia de rede de passagem de permissão em anel: 
As estações são conectadas em uma estrutura topológica em anel para que a permissão 
(token) possa circular pelo anel. Quando a estação deseja transmitir, ela captura a 
permissão e realiza a sua transmissão. Após esse momento, ela libera novamente a 
permissão para circular pelo anel e permitir que outra estação possa também receber a 
permissão e realizar a sua transmissão. 
b) Formas de operação das interfaces de cada estação com o anel: 
A figura superior mostra o comportamento padrão da interface durante o modo de escuta 
do barramento em anel, enquanto a figura inferior ilustra a interface da estação quando no 
modo de transmissão. Durante a transmissão, a estação abre a interface com o anel para 
capturar o token e também para inserir o seu quadro de informação no barramento. 
O padrão IEEE 802.5 token ring especifica ainda uma série de modos de operação para o 
anel e as funções de gerência necessárias para o controle do token, contribuindo, assim, 
para o bom funcionamento da rede. 
 
 
TOKEN BUS (PASSAGEM DE PERMISSÃO EM BARRA) 
As redes de passagem em permissão em barra, padrão IEEE 802.4, são 
semelhantes às redes em anel, porém as estações são conectadas em um 
barramento. Elas caracterizam um bom exemplo de topologia física (conexão 
física das estações) em barra e topologia lógica (dada pelo funcionamento do 
protocolo) em anel, conforme ilustra a figura 29.
 
 
A motivação para a padronização de tais redes veio do setor industrial e fabril, 
que opera com as suas máquinas em linhas de produção, o que exige como 
pré-requisito uma rede com topologia em barra. 
Nas redes token bus, as estações possuem um número de identificação 
(endereço físico) e cada estação conhece os endereços das estações vizinhas. 
Assim como no token ring, existe um quadro especial de controle (token) que 
regula o acesso ao meio de transmissão. A estação que possui o token (uma 
por vez – não há colisões) tem garantia de transmissão por determinado 
espaço de tempo. O token “circula” pelas estações no sentido decrescente dos 
endereços, formando um anel lógico. 
Embora as tecnologias token ring e token bus não sejam mais utilizadas em 
redes locais, as soluções são elegantes e foram cuidadosamente especificadas 
e padronizadas. 
O estudo das soluções se justifica, pois as técnicas de passagem de permissão 
têm emprego amplo na área de redes, principalmente em problemas de 
compartilhamento e alocação de recursos entre múltiplos usuários. 
1. O protocolo ALOHA: 
A)Apresenta bom desempenho. 
B)Apresenta bom desempenho. 
C)Permite colisões. 
D)Garante acesso ordenado ao meio. 
Comentário 
Parabéns! A alternativa "C" está correta. 
No protocolo ALOHA, as colisões ocorrem e são previstas pela própria construção do 
protocolo. 
 
 
2. Os protocolos da família CSMA: 
A)Apresentam um desempenho superior ao ALOHA. 
B)São considerados como técnicas de alocação estática. 
C)Não são mais empregadosnos dias de hoje. 
D)Garantem acesso ordenado ao meio. 
Comentário 
Parabéns! A alternativa "A" está correta. 
 
 
Os protocolos CSMA foram desenvolvidos após o ALOHA, e uma de suas finalidades é 
justamente a melhoria no desempenho. 
 
 
 
DEFINIÇÃO 
Princípios teóricos de segurança e administração de redes de computadores. Ferramentas 
para o alcance de um nível adequado de segurança e gerência de redes. 
 
 
PROPÓSITO 
Conhecer os riscos da operação e da utilização de redes de computadores, bem como os 
protocolos de segurança e os tipos de ferramentas adequadas para a administração e o 
gerenciamento de tais processos. 
INTRODUÇÃO 
A internet é uma rede comercial que pode ser utilizada por qualquer pessoa ou 
empresa em todos os cantos do mundo. Com isso, possíveis problemas de 
segurança afloram. 
Pessoas mal-intencionadas utilizam essa rede para realizar atividades 
maliciosas, como roubo de informações e de identidade, paralisação de 
serviços etc. 
Por isso, o tópico segurança destaca-se atualmente como uma das grandes 
preocupações dos administradores de redes. Garantir a segurança na 
comunicação de dados passou a ser uma das questões cruciais na utilização da 
internet. 
É fundamental que tanto usuários quanto profissionais de tecnologia da 
informação (TI) tenham conhecimento dos riscos no uso da rede e saibam 
identificar ferramentas capazes de minimizá-los. 
DEFINIÇÕES 
Para identificar os riscos relacionados ao uso de uma rede de computadores, é 
importante conhecer algumas definições. Por conta disso, iremos nos basear 
na norma ABNT NBR ISO IEC 27001:2013, reconhecida mundialmente como 
uma referência na área de segurança. Essa norma apresenta as seguintes 
definições: 
 
AMEAÇA 
Causa potencial de um incidente indesejado que pode resultar em danos a um sistema ou 
organização. 
ATAQUE 
Tudo aquilo que tenta destruir, expor, alterar, desativar, roubar, obter acesso não 
autorizado ou fazer uso não autorizado de um ativo. 
ATIVO 
Qualquer coisa que tenha valor para uma pessoa ou organização. Exemplo: os dados do 
cartão de crédito, um projeto de uma empresa, um equipamento e até mesmo os 
colaboradores de uma empresa podem ser definidos como ativos humanos. 
 
 
Como é possível perceber nessas definições, a ameaça está relacionada a algo que pode 
comprometer a segurança, enquanto o ataque é a ação efetiva contra determinado ativo. 
Importante 
Um incidente de segurança ocorre quando uma ameaça se concretiza e causa um dano a um 
ativo. 
Se uma ameaça se concretizou e causou um dano, isso significa que alguma propriedade da 
segurança foi comprometida. 
Três propriedades são tratadas como os pilares da segurança: Confidencialidade, 
Integridade e Disponibilidade (CID). 
Além delas, outras propriedades também são importantes no contexto de segurança. A 
norma ABNT NBR ISO IEC 27001:2013 destaca as seguintes: 
Confidencialidade 
Propriedade cuja informação não está disponível para pessoas, entidades ou 
processos não autorizados. Em outras palavras, a confidencialidade está 
relacionada ao sigilo dos dados. Somente entes autorizados podem acessá-los. 
Integridade 
Propriedade que protege a exatidão e a completeza de ativos. Trata-se da 
indicação de que o dado não foi adulterado. Exemplo: um ativo permanece 
intacto após ser armazenado ou transportado. 
Disponibilidade 
Propriedade de tornar o dado acessível e utilizável sob demanda por fontes 
autorizadas. Se uma pessoa ou um processo autorizado quiser acessar um 
dado ou equipamento, ele estará em funcionamento. 
Autenticidade 
Propriedade que assegura a veracidade do emissor e do receptor de 
informações trocadas. A autenticidade assevera que quem está usando ou 
enviando a informação é realmente uma determinada pessoa ou processo. Em 
outras palavras, garante a identidade. 
Não repúdio ou irretratabilidade 
Propriedade muito importante para fins jurídicos. Trata-se da garantia de que 
o autor de uma informação não pode negar falsamente a autoria dela. Desse 
modo, se uma pessoa praticou determinada ação ou atividade, ela não terá 
como negá-la. O não repúdio é alcançado quando a integridade e a 
autenticidade são garantidas. 
Confiabilidade 
Propriedade da garantia de que um sistema vai se comportar segundo o 
esperado e projetado. Exemplo: se determinado equipamento foi projetado 
para realizar uma operação matemática, esse cálculo será realizado 
corretamente. 
Legalidade 
Propriedade relacionada com o embasamento legal, ou seja, ela afere se as 
ações tomadas têm o suporte de alguma legislação ou norma. No caso do 
Brasil, podemos citar o Marco Civil da Internet , a Lei Geral de Proteção de 
Dados (LGPD) e o conjunto de normas 27.000 da ABNT. 
Os mecanismos de proteção se relacionam a práticas, procedimentos ou 
mecanismos capazes de proteger os ativos contra as ameaças, reduzindo ou 
eliminando vulnerabilidades. Além disso, eles evitam que uma dessas 
propriedades sejam comprometidas. 
 
TIPOS DE ATAQUES 
Para haver a identificação dos riscos, será necessário entender e classificar os 
tipos de ataques que podem ser realizados contra uma rede de computadores. 
Interligadas, as tabelas a seguir apresentam os critérios de classificação desses 
tipos e as suas descrições: 
ATAQUES DESCRIÇÃO TIPOS 
ATIVOS Tentam alterar os recursos 
do sistema ou afetar a sua 
operação. 
Ataques de interrupção 
 Ataques de modificação 
 Ataques de fabricação ou 
personificação 
 Ataques de repetição 
PASSIVOS Tentam descobrir ou utilizar 
as informações do sistema 
sem o objetivo de afetar 
seus recursos. 
Ataques de interceptação 
 
 
CRITÉRIOS TIPOS DESCRIÇÃO ATAQUES 
PONTO DE 
INICIAÇÃO 
Ataques internos 
(inside attack) 
Realizados dentro 
da própria rede. O 
atacante e a vítima 
estão na mesma 
rede (doméstica ou 
corporativa). 
 
 Ataques externos 
(outside attack) 
Feitos a partir de um 
ponto externo à 
rede da vítima. 
 
MÉTODO DE 
ENTREGA 
Ataques diretos O atacante, sem a 
ajuda de terceiros, 
realiza uma ação 
diretamente contra 
a vítima. 
 
 Ataques indiretos O atacante emprega 
terceiros, ou seja, 
outros usuários da 
rede, para que o 
ataque seja 
realizado. 
 
OBJETIVO Ataques de 
interceptação 
Buscam obter 
informações que 
trafegam na rede, 
atacando a 
confidencialidade. 
Ataques passivos 
(predominantement
e) 
 Ataques de 
interceptação 
Seu objetivo é 
indisponibilizar um 
ou mais serviços de 
rede por meio do 
excesso de 
informação ou 
simplesmente 
desligando o 
equipamento. 
Ataques ativos 
 Ataques de 
modificação 
Ocorrem quando um 
atacante tem acesso 
não autorizado a um 
sistema ou a uma 
rede e modifica o 
conteúdo das 
informações ou as 
configurações de um 
sistema. 
 
 Ataques de 
fabricação ou 
personificação 
Pretendem a 
quebra, 
principalmente, da 
autenticidade de um 
serviço ou de uma 
rede. 
 
 Ataques de 
repetição 
Uma entidade 
maliciosa intercepta 
e repete uma 
transmissão de 
 
javascript:void(0)
dados válida que 
trafega através de 
uma rede para 
produzir um efeito 
não autorizado, 
como a redundância 
de pedidos de um 
item. 
 
 
ETAPAS DE UM ATAQUE 
Precisamos dividir um ataque em sete etapas para poder analisá-lo de forma mais criteriosa: 
• Reconhecimento; 
• Armamento (weaponization); 
• Entrega (delivery); 
• Exploração; 
• Installation; 
• Comando e controle; 
• Conquista. 
 
Os atacantes passam a ter mais privilégios no alvo à medida que avançam nas etapas. 
Portanto, pelo lado da defesa, o objetivo é pará-los o mais cedo possível para diminuir o 
dano causado. 
Analisaremos a seguir cada uma dessas etapas. 
 
1. Reconhecimento: 
Na primeira etapa, o ator da ameaça realiza uma pesquisa para coletar informações sobre o 
local a ser atacado. Trata-se de uma fase preparatória na qual o atacante procura reunir o 
máximo de informações sobre o alvo antes de lançar um ataque ou analisar se vale a pena 
executá-lo. 
As informaçõespodem ser obtidas por meio de diversas fontes: 
• Sites; 
• Dispositivos de rede voltados para o público; 
• Artigos de notícias; 
• Anais de conferências; 
• Meios de comunicação social. 
Qualquer local público é capaz de ajudar a determinar o que, onde e como o ataque pode ser 
realizado. O atacante escolhe alvos negligenciados ou desprotegidos, pois eles possuem a 
maior probabilidade de serem penetrados e comprometidos. 
 
 
2. Armamento (weaponization): 
Após a coleta de informações, o atacante seleciona uma arma a fim de explorar as 
vulnerabilidades dos sistemas. É comum utilizar a expressão exploits para essas armas, que 
podem estar disponíveis em sites na internet ou ser desenvolvidas especificamente para 
determinado ataque. 
O desenvolvimento de uma arma própria dificulta a detecção pelos mecanismos de defesa. 
Essas armas próprias são chamadas de zero-day attack. 
Após o emprego da ferramenta de ataque, espera-se que o atacante tenha conseguido 
alcançar seu objetivo: obter acesso à rede ou ao sistema que será atacado. 
 
 
 
 
3. Entrega (delivery) 
Nesta fase, o atacante entrega a arma desenvolvida para o alvo. Para essa entrega, podem 
ser utilizados diversos mecanismos. Eis alguns exemplos: 
• Mensagens de correio eletrônico (e-mail); 
• Mídias USB; 
• Websites falsos ou infectados; 
• Interação nas redes sociais. 
O atacante pode usar um método ou uma combinação de métodos para aumentar a chance 
de entrega do exploit. Seu objetivo é fazer com que a arma pareça algo inocente e válido, pois 
ludibriar o usuário permite que ela seja entregue. 
Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails 
com algum assunto aparentemente de interesse da vítima. Nesta mensagem, existe um link 
ou um anexo malicioso que serve de meio de entrega da arma na máquina alvo. 
 
 
4. Exploração 
A etapa de exploração ocorre quando o atacante, após entregar a arma, explora alguma 
vulnerabilidade (conhecida ou não) na máquina infectada em busca de outros alvos dentro 
da rede de destino. As vulnerabilidades que não são publicamente conhecidas são chamadas 
de zero-day. 
No caso do emprego de phishing, a exploração ocorre quando o e-mail recebido é aberto e o 
usuário clica no link ou abre o anexo, instalando um software malicioso que infecta a sua 
máquina. Isso permite o controle dela por parte do autor do ataque. 
A partir desse momento, o atacante obtém acesso ao alvo, podendo obter as informações e 
os sistemas disponíveis dentro da rede atacada. 
Os alvos de exploração mais comuns são aplicativos, vulnerabilidades do sistema operacional 
e pessoas. 
 
 
 
 
5. Installation 
A partir da exploração da máquina realizada na fase anterior, o atacante busca instalar algum 
tipo de software que permita a manutenção do acesso à máquina ou à rede em um momento 
posterior. 
Para essa finalidade, é instalado no sistema alvo um Remote Access Trojan (RAT). Conhecido 
também como backdoor, o RAT permite ao atacante obter o controle sobre o sistema 
infectado. 
Pelo lado do atacante, é importante que o acesso remoto não alerte nenhum sistema de 
proteção e permaneça ativo mesmo após varreduras por sistemas de segurança da rede de 
destino. 
O atacante pode usar um método ou uma combinação de métodos para aumentar a chance 
de entrega do exploit. Seu objetivo é fazer com que a arma pareça algo inocente e válido, pois 
ludibriar o usuário permite que ela seja entregue. 
Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails 
com algum assunto aparentemente de interesse da vítima. Nesta mensagem, existe um link 
ou um anexo malicioso que serve de meio de entrega da arma na máquina alvo. 
 
 
6. Comando e controle 
A partir do momento em que um RAT (backdoor) é instalado no sistema alvo, o atacante passa 
a ter um canal de comunicação com o software instalado no alvo. 
Denominado comando e controle, tal canal possibilita o envio de comandos para realizar 
ataques na própria rede local ou para atacar a rede de terceiros, caracterizando, assim, um 
ataque indireto. 
 
 
 
 
7. Conquista 
Quando o atacante chega à última etapa, isso é um indício de que o objetivo original foi 
alcançado. A partir de agora, ele pode roubar informações, utilizar o alvo para realizar ataques 
de negação de serviço, envio de spam, manipulação de pesquisas ou jogos online, entre 
outras atividades. 
Nesse ponto, o agente de ameaças já está profundamente enraizado nos sistemas da 
organização, escondendo seus movimentos e cobrindo seus rastros. 
É extremamente difícil remover o agente de ameaças da rede quando ele já chegou a esta 
fase. 
 
Saiba mais 
Vamos analisar a seguinte noticia: 
“Brasil sofreu 15 bilhões de ataques cibernéticos em apenas três meses. A 
questão não é mais ‘o que podemos fazer se sofrermos um ataque 
cibernético?’, mas, sim, ‘o que podemos fazer quando sofremos um ataque 
cibernético?’” 
(Fonte: TECMUNDO, 2019) 
Ao analisarmos o caso, percebemos a importância da análise dos riscos 
relacionados ao uso de uma rede de computadores sem a devida proteção. 
Pesquise outras situações similares e procure perceber a intervenção dos 
mecanismos de proteção nesses casos. 
1. Os ataques podem ser classificados de diversas formas: ativo ou passivo, interno ou 
externo, direto ou indireto. Os passivos são os de interceptação; os ativos, os de 
modificação, interrupção, personificação ou repetição. 
 
Considere que você esteja realizando a compra online de uma caneta. Ao verificar o extrato 
de sua conta, percebe que havia duas cobranças do mesmo valor. Esse tipo de evento pode 
ser associado ao ataque de: 
 
A)Modificação, porque o atacante modificou a transação, permitindo que a operação fosse 
executada duas vezes. 
B)Repetição, pois o atacante capturou os pacotes com as informações de pagamento e os 
enviou novamente para a cobrança no banco. 
C)Interceptação, uma vez que o atacante monitorou a transação e, percebendo a troca de 
informações financeiras, repetiu a operação. 
D)Personificação, já que o atacante assumiu a identidade da loja online, repetindo a 
operação financeira. 
Comentário 
Parabéns! A alternativa "B" está correta. 
 
O ataque de repetição permitiu que fosse debitado duas vezes o mesmo valor de sua conta. 
Como o atacante capturou os pacotes que realizam a transação financeira, ele pôde 
modificar a conta de destino e – considerando que os dados da transação estivessem 
presentes no pacote – receber o valor cobrado. Esse mesmo ataque pode ser utilizado 
quando um atacante captura pacotes de autenticação, permitindo o acesso a determinada 
rede ou sistema. 
 
2. Uma das grandes ameaças existentes na internet é a chamada APT. Sigla para Advanced 
Persisten Threat, ela se refere a ataques direcionados de organizações a determinadas 
organizações e empresas. 
Imagine que você, após ser convocado para analisar as ações de uma APT, tenha percebido 
que ela estava enviando e-mails a determinada empresa com um anexo possivelmente 
malicioso. 
A etapa de ataque identificada está relacionada com: 
 
A) Conquista, porque a APT obteve acesso a um endereço de e-mail válido da empresa. 
B) Installation, pois a APT enviou a arma para obter acesso ao alvo. 
C) Exploração, uma vez que a APT se aproveitou de uma vulnerabilidade no sistema de e-
mail. 
D) Entrega, já que a APT utilizou um meio de entregar a arma a seu alvo. 
Comentário 
Parabéns! A alternativa "D" está correta. 
O entendimento das fases dos ataques é de suma importância na segurança da rede. 
Quanto mais cedo o ataque for detectado e interrompido, menos danos ele causará, porque 
o atacante (no caso ilustrado, uma APT) terá tido uma menor penetração na rede e 
comprometido menos o ambiente. 
 
 
Estar conectado à internet nos expõe a diversos riscos, como roubo de informações e de 
identidade, adulteração de informações etc. Deacordo com a norma ABNT 27001:2013, 
para minimizar os riscos dessa conexão, é necessário implementar mecanismos de controle 
a fim de garantir a segurança dela. 
Esses mecanismos podem ser divididos em dois tipos: 
 
Mecanismos de controle físicos 
Evitam ou dificultam as falhas nos equipamentos e instalações. 
 
Mecanismos de controle lógicos 
Evitam ou dificultam as falhas relacionadas aos softwares utilizados. 
 
Verificaremos a seguir a aplicação de ambos na manutenção da segurança de 
uma conexão. 
Abrange todo ambiente em que os sistemas de informação estão instalados. Seu objetivo 
principal é garantir que nenhum dano físico ocorra nos equipamentos. 
Exemplo 
Roubo de equipamentos, incêndio, inundação e qualquer ameaça às instalações físicas. 
A norma ABNT NBR ISO/IEC 27002:2013 divide a segurança física em dois itens principais: 
 
Áreas seguras 
Previnem o acesso físico não autorizado, os danos e as interferências em instalações e 
informações da organização. 
 
Equipamentos 
Impedem perdas, danos, furto ou comprometimento de ativos e interrupção das atividades 
da organização. 
A segurança física envolve outras áreas da Engenharia, como a civil e a elétrica, ao permitir a 
projeção de prédios com paredes adequadas à proteção dos equipamentos, sistemas de 
para-raios, aterramento, limpeza da área para evitar incêndios etc. 
Alguns exemplos de mecanismos de controle físicos podem ser encontrados no emprego 
de: 
Sistemas de refrigeração e de combate a incêndio 
Projetados para os equipamentos poderem operar em condições adequadas de 
temperatura e umidade. Ainda garantem que os casos de incêndio possam ser combatidos o 
mais rápido possível. 
Sala-cofre 
Espaço construído com paredes corta-fogo, sistemas de refrigeração e de forma hermética 
para proteger equipamentos críticos de TI. 
Sistemas de energia redundantes 
Funcionam como no-breaks (Uninterruptable Power Supply - UPS) e geradores. Ambos são 
necessários ao permitirem que, em caso de queda de energia, os equipamentos 
permaneçam em operação. Isso garante tanto o fornecimento constante de energia quanto 
a manutenção dela dentro da tensão recomendada. 
Preparação do ambiente contra alagamento 
No caso de chuvas fortes. 
Limpeza da área externa 
Para evitar incêndios. 
 
 
 
SEGURANÇA LÓGICA 
A segurança lógica envolve o emprego de soluções baseadas em softwares para garantir a 
CID. Entre os diversos mecanismos existentes, destacaremos os oito listados a seguir: 
1. Autenticação; 
2. Sistemas de controle de acesso; 
3. Criptografia; 
4. Funções de hash; 
5. Assinatura digital; 
6. Certificado digital; 
7. Redes Virtuais Privadas (VPN); 
8. Firewall, sistemas de detecção de intrusão e antivírus. 
 
Vamos entender agora o funcionamento de cada um desses mecanismos. 
1. Autenticação 
Está relacionada à garantia da propriedade da autenticidade, evitando que terceiros possam 
fingir ser uma das partes legítimas a fim de acessar sistemas ou informações não 
autorizadas. 
 
A autenticação diminui o risco de um ataque de personificação ou fabricação. Para realizá-
la, podem ser utilizados os seguintes mecanismos: 
• Senhas; 
• Controles biométricos; 
• Tokens; 
• Certificados digitais. 
O mecanismo escolhido deve se adequar ao objetivo de segurança a ser alcançado. 
Atualmente, os controles biométricos são considerados os mais eficientes. 
Exemplo: Digitais, reconhecimento de íris, palma da mão e certificados digitais. 
2. Sistemas de controle de acesso 
 
Gerenciam os usuários que podem acessar sistemas e redes, autorizando apenas o acesso às 
informações que lhes couberem. Desse modo, a confidencialidade dos dados está garantida. 
Exemplo: o uso de senhas nas redes wi-fi garante que somente as pessoas autorizadas 
possam utilizá-las. 
Para que o controle de acesso seja efetivo, deve-se empregar um mecanismo de 
autenticação a fim de validar a identidade e – caso o acesso esteja autorizado – restringir os 
direitos de acesso para cada indivíduo de acordo com o seu perfil de uso. 
3. Criptografia 
Esta é uma vasta área que, assim como a criptoanálise – cujas técnicas não abordaremos 
aqui –, compõe a criptologia. 
A criptografia é uma área que estuda técnicas para esconder não a mensagem real, mas, na 
verdade, o seu significado. Ela pode inclusive ser utilizada para garantir a CID. A propriedade 
a ser garantida depende do mecanismo utilizado e de que maneira ele foi empregado. 
Funções 
Para entendermos o processo criptográfico, iremos, inicialmente, identificar duas funções 
principais: 
CIFRAMENTO 
Transforma um escrito simples, cujo alfabeto comum é utilizado para compor a mensagem 
original, em um texto cifrado. Nesse texto, as letras originais são substituídas pelas do 
alfabeto cifrado, escondendo, dessa forma, o conteúdo da mensagem. A função do 
ciframento é responsável pela criptografia da mensagem original. Já a substituição das letras 
da original na mensagem cifrada é feita pelas cifras.(Qualquer forma de substituição 
criptográfica aplicada ao texto original da mensagem.) 
 
DECIFRAMENTO 
Realiza o processo oposto. Como o texto cifrado é transformado no original, o conteúdo de 
sua mensagem pode ser entendido. A função de deciframento é a responsável pela 
decriptografia da mensagem cifrada. 
 
javascript:void(0)
javascript:void(0)
javascript:void(0)
As técnicas modernas de criptografia envolvem o uso de um algoritmo de criptografia 
associado a uma chave. O segredo do processo não está no algoritmo em si, e sim na chave 
utilizada para a realização do ciframento. 
Classificação 
Quanto ao tipo de chave empregada, os algoritmos criptográficos podem ser classificados 
como: 
 
 
Algoritmos de chave simétrica 
Criptografia de chave privada. Empregam uma única chave. Dessa forma, a mesma chave 
que realiza a cifragem faz a decifragem. Alguns exemplos de algoritmos simétricos: DES, 
3DES, Blowfish, RC4, RC5, IDEA, Rinjdael e Advanced Encrytion Standard (AES).(Advanced 
Encrytion Standard (AES) Algoritmo padrão adotado por diversos governos e várias 
empresas para garantir a confidencialidade.) 
 
 
Algoritmos de chave assimétrica 
Criptografia de chave pública. Utilizam duas chaves (pública e privada): uma para cifrar e 
outra para decifrar. Dependendo da ordem em que ambas são empregadas, o algoritmo 
pode garantir a confidencialidade ou a autenticidade. 
Quando a chave pública é utilizada na função de cifragem, apenas a privada pode decifrar. 
Como o nome sugere, a chave privada fica restrita à entidade. 
Exemplo: pessoa, empresa ou equipamento. 
Portanto, neste caso, está garantida a confidencialidade, porque só quem possui a chave 
privada pode decifrar o conteúdo. 
Quando ocorre o inverso, a chave privada é empregada no processo de cifragem e apenas a 
pública pode decifrar. 
Entretanto, como a chave usada é a pública, qualquer pessoa pode possui-la e, portanto, 
decifrar a mensagem. 
Não há como garantir a confidencialidade dessa forma: o que está garantido, na verdade, é 
a autenticidade. A aplicação das chaves nesta ordem permite o emprego da assinatura 
digital. 
 
4. Funções de hash 
O objetivo das funções de resumo de mensagem ou de hash é a garantia da integridade das 
informações. Para calcular o resumo, pode ser utilizado qualquer algoritmo que pegue uma 
mensagem de qualquer tamanho e a mapeie em uma sequência de caracteres de tamanho 
fixo. 
javascript:void(0)
Exemplo 
Você tem um arquivo chamado aula.doc e quer calcular o resumo dessa mensagem. Uma 
das funções de hash bastante utilizadas é o Message-Digest Algorithm 5 (MD5). Então, caso 
você tenha instalado em seu computador o MD5, pode utilizar o seguinte comando: 
md5sum aula.doc 
A saída desse comando é uma sequência de caracteres: 
5 9 5 f 4 4 f e c 1 e 9 2 a 7 1 d 3 e 9 e 7 7 4 5 6 b a 8 0 d 1 
Essa saída será permanente enquanto não ocorrer nenhuma alteração no arquivo. Portanto, 
toda vez que quiserverificar se ele foi modificado, basta executar novamente a função de 
hash e compará-la à sequência original. Se ela permanecer a mesma, isso demonstra que o 
arquivo é íntegro; caso contrário, é uma evidência de que ele foi modificado. 
 
Uma propriedade desejável na função de resumo é que, diante de qualquer 
modificação mínima na informação, o resumo gerado deve ser totalmente 
diferente. As funções de resumo também são utilizadas como auxiliares no 
processo de autenticação. 
Alguns sistemas usam o hash para armazenar a senha de um usuário. Portanto, 
quando ele cadastra uma senha, o sistema calcula o hash e armazena esse 
valor. Quando o usuário for digitar sua senha para entrar no mesmo sistema, o 
sistema calculará o hash, enviará essa informação e comparará com o que está 
armazenado. Se for igual, o seu acesso será autorizado. 
A vantagem dessa solução é que a senha do usuário não fica armazenada no 
sistema nem trafega pela rede. Quem o faz é o hash. 
Outra propriedade desejável das funções de resumo é que ela não é inversível, 
ou seja, se temos o hash da mensagem, não conseguimos descobrir a 
mensagem original. Dessa forma, podemos afirmar que ele configura uma 
função criptográfica, pois esconde o conteúdo de uma mensagem. Então, 
quando ocorre o envio do hash da senha, não há como um atacante descobrir 
a senha original. 
Entretanto, o uso isolado dele na autenticação pode gerar uma facilidade para 
o ataque de reprodução. Um atacante que conseguir obter o hash das 
assinaturas poderá repetir o seu processo, enviando o resumo e obtendo a 
autorização de acesso. 
Além do MD5, outras funções de resumo muito utilizadas são as seguintes: 
Secure Hash Algorithm version 1 (SHA-1); 
Secure Hash Algorithm version 2 (SHA-2); 
Secure Hash Algorithm version 3 (SHA-3). 
 
 
 
5. Assinatura digital 
O objetivo do emprego da assinatura digital é assegurar a autenticidade e a 
integridade das informações. Automaticamente, está garantido o não repúdio. 
A assinatura ainda garante tanto a validade jurídica dos documentos, pois 
existe a certeza de que eles não sofreram qualquer adulteração, estando 
íntegros e completos, quanto a sua autoria, asseverando que eles realmente 
foram assinados por determinada pessoa. 
O processo utilizado para realizar a assinatura digital combina o emprego da 
criptografia assimétrica com as funções de resumo da mensagem. Para que um 
documento seja assinado digitalmente, o usuário deve seguir estes passos: 
 
Calcular o resumo da mensagem. 
Cifrar esse resumo com a chave privada do emissor do documento. 
Enviar a mensagem com o resumo criptografado, que é a assinatura digital. 
 
Ao receber o documento, o receptor precisa realizar o seguinte processo para 
o validar: 
O usuário deve calcular o hash da mensagem e decifrar o outro recebido com a 
utilização da chave pública do emissor. Em seguida, ele vai comparar os dois 
hashes. Se forem iguais, há a garantira de que o documento não foi modificado 
e o emissor é autêntico. Caso sejam diferentes, algum problema ocorreu. Mas 
não é possível garantir o que aconteceu, já que não se sabe se o problema 
reside na modificação dele ou na autenticidade do emissor. Estabelece-se 
apenas que o documento não é válido. 
6. Certificado digital 
Ele é utilizado para vincular a chave pública a uma entidade, como pessoa, 
empresa, equipamento etc. O certificado contém a chave pública da entidade, 
que é assinada digitalmente por uma terceira parte confiável chamada de 
Autoridade Certificadora (AC). 
O emprego do certificado digital é importante para garantir um ataque 
conhecido como “homem no meio” ou, em inglês, Man In The Middle (MITM). 
O MITM ocorre quando um atacante pode interceptar o envio da chave pública 
e ter acesso às informações. 
 
Ao monitorar a troca de mensagens entre Alice e Bob, Darth conseguiu obter 
as informações, quebrando a confidencialidade desse processo de 
comunicação. 
Para resolver esse problema, é necessária uma terceira parte confiável: a AC. 
Ela é a responsável por armazenar as chaves públicas das entidades envolvidas 
no processo de comunicação. Dessa maneira, a chave fica assinada 
digitalmente pela autoridade certificadora, como ilustra o esquema a seguir: 
Voltemos ao exemplo da comunicação entre Alice e Bob. Agora ela já pode solicitar o 
certificado digital dele para a AC. Ao receber esse certificado, Alice irá verificar a assinatura 
digital da AC. Se ela estiver correta, é um indício de que Alice possui o certificado correto de 
Bob, podendo, dessa forma, realizar a transmissão das mensagens. 
O processo para obter a chave privada da AC, contudo, pode esbarrar no mesmo problema. 
Para o processo funcionar corretamente, o usuário deve ir ao site da AC e realizar o 
download dos certificados – chamados de certificados raiz –, garantindo, assim, a obtenção 
da chave pública correta. 
Saiba mais 
No Brasil, as ACs estão organizadas na Infraestrutura de Chaves Públicas Brasileira (ICP-
Brasil). Trata-se de uma cadeia hierárquica de confiança que viabiliza a emissão de 
certificados digitais para a identificação virtual do cidadão. 
6. Redes Virtuais Privadas (VPN) 
Sigla de Virtual Private Network, a VPN permite a utilização de um meio inseguro de forma 
segura. Afinal, quando estamos conectados à internet e desejamos acessar algum serviço ou 
rede, ficamos vulneráveis a diversos tipos de ataques. 
Para minimizar o risco inerente a esse acesso, podemos empregar uma VPN, que utilizará 
um túnel de comunicação entre dois dispositivos. Considere a topologia desta imagem na 
qual as redes da matriz e da filial desejam trocar informações por meio da internet: 
Ao trafegar pela internet, as informações trocadas entre as redes da matriz e da 
filial estão sujeitas a diversos tipos de ataque. Na utilização de uma VPN, é 
criado, como ilustra a imagem a seguir, um túnel virtual entre essas duas redes: 
javascript:void(0)
 
Na utilização do túnel, as informações trafegadas ficam protegidas, já que os 
dados são criptografados. Além disso, podem ser utilizados mecanismos de 
autenticação e integridade para garantir tanto a entrada em cada uma das 
redes só de pacotes autorizados quanto a manutenção de sua estrutura, ou 
seja, que eles não sejam modificados. 
 
 
7. Firewall, sistemas de detecção de intrusão e antivírus 
No vídeo a seguir, falaremos sobre os seguintes mecanismos de segurança 
lógica: firewall, sistemas de detecção de intrusão e antivírus. 
Saiba mais 
Veja o trecho da seguinte notícia: 
“PF identifica invasão nos celulares de presidentes de STJ, Câmara e Senado; 
PGR também foi alvo”. 
(Fonte: G1, 2019) 
Analisando esse ocorrido, percebemos a importância dos softwares, cuja 
função é a de garantir a CID nas instituições. 
Pesquise outras situações similares e procure perceber como foi a intervenção 
da segurança lógica nesses casos. 
 
 
1. Você foi contratado por uma empresa para realizar uma consultoria na área de 
segurança. Durante o trabalho realizado, identificou que ela estava sujeita a ataques contra 
a disponibilidade por falta de mecanismos de controle físicos ou lógicos. 
 
No relatório escrito para a empresa, uma de suas sugestões foi a implantação de um 
mecanismo de controle: 
 
A) Físico, com o emprego de no-breaks para garantir o fornecimento de energia. 
B) Físico, com o uso de assinaturas digitais para garantir a identidade do emissor. 
C) Lógico, com o emprego de no-breaks para garantir o suprimento de energia. 
D) Lógico, com a aplicação de firewalls para garantir o controle de acesso físico. 
Comentário 
Parabéns! A alternativa "A" está correta. 
O objetivo dos mecanismos de controle físico é proteger as instalações físicas, ou seja, a 
destruição, o roubo ou a paralisação de serviços. Os mecanismos físicos podem incluir desde 
o uso de portões, grades e cadeados até a manutenção do ambiente dentro de condições 
climáticas adequadas,como a utilização de equipamentos de refrigeração e o fornecimento 
de energia ininterruptos graças ao emprego de fontes de energia redundantes (geradores e 
no-breaks). 
 
 
 
2. Leia o fragmento de texto a seguir: 
 
“Durante um grande surto em maio de 2017, Rússia, China, Ucrânia, Taiwan, Índia e Brasil 
foram os países mais afetados. O WannaCry afetou tanto pessoas quanto organizações 
governamentais, hospitais, universidades, empresas ferroviárias, firmas de tecnologia e 
operadoras de telecomunicações em mais de 150 países. O National Health Service do Reino 
Unido, Deutsche Bahn, a empresa espanhola Telefónica, FedEx, Hitachi e Renault estavam 
entre as vítimas.” 
 
Fonte: (AVAST, s.d.) 
 
Como foi descrito anteriormente, o WannaCry causou, em 2017, uma grande infecção em 
diversas empresas no Brasil e no mundo. Esse tipo de ataque sequestrava os dados dos 
usuários e exigia uma recompensa para que eles fossem disponibilizados novamente. 
 
Para minimizar os riscos de um usuário ou uma empresa sofrer o mesmo tipo de ataque, é 
necessário o emprego de: 
 
A) Um firewall, já que este tipo de controle impede a invasão à rede, não sendo possível o 
sequestro dos dados. 
B) Um sistema de detecção de intrusão, pois pode monitorar o tráfego da rede, 
identificando o sequestro dos dados. 
C) Um antivírus, porque este tipo de ataque é realizado por um malware conhecido como 
ransonware. 
D) Um sistema de criptografia dos dados, uma vez que o atacante não consegue sequestrar 
os dados criptografados. 
Comentário 
Parabéns! A alternativa "C" está correta. 
A segurança de um ambiente pode ser considerada completa quando ela emprega um 
conjunto de mecanismos de controle físico e lógico com o objetivo de garantir a CID. Afinal, 
os mecanismos de controle lógicos, firewalls, IDS, criptografia, controle de acesso e antivírus 
são soluções que devem atuar em conjunto. Os antivírus, por exemplo, são os responsáveis 
pela detecção dos malwares como o WannaCry. 
 
 
INTRODUÇÃO 
Com o crescimento das redes, a administração e o gerenciamento delas 
passaram a ser atividades de suma importância. Afinal, seus ambientes são 
complexos e heterogêneos, tendo diversos tipos de equipamentos, fabricantes 
e protocolos em operação. 
O esquema a seguir apresenta um cenário típico de uma rede local (LAN): 
Podemos observar na imagem diversos servidores e várias estações de 
trabalho com sistemas operacionais Windows e Linux, firewalls, roteadores, 
switches(Switches ou comutadores são ferramentas de camada de enlace que 
conseguem identificar os equipamentos conectados em cada porta e 
direcionar os quadros para os destinos corretos, segmentando a rede.) e 
equipamentos para redes sem fio. 
Imaginemos agora a seguinte situação corriqueira: uma paralisação de algum 
serviço ou parte da rede. Nesses casos, muitos se perguntam: onde ocorreu a 
falha? No servidor? No switch? Na estação? 
 
A gerência de redes auxilia no processo de identificação das falhas e na 
correção de problemas, permitindo que a rede possa operar corretamente e 
oferecer níveis de serviços adequados à necessidade dos usuários. 
O objetivo dessa gerência é monitorar e controlar os elementos físicos ou 
lógicos da rede, assegurando, segundo Stallings (1998), certo nível de 
qualidade de serviços.(Qualidade de serviços Trata-se do ato de oferecer 
serviços que atendam à necessidade dos usuários com um funcionamento 
adequado, bom desempenho e disponibilidade.) 
 
Descobriremos a seguir como é possível atingir esse nível de qualidade. 
 
javascript:void(0)
 
ARQUITETURA DE GERENCIAMENTO OSI 
 
Para oferecer uma organização das tarefas de gerenciamento de redes, a International 
Organization for Standardization (ISO) criou a M.3400, um modelo de gerência derivado de 
recomendação publicada pela International Telecommunications Union (ITU). 
Esse modelo se baseia em cinco áreas conhecidas pela sigla FCAPS (abreviação, em inglês, 
de fault, configuration, accounting performance e security). Vamos conhecê-las agora! 
Gerência de detecção e correção de falhas (F = fault) 
A área de gerenciamento de falhas é importante para garantir que os serviços e as redes 
permaneçam em operação. De acordo com a norma ISO, esta área permite registrar, 
detectar e reagir às condições de falha da rede. 
Atenção 
Tal gerenciamento depende do bom funcionamento de cada componente da rede tanto de 
forma isolada quanto pela interoperação com outros equipamentos dela. 
As possíveis falhas nas redes podem ser causadas por problemas de: 
1 
Software: Falha no sistema operacional de um servidor ou em um serviço. 
 
 
2 
Enlace: Paralisação de operação de uma ligação entre uma matriz e uma filial por um 
rompimento de cabo. 
 
3 
Equipamentos: Interrupção no fornecimento de energia. 
 
Quando uma falha ocorre, o gerente da rede deve analisar as informações de gerência para 
identificar a causa raiz do problema, descobrindo, em uma diversidade de equipamentos, 
softwares e protocolos, o que realmente causou o problema. 
O gerenciamento de falhas pode ser dividido em dois subsistemas: 
1. Reativo: Trata as falhas no curto prazo (detecção, isolamento, correção e registro de 
falhas). 
2. Proativo: Monitora a rede para tentar impedir que ocorram falhas. 
 
Gerência de configuração e operação (C = configuration) 
As redes são compostas por diversos equipamentos interligados entre si que possuem uma 
configuração. 
Essas configurações devem ser consistentes em todos eles, permitindo que, no caso de uma 
reinicialização, o dispositivo volte a operar com a configuração correta. 
Desse modo, é necessário realizar o gerenciamento das configurações dos equipamentos 
para: 
• Garantir seu funcionamento com os ajustes corretos; 
• Identificar quais dispositivos estão presentes na rede; 
• Verificar se eles estão com as configurações corretas. 
De acordo com Forouzan (2010), um sistema de gerenciamento de configuração 
precisa saber o estado de cada entidade e sua relação com outras entidades a 
todo instante. 
 
Gerência de contabilidade e faturamento (A = accounting) 
De acordo com a ISO, a gerência de contabilidade e faturamento permite especificar, 
registrar e controlar o acesso de usuários e dispositivos aos recursos da rede. Por meio 
desta área de gerenciamento, é possível contabilizar o consumo de determinado recurso da 
rede. 
Exemplo 
A franquia de consumo de internet de uma linha telefônica, o que possibilita a tarifação 
para o usuário. 
Este tipo de gerenciamento impede que usuários possam monopolizar os recursos da rede e 
libera a elaboração de planos de evolução de acordo com a demanda de uso dela. 
Gerência de desempenho e otimização (P = performance) 
O objetivo do gerenciamento de desempenho e otimização é garantir que uma rede esteja 
em operação da forma mais eficiente possível. De acordo com a ISO, sua função é 
quantificar, medir, informar, analisar e controlar o desempenho de diferentes componentes 
dela. 
Dentro desta área de gerenciamento, é possível realizar dois tipos de avaliação de 
desempenho: 
 
AVALIAÇÃO DE DIAGNÓSTICO 
Detecta problemas e ineficiências na operação da rede. 
Exemplo: Se o gerente da rede percebe um equipamento ou enlace com baixa utilização, ele 
pode alterar a configuração para permitir que haja uma melhor distribuição de carga. 
Esse tipo de avaliação auxilia no gerenciamento de falhas, porque é capaz de antever 
situações que poderiam causar uma falha na rede. 
AVALIAÇÃO DE TENDÊNCIAS 
Auxilia no planejamento da evolução da rede, observando seu comportamento e estimando 
a necessidade de aumento de determinado recurso. 
Exemplo: O monitoramento de um enlace entre matriz e filial poderá indicar a necessidade 
de um aumento na capacidade dele quando a utilização média ultrapassar determinado 
valor. 
Para avaliar a operação da rede, devem ser utilizadas, aponta Forouzan (2010), medidas 
mensuráveis, comocapacidade, tráfego, vazão (throughput) e tempo de resposta. 
 
 
 
Gerência de segurança e proteção (S = security) 
A gerência de segurança e proteção permite controlar o acesso aos recursos da 
rede e verificar se ela está de acordo com a Política de Segurança da 
Informação (PSI) da empresa. 
Que papel desempenha a segurança nesse contexto? 
Ela envolve todas as camadas da pilha de protocolos TCP/IP, o que engloba 
cada dispositivo e informação trafegando pela rede. Por isso, é possível afirmar 
que esta é a área mais difícil de ser gerenciada. 
ARQUITETURA DE GERENCIAMENTO EM REDE 
No vídeo a seguir, falaremos sobre a arquitetura de gerenciamento de rede. 
1. O diretor da empresa em que você trabalha informou a ocorrência de diversas 
paralisações na rede, o que prejudica a realização das atividades dos funcionários. Alegando 
que ela está subdimensionada, ele defende que a rede não consegue atender à demanda de 
trabalho existente. 
 
Você argumenta que a rede, apesar de constantemente monitorada, possui uma utilização 
considerada alta (70%), precisando, portanto, ser ampliada para o atendimento dessa 
demanda. 
 
Essa situação se refere à área de gerenciamento de: 
 
A) Desempenho, que realiza a avaliação de tendências e auxilia no planejamento da 
evolução da rede. 
B) Contabilização, que monitora o consumo de recursos da rede, permitindo o uso racional 
dos dispositivos. 
C) Falhas, que é responsável por realizar um monitoramento proativo da rede, evitando que 
haja uma sobrecarga dela. 
D) Configuração, que realiza o monitoramento da configuração dos dispositivos, 
apresentando o consumo da rede. 
Comentário 
Parabéns! A alternativa "A" está correta. 
A situação apresentada é típica em diversas redes. Por meio dos sistemas de 
gerenciamento, é possível monitorar o seu uso e planejar os investimentos necessários para 
que as demandas da rede sejam atendidas, garantindo um nível de satisfação elevado para 
os seus usuários. 
 
 
2. Uma arquitetura de gerenciamento de rede é composta por quatro componentes básicos: 
estação de gerenciamento, dispositivo gerenciado, base de informações gerenciais e 
protocolo de gerenciamento. 
 
Tais componentes trabalham em conjunto para permitir que a rede possa ser monitorada e 
controlada. Para isso: 
 
A) O agente envia mensagens para o gerente solicitando informações dos objetos. 
B) A gerência da rede é realizada pelo protocolo de gerenciamento, permitindo que os 
comandos sejam executados pelo gerente. 
C) A base de informações gerenciais mantém informações do estado dos diversos objetos 
existentes em um dispositivo. 
D) O gerente emite comandos para a base de informações gerenciais, informando os valores 
de cada objeto. 
Comentário 
Parabéns! A alternativa "C" está correta. 
A arquitetura de gerenciamento de redes é genérica, mas os sistemas de gerenciamento 
existentes são baseados nos componentes apresentados. A entidade gerenciadora ou de 
gerenciamento monitora e controla os dispositivos da rede por intermédio do software 
gerente. No dispositivo gerenciado, o software agente recebe os comandos do gerente por 
meio do protocolo de comunicação. Já o conjunto de objetos existentes compõe a base de 
informações gerenciais. 
 
	-----Estudamos sobre a história e evolução das redes de computadores. Com base nos fatos relatados no corrente módulo, assinale a alternativa correta:
	------Em relação à comutação de circuitos e comutação de pacotes, selecione a opção incorreta:
	Nós
	Enlaces
	Protocolos
	Classificação quanto à área de cobertura (alcance)
	Redes cabeadas
	TRANSPORTE DE SINAL
	VANTAGENS E DESVANTAGENS
	Redes sem fio
	1. Em relação aos diferentes arranjos topológicos que uma rede de computadores pode assumir, assinale a alternativa correta:
	2. Neste módulo estudamos algumas formas de classificação das redes de computadores. Está incorreta a afirmativa:
	Peculiaridades e características das redes sem fio
	Redes Locais Sem Fio – WiFi
	Redes Móveis Celulares
	HANDOFF
	UPLINK E DOWNLINK
	1. Em relação às características das redes sem fio e de todo o seu desenvolvimento, pode-se afirmar que:
	2. Assinale a alternativa incorreta:
	Definição
	Propósito
	Introdução
	Modelo em camadas
	Dividir para conquistar
	Elementos da camada
	Comunicação horizontal e vertical
	Encapsulamento
	Importante
	1. A transmissão de dados entre dois dispositivos é uma tarefa complexa e envolve diversas funções que devem ser executadas a fim de garantir uma comunicação eficiente. Para reduzir a complexidade e tornar a comunicação uma tarefa realizável, a estrut...
	2. Cada camada de uma arquitetura de redes possui três elementos: serviço, protocolo e interface. Esses elementos básicos permitem que as tarefas necessárias à transmissão de dados sejam corretamente divididas e executadas, por isso, podemos dizer que:
	Modelo OSI
	Importante
	Aplicação
	Apresentação
	Sessão
	Controle de diálogo
	Sincronização
	Transporte
	Segmentação e remontagem
	Controle de erros fim a fim
	Controle de fluxo
	Controle de conexão
	Endereçamento do ponto de acesso ao serviço
	Controle de congestionamento
	Rede
	Endereço lógico
	Roteamento
	Enlace
	ransporte
	Enlace
	Controle de erros
	Controle de acesso ao meio
	Endereçamento físico
	Controle de fluxo
	Enquadramento
	Física
	Taxa de dados
	Sincronização dos bits
	Topologia física
	Modo de transmissão
	3. O modelo de referência OSI organiza a estrutura de rede em sete camadas e define o que cada camada faz, sem definir como faz. As camadas podem ser agrupadas em três subgrupos, sendo:
	4. O modelo de referência OSI define as funcionalidades de cada camada do modelo e podemos dizer que:
	Arquitetura TCP/IP
	“A arquitetura foi batizada por TCP/IP por causa dos seus dois principais protocolos: Transmission Control Protocol (TCP) e Internet Protocol (IP). Ela foi apresentada pela primeira vez em 1974 (CERF, 1974) com o objetivo de criar uma arquitetura que ...
	Evolução do Protocolo TCP/IP
	Modelo OSI
	Arquitetura TCP/IP
	Funções das camadas e principais protocolos
	Aplicação
	Os protocolos apresentados são implementados por meio de softwares, que são executados nos diversos dispositivos computacionais, e podem estar associados a dois tipos principais de arquitetura:
	Cliente-servidor
	Par a par (peer-to-peer (P2P))
	Transporte
	TCP (Transmission Control Protocol)
	UDP (User Datagram Protocol)
	Então, por que usamos o UDP?
	Internet
	Importante
	Acesso à rede
	Saiba mais
	5. Diferente do modelo OSI, a arquitetura TCP/IP ou internet foi projetada utilizando quatro camadas. Algumas funções das camadas do modelo OSI foram absorvidas, e podemos dizer que a:
	6. A arquitetura TCP/IP tem foco principal na definição dos protocolos que devem ser empregados em cada uma das camadas. O conjunto de protocolos empregados é conhecido como pilha de protocolos e podemos dizer que:
	Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.
	resposta-Na camada de aplicação.
	Outros exemplos de softwares de aplicação:
	Navegador web
	Cliente de e-mail
	Jogos executados em rede
	Arquiteturas de aplicações
	Façamos a seguinte suposição: nosso objetivo é desenvolver uma aplicação a ser executada em rede. Para criá-la, deve-se utilizar uma linguagem de programação que possua comandos e/ou funções para a comunicação em rede.
	Cliente-servidor
	Servidor
	Independentemente do momento em que uma solicitação é processada, o servidor, no final, Vamos analisar esse processo no exemplo a seguir.
	Ele faz então o processamento solicitado e devolve ao browser o resultado disso (sua receita).
	É fundamental saber que...
	Servidores desempenham uma função muito importante; por isso, há equipamentos apropriados para eles, com MTBF alto e recursos redundantes.
	O tipo de software instalado neste equipamento é o responsável por determinar se ele é cliente ou servidor.
	Voltemos ao exemplo da aplicação web :
	Para obtê-la, este servidor deve enviar uma mensagem ao servidor de bancode dados solicitando aqueles de que necessita para continuar. Neste momento, ele atua como um cliente do servidor de banco de dados.
	Peer-to-peer
	Em geral, nesses sistemas, os processos não são uma propriedade de corporações. Quase todos os participantes (senão todos) são provenientes de usuários comuns executando seus programas em desktops e notebooks.
	Hospedeiro
	Modelo de arquitetura peer-to-peer :
	Vamos analisar os conceitos estudados na prática? Responda à questão a seguir.
	1. Uma arquitetura amplamente utilizada no desenvolvimento de aplicações em rede é a cliente-servidor. Sobre ela, responda:
	2. Marque a afirmativa verdadeira no que se refere à arquitetura peer-to-peer:
	Protocolos da camada de aplicação
	Mas o que é um protocolo da camada de aplicação?
	Enquanto o algoritmo da camada de aplicação determina seu funcionamento no ambiente local, o protocolo dela estipula tudo que é necessário para que aplicações em diferentes hospedeiros possam trocar mensagens de maneira estruturada.
	Os protocolos públicos da internet são especificados por RFCs. Desse modo, qualquer pessoa é capaz de acessar as especificações de tais protocolos e implementar os próprios softwares.
	Camadas de aplicação na internet
	HTTP (serviço web)
	Como esse protocolo é constituído?
	Na prática
	Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.
	Correio eletrônico (e-mail)
	Tal restrição precisava ser resolvida para ser possível o envio de mensagens:
	Como é construída a arquitetura do correio eletrônico?
	1. Do usuário; 2. De transferência de mensagens.
	É por meio dele que o usuário:
	1-Orlando deseja enviar uma mensagem para Maria. Após a compor em seu agente do usuário, ele solicita seu envio para ela.
	2-A mensagem é enviada do agente do usuário de Orlando até seu agente de transferência de mensagens, que a recebe, a analisa e, em seguida, a encaminha ao agente de Maria.
	3-No destino, tal agente armazena as mensagens que chegam em um local conhecido como caixa de mensagens (mailbox), cujo cada usuário do sistema possui uma caixa própria.
	4-Quando Maria deseja ler suas mensagens, o agente do usuário dela se liga a seu agente de transferência de mensagens e verifica quais estão armazenadas em sua caixa de mensagens.
	DNS
	Quais são os serviços oferecidos por ele?
	Além do mapeamento de nomes de hospedeiros em endereços IP, o DNS ainda provê:
	Destacaremos a seguir importantes aspectos do DNS.
	Cada domínio tem seu nome definido pelo caminho entre ele e a raiz, enquanto seus componentes são separados por pontos.
	1. Cabe ao protocolo da camada de aplicação definir como funcionam os processos de uma aplicação. Nesse sentido, não é função dele definir:
	2. Um sistema de correio eletrônico é um exemplo de sistema implementado com base em uma série de protocolos. Dentre os protocolos a seguir, selecione o único que não é utilizado pelos sistemas de correio eletrônico:
	Mas para que serve a camada de transporte?
	O objetivo da camada de transporte é, independentemente das redes físicas em uso, promover a confiabilidade na transferência de dados entre os hospedeiros origem e destino.
	Serviço de transporte
	Se a rede oferece um serviço com que garanta uma entrega sem erros, por que uma aplicação optaria por um serviço sem essa garantia?
	A resposta é simples: por questões de desempenho.
	Endereçamento
	Como identificamos uma aplicação específica?
	Verificaremos agora a importância do endereçamento no nível de transporte. Afinal, é necessário indicar em qual aplicação os dados devem ser entregues por meio de seu endereço (de transporte). Assim, o hospedeiro destino consegue saber o destino deles.
	1
	2
	Multiplexação e demultiplexação
	Como o hospedeiro destino direciona à porta correta um segmento que chega?
	Navegando na web, ele acessa seu e-mail e faz o download de arquivos usando um programa específico para isso.
	Todos os programas operados por ele (browser web, cliente de e-mail e programa de transferência de arquivos) utilizam o TCP, que fará a transferência da informação até o destino.
	Como o TCP sabe quem é quem?
	Browser web = 11278
	Cliente de e-mail = 25786
	Transferência de arquivos = 3709
	Multiplexação
	Demultiplexação
	1. Para qual das aplicações a seguir é recomendado o uso de um serviço de transporte sem conexão?
	2. O endereçamento no nível de transporte é importante para a realização de:
	Protocolos de transporte da internet
	UDP
	Quando a mensagem chega ao destino, o UDP pode entregá-la para a aplicação correta por meio do campo “porta destino”. Já a “porta origem” é importante para a aplicação que recebe a mensagem, pois ela torna possível saber o número da porta para a qual ...
	216 = 65.536 bytes (64 KBytes)
	DNS
	SNMP
	TFTP
	RPC
	TCP
	O TCP é definido pelas seguintes RFCs:
	Modelo de serviço TCP
	Full-duplex
	Ponto a ponto
	-Acumular dados de várias escritas em um único segmento.
	- Dividir os dados de uma única escrita em vários segmentos.
	Cabeçalho de segmento TCP
	Cada segmento TCP começa com um cabeçalho de formato fixo – podendo ser seguido por opções de cabeçalho – de 20 bytes. Depois das opções, é possível haver 65.515 bytes de dados.
	Gerenciamento de conexão TCP
	Apesar de conseguir fazer esse transporte, ACK só consumirá tal número quando ele surgir.
	Portas conhecidas
	Como podemos identificar a porta utilizada pela aplicação?
	1-Empregar um sistema no qual a aplicação é registrada toda vez que inicializa para o cliente poder consultar sua porta.
	2-Usar sempre o mesmo endereço de forma que as aplicações a iniciarem a conversação saibam de antemão com qual endereço trocar mensagens.
	Uma porta TCP ou UDP é identificada por um número inteiro de 16 bits.
	Atenção!
	1. Sobre o protocolo UDP, marque a resposta correta.
	2. No protocolo TCP, o campo número de confirmação carrega:
	DEFINIÇÃO
	PROPÓSITO
	CONCEITOS BÁSICOS DA CAMADA DE REDE
	ESTA UNIDADE DE DADOS TROCADA ENTRE ENTIDADES DA CAMADA DE REDE RECEBE A DENOMINAÇÃO DE PACOTE.
	comentário
	COMUTAÇÃO DE PACOTES STORE AND FORWARD
	Repasse
	Roteamento
	CIRCUITOS VIRTUAIS E DATAGRAMAS
	Comentário
	Circuitos virtuais
	- Estabelecimento do CV
	- Transferência de dados
	- Encerramento do CV
	Datagramas
	Por que a rota é alterada?
	ENDEREÇAMENTO
	Endereçamento hierárquico
	Endereçamento horizontal
	1. Quando um pacote chega para ser encaminhado por um roteador, o processo responsável pelo repasse deve:
	2. Em uma rede de circuitos virtuais:
	A CAMADA DE REDE NA INTERNET
	PROTOCOLO IP VERSÃO 4 (IPV4)
	Datagramas
	Fragmentos
	ENDEREÇAMENTO IPV4
	A INTERFACE DE REDE É A FRONTEIRA ENTRE O HOSPEDEIRO E A REDE FÍSICA.
	Atenção
	A estratégia de atribuição de endereços da Internet é conhecida como Roteamento Interdomínio sem Classes (Classless Inter-domain Routing – CIDR).
	CIDR
	Classe A
	Classe
	Classe C
	Classe D
	Sub-Redes
	NAT
	Comentário
	1. No CIDR (Classless Inter-domain Routing – Roteamento Interdomínio sem Classes) o prefixo de rede é utilizado para:
	2. A técnica de NAT foi desenvolvida para:
	PROTOCOLO DE CONTROLE DA INTERNET
	ARP (ADDRESS RESOLUTION PROTOCOL)
	SÃO POSSÍVEIS VÁRIAS OTIMIZAÇÕES PARA TORNAR O ARP MAIS EFICAZ. EM PRIMEIRO LUGAR, DEPOIS QUE UMA MÁQUINA EXECUTA O ARP, ELA ARMAZENA O RESULTADO EM UM CACHE.
	DHCP (DYNAMIC HOST CONFIGURATION PROTOCOL)
	1-Endereço IP
	2-Máscara de sub-rede
	3-Endereço do gateway (roteador)
	4-Endereço do servidor DNS
	E no caso de ambientes onde existe uma grande variação nos hospedeiros presentes na rede?
	Comentário
	1-Configuração manual
	2-Configuração automática
	3-Configuração dinâmica
	ICMP (INTERNET CONTROL MESSAGE PROTOCOL)
	Destination unreachable (destino inalcançável)
	Time exceeded (tempo excedido)
	Parameter problem (problema de parâmetro)
	Source quench (redução de origem)
	Redirect (Redirecionar)
	Echo request (solicitação de eco)
	Echo reply (resposta de eco)
	Timestamp request (solicitação de carimbo de data e hora)
	Timestamp reply (resposta de carimbo de data e hora)
	1. O DHCP é um protocolo que foi desenvolvidopara:
	2. Quando um datagrama não pode ser entregue porque o roteador não consegue localizar o destino, o protocolo responsável por informar este problema é o:
	ROTEAMENTO
	PRINCÍPIO DA OTIMIZAÇÃO
	ROTEAMENTO PELO CAMINHO MAIS CURTO
	ALGORITMOS DE ROTEAMENTO
	Não adaptativos
	Adaptativos
	Global
	Descentralizado
	Roteamento de Vetor de Distâncias
	TRATA-SE DO ALGORITMO DE ROTEAMENTO ORIGINAL DA ARPANET QUE TAMBÉM FOI UTILIZADO NA INTERNET COM O NOME RIP. ALGUNS ROTEADORES UTILIZAM PROTOCOLOS DE VETOR DE DISTÂNCIA MAIS APERFEIÇOADOS.
	Comentário
	E como saber qual o caminho que possui melhor distância apenas obtendo informações dos vizinhos?
	Roteamento de estado de enlace
	Descobrir seus vizinhos e aprender seus endereços de rede
	Medir o retardo ou o custo para cada um de seus vizinhos
	Criar um pacote que diga tudo o que acaba de ser aprendido
	Enviar esse pacote a todos os outros roteadores
	Calcular o melhor caminho para cada um dos outros roteadores
	Roteamento hierárquico
	1. Um algoritmo de roteamento adaptativo possui como característica:
	2. Quando a rede cresce a ponto de ser necessário alterar o esquema de roteamento para diminuir o tamanho das tabelas, deve-se utilizar o roteamento:
	CAMADA FÍSICA
	TRANSMISSÃO DE SINAIS
	Sinal periódico
	Quanto mais rápida for a variação do sinal (menor período), maior será a frequência.
	Banda passante
	Taxa de transmissão
	ATENUAÇÃO
	RUÍDO
	MEIOS FÍSICOS DE TRANSMISSÃO
	Meios de transmissão guiados
	PAR TRANÇADO
	COAXIAL
	FIBRA ÓPTICA
	Meios de transmissão não guiados (espaço aberto)
	1. Assinale a alternativa correta:
	2. Assinale a alternativa incorreta:
	INTRODUÇÃO
	DELIMITAÇÃO DE QUADROS (ENQUADRAMENTO)
	Contagem de caractere
	Enquadramento por caractere
	Enquadramento por bit
	Violação de códigos do nível físico
	CONTROLE DE ERROS (CODIFICAÇÃO)
	Open loop
	Feedback
	Exemplo
	CONTROLE DE FLUXO
	1. Complete a frase a seguir. A técnica de enquadramento:
	2. Considerando os passos estudados na construção do protocolo Stop-and-Wait ARQ, podemos afirmar que:
	INTRODUÇÃO
	COMO SOLUCIONAR OS PROBLEMAS
	Protocolos baseados em alocação estática
	1
	2
	Protocolos que empregam contenção
	S-ALOHA
	CSMA
	Protocolos de acesso ordenado
	TOKEN RING (PASSAGEM DE PERMISSÃO EM ANEL)
	TOKEN BUS (PASSAGEM DE PERMISSÃO EM BARRA)
	1. O protocolo ALOHA:
	2. Os protocolos da família CSMA:
	DEFINIÇÃO
	PROPÓSITO
	INTRODUÇÃO
	DEFINIÇÕES
	AMEAÇA
	ATAQUE
	ATIVO
	Importante
	Três propriedades são tratadas como os pilares da segurança: Confidencialidade, Integridade e Disponibilidade (CID).
	Confidencialidade
	Integridade
	Disponibilidade
	Autenticidade
	Não repúdio ou irretratabilidade
	Confiabilidade
	Legalidade
	TIPOS DE ATAQUES
	ETAPAS DE UM ATAQUE
	1. Reconhecimento:
	2. Armamento (weaponization):
	3. Entrega (delivery)
	4. Exploração
	5. Installation
	6. Comando e controle
	7. Conquista
	Saiba mais
	1. Os ataques podem ser classificados de diversas formas: ativo ou passivo, interno ou externo, direto ou indireto. Os passivos são os de interceptação; os ativos, os de modificação, interrupção, personificação ou repetição. Considere que você esteja...
	2. Uma das grandes ameaças existentes na internet é a chamada APT. Sigla para Advanced Persisten Threat, ela se refere a ataques direcionados de organizações a determinadas organizações e empresas. Imagine que você, após ser convocado para analisar as...
	Mecanismos de controle físicos
	Mecanismos de controle lógicos
	Verificaremos a seguir a aplicação de ambos na manutenção da segurança de uma conexão.
	Exemplo
	Áreas seguras
	Equipamentos
	A segurança física envolve outras áreas da Engenharia, como a civil e a elétrica, ao permitir a projeção de prédios com paredes adequadas à proteção dos equipamentos, sistemas de para-raios, aterramento, limpeza da área para evitar incêndios etc.
	Sistemas de refrigeração e de combate a incêndio
	Sala-cofre
	Sistemas de energia redundantes
	Preparação do ambiente contra alagamento
	Limpeza da área externa
	SEGURANÇA LÓGICA
	Vamos entender agora o funcionamento de cada um desses mecanismos.
	1. Autenticação
	2. Sistemas de controle de acesso
	Para que o controle de acesso seja efetivo, deve-se empregar um mecanismo de autenticação a fim de validar a identidade e – caso o acesso esteja autorizado – restringir os direitos de acesso para cada indivíduo de acordo com o seu perfil de uso.
	3. Criptografia
	Funções
	CIFRAMENTO
	Transforma um escrito simples, cujo alfabeto comum é utilizado para compor a mensagem original, em um texto cifrado. Nesse texto, as letras originais são substituídas pelas do alfabeto cifrado, escondendo, dessa forma, o conteúdo da mensagem. A função...
	DECIFRAMENTO
	As técnicas modernas de criptografia envolvem o uso de um algoritmo de criptografia associado a uma chave. O segredo do processo não está no algoritmo em si, e sim na chave utilizada para a realização do ciframento.
	Classificação
	Algoritmos de chave simétrica
	Criptografia de chave privada. Empregam uma única chave. Dessa forma, a mesma chave que realiza a cifragem faz a decifragem. Alguns exemplos de algoritmos simétricos: DES, 3DES, Blowfish, RC4, RC5, IDEA, Rinjdael e Advanced Encrytion Standard (AES).(A...
	Algoritmos de chave assimétrica
	Quando a chave pública é utilizada na função de cifragem, apenas a privada pode decifrar.
	Quando ocorre o inverso, a chave privada é empregada no processo de cifragem e apenas a pública pode decifrar.
	4. Funções de hash
	Exemplo
	md5sum aula.doc
	5 9 5 f 4 4 f e c 1 e 9 2 a 7 1 d 3 e 9 e 7 7 4 5 6 b a 8 0 d 1
	Secure Hash Algorithm version 1 (SHA-1);
	Secure Hash Algorithm version 2 (SHA-2);
	Secure Hash Algorithm version 3 (SHA-3).
	5. Assinatura digital
	O processo utilizado para realizar a assinatura digital combina o emprego da criptografia assimétrica com as funções de resumo da mensagem. Para que um documento seja assinado digitalmente, o usuário deve seguir estes passos:
	Calcular o resumo da mensagem.
	Cifrar esse resumo com a chave privada do emissor do documento.
	Enviar a mensagem com o resumo criptografado, que é a assinatura digital.
	6. Certificado digital
	O emprego do certificado digital é importante para garantir um ataque conhecido como “homem no meio” ou, em inglês, Man In The Middle (MITM). O MITM ocorre quando um atacante pode interceptar o envio da chave pública e ter acesso às informações.
	O processo para obter a chave privada da AC, contudo, pode esbarrar no mesmo problema. Para o processo funcionar corretamente, o usuário deve ir ao site da AC e realizar o download dos certificados – chamados de certificados raiz –, garantindo, assim,...
	Saiba mais
	6. Redes Virtuais Privadas (VPN)
	Na utilização do túnel, as informações trafegadas ficam protegidas, já que os dados são criptografados. Além disso, podem ser utilizados mecanismos de autenticação e integridade para garantir tanto a entrada em cada uma das redes só de pacotes autoriz...
	7. Firewall, sistemas de detecção de intrusão e antivírus
	Saiba mais
	1. Você foi contratado por uma empresa para realizar uma consultoria na área de segurança. Durante o trabalho realizado, identificou que ela estava sujeita a ataques contra a disponibilidade por falta de mecanismos de controle físicos ou lógicos. No ...
	2. Leia o fragmento de texto a seguir: “Durante um grande surto em maio de 2017, Rússia, China, Ucrânia, Taiwan, Índia e Brasil foram os países mais afetados. O WannaCry afetou tanto pessoas quanto organizações governamentais, hospitais, universidade...
	INTRODUÇÃO
	Podemos observar na imagem diversos servidores e várias estações de trabalho com sistemas operacionais Windows e Linux, firewalls, roteadores, switches(Switches ou comutadores são ferramentas de camada de enlace que conseguem identificar os equipament...
	Imaginemos agora a seguinte situação corriqueira: uma paralisação de algum serviço ou parte da rede. Nesses casos, muitos se perguntam: onde ocorreu a falha? No servidor? No switch? Na estação?
	O objetivo dessa gerência é monitorar e controlaros elementos físicos ou lógicos da rede, assegurando, segundo Stallings (1998), certo nível de qualidade de serviços.(Qualidade de serviços Trata-se do ato de oferecer serviços que atendam à necessidad...
	Descobriremos a seguir como é possível atingir esse nível de qualidade.
	ARQUITETURA DE GERENCIAMENTO OSI
	Esse modelo se baseia em cinco áreas conhecidas pela sigla FCAPS (abreviação, em inglês, de fault, configuration, accounting performance e security). Vamos conhecê-las agora!
	Gerência de detecção e correção de falhas (F = fault)
	Atenção
	1
	2
	Gerência de configuração e operação (C = configuration)
	Essas configurações devem ser consistentes em todos eles, permitindo que, no caso de uma reinicialização, o dispositivo volte a operar com a configuração correta.
	Gerência de contabilidade e faturamento (A = accounting)
	Exemplo
	Gerência de desempenho e otimização (P = performance)
	AVALIAÇÃO DE DIAGNÓSTICO
	AVALIAÇÃO DE TENDÊNCIAS
	Gerência de segurança e proteção (S = security)
	Que papel desempenha a segurança nesse contexto?
	ARQUITETURA DE GERENCIAMENTO EM REDE
	1. O diretor da empresa em que você trabalha informou a ocorrência de diversas paralisações na rede, o que prejudica a realização das atividades dos funcionários. Alegando que ela está subdimensionada, ele defende que a rede não consegue atender à dem...
	2. Uma arquitetura de gerenciamento de rede é composta por quatro componentes básicos: estação de gerenciamento, dispositivo gerenciado, base de informações gerenciais e protocolo de gerenciamento. Tais componentes trabalham em conjunto para permitir...

Mais conteúdos dessa disciplina