Buscar

Blog Redes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 41 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 41 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 41 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Padrão RS-422
EIA-422 (anteriormente RS-422) é um protocolo de comunicação de dados serial que descreve comunicações 4-wire, full-duplex, linha diferencial e multi-drop. Fornece transmissão de dados balanceada com linhas de transmissão unidirecionais/não reversíveis, terminadas ou não terminadas. Ao contrário de RS-485 (que é multi-point em vez de multi-drop), EIA-422 não permite mútiplos drivers somente múltpilos receivers.
Entre as várias vantagens oferecidas por este padrão incluem-se o receiver diferencial definido em RS-423, um driver diferencial e taxas de dados que chegam a 10 Megabaud a 12 metros (40 pés).
As conexões mecânicas para esta interface estão especificadas por EIA-530 (conector DB-25) ou EIA-449 (conector DB-37), entretanto existem dispositivos que têm 4 screw-posts para implementar os pares de transmissão e recepção somente. O comprimento máximo do cabo é de 1200m. A taxa máxima de dados é de 10 Mbit/s a 1.2m ou 100 Kbit/s a 1200m. EIA-422 não pode implementar uma rede de comunicação realmente multi-point (tal como EIA-485), ainda que somente um driver possa ser conectado a até 10 receivers.
Um uso comum de EIA-422 é para extensões RS-232. Em estúdios de edição de vídeos ele é usado para interligar o quadro de controle central e os equipamentos de execução/gravação de vídeo e áudio. Além disso, uma variante do RS-422 compatível com RS-232 usando um conector mini-DIN-8 foi amplamente usada em equipamento Macintosh até ser substituída pelo Barramento Serial Universal (Universal Serial Bus) da Intel no iMac.
Este artigo foi originalmente baseado no material do Free On-line Dictionary of Computing, o qual é licenciado sob GFDL.
Os Protocolos de Rede
Para explicar o que são os Protocolos de Rede, eu vou usar um exemplo clássico: pensemos num chinês que não fala português e um brasileiro que não fala chinês. Ambos podem se comunicar usando uma língua em comum, digamos o inglês, que seria algo como um protocolo. Mesmo que ambos não falassem nenhuma língua em comum poderiam usar gestos universais como o dedão para cima indicando "positivo" ou juntar as duas mãos próximo ao ouvido para dizer que está com sono ou dormindo.
Os protocolos são justamente estas línguas e sinais universais que permitem aos dispositivos comunicar-se através da rede. Assim como há várias línguas no mundo, na informática há diversos protocolos.
No caso das redes, especificamente, dentre as centenas de protocolos existentes os que são mais comuns e que, portanto, serão aqueles que encontraremos por aí:
IPX - "Internetwork Packet Exchange". Criado inicialmente pela Novell, foi muito utilizado nas redes locais até que o protocolo TCP/IP dominasse o cenário. Apesar de obsoleto, o IPX ainda está em uso pois há dispositivos antigos que só conseguem se comunicar através dele.
Netbeui - Criado pela Microsoft para ser o padrão nas suas primeiras versões de rede. A partir do Windows 2000, o NetBuei deixou o posto de protocolo principal para o TCP/IP e atualmente caiu praticamente em desuso.
TCP/IP - A grande revolução nas redes, é o mais utilizado atualmente por permitir diversos tipos de configuração. "TCP" e "IP" são abreviações de: "Transmission Control Protocol - Protocolo de Controle de Transmissão" e "Internet Protocol - Protocolo de Interconexão", que são abreviações dos principais protocolos que compõem o TCP/IP, mais há muitos outros protocolos imbutidos nele.
HTTP - "Hypertext Transfer Protocol, que significa Protocolo de Transferência de Hipertexto". É o protocolo padrão da Web, que é a parte gráfica da internet. É o HTTP que possibilita a visualização de figuras e vídeos no seu browser. O HTTP, por sua vez, roda sobre o TCP/IP. Isto significa que o TCP/IP funciona como uma rodovia por onde são transportadas as informações HTTP. Portanto, o HTTP não é usado na rede local ou na Internet em si, mas precisa destes dois sistemas para funcionar.
FTP - Significa File Transfer Protocol (Protocolo de Transferência de Arquivos). Permite a transferência de arquivos entre dois computadores, funcionando sobre a infra-estrutura da Internet que usa o TCP/IP como protocolo padrão.
Na prática, nas redes locais que você provavelmente vai montar será preciso instalar e configurar apenas o protocolo TCP/IP. Isto porque o IPX e o NetBeui são cada vez menos necessários e tendem a desaparecer, enquanto o HTTP e o FTP são protocolos internos com os quais dificilmente tereremos que configurar ou instalar.
Uma curiosidade: a World Wide Web (WWW) virou sinônimo de internet, mas na verdade a WWW é apenas um dos serviços disponíveis na Internet. A World Wide Web é apenas a parte gráfica da internet, que contém muitos outros serviços como SMTP (e-mail) e FTP (Transferência de arquivos), sem falar em outros serviços como o famoso compartilhamento de arquivos, por onde muita gente encontra seus arquivos MP3.
Cada sistema de compartilhamento de arquivos tem seu próprio protocolo, que roda "por cima" do protocolo TCP/IP que, por sua vez, forma uma espécie de esqueleto que sobre o qual são construídos outros sistemas de transporte de dados, que são os endereços IP, que eu falarei no próximo artigo.
Postado por 6TA - TTM às 11:19 Nenhum comentário: 
Enviar por e-mailBlogThis!Compartilhar no TwitterCompartilhar no FacebookCompartilhar com o Pinterest
QUINTA-FEIRA, 19 DE SETEMBRO DE 2013
Redes com FIBRA ÓPTICA
A fibra óptica é um pedaço de vidro ou de materiais poliméricos com capacidade de transmitir luz. Tal filamento pode apresentar diâmetros variáveis, dependendo da aplicação, indo desde diâmetros ínfimos, da ordem de micrômetros (mais finos que um fio de cabelo) até vários milímetros.
FUNCIONAMENTO
A transmissão da luz pela fibra segue um princípio único, independentemente do material usado ou da aplicação: é lançado um feixe de luz numa extremidade da fibra e, pelas características ópticas do meio (fibra), esse feixe percorre a fibra por meio de reflexões sucessivas. A fibra possui no mínimo duas camadas: o núcleo (filamento de vidro) e o revestimento (material eletricamente isolante). No núcleo, ocorre a transmissão da luz propriamente dita. A transmissão da luz dentro da fibra é possível graças a uma diferença de índice de refração entre o revestimento e o núcleo, sendo que o núcleo possui sempre um índice de refração mais elevado, característica que aliada ao ângulo de incidência do feixe de luz, possibilita o fenômeno da reflexão total.
As fibras ópticas são utilizadas como meio de transmissão de ondas eletromagnéticas, temos como exemplo a luz uma vez que é transparente e pode ser agrupada em cabos. Estas fibras são feitas de plástico e/ou de vidro. O vidro é mais utilizado porque absorve menos as ondas electromagnéticas. As ondas electromagnéticas mais utilizadas são as correspondentes à gama da luz.
O meio de transmissão por fibra óptica é chamado de "guiado", porque as ondas eletromagnéticas são "guiadas" na fibra, embora o meio transmita ondas omnidirecionais, contrariamente à transmissão "sem-fio", cujo meio é chamado de "não-guiado". Mesmo confinada a um meio físico, a luz transmitida pela fibra óptica proporciona o alcance de taxas de transmissão (velocidades) elevadíssimas, da ordem de 109 à 1010 bits por segundo (cerca de 40Gbps), com baixa taxa de atenuação por quilômetro. Mas a velocidade de transmissão total possível ainda não foi alcançada pelas tecnologias existentes. Como a luz se propaga no interior de um meio físico, sofrendo ainda o fenômeno de reflexão, ela não consegue alcançar a velocidade de propagação no vácuo, que é de 300.000 km/segundo, sendo esta velocidade diminuída consideravelmente.
Cabos fibra óptica atravessam oceanos. Usar cabos para conectar dois continentes separados pelo oceano é um projeto monumental. É preciso instalar um cabo com milhares de quilômetros de extensão sob o mar, atravessando fossas e montanhas submarinas. Nos anos 80, tornou-se disponível, o primeiro cabo fibra óptica intercontinental desse tipo, instalado em 1988,e tinha capacidade para 40.000 conversas telefônicas simultâneas, usando tecnologia digital. Desde então, a capacidade dos cabos aumentou. Alguns cabos que atravessam o oceano Atlântico têm capacidade para 200 milhões de circuitos telefônicos.
Para transmitir dados pela fibra óptica, é necessário equipamentos especiais, que contém um componente foto emissor, que pode ser um diodo emissor de luz (LED) ou um diodo laser. O foto emissor converte sinais elétricos em pulsos de luz que representam os valores digitais binários (0 e 1). Tecnologias como WDM (CWDM e DWDM) fazem a multiplexação de vários comprimentos de onda em um único pulso de luz chegando a taxas de transmissão de 1,6 Terabits/s em um único par de fibras.
VANTAGENS
Em Virtude das suas características, as fibras ópticas apresentam muitas vantagens sobre os sistemas eléctricos:
         Dimensões Reduzidas
      Capacidade para transportar grandes quantidades de informação ( Dezenas de milhares de conversações num par de Fibra);
   Atenuação muito baixa, que permite grandes espaçamentos entre repetidores, com distância entre repetidores superiores a algumas centenas de quilômetros.
         Imunidade às interferências eletromagnéticas;
         Matéria-prima muito abundante;
DESVANTAGENS
         Custo ainda elevado de compra e manutenção;
         Fragilidade das fibras ópticas sem encapsulamento;
         Dificuldade de conexões das fibras ópticas;
         Acopladores tipo T com perdas muito grandes;
         Impossibilidade de alimentação remota de repetidores;
         Falta de padronização dos componentes ópticos.
APLICAÇÕES
Uma característica importante que torna a fibra óptica indispensável em muitas aplicações é o facto de não ser suscetível à interferência eletromagnética, pela razão de que não transmite pulsos elétricos, como ocorre com outros meios de transmissão que empregam os fios metálicos, como o cobre. Podemos encontrar aplicações do uso de fibra óptica na medicina (endoscopias por exemplo) como também em telecomunicações (principalmente internet) em substituição aos fios de cobre.
Ethernet
Ethernet é uma arquitetura de interconexão para redes locais - Rede de Área Local (LAN) - baseada no envio de pacotes. Ela define cabeamento e sinais elétricos para a camada física, e formato de pacotes e protocolos para a subcamada de controle de acesso ao meio (Media Access Control - MAC) do modelo OSI. A Ethernet foi padronizada pelo IEEE como 802.3. A partir dos anos 90, ela vem sendo a tecnologia de LAN mais amplamente utilizada e tem tomado grande parte do espaço de outros padrões de rede como Token Ring, FDDI e ARCNET.
História
A Ethernet foi originalmente desenvolvida, presume-se, a partir de projeto pioneiro atribuído a Xerox Palo Alto Research Center.2 Entende-se, em geral, que a Ethernet foi inventada em 1973, quando Robert Metcalfe escreveu um memorando para os seus chefes contando sobre o potencial dessa tecnologia em redes locais.2 Contudo, Metcalfe afirma que, na realidade, a Ethernet foi concebida durante um período de vários anos. Em 1976, Metcalfe e David Boggs (seu assistente) publicaram um artigo, Ethernet: Distributed Packet-Switching For Local Computer Networks.Metcalfe deixou a Xerox em 1979 para promover o uso de computadores pessoais e redes locais (LANs), e para isso criou a 3Com. Ele conseguiu convencer DEC, Intel, e Xerox a trabalhar juntas para promover a Ethernet como um padrão, que foi publicado em 30 de setembro de 1980. Competindo com elas na época estavam dois sistemas grandemente proprietários, token ring e ARCNET. Em pouco tempo ambos foram afogados por uma onda de produtos Ethernet. No processo a 3Com se tornou uma grande companhia, e além de se ter tornado conhecida como U.S Robotics, também uma fabricante de processadores digitais.
Descrição geral
Ethernet é baseada na ideia de pontos da rede enviando mensagens, no que é essencialmente semelhante a um sistema de rádio, cativo entre um cabo comum ou canal, às vezes chamado de éter (no original, ether). Isto é uma referência oblíqua ao éter luminífero, meio através do qual os físicos do século XIX acreditavam que a luz viajasse.
Cada ponto tem uma chave de 48 bits globalmente única, conhecida como endereço MAC, para assegurar que todos os sistemas em uma ethernet tenham endereços distintos.
Tem sido observado que o tráfego Ethernet tem propriedades de auto similaridade, com importantes consequências para engenharia de tráfego de telecomunicações.
Os padrões atuais do protocolo Ethernet são os seguintes: - 10 megabits/seg: 10Base-T Ethernet (IEEE 802.3) - 100 megabits/seg: Fast Ethernet (IEEE 802.3u) - 1 gigabits/seg: Gigabit Ethernet (IEEE 802.3z) - 10 gigabits/seg: 10 Gigabit Ethernet (IEEE 802.3ae).
Ethernet com meio compartilhado CSMA/CD
Um esquema conhecido como Carrier Sense Multiple Access with Collision Detection (CSMA/CD) organizava a forma como os computadores compartilhavam o canal. Originalmente desenvolvido nos anos 60 para ALOHAnet - Hawaii usando Rádio, o esquema é relativamente simples se comparado ao token ring ou rede de controle central (master controlled networks). Quando um computador deseja enviar alguma informação, este obedece o seguinte algoritmo:
1 - Se o canal está livre, inicia-se a transmissão, senão vai para o passo 4;
2 - [transmissão da informação] se colisão é detectada, a transmissão continua até que o tempo mínimo para o pacote seja alcançado (para garantir que todos os outros transmissores e receptores detectem a colisão), então segue para o passo 4;
3 - [fim de transmissão com sucesso] informa sucesso para as camadas de rede superiores, sai do modo de transmissão;
4 - [canal está ocupado] espera até que o canal esteja livre;
5 - [canal se torna livre] espera-se um tempo aleatório, e vai para o passo 1, a menos que o número máximo de tentativa de transmissão tenha sido excedido;
6 - [número de tentativa de transmissão excedido] informa falha para as camadas de rede superiores, sai do modo de transmissão;
Na prática, funciona como um jantar onde os convidados usam um meio comum (o ar) para falar com um outro. Antes de falar, cada convidado educadamente espera que outro convidado termine de falar. Se dois convidados começam a falar ao mesmo tempo, ambos param e esperam um pouco, um pequeno período. Espera-se que cada convidado espere por um tempo aleatório de forma que ambos não aguardem o mesmo tempo para tentar falar novamente, evitando outra colisão. O tempo é aumentado exponencialmente se mais de uma tentativa de transmissão falhar.
Originalmente, a Ethernet fazia, literalmente, um compartilhamento via cabo coaxial, que passava através de um prédio ou de um campus universitário para interligar cada máquina. Os computadores eram conectados a uma unidade transceiver ou interface de anexação (Attachment Unit Interface, ou AUI), que por sua vez era conectada ao cabo. Apesar de que um fio simples passivo fosse uma solução satisfatória para pequenas Ethernets, não o era para grandes redes, onde apenas um defeito em qualquer ponto do fio ou em um único conector fazia toda a Ethernet parar.
Como todas as comunicações aconteciam em um mesmo fio, qualquer informação enviada por um computador era recebida por todos os outros, mesmo que a informação fosse destinada para um destinatário específico. A placa de interface de rede descarta a informação não endereçada a ela, interrompendo a CPU somente quando pacotes aplicáveis eram recebidos, a menos que a placa fosse colocada em seu modo de comunicação promíscua. Essa forma de um fala e todos escutam definia um meio de compartilhamento de Ethernet de fraca segurança, pois um nodo na rede Ethernet podia escutar às escondidas todo o tráfego do cabo se assim desejasse. Usar um cabo único também significava que a largura de banda (bandwidth) era compartilhada, de forma que o tráfego de rede podia tornar-se lentíssimo quando, por exemplo, a rede e os nós tinham de ser reinicializados após uma interrupção elétrica.Hubs Ethernet
Este problema foi contornado pela invenção de hubs Ethernet, que formam uma rede com topologia física em estrela, com múltiplos controladores de interface de rede enviando dados ao hub e, daí, os dados são então reenviados a um backbone, ou para outros segmentos de rede.
Porém, apesar da topologia física em estrela, as redes Ethernet com hub ainda usam CSMA/CD, no qual todo pacote que é enviado a uma porta do hub pode sofrer colisão; o hub realiza um trabalho mínimo ao lidar com colisões de pacote.
As redes Ethernet trabalham bem como meio compartilhado quando o nível de tráfego na rede é baixo. Como a chance de colisão é proporcional ao número de transmissores e ao volume de dados a serem enviados, a rede pode ficar extremamente congestionada, em torno de 50% da capacidade nominal, dependendo desses fatores. Para solucionar isto, foram desenvolvidos "comutadores" ou switches Ethernet, para maximizar a largura de banda disponível.
Ethernet Comutada (Switches Ethernet)
A maioria das instalações modernas de Ethernet usam switches Ethernet em vez de hubs. Embora o cabeamento seja idêntico ao de uma Ethernet com hub (Ethernet Compartilhada), com switches no lugar dos hubs, a Ethernet comutada tem muitas vantagens sobre a Ethernet média, incluindo maior largura de banda e cabeamento simplificado. Mas a maior vantagem é restringir os domínios de colisão, o que causa menos colisão no meio compartilhado causando uma melhor desempenho na rede. Redes com switches tipicamente seguem uma topologia em estrela, embora elas ainda implementem uma "nuvem" única de Ethernet do ponto de vista das máquinas ligadas.
Switch Ethernet "aprende" quais são as pontas associadas a cada porta, e assim ele pára de mandar tráfego broadcast para as demais portas a que o pacote não esteja endereçado, isolando os domínios de colisão. Desse modo, a comutação na Ethernet pode permitir velocidade total de Ethernet no cabeamento a ser usado por um par de portas de um mesmo switch.
Já que os pacotes são tipicamente entregues somente na porta para que são endereçadas, o tráfego numa Ethernet comutada é levemente menos público que numa Ethernet de mídia compartilhada. Contudo, como é fácil subverter sistemas Ethernet comutados por meios como ARP spoofing e MAC flooding, bem como por administradores usando funções de monitoramento para copiar o tráfego da rede, a Ethernet comutada ainda é considerada como uma tecnologia de rede insegura.
Tipos de quadro Ethernet e o campo EtherType
Há quatro tipos de quadro Ethernet :
Ethernet original versão I
O quadro Ethernet versão 2 ou quadro Ethernet II, chamado quadro DIX (iniciais de DEC, Intel, e Xerox). É o mais comum atualmente, já que é muitas vezes usado diretamente pelo Protocolo Internet.
quadro IEEE 802.x LLC
quadro IEEE 802.x LLC/SNAP
Os tipos diferentes de quadro têm formatos e valores de MTU diferentes, mas podem coexistir no mesmo meio físico.
A Ethernet Versão 1 original da Xerox tinha um campo de comprimento de 16 bits, embora o tamanho máximo de um pacote fosse 1500 bytes. Esse campo de comprimento foi logo reusado na Ethernet Versão 2 da Xerox como um campo de rótulo, com a convenção de que valores entre 0 e 1500 indicavam o uso do formato Ethernet original, mas valores maiores indicavam o que se tornou conhecido como um EtherType, e o uso do novo formato de quadro. Isso agora é suportado nos protocolos IEEE 802 usando o header SNAP.
O IEEE 802.x definiu o campo de 16 bits após o endereço MAC como um campo de comprimento de novo. Como o formato de quadros do Ethernet I não é mais usado, isso permite ao software determinar se um quadro é do Ethernet II ou do IEEE 802.x, permitindo a coexistência dos dois padrões no mesmo meio físico. Todos os quadros 802.x têm um campo LLC. Examinando o campo LLC, é possível determinar se ele é seguido por um campo SNAP.
As variantes 802.x de Ethernet não são de uso geral em redes comuns. O tipo mais comum usado hoje é a Ethernet Versão 2, já que é usada pela maioria das redes baseadas no Protocolo da Internet, com seu EtherType setado em 0x0800. Existem técnicas para encapsular tráfego IP em quadros IEEE 802.3, por exemplo, mas isso não é comum.
Variedades de Ethernet
Além dos tipos de frames mencionados acima, a maioria das diferenças entre as variedades de Ethernet podem ser resumidas em variações de velocidade e cabeamento. Portanto, em geral, a pilha do software de protocolo de rede vai funcionar de modo idêntico na maioria dos tipos a seguir.
As seções seguintes proveem um breve sumário de todos os tipos de mídia Ethernet oficiais. Além desses padrões, muitos fabricantes implementaram tipos de mídia proprietários por várias razões, geralmente para dar suporte a distâncias maiores com cabeamento de fibra ótica.
Algumas variedades antigas de Ethernet
Xerox Ethernet -- a implementação original de Ethernet, que tinha 2 versões, Versão 1 e Versão 2, durante seu desenvolvimento. O formato de frame da versão 2 ainda está em uso comum.
10BASE5 (também chamado Thicknet) -- esse padrão antigo da IEEE usa um cabo coaxial simples em que você conseguia uma conexão literalmente furando o cabo para se conectar ao núcleo. É um sistema obsoleto, embora devido a sua implantação amplamente difundida antigamente, talvez ainda possa ser utilizado por alguns sistemas.
10BROAD36 -- Obsoleto. Um padrão antigo permitindo a Ethernet para distâncias mais longas. Utilizava técnicas de modulação de banda larga similares àquelas empregadas em sistemas de cable modem, e operava com cabo coaxial.
1BASE5 -- Uma tentativa antiga de padronizar uma solução de LAN de baixo custo. Opera a 1 Mbit/s e foi um fracasso comercial.
StarLAN 1—A primeira implementação de Ethernet com cabeamento de par trançado.
10 Mbit/s Ethernet
10BASE2 (também chamado ThinNet ou Cheapernet) -- Um cabo coaxial de 50-ohm conecta as máquinas, cada qual usando um adaptador T para conectar seu NIC. Requer terminadores nos finais. Por muitos anos esse foi o padrão dominante de ethernet de 10 Mbit/s.
10BASE5 (também chamado Thicknet) -- Especificação Ethernet de banda básica de 10 Mbps, que usa o padrão (grosso) de cabo coaxial de banda de base de 50 ohms. Faz parte da especificação de camada física de banda de base IEEE 802.3, tem um limite de distância de 500 metros por segmento.
StarLAN 10—Primeira implementação de Ethernet em cabeamento de par trançado a 10 Mbit/s. Mais tarde evoluiu para o 10BASE-T.
10BASE-T -- Opera com 4 fios (dois conjuntos de par trançado) num cabo de cat-3 ou cat-5. Um hub ou switch fica no meio e tem uma porta para cada nó da rede. Essa é também a configuração usada para a ethernet 100BASE-T e a Gigabit.
FOIRL -- Link de fibra ótica entre repetidores. O padrão original para ethernet sobre fibra.
10BASE-F -- um termo genérico para a nova família de padrões de ethernet de 10 Mbit/s: 10BASE-FL, 10BASE-FB e 10BASE-FP. Desses, só o 10BASE-FL está em uso comum (todos utilizando a fibra óptica como meio físico).
10BASE-FL -- Uma versão atualizada do padrão FOIRL.
10BASE-FB -- Pretendia ser usada por backbones conectando um grande número de hubs ou switches, agora está obsoleta.
10BASE-FP -- Uma rede passiva em estrela que não requer repetidores, nunca foi implementada.
Fast Ethernet
100BASE-T -- Designação para qualquer dos três padrões para 100 Mbit/s ethernet sobre cabo de par trançado.
Inclui 100BASE-TX, 100BASE-T4 e 100BASE-T2.
100BASE-TX -- Usa dois pares, mas requer cabo cat-5.
Configuração "star-shaped" idêntica ao 10BASE-T. 100Mbit/s.
100BASE-T4 -- 100 Mbit/s ethernet sobre cabeamento cat-3 (Usada em instalações 10BASE-T).
Utiliza todos os quatro pares no cabo. Atualmente obsoleto, cabeamento cat-5 é o padrão. Limitado a Half-Duplex.
100BASE-T2 -- Não existem produtos.
100 Mbit/s ethernet sobre cabeamento cat-3. Suporta full-duplex, e usa apenas dois pares. Seu funcionamento é equivalente ao 100BASE-TX, mas suporta cabeamento antigo.
100BASE-FX -- 100 Mbit/s ethernet sobre fibraóptica. Usando fibra ótica multimodo 62,5 mícrons tem o limite de 400 metros.
Gigabit Ethernet
1000BASE-T -- 1 Gbit/s sobre cabeamento de cobre categoria 5e ou 6.
1000BASE-SX -- 1 Gbit/s sobre fibra.
1000BASE-LX -- 1 Gbit/s sobre fibra. Otimizado para distâncias maiores com fibra mono-modo.
1000BASE-CX -- Uma solução para transportes curtos (até 25m) para rodar ethernet de 1 Gbit/s num cabeamento especial de cobre. Antecede o 1000BASE-T, e agora é obsoleto.
10-Gigabit Ethernet (Ethernet 10 Gigabit)
O novo padrão Ethernet de 10 gigabits abrange 7 tipos diferentes de mídias para uma LAN, MAN e WAN. Ele está atualmente especificado por um padrão suplementar, IEEE 802.3ae, e será incorporado numa versão futura do padrão IEEE 802.3.
10GBASE-SR -- projetado para suportar distâncias curtas sobre cabeamento de fibra multi-modo, variando de 26m a 82m dependendo do tipo de cabo. Suporta também operação a 300m numa fibra multi-modo de 2000 MHz.
10GBASE-LX4 -- usa multiplexação por divisão de comprimento de ondas para suportar distâncias entre 240m e 300m em cabeamento multi-modo. Também suporta 10 km com fibra mono-modo.
10GBASE-LR e 10GBASE-ER -- esses padrões suportam 10 km e 40 km respectivamente sobre fibra mono-modo.
10GBASE-SW, 10GBASE-LW e 10GBASE-EW. Essas variedades usam o WAN PHY, projetado para interoperar com equipamentos OC-192 / STM-64 SONET/SDH. Eles correspondem à camada física do 10GBASE-SR, 10GBASE-LR e 10GBASE-ER respectivamente, e daí usam os mesmos tipos de fibra e suportam as mesmas ditâncias. (Não há um padrão WAN PHY correspondendo ao 10GBASE-LX4.)
Usam conexão ponto a ponto, interligando apenas dois equipamentos. (FUNIVERSA - 2010 - MPE-GO - Técnico de Informática)
Ethernet de 10 gigabit é muito nova, e continua em vistas sobre qual padrão vai ganhar aceitação comercial.
Padrões Relacionados
Esses padrões de rede não são parte do padrão Ethernet IEEE 802.3 Ethernet, mas suportam o formato de frame ethernet, e são capazes de interoperar com ele.
Wireless Ethernet (IEEE 802.11) - Frequentemente rodando a 2 Mbit/s (802.11legacy), 11 Mbit/s (802.11b) ou 54 Mbit/s (802.11g).
100BaseVG - Um rival precoce para a ethernet de 100 Mbit/s. Ele roda com cabeamento categoria 3. Usa quatro pares. Um fracasso, comercialmente.
TIA 100BASE-SX - Promovido pela Associação das Indústrias de Telecomunicações (TIA). O 100BASE-SX é uma implementação alternativa de ethernet de 100 Mbit/s em fibra ótica; é incompatível com o padrão oficial 100BASE-FX. Sua característica principal é a interoperabilidade com o 10BASE-FL, suportando auto negociação entre operações de 10 Mbit/s e 100 Mbit/s—uma característica que falta nos padrões oficiais devido ao uso de comprimentos de ondas de LED diferentes. Ele é mais focado para uso na base instalada de redes de fibra de 10 Mbit/s.
TIA 1000BASE-TX - Promovido pela Associação das Indústrias de Telecomunicações, foi um fracasso comercial, e nenhum produto desse padrão existe. O 1000BASE-TX usa um protocolo mais simples que o padrão oficial 1000BASE-T, mas requer cabeamento categoria 6.
Modelo OSI
A Organização Internacional para a Normalização (do inglês: International Organization for Standardization - ISO), foi uma das primeiras organizações a definir formalmente uma arquitetura padrão com objetivo de facilitar o processo de interconectividade entre máquinas de diferentes fabricantes, assim em 1984 lançou o padrão chamado Interconexão de Sistemas Abertos (do inglês: Open Systems Interconnection - OSI) ou Modelo OSI.
O Modelo OSI permite comunicação entre máquinas heterogêneas e define diretivas genéricas para a construção de redes de computadores (seja de curta, média ou longa distância) independente da tecnologia utilizada.1
Esta arquitetura é um modelo que divide as redes de computadores em 7 camadas, de forma a se obter camadas de abstração. Cada protocolo implementa uma funcionalidade assinalada a uma determinada camada.
A ISO costuma trabalhar em conjunto com outra organização, a União Internacional de Telecomunicações (do inglês: International Telecommunications Union - ITU), publicando uma série de especificações de protocolos baseados na arquitetura OSI. Estas séries são conhecidas como 'X ponto', por causa do nome dos protocolos: X.25, X.500, etc.
História
Trabalhar em um modelo de arquitetura em camadas de rede foi iniciado e a Organização Internacional para a Normalização (ISO) começou a desenvolver a sua estrutura de arquitetura OSI. OSI tinha quatro componentes principais: um modelo abstrato de rede, o chamado Modelo de Referência Básico ou sete camadas do modelo, e um conjunto de protocolos específicos e outros dois de menor relevância.
O conceito de um modelo de sete camadas foi fornecida pelo trabalho de Charles Bachman, Serviços de Informação da Honeywell. Vários aspectos do projeto OSI evoluíram a partir de experiências com a ARPANET, a Internet incipiente, NPLNET, EIN, CYCLADES rede e o trabalho em IFIP WG6.1. O novo projeto foi documentado em ISO 7498 e seus adendos diferentes. Neste modelo, um sistema de rede foi dividido em camadas. Dentro de cada camada, uma ou mais entidades se encarrega de implementar sua funcionalidade. Cada entidade interagiram diretamente apenas com a camada imediatamente abaixo dela, e dispõem de instalações para utilização pela camada de cima.
Protocolos ativam um sinal elétrico de um host para interagir com uma entidade correspondente na mesma camada em outro host. Definições de serviços abstratamente descrito a funcionalidade fornecida a um (N), camada por uma camada de (N-1), em que N era um dos sete camadas de protocolos de funcionamento no hospedeiro local.
Os documentos padrões OSI estão disponíveis no ITU-T como o X.200 série de recomendações. Algumas das especificações do protocolo foram também está disponível como parte da série X ITU-T. O equivalente a ISO e ISO / IEC para o modelo OSI estavam disponíveis a partir de ISSO, mas apenas alguns deles sem taxas.
Implementação do sistema aberto
Etapas obrigatórias para atingir interoperabilidade, compatibilidade, portabilidade e escalabilidade exigidos no sistema aberto (OSI):
        definição do modelo: define o que cada camada deve fazer, isto é, define os serviços que cada camada deve oferecer;
      definição dos protocolos de camada: define os componentes que fazem parte do modelo (padrões de interoperabilidade e portabilidade), não só os relacionados à comunicação, mas também alguns não relacionados como a estrutura de armazenamento de dados;
     seleção dos perfis funcionais: realizada pelos órgãos de padronização de cada país que escolhem os padrões que lhes cabem, baseados em condições tecnológicas, base instalada, visão futura, etc.
Descrição das camadas
Este modelo é dividido em camadas hierárquicas, ou seja, cada camada usa as funções da própria ou da camada anterior, para esconder a complexidade e transparecer as operações ao usuário, seja ele um programa ou uma outra camada.
As camadas são empilhadas na seguinte ordem:
	Modelo OSI
	Camada
	Protocolo
	7.Aplicação
	HTTP, SMTP, FTP, SSH, Telnet, SIP, RDP, IRC, SNMP, NNTP, POP3, IMAP, BitTorrent, DNS, Ping ...
	6.Apresentação
	XDR, TLS ...
	5.Sessão
	NetBIOS ...
	4.Transporte
	NetBEUI, TCP, UDP,RTP, SCTP, DCCP, RIP...
	3.Rede
	IP (IPv4, IPv6), IPsec, ICMP, ARP, RARP, NAT...
	2.Enlace
        Subcamada LLC
        Subcamada MAC
	Ethernet, 802.11 WiFi, IEEE 802.1Q, 802.11g, HDLC, Token ring, FDDI, PPP, Switch, Frame relay, ATM ...
	1.Física
	Modem, RDIS, RS-232,EIA-422, RS-449,Bluetooth, USB,10BASE-T, 100BASE-TX, ISDN, SONET, DSL...
De acordo com a recomendação X.200, existem sete camadas, com o 1 a 7, com uma camada na parte inferior. Cada camada é genericamente conhecida como uma camada de N. Um "N +1 entidade" (a camada N +1) solicitar serviços de uma "entidade N" (na camada N).
Em cada nível, duas entidades (N-entidade pares) interagem por meio do protocolo de N através da transmissão de unidades dedados de protocolo (PDU).
A Unidade de Dados de Serviço (SDU) é uma unidade específica de dados que foram passados ​​de uma camada OSI para uma camada inferior, e que a camada inferior ainda não encapsulou em uma unidade de dados de protocolo (PDU). Uma SDU é um conjunto de dados que são enviados por um usuário dos serviços de uma determinada camada, e é transmitida semanticamente inalterada a um usuário do serviço peer.
A PDU é uma camada de N e o SDU camada de N-1. Com efeito, a SDU é a "carga útil" de uma dada PDU. Isto é, o processo de alteração de um SDU a uma PDU, é constituído por um processo de encapsulamento, realizada pela camada inferior. Todos os dados contidos no SDU fica encapsulado dentro do PDU. A camada de N-1 adiciona cabeçalhos ou rodapés, ou ambos, para a SDU, transformando-a numa PDU de camada N-1. Os cabeçalhos ou rodapés adicionados fazem parte do processo utilizado para tornar possível a obtenção de dados de uma fonte para um destino.
Alguns aspectos ortogonais, tais como gestão e segurança, envolvem todas as camadas.
Serviços de segurança não estão relacionadas com uma camada específica: eles podem ser relacionadas por uma série de camadas, tal como definido pela ITU-T recomendação X.800. Estes serviços visam melhorar a tríade CIA ( confidencialidade , integridade e disponibilidade ) dos dados transmitidos. Na verdade, a disponibilidade de serviço de comunicação é determinada pelo projeto de rede e / ou de gestão de rede protocolos. Escolhas adequadas para estes são necessários para proteger contra negação de serviço.
1 - Camada Física
A camada física define especificações elétricas e físicas dos dispositivos. Em especial, que define a relação entre um dispositivo e um meio de transmissão, tal como um cabo de cobre ou um cabo de fibra óptica. Isso inclui o layout de pinos, tensões, impedância da linha, especificações do cabo, temporização, hubs, repetidores, adaptadores de rede, adaptadores de barramento de host (HBA usado em redes de área de armazenamento) e muito mais.
2 - Ligação de dados
A camada de ligação de dados também é conhecida como de enlace ou link de dados. Esta camada detecta e, opcionalmente, corrige erros que possam acontecer no nível físico. É responsável por controlar o fluxo (recepção, delimitação e transmissão de quadros) e também estabelece um protocolo de comunicação entre sistemas diretamente conectados.
3 - Camada de Rede
A camada de rede fornece os meios funcionais e de procedimento de transferência de comprimento variável de dados de sequências de uma fonte de acolhimento de uma rede para um host de destino numa rede diferente (em contraste com a camada de ligação de dados que liga os hosts dentro da mesma rede), enquanto se mantém a qualidade de serviço requerido pela camada de transporte. A camada de rede realiza roteamento funções, e também pode realizar a fragmentação e remontagem, e os erros de entrega de relatório. Roteadores operam nesta camada, o envio de dados em toda a rede estendida e tornando a Internet possível. Este é um esquema de endereçamento lógico - os valores são escolhidos pelo engenheiro de rede. O esquema de endereçamento não é hierárquico.
A camada de rede pode ser dividida em três sub-camadas:
Sub-rede de acesso - que considera protocolos que lidam com a interface para redes, tais como X.25;
Sub-rede dependente de convergência - em que é necessário para elevar o nível de uma rede de trânsito, até ao nível de redes em cada lado;
Sub-rede independente de convergência - lida com a transferência através de múltiplas redes: controla a operação da sub rede roteamento de pacotes, controle de congestionamento, tarifação e permite que redes heterogêneas sejam interconectadas.
4 - Camada de Transporte
A camada de transporte é responsável por receber os dados enviados pela camada de Sessão e segmentá-los para que sejam enviados a camada de Rede, que por sua vez, transforma esses segmentos em pacotes. No receptor, a camada de Transporte realiza o processo inverso, ou seja, recebe os pacotes da camada de Rede e junta os segmentos para enviar à camada de Sessão.
Isso inclui controle de fluxo, ordenação dos pacotes e a correção de erros, tipicamente enviando para o transmissor uma informação de recebimento, garantindo que as mensagens sejam entregues sem erros na sequência, sem perdas e duplicações.
A camada de Transporte separa as camadas de nível de aplicação (camadas 5 a 7) das camadas de nível físico (camadas de 1 a 3). A camada 4, Transporte, faz a ligação entre esses dois grupos e determina a classe de serviço necessária como orientada a conexão e com controle de erro e serviço de confirmação ou, sem conexões e nem confiabilidade.
O objetivo final da camada de transporte é proporcionar serviço eficiente, confiável e de baixo custo. O hardware e/ou software dentro da camada de transporte e que faz o serviço é denominado entidade de transporte.
A entidade de transporte comunica-se com seus usuários através de primitivas de serviço trocadas em um ou mais TSAP(Transport Service Access Point), que são definidas de acordo com o tipo de serviço prestado: orientado ou não à conexão. Estas primitivas são transportadas pelas TPDU (Transport Protocol Data Unit).
Na realidade, uma entidade de transporte poderia estar simultaneamente associada a vários TSA e NSAP (Network Service Access Point). No caso de multiplexação, associada a vários TSAP e a um NSAP e no caso de splitting, associada a um TSAP e a vários NSAP.
A ISO define o protocolo de transporte para operar em dois modos:
Orientado a conexão.
Não-Orientado a conexão.
Como exemplo de protocolo orientado à conexão, temos o TCP, e de protocolo não orientado à conexão, temos o UDP. É óbvio que o protocolo de transporte não orientado à conexão é menos confiável. Ele não garante - entre outras coisas mais -, a entrega das TPDU, nem tão pouco a ordenação das mesmas. Entretanto, onde o serviço da camada de rede e das outras camadas inferiores é bastante confiável - como em redes locais -, o protocolo de transporte não orientado à conexão pode ser utilizado, sem o overhead inerente a uma operação orientada à conexão.
O serviço de transporte baseado em conexões é semelhante ao serviço de rede baseado em conexões. O endereçamento e controle de fluxo também são semelhantes em ambas as camadas. Para completar, o serviço de transporte sem conexões também é muito semelhante ao serviço de rede sem conexões. Constatado os fatos acima, surge a seguinte questão: "Por que termos duas camadas e não uma apenas?". A resposta é sutil, mas procede: A camada de rede é parte da sub-rede de comunicações e é executada pela concessionária que fornece o serviço (pelo menos para as WAN). Quando a camada de rede não fornece um serviço confiável, a camada de transporte assume as responsabilidades, melhorando a qualidade do serviço.
5 - Camada de Sessão
A camada de Sessão permite que duas aplicações em computadores diferentes estabeleçam uma sessão de comunicação. Definindo como será feita a transmissão de dados, pondo marcações nos dados que serão transmitidos. Se porventura a rede falhar, os computadores reiniciam a transmissão dos dados a partir da última marcação recebida pelo computador receptor.
6 - Camada de Apresentação
A camada de Apresentação, também chamada camada de Tradução, converte o formato do dado recebido pela camada de Aplicação em um formato comum a ser usado na transmissão desse dado, ou seja, um formato entendido pelo protocolo usado. Um exemplo comum é a conversão do padrão de caracteres (código de página) quando o dispositivo transmissor usa um padrão diferente do ASCII. Pode ter outros usos, como compressão de dados e criptografia.
Os dados recebidos da camada sete estão descomprimidos, e a camada 6 do dispositivo receptor fica responsável por comprimir esses dados. A transmissão dos dados torna-se mais rápida, já que haverá menos dados a serem transmitidos: os dados recebidos da camada 7 foram "encolhidos" e enviados à camada 5.
Paraaumentar a segurança, pode-se usar algum esquema de criptografia neste nível, sendo que os dados só serão decodificados na camada 6 do dispositivo receptor.
Ela trabalha transformando os dados em um formato no qual a camada de aplicação possa aceitar, minimizando todo tipo de interferência.
7 - Camada de Aplicação
A camada de aplicação corresponde às aplicações (programas) no topo da camada OSI que serão utilizados para promover uma interação entre a máquina-usuário (máquina destinatária e o usuário da aplicação). Esta camada também disponibiliza os recursos (protocolo) para que tal comunicação aconteça, por exemplo, ao solicitar a recepção de e-mail através do aplicativo de e-mail, este entrará em contato com a camada de Aplicação do protocolo de rede efetuando tal solicitação (POP3, IMAP).
Tudo nesta camada é relacionado ao software. Alguns protocolos utilizados nesta camada são: HTTP, SMTP, FTP, SSH, Telnet, SIP, RDP, IRC, SNMP, NNTP, POP3, IMAP, BitTorrent, DNS, Ping, etc.
Resumo
	CAMADA
	FUNÇÃO
	7 - Aplicação
	Funções especialistas (transferência de arquivos, envio de e-mail, terminal virtual)
	6 - Apresentação
	Formatação dos dados, conversão de códigos e caracteres
	5 - Sessão
	Negociação e conexão com outros nós
	4 - Transporte
	Oferece métodos para a entrega de dados ponto-a-ponto
	3 - Rede
	Roteamento de pacotes em uma ou várias redes
	2 - Data Link
	Detecção e correção de erros do meio de transmissão
	1 - Físico
	Transmissão e recepção dos bits brutos através do meio de transmissão
Arquitetura Internet
O padrão aberto técnico da Internet, o Protocolo de Controle de Transmissão (do inglês: Transmission Control Protocol - TCP), surgiu de uma necessidade específica do Departamento de Defesa dos Estados Unidos, que necessitava de uma rede que pudesse sobreviver a qualquer condição, até mesmo uma guerra nuclear. O Modelo de Referência e a Pilha de Protocolos TCP/IP tornam possível a comunicação de dados entre dois computadores em qualquer parte do mundo.
Devido ao surgimento massivo de redes de computadores, a International Organization for Standardization (ISO) realizou uma pesquisa sobre esses vários esquemas de rede e percebeu-se, a necessidade de se criar um modelo de rede para ajudar os desenvolvedores a implementar redes que poderiam comunicar-se e trabalhar juntas (modelo de referência OSI).
Diferentemente do modelo OSI, que possui sete camadas, o modelo TCP/IP possui quatro camadas, são elas:
         Camada 4: A camada de Aplicação
         Camada 3: A camada de Transporte
         Camada 2: A camada de Rede(Internet)
         Camada 1: A camada de Física
PADRÃO 485
A principal diferença entre RS-485 e RS-232 está no fato do RS-485 ser um padrão diferencial, enquanto que o RS-232 é referenciado ao comum (0V). No RS-232, o nível lógico 1 é interpretado como sendo qualquer tensão no intervalo [–15V;-3V], enquanto que tensões no intervalo [3V;15V] correspondem ao nível lógico 0. Tensões entre -3V e 3V não possuem nível lógico definido. Este tipo de interface é útil em comunicações ponto-a-ponto a baixas velocidades de transmissão. Entretanto, devido à grande faixa de variação dos sinais, faz-se necessário dispor de drivers de alto slewrate para se alcançar altas velocidades de comunicação. No mais, com o aumento do comprimento do cabo de comunicação, o padrão RS-232 se torna altamente susceptível a interferência eletromagnética e a retorno de sinal.
O RS-485 utiliza um princípio diferente. Um transceptor RS-485 traduz um sinal lógico TTL em dois sinais, denominados de A e B (ver Figura 1). O sinal A possui a mesma lógica do sinal TTL, enquanto que o sinal B é complementar. A informação do sinal de entrada está codificada na forma do sinal A-B, ou seja, da diferença entre os sinais A e B. Se esta diferença for superior a 200mV, então tem-se nível lógico 1. Caso a diferença seja inferior a -200mV, então considera-se nível lógico 0. No intervalo de -200mV a 200mV o nível lógico é indefinido, servindo também como meio de detecção de cabo solto, para alguns transceptores comerciais. Entretanto, deve-se ter algum cuidado com relação ao compartilhamento de referência de 0V entre dispositivos .
Uma das vantagens da transmissão diferencial é sua robustez a interferência eletromagnética. A conexão entre dispositivos RS-485 é feita por cabos de par trançado, com resistores de terminação para balanceamento. Dessa forma se um ruído é introduzido na linha, ele é induzido nos dois fios de modo que a diferença entre A e B é quase nula. Outra vantagem da transmissão diferencial é que diferentes potenciais de terra são, até certo ponto, ignorados pelos transmissores e receptores. Isso se torna importante quando tem-se que percorrer grandes distâncias ou mesmo em sistemas com diferentes fontes de alimentação. Cabos trançados com terminações corretas que minimizam reflexão do sinal permitem taxas de transferência de 10Mbps a distâncias de até 1 km.
O RS-485 é um padrão de comunicação multiponto, permitindo-se a conexão de até 32 dispositivos num simples cabo de par trançado. Dependendo do transceptor, pode-se conectar mais de 200 dispositivos, seguindo a topologia mostrada na Figura 2. Na verdade, a Figura 2 mostra a arquitetura mais comum de utilização do RS-485. A letras D e R indicam os drivers de transmissão e recepção de cada dispositivo, respectivamente. Uma observação a ser considerada é a impedância característica do cabo. Se o cabo for utilizado para transmissões com componentes espectrais a altas frequências, podem ocorrer reflexões do sinal em sua extremidade provocando inconsistência nos dados transmitidos. Para minimizar este efeito, deve-se adicionar resistores de terminação de valores iguais à impedância característica do cabo para que ele se comporte como um cabo infinito. Os valores típicos para essa resistência é de cerca de 120 Ω para cabos trançados, e de cerca de 54 Ω para cabos blindados. Apesar de típicos, estes valores podem ser diferentes pois dependem também dos requisitos de carga mínima dos transmissores. É importante também que existam apenas dois resistores, um em cada extremidade, que podem estar também dentro do último dispositivo conectado. Na prática, porém, para pequenas distâncias e baixas velocidades, a terminação não chega a ser algo crucial e a maioria dos circuitos funciona bem. Um outro artifício para minimizar a influência da reflexão dos sinais é por meio da redução forçada da banda passante. Isto já é feito em vários transceptores por meio de uma limitação do slew-rate.
A maioria dos sistemas com RS-485 utiliza uma arquitetura mestre/escravo para comunicação, onde apenas um único dispositivo (geralmente o PC), chamado mestre, envia periodicamente mensagens endereçadas aos escravos. Cada escravo por sua vez tem um único endereço e responde apenas a pacotes endereçados a ele. Além do mais, pode-se usar USARTS half-duplex ou full-duplex, como ilustrado pela Figura 3. Para tanto, as seguintes conexões físicas devem ser feitas:
  Half-duplex: um único par trançado em que todos os dipositivos estão conectados no mesmo cabo trançado. Dessa forma, todos eles devem possuir transceptores com saídas tri-state, incluindo o mestre. A comunicação se dá em ambas direções e é importante evitar, por software, que mais de um dispositivo tenha o seu driver da transmissão habilitado ao mesmo tempo.
  Full-duplex: usa-se dois pares trançados em que os escravos transmitem para o mestre através do segundo par trançado. Essa solução geralmente permite comunicação multiponto em sistemas que foram originalmente projetados para RS-232 com pequenas modificações no software mestre. Outro fato é que o mestre também não precisa colocar a saída do seu transceptor em estado de alta impedância.
TRASPECTORES RS-485
É possível encontrar no mercado vários transceptores de RS-485 e até circuitos prontos para determinadas aplicações. No LCVC(LARA) tem-se utilizado os integrados DS485 e ST485, da National Semiconductore STMicroeletronics, respectivamente. Estes dispositivos são bastante populares devido principalmente ao baixo custo. Entretanto, dispositivos mais caros como o LTC485 (Linear Technology) e o MAX485(Maxim) possuem outras características, tais como maiores taxas de comunicação e número de dispositivos. Estes mesmos fabricantes possuem uma linha mais extensa de dispositivos, com características de full-duplex, opto-isolamento, conversão RS232/485, etc.
A Figura 1 mostra o diagrama dos circuitos integrados DS485 e ST485. A diferença básica entre eles está somente nas suas características elétricas, bem como nas taxas de velocidade máxima: até 2,5 Mbps para o DS485 e até 30 Mbps para o ST485. O pino RE habilita o driver de recepção R, sendo ativo no nível 0. O pino DE habilita o driver de transmissão D (ativo em 1). Normalmente esses dois pinos são conectados juntos de forma que o transceptor esteja apenas recebendo ou transmitindo. Os pinos RO e DI representam saída da recepção e driver de entrada respectivamente, e trabalham com níveis lógicos TTL (0 a 5V). Já as saídas A e B para o barramento operam com tensão diferencial entre seus terminais. O transceptor normalmente é alimentado com 5V CC.
Para que um dispositivo transmita um dado pelo barramento é necessário elevar para 5V o pino DE, fazendo com que RE seja desabilitado, para então transmitir a informação necessária pelo pino DI. Com o final da transmissão, deve-se desabilitar DE e reabilitar RE, de forma que o transceptor volte ao modo de recepção. Esta habilitação pode ser feita via software, controlando pinos de um microcontrolador ou de uma porta de comunicação de um microcomputador; ou mesmo através de um hardware construído especialmente para detectar início de transmissão para o formato de dados utilizado (e.g., UART).
Um problema que pode ocorrer com um barramento RS-485 que dispõe apenas de resistores determinação é que, quando todos os dispositivos estão em modo de recepção, o nível lógico do barramento pode ficar indefinido [2]. Para garantir que o barramento fique sempre em nível lógico 1, que corresponde ao estado default NRZ das USARTs conectadas ao barramento, deve-se adicionar um resistor pull-up ao pino A e um de pull-down no pino B, conforme ilustra a Figura 4. Esses resistores devem ter valores iguais para não alterar o balancemento da linha de transmissão.
UM SIMPLES CONVERSOR RS-232/RS-485 PARA PC
Em muitos casos, em uma rede RS-485, um dos dispositivos da rede pode ser um microcomputador PC. Vários projetos desenvolvidos no LCVC (LARA) fizeram uso de microcomputador PC como mestre do barramento RS-485. As razões para isto vão desde a necessidade de coleta de dados para análise no MATLAB [5] até o controle avançado em tempo real [6]. Para tanto, faz-se necessário dispor de um transceptor RS-232/RS-485, uma vez que as portas seriais de microcomputadores PC usam o padrão físico RS-232, inclusive para controle de fluxo. Este transceptor, cujo esquemático é mostrado na Figura 5, utiliza um circuito integrado DS485 (conversor RS-485/TTL) e um circuito integrado MAX232 (conversor RS-232/TTL). A habilitação de transmissão pelo barramento RS-485 seria feito por meio do sinal RTS da porta serial do PC, também utilizando o MAX232 como interface. Se o microcomputador ficar em uma das extremidades do barramento pode-se incluir, por meio de jumpers, o resistor de terminação, e também, se for o caso, os resistores de pull-up e pull-down. A seção seguinte discutirá um software para realizar esse controle de escrita e leitura no PC em Linux.
PROTOCOLOS E CONFIGURAÇÕES DE SOFTWARE
Pelo fato da grande maioria dos dipositivos possuírem UARTs e quando taxas de até 115200 bps são suficientes para a aplicação em questão, o formato de dados NRZ comum em UARTs é uma boa opção para sincronização de bits, quando da utilização de transmissão assíncrona (ver Figura 6). De acordo com o modelo OSI, este é ainda um aspecto da parte física de uma rede de comunicação, e que ainda não garante a idoneidade dos dados transmitidos. Para tanto, faz-se necessário empregar um protocolo de comunicação. Quando se refere a sistemas embarcados micro controlados, estes protocolos implementam em geral a camada de enlace. Um protocolo bastante empregado na indústria é o MODBUS. No LCVC (LARA), muitos trabalhos são realizados a partir do protocolo descrito em.
Considerações para o projeto de protocolos
Quando deseja implementar seu próprio protocolo, um projetista deve levar em conta alguns aspectos. Na verdade, a definição do protocolo depende fortemente da aplicação. Se for utilizada a arquitetura mestre/escravo, em que cada escravo tem um endereço único e responde apenas a pacotes endereçados a ele, o protocolo torna-se simplificado, visto que elimina a necessidade de algoritmos de detecção de colisão, re-transmissão e algoritmos complicados de controle de acesso ao meio presentes em alguns sistemas distribuídos. Mesmo assim, o formato das mensagens deve levar em conta a aplicação. Por exemplo, se as informações de interesse trafegam no sentido dos escravos para o mestre, o mestre pode apenas enviar um byte contendo o endereço e um comando para o escravo, e este poderá responder com um ou mais bytes. Uma sugestão quando se tem mensagens que variam de tamanho é a utilização de um cabeçalho de um ou dois bytes, por exemplo contendo, além do endereço e um comando, o tamanho da mensagem que está sendo transmitida. Um byte de CRC também pode ser anexado ao final da mensagem como medida da integridade da mensagem. Este é o formato usado no MODBUS.
Algumas precauções devem ser tomadas quando utliza-se a arquitetura mestre/escravo. Se for desejada a propriedade plug-and-play ao sistema, pode ser interessante que o mestre, quando não tiver solicitando informações dos escravos já detectados, possa varrer o barramento enviando mensagens de checagem para detectar (i) a retirada de um dispositivo da rede e (ii) a entrada de um novo dispositivo. Também pode-se definir mensagens de broadcast, para as quais todos os escravos recebem a mesma informação do mestre, que pode ser uma configuração geral ou sincronização de relógios. O mestre também deve sempre esperar a resposta do escravo antes de enviar outro pacote, afim de evitar colisões. O projetista deve também considerar alguma falha que possa ocorrer no sistema, seja na transmissão ou nos dispositivos da rede. Assim o mestre não pode ficar indefinidamente esperando uma resposta de um escravo, nem o escravo do mestre. Se isto ocorrer, tem-se uma situação de bloqueio do sistema. Ao invés disso, deve-se estipular um tempo de espera máximo para chegada de uma mensagem de retorno (se o mestre solicitou uma do escravo) ou de conclusão da mensagem (mestre ou escravo). Este cuidado deve ser levado em conta também caso uma mensagem chegue incompleta, devendo-se aguardar um tempo limitado por cada byte esperado. Em situações de falha na comunicação, sugere-se que o dispositivo descarte a mensagem parcialmente recebida ou com erro de CRC, sinalizando ao mestre esta situação. Em geral isto é feito por meio de uma mensagem de reconhecimento (ACK). Se tal mensagem não for enviada por quem recebeu a mensagem, então o dispositivo que a enviou pode concluir que houve falha de comunicação. Nestes casos, pode-se tentar retransmitir a mensagem até um certo número de vezes. Se a falha se mantiver, então conclui-se que o dispositivo está em falha permanente.
Controle de acesso por software ao barramento RS-485
No caso de microcontroladores ligados diretamente ao transceptor de 485 ou no caso de utilização do conversor RS-232/RS-485 com controle pelo RTS, o procedimento de acesso ao barramento para escrita é feito por software. Em ambos os casos é preciso setar o pino DE do transceptor antes da transmissão e mantê-lo em nível alto até o fim da mesma.
Em microcontroladores esse procedimento torna-se bem simples, dada a facilidade em se ativar e desativar uma das saídas digitais, e também porque a maioria dos microcontroladorescom UART possuem interrupções para indicar o fim de uma transmissão, que ocorre quando o buffer de transmissão fica vazio.
Já em microcomputadores PC o procedimento é o mesmo, sendo que o controle é feito pelo pino RTS da porta serial. Se a aplicação for desenvolvida em linguagem C, por exemplo, o acesso a saída RTS pode ser feito utilizando a API do sistema operacional, inclusive para espera do fim da transmissão. Ao passar por APIs, o programa pode ter comportamento pouco determinístico, principalmente em se tratando de sistemas operacionais que não sejam tempo real. Isto ainda fica pior com o Windows, que com as versões 2000/XP impossibilitaram o acesso ao hardware por programas que se executam no modo usuário. O mesmo somente pode ser feito no modelo kernel via device drivers. Para tanto, existem alguns device drivers para acesso ao hardware tais como GiveIO1 ou PortTalk2. Entretanto, o tempo necessário para troca de informações do software do usuário com o device driver é ainda não determinístico, dificultando, por exemplo, o tempo máximo de espera por uma mensagem.
TCP/IP
O TCP/IP é um conjunto de protocolos de comunicação entre computadores em rede ,(também chamado de pilha de protocolos TCP/IP). Seu nome vem de dois protocolos: o TCP (Transmission Control Protocol - Protocolo de Controle de Transmissão) e o IP (Internet Protocol - Protocolo de Interconexão). O conjunto de protocolos pode ser visto como um modelo de camadas, onde cada camada é responsável por um grupo de tarefas, fornecendo um conjunto de serviços bem definidos para o protocolo da camada superior. As camadas mais altas estão logicamente mais perto do usuário (chamada camada de aplicação) e lidam com dados mais abstratos, confiando em protocolos de camadas mais baixas para tarefas de menor nível de abstração.
HISTÓRIA DO TCP/IP
O TCP/IP foi desenvolvido em 1969 pelo U.S. Departament of Defense Advanced Research Projects Agency, como um recurso para um projeto experimental chamado de ARPANET (Advanced Research Project Agency Network) para preencher a necessidade de comunicação entre uma grande quantidade de sistemas de computadores e várias organizações militares dispersas. O objetivo do projeto era disponibilizar links (vínculos) de comunicação com alta velocidade, utilizando redes de comutação de pacotes. O protocolo deveria ser capaz de identificar e encontrar a melhor rota possível entre dois sites(locais), além de ser capaz de procurar rotas alternativas para chegar ao destino, caso qualquer uma das rotas tivesse sido destruída. O objetivo principal da elaboração de TCP/IP foi na época, encontrar um protocolo que pudesse tentar de todas as formas uma comunicação caso ocorresse uma guerra nuclear.A partir de 1972 o projeto ARPANET começou crescer em uma comunidade internacional e hoje se transformou no que conhecemos como Internet. Em 1983 ficou definido que todos os computadores conectados ao ARPANET passariam a utilizar o TCP/IP. No final dos anos 80 o Fundação nacional de Ciências em Washington, D.C, começou construir o NSFNET, um backbone para um supercomputador que serviria para interconectar diferentes comunidades de pesquisa e também os computadores da ARPANET. Em 1990 o NSFNET se tornou o backbone principal das redes para a Internet, padronizando definitivamente o TCP/IP.
BENEFÍCIOS DO PROTOCOLO TCP/IP
O TCP/IP sempre foi considerado um protocolo bastante pesado, exigindo muita memória e hardware para ser utilizado. Com o desenvolvimento das interfaces gráficas, com a evolução dos processadores e com o esforço dos desenvolvedores de sistemas operacionais em oferecer o TCP/IP para as suas plataformas com performance igual ou às vezes superior aos outros protocolos, o TCP/IP se tornou um protocolo indispensável. Hoje ele é tido como “The Master of the Network” (O Mestre das Redes), pois a maioria das LANs exige a sua utilização para acesso ao mundo externo. O TCP/IP oferece alguns benefícios, dentre eles:
         Padronização: Um padrão, um protocolo roteável que é o mais completo e aceito protocolo disponível atualmente. Todos os sistemas operacionais modernos oferecem suporte para o TCP/IP e a maioria das grandes redes se baseia em TCP/IP para a maior parte de seu tráfego.
         Interconectividade: Uma tecnologia para conectar sistemas não similares. Muitos utilitários padrões de conectividade estão disponíveis para acessar e transferir dados entre esses sistemas não similares, incluindo FTP (File Transfer Protocol) e Telnet (TerminalEmulation Protocol).
         Roteamento: Permite e habilita as tecnologias mais antigas e as novas se conectarem à Internet. Trabalha com protocolos de linha como PPP (Point to Point Protocol) permitindo conexão remota a partir de linha discada ou dedicada. Trabalha como os mecanismos IPCs e interfaces mais utilizados pelos sistemas operacionais, como Windows Sockets e NetBIOS.
         Protocolo robusto: Escalável, multiplataforma, com estrutura para ser utilizada em sistemas operacionais cliente/servidor, permitindo a utilização de aplicações desse porte entre dois pontos distantes.
         Internet: É através da suíte de protocolos TCP/IP que obtemos acesso a Internet. As redes locais distribuem servidores de acesso a Internet (proxy servers) e os hosts locais se conectam a estes servidores para obter o acesso a Internet. Este acesso só pode ser conseguido se os computadores estiverem configurados para utilizar TCP/IP
CAMADAS DA PILHA DOS PROTOCOLOS INTERNET
O modelo TCP/IP de encapsulamento busca fornecer abstração aos protocolos e serviços para diferentes camadas de uma pilha de estruturas de dados (ou simplesmente pilha).
No caso do modelo inicial do TCP/IP, a pilha possuía quatro camadas:
	Camada
	Exemplo
	4 - Aplicação
(5ª, 6ª e 7ª camada OSI)
	HTTP, HTTPS, FTP, DNS, RTP
Essa parte contem todos os protocolos para um serviço específico de comunicação de dados em um nível de processo-a-processo (por exemplo: como um web browser deve se comunicar com um servidor da web). [protocolos de routing como BGP e RIP, que, por uma variedade de razões, são executados sobre TCP e UDP respectivamente, podem também ser considerados parte da camada de aplicação]
	3 - Transporte
(4ª camada OSI)
	TCP, UDP, SCTP
Essa parte controla a comunicação host-a-host. [protocolos como OSPF, que é executado sobre IP, podem também ser considerados parte da camada de rede]
	2 - Internet
(3ª camada OSI)
	Para TCP/IP o protocolo é IP, MPLS
Essa parte é responsável pelas conexões entre as redes locais, estabelecendo assim a interconexão. [protocolos requeridos como ICMP e IGMP é executado sobre IP, mas podem ainda ser considerados parte da camada de rede; ARP não roda sobre IP]
	1 - Rede (Interface com Rede)
(1ª e 2ª camada OSI)
	Essa é a parte conhecida como física pois trata-se das tecnologias usadas para as conexões como: Ethernet, Wi-Fi,Modem, etc. No modelo OSI, essa camada também é física, porém, é dividido em duas partes: física e enlace de dados. A física é a parte do hardware e a enlace de dados é a parte lógica do hardware; mac address.
As camadas mais próximas do topo estão logicamente mais perto do usuário, enquanto aquelas mais abaixo estão logicamente mais perto da transmissão física do dado. Cada camada tem um protocolo de camada acima e um protocolo de camada abaixo (exceto as camadas da ponta, obviamente) que podem usar serviços de camadas anteriores ou fornecer um serviço, respectivamente.
Enxergar as camadas como fornecedores ou consumidores de serviço é um método de abstração para isolar protocolos de camadas acima dos pequenos detalhes de transmitir bits através, digamos, de ethernet, e a detecção de colisão enquanto as camadas abaixo evitam ter de conhecer os detalhes de todas as aplicações e seus protocolos.
Essa abstração também permite que camadas de cima forneçam serviços que as camadas de baixo não podem fornecer. Por exemplo, o IP é projetado para não ser confiável e é um protocolobest effort delivery.Isso significa que toda a camada de transporte deve indicar se irá ou não fornecer confiabilidade e em qual nível.
O TCP (Transmission Control Protocol - Protocolo de Controle de Transmissão),é um protocolo orientado a conexões confiável que permite a entrega sem erros de um fluxo de bytes.
O UDP fornece integridade de dados (via um checksum), mas não fornece entrega garantida; já o TCP fornece tanto integridade dos dados quanto garantia de entrega (retransmitindo até que o destinatário receba o pacote).
Device Net
DeviceNet é uma rede de campo que executa facilmente as conexões entre dispositivos de controle mútuo, tais como CLPs, computadores e sensores, bem como dispositivos de dados, como leitores de código de barras e sistemas RFID.
DeviceNet é uma rede padronizada que permite o controle inteligente de dispositivos de campo e melhora a produtividade do sistema.
CAN BUS - BARRAMENTO CONTROLLER AREA NETWORK
HISTÓRICO
O CAN Bus (ou Barramento Controller Area Network) foi desenvolvido pela empresa alemã Robert BOSCH e disponibilizado em meados dos anos 80. Sua aplicação inicial foi realizada em ônibus e caminhões. Atualmente, é utilizado na indústria, em veículos automotivos, navios e tratores, entre outros.
CONCEITUAÇÃO BÁSICA
O CAN é um protocolo de comunicação serial síncrono. O sincronismo entre os módulos conectados a rede é feito em relação ao início de cada mensagem lançada ao barramento (evento que ocorre em intervalos de tempo conhecidos e regulares).
Trabalha baseado no conceito multi-mestre, onde todos os módulos podem se tornar mestre em determinado momento e escravo em outro, além de suas mensagens serem enviadas em regime multicast, caracterizado pelo envio de toda e qualquer mensagem para todos os módulos existentes na rede.
Outro ponto forte deste protocolo é o fato de ser fundamentado no conceito CSMA/CD with NDA (Carrier Sense Multiple Access/Collision Detection with Non-Destructive Arbitration). Isto significa que todos os módulos verificam o estado do barramento, analisando se outro módulo está ou não enviando mensagens com maior prioridade. Caso isto seja percebido, o módulo cuja mensagem tiver menor prioridade cessará sua transmissão e o de maior prioridade continuará enviando sua mensagem deste ponto, sem ter que reiniciá-la.
Outro conceito bastante interessante é o NRZ (Non Return to Zero), onde cada bit (0 ou 1) é transmitido por um valor de tensão específico e constante.
A velocidade de transmissão dos dados é inversamente proporcional ao comprimento do barramento. A maior taxa de transmissão especificada é de 1Mbps considerando-se um barramento de 40 metros. A Figura 1 representa a relação entre o comprimento da rede (barramento) e a taxa de transmissão dos dados.
Figura 1
Considerando-se fios elétricos como o meio de transmissão dos dados, existem três formas de se constituir um barramento CAN, dependentes diretamente da quantidade de fios utilizada. Existem redes baseadas em 1, 2 e 4 fios. As redes com 2 e 4 fios trabalham com os sinais de dados CAN_H (CAN High) e CAN_L (CAN Low). No caso dos barramentos com 4 fios, além dos sinais de dados, um fio com o VCC (alimentação) e outro com o GND (referência) fazem parte do barramento, levando a alimentação às duas terminações ativas da rede. As redes com apenas 1 fio têm este, o fio de dados, chamado exclusivamente de linha CAN.
Considerando o CAN fundamentado em 2 e 4 fios, seus condutores elétricos devem ser trançados e não blindados. Os dados enviados através da rede devem ser interpretados pela análise da diferença de potencial entre os fios CAN_H e CAN_L. Por isso, o barramento CAN é classificado como Par Trançado Diferencial. Este conceito atenua fortemente os efeitos causados por interferências eletro-magnéticas, uma vez que qualquer ação sobre um dos fios será sentida também pelo outro, causando flutuação em ambos os sinais para o mesmo sentido e com a mesma intensidade. Como o que vale para os módulos que recebem as mensagens é a diferença de potencial entre os condutores CAN_H e CAN_L (e esta permanecerá inalterada), a comunicação não é prejudicada.
No CAN, os dados não são representados por bits em nível “0” ou nível “1”. São representados por bits Dominantes e bits Recessivos, criados em função da condição presente nos fios CAN_H e CAN_L. A Figura 2 ilustra os níveis de tensão em uma rede CAN, assim como os bits Dominantes e Recessivos.
Figura 2
Como mencionado no início, todos os módulos podem ser mestre e enviar suas mensagens. Para tanto, o protocolo é suficientemente robusto para evitar a colisão entre mensagens, utilizando-se de uma arbitragem bit a bit não destrutiva. Podemos exemplificar esta situação, analisando o comportamento de dois módulos enviando, ao mesmo tempo, mensagens diferentes. Após enviar um bit, cada módulo analisa o barramento e verifica se outro módulo na rede o sobrescreveu (vale acrescentar que um bit Dominante sobrescreve eletricamente um Recessivo). Um módulo interromperá imediatamente sua transmissão, caso perceba que existe outro módulo transmitindo uma mensagem com prioridade maior (quando seu bit recessivo é sobrescrito por um dominante). Este módulo, com maior prioridade, continuará normalmente sua transmissão.
FORMATOS DAS MENSAGENS
Existem dois formatos de mensagens no protocolo CAN:
CAN 2.0A – Mensagens com identificador de 11 bits. É possível ter até 2048 mensagens em uma rede constituída sob este formato, o que pode caracterizar uma limitação em determinadas aplicações. A Figura 3 apresenta o quadro de mensagem do CAN 2.0A.
Figura 3
CAN 2.0B – Mensagens com identificador de 29 bits. É possível ter, aproximadamente, 537 milhões de mensagens em uma rede constituída sob este formato. Percebe-se que a limitação em virtude da quantidade de mensagens não mais existe. Por outro lado, o que pode ser observado em alguns casos é que, os 18 bits adicionais no identificador aumentam o tempo de transmissão de cada mensagem, o que pode caracterizar um problema em determinadas aplicações que trabalhem em tempo-real (problema conhecido como overhead). A Figura 4 apresenta o quadro de mensagem do formato CAN 2.0B.
Figura 4
PADRÕES EXISTENTES
Os fundamentos do CAN são especificados por duas normas: a ISO11898 e a ISO11519-2. A primeira, ISO11898, determina as características de uma rede trabalhando com alta velocidade de transmissão de dados (de 125Kbps a 1Mbps). A segunda, ISO11519-2, determina as características de uma rede trabalhando com baixa velocidade (de 10Kbps a 125Kbps).
Ambos os padrões especificam as camadas Física e de Dados, respectivamente 1 e 2 se considerado o padrão de comunicação OSI de 7 camadas (ISO7498). As demais camadas, da 3 à 7, são especificadas por outros padrões, cada qual relacionado a uma aplicação específica.
Existem diversos padrões fundamentados no CAN, dentre os quais podemos destacar:
NMEA 2000: Baseado no CAN 2.0B e utilizado em aplicações navais e aéreas. 
SAE J1939: Baseado no CAN 2.0B e utilizado em aplicações automotivas, especialmente ônibus e caminhões. 
DIN 9684 – LBS: Baseado no CAN 2.0A e utilizado em aplicações agrícolas. 
ISO 11783: Baseado no CAN 2.0B e também utilizado em aplicações agrícolas.
  
Estes padrões especificam o equivalente às camadas de Rede (3), Transporte (4), Sessão (5), Apresentação (6) e Aplicação (7), do padrão OSI, incluindo-se as mensagens pertinentes ao dicionário de dados de cada aplicação em especial.
DETECÇÃO DE FALHAS
Algumas das maiores vantagens do CAN é a sua robustez e a capacidade de se adaptar às condições de falha, temporárias e/ou permanentes. Podemos classificar as falhas de uma rede CAN em três categorias ou níveis: Nível de Bit, Nível de Mensagem e Nível Físico.
Nível de Bit – Possui dois tipos de erro possíveis:
Bit Monitoring: Após a escrita de um bit dominante, o módulo transmissor verifica o estado do barramento. Se o bit lido forrecessivo, significará que existe um erro no barramento.
Bit Stuffing: Apenas cinco bits consecutivos podem ter o mesmo valor (dominante ou recessivo). Caso seja necessário transmitir seqüencialmente seis ou mais bits de mesmo valor, o módulo transmissor inserirá, imediatamente após cada grupo de cinco bits consecutivos iguais, um bit de valor contrário. O módulo receptor ficará encarregado de, durante a leitura, retirar este bit, chamado de Stuff Bit. Caso uma mensagem seja recebida com pelo menos seis bits consecutivos iguais, algo de errado terá ocorrido no barramento.
  
Nível de Mensagem – São três os tipos de erro possíveis:
CRC ou Cyclic Redundancy Check: Funciona como um checksum. O módulo transmissor calcula um valor em função dos bits da mensagem e o transmite juntamente com ela. Os módulos receptores recalculam este CRC e verificam se este é igual ao transmitido com a mensagem.
Frame Check: Os módulos receptores analisam o conteúdo de alguns bits da mensagem recebida. Estes bits (seus valores) não mudam de mensagem para mensagem e são determinados pelo padrão CAN.
Acknowledgment Error Check: Os módulos receptores respondem a cada mensagem íntegra recebida, escrevendo um bit dominante no campo ACK de uma mensagem resposta que é enviada ao módulo transmissor. Caso esta mensagem resposta não seja recebida (pelo transmissor original da mensagem), significará que, ou a mensagem de dados transmitida estava corrompida, ou nenhum módulo a recebeu.
Toda e qualquer falha acima mencionada, quando detectada por um ou mais módulos receptores, fará com que estes coloquem uma mensagem de erro no barramento, avisando toda a rede de que aquela mensagem continha um erro e que o transmissor deverá reenviá-la.
Além disso, a cada mensagem erroneamente transmitida ou recebida, um contador de erros é incrementado em uma unidade nos módulos receptores, e em oito unidades no transmissor. Módulos com estes contadores iguais a zero são considerados Normais. Para os casos em que os contadores contêm valores entre 1 e 127, os módulos são considerados Error Active. Contadores contendo valores entre 128 e 255 colocam os módulos em condição de Error Passive. Finalmente, para contadores contendo valores superiores a 255, os módulos serão considerados em Bus Off e passarão a não mais atuar no barramento. Estes contadores também são decrementados a medida que mensagens corretas são recebidas, o que reduz o grau de incerteza em relação a atividade dos módulos ora com contadores contendo valores diferentes de zero e possibilita novamente a plena participação deles no barramento.
  
Nível Físico – Para os barramentos com 2 e 4 fios, caso algo de errado venha a ocorrer com os fios de dados CAN_H e CAN_L, a rede continuará operando sob uma espécie de modo de segurança. Seguem abaixo algumas das condições de falha nas linhas de comunicação que permitem a continuidade das atividades da rede:
Curto do CAN_H (ou CAN_L) para GND (ou VCC);
Curto entre os fios de dados CAN_H e CAN_L;
Ruptura do CAN_H (ou CAN_L);
ASPECTOS DE IMPLEMENTAÇÃO: DICIONÁRIO DE DADOS
É a parte mais dedicada à aplicação quando se trabalha com um protocolo como o CAN. O Dicionário de Dados (ou Data Dictionary) é o conjunto de mensagens que podem ser transmitidas naquela determinada rede.
A forma mais interessante de se organizar um dicionário de dados é criando uma matriz com todos os módulos da rede. Esta matriz mostrará cada mensagem sob a responsabilidade de cada módulo, relacionando quem a transmite e quem a recebe. Outros dados importantes nesta matriz são: o tempo de atualização dos valores da mensagem, o intervalo de transmissão da mesma e o valor relativo ao seu identificador. Além desta matriz, a documentação referente ao Dicionário de Dados deverá conter uma descrição detalhada de cada mensagem, bit a bit.
O Dicionário de Dados é implementado numa rede CAN via software e deverá ser o mesmo (ter a mesma versão de atualização, inclusive) em todos os módulos conectados à rede. Isto garantirá total compatibilidade entre os participantes do barramento.
ASPECTOS DE IMPLEMENTAÇÃO: EXEMPLO DE REDE
Uma rede CAN, dependendo da sua aplicação, poderá ter até centenas de módulos conectados. O valor máximo para a conexão de módulos em um barramento depende da norma que se utiliza na dada aplicação.
Toda rede CAN possui 2 Terminadores. Estes terminadores nada mais são que resistores com valores entre 120 e 124 ohms, conectados à rede para garantir a perfeita propagação dos sinais elétricos pelos fios da mesma. Estes resistores, um em cada ponta da rede, garantem a reflexão dos sinais no barramento e o correto funcionamento da rede CAN.
Outra característica de determinadas aplicações fundamentadas no CAN é que estas poderão ter duas ou mais sub-redes trabalhando, cada qual, em uma velocidade diferente. Os dados são transferidos de uma sub-rede para a outra através de módulos que atuam nas duas sub-redes. Estes módulos são chamados de Gateways.
A Figura 5 ilustra a rede CAN de um sistema automotivo, com duas sub-redes e dois terminadores. O Gateway desta aplicação é o Painel de Instrumentos.
Figura 5
ASPECTOS DE IMPLEMENTAÇÃO: MONTAGEM DA REDE
Barramento é o termo técnico que representa os condutores elétricos das linhas de comunicação e a forma como eles são montados. Apesar de parecer simples, o ato de interligar os módulos requer bastante atenção.
Sobre o cabeamento necessário, considerando-se uma aplicação CAN de dois fios, deve-se utilizar par trançado onde a secção transversal de cada um dos fios deve ser de no mínimo 0,35mm².
As duas terminações (resistores de aproximadamente 120 ohms), do ponto de vista teórico, podem ser instaladas nas extremidades do chicote, diretamente nos fios de dados CAN_H e CAN_L. Do ponto de vista prático isto é extremamente complexo. O que deve ser feito é adicionar as terminações nas duas ECUs (Unidades Eletrônicas de Controle) conectadas aos extremos da rede. Se as ECUs forem montadas dependendo dos opcionais do veículo, deve-se procurar instalar as terminações nas ECUs que sempre estarão presentes nele (veículo). As terminações são mandatórias numa rede CAN.
No momento de se projetar o roteamento do barramento, algumas regras em relação ao comprimento dos chicotes devem ser observadas. O sincronismo das operações das ECUs no CAN é fundamentado no tempo de propagação física das mensagens no barramento. Assim, a relação do comprimento de determinados intervalos do chicote no barramento são fundamentais ao bom funcionamento da rede.
A Figura 6 mostra um diagrama que ilustra as medidas que devem ser observadas no desenvolvimento do chicote.
Figura 6
Destacamos que, após o barramento ser montado, caso seja necessário qualquer retrabalho no mesmo, é aconselhável a troca do chicote elétrico danificado. Emendas poderão alterar a impedância característica da rede e com isso afetar o seu funcionamento.
PROFIBUS
Histórico
PROFIBUS (acrónimo de Process Field Bus) é o 2º tipo mais popular sistema de comunicação em rede Fieldbus ficando atrás somente do protocolo Modbus, sendo que em 2004, estimava-se que existiriam mais de 10 milhões de nós instalados mundialmente.
O PROFIBUS foi desenvolvido em 1987 por Johan Sartwish Wilman, em São Petersburgo.
Existem três diferentes versões de PROFIBUS:
         PROFIBUS-DP (Decentralized Peripherals) esse protocolo foi a primeira versão criada. Indicada para o chão de fábrica, onde há um volume de informações grande e há a necessidade de uma alta velocidade de comunicação para que os eventos sejam tratados num tempo adequado.
         PROFIBUS-FMS (Fieldbus Message Specification) esta versão é uma evolução do Profibus DP e destina-se a comunicação ao nível de células (nível onde se encontram os PLCs). O FMS é tão poderoso que pode suportar o volume de dados até o nível gerencial, mesmo que isso não seja indicado.
         PROFIBUS-PA (Process Automation) é a versão

Outros materiais