A maior rede de estudos do Brasil

Grátis
204 pág.
LIVRO_TELECOMUNICAÇÕES

Pré-visualização | Página 6 de 46

muito penosa a comunicação entre pessoas de cidades diferentes 
antes da tecnologia, sendo possível apenas por meios muito lentos. A vida 
dos cidadãos melhorou bastante após o surgimento das comunicações 
por longa distância, proporcionando um aumento incrível na entrega de 
mensagens e uma difusão do acesso a este serviço nunca vista antes. No 
entanto, a partir de um momento, algo bastante interessante começa 
a acontecer. As pessoas passam a compartilhar a infraestrutura de 
comunicação com entidades não humanas. Hoje, a comunicação entre 
máquinas é algo bastante comum e foi proporcionada pela evolução 
dos sistemas de automação e inteligência artificial. Um exemplo é o 
sistema de rede elétrica inteligente que combina a ação de vários agentes 
inteligentes para fazer o sistema operar de forma mais eficiente. Em um 
futuro não muito distante, espera-se que motoristas humanos deixem 
de dirigir para ceder o lugar aos sistemas autônomos que irão utilizar a 
comunicação para dirigir e, possivelmente, reduzir os casos de acidente 
de trânsito ao mínimo, de acordo com Weyrich, Schmidt e Ebert (2014).
U1 - Introdução às telecomunicações 25
o histórico das telecomunicações que nos permitiram entender a 
relação íntima entre o conhecimento da eletricidade e o consecutivo 
desenvolvimento dos modernos sistemas de comunicação. A 
operação de sistemas de comunicação só é possível devido à 
existência e inter-relação entre os seguintes ramos da eletricidade:
• Engenharia elétrica - é o principal responsável pela geração de 
energia elétrica, transporte e distribuição. Este ramo lida com o 
conhecimento de diversos tipos de fonte de energia, dispositivos 
que transformam energia em trabalho e outras utilidades para o 
ser humano.
• Engenharia eletrônica - poderia ser considerado o coração 
dos sistemas de comunicação. Todos os dispositivos para 
comunicação por longa distância utilizam quase em sua 
totalidade componentes eletrônicos. A evolução da engenharia 
eletrônica foi e permanece crucial para difundir e facilitar o 
acesso às comunicações.
• Engenharia da computação - a computação é fundamental 
para possibilitar o gerenciamento do tráfego de informações na 
infraestrutura da rede de dados. Quando o aumento do número 
de terminais para se comunicarem tornou-se muito complexo, 
a capacidade de gerenciamento dos computadores tornou-se 
uma opção muito viável para resolver este problema.
Assimile
É importante que você relembre, ou, se não conhece, assimile, alguns 
conceitos frequentemente utilizados no campo das comunicações. 
Começando por componentes elétrico/eletrônicos, os mais comuns 
são: resistor, indutor e capacitor. Pelo fato de dissiparem energia, 
são classificados como componentes passivos. Os dispositivos 
semicondutores são componentes eletrônicos especiais, tais como 
diodo, transistor e circuito integrado. Estes são classificados como 
componentes ativos e realizam funções como amplificação e 
chaveamento. Muitas vezes, circuitos semicondutores complexos são 
encapsulados em uma forma chamada de circuito integrado (CI). Um CI 
pode integrar um número grande de componentes discretos.
Outro conceito importante é o da diferença entre sinais analógicos 
e digitais. Sinais físicos ou de informação podem ser representados 
U1 - Introdução às telecomunicações26
por variações de tensão elétrica no tempo. O sinal analógico tem 
representação contínua e sua forma tem uma relação mais direta com o 
sinal físico. A captação/reprodução analógica é simples e não necessita 
de um processo de conversão complexo. Já o sinal digital é uma versão 
codificada do sinal original em símbolos de um e zero. O processo 
de conversão é mais complexo, exigindo circuitos digitais especiais. A 
vantagem do sinal digital em relação ao analógico é a robustez contra 
ruído, de acordo com Medeiros (2007).
Agora, podemos nos aprofundar no entendimento do conceito 
de informação. Como dissemos anteriormente, a informação é um 
produto abstrato e é compartilhado por “entidades” que utilizam 
os sistemas de comunicação. Na verdade, a ideia de informação 
vai além e possui inclusive um ramo da ciência dedicado a estudar 
suas propriedades: a teoria da informação. O primeiro estudioso a 
estabelecer as bases para a teoria da informação foi Claude Shannon 
e os aperfeiçoamentos feitos por outros pesquisadores foram uma 
resposta definitiva à necessidade de projetar sistemas de comunicação 
eficientes e confiáveis. Claude Shannon dedicou-se a resolver o 
problema sobre qual era a melhor maneira para um emissor codificar 
a informação e transmiti-la a um receptor. Ele chegou à conclusão 
de que uma comunicação eficiente de uma fonte para um usuário 
final é obtida por meio da codificação da fonte. Uma comunicação 
confiável por um canal com ruído é conseguida pela codificação que 
possibilita o controle de erros, conforme aponta Cover (2006). 
Muitas vezes, sistemas de comunicação, sejam fontes de 
informação, sejam canais físicos, não revelam pistas sobre como 
melhorar a transmissão, e o uso de modelagem matemática 
pode prover resposta para questões fundamentais. Por exemplo, 
muitas vezes pessoas falam de forma redundante: “subir para cima” 
ou “descer para baixo”. Além de representar o uso incorreto da 
linguagem formal, revela que muitas vezes se transmite mais que o 
necessário, ou seja, a informação pode ser redundante. Isso nos faz 
pensar se existe uma forma irredutível abaixo da qual um sinal não 
pode ser comprimido e é uma questão que a teoria da informação 
investiga. Além disso, no processo de transmissão de mensagem, a 
informação é frequentemente corrompida por um processo aleatório 
U1 - Introdução às telecomunicações 27
que chamamos de ruído. Assim, outra questão é conhecer a taxa de 
transmissão para uma comunicação confiável por meio de um canal 
ruidoso. Estas questões são respondidas pelo conceito de entropia 
de uma fonte e pela capacidade de um canal, de acordo com Haykin 
(2004). 
A entropia é uma medida amplamente utilizada em sistemas de 
comunicação para medir o grau médio de incerteza em relação às 
fontes de informação. Essa medida possibilita conhecer a quantidade 
de informação que transita em um sistema. Considerando que haja 
certa ocorrência da transmissão de mensagens, a entropia evidencia 
que quanto mais incerto for o resultado desta ocorrência, maior é a 
informação que se obtém ao observá-la. A noção de entropia parece 
ser bastante contraintuitiva, mas tem fundamento muito importante. 
Já a capacidade é definida como a habilidade intrínseca de um canal 
para transportar informação. A capacidade máxima de um canal é 
influenciada pelas características de ruído do canal. Quando se 
relaciona o conceito de entropia e capacidade de canal, um resultado 
notável pode ser observado. Se a entropia da fonte for menor do que 
a capacidade do canal, então uma comunicação isenta de erros será 
possível. Esta é uma das conclusões mais importantes da teoria da 
informação, segundo Haykin (2004).
A partir de agora, poderemos apresentar e discutir sobre os 
componentes básicos de um sistema de comunicação. De maneira 
fundamental, temos que a comunicação da informação deve ser 
transmitida de um ponto a outro por um conjunto de processos. O 
Exemplificando
Para conseguir uma comunicação isenta de erros, é necessário utilizar 
codificação de fonte e de canal. Começa-se pela codificação da fonte de 
informação reduzindo-se a redundância dos dados, isto é, encontrar uma 
forma irredutível abaixo da qual um sinal não pode ser comprimido. Em 
seguida, utiliza-se a codificação de canal que vai aumentar a redundância 
para proteger a informação que está encapsulada no código. Quando os 
dados atravessam o canal físico, o qual contém ruído, parte da informação 
recebida está corrompida. Devido à aplicação de codificação de canal, 
é possível