Buscar

Artigo Shannon - Traduzido - Atividade 2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

História
Claude Shannon: seu trabalho e seu legado 1
Michelle Effros (Instituto de Tecnologia da Califórnia, EUA) e H. Vincent Poor (Universidade de Princeton, EUA)
O ano de 2016 marcou o centenário do nascimento de Claude 
Elwood Shannon, aquele gênio singular cuja mente fértil deu origem 
ao campo da teoria da informação. Além de fornecer uma fonte de 
problemas matemáticos elegantes e intrigantes, este campo também 
teve um profundo impacto em outros campos da ciência e da 
engenharia, notadamente comunicações e computação, entre muitos 
outros. Embora a vida desse homem notável tenha sido recontada 
em outro lugar, neste artigo procuramos fornecer uma visão geral de 
suas principais contribuições científicas e seu legado no mundo de 
hoje. Esta é uma tarefa invejável e nada invejável. É invejável, claro, 
porque é uma história maravilhosa; não é invejável porque exigiria 
muito para dar a este assunto o devido. Mesmo assim,
Para abordar esta tarefa, dividimos o trabalho de Shannon em 10 
áreas temáticas:
- Capacidade do canal
- Codificação de canal
- Canais multiusuário
- Codificação de rede
- Código fonte
- Teste de detecção e hipótese
- Aprendizagem e Big Data
- Complexidade e combinatória
- Sigilo
- Formulários
Descreveremos cada um brevemente, tanto em termos da própria 
contribuição de Shannon quanto em termos de como os conceitos iniciados 
por Shannon influenciaram o trabalho nas décadas seguintes. Por 
necessidade, faremos uma abordagem minimalista nesta discussão. 
Pedimos desculpas pelos muitos tópicos e aspectos desses problemas que 
devemos necessariamente omitir.
a comunicação é possível mesmo em face de ruído e a demonstração de que 
um canal tem uma taxa máxima inerente na qual pode fornecer informações de 
forma confiável são, sem dúvida, as contribuições mais importantes de Shannon 
para o campo. Esses conceitos foram apresentados pela primeira vez em seu 
artigo fundamental de 1948. Ele desenvolveu ainda mais essas ideias ao longo 
da década de 1950 e até mesmo na década de 1960, examinando a capacidade 
de canais específicos, observando os efeitos do feedback e outras 
características das redes de comunicação existentes e também, porque a 
capacidade em sua visão é uma quantidade assintótica, procurando maneiras 
em que essa assíntota é alcançada.
Desde o trabalho original de Shannon, a noção de capacidade 
evoluiu em várias direções. Por exemplo, a noção tradicional de 
capacidade foi generalizada para remover muitas das suposições 
simplificadoras originais de Shannon. Além disso, a noção de 
capacidade foi expandida para capturar outras noções de comunicação. 
Por exemplo, a capacidade de identificação foi introduzida para medir o
Capacidade do canal
Pela própria caracterização de Shannon: “O problema fundamental da 
comunicação é o de reproduzir em um ponto exatamente ou 
aproximadamente uma mensagem selecionada em outro ponto.” O canal 
é o meio - fio, cabo, ar, água, etc. - por meio do qual essa comunicação 
ocorre. Freqüentemente, o canal transmite informações de uma forma 
ruidosa ou imperfeita. A noção de que verdadeiramente confiável
1 Este artigo foi adaptado de uma palestra apresentada na Conferência Bell Labs 
Shannon sobre o Futuro da Era da Informação, Murray Hill, NJ, 28–29 de abril 
de 2016, comemorando a ocasião do centenário de Shannon.
Boletim Informativo EMS março de 2017 29
História
capacidade, quando alguém está interessado apenas em saber quando uma 
mensagem está presente, não necessariamente o que está nela, a 
capacidade de computação foi introduzida para medir quantos cálculos são 
possíveis em certas circunstâncias, e assim por diante. A capacidade também 
foi aplicada a muitos tipos de canais que surgiram desde os dias de Shannon. 
Os exemplos incluem canais quânticos, que incluem tanto noções quânticas 
quanto clássicas de transmissão e ruído, canais de desvanecimento, que 
modelam a atenuação de sinal em transmissões sem fio e, o mais famoso, 
canais de múltiplas antenas, que formam a base das comunicações de banda 
larga sem fio modernas. Ainda mais recentemente, o conceito assintótico de 
capacidade de Shannon, que depende da capacidade de usar um canal um 
número ilimitado de vezes, foi examinado em uma configuração de 
comprimento de bloco finito, onde apenas um número limitado de canais de 
uso é considerado; a restrição de comprimento de bloco finito é relevante para 
aplicativos modernos com restrições de atraso, como comunicações 
multimídia.
A capacidade do canal tem sido um conceito duradouro. Até hoje, 
quase sete décadas depois, ainda usamos a noção de capacidade para 
pensar como os canais de comunicação se comportam. Temos todas 
as expectativas de que continuará a ser um conceito importante no 
futuro.
transmissão de dados. Isso foi seguido rapidamente por outra revolução, a 
codificação espaço-tempo. Essas ideias conduziram muito do que aconteceu na 
prática desde aquela época, incluindo o renascimento dos códigos de 
verificação de paridade de baixa densidade que atingem quase a capacidade e 
a introdução de sistemas de múltiplas entradas e saídas múltiplas (MIMO). 
Esses avanços possibilitaram sistemas modernos de comunicação de dados de 
alta capacidade. E, é claro, houve muitos outros desenvolvimentos importantes, 
incluindo códigos fonte e Raptor, códigos polares, etc. Nos últimos tempos, 
também vimos um ressurgimento de algumas das ideias anteriores relacionadas 
a áreas como armazenamento em nuvem e outras aplicativos de 
armazenamento. Portanto, a codificação de canal fornece mais um exemplo de 
uma ideia muito inicial de Shannon que desempenhou um papel crítico na 
condução do que está acontecendo na tecnologia hoje.
Canais multiusuário
Shannon introduziu as noções de codificação e capacidade de canal em 
um ambiente de comunicação muito simples, no qual um único 
transmissor envia informações para um único receptor. As técnicas que 
ele usou para analisar canais neste cenário são aplicáveis muito além 
deste modelo de comunicação simples “ponto a ponto”. Os modelos de 
canal multiusuário generalizam modelos de canal ponto a ponto 
incorporando vários transmissores, vários receptores, fluxo 
multidirecional de informações ou alguma combinação desses recursos.
A generalização de canais ponto a ponto para canais de multiusuário 
aparece no próprio trabalho de Shannon já na década de 1950. Em seu 
artigo de 1956, Shannon generalizou seu modelo de rede do cenário ponto 
a ponto para canais que incorporam feedback; o objetivo naquele trabalho 
era entender quando o feedback do receptor para o transmissor aumenta 
a taxa na qual o transmissor pode enviar para o receptor. Esse trabalho 
empregou duas noções de capacidade: a capacidade alcançável com uma 
noção assintótica de confiabilidade e a capacidade alcançável com 
confiabilidade perfeita. No primeiro caso, a entrega de informações é 
considerada confiável se a probabilidade de erro puder ser arbitrariamente 
pequena. No último, a entrega de informações é considerada confiável 
apenas se a probabilidade de erro puder ser igual a zero para um número 
suficientemente grande de usos de canal.
Em 1960, Shannon generalizou ainda mais a rede considerando os 
canais bidirecionais. Os canais bidirecionais diferem dos canais ponto a 
ponto com feedback em que o canal ponto a ponto com feedback tem 
apenas uma única mensagem viajando do transmissor para o receptor, 
enquanto o canal bidirecional tem mensagens viajando de cada nó para o 
outro. O artigo de 1960 também menciona um canal no qual um par de 
transmissores envia informações por meio de um meio compartilhado para 
um único receptor; esse canal seria hoje denominado “canal de acesso 
múltiplo”. O artigo de 1960 menciona trabalhos futuros que aparecerão neste 
tópico; embora nenhum artigo desse tipo seja encontrado na literatura, está 
claro que Shannon estava pensando em generalizações alémdos modelos 
de dois comunicadores.
A partir do final da década de 1960, os canais multiusuário se tornaram uma área 
importante para a pesquisa da teoria da informação. Pesquisa
Codificação de canal
Em seu artigo de 1948, Shannon mostrou que, para qualquer taxa de 
comunicação menor que a capacidade, pode-se comunicar com 
probabilidades de erro arbitrariamente pequenas. No paradigma de 
Shannon, a confiabilidade é alcançada por meio da codificação do 
canal: os transmissores protegem os sinais contra erros, introduzindo 
redundância em cada mensagem antes da transmissão e os 
receptores aplicam seu conhecimento do tipo de redundância 
empregado para melhorar sua probabilidade de determinar 
corretamente a mensagem pretendida a partir da saída do canal . A 
ideia de adicionar redundância a um sinal não era nova, mas, antes 
de Shannon, muitos engenheiros de comunicação pensavam que 
atingir um erro arbitrariamente pequeno exigia cada vez mais 
redundância, obrigando necessariamente a taxa de transmissão a 
zero.
A noção de codificação de canal de Shannon iniciou uma enorme 
quantidade de pesquisas e gerou subcampos inteiros no campo da teoria da 
informação. Em particular, uma quantidade significativa de trabalho 
fundamental continuou na década de 1950 até a década de 1980, quando 
alguns dos códigos básicos e algoritmos de decodificação que ainda usamos 
hoje foram desenvolvidos. Exemplos notáveis incluem códigos algébricos, 
como a família Reed-Solomon de códigos de canal que formam a base dos 
códigos usados em mídias de armazenamento modernas e o algoritmo de 
decodificação sequencial de Viterbi, que encontrou uma surpreendente 
variedade de aplicações, incluindo seu uso em essencialmente todos telefone 
móvel em uso hoje. Os desenvolvimentos de tempos mais recentes não foram 
menos impressionantes. Na década de 1990, os códigos turbo foram 
descobertos, que, juntamente com as idéias de decodificação iterativa 
correspondentes, revolucionaram o campo da
30 Boletim Informativo EMS março de 2017
História
no feedback investigou as melhores compensações entre a taxa e a 
probabilidade de erro alcançáveis por meio do feedback. A pesquisa em 
canais bidirecionais resultou em melhores limites superior e inferior nas 
regiões de taxas alcançáveis. Uma ampla gama de novos modelos de canal 
foi desenvolvida, incluindo vários canais de acesso (em que vários 
transmissores enviam informações para um único receptor), canais de 
transmissão (em que um único transmissor envia informações possivelmente 
distintas para vários receptores), canais de retransmissão (em que um único 
transmissor envia informações para um único receptor com a ajuda de um 
relé que pode transmitir e receber informações, mas não tem mensagens 
próprias para transmitir) e canais de interferência (nos quais as transmissões 
de vários transmissores interferem nos vários receptores com os quais estão 
tentando se comunicar).
As generalizações do modelo de canal de Shannon não se limitam a 
aumentar o número de transmissores ou receptores nas redes. Outras 
generalizações incluem canais compostos, que capturam canais com 
estatísticas desconhecidas ou variáveis, canais de escuta, que modelam 
canais com bisbilhoteiros, e canais arbitrariamente variáveis, que 
capturam canais sob interferência. A codificação conjunta de canal de 
origem também tem sido um tópico importante na literatura de 
comunicação multiusuário. Embora a otimização da separação entre a 
codificação de origem e de canal seja válida para o cenário ponto a 
ponto estudado por Shannon, ela não se aplica em geral e dá muito 
trabalho compreendeu quando essa separação é ideal e como obter um 
desempenho ideal quando não é.
Enquanto o interesse em canais multiusuário aumenta e diminui com o 
tempo devido à dificuldade dos problemas, o tamanho maciço e a enorme 
importância das redes de comunicação modernas tornam a teoria da 
informação multiusuário uma área importante para pesquisas contínuas.
mostrou que se alguém pudesse resolver todas as redes de codificação de índice, 
isso forneceria um meio de resolver todas as redes de codificação de rede também. 
Ou seja, qualquer instância de codificação de rede pode ser representada por uma 
instância de codificação de índice cuja solução forneceria uma solução para o 
problema de codificação de rede original.
Além de trabalhar na capacidade de codificação da rede, também tem 
havido bastante trabalho no design do código da rede, bem como no 
relacionamento entre as redes de links capacitados e as redes 
correspondentes de canais ruidosos que eles pretendem modelar. Os 
resultados neste domínio demonstram que a capacidade de uma rede de 
canais com ruído é exatamente igual à capacidade da rede de codificação 
da rede obtida pela substituição de cada canal por um link sem ruído e 
capacitado com a mesma capacidade. Assim, a capacidade do canal de 
Shannon caracteriza totalmente o comportamento de canais ruidosos e 
sem memória, pelo menos na medida em que afetam a capacidade das 
redes nas quais são empregados.
Outras questões consideradas no domínio da codificação de rede incluem 
correção de erros de rede, codificação de rede segura, codificação de rede na 
presença de bisbilhoteiros, técnicas de codificação de rede para 
armazenamento distribuído e codificação de rede para aplicativos sem fio com 
recepção de pacotes não confiável.
Codificação fonte
A codificação de origem, também chamada de compactação de dados, refere-se à 
representação eficiente de informações. O trabalho de Shannon introduz dois tipos 
de codificação de fonte para a literatura: codificação de fonte sem perdas, em que 
os dados podem ser reconstruídos a partir de sua descrição perfeitamente ou com 
uma probabilidade de erro próxima de zero, e codificação de fonte com perdas, em 
que maior eficiência na representação de dados é obtido através da permissão de 
algum nível de imprecisão ou "distorção" na reprodução resultante. Enquanto o 
artigo de Shannon de 1948 discute notoriamente a codificação de origem e a 
codificação de canal e é frequentemente descrito como o ponto de origem para 
ambas as ideias, Shannon primeiro apresentou o problema de codificação de 
origem com perdas em uma comunicação anterior.
O artigo de Shannon de 1948 estabelece muitos precedentes altamente 
influentes para o campo da codificação de fonte sem perdas. Ele apresenta a 
abordagem agora clássica para derivar limites superiores nas taxas necessárias 
para descrever de forma confiável uma fonte e fornece um forte inverso para 
provar que nenhuma taxa melhor pode ser alcançada. Também inclui as idéias de 
códigos de comprimento fixo e variável, isto é, códigos que fornecem o mesmo 
comprimento de descrição para todos os símbolos e códigos que fornecem 
diferentes comprimentos de descrição para símbolos diferentes. Os códigos 
aritméticos, que permanecem onipresentes até hoje, têm suas raízes neste artigo. 
As noções de entropia, taxa de entropia, sequências típicas e muitas outras 
também vêm do artigo de 1948.
O artigo de 1948 também examina a codificação de fontes com perdas, 
descrevendo a compensação ideal entre taxa e distorção na descrição de 
fontes com perdas e explicando intuitivamente sua derivação. Em um artigo 
de 1959, Shannon revisita o trade-off entre taxa e distorção na codificação de 
fonte com perdas, dando mais detalhes da prova, cunhando o termo "função 
de distorção de taxa" para descrever esse limite e
Codificação de rede
Os exemplos dados acima de canais multiusuário são normalmente 
usados para modelar ambientes de comunicação sem fio. Mas as 
redes sem fio não são as únicas redes de comunicação multiusuário. 
Afinal, o próprio trabalho de Shannon foi originalmente inspirado por 
redes de comunicação como o telefone fixo e as redes telegráficas 
de sua época, cada uma conectando um grande número de usuários 
por meio de enormesredes de fios. O campo moderno de 
codificação de rede estuda essas redes de canais ponto a ponto. 
Normalmente, os canais ponto a ponto nesses modelos são 
considerados links sem ruído e capacitados. O campo da codificação 
de rede começou com questões sobre a capacidade das redes de 
codificação de rede. Em alguns cenários, notavelmente no caso da 
codificação de rede multicast, a capacidade é conhecida e algoritmos 
eficientes estão disponíveis para atingir esses limites na prática.
Dada a dificuldade de resolver o problema geral de codificação de 
rede, vários casos especiais foram considerados. Uma delas é a família 
de redes de codificação de índice. Ao contrário das redes gerais de 
codificação de rede, as redes de codificação de índice são redes nas 
quais apenas um nó da rede tem oportunidade de codificar. Tem sido
Boletim Informativo EMS março de 2017 31
História
apresentando mais exemplos de soluções da função de distorção de taxa 
para diferentes fontes.
Desde então, tem havido muito trabalho na codificação de origem sem 
perdas e com perdas. Grande parte do trabalho das décadas de 1950 a 1970 
examinou provas detalhadas e extensões das idéias originais. As extensões 
incluem generalizações de modelo para permitir fontes com memória, fontes não 
-ergódicas e assim por diante. Avanços também foram feitos no design de código 
prático para codificação de origem sem perdas e com perdas. Huffman 
desenvolveu seu famoso algoritmo de codificação de fonte, que ainda está em 
uso. Os códigos de Tunstall examinaram a codificação de blocos de comprimento 
variável de símbolos de origem para descrições de comprimento fixo. Os códigos 
aritméticos foram desenvolvidos para velocidade e desempenho. Algoritmos para 
projetar quantizadores vetoriais de taxa fixa e variável também foram introduzidos.
Nos anos que se seguiram, muito trabalho foi feito na codificação 
de fonte universal e na codificação de fonte com vários terminais. Os 
códigos-fonte universais são algoritmos de compressão de dados 
que atingem os limites assintóticos prometidos por Shannon sem 
exigir conhecimento a priori da distribuição da qual as amostras de 
origem serão retiradas. Os resultados na codificação de fonte 
universal incluem designs de código para codificação de fonte 
universal sem perdas e com perdas e análises de medidas de 
desempenho de código, como a taxa em que a taxa alcançável de 
um código (e, no caso de codificação com perdas, distorção) se 
aproxima do limite ideal. Como os códigos de canal multiusuário, os 
códigos fonte multi-terminal são algoritmos de compressão de dados 
para redes com múltiplos transmissores de informação, múltiplos 
receptores de informação ou ambos.
Além dos avanços na teoria de códigos-fonte ideais e seu 
desempenho, tem havido muita pesquisa e desenvolvimento voltados 
para a construção e padronização de códigos-fonte sem e com perdas 
para uma variedade de aplicações de comunicação. Esses algoritmos 
são partes críticas de muitos dos aplicativos ricos em dados que estão se 
tornando cada vez mais onipresentes em nosso mundo.
anos subsequentes e até os dias atuais. Por exemplo, a decodificação de canal 
é, em essência, um teste de hipótese com um grande número de hipóteses, e 
alguns resultados famosos dessa área foram desenvolvidos no contexto da 
detecção de sequência, incluindo o algoritmo de Viterbi, mencionado acima, e o 
detector de sequência de máxima verossimilhança de Forney. Relacionado a 
esses desenvolvimentos está a detecção multiusuário, que também é motivada 
pela detecção de dados em comunicações de acesso múltiplo e o problema 
intimamente relacionado à detecção de dados em sistemas MIMO. A detecção 
distribuída, que é um problema motivado pela rede de sensores sem fio, 
também é um sucessor destes Ideias. E, voltando ao teorema de amostragem, 
uma das principais tendências hoje no processamento de sinal é o 
sensoriamento comprimido, que explora a dispersão do sinal para ir muito além 
da amostragem NyquistShannon para capturar a essência de um sinal com 
muito menos amostras. Portanto, novamente, embora possamos não pensar 
em Shannon como um progenitor desse campo, essas conexões mostram que 
seu trabalho teve uma grande influência, seja diretamente ou como motivador.
Aprendizado de máquina
Outro tópico que está muito em evidência hoje é o aprendizado de máquina e 
sua função em aplicativos de big data. Shannon foi um dos primeiros atores na 
aplicação de ideias de aprendizado de máquina - em 1950, ele escreveu um dos 
primeiros programas de computador para jogar xadrez e, em 1952, desenvolveu 
“Teseu”, o famoso mouse para resolver labirintos. Claro, já percorremos um 
longo caminho no aprendizado de máquina desde aquelas primeiras 
contribuições, impulsionadas por computadores cada vez mais poderosos. Por 
exemplo, muitos jogos foram conquistados: damas na década de 1950, xadrez 
com Deep Blue na década de 1990, Jeopardy com Watson em 2011 e AlphaGo 
em 2016. E, é claro, houve muitos desenvolvimentos fundamentais na 
aprendizagem e tarefas relacionadas , como redes neurais e árvores de 
decisão, e também modelos gráficos, que desempenharam um papel importante 
na decodificação do canal. Esses desenvolvimentos estão por trás dos 
desenvolvimentos contemporâneos, como o aprendizado profundo e os carros 
com direção automática. Então, novamente, Shannon foi um pioneiro em um 
campo que acabou se tornando uma parte muito importante da tecnologia e da 
ciência modernas.
Teste de detecção e hipótese Complexidade e combinatória
Outro campo em que a influência de Shannon foi sentida foi o da detecção 
de sinais e teste de hipóteses. Embora não se possa pensar normalmente 
em Shannon neste contexto, ele trabalhou diretamente na detecção de 
sinal em alguns de seus primeiros trabalhos em 1944, no qual explorou o 
problema da melhor detecção de pulsos, derivando a probabilidade 
máxima ótima a posteriori (MAP ) procedimento para detecção de sinal; 
seu trabalho foi uma das primeiras exposições do chamado princípio do 
“filtro combinado”. Além disso, ao revelar as vantagens da transmissão 
digital nas comunicações, ele mostrou a importância desses campos para 
a teoria da comunicação em geral. E, além disso, ele expôs a ideia de que 
existe uma taxa de amostragem ótima para a digitalização de sinais por 
meio do famoso teorema de amostragem de NyquistShannon.
Essas ideias têm motivado bastante trabalho em
Grande parte do trabalho de Shannon relacionou-se e influenciou os campos da 
complexidade e da combinatória. A tese de mestrado de Shannon, talvez seu 
trabalho mais famoso próximo ao artigo de 1948, traçou uma relação entre 
circuitos de comutação e álgebra booleana. Seu artigo de 1948 também 
introduziu muitas ferramentas que continuam a ser úteis para aplicações 
combinatórias. O artigo de Shannon de 1956 sobre capacidade de erro zero 
revisita o problema da capacidade - mudando a abordagem de uma perspectiva 
probabilística com garantias assintóticas de confiabilidade para uma perspectiva 
combinatória em que a confiabilidade requer a reprodução precisa garantida de 
todas as mensagens possíveis que podem ser enviadas pelo transmissor.
Com o tempo, a teoria da informação foi e continua a ser usada para 
uma variedade de aplicações na literatura de complexidade e combinatória. 
Os resultados incluem generalizações de ferramentas originalmente 
desenvolvidas por Shan-
32 Boletim Informativo EMS março de 2017
História
não no quadro probabilístico para suas alternativas combinatórias. Um 
exemplo é o conjunto típico de Shannon, que captura um pequeno conjunto de 
sequências de probabilidade individual aproximadamente igual que, juntas, 
capturam uma fração da probabilidade total próxima de 1. Esse conjunto 
generaliza para alternativas mais combinatórias, como a usada no método dos 
tipos. A desigualdade de Fano, as caracterizações do espaço de entropiae 
uma variedade de outras ferramentas da teoria da informação também 
desempenham um papel na literatura combinatória e complexidade.
O campo da complexidade da comunicação também se baseia em 
ferramentas da teoria da informação. As desigualdades de concentração são 
outro exemplo de áreas que se situam na fronteira entre a combinatória e a teoria 
da informação, trazendo ferramentas de ambas as comunidades para resolver 
problemas importantes. Também é possível encontrar muitos exemplos na 
literatura envolvendo a delimitação de vários argumentos de contagem usando 
ferramentas da teoria da informação.
é um modelo que tem conduzido pesquisas consideráveis desde então, 
particularmente no recente desenvolvimento de segurança da camada física sem 
fio, que faz uso da física de rádio para fornecer um grau de segurança na 
transmissão sem fio. A noção da década de 1990 de aleatoriedade comum como 
uma fonte de destilação de chaves secretas para uso em sistemas de criptografia 
também tem suas raízes na teoria da informação e é outra base para a segurança 
da camada física sem fio.
Então, novamente, vemos outro campo muito importante do desenvolvimento de 
tecnologia contemporânea influenciado pelo trabalho de Shannon.
Formulários
Enquanto Shannon originalmente desenvolveu a teoria da informação como 
um meio de estudar os problemas de comunicação e armazenamento de 
informações, as ideias de seu trabalho foram rapidamente adotadas por 
outros campos. Em 1956, Shannon escreveu sobre esse fenômeno em um 
artigo intitulado “The Bandwagon”, onde alertou sobre “um elemento de 
perigo” na adoção generalizada de ferramentas e terminologia da teoria da 
informação. Nesse artigo, ele observou sua crença pessoal de que "a teoria 
da informação será útil nesses outros campos", mas também argumentou que 
"o estabelecimento de tais aplicações não é uma questão trivial de traduzir 
palavras para um novo domínio, mas sim o processo lento e tedioso de 
hipótese e verificação experimental ”.
Hoje, a teoria da informação é usada em uma ampla variedade de campos. 
Biologia e finanças são dois exemplos importantes de campos onde as pessoas 
estão começando a aplicar ferramentas teóricas da informação: em um caso para 
estudar como os sistemas biológicos transmitem e armazenam informações e no 
outro para modelar o comportamento de longo prazo dos mercados e estratégias 
para maximizar o desempenho em tais mercados. Também existem aplicativos em 
campos como lingüística, ciência da computação, matemática, probabilidade, 
inferência estatística e assim por diante.
Cíber segurança
A segurança cibernética é outro aspecto extremamente importante da tecnologia 
moderna que tem suas raízes, pelo menos em termos de seus fundamentos, no 
trabalho de Shannon. Em particular, ele estabeleceu uma base teórica da 
informação para este campo em seu artigo de 1949 (por sua vez, baseado em 
trabalho classificado anteriormente), no qual ele abordou a questão de quando um 
sistema de cifras está perfeitamente seguro em um sentido teórico da informação. 
Nesse contexto, ele mostrou o resultado fundamental de que os sistemas de 
criptografia só podem ser seguros se a chave - ou seja, a chave secreta que é 
compartilhada pelo remetente e pelo receptor e usada para criar uma mensagem 
criptografada - tiver pelo menos a mesma entropia que a mensagem de origem a ser 
transmitida. Ou, em outras palavras, ele mostrou que apenas blocos únicos são 
perfeitamente seguros em um contexto teórico da informação.
O trabalho de Shannon foi supostamente motivado pelo sistema 
SIGSALY, que foi usado entre Churchill e Roosevelt para se comunicar por 
telefone por rádio na Segunda Guerra Mundial e que fazia uso de blocos 
descartáveis fornecidos por meio do transporte físico de gravações de chaves 
da Virgínia para Londres. os sistemas de segurança de hoje, é claro, não usam 
almofadas de uso único. Na verdade, quase nenhum o faz. Em vez disso, eles 
usam bits menores de aleatoriedade, expandem isso em uma chave e usam 
dificuldade computacional para fornecer segurança. No entanto, o pensamento 
fundamental vem de Shannon. Os criptosistemas de chave pública, é claro, 
não foram inventados por Shannon, mas são basicamente parte do legado de 
olhar para a segurança cibernética, ou comunicações secretas, de um ponto 
de vista fundamental.
Outro grande avanço nas caracterizações teóricas da informação 
de segurança foi a introdução de Wyner do canal wire-tap em 1975, 
que foge de um segredo compartilhado e usa a diferença nos canais 
físicos, do transmissor a um receptor legítimo e a um bisbilhoteiro, 
para fornecer confidencialidade de dados. Essa configuração introduz 
a noção de capacidade de sigilo, que é definida como a taxa máxima 
na qual uma mensagem pode ser transmitida de forma confiável para o 
receptor legítimo, enquanto é mantida em segredo perfeito do 
bisbilhoteiro. O trabalho de Wyner foi estendido por Csiszár e Körner 
ao canal de transmissão com mensagens confidenciais, que
Considerações finais
Embora mal se possa deslizar rapidamente pela superfície do trabalho e do 
legado de Shannon em um artigo como este, deve ficar claro que seu gênio 
beneficiou a ciência e a engenharia modernas e, portanto, a sociedade de 
inúmeras maneiras. Esperamos que esta breve visão geral inspire o 
interesse contínuo em Shannon e seu trabalho e a interação contínua além 
das fronteiras dos muitos campos distintos que compartilham ferramentas, 
filosofias e interesses com o campo da teoria da informação.
Bibliografia selecionada
Shannon, CE (1938). Uma análise simbólica do relé e do circuito de comutação
cuits. Transações da AIEE 57 (12): 713–723.
Shannon, CE (1944). A melhor detecção de pulsos. Bell Laboratories
memorando datado de 22 de junho de 1944. (Em Claude Elwood Shannon: artigos 
coletados, NJA Sloane e AD Wyner, Eds. Piscataway, NJ: IEEE Press, 1993, pp. 
148-150.)
Shannon, CE (1948). Uma teoria matemática de comunicação. Sino
SystemTechnical Journal 27 (3): 379–423.
Shannon, CE (1949). Teoria da comunicação dos sistemas de sigilo. Sino
SystemTechnical Journal 28 (4): 656–715.
Shannon, CE (1949). Comunicações na presença de ruído. Pró-
cedências do IRE 37 (1): 10–21.
Boletim Informativo EMS março de 2017 33
Obituário
“Claude Shannon Demonstrates Machine Learning”, AT & TArchives.
(Online em http://techchannel.att.com/play-video.cfm/2010/3/16/ 
In-their-Own-Words-Claude-Shannon-Demonstrates-MachineLearning.)
Shannon, CE (1956). O movimento. Transações IRE em Informações
Teoria de ção 2 (1): 3.
Shannon, CE (1959). Teoremas de codificação para uma fonte discreta com um
critério de fidelidade. Conv. IRE Gravando. 7: 142–163. Berlekamp, E. (1974). Artigos-chave no 
desenvolvimento da Teoria da Codificação
ry. IEEE Press, NewYork. Slepian, D. (1974). Artigos-chave no desenvolvimento 
da informação
ory. IEEE Press, NewYork.
Sloane, NJA, Wyner, AD, Eds. (1993). Claude Elwood Shannon: Col-
Artigos selecionados. IEEE Press, Piscataway, NJ. Verdú, S., McLaughlin, S., Eds. (2000). Teoria 
da Informação: 50 anos de
Descoberta. IEEE Press, Piscataway, NJ. MacKay, DJC (2003). Teoria da Informação, 
Inferência e Aprendizagem Al-
goritmos. Cambridge University Press, Cambridge, Reino Unido. Cover, TM, Thomas, JA 
(2006). Elementos da Teoria da Informação -
Segunda edição. JohnWiley & Sons, Nova York. Richardson, T., Urbanke, R. (2008). Modern 
CodingTheory. Cambridge
University Press, Cambridge, Reino Unido. El Gamal, A., Kim, Y.-H. (2011). Teoria da 
Informação de Rede. Cam-
Bridge University Press, Cambridge, Reino Unido. Elder, YC (2015). Teoria de amostragem: além 
dos sistemas com limite de banda.
Cambridge University Press, Cambridge, Reino Unido.
Pobre, HV, Schaefer, R. (2017) .Segurança da camada física sem fio. Continuar-
da Academia Nacional de Ciências dos EUA 114 (1): 19–26.
Michelle Effros [ effros@caltech.edu ] é a professoraGeorge van Osdol de Engenharia Elétrica do California 
Institute of Technology. Sua pesquisa se concentra 
principalmente na teoria da informação, com um 
interesse particular em ferramentas teóricas da 
informação para a análise e projeto de redes muito 
grandes.
Atualmente, ela atua como ex-presidente sênior da Sociedade de Teoria da 
Informação IEEE.
H. Vincent Poor [ poor@princeton.edu ] é o Professor 
de Engenharia Elétrica da Michael Henry Strater 
University na Princeton University. Seus interesses de 
pesquisa incluem teoria da informação e 
processamento de sinais e suas aplicações em vários 
campos. Ele atuou como presidente do IEEE Informa-
da Sociedade de Teoria da Informação e como Editor-Chefe do IEEE 
Transactions on Information Theory.
Visions for Mathematical Learning: The 
Inspirational Legacy of Seymour Papert 
(1928–2016)
Celia Hoyles e Richard Noss (UCL Knowledge Lab, University College, Londres, Reino Unido)
Seymour Papert, que morreu em 31 de julho, era um matemático com dois 
PhDs em matemática pura, da University of Witwatersrand, na África do 
Sul, e da University of Cambridge, no Reino Unido. Ele foi o fundador da 
inteligência artificial com Marvin Minsky no MIT, um psicólogo que 
trabalhava ao lado de Jean Piaget, um ativista político contra o apartheid 
e, a nível pessoal, um cozinheiro maravilhoso e amigo leal. Desde sua 
morte, a web foi inundada com reminiscências e relatos detalhados de 
suas contribuições intelectuais, não apenas para os assuntos 
fundamentais nos quais ele foi o líder indiscutível, mas também para o 
campo da educação, para um estudioso que acreditou e mostrou que o 
computador , ou pelo menos o uso cuidadosamente elaborado do 
computador, poderia introduzir jovens e adultos às alegrias e ao poder da 
matemática e do pensamento matemático.
Neste breve artigo, selecionamos quatro trabalhos que impactaram 
diretamente o campo da educação matemática e a comunidade. 
Significativamente, essas estão entre suas palestras e artigos menos 
conhecidos e esperamos que, ao transmiti-los, a realização da visão de 
Papert de um novo tipo de matemática aprendível possa estar um passo 
mais perto.
1980: Keynote no ICME Berkeley, EUA
Seymour deu uma das quatro plenárias no ICME 1980. Infelizmente, pelo que 
podemos dizer, não houve nenhuma transcrição produzida das observações de 
Seymour. No entanto, somos gratos a Jeremy Kilpatrick (que compareceu à 
palestra) por nos indicar um livro de 1980 editado por Lynn Steen e DonAlbers, 
que inclui uma sinopse de 4 páginas da palestra de Seymour. 1
Aparentemente, Seymour foi inspirador. Pelo resumo, sabemos 
que ele começou:
“Estamos no início do que é a década da educação matemática. Não 
apenas em como as crianças aprendem, mas no que elas aprendem: 
veremos mudanças dramáticas no que as crianças aprendem; veremos 
assuntos que antes pareciam inacessíveis ou difíceis, mesmo em nível de 
faculdade, aprendidos por crianças pequenas; veremos mudanças nos 
locais onde a aprendizagem ocorre e no próprio processo de aprendizagem. 
”
1 https://books.google.cz/books?id=zcq9BwAAQBAJ&pg=P
A12 & lpg = PA12 & dq =% 22.
34 Boletim Informativo EMS março de 2017

Continue navegando