Prévia do material em texto
TEORIA DA INFORMAÇÃO (Busco apenas um cérebro mundano) GLEICK, James. A Informação: Uma História, uma teoria, uma enxurrada. Capitulos 7 e 8 O contexto Segunda Guerra Mundial (Início de 1943) Laboratórios Bell/Nova York/USA Analistas criptográficos Claude Shannon - 1916/2001 (Matemático, Engenheiro eletrônico norte-americano) Alan Turing-(1912/1954) Matemático, Cientista da Computação, Lógico, Filósofo e Biólogo inglês) Conhecendo nossos pesquisadores Claude Shannon - 1916/2001 Matemático e Engenheiro eletrônico norte-americano Conhecendo nossos pesquisadores Alan Turing-(1912/1954) Matemático, Cientista da Computação, Lógico, Filósofo e Biólogo inglês. Analistas criptográficos ???? O que é a criptografia? Criptografia (em grego: kryptós, "escondido", e gráphein, "escrita")[. É uma área da criptologia que estuda e prática princípios e técnicas para comunicação segura na presença de terceiros, chamados "adversários". Mas geralmente, a criptografia refere-se à construção e análise de protocolos que impedem terceiros, ou o público, de lerem mensagens privadas. Muitos aspectos em segurança da informação, como confidencialidade, integridade de dados, autenticação e não-repúdio são centrais à criptografia moderna. A criptografia moderna existe na interseção das disciplinas de matemática, ciência da computação, engenharia elétrica, ciência da comunicação e física. Aplicações de criptografia incluem comércio eletrônico, cartões de pagamento baseados em chip, moedas digitais, senhas de computadores e comunicações militares Fato Histórico A presença de Alan Turing nos Laboratórios Bell era uma espécie de segredo. Decifrou o código usado pelas Forças Armadas Alemãs em suas comunicações de importância crítica Máquina Enigma Capturada Máquina eletromecânica de criptografia com rotores. Utilizada tanto para criptografar como para descriptografar códigos de guerra, foi usada de várias formas na Europa a partir dos anos 1920. SUGESTÃO: Assistir ao filme Jogo da Imitação. Maravilhoso!!!!! A Máquina de Turing A Máquina de Turing é um dispositivo teórico conhecido como máquina universal, que foi concebido pelo matemático britânico Alan Turing (1912-1954), muitos anos antes de existirem os modernos computadores digitais. Num sentido preciso, é um modelo abstrato de um computador, que se restringe apenas aos aspectos lógicos do seu funcionamento (memória, estados e transições), e não a sua implementação física. Numa máquina de Turing pode-se modelar qualquer computador digital. Fato HIstórico Claude Shanonn estava trabalhando no SISTEMA X, usado na encriptaçao de conversas. Seu funcionamento consistia em coletar amostras do sinal analógico da voz ao ritmo de cinquenta vezes por segundo – quantificando-o ou digitalizando-o então mascará-las por meio de uma chave aleatória. A Chave 1 Conforme Shannon “(...) o que todos os sistemas tinham em comum era o uso de uma chave: uma palavra em código ou frase ou um livro inteiro ou algo mais complexo, mas mesmo assim uma fonte de caracteres conhecida tanto pelo emissor, como pelo receptor”. Pag. 225 “Um sistema de sigilo consistia num número finito (embora possivelmente imenso) de mensagens possíveis, um número finito de criptogramas possíveis e, no meio do caminho, transformando uma coisa na outra, um número finito de chaves, cada uma delas associada a uma probabilidade”. Pag. 226 A Chave 2 Para concretizar o Sistema X, Shannon teve que erradicar o significado da mensagem. Shannon quis deixar de lado “os fatores psicológicos” da informação para se concentrar apenas nos “fatores físicos” da informação. Pag. 227 Mas se a informação for separada do significado (conteúdo semântico), o que restaria????? A Chave 3 – Princípios de Shannon A informação é incerteza. A informação implica em surpresa. A informação não deve ser confundida com seu significado. O significado é a dificuldade em transmitir mensagem a mensagem de um ponto a outro. Informação é entropia (medida de desordem). A Chave 4 – Uma nova unidade de medida Para reduzir ou erradicar a desordem (significado) da informação, Shannon teve que criar uma nova unidade de medida. Assim, surgiu “as unidades denominadas de dígitos binários ou, numa versão curta, os bits”. Pag. 237 O NASCIMENTO DA INFORMAÇÃO “No momento em que alguém transforma um conjunto de sinais em outros sinais que nosso cérebro é capaz de compreender, então nasce a informação”. Pag. 257. A informação pode ser considerada a ordem extraída da desordem. O Teorema da Codificação de Canal Ruidoso O teorema de Shannon mostra como calcular a capacidade do canal a partir de uma descrição estatística de um canal, e estabelece que: Dado um canal ruidoso com capacidade C e informações transmitidos a uma taxa de linha R, então se {R<C} Existe uma técnica de codificação que permite fazer com que a probabilidade de erro no receptor seja arbitrariamente pequena. Isto significa que, teoricamente, é possível a transmissão de informações quase sem erro até quase o limite de C bits por segundo. A recíproca também é importante. Se {R>C} A probabilidade de erro no receptor cresce sem limite, à medida que a taxa cresce. Portanto, nenhuma informação útil pode ser transmitida além da capacidade do canal. O teorema aborda a situação rara em que a taxa e a capacidade são iguais. A quantificação da previsibilidade e da redundância “Seja removendo a redundância para aumentar a eficiência ou acrescentando redundância para permitir a correção de erros, a codificação depende do conhecimento da estrutura estatística do idioma ou da informação que se quer transmitir/comunicar”. Shannon. (Pág. 239). Serão as máquinas capazes de pensar???? “Creio que a pergunta , “Serão as máquinas capazes de pensar?” demasiadamente carente de significado para se merecedora de um debate. Apesar disso, creio que no fim do século, o emprego das palavras e a opinião informada do público em geral terá mudado tanto que poderemos falar em máquinas pensantes sem esperar nenhum questionamento dessa ideia”. Alan Turing Serão as máquinas capazes de pensar???? “A ideia de uma máquina capaz de pensar não é de maneira alguma repugnante . Na verdade, me parece que a ideia oposta, de que o cérebro humano seja em si uma máquina cuja funcionalidade poderia ser duplicada por meio de objetos inanimados, é bastante elegante”. Claude Shannon O perigo de Shannon “É provavelmente perigoso usar esta teoria da informação em campos para os quais ela não foi projetada, mas creio que o perigo não vai impedir as pessoas de faze-lo”. J.C.R. Licklider, 1950. Próxima aula – 16/10 Aula Síncrona - Aspectos Históricos da Ciência da Informação. Artigo de Lena Vânia Pinheiro - Traçados e Limites da Ciência da Informação. Arquivo disponibilizado no SIGAA da página da disciplina