Buscar

SEMINARIO REDES NEURAIS

Prévia do material em texto

O Modelo de McCulloch e Pitts - Parte 1 
Aproveitando que estou em casa hoje, por causa do feriado do Dia do Funcionário Público -- que a USP resolveu conceder neste ano --, vou mandar mais um post. Na verdade, vou continuar com os textos de natureza didática (espero) sobre redes neurais e neurociência. Como gosto muito de história e acho que só conseguimos construir uma boa compreensão de um campo científico -- de sua razão de ser e do porquê dos seus conceitos teóricos e metodológicos -- a partir de um estudo de sua história, vou tentar, sempre que possível, apresentar os tópicos discutidos seguindo uma perspectiva histórica.
Neste sentido, nada melhor do que começar com o modelo de McCulloch e Pitts. Ele foi o primeiro modelo de redes neurais e também se poderia dizer que foi o primeiro modelo da neurociência computacional. Apareceu numa época em que o que se sabia de neurociência era muito menos do que hoje, mas mostrou que estruturas compostas por unidades simples "tipo-neurônio" interconectadas entre si formando redes são capaz de efetuar computações. Este resultado, a meu ver, tem uma enorme importância na história das idéias: ele mostra que o cérebro é viável. Em outras palavras, ele mostra que se uma estrutura infinitamente mais simples do que o cérebro biológico é capaz de executar tarefas complexas de maneira autônoma, baseada apenas nas propriedades dos seus componentes e da sua arquitetura, então o cérebro biológico pode igualmente fazer essas tarefas e muito mais sem a necessidade de um ghost in the machine. Isto é um fato alentador para todos aqueles que buscam compreender o cérebro e a mente humana sem recorrer a fenômenos sobrenaturias, isto é, sem usar conceitos dualistas.
Vamos, então, ao modelo de McCulloch e Pitts (o texto a seguir é uma adaptação das notas de aula do curso que dou sobre Psicologia Conexionista).
O primeiro modelo de redes neurais artificiais foi proposto por Warren S. McCulloch (ver foto acima) e Walter Pitts (ver foto no próximo post), em um artigo publicado em 1943: “A logical calculus of the ideas immanent in nervous activity”, Bulletin of Mathematical Biophysics, 5: 115-133.
McCulloch era um psiquiatra e um neuroanatomista e Pitts era um matemático que foi trabalhar com McCulloch na Universidade de Chicago, ambos fazendo parte de um dos primeiros grupos do mundo dedicado ao estudo da Biofísica Teórica, criado por Nicolas Rashevsky.
Em 1943, o conhecimento sobre os neurônios biológicos era muito limitado. As bases iônicas e elétricas da atividade neuronal eram ainda incertas, porém já se sabia da existência de potenciais de ação e da sua natureza “tudo-ou-nada”.
McCulloch e Pitts propuseram um modelo de sistema neural em que as unidades básicas, os neurônios, são bastante simples no seu funcionamento. A riqueza de processamento e a capacidade computacional do sistema são decorrentes da conectividade entre esses elementos simples. Usando um termo moderno, poderíamos dizer que o modelo de McCulloch e Pitts foi o primeiro modelo conexionista a aparecer.
O Modelo de McCulloch e Pitts está baseado em cinco hipóteses:
A atividade de um neurônio é binária, ou seja, a cada instante o neurônio, ou está disparando (atividade = 1), ou não está disparando (atividade = 0);
A rede neural é constituída por linhas direcionadas, sem pesos, ligando os neurônios. Essas linhas (inspiradas nas sinapses) podem ser excitatórias ou inibitórias (positivas ou negativas);
Cada neurônio tem um limiar fixo L, de maneira que ele só dispara se a entrada total chegando a ele, num dado instante, for maior ou igual a L;
A chegada de uma única sinapse inibitória num dado instante evita absolutamente o disparo do neurônio, independentemente do número de sinapses excitatórias que estejam chegando conjuntamente com a sinapse inibitória;
Um sinal leva uma unidade de tempo para passar de um neurônio da rede para outro. Isto procura reproduzir o atraso sináptico.
A figura abaixo ilustra um neurônio de McCulloch-Pitts:
Se, num dado instante de tempo, pelo menos uma das entradas inibitórias (yis) for igual a 1, o neurônio é inibido. Caso todas as entradas inibitórias sejam nulas, o neurônio calcula a soma das entradas excitatórias e a compara com o seu limiar L (no desenho, o limiar está indicado por teta). Se a soma das entradas excitatórias for maior ou igual a L, ele dispara (sua atividade é feita igual a 1); caso contrário, ele não dispara (sua atividade é feita igual a 0).
Em seu artigo de 1943, McCulloch e Pitts provaram o seguinte teorema:
“Qualquer expressão lógica finita pode ser implementada por uma rede de neurônios do tipo definido pelas cinco hipóteses acima”.
A prova deste teorema foi obtida com o uso de regras da lógica formal, o que torna o artigo de McCulloch e Pitts bastante árduo de ser lido. Porém o impacto deste resultado foi muito grande na época. Em outras palavras, o que o teorema diz é que:
“Qualquer procedimento, ou computação, pode ser implementado por uma rede de neurônios de McCulloch e Pitts”.
Este resultado mostrou que uma rede feita de unidades bastante simples pode ter um poder computacional enorme. 
Como as unidades do modelo são baseadas nos neurônios do cérebro, isto sugere que o próprio cérebro tem o potencial de executar computações lógicas complexas. Isto nós todos sabemos, mas o artigo de McCullogh e Pitts foi o primeiro a mostrar que pode ser possível o entendimento matemático das computações feitas pelo cérebro.
O modelo de McCulloch e Pitts não teve muita influência na Neurociência. As evidências experimentais que começavam a se acumular a partir da década de 1940 indicavam que o neurônio é mais complexo do que um simples elemento binário com um limiar e isso fez com que os biólogos não dessem muita atenção ao trabalho de McCullogh e Pitts.
O grande impacto do modelo de McCulloch e Pitts deu-se na Ciência da Computação. O pai dos modernos computadores digitais, John von Neumann, foi bastante influenciado pelo trabalho de McCulloch e Pitts, pois ele percebeu o grande poder computacional que um sistema composto por unidades lógicas simples possui.
APLICAÇÕES: Reconhecimento Automático de Alvos; Reconhecimento de Caracteres; Robótica; Diagnóstico Médico; Sensoriamento Remoto; Processamento de Voz; Biometria.
NESTE CONTEXTO TEMOS OS PARADIGMAS DE APRENDIZAGEM QUE SÃO: Aprendizagem Não Supervisionada (auto-organização), quando não existe uma agente externo indicando a resposta desejada para os padrões de entrada, e Aprendizagem por Reforço, quando um crítico externo avalia a resposta fornecida pela rede.
VISÃO COMPUTACIONAL: É A TECNOLOGIA DAS MAQUINAS SÃO USADOS PARA SISTEMA ARTIFICIAIS, ELES OBOTEM INFORMAÇÃO DE IMAGENS OU QUAISQUER DADOS MULTI-DIMENSIONAIS.Ex: APLICAÇÕES A CONTROLE DE PROCESSOS(COMO ROBÔS INDUSTRIAIS OU VEÍCULOS AUTÔNOMOS)
RECONHECIMENTO DE VOZ: USADOS PARA INTERPRETAR A VOZ HUMANA E COM ESSA VOZ EXECUTAR INUMERAS TAREFAS
Denomina-se algoritmo de aprendizagem a um conjunto de regras bem definidas para a solução de um problema de aprendizagem.
USADOS PARA RESOLVER VARIEDADES DE TAREFAS QUE SERIAM DIFICIES DE RESOLVER COM PROGRAMAÇÃO BASEADA EM REGRAS COMUNS, SÃO INCLUSOS A VISÃO COMPUTACIONAL E RECONHECIMENTO DE VOZ
SÃO CAPAZES DE FAZER RECONHECIMENTO DE PADRÕES
MODELOS INSPIRADOS NO SISTEMA NERVOSO CENTRAL DO CEREBRO DE UM ANIMAL
 METODOS DE APRENDIAZADO DE MAQUINA 
REDES NEURAIS

Continue navegando