Baixe o app para aproveitar ainda mais
Prévia do material em texto
MBA – Curso IV – Parte 1 Prof. João Luís Garcia Rosa Exercícios de fixação - Gabarito 1. Onde se localiza a subárea de Redes Neurais Artificiais (RNA) no contexto da Inteligência Artificial? Resp.: As redes neurais artificiais estão localizadas dentro da área de Aprendizado de Máquina, subárea da IA. 2. Cite três aplicações atuais das RNA. Resp.: E-commerce, previsão do tempo e tradução de máquina. 3. Quando foi proposto o primeiro modelo matemático do neurônio e por quem? Resp.: O primeiro modelo matemático do neurônio foi proposto por McCulloch e Pitts em 1943. 4. Por que as RNA entraram em um período de pouca pesquisa entre 1969 e 1986? Resp.: Por causa da publicação do livro Perceptrons de Minsky e Papert, que demonstrava matematicamente que um perceptron não era capaz de resolver um problema lógico básico como a função booleana XOR. 5. Quais são os tipos de aprendizagem possíveis com as RNA? Resp.: Aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço. 6. O que é o perceptron? Resp.: O perceptron é a forma mais simples de uma rede neural artificial usada para classificar padrões linearmente separáveis. 7. Em linhas gerais, como funciona o filtro adaptativo? Resp.: A operação do filtro adaptativo consiste em dois processos: (1) Processo de filtragem, que envolve a computação de dois sinais, a saída e o sinal de erro; e (2) Processo adaptativo, que envolve o ajuste automático dos pesos sinápticos do neurônio de acordo com o sinal de erro. 8. O que são padrões linearmente separáveis? Resp.: São padrões de duas classes que podem ser separados por uma linha reta, caso sejam padrões de duas dimensões, ou por um hiperplano, caso sejam padrões de dimensões maiores que dois. 9. O que é o algoritmo de convergência do perceptron? Resp.: O algoritmo pode ser formulado assim: 1. Se o n-ésimo termo do conjunto de treinamento x(n) é corretamente classificado por w(n) computado na n-ésima iteração do algoritmo, nenhuma correção é feita ao vetor de pesos. 2. Caso contrário, o vetor de pesos é atualizado, somando ou subtraindo uma parcela, dependendo se o padrão pertence a uma classe ou à outra. 10. O que é a regra delta? Resp.: A regra delta é justamente o cálculo da parcela de atualização de pesos usada pelo algoritmo de convergência do perceptron. 11. Como ocorre a propagação do sinal de entrada em um perceptron multicamadas (MLP)? Resp.: O sinal de entrada se propaga através dado MLP numa direção à frente, camada por camada (entrada, escondidas e saída). 12. No que consiste o algoritmo de aprendizado conexionista chamado back-propagation? Resp.: Back-propagation é um algoritmo supervisionado, que requer duas fases: (1) propagação da ativação, e (2) retropropagação do erro. 13. Como a função lógica (booleana) do ou exclusivo (XOR) pode ser resolvida por um MLP? Resp.: Para resolver o XOR, que é uma função de dados não linearmente separáveis, é necessário um MLP com pelo menos duas camadas (uma escondida e uma de saída). A camada escondida constrói uma fronteira de decisão e a de saída constrói outra, sendo possível desta forma resolver o problema do ou exclusivo. 14. O que é overfitting e o que isso acarreta? Resp.: Overfitting ou overtraining: quando a rede aprende muitos exemplos de entrada-saída pode terminar memorizando os dados de treinamento. Isso pode fazer com que a RNA ache uma característica (devido ao ruído) que está presente nos dados de treinamento, mas que não é verdadeira para a função modelada. Quando uma rede é overtrained, ela perde a habilidade de generalizar. 15. O que representa o Teorema da Aproximação Universal (TAU)? Resp.: O TAU estabelece que uma única camada escondida é suficiente para um MLP computar uma aproximação uniforme para um dado conjunto de treinamento representado pelo conjunto de entradas e uma saída desejada. 16. Explique objetivamente o Teorema de Cover da separabilidade dos padrões. Resp.: Quando uma rede RBF é usada para realizar uma tarefa de classificação de padrões complexos, o problema deve ser transformado em um espaço de alta dimensão de uma maneira não-linear. A justificativa está no teorema de Cover da separabilidade de padrões, que estabelece que quando se tem padrões linearmente separáveis, o problema de classificação torna-se relativamente simples. O teorema de Cover diz (em outras palavras) que a probabilidade de separação linear aumenta, à medida que a dimensão aumenta. 17. Quais são os diferentes papéis das três camadas de uma rede RBF? Resp.: A camada de entrada contém nós fonte que conectam a rede ao seu ambiente. A segunda camada, a única camada escondida, aplica uma transformação não-linear (função de base radial) do espaço de entrada para o espaço escondido (alta dimensionalidade). A camada de saída é linear, fornecendo a resposta da rede ao padrão (sinal) de ativação aplicado na entrada. 18. Como uma rede RBF trabalha com os aprendizados supervisionado e não supervisionado? Resp.: O treinamento de uma rede RBF consiste geralmente de dois estágios: Primeiro estágio: camada escondida - não supervisionado. Segundo estágio: camada de saída - supervisionado. 19. Quais são as principais diferenças entre uma rede RBF e um MLP? Resp.: 1. Uma rede RBF (na maioria dos casos) tem uma única camada escondida. 2. Os nós de computação num MLP, localizados nas camadas escondidas e de saída, compartilham um modelo neuronal comum: na rede RBF os nós de computação da camada escondida são diferentes e têm um propósito diferente dos de saída. 3. A camada escondida de uma rede RBF é não-linear e a saída é linear. No MLP, camadas escondidas e de saída são usualmente não-lineares. 4. O argumento da função de ativação de cada unidade escondida numa rede RBF computa a norma (distância) euclidiana entre o vetor de entrada e o centro da unidade. No caso do MLP, computa-se a produto interno do vetor de entrada e do vetor de pesos sinápticos da unidade. 5. MLP constroem aproximações globais ao mapeamento entrada-saída não-linear. Redes RBF que usam não-linearidades localizadas exponencialmente decrescentes (por exemplo, funções gaussianas) constroem aproximações locais. 20. Como ocorre a computação em uma rede RBF? Resp: O treinamento de uma rede RBF consiste geralmente de dois estágios: 1. Primeiro estágio: camada escondida - não supervisionado: Determina parâmetros das funções de base radial: Número de bases, Centros das bases, Larguras das bases. 2. Segundo estágio: camada de saída – supervisionado: Determina pesos da camada de saída: Recebe vetores linearmente separáveis, Supervisionado, Classificação/regressão dos vetores de entrada.
Compartilhar