Buscar

SocorroDeus2023 - ExFixacaoMBA_CursoIV-parte1_Gabarito

Prévia do material em texto

MBA – Curso IV – Parte 1 
 Prof. João Luís Garcia Rosa 
Exercícios de fixação - Gabarito 
 
 
1. Onde se localiza a subárea de Redes Neurais Artificiais (RNA) no contexto da 
Inteligência Artificial? 
Resp.: As redes neurais artificiais estão localizadas dentro da área de Aprendizado de 
Máquina, subárea da IA. 
 
2. Cite três aplicações atuais das RNA. 
Resp.: E-commerce, previsão do tempo e tradução de máquina. 
 
3. Quando foi proposto o primeiro modelo matemático do neurônio e por quem? 
Resp.: O primeiro modelo matemático do neurônio foi proposto por McCulloch e Pitts 
em 1943. 
 
4. Por que as RNA entraram em um período de pouca pesquisa entre 1969 e 1986? 
Resp.: Por causa da publicação do livro Perceptrons de Minsky e Papert, que 
demonstrava matematicamente que um perceptron não era capaz de resolver um 
problema lógico básico como a função booleana XOR. 
 
5. Quais são os tipos de aprendizagem possíveis com as RNA? 
Resp.: Aprendizado supervisionado, aprendizado não supervisionado e aprendizado 
por reforço. 
 
6. O que é o perceptron? 
Resp.: O perceptron é a forma mais simples de uma rede neural artificial usada para 
classificar padrões linearmente separáveis. 
 
7. Em linhas gerais, como funciona o filtro adaptativo? 
Resp.: A operação do filtro adaptativo consiste em dois processos: (1) Processo de 
filtragem, que envolve a computação de dois sinais, a saída e o sinal de erro; e (2) 
Processo adaptativo, que envolve o ajuste automático dos pesos sinápticos do 
neurônio de acordo com o sinal de erro. 
 
8. O que são padrões linearmente separáveis? 
Resp.: São padrões de duas classes que podem ser separados por uma linha reta, caso 
sejam padrões de duas dimensões, ou por um hiperplano, caso sejam padrões de 
dimensões maiores que dois. 
9. O que é o algoritmo de convergência do perceptron? 
Resp.: O algoritmo pode ser formulado assim: 
1. Se o n-ésimo termo do conjunto de treinamento x(n) é corretamente classificado 
por w(n) computado na n-ésima iteração do algoritmo, nenhuma correção é feita 
ao vetor de pesos. 
2. Caso contrário, o vetor de pesos é atualizado, somando ou subtraindo uma 
parcela, dependendo se o padrão pertence a uma classe ou à outra. 
 
10. O que é a regra delta? 
Resp.: A regra delta é justamente o cálculo da parcela de atualização de pesos usada 
pelo algoritmo de convergência do perceptron. 
 
11. Como ocorre a propagação do sinal de entrada em um perceptron multicamadas 
(MLP)? 
Resp.: O sinal de entrada se propaga através dado MLP numa direção à frente, camada 
por camada (entrada, escondidas e saída). 
 
12. No que consiste o algoritmo de aprendizado conexionista chamado back-propagation? 
Resp.: Back-propagation é um algoritmo supervisionado, que requer duas fases: (1) 
propagação da ativação, e (2) retropropagação do erro. 
 
13. Como a função lógica (booleana) do ou exclusivo (XOR) pode ser resolvida por um 
MLP? 
Resp.: Para resolver o XOR, que é uma função de dados não linearmente separáveis, é 
necessário um MLP com pelo menos duas camadas (uma escondida e uma de saída). A 
camada escondida constrói uma fronteira de decisão e a de saída constrói outra, 
sendo possível desta forma resolver o problema do ou exclusivo. 
 
14. O que é overfitting e o que isso acarreta? 
Resp.: Overfitting ou overtraining: quando a rede aprende muitos exemplos de 
entrada-saída pode terminar memorizando os dados de treinamento. Isso pode fazer 
com que a RNA ache uma característica (devido ao ruído) que está presente nos dados 
de treinamento, mas que não é verdadeira para a função modelada. Quando uma rede 
é overtrained, ela perde a habilidade de generalizar. 
 
15. O que representa o Teorema da Aproximação Universal (TAU)? 
Resp.: O TAU estabelece que uma única camada escondida é suficiente para um MLP 
computar uma aproximação uniforme para um dado conjunto de treinamento 
representado pelo conjunto de entradas e uma saída desejada. 
16. Explique objetivamente o Teorema de Cover da separabilidade dos padrões. 
Resp.: Quando uma rede RBF é usada para realizar uma tarefa de classificação de 
padrões complexos, o problema deve ser transformado em um espaço de alta 
dimensão de uma maneira não-linear. A justificativa está no teorema de Cover da 
separabilidade de padrões, que estabelece que quando se tem padrões linearmente 
separáveis, o problema de classificação torna-se relativamente simples. O teorema de 
Cover diz (em outras palavras) que a probabilidade de separação linear aumenta, à 
medida que a dimensão aumenta. 
 
 
17. Quais são os diferentes papéis das três camadas de uma rede RBF? 
Resp.: A camada de entrada contém nós fonte que conectam a rede ao seu ambiente. 
A segunda camada, a única camada escondida, aplica uma transformação não-linear 
(função de base radial) do espaço de entrada para o espaço escondido (alta 
dimensionalidade). A camada de saída é linear, fornecendo a resposta da rede ao 
padrão (sinal) de ativação aplicado na entrada. 
 
18. Como uma rede RBF trabalha com os aprendizados supervisionado e não 
supervisionado? 
Resp.: O treinamento de uma rede RBF consiste geralmente de dois estágios: Primeiro 
estágio: camada escondida - não supervisionado. Segundo estágio: camada de saída - 
supervisionado. 
 
19. Quais são as principais diferenças entre uma rede RBF e um MLP? 
Resp.: 1. Uma rede RBF (na maioria dos casos) tem uma única camada escondida. 
2. Os nós de computação num MLP, localizados nas camadas escondidas e de saída, 
compartilham um modelo neuronal comum: na rede RBF os nós de computação da 
camada escondida são diferentes e têm um propósito diferente dos de saída. 
3. A camada escondida de uma rede RBF é não-linear e a saída é linear. No MLP, 
camadas escondidas e de saída são usualmente não-lineares. 
4. O argumento da função de ativação de cada unidade escondida numa rede RBF 
computa a norma (distância) euclidiana entre o vetor de entrada e o centro da 
unidade. No caso do MLP, computa-se a produto interno do vetor de entrada e do 
vetor de pesos sinápticos da unidade. 
5. MLP constroem aproximações globais ao mapeamento entrada-saída não-linear. 
Redes RBF que usam não-linearidades localizadas exponencialmente decrescentes (por 
exemplo, funções gaussianas) constroem aproximações locais. 
 
20. Como ocorre a computação em uma rede RBF? 
Resp: O treinamento de uma rede RBF consiste geralmente de dois estágios: 
1. Primeiro estágio: camada escondida - não supervisionado: Determina parâmetros 
das funções de base radial: Número de bases, Centros das bases, Larguras das 
bases. 
2. Segundo estágio: camada de saída – supervisionado: Determina pesos da camada 
de saída: Recebe vetores linearmente separáveis, Supervisionado, 
Classificação/regressão dos vetores de entrada.

Continue navegando