Baixe o app para aproveitar ainda mais
Prévia do material em texto
PERGUNTA 1 Sobre a composição da rede MLP para problemas de classificação e regressão é correto afirmar: I. Um neurônio de saída é usado para representar cada escalar aprendido em um problema de regressão. II. Um neurônio é utilizado para representar cada classe em um problema de classificação. Cada neurônio representa uma resposta indicando se o padrão pertence ou não àquela classe. Para classificação binária, um único neurônio de saída pode ser utilizado. III. Neurônios de saída podem assumir funções de ativação lineares para problemas de regressão. Assinale a alternativa correta: A) Todas as afirmações estão corretas. B) Nenhuma afirmação está correta. C) Apenas as afirmações I e III estão corretas. D) Apenas as afirmações I e II estão corretas. E) Apenas as afirmações II e III estão corretas. PERGUNTA 2 A definição de uma rede MLP é um processo bastante empírico e demanda customização da topologia da rede (hiperparâmetros: número de camadas, número de neurônios por camadas, taxas de aprendizagem e momentum etc.) a partir da sua resposta durante o processo de treinamento (projeto do modelo). Quais das heurísticas abaixo podem ser utilizadas para melhorar o desempenho do algoritmo de retropropagação? A) Maximização do conteúdo da informação, escolha adequada da função de ativação, normalização dos dados e ajuste da taxa de aprendizagem conforme a densidade de entradas do neurônio. B) Redução do conjunto de exemplos para treinamento, escolha adequada da função de ativação, normalização dos dados e ajuste da taxa de aprendizagem conforme a densidade de entradas do neurônio. C) Redução do conjunto de exemplos para treinamento, escolha adequada da função de ativação, normalização dos dados e aumento do valor da taxa de aprendizagem. D) Escolha adequada da função de ativação, normalização dos dados e inclusão de laços de realimentação. E) Maximização do conteúdo da informação, redução do conjunto de exemplos para treinamento, utilização de funções de ativação lineares e ajuste da taxa de aprendizagem conforme a densidade de entradas do neurônio. PERGUNTA 3 Sobre a arquitetura tradicional da rede MLP podemos afirmar: A) A rede pode incluir laços de realimentação, permitindo que memórias de curto prazo sejam adicionadas ao modelo. B) A rede é dita totalmente conectada, representando que todos os neurônios de uma dada camada são alimentados por todos os neurônios da camada anterior. C) Em contraste ao Perceptron, a rede MLP possui uma camada oculta com vários neurônios e uma camada de saída com um único neurônio. D) O fluxo de sinal se propaga nos dois sentidos da rede, ou seja, o padrão é apresentado na camada de entrada, se propaga até a camada de saída. Posteriormente, o sinal de saída é propagado em sentido inverso até a camada de entrada e comparado ao sinal original. E) Todos os neurônios da rede possuem informação temporal e o seu sinal de saída é computado a partir do sinal recebido e da memória previamente armazenada no nó. PERGUNTA 4 Sobre os neurônios ocultos de uma rede MLP é correto afirmar: I. Utilizam funções de ativação lineares com o objetivo de produzir eixos não correlacionados. II. A função de ativação deve ser contínua e diferenciável. III. São equivalentes aos neurônios da rede Perceptron e respondem de forma binária ao estímulo recebido. IV. Os neurônios ocultos têm por finalidade extrair características dos dados de entrada, permitindo o aprendizado de funções complexas. Assinale a alternativa correta: A) Todas as afirmações estão corretas. B) As afirmações I, II e III estão corretas. C) As afirmações II, III e IV estão corretas. D) Apenas a afirmação II está correta. E) As afirmações II e IV estão corretas. PERGUNTA 5 Qual foi a principal dificuldade observada pelos pesquisadores referente ao treinamento de redes neurais com múltiplas camadas (MLP)? A) O ajuste dos pesos dos neurônios ocultos depende do cálculo paralelo das saídas de todos os neurônios da rede. Essa dependência inviabilizou o treinamento destas redes antes do advento das GPUs. B) Os laços de realimentação presentes na arquitetura da rede MLP dificultam o cálculo do gradiente descendente das unidades ocultas. C) Não é possível calcular o gradiente descendente nos neurônios ocultos da rede. Dessa forma, foi necessário desenvolver novas abordagens para se estimar o erro e a regra para ajuste de pesos destes neurônios. D) O erro é conhecido apenas na camada de saída da rede. Estimar o erro e qual deveria ser a correção nos pesos dos neurônios das camadas ocultas foi a principal limitação no desenvolvimento de um algoritmo de treinamento para essas redes. E) Alto custo computacional para se calcular o erro nas unidades ocultas da rede. Além do custo computacional elevado. PERGUNTA 6 O problema XOR (OU-Exclusivo) é um problema não-linearmente separável, logo, necessitamos adicionar neurônios ocultos à rede neural para que esta seja capaz de aprendê-lo. Sobre a rede MLP tradicionalmente utilizada para resolver o XOR podemos afirmar: A) Os neurônios da camada oculta são ortogonais entre si. Um neurônio é responsável por aprender os exemplos da classe 1 e o segundo neurônio é responsável por aprender os exemplos da classe 0. B) Há uma única configuração que permite o aprendizado do problema XOR e consiste em uma rede com uma única camada oculta contendo dois neurônios e um neurônio de saída responsável pela classificação final do problema. C) Por se tratar de um problema com saída binária (zero ou um), os neurônios da camada oculta podem assumir funções de ativação lineares. D) Os neurônios da camada oculta aprendem duas portas lógicas AND e OR e criam uma nova representação a partir dos dados originais. Essa nova representação é linearmente separável, permitindo que um único neurônio de saída seja capaz de separar as classes. E) Mesmo sendo capaz de aprender fronteiras de separação não-lineares, o problema XOR não pode ser aprendido por uma rede MLP sem uso de realimentação. PERGUNTA 7 Qual é a representação gerada pela camada oculta (neurônios N1 e N2) da rede abaixo para o padrão de entrada [X1,X2]=[0,0] e para o padrão [X1,X2]=[1,1]? Considere: 1. Função de ativação Sigmoide Logística. 2. Os pesos estão indicados nas suas respectivas arestas. 3. Bias igual à 1 para ambos os neurônios N1 e N2. 4. Respostas aproximadas com duas casas decimais. Assinale a alternativa correta: A) [N1=0,27; N2=0,45] para entradas [0,0] e [N1=0,06; N2=0,92] para entradas [1,1] B) [N1=0,27; N2=0,27] para entradas [0,0] e [N1=0,92; N2=0,92] para entradas [1,1] C) [N1=0,27; N2=0,27] para entradas [0,0] e [N1=0,06; N2=0,92] para entradas [1,1] D) [N1=0,01; N2=0,00] para entradas [0,0] e [N1=0,76; N2=0,90] para entradas [1,1] E) [N1=0,01; N2=0,27] para entradas [0,0] e [N1=0,45; N2=0,76] para entradas [1,1] EXTRA O ajuste de pesos dos neurônios ocultos sem o termo de momentum é definido por:
Compartilhar