Prévia do material em texto
<p>PERGUNTA 2 ajuste de pesos dos neurônios ocultos sem termo de momentum é definido por: + 1 / + 1 + 1 ji + 1 W ji kj i + A w = ji +1 - 1 W = ji kj i W = n + kj +1 y i 1 ji PERGUNTA 3 Sobre a composição da rede MLP para problemas de classificação e regressão é correto I. Um neurônio de saída é usado para representar cada escalar aprendido em um problema de regressão. II. Um neurônio é utilizado para representar cada classe em um problema de classificação. Cada neurônio representa uma resposta indicando se padrão pertence ou não àquela classe. Para classificação binária, um único neurônio de saída pode ser utilizado. III. Neurônios de saída podem assumir funções de ativação lineares para problemas de regressão. Assinale a alternativa correta: Apenas as afirmações e III estão Apenas as afirmações II estão corretas. Nenhuma afirmação está correta. Apenas as afirmações III estão Todas as afirmações estão corretas. PERGUNTA 4 Qual foi a principal dificuldade observada pelos pesquisadores referente ao treinamento de redes neurais com múltiplas camadas (MLP)? o erro é conhecido apenas na camada de saída da rede. Estimar erro e qual deveria ser a correção nos pesos dos neurônios das camadas ocultas foi a principal limitação no desenvolvimento de um algoritmo de treinamento para essas redes. Os laços de realimentação presentes na arquitetura da rede MLP dificultam o cálculo do gradiente descendente das unidades ocultas.</p><p>PERGUNTA 5 A definição de uma rede MLP é um processo bastante empírico e demanda customização da topologia da rede (hiperparâmetros: número de camadas, número de neurônios por camadas, taxas de aprendizagem e momentum etc.) partir da sua resposta durante processo de treinamento (projeto do modelo). Quais das heurísticas abaixo podem ser utilizadas para melhorar desempenho do algoritmo de retropropagação? Maximização do conteúdo da informação, redução do conjunto de exemplos para treinamento, utilização de funções de ativação lineares e ajuste da taxa de aprendizagem conforme a densidade de entradas do neurônio. Redução do conjunto de exemplos para treinamento, escolha adequada da função de ativação, normalização dos dados e ajuste da taxa de aprendizagem conforme a densidade de entradas do neurônio. Maximização do conteúdo da informação, escolha adequada da função de ativação, normalização dos dados e ajuste da taxa de aprendizagem conforme a densidade de entradas do Escolha adequada da função de ativação, normalização dos dados e inclusão de laços de realimentação. Redução do conjunto de exemplos para treinamento, escolha adequada da função de ativação, normalização dos dados e aumento do valor da taxa de aprendizagem. PERGUNTA 6 Sobre os neurônios ocultos de uma rede MLP é correto afirmar: I. Utilizam funções de ativação lineares com objetivo de produzir eixos não correlacionados. II. A função de ativação deve ser contínua e diferenciável. III. São equivalentes aos neurônios da rede Perceptron e respondem de forma binária ao estímulo recebido. IV. Os neurônios ocultos têm por finalidade extrair características dos dados de entrada, permitindo aprendizado de funções complexas. Assinale alternativa correta: Apenas afirmação II está correta. Todas as afirmações estão As afirmações IV estão corretas. As afirmações II, III IV estão corretas. As afirmações I, II e III estão corretas. PERGUNTA 7 Sobre a arquitetura tradicional da rede MLP podemos afirmar: Todos os neurônios da rede possuem informação temporal e seu sinal de saída é computado a partir do sinal recebido e da previamente armazenada no nó. fluxo de sinal se propaga nos dois sentidos da rede, ou seja, padrão é apresentado na camada de entrada, se propaga até a camada de saída. Posteriormente, sinal de saída é propagado em sentido inverso até a camada de entrada e comparado ao sinal original. A rede é dita totalmente conectada, representando que todos os neurônios de uma dada camada são alimentados por todos os neurônios da camada anterior. Em contraste ao Perceptron, a rede MLP possui uma camada oculta com vários neurônios e uma camada de saída com um único</p>