Buscar

RN Sem3 Ativ10

Prévia do material em texto

PERGUNTA 1
Sobre a composição da rede MLP para problemas de classificação e
regressão é correto afirmar:
I. Um neurônio de saída é usado para representar cada escalar aprendido
em um problema de regressão.
II. Um neurônio é utilizado para representar cada classe em um problema
de classificação. Cada neurônio representa uma resposta indicando se o
padrão pertence ou não àquela classe. Para classificação binária, um
único neurônio de saída pode ser utilizado.
III. Neurônios de saída podem assumir funções de ativação lineares para
problemas de regressão.
Assinale a alternativa correta:
A) Todas as afirmações estão corretas.
B) Nenhuma afirmação está correta.
C) Apenas as afirmações I e III estão corretas.
D) Apenas as afirmações I e II estão corretas.
E) Apenas as afirmações II e III estão corretas.
PERGUNTA 2
A definição de uma rede MLP é um processo bastante empírico e
demanda customização da topologia da rede (hiperparâmetros: número de
camadas, número de neurônios por camadas, taxas de aprendizagem e
momentum etc.) a partir da sua resposta durante o processo de
treinamento (projeto do modelo). Quais das heurísticas abaixo podem ser
utilizadas para melhorar o desempenho do algoritmo de retropropagação?
A) Maximização do conteúdo da informação, escolha adequada da função
de ativação, normalização dos dados e ajuste da taxa de aprendizagem
conforme a densidade de entradas do neurônio.
B) Redução do conjunto de exemplos para treinamento, escolha adequada
da função de ativação, normalização dos dados e ajuste da taxa de
aprendizagem conforme a densidade de entradas do neurônio.
C) Redução do conjunto de exemplos para treinamento, escolha adequada
da função de ativação, normalização dos dados e aumento do valor da
taxa de aprendizagem.
D) Escolha adequada da função de ativação, normalização dos dados e
inclusão de laços de realimentação.
E) Maximização do conteúdo da informação, redução do conjunto de
exemplos para treinamento, utilização de funções de ativação lineares e
ajuste da taxa de aprendizagem conforme a densidade de entradas do
neurônio.
PERGUNTA 3
Sobre a arquitetura tradicional da rede MLP podemos afirmar:
A) A rede pode incluir laços de realimentação, permitindo que memórias de
curto prazo sejam adicionadas ao modelo.
B) A rede é dita totalmente conectada, representando que todos os
neurônios de uma dada camada são alimentados por todos os neurônios
da camada anterior.
C) Em contraste ao Perceptron, a rede MLP possui uma camada oculta
com vários neurônios e uma camada de saída com um único neurônio.
D) O fluxo de sinal se propaga nos dois sentidos da rede, ou seja, o
padrão é apresentado na camada de entrada, se propaga até a camada de
saída. Posteriormente, o sinal de saída é propagado em sentido inverso
até a camada de entrada e comparado ao sinal original.
E) Todos os neurônios da rede possuem informação temporal e o seu sinal
de saída é computado a partir do sinal recebido e da memória previamente
armazenada no nó.
PERGUNTA 4
Sobre os neurônios ocultos de uma rede MLP é correto afirmar:
I. Utilizam funções de ativação lineares com o objetivo de produzir eixos
não correlacionados.
II. A função de ativação deve ser contínua e diferenciável.
III. São equivalentes aos neurônios da rede Perceptron e respondem de
forma binária ao estímulo recebido.
IV. Os neurônios ocultos têm por finalidade extrair características dos
dados de entrada, permitindo o aprendizado de funções complexas.
Assinale a alternativa correta:
A) Todas as afirmações estão corretas.
B) As afirmações I, II e III estão corretas.
C) As afirmações II, III e IV estão corretas.
D) Apenas a afirmação II está correta.
E) As afirmações II e IV estão corretas.
PERGUNTA 5
Qual foi a principal dificuldade observada pelos pesquisadores referente ao
treinamento de redes neurais com múltiplas camadas (MLP)?
A) O ajuste dos pesos dos neurônios ocultos depende do cálculo paralelo
das saídas de todos os neurônios da rede. Essa dependência inviabilizou o
treinamento destas redes antes do advento das GPUs.
B) Os laços de realimentação presentes na arquitetura da rede MLP
dificultam o cálculo do gradiente descendente das unidades ocultas.
C) Não é possível calcular o gradiente descendente nos neurônios ocultos
da rede. Dessa forma, foi necessário desenvolver novas abordagens para
se estimar o erro e a regra para ajuste de pesos destes neurônios.
D) O erro é conhecido apenas na camada de saída da rede. Estimar o erro
e qual deveria ser a correção nos pesos dos neurônios das camadas
ocultas foi a principal limitação no desenvolvimento de um algoritmo de
treinamento para essas redes.
E) Alto custo computacional para se calcular o erro nas unidades ocultas
da rede. Além do custo computacional elevado.
PERGUNTA 6
O problema XOR (OU-Exclusivo) é um problema não-linearmente
separável, logo, necessitamos adicionar neurônios ocultos à rede neural
para que esta seja capaz de aprendê-lo. Sobre a rede MLP
tradicionalmente utilizada para resolver o XOR podemos afirmar:
A) Os neurônios da camada oculta são ortogonais entre si. Um neurônio é
responsável por aprender os exemplos da classe 1 e o segundo neurônio é
responsável por aprender os exemplos da classe 0.
B) Há uma única configuração que permite o aprendizado do problema
XOR e consiste em uma rede com uma única camada oculta contendo
dois neurônios e um neurônio de saída responsável pela classificação final
do problema.
C) Por se tratar de um problema com saída binária (zero ou um), os
neurônios da camada oculta podem assumir funções de ativação lineares.
D) Os neurônios da camada oculta aprendem duas portas lógicas AND e
OR e criam uma nova representação a partir dos dados originais. Essa
nova representação é linearmente separável, permitindo que um único
neurônio de saída seja capaz de separar as classes.
E) Mesmo sendo capaz de aprender fronteiras de separação não-lineares,
o problema XOR não pode ser aprendido por uma rede MLP sem uso de
realimentação.
PERGUNTA 7
Qual é a representação gerada pela camada oculta (neurônios N1 e N2)
da rede abaixo para o padrão de entrada [X1,X2]=[0,0] e para o padrão
[X1,X2]=[1,1]? Considere:
1. Função de ativação Sigmoide Logística.
2. Os pesos estão indicados nas suas respectivas arestas.
3. Bias igual à 1 para ambos os neurônios N1 e N2.
4. Respostas aproximadas com duas casas decimais.
Assinale a alternativa correta:
A) [N1=0,27; N2=0,45] para entradas [0,0] e [N1=0,06; N2=0,92] para
entradas [1,1]
B) [N1=0,27; N2=0,27] para entradas [0,0] e [N1=0,92; N2=0,92] para
entradas [1,1]
C) [N1=0,27; N2=0,27] para entradas [0,0] e [N1=0,06; N2=0,92] para
entradas [1,1]
D) [N1=0,01; N2=0,00] para entradas [0,0] e [N1=0,76; N2=0,90] para
entradas [1,1]
E) [N1=0,01; N2=0,27] para entradas [0,0] e [N1=0,45; N2=0,76] para
entradas [1,1]
EXTRA
O ajuste de pesos dos neurônios ocultos sem o termo de momentum é
definido por:

Continue navegando