Buscar

Atividade Objetiva 02_ 11 - Redes Neurais e Aprendizagem Profunda (2020)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020)
https://pucminas.instructure.com/courses/46753/quizzes/92387 1/6
Atividade Objetiva 02
Entrega Sem prazo Pontos 10 Perguntas 5
Disponível depois 5 de mar de 2020 em 22:20 Limite de tempo Nenhum
Tentativas permitidas Sem limite
Instruções
Histórico de tentativas
Tentativa Tempo Pontuação
MANTIDO Tentativa 4 Menos de 1 minuto 10 de 10
MAIS RECENTE Tentativa 4 Menos de 1 minuto 10 de 10
Tentativa 3 Menos de 1 minuto 8 de 10
Tentativa 2 1 minuto 8 de 10
Tentativa 1 37 minutos 6 de 10
 As respostas corretas estão ocultas.
Pontuação desta tentativa: 10 de 10
Enviado 22 dez em 10:40
Esta tentativa levou Menos de 1 minuto.
Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de
acordo com a instrução dada pela questão.
Fazer o teste novamente
2 / 2 ptsPergunta 1
Redes neurais artificiais são modelos inspirados pelo sistema nervoso
e são capazes de realizar o aprendizado de máquina a partir dos
dados, tendo sido usadas para resolver uma grande variedade de
tarefas, tais como visão computacional e reconhecimento de voz, que
são difíceis de abordar por meio de métodos tradicionais da IA.
Marque a alternativa que representa uma afirmação incorreta:
https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=4
https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=4
https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=3
https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=2
https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=1
https://pucminas.instructure.com/courses/46753/quizzes/92387/take?user_id=120058
22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020)
https://pucminas.instructure.com/courses/46753/quizzes/92387 2/6
 
A função de ativação é essencial para introduzir um componente de
não linearidade nas redes neurais artificiais e com isso aumentar a
capacidade de representação e aproximação das mesmas
 
Uma rede neural feed-forward têm neurônios agrupados em camadas,
sendo que os neurônios de uma mesma camada não são conectados
entre si e o sinal percorre a rede em uma única direção, da entrada
para a saída
 
Em um neurônio artificial, as entradas são primeiramente submetidas a
uma função de ativação para só depois serem combinadas em uma
única saída por meio de uma soma ponderada
 
Uma rede neural com mais neurônios possui uma maior capacidade 
Na verdade, ocorre exatamente o oposto as entradas são
primeiramente combinadas por meio de um somatório
ponderado para só depois se aplicar uma função de ativação ao
resultado do somatório e se produzir a saída do neurônio
artificial
2 / 2 ptsPergunta 2
A otimização da função de perda de uma rede neural busca obter um
modelo que seja capaz de realizar boas predições. Para tanto,
procura-se alcançar um ponto de mínimo da função de perda utilizando
a direção contrária do gradiente.
Marque a alternativa que não representa uma atividade relacionada ao
método do gradiente:
22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020)
https://pucminas.instructure.com/courses/46753/quizzes/92387 3/6
 
Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo
conjunto, de preferência, mais próximo do ótimo
 
Avaliar a função de perda em relação ao conjunto de pesos ou
parâmetros atuais
 
Usar o gradiente da função de perda e o tamanho do passo para
modificar os pesos ou parâmetros a cada passo do método
 Calcular o gradiente da taxa de aprendizado 
No método do gradiente, deve-se calcular o gradiente da função
de perda em relação aos pesos e utilizá-lo juntamente com o
tamanho do passo (ou taxa de aprendizado) para se ajustar os
pesos de forma a se obter preferencialmente um novo conjunto
de pesos mais próximo do ótimo. Não faz nenhum sentido e
nem é necessário se calcular o gradiente do da taxa de
aprendizado (ou tamanho do passo)
2 / 2 ptsPergunta 3
O método mais utilizado no treinamento de redes neurais e, em
especial, de redes profundas é o SGD (gradiente descendente
estocástico).
Marque a afirmação correta relacionada ao método SGD:
 
O comportamento estocástico se deve a amostragem da taxa de
aprendizado realizada durante as iterações do método
22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020)
https://pucminas.instructure.com/courses/46753/quizzes/92387 4/6
 
No SGD, calcula-se o gradiente sobre uma amostra do conjunto de
dados chamada de minibatch
 
Na verdade, o SGD surge como uma alternativa ao método do
gradiente “básico” capaz de lidar de forma mais adequada com a
ineficiência relacionada à presença de inúmeros pontos de sela na
função de perda
 
O SGD é conhecido como um método estocástico pois utiliza o
conjunto completo de dados a cada iteração
O SGD usa o gradiente de um minibatch (isto é, uma amostra
aleatório do conjunto de dados) no lugar do gradiente sobre o
conjunto de dados completo
2 / 2 ptsPergunta 4
O método de propagação retrógrada (ou backpropagation) permite se
obter os gradientes em um grafo de computação de forma eficaz.
Marque a alternativa que representa uma afirmação incorreta:
 
Caso um elemento do grafo de computação apresente várias saídas
(ou ramificações), durante o passo retrógado deve utilizar apenas o
maior dos valores de gradiente da perda em relação às saídas
 
A derivada da perda em relação a uma entrada de um elemento
qualquer do grafo de computação pode ser obtida a partir da derivada
da saída desse elemento em relação a essa entrada e o gradiente da
perda em relação a saída do mesmo elemento
22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020)
https://pucminas.instructure.com/courses/46753/quizzes/92387 5/6
 
Um elemento de adição no grafo de computação faz com que o
gradiente da perda em relação a saída desse elemento seja distribuído
para todas as entradas desse elemento uma vez que todas as
derivadas “locais” são unitárias
 
O método de propagação retrógrada (ou backpropagation) se baseia
na utilização da regra da cadeia
Na verdade, caso ocorra uma ramificação (isto é, um elemento
do grafo possua várias saídas), deve-se realizar a soma de
todos os gradientes da perda relacionadas a cada uma das
saídas antes de se aplicar a regra da cadeia para obtenção dos
gradientes em relação às entradas
2 / 2 ptsPergunta 5
A sigmoide é a função de ativação que historicamente sempre foi mais
popular, uma vez que ser interpretada como um modelo para a “taxa
de disparo” de um neurônio saturado.
Marque a afirmação incorreta relacionada à função sigmoide:
 Seu uso pode “matar” (ou zerar) o fluxo de gradientes 
 Ela produz resultados no intervalo [-1, 1] 
 Ela não é centrada na origem, isto é, em torno de zero 
 Ela representa um elemento chave nas redes LSTM 
A saída da função sigmoide está no intervalo entre 0 e 1
22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020)
https://pucminas.instructure.com/courses/46753/quizzes/92387 6/6
Pontuação do teste: 10 de 10

Outros materiais