Buscar

Unidade 2 - Atividade Objetiva_ 08 - Redes Neurais e Aprendizagem Profunda (2022)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 1/7
Unidade 2 - Atividade Objetiva
Entrega Sem prazo Pontos 10 Perguntas 5 Disponível depois 5 de mar de 2020 em 22:20
Limite de tempo Nenhum Tentativas permitidas Sem limite
Instruções
Histórico de tentativas
Tentativa Tempo Pontuação
MAIS RECENTE Tentativa 1 5 minutos 10 de 10
 As respostas corretas estão ocultas.
Pontuação desta tentativa: 10 de 10
Enviado 3 abr em 17:47
Esta tentativa levou 5 minutos.
Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de acordo com a instrução dada pela questão.
Fazer o teste novamente
2 / 2 ptsPergunta 1
https://pucminas.instructure.com/courses/90425/quizzes/336303/history?version=1
https://pucminas.instructure.com/courses/90425/quizzes/336303/take?user_id=197796
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 2/7
Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o
aprendizado de máquina a partir dos dados, tendo sido usadas para resolver uma grande variedade de
tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de abordar por meio de
métodos tradicionais da IA.
Marque a alternativa que representa uma afirmação incorreta:
 
A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e
com isso aumentar a capacidade de representação e aproximação das mesmas
 
Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma
camada não são conectados entre si e o sinal percorre a rede em uma única direção, da entrada para a saída
 
Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois
serem combinadas em uma única saída por meio de uma soma ponderada
 Uma rede neural com mais neurônios possui uma maior capacidade 
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 3/7
Na verdade, ocorre exatamente o oposto as entradas são primeiramente combinadas por meio de
um somatório ponderado para só depois se aplicar uma função de ativação ao resultado do
somatório e se produzir a saída do neurônio artificial
2 / 2 ptsPergunta 2
A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar
boas predições. Para tanto, procura-se alcançar um ponto de mínimo da função de perda utilizando a
direção contrária do gradiente.
Marque a alternativa que não representa uma atividade relacionada ao método do gradiente:
 
Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do
ótimo
 Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais 
 
Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo
do método
 Calcular o gradiente da taxa de aprendizado 
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 4/7
No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e
utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de
forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz
nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho
do passo)
2 / 2 ptsPergunta 3
O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD
(gradiente descendente estocástico).
Marque a afirmação correta relacionada ao método SGD:
 
O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do
método
 No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch
 
Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais
adequada com a ineficiência relacionada à presença de inúmeros pontos de sela na função de perda
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 5/7
 O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração 
O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no
lugar do gradiente sobre o conjunto de dados completo
2 / 2 ptsPergunta 4
O método de propagação retrógrada (ou backpropagation) permite se obter os gradientes em um grafo de
computação de forma eficaz.
Marque a alternativa que representa uma afirmação incorreta:
 
Caso um elemento do grafo de computação apresente várias saídas (ou ramificações), durante o passo retrógado
deve utilizar apenas o maior dos valores de gradiente da perda em relação às saídas
 
A derivada da perda em relação a uma entrada de um elemento qualquer do grafo de computação pode ser
obtida a partir da derivada da saída desse elemento em relação a essa entrada e o gradiente da perda em
relação a saída do mesmo elemento
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 6/7
 
Um elemento de adição no grafo de computação faz com que o gradiente da perda em relação a saída desse
elemento seja distribuído para todas as entradas desse elemento uma vez que todas as derivadas “locais” são
unitárias
 O método de propagação retrógrada (ou backpropagation) se baseia na utilização da regra da cadeia
Na verdade, caso ocorra uma ramificação (isto é, um elemento do grafo possua várias saídas), deve-
se realizar a soma de todos os gradientes da perda relacionadas a cada uma das saídas antes de se
aplicar a regra da cadeia para obtenção dos gradientes em relação às entradas
2 / 2 ptsPergunta 5
A sigmoide é a função de ativação que historicamente sempre foi mais popular, uma vez que ser
interpretada como um modelo para a “taxa de disparo” de um neurônio saturado.
Marque a afirmação incorreta relacionada à função sigmoide:
 Seu uso pode “matar” (ou zerar) o fluxo de gradientes 
 Ela produz resultados no intervalo [-1, 1] 
 Ela não é centrada na origem, isto é, em torno de zero 
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022)
https://pucminas.instructure.com/courses/90425/quizzes/336303 7/7
 Ela representa um elemento chave nas redes LSTM 
A saída da função sigmoide está no intervalo entre 0 e 1
Pontuação do teste: 10 de 10

Outros materiais