Baixe o app para aproveitar ainda mais
Prévia do material em texto
06/07/2022 10:50 Atividade Objetiva 02: 10 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46752/quizzes/92381 1/5 Atividade Objetiva 02 Entrega Sem prazo Pontos 10 Perguntas 5 Disponível depois 5 de mar de 2020 em 22:20 Limite de tempo Nenhum Tentativas permitidas Sem limite Instruções Histórico de tentativas Tentativa Tempo Pontuação MAIS RECENTE Tentativa 1 2 minutos 4 de 10 As respostas corretas estão ocultas. Pontuação desta tentativa: 4 de 10 Enviado 6 jul em 10:49 Esta tentativa levou 2 minutos. Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de acordo com a instrução dada pela questão. Fazer o teste novamente 0 / 2 ptsPergunta 1IncorretaIncorreta Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o aprendizado de máquina a partir dos dados, tendo sido usadas para resolver uma grande variedade de tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de abordar por meio de métodos tradicionais da IA. Marque a alternativa que representa uma afirmação incorreta: https://pucminas.instructure.com/courses/46752/quizzes/92381/history?version=1 https://pucminas.instructure.com/courses/46752/quizzes/92381/take?user_id=136290 06/07/2022 10:50 Atividade Objetiva 02: 10 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46752/quizzes/92381 2/5 Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma camada não são conectados entre si e o sinal percorre a rede em uma única direção, da entrada para a saída Uma rede neural com mais neurônios possui uma maior capacidade Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois serem combinadas em uma única saída por meio de uma soma ponderada A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e com isso aumentar a capacidade de representação e aproximação das mesmas 2 / 2 ptsPergunta 2 A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar boas predições. Para tanto, procura-se alcançar um ponto de mínimo da função de perda utilizando a direção contrária do gradiente. Marque a alternativa que não representa uma atividade relacionada ao método do gradiente: Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo do método 06/07/2022 10:50 Atividade Objetiva 02: 10 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46752/quizzes/92381 3/5 Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do ótimo Calcular o gradiente da taxa de aprendizado No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo) 2 / 2 ptsPergunta 3 O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD (gradiente descendente estocástico). Marque a afirmação correta relacionada ao método SGD: Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais adequada com a ineficiência relacionada à presença de inúmeros pontos de sela na função de perda O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do método No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch 06/07/2022 10:50 Atividade Objetiva 02: 10 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46752/quizzes/92381 4/5 O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no lugar do gradiente sobre o conjunto de dados completo 0 / 2 ptsPergunta 4IncorretaIncorreta O método de propagação retrógrada (ou backpropagation) permite se obter os gradientes em um grafo de computação de forma eficaz. Marque a alternativa que representa uma afirmação incorreta: O método de propagação retrógrada (ou backpropagation) se baseia na utilização da regra da cadeia A derivada da perda em relação a uma entrada de um elemento qualquer do grafo de computação pode ser obtida a partir da derivada da saída desse elemento em relação a essa entrada e o gradiente da perda em relação a saída do mesmo elemento Um elemento de adição no grafo de computação faz com que o gradiente da perda em relação a saída desse elemento seja distribuído para todas as entradas desse elemento uma vez que todas as derivadas “locais” são unitárias Caso um elemento do grafo de computação apresente várias saídas (ou ramificações), durante o passo retrógado deve utilizar apenas o maior dos valores de gradiente da perda em relação às saídas 06/07/2022 10:50 Atividade Objetiva 02: 10 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46752/quizzes/92381 5/5 0 / 2 ptsPergunta 5IncorretaIncorreta A sigmoide é a função de ativação que historicamente sempre foi mais popular, uma vez que ser interpretada como um modelo para a “taxa de disparo” de um neurônio saturado. Marque a afirmação incorreta relacionada à função sigmoide: Seu uso pode “matar” (ou zerar) o fluxo de gradientes Ela produz resultados no intervalo [-1, 1] Ela representa um elemento chave nas redes LSTM Ela não é centrada na origem, isto é, em torno de zero Pontuação do teste: 4 de 10
Compartilhar