Baixe o app para aproveitar ainda mais
Prévia do material em texto
22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46753/quizzes/92387 1/6 Atividade Objetiva 02 Entrega Sem prazo Pontos 10 Perguntas 5 Disponível depois 5 de mar de 2020 em 22:20 Limite de tempo Nenhum Tentativas permitidas Sem limite Instruções Histórico de tentativas Tentativa Tempo Pontuação MANTIDO Tentativa 4 Menos de 1 minuto 10 de 10 MAIS RECENTE Tentativa 4 Menos de 1 minuto 10 de 10 Tentativa 3 Menos de 1 minuto 8 de 10 Tentativa 2 1 minuto 8 de 10 Tentativa 1 37 minutos 6 de 10 As respostas corretas estão ocultas. Pontuação desta tentativa: 10 de 10 Enviado 22 dez em 10:40 Esta tentativa levou Menos de 1 minuto. Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de acordo com a instrução dada pela questão. Fazer o teste novamente 2 / 2 ptsPergunta 1 Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o aprendizado de máquina a partir dos dados, tendo sido usadas para resolver uma grande variedade de tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de abordar por meio de métodos tradicionais da IA. Marque a alternativa que representa uma afirmação incorreta: https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=4 https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=4 https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=3 https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=2 https://pucminas.instructure.com/courses/46753/quizzes/92387/history?version=1 https://pucminas.instructure.com/courses/46753/quizzes/92387/take?user_id=120058 22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46753/quizzes/92387 2/6 A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e com isso aumentar a capacidade de representação e aproximação das mesmas Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma camada não são conectados entre si e o sinal percorre a rede em uma única direção, da entrada para a saída Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois serem combinadas em uma única saída por meio de uma soma ponderada Uma rede neural com mais neurônios possui uma maior capacidade Na verdade, ocorre exatamente o oposto as entradas são primeiramente combinadas por meio de um somatório ponderado para só depois se aplicar uma função de ativação ao resultado do somatório e se produzir a saída do neurônio artificial 2 / 2 ptsPergunta 2 A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar boas predições. Para tanto, procura-se alcançar um ponto de mínimo da função de perda utilizando a direção contrária do gradiente. Marque a alternativa que não representa uma atividade relacionada ao método do gradiente: 22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46753/quizzes/92387 3/6 Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do ótimo Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo do método Calcular o gradiente da taxa de aprendizado No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo) 2 / 2 ptsPergunta 3 O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD (gradiente descendente estocástico). Marque a afirmação correta relacionada ao método SGD: O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do método 22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46753/quizzes/92387 4/6 No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais adequada com a ineficiência relacionada à presença de inúmeros pontos de sela na função de perda O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no lugar do gradiente sobre o conjunto de dados completo 2 / 2 ptsPergunta 4 O método de propagação retrógrada (ou backpropagation) permite se obter os gradientes em um grafo de computação de forma eficaz. Marque a alternativa que representa uma afirmação incorreta: Caso um elemento do grafo de computação apresente várias saídas (ou ramificações), durante o passo retrógado deve utilizar apenas o maior dos valores de gradiente da perda em relação às saídas A derivada da perda em relação a uma entrada de um elemento qualquer do grafo de computação pode ser obtida a partir da derivada da saída desse elemento em relação a essa entrada e o gradiente da perda em relação a saída do mesmo elemento 22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46753/quizzes/92387 5/6 Um elemento de adição no grafo de computação faz com que o gradiente da perda em relação a saída desse elemento seja distribuído para todas as entradas desse elemento uma vez que todas as derivadas “locais” são unitárias O método de propagação retrógrada (ou backpropagation) se baseia na utilização da regra da cadeia Na verdade, caso ocorra uma ramificação (isto é, um elemento do grafo possua várias saídas), deve-se realizar a soma de todos os gradientes da perda relacionadas a cada uma das saídas antes de se aplicar a regra da cadeia para obtenção dos gradientes em relação às entradas 2 / 2 ptsPergunta 5 A sigmoide é a função de ativação que historicamente sempre foi mais popular, uma vez que ser interpretada como um modelo para a “taxa de disparo” de um neurônio saturado. Marque a afirmação incorreta relacionada à função sigmoide: Seu uso pode “matar” (ou zerar) o fluxo de gradientes Ela produz resultados no intervalo [-1, 1] Ela não é centrada na origem, isto é, em torno de zero Ela representa um elemento chave nas redes LSTM A saída da função sigmoide está no intervalo entre 0 e 1 22/12/2021 10:40 Atividade Objetiva 02: 11 - Redes Neurais e Aprendizagem Profunda (2020) https://pucminas.instructure.com/courses/46753/quizzes/92387 6/6 Pontuação do teste: 10 de 10
Compartilhar