Baixe o app para aproveitar ainda mais
Prévia do material em texto
4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 1/7 Unidade 2 - Atividade Objetiva Entrega Sem prazo Pontos 10 Perguntas 5 Disponível depois 5 de mar de 2020 em 22:20 Limite de tempo Nenhum Tentativas permitidas Sem limite Instruções Histórico de tentativas Tentativa Tempo Pontuação MAIS RECENTE Tentativa 1 5 minutos 10 de 10 As respostas corretas estão ocultas. Pontuação desta tentativa: 10 de 10 Enviado 3 abr em 17:47 Esta tentativa levou 5 minutos. Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de acordo com a instrução dada pela questão. Fazer o teste novamente 2 / 2 ptsPergunta 1 https://pucminas.instructure.com/courses/90425/quizzes/336303/history?version=1 https://pucminas.instructure.com/courses/90425/quizzes/336303/take?user_id=197796 4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 2/7 Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o aprendizado de máquina a partir dos dados, tendo sido usadas para resolver uma grande variedade de tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de abordar por meio de métodos tradicionais da IA. Marque a alternativa que representa uma afirmação incorreta: A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e com isso aumentar a capacidade de representação e aproximação das mesmas Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma camada não são conectados entre si e o sinal percorre a rede em uma única direção, da entrada para a saída Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois serem combinadas em uma única saída por meio de uma soma ponderada Uma rede neural com mais neurônios possui uma maior capacidade 4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 3/7 Na verdade, ocorre exatamente o oposto as entradas são primeiramente combinadas por meio de um somatório ponderado para só depois se aplicar uma função de ativação ao resultado do somatório e se produzir a saída do neurônio artificial 2 / 2 ptsPergunta 2 A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar boas predições. Para tanto, procura-se alcançar um ponto de mínimo da função de perda utilizando a direção contrária do gradiente. Marque a alternativa que não representa uma atividade relacionada ao método do gradiente: Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do ótimo Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo do método Calcular o gradiente da taxa de aprendizado 4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 4/7 No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo) 2 / 2 ptsPergunta 3 O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD (gradiente descendente estocástico). Marque a afirmação correta relacionada ao método SGD: O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do método No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais adequada com a ineficiência relacionada à presença de inúmeros pontos de sela na função de perda 4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 5/7 O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no lugar do gradiente sobre o conjunto de dados completo 2 / 2 ptsPergunta 4 O método de propagação retrógrada (ou backpropagation) permite se obter os gradientes em um grafo de computação de forma eficaz. Marque a alternativa que representa uma afirmação incorreta: Caso um elemento do grafo de computação apresente várias saídas (ou ramificações), durante o passo retrógado deve utilizar apenas o maior dos valores de gradiente da perda em relação às saídas A derivada da perda em relação a uma entrada de um elemento qualquer do grafo de computação pode ser obtida a partir da derivada da saída desse elemento em relação a essa entrada e o gradiente da perda em relação a saída do mesmo elemento 4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 6/7 Um elemento de adição no grafo de computação faz com que o gradiente da perda em relação a saída desse elemento seja distribuído para todas as entradas desse elemento uma vez que todas as derivadas “locais” são unitárias O método de propagação retrógrada (ou backpropagation) se baseia na utilização da regra da cadeia Na verdade, caso ocorra uma ramificação (isto é, um elemento do grafo possua várias saídas), deve- se realizar a soma de todos os gradientes da perda relacionadas a cada uma das saídas antes de se aplicar a regra da cadeia para obtenção dos gradientes em relação às entradas 2 / 2 ptsPergunta 5 A sigmoide é a função de ativação que historicamente sempre foi mais popular, uma vez que ser interpretada como um modelo para a “taxa de disparo” de um neurônio saturado. Marque a afirmação incorreta relacionada à função sigmoide: Seu uso pode “matar” (ou zerar) o fluxo de gradientes Ela produz resultados no intervalo [-1, 1] Ela não é centrada na origem, isto é, em torno de zero 4/3/23, 5:50 PM Unidade 2 - Atividade Objetiva: 08 - Redes Neurais e Aprendizagem Profunda (2022) https://pucminas.instructure.com/courses/90425/quizzes/336303 7/7 Ela representa um elemento chave nas redes LSTM A saída da função sigmoide está no intervalo entre 0 e 1 Pontuação do teste: 10 de 10
Compartilhar