Baixe o app para aproveitar ainda mais
Prévia do material em texto
9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 1/7 Atividade Objetiva 04 Entrega Sem prazo Pontos 10 Perguntas 5 Disponível depois 7 de abr de 2020 em 0:00 Limite de tempo Nenhum Tentativas permitidas Sem limite Instruções Histórico de tentativas Tentativa Tempo Pontuação MANTIDO Tentativa 3 Menos de 1 minuto 8 de 10 MAIS RECENTE Tentativa 3 Menos de 1 minuto 8 de 10 Tentativa 2 2 minutos 6 de 10 Tentativa 1 8 minutos 4 de 10 As respostas corretas estão ocultas. Pontuação desta tentativa: 8 de 10 Enviado 5 set em 19:01 Esta tentativa levou Menos de 1 minuto. Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de acordo com a instrução dada pela questão. Fazer o teste novamente https://pucminas.instructure.com/courses/64623/quizzes/167899/history?version=3 https://pucminas.instructure.com/courses/64623/quizzes/167899/history?version=3 https://pucminas.instructure.com/courses/64623/quizzes/167899/history?version=2 https://pucminas.instructure.com/courses/64623/quizzes/167899/history?version=1 https://pucminas.instructure.com/courses/64623/quizzes/167899/take?user_id=165143 9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 2/7 2 / 2 ptsPergunta 1 Uma rede neural convolucional geralmente apresenta uma sequência de camadas convolucionais e de agrupamento intercaladas com funções de ativação. Marque a alternativa que representa uma afirmação incorreta: A camada de convolução “desliza” um filtro sobre todas as localizações espaciais da entrada de forma a produzir um mapa de ativação O filtro de uma camada convolucional não precisa se estender por toda a profundidade do volume de entrada O filtro de uma camada convolucional representa um mecanismo para se compartilhar os mesmos parâmetros em diferentes locais, supondo que a entrada seja estacionária Uma camada convolucional pode aprender múltiplos filtros com um número reduzido de parâmetros devido a suposição de estacionariedade da entrada Na verdade, é obrigatório que o filtro se estenda por toda a profundidade do volume de entrada 9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 3/7 2 / 2 ptsPergunta 2 O tamanho do passo (“stride”) e o uso de preenchimento (“padding”) afetam os resultados de uma camada convolucional. Marque a alternativa que representa uma afirmação incorreta: Para uma entrada de tamanho N x N e um filtro de tamanho F x F, a dimensão da saída será (N – F) / S + 1, em que S representa o tamanho do passo (“stride”) Nas camadas convolucionais com passo unitário e filtros de tamanho F x F, é comum se utilizar de preenchimento por meio de uma borda de zeros com tamanho (F – 1) / 2 Preenchimento não ajuda a minimizar o efeito da redução rápida de dimensionalidade espacial Uma camada convolucional com 6 filtros de tamanho 1×1 aprende como realizar uma combinação dos mapas de ativação (ou características) da entrada para produzir 6 novos mapas (ou características) na saída 9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 4/7 Para um filtro de tamanho F, o preenchimento realizado de forma a acrescentar uma borda de zeros com tamanho (F – 1) / 2 é capaz de eliminar o efeito de redução da dimensão espacial quando o passo for 1 2 / 2 ptsPergunta 3 As redes AlexNet e VGG representam dois importantes marcos na evolução das redes neurais profundas aplicadas à tarefa de classificação de imagens. Marque a alternativa que representa uma afirmação incorreta: A rede AlexNet alcançou uma redução taxa de erro de aproximadamente 10% Foi necessário se utilizar de forma intensiva de “data augmentation” para treinamento da rede AlexNet A rede VGG introduziu a ideia de se utilizar filtros menores em redes mais profundas, uma vez que eles conseguem o mesmo efeito e cobertura de filtros maiores utilizando um número menor de parâmetros A rede VGG foi a primeira a se utilizar da função de ativação ReLU (“Rectified Linear Unit”) 9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 5/7 Na verdade, a rede AlexNet foi a primeira a utilizar a função de ativação ReLU 2 / 2 ptsPergunta 4 Mais recentemente, as redes GoogLeNet e ResNet introduziram importantes concepções no projeto e implementação de redes neurais profundas. Marque a alternativa que representa uma afirmação incorreta: A rede GoogLeNet introduziu o uso de vários filtros diferentes em sequência por meio do módulo “Inception” De forma a minimizar seu alto custo computacional, o módulo “Inception” faz uso de convoluções 1 x 1 para redução da dimensionalidade, apesar do aumento do número de parâmetros A rede GoogLeNet se utiliza de agrupamento pela média (“average pooling”) no final da rede ao invés de camadas completamente conectadas para se reduzir o número de parâmetros A rede ResNet utiliza conexões “laterais” (desvios) nos blocos básicos de resíduos para garantir um bom fluxo de gradientes e, consequentemente, viabilizar o treinamento de redes com centenas de camadas 9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 6/7 Na verdade, o módulo “Inception” realiza vários filtros diferentes em paralelo conseguindo assim extrair diferentes características a partir da mesma entrada 0 / 2 ptsPergunta 5IncorretaIncorreta Redes recorrentes introduzem em seus projetos a presença de ciclos e a noção de tempo. Marque a alternativa que representa uma afirmação incorreta: Rede recorrente pode ser “estendida” em várias etapas de tempo, produzindo um grafo acíclico direcionado que viabiliza o uso da propagação retrógrada (“back propagation”), porém seu tamanho dependerá do comprimento da sequência de entrada Em uma rede recorrente, as camadas podem ser empilhadas de forma a se produzir versões profundas, em que cada camada é responsável por adicionar um nível maior de abstração e se utiliza se diferentes parâmetros durante os diferentes intervalos de tempo (em um mesmo nível) Em uma rede recorrente, o gradiente ao longo da dimensão temporal pode tanto crescer como reduzir exponencialmente, inviabilizando o treinamento caso se considere um intervalo de tempo (isto é, tamanho de sequência de entrada) razoável 9/5/2022 Atividade Objetiva 04: 14 - Redes Neurais e Aprendizagem Profunda (2021) https://pucminas.instructure.com/courses/64623/quizzes/167899 7/7 As unidades LSTM (“Long Short Term Memory”) e variações conseguem por meio do uso de uma memória (ou estado) de célula garantir um bom fluxo de gradientes ao longo do tempo e, consequentemente, viabilizar o treinamento de intervalos de tempo mais longos Pontuação do teste: 8 de 10
Compartilhar