Baixe o app para aproveitar ainda mais
Prévia do material em texto
19/04/2023, 21:31 Cosmos · Cosmos https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 1/6 Deep learning Professor(a): Rogério Ferreira da Silva (Mestrado acadêmico) 1) 2) Prepare-se! Chegou a hora de você testar o conhecimento adquirido nesta disciplina. Ressaltamos que a nota para aprovação é 7,0 (sete) e será adquirida exclusivamente por meio da realização desta avaliação virtual. Seu certificado será emitido apenas após a aprovação. Analise o código-fonte a seguir que implementa a arquitetura de um RNN para uma tarefa de processamento de linguagem natural. Com base neste código-fonte, podemos afirmar que: I. As duas primeiras camadas da RNN são do tipo GRU e são formadas por 128 unidades. II. As duas primeiras camadas da RNN utilizam a técnica de regularização dropout com taxa de 20%. III. A camada de saída da RNN é totalmente conectada e utiliza a função de ativação softmax. IV. A arquitetura da RNN é compilada com a função de perda de entropia cruzada binária. V. Para gerar um modelo com base nos dados de treinamento, a RNN é treinada por 20 épocas. São verdadeiras: Alternativas: I, II, III e V, apenas. CORRETO I, II, IV e V, apenas. I, III, IV e V, apenas. II, III, IV e V, apenas. I, II, III e IV, apenas. Código da questão: 61916 Sobre as diferentes arquiteturas de redes neurais convolucionais, podemos afirmar que: I. Na arquitetura LeNet-5, a camada de saída é um pouco diferente: em vez de calcular a multiplicação da matriz das entradas e do vetor de pesos, cada neurônio gera o quadrado da distância euclidiana entre seu vetor de entrada e seu vetor de peso. Resolução comentada: a afirmação I é verdadeira, pois as duas primeiras camadas da RNN são do tipo GRU e são formadas por 128 unidades; a II é correta, pois as duas primeiras camadas da RNN utilizam a técnica de regularização dropout com taxa de 20%; a III é verdadeira, pois a camada de saída da RNN é totalmente conectada e utiliza a função de ativação softmax; e a V é correta, pois, para gerar um modelo com base nos dados de treinamento, a RNN é treinada por 20 épocas. A IV está errada, pois a arquitetura da RNN é compilada com a função de perda de entropia cruzada categórica esparsa. 19/04/2023, 21:31 Cosmos · Cosmos https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 2/6 3) II. Na arquitetura LeNet-5, as camadas pooling são ligeiramente mais complexas do que o normal: cada neurônio calcula a média de suas entradas, então multiplica o resultado por um coeficiente, adiciona um termo de polarização e, finalmente, aplica a função de ativação. III. Na arquitetura AlexNet, os autores usaram duas técnicas de regularização para reduzir o sobreajuste: aplicaram a técnica dropout com uma taxa de 50% e, em seguida, utilizaram uma estratégia de “aumento” com o objetivo de expandir o tamanho do conjunto de treinamento. IV. Na arquitetura GoogLeNet, todas as camadas convolucionais usam a função de ativação ReLU. O segundo conjunto de camadas convolucionais usa tamanhos de kernel diferentes, permitindo que eles capturem padrões em escalas diferentes. V. A arquitetura ResNet é conhecida por ser pouca profunda. Assim, ela pode utilizar uma técnica chamada conexões de salto (ou de atalho): o sinal que entra em uma camada também é adicionado à saída de uma camada localizada mais adiante na rede. São verdadeiras: Alternativas: II, III e IV, apenas. I, II, III e V, apenas. II, III, IV e V, apenas. I, II, III e IV, apenas. CORRETO I, III, IV e V, apenas. Código da questão: 62301 As arquiteturas para a implementação de uma rede neural artificial são as mais diversas possíveis, incluindo desde um único neurônio até a interligação de milhões de unidades. Dentre as características das arquiteturas listadas a seguir, assinale aquela que é a principal propriedade das redes neurais profundas. Alternativas: Função de perda cross entropy. Camadas de neurônios ocultas. CORRETO Função de ativação ReLU. Neurônio de viés. Função de otimização. Código da questão: 61897 Resolução comentada: a afirmação I é verdadeira, pois a arquitetura LeNet-5 usa uma estratégia diferente e mais complexa na camada de saída; a II é correta, pois as camadas pooling da arquitetura LeNet-5 são mais complexas que em outras redes; a III é correta, pois a arquitetura AlexNet usa duas técnicas de regularização para evitar sobreajuste; e a IV é correta, pois a arquitetura GoogLeNet usa a função de ativação ReLU e tamanhos diferentes de conjuntos de camadas convolucionais. A V está errada, pois a arquitetura ResNet, apesar de utilizar a técnica de conexões de salto, é mais profunda que as outras arquiteturas CNN. Resolução comentada: considera-se que uma rede neural profunda é aquela cuja arquitetura possui duas ou mais camadas ocultas. 19/04/2023, 21:31 Cosmos · Cosmos https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 3/6 4) 5) 6) Leia e associe as duas colunas: Assinale a alternativa que traz a associação correta entre as duas colunas: Alternativas: I – C; II – B; III – A. CORRETO I – B; II – A; III – C I – C; II – A; III – B. I – A; II – B; III – C. I – B; II – C; III – A. Código da questão: 61901 Um multilayer perceptron pode ser usado para tarefas de classificação. Na classificação ______________, é necessário um único neurônio de saída, e deve ser usada a função de ativação _______________. Se o conjunto de dados possui três ou mais classes, será necessário um neurônio de saída por classe, e deve ser usada a função de ativação _____________, para garantir que todas as probabilidades estimadas estejam entre 0 e 1 e que a soma final seja igual a 1. Essa atividade é chamada de classificação _______________. Assinale a alternativa que completa adequadamente as lacunas: Alternativas: Multiclasse; logística; softmax; binária. Multiclasse; ReLU; step; binária. Binária; logística; softmax; multiclasse. CORRETO Binária; softmax; logística; multiclasse. Binária; ReLU; softmax; multiclasse. Código da questão: 61892 As funções de perda mais comuns usadas em atividades de regressão são o erro quadrático médio (MSE) e o erro absoluto médio (MAE). Contudo, em muitos casos, principalmente quando existem muitos outliers nos dados, é preferível usar uma função que seja uma combinação de ambas. Assinale a alternativa com o nome da função de perda que representa um meio termo entre MSE e MAE. Resolução comentada: O tensorflow disponibiliza uma API de alto nível para o treinamento de redes neurais profundas. A Regularização significa restrição e permite diminuir o sobreajuste dos dados na atividade de treinamento. Já o Dropout é a técnica de regularização que descarta temporariamente e de forma aleatória alguns neurônios da rede. Resolução comentada: um multilayer perceptron, quando usado para classificação binária, precisa de um único neurônio de saída, e deve usar a função de ativação logística. Em conjuntos de dados com três ou mais classes, é necessário um neurônio de saída por classe, e a função de ativação softmax deve ser usada. A tarefa de classificação com três ou mais classes é chamada de multiclasse. 19/04/2023, 21:31 Cosmos · Cosmos https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 4/6 7) 8) Alternativas: ReLU. Sigmoide. Huber. CORRETO Tangente hiperbólica. Softmax. Código da questão: 61903 Inúmeras variantes da arquitetura básica de uma CNN têm sido propostas nos últimos anos, o que levou a diversos avanços na área de análise de _____________. A arquitetura VGGNet foi desenvolvida na Universidade de Oxford. Sua arquitetura é clássica e simples, formada por algumas sequências de duas ou três camadas _______________ e uma camada_____________. Ela pode chegar a um total de apenas 16 ou 19 camadas convolucionais, dependendo da sua variante, além de uma rede densa final com duas camadas ______________ e a camada de saída. Assinale a alternativa que completa adequadamente as lacunas: Alternativas: Imagens; convolucionais;pooling; ocultas. CORRETO Imagens; convolucionais; pooling; supervisionadas. Texto; pooling; convolucional; ocultas. Texto; convolucionais; pooling; ocultas. Imagens; pooling; convolucional; ocultas. Código da questão: 61906 Leia e associe as duas colunas: Assinale a alternativa que traz a associação correta entre as duas colunas: Alternativas: I – C; II – A; III – B. CORRETO I – C; II – B; III – A. Resolução comentada: a função Huber realiza a combinação entre as funções de perda MSE e MAE, para penalizar pouco os outliers, mas impedindo que a atividade de treinamento demore muito para convergir. Resolução comentada: a arquitetura da rede VGGNet é formada por duas ou três camadas convolucionais e uma camada pooling, seguida novamente de duas ou três camadas convolucionais e uma camada pooling, e assim por diante. Ela pode chegar a um total de apenas 16 ou 19 camadas convolucionais, dependendo da sua variante, além de uma rede densa final com duas camadas ocultas e a camada de saída. 19/04/2023, 21:31 Cosmos · Cosmos https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 5/6 9) 10) I – B; II – C; III – A. I – B; II – A; III – C. I – A; II – B; III – C. Código da questão: 62300 Leia e associe as duas colunas: Assinale a alternativa que traz a associação correta entre as duas colunas: Alternativas: I – B; II – A; III – C I – A; II – C; III – B. CORRETO I – B; II – C; III – A. I – C; II – A; III – B. I – C; II – B; III – A. Código da questão: 62307 Redes neurais profundas (RNP) podem ser usadas para solucionar problemas extremamente complexos do mundo real. Porém treinar uma RNP com dez ou mais camadas, cada uma contendo centenas de milhares de neurônios, pode ser um trabalho bastante oneroso. Diante disso, responda: quais destes problemas não é comumente encontrado ao treinar uma RNP? Alternativas: Rotular um conjunto de dados com suas respectivas classes pode ser uma tarefa onerosa. Redes com milhões de parâmetros podem sofrer sobreajuste (overfitting). Aumentar o número de camadas ocultas torna a atividade de treinamento mais rápida. CORRETO Resolução comentada: A LeNet-5 é uma arquitetura CNN que possui três camadas convolucionais intercaladas por camadas pooling do tipo avg. Definimos AlexNet como uma arquitetura CNN que usa o conceito de sub-redes chamadas de módulos de incepção, que permitem o uso de parâmetros com mais eficiência. Já o GoogLeNet é considerado a primeira arquitetura CNN a empilhar camadas convolucionais umas sobre as outras, em vez de empilhar uma camada de agrupamento no topo de cada camada convolucional. Resolução comentada: A sequência-para-vetor alimenta a RNN com uma sequência de entradas e ignora todas as saídas, exceto a última. O vetor-para-sequência alimenta a RNN com o mesmo vetor de entrada repetidamente a cada etapa de tempo e a deixa produzir uma sequência de valores. Já o codificador-decodificador é uma combinação de uma RNN de sequência-para-vetor seguida por outra de vetor-para-sequência. 19/04/2023, 21:31 Cosmos · Cosmos https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 6/6 Podem não existir dados de treinamento suficientes. A atividade de treinamento pode ser extremamente lenta. Código da questão: 61898 Resolução comentada: este não é um problema comum durante o treinamento de uma RNP. Ao contrário, aumentar o número de camadas ocultas geralmente deixa a atividade de treinamento mais lenta. Arquivos e Links
Compartilhar