Buscar

deep learning

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

19/04/2023, 21:31 Cosmos · Cosmos
https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 1/6
Deep learning
Professor(a): Rogério Ferreira da Silva (Mestrado acadêmico)
1)
2)
Prepare-se! Chegou a hora de você testar o conhecimento adquirido nesta disciplina.
Ressaltamos que a nota para aprovação é 7,0 (sete) e será adquirida exclusivamente por meio da
realização desta avaliação virtual. Seu certificado será emitido apenas após a aprovação.
Analise o código-fonte a seguir que implementa a arquitetura de um RNN para uma
tarefa de processamento de linguagem natural.
Com base neste código-fonte, podemos afirmar que:
I. As duas primeiras camadas da RNN são do tipo GRU e são formadas por 128 unidades.
II. As duas primeiras camadas da RNN utilizam a técnica de regularização dropout com taxa
de 20%.
III. A camada de saída da RNN é totalmente conectada e utiliza a função de ativação
softmax.
IV. A arquitetura da RNN é compilada com a função de perda de entropia cruzada binária.
V. Para gerar um modelo com base nos dados de treinamento, a RNN é treinada por 20
épocas.
São verdadeiras:
Alternativas:
I, II, III e V, apenas.  CORRETO
I, II, IV e V, apenas.
I, III, IV e V, apenas.
II, III, IV e V, apenas.
I, II, III e IV, apenas.
Código da questão: 61916
Sobre as diferentes arquiteturas de redes neurais convolucionais, podemos afirmar que:
I. Na arquitetura LeNet-5, a camada de saída é um pouco diferente: em vez de calcular a
multiplicação da matriz das entradas e do vetor de pesos, cada neurônio gera o quadrado
da distância euclidiana entre seu vetor de entrada e seu vetor de peso.
Resolução comentada:
a afirmação I é verdadeira, pois as duas primeiras camadas da RNN
são do tipo GRU e são formadas por 128 unidades; a II é correta, pois as duas
primeiras camadas da RNN
utilizam a técnica de regularização dropout com taxa de 20%; a III
é verdadeira, pois a camada de saída da RNN é totalmente conectada e utiliza a
função de ativação softmax; e a V é correta, pois, para gerar um
modelo com base nos dados de treinamento, a RNN é treinada por 20 épocas. A IV
está errada, pois a arquitetura da RNN é compilada com a função de perda de
entropia cruzada categórica esparsa.
19/04/2023, 21:31 Cosmos · Cosmos
https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 2/6
3)
II. Na arquitetura LeNet-5, as camadas pooling são ligeiramente mais complexas do que o
normal: cada neurônio calcula a média de suas entradas, então multiplica o resultado por
um coeficiente, adiciona um termo de polarização e, finalmente, aplica a função de
ativação.
III. Na arquitetura AlexNet, os autores usaram duas técnicas de regularização para reduzir
o sobreajuste: aplicaram a técnica dropout com uma taxa de 50% e, em seguida, utilizaram
uma estratégia de “aumento” com o objetivo de expandir o tamanho do conjunto de
treinamento.
IV. Na arquitetura GoogLeNet, todas as camadas convolucionais usam a função de
ativação ReLU. O segundo conjunto de camadas convolucionais usa tamanhos de kernel
diferentes, permitindo que eles capturem padrões em escalas diferentes.
V. A arquitetura ResNet é conhecida por ser pouca profunda. Assim, ela pode utilizar uma
técnica chamada conexões de salto (ou de atalho): o sinal que entra em uma camada
também é adicionado à saída de uma camada localizada mais adiante na rede.
São verdadeiras:
Alternativas:
II, III e IV, apenas.
I, II, III e V, apenas.
II, III, IV e V, apenas.
I, II, III e IV, apenas.  CORRETO
I, III, IV e V, apenas.
Código da questão: 62301
As arquiteturas para a implementação de uma rede neural artificial são as
mais diversas possíveis, incluindo desde um único neurônio até a interligação
de milhões de unidades. Dentre as características das arquiteturas listadas a
seguir, assinale aquela que é a principal propriedade das redes neurais
profundas.
Alternativas:
Função de perda cross entropy.
Camadas de neurônios ocultas.  CORRETO
Função de ativação ReLU.
Neurônio de viés.
Função de otimização.
Código da questão: 61897
Resolução comentada:
a afirmação I é verdadeira, pois a arquitetura LeNet-5 usa uma
estratégia diferente e mais complexa na camada de saída; a II é correta,
pois as camadas pooling da arquitetura LeNet-5 são mais complexas que em
outras redes; a III é correta, pois a arquitetura AlexNet usa duas
técnicas de regularização para evitar sobreajuste; e a IV é correta, pois a arquitetura
GoogLeNet
usa a função de ativação ReLU e tamanhos diferentes de conjuntos de camadas
convolucionais. A V está errada, pois a arquitetura ResNet, apesar de
utilizar a técnica de conexões de salto, é mais profunda que as outras
arquiteturas CNN.
Resolução comentada:
considera-se que uma rede neural profunda é aquela cuja arquitetura
possui duas ou mais camadas ocultas.
19/04/2023, 21:31 Cosmos · Cosmos
https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 3/6
4)
5)
6)
Leia e associe as duas colunas:
Assinale a alternativa que traz a associação correta entre as duas colunas:
Alternativas:
I – C; II – B; III – A.  CORRETO
I – B; II – A; III – C
I – C; II – A; III – B.
I – A; II – B; III – C.
I – B; II – C; III – A.
Código da questão: 61901
Um multilayer perceptron pode ser usado para tarefas de classificação. Na classificação
______________, é necessário um único neurônio de saída, e deve ser usada a função de
ativação _______________. Se o conjunto de dados possui três ou mais classes, será necessário
um neurônio de saída por classe, e deve ser usada a função de ativação _____________, para
garantir que todas as probabilidades estimadas estejam entre 0 e 1 e que a soma final seja
igual a 1. Essa atividade é chamada de classificação _______________.
Assinale a alternativa
que completa adequadamente as lacunas:
Alternativas:
Multiclasse; logística; softmax; binária.
Multiclasse; ReLU; step; binária.
Binária; logística; softmax; multiclasse.  CORRETO
Binária; softmax; logística; multiclasse.
Binária; ReLU; softmax; multiclasse.
Código da questão: 61892
As funções de perda mais comuns usadas em atividades de regressão são o
erro quadrático médio (MSE) e o erro absoluto médio (MAE). Contudo, em muitos
casos, principalmente quando existem muitos outliers nos dados, é
preferível usar uma função que seja uma combinação de ambas. Assinale a
alternativa com o nome da função de perda que representa um meio termo entre
MSE e MAE.
Resolução comentada:
O tensorflow disponibiliza uma API de alto nível para o
treinamento de redes neurais profundas. A Regularização significa restrição e
permite diminuir o sobreajuste dos dados na atividade de treinamento. Já o Dropout
é a técnica de regularização que descarta temporariamente e de forma aleatória
alguns neurônios da rede.
Resolução comentada:
um multilayer perceptron, quando usado para classificação binária,
precisa de um único neurônio de saída, e deve usar a função de ativação logística.
Em conjuntos de dados com três ou mais classes, é necessário um neurônio de
saída por classe, e a função de ativação softmax deve ser usada. A
tarefa de classificação com três ou mais classes é chamada de multiclasse.
19/04/2023, 21:31 Cosmos · Cosmos
https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 4/6
7)
8)
Alternativas:
ReLU.
Sigmoide.
Huber.  CORRETO
Tangente hiperbólica.
Softmax.
Código da questão: 61903
Inúmeras variantes da arquitetura básica de uma CNN têm sido propostas nos últimos
anos, o que levou a diversos avanços na área de análise de _____________. A arquitetura
VGGNet foi desenvolvida na Universidade de Oxford. Sua arquitetura é clássica e simples,
formada por algumas sequências de duas ou três camadas _______________ e uma
camada_____________. Ela pode chegar a um total de apenas 16 ou 19 camadas
convolucionais, dependendo da sua variante, além de uma rede densa final com duas
camadas ______________ e a camada de saída.
Assinale a alternativa
que completa adequadamente as lacunas:
Alternativas:
Imagens; convolucionais;pooling; ocultas.  CORRETO
Imagens; convolucionais; pooling; supervisionadas.
Texto; pooling; convolucional; ocultas.
Texto; convolucionais; pooling; ocultas.
Imagens; pooling; convolucional; ocultas.
Código da questão: 61906
Leia e associe as duas colunas:
Assinale a alternativa que traz a associação correta entre as duas colunas:
Alternativas:
I – C; II – A; III – B.  CORRETO
I – C; II – B; III – A.
Resolução comentada:
a função Huber realiza a combinação entre as funções de perda MSE e MAE,
para penalizar pouco os outliers, mas impedindo que a atividade de
treinamento demore muito para convergir.
Resolução comentada:
a arquitetura da rede VGGNet é formada por duas ou três camadas
convolucionais e uma camada pooling, seguida novamente de duas ou três camadas
convolucionais e uma camada pooling, e assim por diante. Ela pode chegar a um
total de apenas 16 ou 19 camadas convolucionais, dependendo da sua variante,
além de uma rede densa final com duas camadas ocultas e a camada de saída.
19/04/2023, 21:31 Cosmos · Cosmos
https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 5/6
9)
10)
I – B; II – C; III – A.
I – B; II – A; III – C.
I – A; II – B; III – C.
Código da questão: 62300
Leia e associe as duas colunas:
Assinale a alternativa que traz a associação correta entre as duas colunas:
Alternativas:
I – B; II – A; III – C
I – A; II – C; III – B.  CORRETO
I – B; II – C; III – A.
I – C; II – A; III – B.
I – C; II – B; III – A.
Código da questão: 62307
Redes neurais profundas (RNP) podem ser usadas para solucionar problemas
extremamente complexos do mundo real. Porém treinar uma RNP com dez ou mais
camadas, cada uma contendo centenas de milhares de neurônios, pode ser um trabalho
bastante oneroso.
Diante disso,
responda: quais destes problemas não é comumente encontrado ao treinar
uma RNP?
Alternativas:
Rotular um conjunto de dados com suas respectivas classes pode ser uma
tarefa onerosa.
Redes com milhões de parâmetros podem sofrer sobreajuste (overfitting).
Aumentar o número de camadas ocultas torna a atividade de treinamento
mais rápida.  CORRETO
Resolução comentada:
A LeNet-5 é uma arquitetura CNN que possui três
camadas convolucionais intercaladas por camadas pooling do tipo avg. Definimos
AlexNet
como uma arquitetura CNN que usa o conceito de sub-redes chamadas de módulos
de
incepção, que permitem o uso de parâmetros com mais eficiência. Já o GoogLeNet
é considerado a primeira arquitetura CNN a empilhar camadas convolucionais umas
sobre as outras, em vez de empilhar uma camada de agrupamento no topo de cada
camada convolucional.
Resolução comentada:
A sequência-para-vetor alimenta a RNN com uma sequência de entradas e
ignora todas as saídas, exceto a última. O vetor-para-sequência alimenta a RNN
com o mesmo vetor de entrada repetidamente a cada etapa de tempo e a deixa
produzir
uma sequência de valores. Já o codificador-decodificador é uma combinação de
uma RNN de sequência-para-vetor seguida por outra de vetor-para-sequência.
19/04/2023, 21:31 Cosmos · Cosmos
https://kroton.platosedu.io/lms/m/aluno/disciplina/index/2890600/6691338 6/6
Podem não existir dados de treinamento suficientes.
A atividade de treinamento pode ser extremamente lenta.
Código da questão: 61898
Resolução comentada:
este não é um problema comum durante o treinamento de uma RNP. Ao
contrário, aumentar o número de camadas ocultas geralmente deixa a atividade de
treinamento mais lenta.
Arquivos e Links

Continue navegando