Buscar

Aprendizagem Profunda AV2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

Aprendizagem Profunda AV2 
Conteúdo do exercício 
1. Pergunta 1 
0,5/0,5 
Sobre as redes Gated Recurrent Unit (GRU), há a capacidade de uma GRU guardar as dependências, ou 
então, a memória de longo prazo acontece por meio de cálculos nos neurônios da GRU, para assim 
produzir o resultado oculto. As redes Long Short-Term Memory (LSTM), por outro lado, possuem dois 
estados diferentes que são passados entre os neurônios (o estado do neurônio e o estado oculto que 
está armazenado na memória de longo prazo). Nesse ponto, a GRU é diferente. 
Considerando essas informações e o conteúdo estudado sobre Gated Recurrent Unit (GRU) e Long 
Short-Term Memory (LSTM), pode-se afirmar que há diferença na quantidade de estados nas redes 
GRU, porque: 
Ocultar opções de resposta 
1. as redes GRU possuem de um até três estados ocultos, variavelmente, que são 
transferidos entre as etapas de tempo. 
2. Correta: 
as redes GRU possuem apenas um estado oculto que é transferido entre as etapas de tempo. 
Resposta correta 
3. as redes GRU possuem apenas três estados ocultos que são transferidos entre as 
etapas de tempo. 
4. as redes GRU possuem de um até oito estados ocultos, variavelmente, que são 
transferidos entre as etapas de tempo. 
5. as redes GRU não possuem estado oculto. 
2. Pergunta 2 
0,5/0,5 
O conceito de Rede de Crenças Profundas ou Deep Belief Network (DBN), aplicado em Aprendizagem 
Profunda ou Deep Learning (DL), possui diferenças em relação às camadas da rede neural. Isto é em 
parte relacionado com a presença de Máquinas de Boltzmann Restritas ou Restricted Boltzmann 
Machines (RBMs). 
Considerando essas informações e o conteúdo estudado sobre Rede de Crenças Profundas ou Deep 
Belief Network (DBN), pode-se afirmar que há diferenças na DBN sobre as camadas da rede neural, 
porque: 
Ocultar opções de resposta 
1. na DBN, inexiste relação entre a camada inicial e a camada final. 
2. na DBN, a camada inicial e a camada final possuem funções isoladas ao invés de 
funções conjuntas. 
3. na DBN, os neurônios das camadas únicas comunicam-se lateralmente. 
4. na DBN, o trabalho ocorre baseando-se em camadas múltiplas, ao contrário de 
camadas únicas. 
5. Correta: 
na DBN, a camada inicial e a camada final possuem conjuntamente uma função dupla. 
Resposta correta 
3. Pergunta 3 
0,5/0,5 
Os parâmetros da camada de convolução consistem em um conjunto de filtros (máscaras) de 
aprendizagem, no qual cada filtro é relativamente pequeno em relação à dimensão da imagem original, 
mas estende-se através de toda a profundidade e conforme os dados de entrada que será considerada 
uma imagem bidimensional 
 
Considerando essas informações e o conteúdo estudado, pode-se afirmar que os parâmetros da 
camada de convolução são semelhantes a uma Rede Neural Artificial (RNA) porque: 
Ocultar opções de resposta 
1. são algoritmos recorrentes multi-escalares. 
2. a camada convolucional de uma rede neural artificial é uma camada que possui 
apenas um neurônio, assim como as redes neurais convolucionais. 
3. Correta: 
cada filtro (máscara) envolve o processo de convolução de imagem e o produto das matrizes 
(filtros e n-posição na imagem de mesmo tamanho do filtro). 
Resposta correta 
4. eles dispensam o aprendizado sobre quais são as principais características das 
imagens, pois esse é um processo que tem que ser feito manualmente. 
5. eles simulam uma RNA através de um processo de ativação de 47 dimensões de 
filtros. 
4. Pergunta 4 
0,5/0,5 
O uso da camada de pooling dentro de uma CNN é importante, pois, através dessa técnica se montam 
amostras menores não lineares, ou seja: diminuindo a resolução da imagem e focando apenas nas 
características em comum das imagens da mesma classe no treinamento. 
 
Considerando essas informações e o conteúdo estudado sobre pooling em redes neurais 
convolucionais ou Convolutional Neural Networks (CNNs), pode-se afirmar que o processo de pooling 
é bastante importante, porque: 
Ocultar opções de resposta 
1. Correta: 
nas CNNs, através de pooling, será reduzido o consumo de recursos de hardware. 
Resposta correta 
2. nas CNNs, através de pooling, a rede neural necessitará de hardware mais poderoso 
para fazer a execução do algoritmo em um tempo razoável. 
3. nas CNNs, através de pooling, há inserção de dados alternativos no backpropagation. 
4. nas CNNs, através de pooling, há necessidade de passar por mais esse processo entre 
os processos de treinamento, o que tornará o algoritmo mais lento. 
5. nas CNNs, através de pooling, há um processo de backpropagation reverso. 
5. Pergunta 5 
0,5/0,5 
O conceito de Rede de Crenças Profundas ou Deep Belief Network (DBN) é muito importante em Deep 
Learning (DL). Para tentar resolver as limitações impostas pelo Backpropagation, os desenvolvedores 
decidiram pela mudança de tipo de aprendizado com o conceito de DBNs. 
Considerando essas informações e o conteúdo estudado sobre Rede de Crenças Profundas ou Deep 
Belief Network (DBN), pode-se afirmar que houve mudança de tipo de aprendizado, porque: 
Ocultar opções de resposta 
1. nas DBNs, há os dois tipos de aprendizado: sem supervisão e com supervisão. 
2. nas DBNs, o aprendizado ocorre por crenças (beliefs). 
3. nas DBNs, o aprendizado ocorre por reforço. 
4. Correta: 
nas DBNs, o aprendizado ocorre sem supervisão. 
Resposta correta 
5. nas DBNs, o aprendizado ocorre com supervisão. 
6. Pergunta 6 
0,5/0,5 
No tema de redes neurais convolucionais ou Convolutional Neural Networks (CNNs), os nós de cada 
camada oculta são preenchidos com todas as conexões dos nós que são referentes à camada anterior 
da rede. Assim, geralmente sendo a camada de entrada, cada nó das camadas é independente por 
algum motivo. 
 
Considerando essas informações e o conteúdo estudado sobre arquitetura de redes neurais 
convolucionais ou Convolutional Neural Networks (CNNs), pode-se afirmar que: 
Ocultar opções de resposta 
1. nas CNNs, os nós atuam independentemente porque CNNs são um algoritmo de rede 
neural recorrente. 
2. Correta: 
nas CNNs, os nós atuam independentemente porque não compartilham as suas conexões com 
os nós que são adjacentes de uma mesma camada. 
Resposta correta 
3. nas CNNs, os nós atuam independentemente porque CNNs não fazem uso de 
neurônios e pesos. 
4. nas CNNs, os nós atuam independentemente porque compartilham os neurônios 
com as camadas posteriores. 
5. nas CNNs, os nós atuam independentemente porque CNNs não fazem uso de bias. 
7. Pergunta 7 
0,5/0,5 
As redes neurais convolucionais ou Convolutional Neural Networks (CNNs) fazem o uso de três tipos 
de arquiteturas. Portanto, os três tipos de arquiteturas servem para assegurar algum grau de 
mudanças e ou algum grau de invariância de distorção. 
Fonte: LECUN, Y.; BENGIO, Y. Convolutional networks for images, speech, and time-series. In: ARBIB, 
M. (Org.). The handbook of brain theory and neural networks. [S.I]: MIT Press, 1998. 
 
Considerando o conteúdo estudado sobre redes neurais convolucionais ou Convolutional Neural 
Networks (CNNs), analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) 
falsa(s). 
 
I. ( ) Campo receptivo local pode ser considerado um dos tipos de arquitetura para assegurar grau de 
mudanças ou de invariância de distorção em CNNs. 
 
II. ( ) Pesos compartilhados podem ser considerados um dos tipos de arquitetura para assegurar grau 
de mudanças ou de invariância de distorção em CNNs. 
 
III. ( ) Núcleo convolucional pode ser considerado um dos tipos de arquitetura para assegurar grau de 
mudanças ou de invariância de distorção em CNNs. 
 
IV. ( ) Subamostras temporais ou espaciais podem ser considerados um dos tipos de arquitetura para 
assegurar grau de mudanças ou de invariância de distorção em CNNs. 
 
V. ( ) Neurônio de função ativa pode ser considerado um dos tipos de arquitetura para assegurar grau 
de mudanças ou de invariância de distorção em CNNs.Está correto apenas o que se afirma em: 
Ocultar opções de resposta 
1. F, V, V, F, F. 
2. Correta: 
 V, V, F, V, F. 
Resposta correta 
3. F, F, V, V, V. 
4. V, F, V, F, V. 
5. V, F, F, V, V. 
8. Pergunta 8 
0,5/0,5 
Nas redes neurais Long Short-Term Memory (LSTM), enquanto tipo específico de redes neurais 
recorrentes, constata-se que a camada que se mantém ao longo do tempo tem três módulos, que 
basicamente trabalham em conjunto para conseguir gerar um novo estado oculto, ao contrário de 
gerar em uma única etapa, como ocorre nas redes neurais recorrentes tradicionais. Porém, os três 
módulos possuem funções distintas. 
Considerando essas informações e o conteúdo estudado sobre Long Short-Term Memory (LSTM), 
pode-se afirmar que LSTM diferencia-se das RNNs tradicionais, porque: 
Ocultar opções de resposta 
1. os 3 módulos de LTSM são importantes pois através deles nós conseguimos tornar o 
processo de aprendizado da rede neural recorrente LSTM mais rápido. 
2. Correta: 
os 3 módulos de LTSM têm uma função muito importante no processo para definir quais as 
informações devem ser gravadas, deletadas ou transmitidas para as próximas execuções da 
rede neural. 
Resposta correta 
3. os 3 módulos de LTSM servem apenas para escolher quais dados são importantes, 
ignorando quais dados são acessórios para o aprendizado da rede neural. 
4. os 2 módulos de LTSM existentes servem para definir quais informações devem ser 
gravadas ou deletadas nos neurônios da rede neural. 
5. os 3 módulos de LTSM são importantes para escolher apenas quais dados são 
irrelevantes para a rede e deverão ser deletados dos neurônios. 
9. Pergunta 9 
0,5/0,5 
Leia o excerto a seguir: 
 
“As Redes Neurais Convolucionais, geralmente encontradas na literatura como CNNs (Convolutional 
Neural Networks), têm como inspiração o mecanismo do córtex visual humano, pois o mesmo tem uma 
grande quantidade de células que possuem a função de detectar a luz em pequena escala, sobrepondo 
sub-regiões do campo visual que são conhecidas como campos receptivos.” 
Fonte: HIJAZI, Samer; KUMAR, Rishi; ROWEN, Chris. Using convolutional neural networks for image 
recognition. 2015. Disponível em: <http://ip.cadence.com/uploads/901/cnn-wp-pdf>. Acesso em: 11 
nov. 2019. 
 
Considerando essas informações e o conteúdo estudado sobre redes neurais convolucionais, pode-se 
afirmar que as células trabalham como filtros, porque: 
Ocultar opções de resposta 
1. as células atuam como núcleo do backpropagation 
2. as células atuam como filtros externos sobre o espaço de entrada, e então, quanto 
mais complexa for a célula, maior será o seu campo de recepção. 
3. as células atuam como filtros estocásticos. 
4. Correta: 
as células atuam como filtros locais sobre o espaço de entrada, e então, quanto mais complexa 
for a célula, maior será o seu campo de recepção. 
Resposta correta 
5. as células atuam como filtros neuronais, e quanto mais complexa a sua atividade, 
menor o seu tamanho dentro do cérebro. 
10. Pergunta 10 
0,5/0,5 
nas RNNs, os dados mais relevantes de cada execução são gravados na memória dos neurônios. 
Ocultar opções de resposta 
1. Correta: 
nas RNNs, os dados mais relevantes de cada execução são gravados na memória dos 
neurônios. 
Resposta correta 
2. as RNNs utilizam apenas o conceito de neurônios como unidades, ignorando-se o 
conceito de pesos e bias. 
3. nas RNNs, os dados mais relevantes de cada execução são gravados no memória dos 
pesos. 
4. nas RNNs, nenhum dado é gravado nos neurônios, apenas os pesos são 
armazenados. 
5. as RNNs utilizam apenas o conceito de pesos e bias, ignorando-se o conceito de 
neurônios como unidades.

Mais conteúdos dessa disciplina