Prévia do material em texto
Aprendizagem Profunda AV2 Conteúdo do exercício 1. Pergunta 1 0,5/0,5 Sobre as redes Gated Recurrent Unit (GRU), há a capacidade de uma GRU guardar as dependências, ou então, a memória de longo prazo acontece por meio de cálculos nos neurônios da GRU, para assim produzir o resultado oculto. As redes Long Short-Term Memory (LSTM), por outro lado, possuem dois estados diferentes que são passados entre os neurônios (o estado do neurônio e o estado oculto que está armazenado na memória de longo prazo). Nesse ponto, a GRU é diferente. Considerando essas informações e o conteúdo estudado sobre Gated Recurrent Unit (GRU) e Long Short-Term Memory (LSTM), pode-se afirmar que há diferença na quantidade de estados nas redes GRU, porque: Ocultar opções de resposta 1. as redes GRU possuem de um até três estados ocultos, variavelmente, que são transferidos entre as etapas de tempo. 2. Correta: as redes GRU possuem apenas um estado oculto que é transferido entre as etapas de tempo. Resposta correta 3. as redes GRU possuem apenas três estados ocultos que são transferidos entre as etapas de tempo. 4. as redes GRU possuem de um até oito estados ocultos, variavelmente, que são transferidos entre as etapas de tempo. 5. as redes GRU não possuem estado oculto. 2. Pergunta 2 0,5/0,5 O conceito de Rede de Crenças Profundas ou Deep Belief Network (DBN), aplicado em Aprendizagem Profunda ou Deep Learning (DL), possui diferenças em relação às camadas da rede neural. Isto é em parte relacionado com a presença de Máquinas de Boltzmann Restritas ou Restricted Boltzmann Machines (RBMs). Considerando essas informações e o conteúdo estudado sobre Rede de Crenças Profundas ou Deep Belief Network (DBN), pode-se afirmar que há diferenças na DBN sobre as camadas da rede neural, porque: Ocultar opções de resposta 1. na DBN, inexiste relação entre a camada inicial e a camada final. 2. na DBN, a camada inicial e a camada final possuem funções isoladas ao invés de funções conjuntas. 3. na DBN, os neurônios das camadas únicas comunicam-se lateralmente. 4. na DBN, o trabalho ocorre baseando-se em camadas múltiplas, ao contrário de camadas únicas. 5. Correta: na DBN, a camada inicial e a camada final possuem conjuntamente uma função dupla. Resposta correta 3. Pergunta 3 0,5/0,5 Os parâmetros da camada de convolução consistem em um conjunto de filtros (máscaras) de aprendizagem, no qual cada filtro é relativamente pequeno em relação à dimensão da imagem original, mas estende-se através de toda a profundidade e conforme os dados de entrada que será considerada uma imagem bidimensional Considerando essas informações e o conteúdo estudado, pode-se afirmar que os parâmetros da camada de convolução são semelhantes a uma Rede Neural Artificial (RNA) porque: Ocultar opções de resposta 1. são algoritmos recorrentes multi-escalares. 2. a camada convolucional de uma rede neural artificial é uma camada que possui apenas um neurônio, assim como as redes neurais convolucionais. 3. Correta: cada filtro (máscara) envolve o processo de convolução de imagem e o produto das matrizes (filtros e n-posição na imagem de mesmo tamanho do filtro). Resposta correta 4. eles dispensam o aprendizado sobre quais são as principais características das imagens, pois esse é um processo que tem que ser feito manualmente. 5. eles simulam uma RNA através de um processo de ativação de 47 dimensões de filtros. 4. Pergunta 4 0,5/0,5 O uso da camada de pooling dentro de uma CNN é importante, pois, através dessa técnica se montam amostras menores não lineares, ou seja: diminuindo a resolução da imagem e focando apenas nas características em comum das imagens da mesma classe no treinamento. Considerando essas informações e o conteúdo estudado sobre pooling em redes neurais convolucionais ou Convolutional Neural Networks (CNNs), pode-se afirmar que o processo de pooling é bastante importante, porque: Ocultar opções de resposta 1. Correta: nas CNNs, através de pooling, será reduzido o consumo de recursos de hardware. Resposta correta 2. nas CNNs, através de pooling, a rede neural necessitará de hardware mais poderoso para fazer a execução do algoritmo em um tempo razoável. 3. nas CNNs, através de pooling, há inserção de dados alternativos no backpropagation. 4. nas CNNs, através de pooling, há necessidade de passar por mais esse processo entre os processos de treinamento, o que tornará o algoritmo mais lento. 5. nas CNNs, através de pooling, há um processo de backpropagation reverso. 5. Pergunta 5 0,5/0,5 O conceito de Rede de Crenças Profundas ou Deep Belief Network (DBN) é muito importante em Deep Learning (DL). Para tentar resolver as limitações impostas pelo Backpropagation, os desenvolvedores decidiram pela mudança de tipo de aprendizado com o conceito de DBNs. Considerando essas informações e o conteúdo estudado sobre Rede de Crenças Profundas ou Deep Belief Network (DBN), pode-se afirmar que houve mudança de tipo de aprendizado, porque: Ocultar opções de resposta 1. nas DBNs, há os dois tipos de aprendizado: sem supervisão e com supervisão. 2. nas DBNs, o aprendizado ocorre por crenças (beliefs). 3. nas DBNs, o aprendizado ocorre por reforço. 4. Correta: nas DBNs, o aprendizado ocorre sem supervisão. Resposta correta 5. nas DBNs, o aprendizado ocorre com supervisão. 6. Pergunta 6 0,5/0,5 No tema de redes neurais convolucionais ou Convolutional Neural Networks (CNNs), os nós de cada camada oculta são preenchidos com todas as conexões dos nós que são referentes à camada anterior da rede. Assim, geralmente sendo a camada de entrada, cada nó das camadas é independente por algum motivo. Considerando essas informações e o conteúdo estudado sobre arquitetura de redes neurais convolucionais ou Convolutional Neural Networks (CNNs), pode-se afirmar que: Ocultar opções de resposta 1. nas CNNs, os nós atuam independentemente porque CNNs são um algoritmo de rede neural recorrente. 2. Correta: nas CNNs, os nós atuam independentemente porque não compartilham as suas conexões com os nós que são adjacentes de uma mesma camada. Resposta correta 3. nas CNNs, os nós atuam independentemente porque CNNs não fazem uso de neurônios e pesos. 4. nas CNNs, os nós atuam independentemente porque compartilham os neurônios com as camadas posteriores. 5. nas CNNs, os nós atuam independentemente porque CNNs não fazem uso de bias. 7. Pergunta 7 0,5/0,5 As redes neurais convolucionais ou Convolutional Neural Networks (CNNs) fazem o uso de três tipos de arquiteturas. Portanto, os três tipos de arquiteturas servem para assegurar algum grau de mudanças e ou algum grau de invariância de distorção. Fonte: LECUN, Y.; BENGIO, Y. Convolutional networks for images, speech, and time-series. In: ARBIB, M. (Org.). The handbook of brain theory and neural networks. [S.I]: MIT Press, 1998. Considerando o conteúdo estudado sobre redes neurais convolucionais ou Convolutional Neural Networks (CNNs), analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s). I. ( ) Campo receptivo local pode ser considerado um dos tipos de arquitetura para assegurar grau de mudanças ou de invariância de distorção em CNNs. II. ( ) Pesos compartilhados podem ser considerados um dos tipos de arquitetura para assegurar grau de mudanças ou de invariância de distorção em CNNs. III. ( ) Núcleo convolucional pode ser considerado um dos tipos de arquitetura para assegurar grau de mudanças ou de invariância de distorção em CNNs. IV. ( ) Subamostras temporais ou espaciais podem ser considerados um dos tipos de arquitetura para assegurar grau de mudanças ou de invariância de distorção em CNNs. V. ( ) Neurônio de função ativa pode ser considerado um dos tipos de arquitetura para assegurar grau de mudanças ou de invariância de distorção em CNNs.Está correto apenas o que se afirma em: Ocultar opções de resposta 1. F, V, V, F, F. 2. Correta: V, V, F, V, F. Resposta correta 3. F, F, V, V, V. 4. V, F, V, F, V. 5. V, F, F, V, V. 8. Pergunta 8 0,5/0,5 Nas redes neurais Long Short-Term Memory (LSTM), enquanto tipo específico de redes neurais recorrentes, constata-se que a camada que se mantém ao longo do tempo tem três módulos, que basicamente trabalham em conjunto para conseguir gerar um novo estado oculto, ao contrário de gerar em uma única etapa, como ocorre nas redes neurais recorrentes tradicionais. Porém, os três módulos possuem funções distintas. Considerando essas informações e o conteúdo estudado sobre Long Short-Term Memory (LSTM), pode-se afirmar que LSTM diferencia-se das RNNs tradicionais, porque: Ocultar opções de resposta 1. os 3 módulos de LTSM são importantes pois através deles nós conseguimos tornar o processo de aprendizado da rede neural recorrente LSTM mais rápido. 2. Correta: os 3 módulos de LTSM têm uma função muito importante no processo para definir quais as informações devem ser gravadas, deletadas ou transmitidas para as próximas execuções da rede neural. Resposta correta 3. os 3 módulos de LTSM servem apenas para escolher quais dados são importantes, ignorando quais dados são acessórios para o aprendizado da rede neural. 4. os 2 módulos de LTSM existentes servem para definir quais informações devem ser gravadas ou deletadas nos neurônios da rede neural. 5. os 3 módulos de LTSM são importantes para escolher apenas quais dados são irrelevantes para a rede e deverão ser deletados dos neurônios. 9. Pergunta 9 0,5/0,5 Leia o excerto a seguir: “As Redes Neurais Convolucionais, geralmente encontradas na literatura como CNNs (Convolutional Neural Networks), têm como inspiração o mecanismo do córtex visual humano, pois o mesmo tem uma grande quantidade de células que possuem a função de detectar a luz em pequena escala, sobrepondo sub-regiões do campo visual que são conhecidas como campos receptivos.” Fonte: HIJAZI, Samer; KUMAR, Rishi; ROWEN, Chris. Using convolutional neural networks for image recognition. 2015. Disponível em: <http://ip.cadence.com/uploads/901/cnn-wp-pdf>. Acesso em: 11 nov. 2019. Considerando essas informações e o conteúdo estudado sobre redes neurais convolucionais, pode-se afirmar que as células trabalham como filtros, porque: Ocultar opções de resposta 1. as células atuam como núcleo do backpropagation 2. as células atuam como filtros externos sobre o espaço de entrada, e então, quanto mais complexa for a célula, maior será o seu campo de recepção. 3. as células atuam como filtros estocásticos. 4. Correta: as células atuam como filtros locais sobre o espaço de entrada, e então, quanto mais complexa for a célula, maior será o seu campo de recepção. Resposta correta 5. as células atuam como filtros neuronais, e quanto mais complexa a sua atividade, menor o seu tamanho dentro do cérebro. 10. Pergunta 10 0,5/0,5 nas RNNs, os dados mais relevantes de cada execução são gravados na memória dos neurônios. Ocultar opções de resposta 1. Correta: nas RNNs, os dados mais relevantes de cada execução são gravados na memória dos neurônios. Resposta correta 2. as RNNs utilizam apenas o conceito de neurônios como unidades, ignorando-se o conceito de pesos e bias. 3. nas RNNs, os dados mais relevantes de cada execução são gravados no memória dos pesos. 4. nas RNNs, nenhum dado é gravado nos neurônios, apenas os pesos são armazenados. 5. as RNNs utilizam apenas o conceito de pesos e bias, ignorando-se o conceito de neurônios como unidades.