Logo Passei Direto
Buscar

Unidade 2 - Atividade Objetiva_ 07 - Redes Neurais e Aprendizagem Profunda (2023)

User badge image
Ed Santos

em

Ferramentas de estudo

Questões resolvidas

Marque a afirmação incorreta relacionada à função sigmoide:
O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD (gradiente descendente estocástico).
A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e com isso aumentar a capacidade de representação e aproximação das mesmas
Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma camada não são conectados entre si e o sinal percorre a rede em uma única direção, da entrada para a saída
Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois serem combinadas em uma única saída por meio de uma soma ponderada
Uma rede neural com mais neurônios possui uma maior capacidade
Na verdade, ocorre exatamente o oposto as entradas são primeiramente combinadas por meio de um somatório ponderado para só depois se aplicar uma função de ativação ao resultado do somatório e se produzir a saída do neurônio artificial

Marque a afirmação correta relacionada ao método SGD:
O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no lugar do gradiente sobre o conjunto de dados completo
O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do método
No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch
Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais adequada com a ineficiência relacionada à presença de inúmeros pontos de sela na função de perda
O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração

Marque a alternativa que representa uma afirmação incorreta:
A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar boas predições. Para tanto, procura-se alcançar um ponto de mínimo da função de perda utilizando a direção contrária do gradiente.
Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do ótimo
Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais
Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o aprendizado de máquina a partir dos dados, tendo sido usadas para resolver uma grande variedade de tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de abordar por meio de métodos tradicionais da IA.
No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo)

Marque a alternativa que não representa uma atividade relacionada ao método do gradiente:
Calcular o gradiente da taxa de aprendizado
Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo do método
Calcular o gradiente da taxa de aprendizado
No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo)

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

Questões resolvidas

Marque a afirmação incorreta relacionada à função sigmoide:
O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD (gradiente descendente estocástico).
A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e com isso aumentar a capacidade de representação e aproximação das mesmas
Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma camada não são conectados entre si e o sinal percorre a rede em uma única direção, da entrada para a saída
Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois serem combinadas em uma única saída por meio de uma soma ponderada
Uma rede neural com mais neurônios possui uma maior capacidade
Na verdade, ocorre exatamente o oposto as entradas são primeiramente combinadas por meio de um somatório ponderado para só depois se aplicar uma função de ativação ao resultado do somatório e se produzir a saída do neurônio artificial

Marque a afirmação correta relacionada ao método SGD:
O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no lugar do gradiente sobre o conjunto de dados completo
O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do método
No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch
Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais adequada com a ineficiência relacionada à presença de inúmeros pontos de sela na função de perda
O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração

Marque a alternativa que representa uma afirmação incorreta:
A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar boas predições. Para tanto, procura-se alcançar um ponto de mínimo da função de perda utilizando a direção contrária do gradiente.
Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do ótimo
Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais
Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o aprendizado de máquina a partir dos dados, tendo sido usadas para resolver uma grande variedade de tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de abordar por meio de métodos tradicionais da IA.
No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo)

Marque a alternativa que não representa uma atividade relacionada ao método do gradiente:
Calcular o gradiente da taxa de aprendizado
Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo do método
Calcular o gradiente da taxa de aprendizado
No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo (ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo)

Prévia do material em texto

Unidade 2 - Atividade Objetiva
Entrega Sem prazo
Pontos 15
Perguntas 5
Disponível depois 5 de mar de 2020 em 22:20
Limite de tempo Nenhum
Tentativas permitidas Sem limite
Instruções
Histórico de tentativas
Tentativa Tempo Pontuação
MAIS RECENTE Tentativa 1 2 minutos 15 de 15
 As respostas corretas estão ocultas.
Pontuação desta tentativa: 15 de 15
Enviado 4 mai em 14:17
Esta tentativa levou 2 minutos.

Pergunta 1
3 / 3 pts
Você deve ler com calma o enunciado de cada uma das questões e responder em seguida de acordo com a instrução dada pela questão.
Fazer o teste novamente
A sigmoide é a função de ativação que historicamente sempre foi mais popular, uma vez que ser interpretada como um modelo para a “taxa de
disparo” de um neurônio saturado.
04/05/2024, 14:17 Unidade 2 - Atividade Objetiva: 07 - Redes Neurais e Aprendizagem Profunda (2023)
https://pucminas.instructure.com/courses/146800/quizzes/382235 1/4
https://pucminas.instructure.com/courses/146800/quizzes/382235/history?version=1
https://pucminas.instructure.com/courses/146800/quizzes/382235/take?user_id=271431
 Seu uso pode “matar” (ou zerar) o fluxo de gradientes
 Ela produz resultados no intervalo [-1, 1]
 Ela não é centrada na origem, isto é, em torno de zero
 Ela representa um elemento chave nas redes LSTM
A saída da função sigmoide está no intervalo entre 0 e 1

Pergunta 2
3 / 3 pts
 O comportamento estocástico se deve a amostragem da taxa de aprendizado realizada durante as iterações do método
 No SGD, calcula-se o gradiente sobre uma amostra do conjunto de dados chamada de minibatch
 
Na verdade, o SGD surge como uma alternativa ao método do gradiente “básico” capaz de lidar de forma mais adequada com a ineficiência relacionada à presença de
inúmeros pontos de sela na função de perda
 O SGD é conhecido como um método estocástico pois utiliza o conjunto completo de dados a cada iteração
O SGD usa o gradiente de um minibatch (isto é, uma amostra aleatório do conjunto de dados) no lugar do gradiente sobre o conjunto de dados
completo

Pergunta 3
3 / 3 pts
Marque a afirmação incorreta relacionada à função sigmoide:
O método mais utilizado no treinamento de redes neurais e, em especial, de redes profundas é o SGD (gradiente descendente estocástico).
Marque a afirmação correta relacionada ao método SGD:
04/05/2024, 14:17 Unidade 2 - Atividade Objetiva: 07 - Redes Neurais e Aprendizagem Profunda (2023)
https://pucminas.instructure.com/courses/146800/quizzes/382235 2/4
 
A função de ativação é essencial para introduzir um componente de não linearidade nas redes neurais artificiais e com isso aumentar a capacidade de representação e
aproximação das mesmas
 
Uma rede neural feed-forward têm neurônios agrupados em camadas, sendo que os neurônios de uma mesma camada não são conectados entre si e o sinal percorre a
rede em uma única direção, da entrada para a saída
 
Em um neurônio artificial, as entradas são primeiramente submetidas a uma função de ativação para só depois serem combinadas em uma única saída por meio de
uma soma ponderada
 Uma rede neural com mais neurônios possui uma maior capacidade
Na verdade, ocorre exatamente o oposto as entradas são primeiramente combinadas por meio de um somatório ponderado para só depois se
aplicar uma função de ativação ao resultado do somatório e se produzir a saída do neurônio artificial

Pergunta 4
3 / 3 pts
 Ajustar o conjunto de pesos ou parâmetros de modo a obter um novo conjunto, de preferência, mais próximo do ótimo
 Avaliar a função de perda em relação ao conjunto de pesos ou parâmetros atuais
Redes neurais artificiais são modelos inspirados pelo sistema nervoso e são capazes de realizar o aprendizado de máquina a partir dos dados,
tendo sido usadas para resolver uma grande variedade de tarefas, tais como visão computacional e reconhecimento de voz, que são difíceis de
abordar por meio de métodos tradicionais da IA.
Marque a alternativa que representa uma afirmação incorreta:
A otimização da função de perda de uma rede neural busca obter um modelo que seja capaz de realizar boas predições. Para tanto, procura-se
alcançar um ponto de mínimo da função de perda utilizando a direção contrária do gradiente.
Marque a alternativa que não representa uma atividade relacionada ao método do gradiente:
04/05/2024, 14:17 Unidade 2 - Atividade Objetiva: 07 - Redes Neurais e Aprendizagem Profunda (2023)
https://pucminas.instructure.com/courses/146800/quizzes/382235 3/4
 Usar o gradiente da função de perda e o tamanho do passo para modificar os pesos ou parâmetros a cada passo do método
 Calcular o gradiente da taxa de aprendizado
No método do gradiente, deve-se calcular o gradiente da função de perda em relação aos pesos e utilizá-lo juntamente com o tamanho do passo
(ou taxa de aprendizado) para se ajustar os pesos de forma a se obter preferencialmente um novo conjunto de pesos mais próximo do ótimo. Não
faz nenhum sentido e nem é necessário se calcular o gradiente do da taxa de aprendizado (ou tamanho do passo)

Pergunta 5
3 / 3 pts
 
Caso um elemento do grafo de computação apresente várias saídas (ou ramificações), durante o passo retrógado deve utilizar apenas o maior dos valores de gradiente
da perda em relação às saídas
 
A derivada da perda em relação a uma entrada de um elemento qualquer do grafo de computação pode ser obtida a partir da derivada da saída desse elemento em
relação a essa entrada e o gradiente da perda em relação a saída do mesmo elemento
 
Um elemento de adição no grafo de computação faz com que o gradiente da perda em relação a saída desse elemento seja distribuído para todas as entradas desse
elemento uma vez que todas as derivadas “locais” são unitárias
 O método de propagação retrógrada (ou backpropagation) se baseia na utilização da regra da cadeia
Na verdade, caso ocorra uma ramificação (isto é, um elemento do grafo possua várias saídas), deve-se realizar a soma de todos os gradientes da
perda relacionadas a cada uma das saídas antes de se aplicar a regra da cadeia para obtenção dos gradientes em relação às entradas
Pontuação do teste: 15 de 15
O método de propagação retrógrada (ou backpropagation) permite se obter os gradientes em um grafo de computação de forma eficaz.
Marque a alternativa que representa uma afirmação incorreta:
04/05/2024, 14:17 Unidade 2 - Atividade Objetiva: 07 - Redes Neurais e Aprendizagem Profunda (2023)
https://pucminas.instructure.com/courses/146800/quizzes/382235 4/4

Mais conteúdos dessa disciplina