Logo Passei Direto
Buscar
LiveAo vivo

Algoritmo Backpropagation

User badge image
Viola Fácil

em

Ferramentas de estudo

Questões resolvidas

Qual a derivada de f(x) =6x (̂2 )- 2?
1. 12
2. 12x
3. 8x
4. 6x
5. 0

Resolva analiticamente a derivada de f(x)= x² cos(2x) e encontre a taxa de variação no ponto x = π (Pi). Assinale a alternativa que corresponde ao resultado encontrado
1. 2π
2. π/2
3. 0
4. -2π²
5. π

Encontre o vetor gradiente da função f(x,y) = x² + y² no ponto (x,y) = (2,2). Assinale a alternativa que corresponde ao resultado encontrado
1. ∇ f(x,y) = 4x + 2y + 1z
2. ∇ f(x,y) = 4x + 2y + 0z
3. ∇ f(x,y) = 4x + 4y + 1z
4. ∇ f(x,y) = 1x + 1y + 0z
5. ∇ f(x,y) = 4x + 4y + 0z

Sobre backpropagation, analise as assertivas
I. É um processo de aprendizagem supervisionado
II. Os pesos sinápticos da rede neural são corrigidos a partir da aplicação do gradiente descendente
III. É um processo capaz de analisar o impacto de uma variável específica sobre a rede neural
IV. O gradiente descendente é aplicado nas camadas intermediárias da rede neural
1. Alternativa I e II
2. Alternativa I, II e III
3. Alternativa I, II, III e IV
4. Alternativa II e IV
5. Alternativa I e III

No aprendizado de máquina, backpropagation é um algoritmo amplamente usado para treinar redes neurais feedforward.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas
I. Backpropagation basicamente é um processo de otimização dos pesos sinápticos
II. Visa aprimorar os resultados da camada final da rede neural
1. A asserção I e II são proposições verdadeiras, e a II é uma justificativa correta da I
2. A asserção I é uma proposição verdadeira, mas a II é uma proposição falsa
3. As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I
4. A asserção I é uma proposição falsa, e a II é uma proposição verdadeira
5. As asserções I e II são proposições falsas

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Questões resolvidas

Qual a derivada de f(x) =6x (̂2 )- 2?
1. 12
2. 12x
3. 8x
4. 6x
5. 0

Resolva analiticamente a derivada de f(x)= x² cos(2x) e encontre a taxa de variação no ponto x = π (Pi). Assinale a alternativa que corresponde ao resultado encontrado
1. 2π
2. π/2
3. 0
4. -2π²
5. π

Encontre o vetor gradiente da função f(x,y) = x² + y² no ponto (x,y) = (2,2). Assinale a alternativa que corresponde ao resultado encontrado
1. ∇ f(x,y) = 4x + 2y + 1z
2. ∇ f(x,y) = 4x + 2y + 0z
3. ∇ f(x,y) = 4x + 4y + 1z
4. ∇ f(x,y) = 1x + 1y + 0z
5. ∇ f(x,y) = 4x + 4y + 0z

Sobre backpropagation, analise as assertivas
I. É um processo de aprendizagem supervisionado
II. Os pesos sinápticos da rede neural são corrigidos a partir da aplicação do gradiente descendente
III. É um processo capaz de analisar o impacto de uma variável específica sobre a rede neural
IV. O gradiente descendente é aplicado nas camadas intermediárias da rede neural
1. Alternativa I e II
2. Alternativa I, II e III
3. Alternativa I, II, III e IV
4. Alternativa II e IV
5. Alternativa I e III

No aprendizado de máquina, backpropagation é um algoritmo amplamente usado para treinar redes neurais feedforward.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas
I. Backpropagation basicamente é um processo de otimização dos pesos sinápticos
II. Visa aprimorar os resultados da camada final da rede neural
1. A asserção I e II são proposições verdadeiras, e a II é uma justificativa correta da I
2. A asserção I é uma proposição verdadeira, mas a II é uma proposição falsa
3. As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I
4. A asserção I é uma proposição falsa, e a II é uma proposição verdadeira
5. As asserções I e II são proposições falsas

Prévia do material em texto

Algoritmo Backpropagation 
 
01 - Qual a derivada de f(x) =6x (̂2 )- 2? 
1. 12 
2. 12x 
3. 8x 
4. 6x 
5. 0 
 
02 - Resolva analiticamente a derivada de f(x)= x² cos(2x) e encontre a taxa de variação no ponto x = π 
(Pi). Assinale a alternativa que corresponde ao resultado encontrado 
1. 2π 
2. π/2 
3. 0 
4. -2π² 
5. π 
 
03 - Encontre o vetor gradiente da função f(x,y) = x² + y² no ponto (x,y) = (2,2). Assinale a alternativa que 
corresponde ao resultado encontrado 
1. ∇ f(x,y) = 4x + 2y + 1z 
2. ∇ f(x,y) = 4x + 2y + 0z 
3. ∇ f(x,y) = 4x + 4y + 1z 
4. ∇ f(x,y) = 1x + 1y + 0z 
5. ∇ f(x,y) = 4x + 4y + 0z 
 
04 - Sobre backpropagation, analise as assertivas 
I. É um processo de aprendizagem supervisionado 
II. Os pesos sinápticos da rede neural são corrigidos a partir da aplicação do gradiente descendente 
III. É um processo capaz de analisar o impacto de uma variável específica sobre a rede neural 
IV. O gradiente descendente é aplicado nas camadas intermediárias da rede neural 
1. Alternativa I e II 
2. Alternativa I, II e III 
3. Alternativa I, II, III e IV 
4. Alternativa II e IV 
5. Alternativa I e III 
 
05 - A velocidade de convergência no método backpropagation depende de alguns fatores, como o nú-
mero de camadas e a complexidade das funções ativas 
Das opções listadas abaixo, quais representam os fatores que influenciam na convergência deste mé-
todo? 
I. Método de otimizaçãod 
II. Direção de propagação das informações 
III. Número de variáveis 
IV. Taxa de aprendizado 
V. Aleatoriedade dos pesos iniciais 
1. Alternativa I, II, IV e V 
2. Alternativa I, III, IV e V 
3. Alternativa I, II e III 
4. Alternativa I, II, III e IV 
5. Alternativa II, III, IV e V 
 
06 - No aprendizado de máquina, backpropagation é um algoritmo amplamente usado para treinar re-
des neurais feedforward 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas 
I. Backpropagation basicamente é um processo de otimização dos pesos sinápticos 
Pois: 
II. Visa aprimorar os resultados da camada final da rede neural 
1. A asserção I e II são proposições verdadeiras, e a II é uma justificativa correta da I 
2. A asserção I é uma proposição verdadeira, mas a II é uma proposição falsa 
3. As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I 
4. A asserção I é uma proposição falsa, e a II é uma proposição verdadeira 
5. As asserções I e II são proposições falsas

Mais conteúdos dessa disciplina