Logo Passei Direto
Buscar
A função ReLU é muito utilizada em redes neurais por: a. Ser uma função linear contínua. b. Fornecer valores negativos para os pesos. c. Evitar o problema de gradiente desaparecendo. d. Reduzir o número de camadas. e. Garantir overfitting.
User badge image
Maria Clara

semana passada

Respostas

User badge image

Ed Verified user icon

semana passada

A função ReLU (Rectified Linear Unit) é amplamente utilizada em redes neurais devido a algumas características importantes. Vamos analisar as alternativas: a) Ser uma função linear contínua - A ReLU não é uma função linear contínua, pois tem um ponto de descontinuidade em zero. b) Fornecer valores negativos para os pesos - A ReLU não fornece valores negativos, pois ela retorna zero para entradas negativas. c) Evitar o problema de gradiente desaparecendo - Esta é uma das principais vantagens da ReLU. Ela ajuda a mitigar o problema do gradiente desaparecendo, permitindo que as redes aprendam de forma mais eficaz. d) Reduzir o número de camadas - A ReLU não tem relação direta com a redução do número de camadas em uma rede neural. e) Garantir overfitting - A ReLU não garante overfitting; na verdade, o overfitting é um problema que pode ocorrer em qualquer tipo de rede neural, dependendo de como ela é treinada. Portanto, a alternativa correta é: c) Evitar o problema de gradiente desaparecendo.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina