Ed
semana passada
A função ReLU (Rectified Linear Unit) é amplamente utilizada em redes neurais devido a algumas características importantes. Vamos analisar as alternativas: a) Ser uma função linear contínua - A ReLU não é uma função linear contínua, pois tem um ponto de descontinuidade em zero. b) Fornecer valores negativos para os pesos - A ReLU não fornece valores negativos, pois ela retorna zero para entradas negativas. c) Evitar o problema de gradiente desaparecendo - Esta é uma das principais vantagens da ReLU. Ela ajuda a mitigar o problema do gradiente desaparecendo, permitindo que as redes aprendam de forma mais eficaz. d) Reduzir o número de camadas - A ReLU não tem relação direta com a redução do número de camadas em uma rede neural. e) Garantir overfitting - A ReLU não garante overfitting; na verdade, o overfitting é um problema que pode ocorrer em qualquer tipo de rede neural, dependendo de como ela é treinada. Portanto, a alternativa correta é: c) Evitar o problema de gradiente desaparecendo.