Logo Passei Direto
Buscar
Funções de ativação são essenciais para introduzir não linearidade em redes neurais permitindo que rede aprenda padrões complexos. Sem elas, rede neural seria apenas combinação linear de operações, incapaz de modelar relações complexas nos dados. Entre funções mais utilizadas estão ReLU (Rectified Linear Unit) definida como ReLU(x) = max(0,x) que retorna zero para valores negativos e o próprio valor para positivos, sendo computacionalmente eficiente e muito comum em arquiteturas modernas. Função sigmoide definida como Sigmoid(x) = 1/(1+e^(-x)) comprime valores de entrada para intervalo entre 0 e 1, sendo útil para probabilidades e classificação binária, mas pode sofrer com problema de gradientes desvanecentes em redes profundas. Tangente hiperbólica (tanh) definida como tanh(x) = (e^x - e^(-x))/(e^x + e^(-x)) comprime valores para intervalo entre -1 e 1, centralizando dados em zero e geralmente apresentando convergência melhor que sigmoide. Escolha da função de ativação impacta significativamente velocidade de convergência, capacidade de aprendizado e performance final do modelo. Caracterize qual função de ativação retorna zero para valores negativos e o próprio valor para valores positivos sendo computacionalmente eficiente. Selecione uma alternativa: a) Sigmoide retorna zero para negativos e valor próprio para positivos comprimindo resultados para intervalo entre zero e um. b) Tangente hiperbólica retorna zero para negativos e valor próprio para positivos centralizando dados em zero automaticamente. c) Softmax retorna zero para negativos e valor próprio para positivos convertendo resultados em distribuição de probabilidades normalizadas. d) Linear retorna zero para valores negativos e o próprio valor para positivos mantendo proporcionalidade direta entre entrada e saída. e) ReLU retorna zero para valores negativos e o próprio valor para valores positivos sendo computacionalmente eficiente e comum.
User badge image
Anderson Olegario

ontem

Respostas

User badge image

Ed Verified user icon

ontem

Vamos analisar as alternativas uma a uma para identificar a função de ativação correta que atende à descrição dada: a) Sigmoide: Retorna valores entre 0 e 1, mas não retorna zero para valores negativos. Portanto, essa opção está incorreta. b) Tangente hiperbólica (tanh): Retorna valores entre -1 e 1, não retorna zero para negativos e não é a função correta. Portanto, essa opção está incorreta. c) Softmax: É uma função que transforma um vetor de valores em uma distribuição de probabilidades, mas não retorna zero para negativos. Portanto, essa opção está incorreta. d) Linear: Retorna o próprio valor para entradas positivas e negativas, mas não retorna zero para negativos. Portanto, essa opção está incorreta. e) ReLU (Rectified Linear Unit): Retorna zero para valores negativos e o próprio valor para valores positivos, sendo computacionalmente eficiente e muito comum em arquiteturas modernas. Essa opção está correta. Portanto, a alternativa correta é: e) ReLU retorna zero para valores negativos e o próprio valor para valores positivos sendo computacionalmente eficiente e comum.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina