Ed
ontem
Vamos analisar as alternativas uma a uma para identificar a função de ativação correta que atende à descrição dada: a) Sigmoide: Retorna valores entre 0 e 1, mas não retorna zero para valores negativos. Portanto, essa opção está incorreta. b) Tangente hiperbólica (tanh): Retorna valores entre -1 e 1, não retorna zero para negativos e não é a função correta. Portanto, essa opção está incorreta. c) Softmax: É uma função que transforma um vetor de valores em uma distribuição de probabilidades, mas não retorna zero para negativos. Portanto, essa opção está incorreta. d) Linear: Retorna o próprio valor para entradas positivas e negativas, mas não retorna zero para negativos. Portanto, essa opção está incorreta. e) ReLU (Rectified Linear Unit): Retorna zero para valores negativos e o próprio valor para valores positivos, sendo computacionalmente eficiente e muito comum em arquiteturas modernas. Essa opção está correta. Portanto, a alternativa correta é: e) ReLU retorna zero para valores negativos e o próprio valor para valores positivos sendo computacionalmente eficiente e comum.