A alternativa correta é a letra d) As afirmativas I e III estão corretas. A afirmativa I está correta, pois a função de ativação ReLU (Rectified Linear Unit) é uma função não linear que mapeia a saída de uma rede MLP (Multilayer Perceptron) em um intervalo de valores entre 0 e 1. A afirmativa III também está correta, pois uma CNN (Convolutional Neural Network) é uma rede neural que pode aprender padrões em imagens através da convolução de filtros em várias camadas, incluindo as camadas totalmente conectadas, que são usadas para extrair recursos de imagens.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar