Ed
semana passada
Vamos analisar as opções para identificar a definição correta da função de ativação Maxout: A função Maxout é uma função de ativação que pode ser vista como uma generalização de outras funções de ativação, como a ReLU (Rectified Linear Unit) e a Leaky ReLU. Ela permite que o neurônio escolha a maior entre várias entradas, o que a torna bastante flexível. Analisando as alternativas: A) Generaliza o neurônio Maximus - Não é uma definição precisa, pois o Maxout não é uma generalização do neurônio Maximus. B) É um neurônio sigmóide - Incorreto, pois a função Maxout não é uma função sigmóide. C) O neurônio Maxout generaliza a função ReLU e sua versão Leaky ReLU - Correto, pois a função Maxout realmente generaliza essas funções. D) É uma função de ativação com vazamento - Isso se refere mais à Leaky ReLU, não à Maxout. E) É um conjunto de neurônios interconectados - Não é uma definição precisa da função de ativação Maxout. Portanto, a alternativa correta é: C) O neurônio Maxout generaliza a função ReLU e sua versão Leaky ReLU.