Ed
há 7 meses
Vamos analisar cada uma das alternativas para identificar a correta em relação à função de erro em redes de convolução: A - A função ReLU é um exemplo de função de erro: Incorreta. A ReLU (Rectified Linear Unit) é uma função de ativação, não uma função de erro. B - As funções de erro são funções lambdas: Incorreta. Funções de erro não são definidas como funções lambdas; elas são funções que medem a diferença entre a saída prevista e a saída real. C - É uma forma de normalizar os dados: Incorreta. A função de erro não é usada para normalizar dados, mas sim para avaliar o desempenho do modelo. D - As funções de erro devem ser aplicadas na fase de testes que é quando os modelos são validados: Incorreta. As funções de erro são aplicadas durante o treinamento, mas também podem ser usadas na fase de testes para avaliar o desempenho. E - As funções de erro são aplicadas aos dados de treinamento e de validação: Correta. As funções de erro são utilizadas tanto nos dados de treinamento quanto nos dados de validação para monitorar o desempenho do modelo. Portanto, a alternativa correta é: E - As funções de erro são aplicadas aos dados de treinamento e de validação.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material