Ed
há 9 meses
O conceito de overfitting, ou sobreajuste, no contexto de aprendizado de máquina refere-se a quando um modelo se ajusta excessivamente aos dados de treinamento, capturando até mesmo o ruído e as flutuações dos dados, em vez de aprender a tendência geral. Isso resulta em um desempenho ruim em dados novos ou não vistos, pois o modelo não consegue generalizar. Analisando as alternativas: a) Quando o modelo não consegue aprender corretamente com os dados de treinamento. - Isso se refere a underfitting, não overfitting. b) Quando o modelo é treinado por tempo excessivo e não consegue generalizar para novos dados. - Esta é a definição correta de overfitting. c) Quando o modelo aprende muito rápido e supera seus erros. - Isso não descreve overfitting. d) Quando o modelo fica obsoleto devido a novas versões de algoritmos. - Isso não está relacionado a overfitting. e) Quando o modelo tenta ajustar a função de ativação manualmente. - Isso também não é uma descrição de overfitting. Portanto, a alternativa correta é: b) Quando o modelo é treinado por tempo excessivo e não consegue generalizar para novos dados.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material