Ed
ontem
A situação descrita indica que o modelo de Deep Learning está apresentando alta acurácia no conjunto de treinamento, mas baixa acurácia no conjunto de teste. Isso é um sinal clássico de overfitting, onde o modelo aprende muito bem os dados de treinamento, mas não generaliza bem para novos dados. Vamos analisar as alternativas: A) Overfitting; aplicar técnicas de regularização como dropout ou adicionar mais dados de treinamento. - Esta opção descreve corretamente o problema e sugere soluções adequadas. B) Taxa de aprendizado muito alta; diminuir a taxa de aprendizado. - Uma taxa de aprendizado alta pode causar problemas, mas não é a causa mais provável para o cenário descrito. C) Função de ativação inadequada; experimentar diferentes funções de ativação. - Embora a função de ativação possa impactar o desempenho, não é a causa mais provável para o overfitting. D) Underfitting; aumentar a complexidade do modelo ou treinar por mais épocas. - Underfitting é o oposto de overfitting e não se aplica aqui. E) Dados de treinamento insuficientes; coletar mais dados. - Embora mais dados possam ajudar, o problema já está identificado como overfitting. Portanto, a alternativa correta é: A) Overfitting; aplicar técnicas de regularização como dropout ou adicionar mais dados de treinamento.