Ed
há 22 horas
Vamos analisar cada afirmativa: I. Uma estratégia válida para combater esse sobreajuste é a introdução de camadas de Dropout entre as camadas densas. O Dropout, ao desativar aleatoriamente neurônios durante o treinamento, força a rede a aprender representações mais redundantes e robustas. Verdadeiro, essa é uma técnica comum para mitigar o sobreajuste, pois ajuda a evitar que a rede dependa excessivamente de neurônios específicos. II. Reduzir a complexidade da arquitetura, diminuindo o número de camadas ocultas ou o número de neurônios por camada, pode ser uma abordagem eficaz, pois restringe a capacidade do modelo de memorizar o ruído nos dados de treinamento. Verdadeiro, essa é uma estratégia válida para combater o sobreajuste, pois um modelo menos complexo é menos propenso a memorizar os dados de treinamento. III. Aumentar o número de épocas de treinamento de forma substancial provavelmente ajudará o modelo a generalizar melhor para os dados de validação, pois permite que os pesos convirjam para valores mais ótimos. Falso, aumentar o número de épocas pode, na verdade, agravar o sobreajuste, pois o modelo pode continuar a memorizar os dados de treinamento em vez de generalizar. IV. A adição de regularização L2 (Weight Decay) à função de custo do modelo é uma medida apropriada, pois essa técnica penaliza pesos de grande magnitude, ajudando a evitar que o modelo se ajuste excessivamente aos dados de treinamento. Verdadeiro, a regularização L2 é uma técnica eficaz para combater o sobreajuste. Com base nas análises, os itens verdadeiros são I, II e IV. Portanto, a alternativa correta que contém todos os itens verdadeiros é: a) I, II e IV.