Ed
mês passado
Vamos analisar cada afirmativa: I. Substituir o otimizador padrão (SGD) por RMSProp para adaptar a taxa de atualização conforme a variação do gradiente. Verdadeiro, RMSProp é uma boa escolha para lidar com oscilações e pode ajudar na convergência. II. Empregar o algoritmo Adam, combinando controle da média móvel e momento, para uma convergência estável. Verdadeiro, Adam é conhecido por sua capacidade de proporcionar uma convergência mais estável e rápida. III. Implementar regularização L1 para induzir especialização em neurônios relevantes e facilitar seleção de atributos. Verdadeiro, a regularização L1 pode ajudar a reduzir o overfitting, mas a afirmação sobre "induzir especialização" pode ser um pouco confusa, pois a regularização L1 tende a zerar pesos de neurônios menos relevantes, mas não necessariamente "induz especialização". IV. Utilizar Dropout para forçar a rede a distribuir aprendizado entre neurônios e evitar especialização excessiva. Verdadeiro, o Dropout é uma técnica eficaz para evitar overfitting, forçando a rede a não depender excessivamente de neurônios específicos. V. Manter os hiperparâmetros atuais e apenas aumentar o número de épocas de treino. Falso, apenas aumentar o número de épocas sem ajustar outros hiperparâmetros pode levar a mais overfitting e não resolver os problemas de instabilidade. Com base na análise, as afirmativas corretas são I, II, III e IV. Portanto, a alternativa que contém todos os itens verdadeiros é: e) II, III e IV.