Logo Passei Direto
Buscar

Outros

UNIVESP
Uma equipe de desenvolvimento de modelos preditivos está enfrentando instabilidade no treinamento de uma rede MLP profunda aplicada à previsão de séries temporais financeiras. Durante o treinamento, observam-se oscilações abruptas no erro, sinais de sobreajuste e lentidão na convergência. Considerando as estratégias discutidas em reuniões, que apresentam conjuntos de técnicas para mitigar oscilações, reduzir overfitting e acelerar a convergência da rede, analise as afirmativas a seguir: I. Substituir o otimizador padrão (SGD) por RMSProp para adaptar a taxa de atualização conforme a variação do gradiente. II. Empregar o algoritmo Adam, combinando controle da média móvel e momento, para uma convergência estável. III. Implementar regularização L1 para induzir especialização em neurônios relevantes e facilitar seleção de atributos. IV. Utilizar Dropout para forçar a rede a distribuir aprendizado entre neurônios e evitar especialização excessiva. V. Manter os hiperparâmetros atuais e apenas aumentar o número de épocas de treino. Está correto o que se afirma em: a. Apenas IV b. I, III e V c. II e V d. I, II e V e. II, III e IV
User badge image
Luciano Lobato Azevedo

mês passado

Respostas

User badge image

Ed Verified user icon

mês passado

Vamos analisar cada afirmativa: I. Substituir o otimizador padrão (SGD) por RMSProp para adaptar a taxa de atualização conforme a variação do gradiente. Verdadeiro, RMSProp é uma boa escolha para lidar com oscilações e pode ajudar na convergência. II. Empregar o algoritmo Adam, combinando controle da média móvel e momento, para uma convergência estável. Verdadeiro, Adam é conhecido por sua capacidade de proporcionar uma convergência mais estável e rápida. III. Implementar regularização L1 para induzir especialização em neurônios relevantes e facilitar seleção de atributos. Verdadeiro, a regularização L1 pode ajudar a reduzir o overfitting, mas a afirmação sobre "induzir especialização" pode ser um pouco confusa, pois a regularização L1 tende a zerar pesos de neurônios menos relevantes, mas não necessariamente "induz especialização". IV. Utilizar Dropout para forçar a rede a distribuir aprendizado entre neurônios e evitar especialização excessiva. Verdadeiro, o Dropout é uma técnica eficaz para evitar overfitting, forçando a rede a não depender excessivamente de neurônios específicos. V. Manter os hiperparâmetros atuais e apenas aumentar o número de épocas de treino. Falso, apenas aumentar o número de épocas sem ajustar outros hiperparâmetros pode levar a mais overfitting e não resolver os problemas de instabilidade. Com base na análise, as afirmativas corretas são I, II, III e IV. Portanto, a alternativa que contém todos os itens verdadeiros é: e) II, III e IV.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina