Logo Passei Direto
Buscar
Durante a implementação prática de uma rede MLP com quatro camadas ocultas no ambiente Google Colab, o professor aplica e discute ajustes em componentes do código como topologia, taxa de aprendizagem, momentum, otimizadores e regularização. A seguir, estão trechos representativos de código utilizados e seus respectivos efeitos no modelo. Avalie e relacione cada trecho de código aos seus efeitos, conforme os resultados experimentais demonstrados. Trecho de Código ou Configuração Efeito ou Implicação Observada I. model = MLP(1,1) com 4 camadas ocultas e 173k parâmetros A. Alta flexibilidade de aprendizagem, favorecendo overfitting II. optimizer = torch.optim.SGD(model.parameters(), lr=0.2) B. Risco de oscilações e divergência com taxa elevada III. momentum=0.5 aplicado ao otimizador SGD C. Suavização das atualizações com menor oscilação no erro IV. weight_decay=0.001 no otimizador D. Redução de flexibilidade e aproximação do comportamento senoidal V. weight_decay=0.5 no otimizador E. Perda da capacidade de modelar a curva alvo (linearização) Assinale a alternativa que apresenta a associação correta: a. I-A; II-B; III-C; IV-D; V-E b. I-C; II-D; III-A; IV-E; V-B c. I-B;
User badge image
Luciano Lobato Azevedo

mês passado

Respostas

User badge image

Ed Verified user icon

mês passado

Vamos analisar cada trecho de código e suas respectivas implicações: I. model = MLP(1,1) com 4 camadas ocultas e 173k parâmetros A. Alta flexibilidade de aprendizagem, favorecendo overfitting. Correto. Um modelo com muitas camadas e parâmetros pode se ajustar muito bem aos dados de treinamento, levando ao overfitting. II. optimizer = torch.optim.SGD(model.parameters(), lr=0.2) B. Risco de oscilações e divergência com taxa elevada. Correto. Uma taxa de aprendizagem alta pode causar oscilações e até divergência no treinamento. III. momentum=0.5 aplicado ao otimizador SGD C. Suavização das atualizações com menor oscilação no erro. Correto. O momentum ajuda a suavizar as atualizações, reduzindo a oscilação. IV. weight_decay=0.001 no otimizador D. Redução de flexibilidade e aproximação do comportamento senoidal. Incorreto. O weight decay ajuda a regularizar o modelo, mas não necessariamente leva a um comportamento senoidal. V. weight_decay=0.5 no otimizador E. Perda da capacidade de modelar a curva alvo (linearização). Correto. Um weight decay muito alto pode levar à perda de flexibilidade do modelo. Agora, vamos verificar as associações: - I-A: Correto - II-B: Correto - III-C: Correto - IV-D: Incorreto - V-E: Correto A alternativa que apresenta a associação correta é: a. I-A; II-B; III-C; IV-D; V-E.

Essa resposta te ajudou?

1
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina