Ed
mês passado
Vamos analisar cada trecho de código e suas respectivas implicações: I. model = MLP(1,1) com 4 camadas ocultas e 173k parâmetros A. Alta flexibilidade de aprendizagem, favorecendo overfitting. Correto. Um modelo com muitas camadas e parâmetros pode se ajustar muito bem aos dados de treinamento, levando ao overfitting. II. optimizer = torch.optim.SGD(model.parameters(), lr=0.2) B. Risco de oscilações e divergência com taxa elevada. Correto. Uma taxa de aprendizagem alta pode causar oscilações e até divergência no treinamento. III. momentum=0.5 aplicado ao otimizador SGD C. Suavização das atualizações com menor oscilação no erro. Correto. O momentum ajuda a suavizar as atualizações, reduzindo a oscilação. IV. weight_decay=0.001 no otimizador D. Redução de flexibilidade e aproximação do comportamento senoidal. Incorreto. O weight decay ajuda a regularizar o modelo, mas não necessariamente leva a um comportamento senoidal. V. weight_decay=0.5 no otimizador E. Perda da capacidade de modelar a curva alvo (linearização). Correto. Um weight decay muito alto pode levar à perda de flexibilidade do modelo. Agora, vamos verificar as associações: - I-A: Correto - II-B: Correto - III-C: Correto - IV-D: Incorreto - V-E: Correto A alternativa que apresenta a associação correta é: a. I-A; II-B; III-C; IV-D; V-E.