Ed
há 21 horas
Vamos analisar cada uma das afirmações para identificar a correta: 1. O otimizador SGD não é capaz de atualizar os pesos do modelo se a função de perda não for minimizada. - Isso não é verdade. O otimizador SGD (Stochastic Gradient Descent) atualiza os pesos com base nos gradientes calculados, independentemente de a função de perda estar minimizada ou não. 2. O método `backward()` é utilizado para calcular os gradientes da função de perda em relação aos parâmetros do modelo. - Esta afirmação está correta. O método `backward()` em PyTorch é realmente utilizado para calcular os gradientes necessários para a atualização dos pesos durante o treinamento. 3. A função de perda MSE é mais adequada para problemas de classificação do que para problemas de regressão. - Isso é incorreto. A função de perda de erro quadrático médio (MSE) é mais adequada para problemas de regressão, não para classificação. 4. A ativação ReLU é uma função linear que não introduz não linearidade na rede. - Isso também é falso. A função ReLU (Rectified Linear Unit) é uma função não linear, pois ela transforma valores negativos em zero, introduzindo não linearidade na rede. Portanto, a afirmação correta sobre o treinamento de redes neurais em PyTorch é: O método `backward()` é utilizado para calcular os gradientes da função de perda em relação aos parâmetros do modelo.