Ed
há 3 meses
O gradiente descendente (gradient descent) é um método amplamente utilizado em aprendizado de máquina e estatística para otimizar funções. Ele funciona ajustando os parâmetros do modelo de forma iterativa, minimizando a função de perda. Analisando as alternativas: a) Um algoritmo para prever a saída de um modelo - Isso não descreve o gradiente descendente, mas sim o uso de um modelo após o treinamento. b) Um método para otimizar a função de perda ajustando os parâmetros do modelo - Esta é a definição correta do gradiente descendente. c) Um algoritmo usado para classificar dados - Embora o gradiente descendente possa ser usado em modelos de classificação, essa não é a sua definição. d) Um tipo de rede neural - O gradiente descendente não é uma rede neural, mas sim um método que pode ser usado para treinar redes neurais. Portanto, a alternativa correta é: b) Um método para otimizar a função de perda ajustando os parâmetros do modelo.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material