A alternativa correta é a 5: "o SGD usa amostras selecionadas randomicamente para estimar o gradiente da função objetivo". O algoritmo Gradiente Estocástico Descendente (SGD) é estocástico porque usa uma amostra aleatória de dados para calcular o gradiente em cada etapa do processo de otimização. Isso torna o SGD mais eficiente em termos de tempo e memória do que o Gradiente Descendente tradicional, que usa todos os dados para calcular o gradiente em cada etapa.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar