Existem vários otimizadores de gradiente descendente válidos, mas aqui estão algumas opções comuns: - Gradiente Descendente Estocástico (SGD) - Momentum - Nesterov Accelerated Gradient (NAG) - Adagrad - Adadelta - RMSprop - Adam Cada um desses otimizadores tem suas próprias vantagens e desvantagens, e a escolha do otimizador depende do problema específico que você está tentando resolver.
Para escrever sua resposta aqui, entre ou crie uma conta
Arquitetura de Computadores
Compartilhar