Buscar

Qual destas opções é um otimizador de gradiente descendente válido?

💡 1 Resposta

User badge image

Ed Verified user icon

Existem vários otimizadores de gradiente descendente válidos, mas aqui estão algumas opções comuns: - Gradiente Descendente Estocástico (SGD) - Momentum - Nesterov Accelerated Gradient (NAG) - Adagrad - Adadelta - RMSprop - Adam Cada um desses otimizadores tem suas próprias vantagens e desvantagens, e a escolha do otimizador depende do problema específico que você está tentando resolver.

0
Dislike0

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

✏️ Responder

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Outros materiais