Buscar

Considerando essas informações e o conteúdo estudado sobre Gradientes, pode-se afirmar que o algoritmo Gradiente Estocástico Descendente ou Stochas...

Considerando essas informações e o conteúdo estudado sobre Gradientes, pode-se afirmar que o algoritmo Gradiente Estocástico Descendente ou Stochastic Gradient Descent (SGD) é estocástico, porque:


1. o SGD usa poucas amostras, mas selecionadas randomicamente.
2. o SGD usa um caminho retilíneo para chegar ao mínimo, mesmo sem usar amostras selecionadas randomicamente.
3. o SGD usa muitas amostras, mas selecionadas randomicamente.
4. o SGD usa um caminho tortuoso para chegar ao mínimo, mesmo sem usar amostras selecionadas randomicamente.
5. Correta: o SGD usa amostras selecionadas randomicamente para estimar o gradiente da função objetivo.

Essa pergunta também está no material:

Aprendizagem Profunda AV1 1
6 pág.

Ciência de Dados Universidade da AmazôniaUniversidade da Amazônia

💡 1 Resposta

User badge image

Ed Verified user icon

A alternativa correta é a 5: "o SGD usa amostras selecionadas randomicamente para estimar o gradiente da função objetivo". O algoritmo Gradiente Estocástico Descendente (SGD) é estocástico porque usa uma amostra aleatória de dados para calcular o gradiente em cada etapa do processo de otimização. Isso torna o SGD mais eficiente em termos de tempo e memória do que o Gradiente Descendente tradicional, que usa todos os dados para calcular o gradiente em cada etapa.

0
Dislike0

✏️ Responder

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Outros materiais