Ed
há 9 meses
A técnica de batch normalization é utilizada em redes neurais para normalizar as ativações das camadas durante o treinamento, o que ajuda a acelerar o processo de aprendizado e a estabilizar a rede. Vamos analisar as alternativas: a) Processo para normalizar as entradas de dados antes do treinamento - Isso não é correto, pois a batch normalization é aplicada às ativações durante o treinamento, não apenas nas entradas. b) Técnica usada para acelerar o treinamento, normalizando as ativações das camadas durante o processo - Esta é a definição correta da batch normalization. c) Estratégia para diminuir o número de parâmetros em uma rede - Isso não é o foco da batch normalization. d) Método de regularização para reduzir overfitting - Embora a batch normalization possa ter um efeito regularizador, seu principal objetivo não é a regularização. e) Ajuste da taxa de aprendizado a cada batch de dados - Isso não descreve a batch normalization. Portanto, a alternativa correta é: b) Técnica usada para acelerar o treinamento, normalizando as ativações das camadas durante o processo.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material