Ed
há 4 semanas
Para responder à sua pergunta, vamos analisar o objetivo das variantes LSTM e GRU nas Redes Neurais Recorrentes (RNNs). Essas variantes foram desenvolvidas especificamente para lidar com problemas que as RNNs tradicionais enfrentam, como o gradiente desaparecido e o gradiente explosivo, que dificultam o aprendizado de dependências de longo prazo em sequências de dados. Agora, vamos analisar as alternativas: a) Melhorar a linearidade do modelo - Isso não é o foco das variantes LSTM e GRU. b) Armazenar dados temporariamente - Embora elas possam armazenar informações, esse não é o objetivo principal. c) Reduzir o tempo de treinamento - Isso pode ser um efeito colateral, mas não é o objetivo principal. d) Mitigar os problemas de gradiente desaparecido e explosivo - Esta é a razão principal pela qual LSTM e GRU foram desenvolvidas. e) Aumentar a dimensionalidade dos dados - Isso não é um objetivo das variantes. Portanto, a alternativa correta é: d) Mitigar os problemas de gradiente desaparecido e explosivo.
Mais perguntas desse material