Ed
ontem
Vamos analisar cada uma das alternativas para identificar a correta: A) Uma MLP não consegue processar dados de alta dimensionalidade, como imagens, pois o Teorema da Aproximação Universal se aplica com maior eficácia a problemas com um número reduzido de variáveis de entrada. Análise: O Teorema da Aproximação Universal afirma que uma MLP pode aproximar qualquer função contínua, independentemente da dimensionalidade. Portanto, essa afirmação é incorreta. B) O problema do desaparecimento do gradiente (vanishing gradient) em MLPs muito profundas ocorre porque a função de ativação ReLU satura para valores de entrada positivos, impedindo o fluxo do gradiente através das camadas. Análise: O problema do desaparecimento do gradiente geralmente está mais associado a funções de ativação como a sigmoide ou tanh, que saturam para valores extremos. A ReLU, por outro lado, não satura para valores positivos. Portanto, essa afirmação é incorreta. C) Em uma tarefa de análise de séries temporais, como a previsão do mercado de ações, a arquitetura de uma MLP padrão falha em capturar dependências de longo prazo, pois cada previsão é baseada apenas na janela de entrada atual, sem um mecanismo de "memória" para reter informações de passos de tempo anteriores. Análise: Esta afirmação é verdadeira. MLPs não têm memória e não conseguem capturar dependências temporais, o que é uma limitação em tarefas de séries temporais. D) A principal limitação de uma MLP ao lidar com dados sequenciais é sua forte tendência ao sobreajuste (overfitting), um problema que é mais bem resolvido com o uso de Redes Neurais Convolucionais (CNNs) devido à sua capacidade de compartilhamento de parâmetros. Análise: Embora o sobreajuste seja uma preocupação, a principal limitação de uma MLP em dados sequenciais é a falta de capacidade de capturar dependências temporais, não necessariamente o sobreajuste. Além disso, CNNs são mais adequadas para dados espaciais, não sequenciais. E) Para mitigar a ineficiência de uma MLP no processamento de imagens, uma solução comum é aumentar o número de neurônios na primeira camada oculta para que cada neurônio se especialize em uma pequena região da imagem, replicando o comportamento de uma camada convolucional. Análise: Aumentar o número de neurônios não replica o comportamento de uma camada convolucional, que é projetada para capturar características espaciais de forma mais eficiente. Portanto, essa afirmação é incorreta. Diante da análise, a alternativa correta é: C) Em uma tarefa de análise de séries temporais, como a previsão do mercado de ações, a arquitetura de uma MLP padrão falha em capturar dependências de longo prazo, pois cada previsão é baseada apenas na janela de entrada atual, sem um mecanismo de "memória" para reter informações de passos de tempo anteriores.