Logo Passei Direto
Buscar
A Rede Neural Multicamadas (MLP), em virtude do Teorema da Aproximação Universal, é reconhecida por sua capacidade de modelar qualquer função contínua com um grau arbitrário de precisão, tornando-a uma ferramenta de grande poder para problemas de classificação e regressão não-lineares. No entanto, sua arquitetura fundamental, que consiste em camadas totalmente conectadas, processa os dados de entrada como um vetor de características sem estrutura inerente. Essa "cegueira estrutural" significa que a MLP ignora qualquer topologia sequencial ou espacial presente nos dados, como a ordem em uma série temporal ou a vizinhança de pixels em uma imagem. Essa limitação é um fator crítico na resolução de problemas em domínios específicos.Fonte: GOODFELLOW, I., BENGIO, Y.; COUVILLE, A. Deep Learning. MIT Press, 2016.Considerando as limitações arquitetônicas de uma MLP padrão, sobre sua aplicação em diferentes problemas, no que apresenta uma conclusão tecnicamente aceita, assinale a alternativa correta: A) Uma MLP não consegue processar dados de alta dimensionalidade, como imagens, pois o Teorema da Aproximação Universal se aplica com maior eficácia a problemas com um número reduzido de variáveis de entrada. B) O problema do desaparecimento do gradiente (vanishing gradient) em MLPs muito profundas ocorre porque a função de ativação ReLU satura para valores de entrada positivos, impedindo o fluxo do gradiente através das camadas. C) Em uma tarefa de análise de séries temporais, como a previsão do mercado de ações, a arquitetura de uma MLP padrão falha em capturar dependências de longo prazo, pois cada previsão é baseada apenas na janela de entrada atual, sem um mecanismo de "memória" para reter informações de passos de tempo anteriores. D) A principal limitação de uma MLP ao lidar com dados sequenciais é sua forte tendência ao sobreajuste (overfitting), um problema que é mais bem resolvido com o uso de Redes Neurais Convolucionais (CNNs) devido à sua capacidade de compartilhamento de parâmetros. E) Para mitigar a ineficiência de uma MLP no processamento de imagens, uma solução comum é aumentar o número de neurônios na primeira camada oculta para que cada neurônio se especialize em uma pequena região da imagem, replicando o comportamento de uma camada convolucional.
User badge image
Márcia Fer

ontem

Respostas

User badge image

Ed Verified user icon

ontem

Vamos analisar cada uma das alternativas para identificar a correta: A) Uma MLP não consegue processar dados de alta dimensionalidade, como imagens, pois o Teorema da Aproximação Universal se aplica com maior eficácia a problemas com um número reduzido de variáveis de entrada. Análise: O Teorema da Aproximação Universal afirma que uma MLP pode aproximar qualquer função contínua, independentemente da dimensionalidade. Portanto, essa afirmação é incorreta. B) O problema do desaparecimento do gradiente (vanishing gradient) em MLPs muito profundas ocorre porque a função de ativação ReLU satura para valores de entrada positivos, impedindo o fluxo do gradiente através das camadas. Análise: O problema do desaparecimento do gradiente geralmente está mais associado a funções de ativação como a sigmoide ou tanh, que saturam para valores extremos. A ReLU, por outro lado, não satura para valores positivos. Portanto, essa afirmação é incorreta. C) Em uma tarefa de análise de séries temporais, como a previsão do mercado de ações, a arquitetura de uma MLP padrão falha em capturar dependências de longo prazo, pois cada previsão é baseada apenas na janela de entrada atual, sem um mecanismo de "memória" para reter informações de passos de tempo anteriores. Análise: Esta afirmação é verdadeira. MLPs não têm memória e não conseguem capturar dependências temporais, o que é uma limitação em tarefas de séries temporais. D) A principal limitação de uma MLP ao lidar com dados sequenciais é sua forte tendência ao sobreajuste (overfitting), um problema que é mais bem resolvido com o uso de Redes Neurais Convolucionais (CNNs) devido à sua capacidade de compartilhamento de parâmetros. Análise: Embora o sobreajuste seja uma preocupação, a principal limitação de uma MLP em dados sequenciais é a falta de capacidade de capturar dependências temporais, não necessariamente o sobreajuste. Além disso, CNNs são mais adequadas para dados espaciais, não sequenciais. E) Para mitigar a ineficiência de uma MLP no processamento de imagens, uma solução comum é aumentar o número de neurônios na primeira camada oculta para que cada neurônio se especialize em uma pequena região da imagem, replicando o comportamento de uma camada convolucional. Análise: Aumentar o número de neurônios não replica o comportamento de uma camada convolucional, que é projetada para capturar características espaciais de forma mais eficiente. Portanto, essa afirmação é incorreta. Diante da análise, a alternativa correta é: C) Em uma tarefa de análise de séries temporais, como a previsão do mercado de ações, a arquitetura de uma MLP padrão falha em capturar dependências de longo prazo, pois cada previsão é baseada apenas na janela de entrada atual, sem um mecanismo de "memória" para reter informações de passos de tempo anteriores.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina