Logo Passei Direto
Buscar
Redes neurais recorrentes (RNNs) foram desenvolvidas para lidar com dados sequenciais como séries temporais, textos e sinais. Diferente das redes feedforward, RNNs possuem ciclos em sua arquitetura permitindo que informação seja armazenada e reutilizada em diferentes passos de tempo, possível graças às camadas recorrentes que mantêm estado interno, forma de memória de curto prazo. Nas redes feedforward, neurônios conectam-se apenas entre camadas consecutivas, enquanto nas redes recorrentes há também conexões dentro da mesma camada permitindo fluxo de informações entre próprios neurônios, inclusive para si mesmos. Isso permite que rede aprenda dependências temporais e contextuais, recurso essencial para tarefas como tradução automática, modelagem de linguagem e previsão de séries temporais. Entretanto, RNNs tradicionais enfrentam dificuldades em manter aprendizado de longo prazo, por isso foram desenvolvidas arquiteturas aprimoradas como LSTM (Long Short-Term Memory) que possuem mecanismos específicos para decidir o que lembrar, o que esquecer e o que atualizar, tornando possível aprendizado de dependências de longo prazo de forma mais eficaz. Nas LSTMs, gates controlam fluxo de informação: Write Gate controla o que entra na célula, Keep Gate decide o que esquecer eliminando informações antigas, e Output Gate define o que sai escolhendo quais informações serão enviadas como saída. I. RNNs possuem ciclos em arquitetura permitindo armazenamento e reutilização de informação em diferentes passos de tempo através de estado interno. II. Neurônios em RNNs conectam-se apenas entre camadas consecutivas sem conexões dentro da mesma camada similar às redes feedforward tradicionais. III. LSTMs foram desenvolvidas para superar dificuldades de RNNs tradicionais em manter aprendizado de dependências de longo prazo eficazmente. IV. Gates em LSTMs controlam fluxo de informação decidindo o que entra (Write), o que esquecer (Keep) e o que sair (Output). Avalie a correção das afirmativas sobre redes neurais recorrentes (RNNs) e
User badge image
Anderson Olegario

ontem

Respostas

User badge image

Ed Verified user icon

ontem

Vamos analisar cada afirmativa: I. RNNs possuem ciclos em arquitetura permitindo armazenamento e reutilização de informação em diferentes passos de tempo através de estado interno. Verdadeiro, essa afirmativa está correta, pois descreve a característica fundamental das RNNs. II. Neurônios em RNNs conectam-se apenas entre camadas consecutivas sem conexões dentro da mesma camada similar às redes feedforward tradicionais. Falso, essa afirmativa é incorreta, pois as RNNs têm conexões dentro da mesma camada, permitindo que os neurônios se conectem a si mesmos e a outros neurônios da mesma camada. III. LSTMs foram desenvolvidas para superar dificuldades de RNNs tradicionais em manter aprendizado de dependências de longo prazo eficazmente. Verdadeiro, essa afirmativa está correta, pois as LSTMs foram projetadas para lidar com as limitações das RNNs tradicionais. IV. Gates em LSTMs controlam fluxo de informação decidindo o que entra (Write), o que esquecer (Keep) e o que sair (Output). Falso, a terminologia está um pouco confusa. O Write Gate é geralmente chamado de "Input Gate", o Keep Gate não é uma terminologia padrão (o correto seria "Forget Gate") e o Output Gate está correto. Portanto, essa afirmativa é parcialmente verdadeira, mas a terminologia não está correta. Com base na análise, as afirmativas verdadeiras são I e III. Portanto, a alternativa que contém todos os itens verdadeiros é: I e III. Se houver uma opção que contenha apenas essas duas, essa será a correta. Se não, você terá que considerar as opções disponíveis.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina