Ed
ontem
Vamos analisar cada afirmativa: I. RNNs possuem ciclos em arquitetura permitindo armazenamento e reutilização de informação em diferentes passos de tempo através de estado interno. Verdadeiro, essa afirmativa está correta, pois descreve a característica fundamental das RNNs. II. Neurônios em RNNs conectam-se apenas entre camadas consecutivas sem conexões dentro da mesma camada similar às redes feedforward tradicionais. Falso, essa afirmativa é incorreta, pois as RNNs têm conexões dentro da mesma camada, permitindo que os neurônios se conectem a si mesmos e a outros neurônios da mesma camada. III. LSTMs foram desenvolvidas para superar dificuldades de RNNs tradicionais em manter aprendizado de dependências de longo prazo eficazmente. Verdadeiro, essa afirmativa está correta, pois as LSTMs foram projetadas para lidar com as limitações das RNNs tradicionais. IV. Gates em LSTMs controlam fluxo de informação decidindo o que entra (Write), o que esquecer (Keep) e o que sair (Output). Falso, a terminologia está um pouco confusa. O Write Gate é geralmente chamado de "Input Gate", o Keep Gate não é uma terminologia padrão (o correto seria "Forget Gate") e o Output Gate está correto. Portanto, essa afirmativa é parcialmente verdadeira, mas a terminologia não está correta. Com base na análise, as afirmativas verdadeiras são I e III. Portanto, a alternativa que contém todos os itens verdadeiros é: I e III. Se houver uma opção que contenha apenas essas duas, essa será a correta. Se não, você terá que considerar as opções disponíveis.