A alternativa correta é a letra C) Seq2Seq e Transformer. Essas duas arquiteturas de redes neurais são amplamente utilizadas em tarefas de processamento de linguagem natural, como tradução automática e compreensão de linguagem natural. O Seq2Seq é uma arquitetura que usa duas redes neurais, uma para codificar a entrada e outra para decodificar a saída, enquanto o Transformer é uma arquitetura baseada em atenção que é capaz de lidar com sequências de entrada e saída de comprimento variável.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar