Qual é o papel do mecanismo de atenção em modelos seq-2-seq (sequência-para-sequência)?
Selecione a alternativa correta:
A. O mecanismo de atenção ...
Qual é o papel do mecanismo de atenção em modelos seq-2-seq (sequência-para-sequência)? Selecione a alternativa correta: A. O mecanismo de atenção é usado apenas para melhorar a capacidade de generalização dos modelos seq-2-seq. B. O mecanismo de atenção não é usado em modelos seq-2-seq. C. O mecanismo de atenção permite que o modelo seq-2-seq gere uma saída para cada elemento da sequência de entrada. D. O mecanismo de atenção é usado apenas para reduzir o overfitting em modelos seq-2-seq. E. O mecanismo de atenção permite que o modelo seq-2-seq se concentre em partes relevantes da sequência de entrada durante o processamento.
O papel do mecanismo de atenção em modelos seq-2-seq é permitir que o modelo se concentre em partes relevantes da sequência de entrada durante o processamento. Portanto, a alternativa correta é a letra E.
0
0
Faça como milhares de estudantes: teste grátis o Passei Direto