Buscar

Um modelo seq-2-seq (sequência-para-sequência) é normalmente composto por um codificador e um decodificador. Quais das afirmativas abaixo estão cor...

Um modelo seq-2-seq (sequência-para-sequência) é normalmente composto por um codificador e um decodificador. Quais das afirmativas abaixo estão corretas em relação a essa família de modelos?
I. Modelos seq-2-seq são capazes de aprender a associar sequências de entrada a sequências de saída de comprimento arbitrário.
II. Modelos seq-2-seq são mais eficazes quando a sequência de entrada e saída têm o mesmo comprimento.
III. Em um modelo de rede neural seq-2-seq, a sequência de entrada, de tamanho arbitrário, é codificada em um espaço latente (estado oculto) de tamanho fixo.
IV. Modelos seq-2-seq são úteis apenas para tarefas de processamento de linguagem natural.
Selecione a alternativa correta:
A. Apenas as afirmativas I, III e IV estão corretas.
B. Apenas as afirmativas III e IV estão corretas.
C. Apenas as afirmativas I, II e III estão corretas.
D. Apenas as afirmativas I e III estão corretas.
E. Apenas as afirmativas II, III e IV estão corretas.

Essa pergunta também está no material:

AP Sem7 Atv10
4 pág.

Aprendizado Universidade Virtual do Estado de São PauloUniversidade Virtual do Estado de São Paulo

Respostas

User badge image

Ed Verified user icon

A alternativa correta é a letra D. Apenas as afirmativas I e III estão corretas. I. Modelos seq-2-seq são capazes de aprender a associar sequências de entrada a sequências de saída de comprimento arbitrário. III. Em um modelo de rede neural seq-2-seq, a sequência de entrada, de tamanho arbitrário, é codificada em um espaço latente (estado oculto) de tamanho fixo.

0
Dislike0

Responda

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Continue navegando