Ed
há 2 meses
Vamos analisar as alternativas com base no texto fornecido: A) O modelo BERT realmente utiliza a arquitetura Transformer, que é um método baseado em atenção para modelagem de sequência a sequência. Esta afirmação está correta. B) O modelo BERT não utiliza a arquitetura LSTM; ele é baseado na arquitetura Transformer. Portanto, esta afirmação é falsa. C) O modelo BERT não utiliza a arquitetura CRF; ele é baseado na arquitetura Transformer. Portanto, esta afirmação é falsa. D) O modelo BERT não utiliza a arquitetura RNN; ele é baseado na arquitetura Transformer. Portanto, esta afirmação é falsa. Diante da análise, a alternativa correta é: A) O BERT model uses the Transformer architecture, an attention-based method for sequence-to-sequence modelling.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material