Baixe o app para aproveitar ainda mais
Prévia do material em texto
06/04/2024, 14:02 Atividade Objetiva 02: 12 - Processamento de Linguagem Natural (2023) https://pucminas.instructure.com/courses/146007/quizzes/381766 1/2 Atividade Objetiva 02 Entrega Sem prazo Pontos 15 Perguntas 5 Limite de tempo Nenhum Tentativas permitidas Sem limite Histórico de tentativas Tentativa Tempo Pontuação MANTIDO Tentativa 2 2 minutos 15 de 15 MAIS RECENTE Tentativa 2 2 minutos 15 de 15 Tentativa 1 14 minutos 12 de 15 As respostas corretas estão ocultas. Pontuação desta tentativa: 15 de 15 Enviado 6 abr em 14:02 Esta tentativa levou 2 minutos. Pergunta 1 3 / 3 pts Modelos de linguagem são essenciais na resolução de tarefas de NLP Representações textuais modernas vem através de um modelo de linguagem HMM são exemplos de Modelos de Linguagem estatísticos Em NLP, modelos estatísticos são melhores do que os modelos neurais Pergunta 2 3 / 3 pts No BOW o tamanho do vetor não aumenta com o tamanho do vocabulário. O TF-IDF quantifica a importância de uma palavra No TF-IDF o tamanho do vetor não aumenta com o tamanho do vocabulário. O TF-IDF entende sinônimos Pergunta 3 3 / 3 pts Spacy Numpy Gensim CountVectorizer Fazer o teste novamente Marque a alternativa incorreta: Marque a alternativa correta: São bibliotecas para tratar para NLP, exceto: https://pucminas.instructure.com/courses/146007/quizzes/381766/history?version=2 https://pucminas.instructure.com/courses/146007/quizzes/381766/history?version=2 https://pucminas.instructure.com/courses/146007/quizzes/381766/history?version=1 https://pucminas.instructure.com/courses/146007/quizzes/381766/take?user_id=238106 06/04/2024, 14:02 Atividade Objetiva 02: 12 - Processamento de Linguagem Natural (2023) https://pucminas.instructure.com/courses/146007/quizzes/381766 2/2 Pergunta 4 3 / 3 pts N-Gramas é um modelo estatístico que atribui probabilidades a sentenças e sequências de palavra A probabilidade de uma palavra depende apenas da palavra anterior é chamada de suposição de Markov Bi-gramas são 3 gramas Bigrama é a mesma suposição da cadeia de markov Pergunta 5 3 / 3 pts Para montar um embedding em um texto, podemos agregar os vetores com a média O SkipGram aprende prevendo o contexto dado uma palavra central baseada nas palavras vizinhas.vra O Word2Vec não captura a semântica de uma palavra No Word2Vec vetores similares representam palavras com o significado ou função semelhantes Pontuação do teste: 15 de 15 Marque a alternativa incorreta: Marque a alternativa incorreta:
Compartilhar