Ed
ano passado
Vamos analisar cada uma das afirmativas sobre topic modeling: ( ) Os principais modelos de algoritmos de topic modeling são Continuos Bag of Words (CBOW) e Skip-Gram. É falsa. CBOW e Skip-Gram são modelos de word embedding, não especificamente de topic modeling. Os principais modelos de topic modeling incluem LDA (Latent Dirichlet Allocation) e NMF (Non-negative Matrix Factorization). ( ) O modelo Skip-Gram prevê uma palavra dado um determinado contexto, sendo ideal para grandes conjuntos de dados. É verdadeira. O modelo Skip-Gram realmente prevê palavras com base em um contexto e é eficaz em grandes conjuntos de dados. ( ) O modelo CBOW prevê a probabilidade de uma palavra dado um contexto que pode ser uma palavra única ou um grupo de palavras. É verdadeira. O CBOW prevê a palavra central com base nas palavras de contexto, que podem ser uma ou mais. ( ) A relação entre as palavras menina e mulher, no mesmo contexto, são detectadas pela medida da similaridade de cosseno. É verdadeira. A similaridade de cosseno é uma técnica comum para medir a similaridade entre vetores, incluindo vetores de palavras. ( ) Word embedding é uma técnica em que cada palavra é mapeada, individualmente, para um vetor. É verdadeira. Word embedding realmente envolve a representação de palavras como vetores em um espaço vetorial. Portanto, a sequência correta é: F - V - V - V - V. A alternativa que apresenta essa sequência é: a) F - V - V - V - V.


Cadastre-se ou realize login
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Ed
há 2 anos
Vamos analisar cada afirmação sobre topic modeling: ( ) Os principais modelos de algoritmos de topic modeling são Continuos Bag of Words (CBOW) e Skip-Gram. Falso. CBOW e Skip-Gram são modelos de word embedding, não de topic modeling. ( ) O modelo Skip-Gram prevê uma palavra dado um determinado contexto, sendo ideal para grandes conjuntos de dados. Verdadeiro. O Skip-Gram é um modelo de word embedding que prevê uma palavra dada um contexto, sendo eficiente para grandes conjuntos de dados. ( ) O modelo CBOW prevê a probabilidade de uma palavra dado um contexto que pode ser uma palavra única ou um grupo de palavras. Verdadeiro. O CBOW é outro modelo de word embedding que prevê a probabilidade de uma palavra dada um contexto, que pode ser uma palavra única ou um grupo de palavras. ( ) A relação entre as palavras menina e mulher, no mesmo contexto, são detectadas pela medida da similaridade de cosseno. Falso. A similaridade de cosseno é uma medida de similaridade entre vetores de palavras, não necessariamente no mesmo contexto. ( ) Word embedding é uma técnica em que cada palavra é mapeada, individualmente, para um vetor. Verdadeiro. Word embedding é uma técnica que mapeia cada palavra para um vetor em um espaço contínuo. Portanto, a sequência correta de V e F é: F - V - V - F - V. A alternativa que contém essa sequência é: b) F - V - V - F - V.