Baixe o app para aproveitar ainda mais
Prévia do material em texto
Questão 1/10 - Natural Language Processing Para modelos pequenos, a elaboração de uma gramática consistente demandará uma engenharia que pode se dar em um tempo razoável. No entanto, para gramáticas que pretendam atender a um largo contexto de sentenças possíveis, tal atividade pode ser muito custosa. Neste sentido, assinale V para VERDADEIRO e F para FALSO sobre as afirmativas abaixo: ( ) Modelos probabilísticos de linguagem baseiam-se em uma distribuição calculada a partir de um conjunto de textos para uma palavra ou frase. ( ) Uma das vantagens de se utilizar um modelo probabilístico é que não são necessários dados anotados para o treinamento de um algoritmo de aprendizagem. ( ) Um modelo probabilístico não é dependente da ocorrência das palavras em um corpus. ( ) Uma gramática construída a partir de um modelo probabilístico permite que as probabilidades associadas às regras possam ser utilizadas para escolha da interpretação mais provável. Selecione a alternativa que contém a sequência correta. Nota: 10.0 A V F V V B V F F V Você assinalou essa alternativa (B) Você acertou! Aula 2, Tema 2. C V V F F D F V V F E F V F V Questão 2/10 - Natural Language Processing No estudo sobre NLP é muito importante compreender os conceitos básicos de gramática da linguagem em análise. A gramática é um conjunto finito de regras que especificam uma linguagem, na qual as palavras são organizadas em uma estrutura lógica, de forma a expressar um significado. Neste contexto, analise as afirmativas abaixo e assinale a correta. Nota: 10.0 A É possível utilizar uma GLC (gramática livre de contexto) criada a partir de 4 ou 5 frases curtas para analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. B É possível utilizar uma GLC (gramática livre de contexto) criada a partir de uma linguagem para analisar qualquer sentença gramaticalmente correta de outra linguagem, desde que sejam de mesma finalidade, como linguagens de programação ou linguagens de comunicação falada. C É possível utilizar apenas uma GLC (gramática livre de contexto) suficientemente grande para encontrar o contexto de textos diversos, desde que estes pertençam a mesma linguagem usada na criação da GLC. D É possível utilizar uma GLC (gramática livre de contexto) suficientemente grande para analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. Você assinalou essa alternativa (D) Você acertou! Aula 1, Tema 4 - Gramáticas E Uma GLC (gramática livre de contexto) possui dados estatísticos referentes a cada palavra em um determinado texto. Questão 3/10 - Natural Language Processing Existem diversos tipos de estruturas comuns para os corpora de textos. O corpus que não possui nenhum tipo de estrutura, ou seja, que é apenas uma coleção de textos sem nenhum tipo de anotação ou separação específica é o corpus com estrutura do tipo_____________. Assinale a alternativa abaixo que complete CORRETAMENTE a frase acima. Nota: 10.0 A isolado. Você assinalou essa alternativa (A) Você acertou! Aula 2, Tema 1 B categorizado. C categorias em superposição. D temporal. E categorias fuzzy. Questão 4/10 - Natural Language Processing Para a aprendizagem da gramática probabilística, as sentenças deverão estar em um formato específico. Assinale a alternativa CORRETA que corresponde a esse formato: Nota: 10.0 A Devem estar em formato de lista com cada sentenças como um elemento da lista, sem que seja necessário fazer o processamento das listas em árvores sintáticas. B As sentenças devem estar divididas (splitted) em palavras e depois devem ser construídas as árvores de análise. Você assinalou essa alternativa (B) Você acertou! Aula 2, Tema 5. C Deve existir uma figura ChartParser para cada sentença. D Devem estar armazenadas em uma lista de homologações. E A gramática probabilística não precisa de preparação das sentenças para existir. Questão 5/10 - Natural Language Processing Os modelos de recuperação de informação mais utilizados são três: modelo booleano, modelo vetorial e modelo probabilístico. Sobre os modelos de recuperação de informação, assinale a alternativa CORRETA. Nota: 10.0 A O modelo Booleano é baseado em estatística de palavras e compões a maior parte dos sistemas de RI. Estes modelos utilizam contagem de palavras para geração de dados estatísticos. B O modelo Vetorial utiliza vetores de palavras chaves interligados por expressões lógicas como E, OU e NÃO para realizar uma busca de palavras nos textos e assim retornar um valor positivo ou negativo resultante da busca. C O modelo Probabilístico é baseado em estatística de palavras ao gerá-las através da contagem de palavras. Neste modelo os pesos utilizados para cada termo não são binários, possibilitando a geração de um grau de similaridade entre documentos. D O modelo Vetorial é baseado em um framework de probabilidades de termos de indexação nos documentos. Neste caso, dada a consulta de um usuário, não existirá nenhum documento que não pertencerá ao conjunto de documentos que contenham exatamente os documentos relevantes ao usuário. E O modelo Booleano por palavra-chave é característico dos sistemas mais antigos de RI e é baseado em busca simples de palavras dentro dos documentos. Se a palavra buscada aparecer no documento, ele será apresentado, caso contrário, não. Você assinalou essa alternativa (E) Você acertou! Aula 3, Tema 2. Questão 6/10 - Natural Language Processing O Natural Language Toolkit (NLTK) foi originalmente criado em 2001 como parte de um curso de linguística computacional no Departamento de Ciência da Computação e da Informação da Universidade da Pensilvânia. Desde então, ele foi desenvolvido e expandido com a ajuda de dezenas de colaboradores. Sobre a criação da biblioteca, marque a opção que apresente, CORRETAMENTE, os 4 principais motivos do projeto NLTK. Nota: 10.0 A Isolada, Categorizada, categorias em sobreposição e temporal B Extensibilidade, Consistência, Unicidade, Capacidade. C Simplicidade, para uso profissional, poucas ferramentas, apenas para estudos. D Complexidade, solução completa, para grande poder computacional e Modularidade E Simplicidade, consistência, extensibilidade, modularidade. Você assinalou essa alternativa (E) Você acertou! Aula 2, Tema 4 Questão 7/10 - Natural Language Processing Uma gramática livre de contexto determinística (GLCD) e uma gramática livre de contexto probabilística (GLCP) podem ser construídas por meio de aprendizagem utilizando conjuntos distintos de dados previamente tratados. Uma GLCP é criada a partir de uma_______________________________. Marque a alternativa abaixo que complete corretamente a afirmativa. Nota: 10.0 A análise sintática de um corpus obrigatoriamente anotado e que utilize como base um GLCD, criado a partir de um corpus não anotado através da contagem de palavras e suas ocorrências nas sentenças. B contagem de palavras e suas ocorrências nas sentenças de um texto ou corpus não anotado, tendo como base uma análise sintática executada com uma GLCD criada a partir de um corpus anotado que pode ser igual ou diferente do corpus em análise. Você assinalou essa alternativa (B) Você acertou! Aula 2, Tema 3 – Gramáticas Probabilísticas. Para gerarmos uma GLCD, é obrigatório o uso de um corpus anotado. Para criarmos uma GLCP, é obrigatório o uso de uma GLCD previamente gerada. O corpus que gerará a GLCP não precisa ser anotado. O corpus usado para criação da GLCP pode ser diferente do corpus usado para criar a GLCD. Ordem:1. Obter um corpus suficientemente grande e anotado. 2. Criar uma GLCD deste primeiro corpus. 3. Obter um corpus diferente e que pode ser anotado ou não. 4. Criar a GLCP deste segundo corpus utilizando a GLCD feita anteriormente. C GLCD em conjunto com uma análise probabilística de cada termo de cada sentença. Este processo só é possível com a utilização de corpus e textos anotados, tanto para a criação do GLCP quanto para o GLCD. D rede neural recorrente (RNN) previamente treinada com as probabilidades de surgimento de cada palavra na linguagem do corpus em análise. Esta RNN identifica cada palavra e gera a GLCP. E estratégia de pré-treinamento intensivo de camadas para criação de uma RNA (rede neural artificial) com base em um corpus anotado. Este processo tem como resultado uma rede neural treinada que pode identificar qual a próxima palavra com maior probabilidade em um texto. Questão 8/10 - Natural Language Processing Comunicação através de linguagem natural pode ser modelado como um sistema de diálogo falado, como mostrado em nossos estudos. Para que possamos compreender este tipo de modelagem, alguns conceitos são necessários. Dos conceitos abaixo, assinale aqueles que são afirmações VERDADEIRAS (V) e os que são afirmações FALSAS (F). ( ) Gramática é a associação de significado a uma cadeia válida de símbolos linguísticos. ( ) Semântica é um conjunto finito de regras que especifica uma linguagem. ( ) Pragmática é o significado associado a uma cadeia válida em um contexto específico. ( ) Sintagma é uma subcadeia categorizada de uma cadeia de símbolos linguísticos que juntas formam uma sentença. Selecione a alternativa com a sequência correta. Nota: 0.0Você não pontuou essa questão A F V F V B V V F F C V F V F Você assinalou essa alternativa (C) D F F V V Aula 1, Tema 3 - Conceitos e Definições E V V V V Questão 9/10 - Natural Language Processing Em se tratando de coleções muito grandes, o que é comum de ocorrer na web, pode ser recomendado reduzir o conjunto de palavras-chave representativas. Isso pode ser conseguido a partir da eliminação de stopwords (como, por exemplo, artigos, advérbios e preposições). Por que existe este tipo de recomendação, quando analisamos textos muito grandes? Nota: 10.0 A Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos repetidos, chamados do stopwords. B As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos estes tipos de análise. C Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, evidenciamos os sentimentos e significados dos textos. Você assinalou essa alternativa (C) Você acertou! Aula 3, Tema 1. D A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros símbolos. E Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma análise destes textos e de forma mais leve, computacionalmente falando. Questão 10/10 - Natural Language Processing De acordo com Nadkarni et al., no artigo intitulado “Natural language processing: an introduction” e visto no material didático, a linguagem natural é caracterizada por sua frequente ambiguidade, natureza irrestrita e imenso tamanho, possibilitando infinitas de combinação de símbolos. Levando em consideração esta natureza da linguagem natural, quais dois problemas surgem ao tentarmos utilizar uma abordagem padrão de análise de dados? Nota: 10.0 A 1 – A abordagem padrão de análise de dados não nos permite encontrar o significado de um texto de forma simples ou com poucas regras, pois as combinações possíveis entre palavras e significados diferentes para cada palavra geram a necessidade de regras cada vez mais específicas, inviabilizando suas criações. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma pessoa compreenderia o texto rapidamente e sem dificuldades. Você assinalou essa alternativa (A) Você acertou! AULA 1 – TEMA 1 B 1 – A abordagem padrão de análise de dados não nos permite extrair a sintaxe de um texto de forma simples ou com poucas regras, pois as combinações possíveis entre palavras geram a necessidade de muito poder computacional, inviabilizando sua utilização. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações possíveis entre símbolos se reduzem e causam um aumento na velocidade de processamento dos dados, impedindo o processamento de uma grande quantidade de textos ao mesmo tempo. C 1 – A abordagem padrão de análise de dados nos permite encontrar dados estatísticos sobre cada palavra e com isso conseguimos encontrar o assunto principal de cada texto, porém muitas palavras repetidas em um texto podem induzir ao erro quando não levamos em consideração a sintaxe da linguagem. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma pessoa compreenderia o texto rapidamente e sem dificuldades. D 1 – A abordagem padrão de análise de dados permite encontrarmos apenas o significado geral do texto, mas não dados estatísticos de cada palavra. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente, uma nova gramática, mais simples, surge e com isso novas regras precisam ser criadas, dificultando o processamento dos textos. E 1 – A abordagem padrão de análise de dados não nos permite gerar nuvens de palavras nem realizarmos análises matemáticas nos textos. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente as análises de dados padrão nos retornam significados menos complexos, apesar de corretos, o que causa uma redução na extração de semântica. Questão 1/10 - Natural Language Processing Ao juntarmos a indexação por frequência dos termos (TF) com a indexação por frequência inversa de documentos (IDF), obtemos o mais popular esquema de atribuição de pesos para indexação de documentos, o TF-IDF. Sobre isto, marque a alternativa que contenha uma afirmação CORRETA. Nota: 10.0 A Para indexarmos palavras em documentos é preferível utilizarmos apenas o TF, que leva em conta a distribuição estatística de cada termo em cada documento e se mostra mais efetivo para coleções de documentos de forma geral.B O uso de combinações distintas dos cálculos de TF e IDF resultam em conjuntos de pesos TF-IDF diferentes e cada uma pode resultar em uma busca com maior ou menor precisão de resultados, mas sempre serão melhores do que a utilização apenas de TF ou de IDF separadamente. Você assinalou essa alternativa (B) Você acertou! Aula 3, Tema 4 e 5. C Para a criação dos pesos TF, o uso do esquema de pesos binário é o mais usado e é este esquema que foi usado em nossas demonstrações de aula. D Ao unirmos o esquema de pesos de normalização logarítmica para TF com o esquema de pesos unitário de IDF, obtemos o principal esquema de pesos recomendados para o uso do TF-IDF. E Durante a aplicação de TF-IDF em uma coleção de documentos, em primeiro lugar devemos calcular os pesos TF-IDF de todos os elementos, para então obtermos a matriz de frequências. Questão 2/10 - Natural Language Processing O Natural Language Toolkit (NLTK) foi originalmente criado em 2001 como parte de um curso de linguística computacional no Departamento de Ciência da Computação e da Informação da Universidade da Pensilvânia. Desde então, ele foi desenvolvido e expandido com a ajuda de dezenas de colaboradores. Sobre a criação da biblioteca, marque a opção que apresente, CORRETAMENTE, os 4 principais motivos do projeto NLTK. Nota: 10.0 A Isolada, Categorizada, categorias em sobreposição e temporal B Extensibilidade, Consistência, Unicidade, Capacidade. C Simplicidade, para uso profissional, poucas ferramentas, apenas para estudos. D Complexidade, solução completa, para grande poder computacional e Modularidade E Simplicidade, consistência, extensibilidade, modularidade. Você assinalou essa alternativa (E) Você acertou! Aula 2, Tema 4 Questão 3/10 - Natural Language Processing As expressões regulares, por meio de uma simbologia padrão, definem uma gramática regular para uma única cadeia de texto. Isto explica o que são, mas não por qual a razão elas existem. Marque a alternativa que apresenta o motivo da existência de expressões regulares. Nota: 10.0 A As expressões regulares solucionaram, principalmente, o problema de armazenamento em um léxico de determinados símbolos terminais cujas combinações tendem ao infinito, como no exemplo do armazenamento de números, que existem em quantidade infinita e ainda sim precisam ser representados. Você assinalou essa alternativa (A) Você acertou! Aula 1, Tema 5 – Expressões Regulares. B As expressões regulares têm o objetivo de definir uma gramática regular para uma única cadeia de texto, por meio de uma simbologia padrão, para que exista uma padronização nestas representações. Sem elas ainda seria possível o armazenamento de todas as possibilidades possíveis de todos os símbolos terminais em um léxico. C Apesar de, em sua concepção, as expressões regulares terem sido criadas para representação de números, o principal motivo da existência delas é para criação de máscaras para limitação de entradas de dados dentro dos padrões necessários em um banco de dados ou outro tipo de armazenamento de léxico. D Expressões regulares existem para criação de máscaras de preenchimento de dados em bancos de dados. Sua criação se deu em busca de padronização nos diversos tipos de formatos existentes até a década de 1990. E Expressões regulares foram criadas para solucionar o problema de excesso de utilização de memória no armazenamento de dados de um léxico, que facilmente ocupava todo o armazenamento quando se tentava registrar símbolos terminais de linguagens com muitas palavras, como o Mandarim e o Português. Questão 4/10 - Natural Language Processing Uma gramática livre de contexto determinística (GLCD) e uma gramática livre de contexto probabilística (GLCP) podem ser construídas por meio de aprendizagem utilizando conjuntos distintos de dados previamente tratados. Uma GLCP é criada a partir de uma_______________________________. Marque a alternativa abaixo que complete corretamente a afirmativa. Nota: 10.0 A análise sintática de um corpus obrigatoriamente anotado e que utilize como base um GLCD, criado a partir de um corpus não anotado através da contagem de palavras e suas ocorrências nas sentenças. B contagem de palavras e suas ocorrências nas sentenças de um texto ou corpus não anotado, tendo como base uma análise sintática executada com uma GLCD criada a partir de um corpus anotado que pode ser igual ou diferente do corpus em análise. Você assinalou essa alternativa (B) Você acertou! Aula 2, Tema 3 – Gramáticas Probabilísticas. Para gerarmos uma GLCD, é obrigatório o uso de um corpus anotado. Para criarmos uma GLCP, é obrigatório o uso de uma GLCD previamente gerada. O corpus que gerará a GLCP não precisa ser anotado. O corpus usado para criação da GLCP pode ser diferente do corpus usado para criar a GLCD. Ordem: 1. Obter um corpus suficientemente grande e anotado. 2. Criar uma GLCD deste primeiro corpus. 3. Obter um corpus diferente e que pode ser anotado ou não. 4. Criar a GLCP deste segundo corpus utilizando a GLCD feita anteriormente. C GLCD em conjunto com uma análise probabilística de cada termo de cada sentença. Este processo só é possível com a utilização de corpus e textos anotados, tanto para a criação do GLCP quanto para o GLCD. D rede neural recorrente (RNN) previamente treinada com as probabilidades de surgimento de cada palavra na linguagem do corpus em análise. Esta RNN identifica cada palavra e gera a GLCP. E estratégia de pré-treinamento intensivo de camadas para criação de uma RNA (rede neural artificial) com base em um corpus anotado. Este processo tem como resultado uma rede neural treinada que pode identificar qual a próxima palavra com maior probabilidade em um texto. Questão 5/10 - Natural Language Processing Em se tratando de coleções muito grandes, o que é comum de ocorrer na web, pode ser recomendado reduzir o conjunto de palavras-chave representativas. Isso pode ser conseguido a partir da eliminação de stopwords (como, por exemplo, artigos, advérbios e preposições). Por que existe este tipo de recomendação, quando analisamos textos muito grandes? Nota: 10.0 A Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos repetidos, chamados do stopwords. B As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos estes tipos de análise. C Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, evidenciamos os sentimentos e significados dos textos. Você assinalou essa alternativa (C) Você acertou! Aula 3, Tema 1. D A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros símbolos. E Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma análise destes textos e de forma mais leve, computacionalmente falando. Questão 6/10 - Natural Language Processing No estudo sobre NLP é muito importante compreender os conceitos básicos de gramática da linguagem em análise. A gramática é um conjunto finito de regras que especificam uma linguagem, na qual as palavras são organizadas em uma estrutura lógica, de forma a expressar um significado. Neste contexto, analise as afirmativas abaixo e assinalea correta. Nota: 10.0 A É possível utilizar uma GLC (gramática livre de contexto) criada a partir de 4 ou 5 frases curtas para analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. B É possível utilizar uma GLC (gramática livre de contexto) criada a partir de uma linguagem para analisar qualquer sentença gramaticalmente correta de outra linguagem, desde que sejam de mesma finalidade, como linguagens de programação ou linguagens de comunicação falada. C É possível utilizar apenas uma GLC (gramática livre de contexto) suficientemente grande para encontrar o contexto de textos diversos, desde que estes pertençam a mesma linguagem usada na criação da GLC. D É possível utilizar uma GLC (gramática livre de contexto) suficientemente grande para analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. Você assinalou essa alternativa (D) Você acertou! Aula 1, Tema 4 - Gramáticas E Uma GLC (gramática livre de contexto) possui dados estatísticos referentes a cada palavra em um determinado texto. Questão 7/10 - Natural Language Processing Para modelos pequenos, a elaboração de uma gramática consistente demandará uma engenharia que pode se dar em um tempo razoável. No entanto, para gramáticas que pretendam atender a um largo contexto de sentenças possíveis, tal atividade pode ser muito custosa. Neste sentido, assinale V para VERDADEIRO e F para FALSO sobre as afirmativas abaixo: ( ) Modelos probabilísticos de linguagem baseiam-se em uma distribuição calculada a partir de um conjunto de textos para uma palavra ou frase. ( ) Uma das vantagens de se utilizar um modelo probabilístico é que não são necessários dados anotados para o treinamento de um algoritmo de aprendizagem. ( ) Um modelo probabilístico não é dependente da ocorrência das palavras em um corpus. ( ) Uma gramática construída a partir de um modelo probabilístico permite que as probabilidades associadas às regras possam ser utilizadas para escolha da interpretação mais provável. Selecione a alternativa que contém a sequência correta. Nota: 10.0 A V F V V B V F F V Você assinalou essa alternativa (B) Você acertou! Aula 2, Tema 2. C V V F F D F V V F E F V F V Questão 8/10 - Natural Language Processing A biblioteca NLYK nos permite usar o método chomsky_normal_form(). Sobre a forma normal de Chomsky, analise a asserção-razão abaixo: I. Toda gramática na forma normal de Chomsky é uma GLC (Gramática Livre de Contexto). PORQUE II. Gramática livre de contexto é a gramática que possui todas as suas regras de formação na forma , no qual todas as regras de produção independem do contexto do símbolo não terminal e o lado esquerdo, quando for um único símbolo não terminal, poderá sempre ser substituído pelo lado direito. Assinale a alternativa que corresponda à análise CORRETA sobre esta asserção-razão. Nota: 10.0 A A primeira afirmativa está correta, mas a segunda está errada. B A primeira afirmativa está errada, mas a segunda está correta. C As duas estão corretas, mas uma não possui correlação nenhuma com a outra. D As duas afirmativas estão corretas e a segunda justifica a primeira. Você assinalou essa alternativa (D) Você acertou! E As duas afirmativas estão incorretas. Questão 9/10 - Natural Language Processing Comunicação através de linguagem natural pode ser modelado como um sistema de diálogo falado, como mostrado em nossos estudos. Para que possamos compreender este tipo de modelagem, alguns conceitos são necessários. Dos conceitos abaixo, assinale aqueles que são afirmações VERDADEIRAS (V) e os que são afirmações FALSAS (F). ( ) Gramática é a associação de significado a uma cadeia válida de símbolos linguísticos. ( ) Semântica é um conjunto finito de regras que especifica uma linguagem. ( ) Pragmática é o significado associado a uma cadeia válida em um contexto específico. ( ) Sintagma é uma subcadeia categorizada de uma cadeia de símbolos linguísticos que juntas formam uma sentença. Selecione a alternativa com a sequência correta. Nota: 10.0 A F V F V B V V F F C V F V F D F F V V Você assinalou essa alternativa (D) Você acertou! Aula 1, Tema 3 - Conceitos e Definições E V V V V Questão 10/10 - Natural Language Processing Existem diversos tipos de estruturas comuns para os corpora de textos. O corpus que não possui nenhum tipo de estrutura, ou seja, que é apenas uma coleção de textos sem nenhum tipo de anotação ou separação específica é o corpus com estrutura do tipo_____________. Assinale a alternativa abaixo que complete CORRETAMENTE a frase acima. Nota: 10.0 A isolado. Você assinalou essa alternativa (A) Você acertou! Aula 2, Tema 1 B categorizado. C categorias em superposição. D temporal. E categorias fuzzy. Questão 1/10 - Natural Language Processing Comunicação através de linguagem natural pode ser modelado como um sistema de diálogo falado, como mostrado em nossos estudos. Para que possamos compreender este tipo de modelagem, alguns conceitos são necessários. Dos conceitos abaixo, assinale aqueles que são afirmações VERDADEIRAS (V) e os que são afirmações FALSAS (F). ( ) Gramática é a associação de significado a uma cadeia válida de símbolos linguísticos. ( ) Semântica é um conjunto finito de regras que especifica uma linguagem. ( ) Pragmática é o significado associado a uma cadeia válida em um contexto específico. ( ) Sintagma é uma subcadeia categorizada de uma cadeia de símbolos linguísticos que juntas formam uma sentença. Selecione a alternativa com a sequência correta. Nota: 10.0 A F V F V B V V F F C V F V F D F F V V Você assinalou essa alternativa (D) Você acertou! Aula 1, Tema 3 - Conceitos e Definições E V V V V Questão 2/10 - Natural Language Processing No estudo sobre NLP é muito importante compreender os conceitos básicos de gramática da linguagem em análise. A gramática é um conjunto finito de regras que especificam uma linguagem, na qual as palavras são organizadas em uma estrutura lógica, de forma a expressar um significado. Neste contexto, analise as afirmativas abaixo e assinale a correta. Nota: 10.0 A É possível utilizar uma GLC (gramática livre de contexto) criada a partir de 4 ou 5 frases curtas para analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. B É possível utilizar uma GLC (gramática livre de contexto) criada a partir de uma linguagem para analisar qualquer sentença gramaticalmente correta de outra linguagem, desde que sejam de mesma finalidade, como linguagens de programação ou linguagens de comunicação falada. C É possível utilizar apenas uma GLC (gramática livre de contexto) suficientemente grande para encontrar o contexto de textos diversos, desde que estes pertençam a mesma linguagem usada na criação da GLC. D É possível utilizar uma GLC (gramática livre de contexto) suficientemente grande para analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. Você assinalou essa alternativa (D) Você acertou! Aula 1, Tema 4 - Gramáticas E Uma GLC (gramática livre de contexto) possui dados estatísticos referentes a cada palavra em um determinado texto. Questão 3/10 - Natural Language Processing De acordo com Nadkarni et al., no artigo intitulado “Natural language processing: an introduction” e visto no material didático, a linguagem natural é caracterizada por sua frequente ambiguidade, natureza irrestrita e imenso tamanho, possibilitando infinitas de combinação de símbolos. Levando em consideração esta natureza da linguagem natural, quais dois problemas surgem ao tentarmos utilizar uma abordagem padrão de análise de dados? Nota: 10.0A 1 – A abordagem padrão de análise de dados não nos permite encontrar o significado de um texto de forma simples ou com poucas regras, pois as combinações possíveis entre palavras e significados diferentes para cada palavra geram a necessidade de regras cada vez mais específicas, inviabilizando suas criações. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma pessoa compreenderia o texto rapidamente e sem dificuldades. Você assinalou essa alternativa (A) Você acertou! AULA 1 – TEMA 1 B 1 – A abordagem padrão de análise de dados não nos permite extrair a sintaxe de um texto de forma simples ou com poucas regras, pois as combinações possíveis entre palavras geram a necessidade de muito poder computacional, inviabilizando sua utilização. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações possíveis entre símbolos se reduzem e causam um aumento na velocidade de processamento dos dados, impedindo o processamento de uma grande quantidade de textos ao mesmo tempo. C 1 – A abordagem padrão de análise de dados nos permite encontrar dados estatísticos sobre cada palavra e com isso conseguimos encontrar o assunto principal de cada texto, porém muitas palavras repetidas em um texto podem induzir ao erro quando não levamos em consideração a sintaxe da linguagem. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma pessoa compreenderia o texto rapidamente e sem dificuldades. D 1 – A abordagem padrão de análise de dados permite encontrarmos apenas o significado geral do texto, mas não dados estatísticos de cada palavra. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente, uma nova gramática, mais simples, surge e com isso novas regras precisam ser criadas, dificultando o processamento dos textos. E 1 – A abordagem padrão de análise de dados não nos permite gerar nuvens de palavras nem realizarmos análises matemáticas nos textos. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente as análises de dados padrão nos retornam significados menos complexos, apesar de corretos, o que causa uma redução na extração de semântica. Questão 4/10 - Natural Language Processing Vimos que RI (Recuperação de Informação) se refere à localização de materiais (geralmente documentos) de natureza não estruturada (geralmente texto) que satisfazem uma necessidade de informações em grandes coleções geralmente armazenadas em computadores. Um sistema de RI pode ser composto por: ( ) Uma coleção de documentos: o que pode ser tratado como documento – parágrafo, um texto completou um conjunto de textos. ( ) Linguagem de consulta: subconjunto coletado com base na busca efetuada relevante aos termos colocados na consulta. ( ) Um conjunto de resultados: que pode ser na forma de uma simples lista ordenada por relevância, ou um mapa tridimensional em cores com os documentos relacionados em rede. ( ) Apresentação dos resultados: conforme um conjunto de regras para a definição da consulta que especifica aquilo que o usuário quer pesquisar. Marque a alternativa que contenha a ordem correta. Nota: 10.0 A V V V V B V V V F C V V F F D V F F F Você assinalou essa alternativa (D) Você acertou! Aula 3, Tema 1 E F F F F Questão 5/10 - Natural Language Processing Para modelos pequenos, a elaboração de uma gramática consistente demandará uma engenharia que pode se dar em um tempo razoável. No entanto, para gramáticas que pretendam atender a um largo contexto de sentenças possíveis, tal atividade pode ser muito custosa. Neste sentido, assinale V para VERDADEIRO e F para FALSO sobre as afirmativas abaixo: ( ) Modelos probabilísticos de linguagem baseiam-se em uma distribuição calculada a partir de um conjunto de textos para uma palavra ou frase. ( ) Uma das vantagens de se utilizar um modelo probabilístico é que não são necessários dados anotados para o treinamento de um algoritmo de aprendizagem. ( ) Um modelo probabilístico não é dependente da ocorrência das palavras em um corpus. ( ) Uma gramática construída a partir de um modelo probabilístico permite que as probabilidades associadas às regras possam ser utilizadas para escolha da interpretação mais provável. Selecione a alternativa que contém a sequência correta. Nota: 10.0 A V F V V B V F F V Você assinalou essa alternativa (B) Você acertou! Aula 2, Tema 2. C V V F F D F V V F E F V F V Questão 6/10 - Natural Language Processing Os modelos de recuperação de informação mais utilizados são três: modelo booleano, modelo vetorial e modelo probabilístico. Sobre os modelos de recuperação de informação, assinale a alternativa CORRETA. Nota: 10.0 A O modelo Booleano é baseado em estatística de palavras e compões a maior parte dos sistemas de RI. Estes modelos utilizam contagem de palavras para geração de dados estatísticos. B O modelo Vetorial utiliza vetores de palavras chaves interligados por expressões lógicas como E, OU e NÃO para realizar uma busca de palavras nos textos e assim retornar um valor positivo ou negativo resultante da busca. C O modelo Probabilístico é baseado em estatística de palavras ao gerá-las através da contagem de palavras. Neste modelo os pesos utilizados para cada termo não são binários, possibilitando a geração de um grau de similaridade entre documentos. D O modelo Vetorial é baseado em um framework de probabilidades de termos de indexação nos documentos. Neste caso, dada a consulta de um usuário, não existirá nenhum documento que não pertencerá ao conjunto de documentos que contenham exatamente os documentos relevantes ao usuário. E O modelo Booleano por palavra-chave é característico dos sistemas mais antigos de RI e é baseado em busca simples de palavras dentro dos documentos. Se a palavra buscada aparecer no documento, ele será apresentado, caso contrário, não. Você assinalou essa alternativa (E) Você acertou! Aula 3, Tema 2. Questão 7/10 - Natural Language Processing Uma gramática livre de contexto determinística (GLCD) e uma gramática livre de contexto probabilística (GLCP) podem ser construídas por meio de aprendizagem utilizando conjuntos distintos de dados previamente tratados. Uma GLCP é criada a partir de uma_______________________________. Marque a alternativa abaixo que complete corretamente a afirmativa. Nota: 10.0 A análise sintática de um corpus obrigatoriamente anotado e que utilize como base um GLCD, criado a partir de um corpus não anotado através da contagem de palavras e suas ocorrências nas sentenças. B contagem de palavras e suas ocorrências nas sentenças de um texto ou corpus não anotado, tendo como base uma análise sintática executada com uma GLCD criada a partir de um corpus anotado que pode ser igual ou diferente do corpus em análise. Você assinalou essa alternativa (B) Vocêacertou! Aula 2, Tema 3 – Gramáticas Probabilísticas. Para gerarmos uma GLCD, é obrigatório o uso de um corpus anotado. Para criarmos uma GLCP, é obrigatório o uso de uma GLCD previamente gerada. O corpus que gerará a GLCP não precisa ser anotado. O corpus usado para criação da GLCP pode ser diferente do corpus usado para criar a GLCD. Ordem: 1. Obter um corpus suficientemente grande e anotado. 2. Criar uma GLCD deste primeiro corpus. 3. Obter um corpus diferente e que pode ser anotado ou não. 4. Criar a GLCP deste segundo corpus utilizando a GLCD feita anteriormente. C GLCD em conjunto com uma análise probabilística de cada termo de cada sentença. Este processo só é possível com a utilização de corpus e textos anotados, tanto para a criação do GLCP quanto para o GLCD. D rede neural recorrente (RNN) previamente treinada com as probabilidades de surgimento de cada palavra na linguagem do corpus em análise. Esta RNN identifica cada palavra e gera a GLCP. E estratégia de pré-treinamento intensivo de camadas para criação de uma RNA (rede neural artificial) com base em um corpus anotado. Este processo tem como resultado uma rede neural treinada que pode identificar qual a próxima palavra com maior probabilidade em um texto. Questão 8/10 - Natural Language Processing Existem diversos tipos de estruturas comuns para os corpora de textos. O corpus que não possui nenhum tipo de estrutura, ou seja, que é apenas uma coleção de textos sem nenhum tipo de anotação ou separação específica é o corpus com estrutura do tipo_____________. Assinale a alternativa abaixo que complete CORRETAMENTE a frase acima. Nota: 10.0 A isolado. Você assinalou essa alternativa (A) Você acertou! Aula 2, Tema 1 B categorizado. C categorias em superposição. D temporal. E categorias fuzzy. Questão 9/10 - Natural Language Processing O Natural Language Toolkit (NLTK) foi originalmente criado em 2001 como parte de um curso de linguística computacional no Departamento de Ciência da Computação e da Informação da Universidade da Pensilvânia. Desde então, ele foi desenvolvido e expandido com a ajuda de dezenas de colaboradores. Sobre a criação da biblioteca, marque a opção que apresente, CORRETAMENTE, os 4 principais motivos do projeto NLTK. Nota: 10.0 A Isolada, Categorizada, categorias em sobreposição e temporal B Extensibilidade, Consistência, Unicidade, Capacidade. C Simplicidade, para uso profissional, poucas ferramentas, apenas para estudos. D Complexidade, solução completa, para grande poder computacional e Modularidade E Simplicidade, consistência, extensibilidade, modularidade. Você assinalou essa alternativa (E) Você acertou! Aula 2, Tema 4 Questão 10/10 - Natural Language Processing Em se tratando de coleções muito grandes, o que é comum de ocorrer na web, pode ser recomendado reduzir o conjunto de palavras-chave representativas. Isso pode ser conseguido a partir da eliminação de stopwords (como, por exemplo, artigos, advérbios e preposições). Por que existe este tipo de recomendação, quando analisamos textos muito grandes? Nota: 10.0 A Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos repetidos, chamados do stopwords. B As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos estes tipos de análise. C Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, evidenciamos os sentimentos e significados dos textos. Você assinalou essa alternativa (C) Você acertou! Aula 3, Tema 1. D A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros símbolos. E Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma análise destes textos e de forma mais leve, computacionalmente falando. Questão 1/10 - Natural Language Processing No tema 1 da aula 5, a linguagem Python, vimos algumas das principais bibliotecas que são utilizadas para o processamento de linguagem natural em conjunto com a linguagem Pytthon. Sobre estas bibliotecas, assinale a alternativa que contenha uma afirmação INCORRETA: A Numpy é uma biblioteca que fornece funções de processamento numérico em todos os elementos de arrays e operações matemáticas entre arrays eficientes por uso de processamento paralelo e por GPU. B Pandas é uma biblioteca que nos permite criar estruturas de dados de alto nível, chamadas de DataFrame e Series. C Matplotlib é uma biblioteca que auxilia na contrução de gráficos e plotagens apropriadas para publicação dos dados. D Scipy é uma biblioteca que oferece funções para efetruar processamento numérica em todos os elementos de arrays ou operações matemáticas entre array, permitindo ler e gravar conjuntos de dados baseados em array. Você assinalou essa alternativa (D) E Scikit-learn é a principal biblioteca de propósito geral para aprendizado de máquina, para os programadores em Python. Com ela é possível criar e treinar modelos de classificação, regressão, agrupamento, pré-processamento, redução de dimensionalidade e seleção de modelos. Questão 2/10 - Natural Language Processing Na aula 6, o conceito de redes convolucionais foi apresentada em conjunto suas principais camadas para classificação de palavras. Estas camadas são: ( ) Softmax (Classificação) ( ) Max-pooling (no tempo) ( ) Sentença de entrada ( ) Tabela de Lookup ( ) FCL (Totalmente conectada) ( ) Camada de Convolução Marque a alternativa que contém a ordem correta das camadas de uma CNN para classificação de palavras. A 6 – 4 – 1 – 2 – 5 – 3 Você assinalou essa alternativa (A) B 5 – 4 – 1 – 3 – 2 – 6 C 6 – 2 – 1 – 3 – 5 – 4 D 1 – 4 – 6 – 3 – 5 – 2 E 1 – 5 – 6 – 2 – 4 – 3 Questão 3/10 - Natural Language Processing Na aula 5, sobre classificação e avaliação de documentos, o conceito de classificação foi apresentado como a tarefa de escolher o rótulo de classe correto para uma determinada entrada de dados. Vimos que para NLP os tipos de classificadores mais utilizados sãos os supervisionados. Sobre eles, assinale a alternativa que contenha a afirmação VERDADEIRA sobre o que é necessário para realizarmos este tipo de classificação. A Um classificador é dito supervisionado quando utilizamos um corpus de treinamento com dados rotulados para cada entrada, sendo que é comum a divisão do corpus em duas partes: uma chamada de conjunto de treinamento e outra de conjunto de teste. As classes são definidas pelos rótulos existentes nos dados do conjunto de treinamento. Você assinalou essa alternativa (A) B Um classificador é dito supervisionado quando utilizamos um corpus de treinamento com dados anotados para cada tipo de estrutura gramatical, sendo que é comum a divisão do corpus em três partes: uma para a criação da gramática, uma chamada de conjunto de treinamento e outra de conjunto de teste. As classes são definidas automaticamente pelo algoritmo de treinamento e não depende nem das anotações e nem dos rótulos dos dados. C Um classificador é dito supervisionado quando, após as etapas de criação e treinamento, em uso é necessário fornecermos o rótulo do texto em análise, para classificação. As classes são definidaspelos rótulos existentes nos dados conforme fornecimento durante a utilização do modelo. D Um classificador é dito supervisionado pois é necessário estarmos sempre atentos às suas funções de classificação, devido à baixa confiabilidade, sendo necessário o prévio conhecimento dos rótulos de todos os textos a serem classificados. E Um classificador é dito supervisionado pois ao realizarmos um classificador de sequências, utilizamos mais de um modelo de classificador, o que causa a supervisão de um modelo por outro durante a etapa de treinamento, mesmo com uso de dados não rotulados. Questão 4/10 - Natural Language Processing Na aula 5, o tema 2 nos apresenta a biblioteca NLTK para uso em tarefas de linguagem natural para Python. Esta biblioteca define uma estrutura que busca facilitar o estudo em NLP. Sobre os diversos módulos da NLTK, mostrados nesta aula, qual deles é utilizado para nos dar uma ideia de precisão e eficiência do nosso modelo criado e treinado? A tokenize B Chunk C parse D Metrics Você assinalou essa alternativa (D) E app Questão 5/10 - Natural Language Processing Na aula 5, sobre classificação e avaliação de documentos, foram apresentadas algumas tarefas que podem ser enquadradas na classificação supervisionada. Sobre estas tarefas, assinale a alternativa que contém a afirmação CORRETA: Você não pontuou essa questão A Identificação de gênero em discurso pode ser enquadrado como classificação supervisionada, pois a partir do uso de corpora, pode-se construir classificadores que marcarão automaticamente novos documentos com rótulos de categorias apropriados. Você assinalou essa alternativa (A) B Classificação de documentos pode ser enquadrado como classificação supervisionada quando realizamos o treinamento de um classificador com dados rotulados para descobrirmos quais sufixos de palavras podem indicar alguma informação relevante, como, por exemplo, o tempo e a pessoa de um verbo. C Anotação ou marcação (tagging) de parte do discurso (part-of-speech) pode ser enquadrado como classificação supervisionada quando treinamos um classificador com dados não rotulados, para descobrirmos quais sufixos de palavras podem indicar alguma informação relevante. D Exploração de contexto pode ser enquadrado como classificação supervisionada quando usamos um conjunto de dados rotulados para treinar um modelo que identifica as características contextuais, como, por exemplo, ao marcar a palavra "partir", sabendo-se que a palavra anterior é "a", permitindo determinar que ela atua como uma locução adverbial, não como um verbo. E Classificação de sequências pode ser enquadrado como classificação supervisionada quando usamos dados não rotulados para criar um modelo que classifica entradas relacionadas de forma sequencial. Questão 6/10 - Natural Language Processing Na aula 5, sobre classificação e avaliação de documentos vimos as métricas de Jaro e Jaro-Winkler. A métrica de Jaro mede a distância de edição entre duas sequências ou termos. A métrica Jaro-Winkler é uma variante da métrica Jaro e é amplamente utilizada nas áreas de extração de informações, vinculação de registros, vinculação de entidades, uma vez que funciona bem na correspondência de nomes pessoais e de entidades. Qual das alternativas abaixo possui a declaração correta sobre os principais componentes do algoritmo de distância de Jaro? A Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois termos e contagem da quantidade de aparições de um termo em um corpus. B Cálculo dos comprimentos dos termos, identificação de termos comuns no corpus e contagem da quantidade de aparições de um termo em um corpus. C Cálculo dos comprimentos dos termos, identificação de caracteres comuns nos dois termos e contagem de transposições de caracteres. Você assinalou essa alternativa (C) D Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois termos e contagem de transposições de caracteres. E Cálculo dos graus de caracteres, identificação de similaridades comuns nos termos e contagem de caracteres. Questão 7/10 - Natural Language Processing Na aula 5 foi apresentado o uso do método word_tokenize(texto) da biblioteca NLTK. Este método realiza a tokenização do texto colocado como argumento deste método. Sobre a tokenização, é correto afirmar que: A É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação como um elemento desta lista, sem repetições, gerando elementos únicos, incluindo os caracteres especiais como “\r” e “\n”. B É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação como um elemento desta lista, com repetições, gerando um token para cada palavra ou pontuação do texto, excluindo-se os espaços em branco e caracteres especiais como “\r” e “\n”. Você assinalou essa alternativa (B) C É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos seus radicais, excluindo-se palavras repetidas, pontuações e caracteres especiais como “\r” e “\n”. D É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos seus radicais, incluindo todas as palavras repetidas, pontuações e caracteres especiais como “\r” e “\n”. E É a criação de uma estrutura de dados do tipo dicionário com as palavras como chaves e a contagem de suas ocorrências como o valor, excluindo-se caracteres especiais como “\r” e “\n”. Questão 8/10 - Natural Language Processing Na aula 6, o conceito do perceptron multicamada (MLP) foi apresentado como um tipo de rede neural artificial. Sendo as MLPs o tipo mais simples de FNN (feed-Forward Neural Networks) Sobre a função de ativação, assinale a alternativa CORRETA. A Em uma MLP usamos com bastante frequência a função sinal como função de ativação, pois esta nos permite uma mudança suave na ativação dos neurônios. B Em uma MLP usamos a função de ativação tangencial hiperbólica, pois ela nos permite manter os valores de saída na faixa entre 0 e 1, ao passo que converge mais rapidamente que a função sigmoide. C O uso de função de ativação não linear não é feito em uma MLP, tendo em vista a sua simplicidade, sendo o tipo de rede neural artificial mais simples entre as FNN. D Um dos tipos mais utilizados de função de ativação não linear nas MLP é a função logística, também chamada de função sigmoide. Esta função resulta em saídas dentro da faixa de 0 a 1 e proporciona uma mudança mais suave na ativação dos neurônios, se comparada à função sinal. Você assinalou essa alternativa (D) E Em uma MLP, a função de ativação é utilizada apenas nos neurônios da camada de entrada e normalmente são do tipo função sigmoidal. Questão 9/10 - Natural Language Processing Na aula 6, tema 3, foram apresentadas as redes neurais recorrentes (RNN). Elas constituem uma família de redes neurais para processamento de dados sequenciais. A arquitetura de uma RNN pode ter diferentes configurações de entrada-saída, dependendo do objeto desejado, podendo ser: - 1-1 (uma entrada e uma saída) - 1-N (uma entrada e várias saídas) - N-1 (várias entradas e uma saída) - N-N (várias entradas e várias saídas) Sobre as redes neurais recorrentes, assinale a alternativa que contenha a configuração de entrada-saída para um modelo de análise de sentimento. Você não pontuou essa questão A 1-1 B 1-N C N-1 D N-N E 1-1 ou a N-N Você assinalou essa alternativa (E) Questão 10/10 - Natural Language Processing A aula 6 apresenta a memória de longo prazo (Long Short-Term Memory – LSTM), que se refere a uma arquitetura diferenciada de RNN contendo um algoritmo de aprendizagem também baseado em descida de gradiente. Baseado nos conhecimentos apresentados sobre MLP, CNN, RNN e LSTM, marque a alternativa que contém a justificativa da criação destetipo de rede neural artificial. Você não pontuou essa questão A A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) ou a explosão de gradiente (quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) existentes nas redes neurais recorrentes. Você assinalou essa alternativa (A) B A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) ou a explosão de gradiente (quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) existentes nas redes neurais recorrentes. C A LSTM foi projetada para corrigir os problemas de alta complexidade das CNN (quando a quantidade de nós fica tão grande que o processo de treinamento se torna lento, causando a dissipação do gradiente de erro). D A LSTM foi projetada para corrigir os problemas de baixa complexidade das RNN (quando a quantidade de nós fica se aproxima de zero e causa uma lentidão no treinamento). E A LSTM foi projetada para corrigir os problemas de baixa complexidade das MLPs (pois o treinamento das MLPs é feito apenas por alimentação à frente, por ser uma FNN). Questão 1/10 - Natural Language Processing Na aula 4 de Natural Language Processing vimos as métricas para comparação de palavras. Sobre a motivação do uso deste tipo de métrica, assinale a alternativa que contém a afirmação correta. Você não pontuou essa questão A O uso de métricas para comparação de palavras se dá pois devemos reduzir a quantidade de uso de memória no tratamento de linguagem natural em aplicações como em um chatbot. B O uso de métricas para comparação de palavras se dá pois devemos garantir que as palavras sejam analisadas de forma exata, conforme sua grafia definida pela gramática, sem abrirmos margem para erros de ortografia do usuário. C O uso de métricas para comparação de palavras se dá pois devemos garantir uma quantidade mínima de palavras diferentes para que a análise possa ser feita de forma não enviesada. Você assinalou essa alternativa (C) D O uso de métricas para comparação de palavras se dá pois devemos considerar que erros de ortografia podem ocorrer em situações como chatbots e nosso processamento deve ser o mais robusto e insensível a erros humanos de ortografia. E O uso de métricas para comparação de palavras se dá pois devemos saber a distância entre palavras de cada léxico, com objetivo de mensurarmos o grau de complexidade de um determinado texto em um corpus. Questão 2/10 - Natural Language Processing Na aula 5, sobre classificação e avaliação de documentos, foram apresentadas algumas tarefas que podem ser enquadradas na classificação supervisionada. Sobre estas tarefas, assinale a alternativa que contém a afirmação CORRETA: Você não pontuou essa questão A Identificação de gênero em discurso pode ser enquadrado como classificação supervisionada, pois a partir do uso de corpora, pode-se construir classificadores que marcarão automaticamente novos documentos com rótulos de categorias apropriados. Você assinalou essa alternativa (A) B Classificação de documentos pode ser enquadrado como classificação supervisionada quando realizamos o treinamento de um classificador com dados rotulados para descobrirmos quais sufixos de palavras podem indicar alguma informação relevante, como, por exemplo, o tempo e a pessoa de um verbo. C Anotação ou marcação (tagging) de parte do discurso (part-of-speech) pode ser enquadrado como classificação supervisionada quando treinamos um classificador com dados não rotulados, para descobrirmos quais sufixos de palavras podem indicar alguma informação relevante. D Exploração de contexto pode ser enquadrado como classificação supervisionada quando usamos um conjunto de dados rotulados para treinar um modelo que identifica as características contextuais, como, por exemplo, ao marcar a palavra "partir", sabendo-se que a palavra anterior é "a", permitindo determinar que ela atua como uma locução adverbial, não como um verbo. E Classificação de sequências pode ser enquadrado como classificação supervisionada quando usamos dados não rotulados para criar um modelo que classifica entradas relacionadas de forma sequencial. Questão 3/10 - Natural Language Processing Na aula 5 foi apresentado o uso do método word_tokenize(texto) da biblioteca NLTK. Este método realiza a tokenização do texto colocado como argumento deste método. Sobre a tokenização, é correto afirmar que: A É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação como um elemento desta lista, sem repetições, gerando elementos únicos, incluindo os caracteres especiais como “\r” e “\n”. B É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação como um elemento desta lista, com repetições, gerando um token para cada palavra ou pontuação do texto, excluindo-se os espaços em branco e caracteres especiais como “\r” e “\n”. Você assinalou essa alternativa (B) C É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos seus radicais, excluindo-se palavras repetidas, pontuações e caracteres especiais como “\r” e “\n”. D É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos seus radicais, incluindo todas as palavras repetidas, pontuações e caracteres especiais como “\r” e “\n”. E É a criação de uma estrutura de dados do tipo dicionário com as palavras como chaves e a contagem de suas ocorrências como o valor, excluindo-se caracteres especiais como “\r” e “\n”. Questão 4/10 - Natural Language Processing Na aula 6, o conceito de redes convolucionais foi apresentada em conjunto suas principais camadas para classificação de palavras. Estas camadas são: ( ) Softmax (Classificação) ( ) Max-pooling (no tempo) ( ) Sentença de entrada ( ) Tabela de Lookup ( ) FCL (Totalmente conectada) ( ) Camada de Convolução Marque a alternativa que contém a ordem correta das camadas de uma CNN para classificação de palavras. A 6 – 4 – 1 – 2 – 5 – 3 Você assinalou essa alternativa (A) B 5 – 4 – 1 – 3 – 2 – 6 C 6 – 2 – 1 – 3 – 5 – 4 D 1 – 4 – 6 – 3 – 5 – 2 E 1 – 5 – 6 – 2 – 4 – 3 Questão 5/10 - Natural Language Processing A aula 6 apresenta a memória de longo prazo (Long Short-Term Memory – LSTM), que se refere a uma arquitetura diferenciada de RNN contendo um algoritmo de aprendizagem também baseado em descida de gradiente. Baseado nos conhecimentos apresentados sobre MLP, CNN, RNN e LSTM, marque a alternativa que contém a justificativa da criação deste tipo de rede neural artificial. A A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) ou a explosão de gradiente (quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) existentes nas redes neurais recorrentes. B A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) ou a explosão de gradiente (quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) existentes nas redes neurais recorrentes. Você assinalou essa alternativa (B) C A LSTM foi projetada para corrigir os problemas de alta complexidade das CNN (quando a quantidade de nós fica tão grande que o processo de treinamento se torna lento, causando a dissipação do gradiente de erro). D A LSTM foi projetada para corrigir os problemas de baixa complexidade das RNN (quando a quantidade de nós fica se aproxima de zero e causa uma lentidão no treinamento).E A LSTM foi projetada para corrigir os problemas de baixa complexidade das MLPs (pois o treinamento das MLPs é feito apenas por alimentação à frente, por ser uma FNN). Questão 6/10 - Natural Language Processing Na aula 6, tema 3, foram apresentadas as redes neurais recorrentes (RNN). Elas constituem uma família de redes neurais para processamento de dados sequenciais. A arquitetura de uma RNN pode ter diferentes configurações de entrada-saída, dependendo do objeto desejado, podendo ser: - 1-1 (uma entrada e uma saída) - 1-N (uma entrada e várias saídas) - N-1 (várias entradas e uma saída) - N-N (várias entradas e várias saídas) Sobre as redes neurais recorrentes, assinale a alternativa que contenha a configuração de entrada-saída para um modelo de análise de sentimento. Você não pontuou essa questão A 1-1 B 1-N Você assinalou essa alternativa (B) C N-1 D N-N E 1-1 ou a N-N Questão 7/10 - Natural Language Processing Na aula 4 de Natural Language Processing vimos os modelos de recuperação de documentos binário, vetorial e probabilístico. Sobre o modelo vetorial, assinale a alternativa que contém a descrição correta. A Caracteriza-se por atribuir pesos para cada termo, podendo ser ou valor 0 (zero) ou valor 1 (um). B Atribui pesos binários, o que permite o cálculo de graus de similaridade entre cada documento armazenado. C Considera o processo de recuperação de documentos através de uma descrição de probabilidades de se encontrar determinado termo em documentos de uma coleção. D Caracteriza-se pelo cálculo do grau de similaridade, mediante a razão dos documentos relevantes para o usuário pelos documentos não relevantes. E Pode ter seus pesos de palavras e de documentos feitos pelo método TF-IDF em conjunto com o ranqueamento dos termos por graus de similaridade. Você assinalou essa alternativa (E) Questão 8/10 - Natural Language Processing Na aula 5, sobre classificação e avaliação de documentos, o conceito de classificação foi apresentado como a tarefa de escolher o rótulo de classe correto para uma determinada entrada de dados. Vimos que para NLP os tipos de classificadores mais utilizados sãos os supervisionados. Sobre eles, assinale a alternativa que contenha a afirmação VERDADEIRA sobre o que é necessário para realizarmos este tipo de classificação. A Um classificador é dito supervisionado quando utilizamos um corpus de treinamento com dados rotulados para cada entrada, sendo que é comum a divisão do corpus em duas partes: uma chamada de conjunto de treinamento e outra de conjunto de teste. As classes são definidas pelos rótulos existentes nos dados do conjunto de treinamento. Você assinalou essa alternativa (A) B Um classificador é dito supervisionado quando utilizamos um corpus de treinamento com dados anotados para cada tipo de estrutura gramatical, sendo que é comum a divisão do corpus em três partes: uma para a criação da gramática, uma chamada de conjunto de treinamento e outra de conjunto de teste. As classes são definidas automaticamente pelo algoritmo de treinamento e não depende nem das anotações e nem dos rótulos dos dados. C Um classificador é dito supervisionado quando, após as etapas de criação e treinamento, em uso é necessário fornecermos o rótulo do texto em análise, para classificação. As classes são definidas pelos rótulos existentes nos dados conforme fornecimento durante a utilização do modelo. D Um classificador é dito supervisionado pois é necessário estarmos sempre atentos às suas funções de classificação, devido à baixa confiabilidade, sendo necessário o prévio conhecimento dos rótulos de todos os textos a serem classificados. E Um classificador é dito supervisionado pois ao realizarmos um classificador de sequências, utilizamos mais de um modelo de classificador, o que causa a supervisão de um modelo por outro durante a etapa de treinamento, mesmo com uso de dados não rotulados. Questão 9/10 - Natural Language Processing Na aula 4 de Natural Language Processing vimos que, segundo Araújo, Pereira e Benevenuto (2020), em seu trabalho sobre comparação de traduções automáticas, existem 3 abordagens principais para solução da geração de tradutores automatizados: Baseado em regras (baseado em frases), métodos estatísticos e redes neurais artificiais. Sobre o método de redes neurais artificiais é correto afirmar que: Você não pontuou essa questão A Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão o tradutor e resultarão em sua alta capacidade de tradução correta, apesar de não ser a abordagem com melhor desempenho, atualmente. Você assinalou essa alternativa (A) B Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão o tradutor e resultarão em sua alta capacidade de tradução correta, considerada a abordagem com melhor desempenho entre as três. C Utiliza léxicos combinados com definições gramaticais que geram uma rede treinada para realiza a tradução. É o melhor método em termos de desempenho. D Utiliza uma grande quantidade de dados de treinamento para geração de um modelo de tradução para cada par de idiomas, sem levar a semântica em consideração. É o modelo mais indicado para alto desempenho. E Utiliza uma grande quantidade de dados de treinamento para geração de um modelo de tradução para cada par de idiomas, sem levar a semântica em consideração. Possui baixo desempenho, se comparado às outras duas abordagens. Questão 10/10 - Natural Language Processing No tema 1 da aula 5, a linguagem Python, vimos algumas das principais bibliotecas que são utilizadas para o processamento de linguagem natural em conjunto com a linguagem Pytthon. Sobre estas bibliotecas, assinale a alternativa que contenha uma afirmação INCORRETA: A Numpy é uma biblioteca que fornece funções de processamento numérico em todos os elementos de arrays e operações matemáticas entre arrays eficientes por uso de processamento paralelo e por GPU. B Pandas é uma biblioteca que nos permite criar estruturas de dados de alto nível, chamadas de DataFrame e Series. C Matplotlib é uma biblioteca que auxilia na contrução de gráficos e plotagens apropriadas para publicação dos dados. D Scipy é uma biblioteca que oferece funções para efetruar processamento numérica em todos os elementos de arrays ou operações matemáticas entre array, permitindo ler e gravar conjuntos de dados baseados em array. Você assinalou essa alternativa (D) E Scikit-learn é a principal biblioteca de propósito geral para aprendizado de máquina, para os programadores em Python. Com ela é possível criar e treinar modelos de classificação, regressão, agrupamento, pré-processamento, redução de dimensionalidade e seleção de modelos. Questão 1/10 - Natural Language Processing Na aula 4 de Natural Language Processing vimos que, segundo Araújo, Pereira e Benevenuto (2020), em seu trabalho sobre comparação de traduções automáticas, existem 3 abordagens principais para solução da geração de tradutores automatizados: Baseado em regras (baseado em frases), métodos estatísticos e redes neurais artificiais. Sobre o método de redes neurais artificiais é correto afirmar que: Nota: 10.0 A Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão o tradutor e resultarão em sua alta capacidade de tradução correta, apesar de não ser a abordagem com melhor desempenho, atualmente. B Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão o tradutor e resultarão em sua alta capacidade de tradução correta, considerada a abordagem com melhor desempenho entre as três. Você assinalou essa alternativa (B) Você acertou! Aula 4, tema 4 – Tradução automática C Utiliza léxicos combinados com definições gramaticais que geram uma rede treinada pararealiza a tradução. É o melhor método em termos de desempenho. D Utiliza uma grande quantidade de dados de treinamento para geração de um modelo de tradução para cada par de idiomas, sem levar a semântica em consideração. É o modelo mais indicado para alto desempenho. E Utiliza uma grande quantidade de dados de treinamento para geração de um modelo de tradução para cada par de idiomas, sem levar a semântica em consideração. Possui baixo desempenho, se comparado às outras duas abordagens. Questão 2/10 - Natural Language Processing Na aula 6, o conceito do perceptron multicamada (MLP) foi apresentado como um tipo de rede neural artificial. Sendo as MLPs o tipo mais simples de FNN (feed-Forward Neural Networks) Sobre a função de ativação, assinale a alternativa CORRETA. Nota: 10.0 A Em uma MLP usamos com bastante frequência a função sinal como função de ativação, pois esta nos permite uma mudança suave na ativação dos neurônios. B Em uma MLP usamos a função de ativação tangencial hiperbólica, pois ela nos permite manter os valores de saída na faixa entre 0 e 1, ao passo que converge mais rapidamente que a função sigmoide. C O uso de função de ativação não linear não é feito em uma MLP, tendo em vista a sua simplicidade, sendo o tipo de rede neural artificial mais simples entre as FNN. D Um dos tipos mais utilizados de função de ativação não linear nas MLP é a função logística, também chamada de função sigmoide. Esta função resulta em saídas dentro da faixa de 0 a 1 e proporciona uma mudança mais suave na ativação dos neurônios, se comparada à função sinal. Você assinalou essa alternativa (D) Você acertou! Aula 6, tema 1 – NLP e Deep Learning E Em uma MLP, a função de ativação é utilizada apenas nos neurônios da camada de entrada e normalmente são do tipo função sigmoidal. Questão 3/10 - Natural Language Processing Na aula 6, tema 3, foram apresentadas as redes neurais recorrentes (RNN). Elas constituem uma família de redes neurais para processamento de dados sequenciais. A arquitetura de uma RNN pode ter diferentes configurações de entrada-saída, dependendo do objeto desejado, podendo ser: - 1-1 (uma entrada e uma saída) - 1-N (uma entrada e várias saídas) - N-1 (várias entradas e uma saída) - N-N (várias entradas e várias saídas) Sobre as redes neurais recorrentes, assinale a alternativa que contenha a configuração de entrada-saída para um modelo de análise de sentimento. Nota: 10.0 A 1-1 B 1-N C N-1 Você assinalou essa alternativa (C) Você acertou! Aula 6, tema 3 – Redes neurais recorrentes D N-N E 1-1 ou a N-N Questão 4/10 - Natural Language Processing A aula 6 apresenta a memória de longo prazo (Long Short-Term Memory – LSTM), que se refere a uma arquitetura diferenciada de RNN contendo um algoritmo de aprendizagem também baseado em descida de gradiente. Baseado nos conhecimentos apresentados sobre MLP, CNN, RNN e LSTM, marque a alternativa que contém a justificativa da criação deste tipo de rede neural artificial. Nota: 10.0 A A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) ou a explosão de gradiente (quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) existentes nas redes neurais recorrentes. B A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) ou a explosão de gradiente (quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) existentes nas redes neurais recorrentes. Você assinalou essa alternativa (B) Você acertou! Aula 6, temas 1, 2, 3 e 4 – MLP, CNN, RNN e LSTM C A LSTM foi projetada para corrigir os problemas de alta complexidade das CNN (quando a quantidade de nós fica tão grande que o processo de treinamento se torna lento, causando a dissipação do gradiente de erro). D A LSTM foi projetada para corrigir os problemas de baixa complexidade das RNN (quando a quantidade de nós fica se aproxima de zero e causa uma lentidão no treinamento). E A LSTM foi projetada para corrigir os problemas de baixa complexidade das MLPs (pois o treinamento das MLPs é feito apenas por alimentação à frente, por ser uma FNN). Questão 5/10 - Natural Language Processing O tema 5 da aula 6 versa sobre as unidades recorrentes com porta (GRU), que possuem uma dinâmica de funcionamento semelhante à LSTM. Sobre a semelhança entre LSTM e GRU, marque a alternativa que possui uma afirmação correta. Nota: 0.0Você não pontuou essa questão A Ambos possuem células com 3 (três) entradas e 3 (três) saídas de sinal, porém nas GRU, as saídas st e yt não são usadas, o que causa uma simplificação dos modelos com GRU e maior agilidade nos treinamentos. B Enquanto nas LSTM as células podem ser interligadas em forma de malha, gerando uma rede com múltiplas camadas, nas GRU temos apenas a possibilidade de criar redes de camada única de células, o que reduz bastante a complexidade ao passo em que se mantém a performance, na maioria dos casos. Aula 6, tema 5 - GRU C Tanto nas GRU quanto nas LSTM temos a possibilidade de criação de malhas de múltiplas camadas, porém com o número menor de portas de entradas e saídas das LSTM, temos uma maior performance e velocidade de treinamento, se comparadas às GRU. D As GRU possuem apenas 2 (duas) entradas e 1 (uma) saída, ao passo que as LSTM possuem 3 (três) entradas e 3 (três) saídas de sinal. Isto se reflete em uma menor complexidade das GRU, o que causa uma velocidade maior no treinamento, porém com performance bastante inferior às LSTM. E As GRU podem ser interpretadas como uma generalização das LSTM e possuem funcionamento muito parecido, porém a complexidade da rede das GRU é muito superior às LSTM, o que causa uma performance muito maior das GRU tanto em treinamentos quanto em utilização. Você assinalou essa alternativa (E) Questão 6/10 - Natural Language Processing Na aula 4 de Natural Language Processing vimos as métricas de Jaro e Jaro-Winkler. A métrica de Jaro mede a distância de edição entre duas sequências ou termos. A métrica Jaro-Winkler é uma variante da métrica Jaro e é amplamente utilizada nas áreas de extração de informações, vinculação de registros, vinculação de entidades, uma vez que funciona bem na correspondência de nomes pessoais e de entidades. Qual das alternativas abaixo possui a declaração correta sobre os principais componentes do algoritmo de distância de Jaro? Nota: 10.0 A Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois termos e contagem da quantidade de aparições de um termo em um corpus. B Cálculo dos comprimentos dos termos, identificação de termos comuns no corpus e contagem da quantidade de aparições de um termo em um corpus. C Cálculo dos comprimentos dos termos, identificação de caracteres comuns nos dois termos e contagem de transposições de caracteres. Você assinalou essa alternativa (C) Você acertou! Aula 4, tema 3 – Métricas de Jaro e Jaro-Winkler D Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois termos e contagem de transposições de caracteres. E Cálculo dos graus de caracteres, identificação de similaridades comuns nos termos e contagem de caracteres. Questão 7/10 - Natural Language Processing Na aula 4 de Natural Language Processing vimos as métricas para comparação de palavras. Sobre a motivação do uso deste tipo de métrica, assinale a alternativa que contém a afirmação correta. Nota: 10.0 A O uso de métricas para comparação de palavras se dá pois devemos reduzir a quantidade de uso de memória no tratamento de linguagem natural em aplicações como em um chatbot. B O uso de métricas para comparação
Compartilhar