Buscar

Natural Language Processing - APOL 1 E 2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 49 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 49 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 49 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Questão 1/10 - Natural Language Processing 
Para modelos pequenos, a elaboração de uma gramática consistente demandará uma 
engenharia que pode se dar em um tempo razoável. No entanto, para gramáticas que 
pretendam atender a um largo contexto de sentenças possíveis, tal atividade pode ser muito 
custosa. 
 
Neste sentido, assinale V para VERDADEIRO e F para FALSO sobre as afirmativas abaixo: 
 
( ) Modelos probabilísticos de linguagem baseiam-se em uma distribuição calculada a partir 
de um conjunto de textos para uma palavra ou frase. 
 
( ) Uma das vantagens de se utilizar um modelo probabilístico é que não são necessários 
dados anotados para o treinamento de um algoritmo de aprendizagem. 
 
( ) Um modelo probabilístico não é dependente da ocorrência das palavras em um corpus. 
 
( ) Uma gramática construída a partir de um modelo probabilístico permite que as 
probabilidades associadas às regras possam ser utilizadas para escolha da interpretação mais 
provável. 
Selecione a alternativa que contém a sequência correta. 
Nota: 10.0 
 
A V F V V 
 
B V F F V 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 2, Tema 2. 
 
C V V F F 
 
D F V V F 
 
E F V F V 
 
 
 
 
Questão 2/10 - Natural Language Processing 
No estudo sobre NLP é muito importante compreender os conceitos básicos de gramática da 
linguagem em análise. A gramática é um conjunto finito de regras que especificam uma 
linguagem, na qual as palavras são organizadas em uma estrutura lógica, de forma a expressar 
um significado. 
Neste contexto, analise as afirmativas abaixo e assinale a correta. 
Nota: 10.0 
 
A É possível utilizar uma GLC (gramática livre de contexto) criada a partir de 4 ou 5 frases curtas para 
analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. 
 
B É possível utilizar uma GLC (gramática livre de contexto) criada a partir de uma linguagem para 
analisar qualquer sentença gramaticalmente correta de outra linguagem, desde que sejam de 
mesma finalidade, como linguagens de programação ou linguagens de comunicação falada. 
 
C É possível utilizar apenas uma GLC (gramática livre de contexto) suficientemente grande para 
encontrar o contexto de textos diversos, desde que estes pertençam a mesma linguagem usada na 
criação da GLC. 
 
D É possível utilizar uma GLC (gramática livre de contexto) suficientemente grande para analisar 
qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 1, Tema 4 - Gramáticas 
 
E Uma GLC (gramática livre de contexto) possui dados estatísticos referentes a cada palavra em um 
determinado texto. 
 
 
 
 
 
 
 
 
 
Questão 3/10 - Natural Language Processing 
Existem diversos tipos de estruturas comuns para os corpora de textos. O corpus que não 
possui nenhum tipo de estrutura, ou seja, que é apenas uma coleção de textos sem nenhum 
tipo de anotação ou separação específica é o corpus com estrutura do tipo_____________. 
Assinale a alternativa abaixo que complete CORRETAMENTE a frase acima. 
Nota: 10.0 
 
A isolado. 
Você assinalou essa alternativa (A) 
Você acertou! 
Aula 2, Tema 1 
 
B categorizado. 
 
C categorias em superposição. 
 
D temporal. 
 
E categorias fuzzy. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Questão 4/10 - Natural Language Processing 
Para a aprendizagem da gramática probabilística, as sentenças deverão estar em um formato 
específico. 
Assinale a alternativa CORRETA que corresponde a esse formato: 
Nota: 10.0 
 
A Devem estar em formato de lista com cada sentenças como um elemento da lista, sem que seja 
necessário fazer o processamento das listas em árvores sintáticas. 
 
B As sentenças devem estar divididas (splitted) em palavras e depois devem ser construídas as 
árvores de análise. 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 2, Tema 5. 
 
C Deve existir uma figura ChartParser para cada sentença. 
 
D Devem estar armazenadas em uma lista de homologações. 
 
E A gramática probabilística não precisa de preparação das sentenças para existir. 
 
 
 
 
 
 
 
 
 
 
 
 
 
Questão 5/10 - Natural Language Processing 
Os modelos de recuperação de informação mais utilizados são três: modelo booleano, modelo 
vetorial e modelo probabilístico. 
Sobre os modelos de recuperação de informação, assinale a alternativa CORRETA. 
Nota: 10.0 
 
A O modelo Booleano é baseado em estatística de palavras e compões a maior parte dos sistemas de 
RI. Estes modelos utilizam contagem de palavras para geração de dados estatísticos. 
 
B O modelo Vetorial utiliza vetores de palavras chaves interligados por expressões lógicas como E, 
OU e NÃO para realizar uma busca de palavras nos textos e assim retornar um valor positivo ou 
negativo resultante da busca. 
 
C O modelo Probabilístico é baseado em estatística de palavras ao gerá-las através da contagem de 
palavras. Neste modelo os pesos utilizados para cada termo não são binários, possibilitando a 
geração de um grau de similaridade entre documentos. 
 
D O modelo Vetorial é baseado em um framework de probabilidades de termos de indexação nos 
documentos. Neste caso, dada a consulta de um usuário, não existirá nenhum documento que não 
pertencerá ao conjunto de documentos que contenham exatamente os documentos relevantes ao 
usuário. 
 
E O modelo Booleano por palavra-chave é característico dos sistemas mais antigos de RI e é baseado 
em busca simples de palavras dentro dos documentos. Se a palavra buscada aparecer no 
documento, ele será apresentado, caso contrário, não. 
Você assinalou essa alternativa (E) 
Você acertou! 
Aula 3, Tema 2. 
 
 
 
 
 
 
 
 
 
Questão 6/10 - Natural Language Processing 
O Natural Language Toolkit (NLTK) foi originalmente criado em 2001 como parte de um curso 
de linguística computacional no Departamento de Ciência da Computação e da Informação da 
Universidade da Pensilvânia. Desde então, ele foi desenvolvido e expandido com a ajuda de 
dezenas de colaboradores. 
Sobre a criação da biblioteca, marque a opção que apresente, CORRETAMENTE, os 4 principais 
motivos do projeto NLTK. 
Nota: 10.0 
 
A Isolada, Categorizada, categorias em sobreposição e temporal 
 
B Extensibilidade, Consistência, Unicidade, Capacidade. 
 
C Simplicidade, para uso profissional, poucas ferramentas, apenas para estudos. 
 
D Complexidade, solução completa, para grande poder computacional e Modularidade 
 
E Simplicidade, consistência, extensibilidade, modularidade. 
Você assinalou essa alternativa (E) 
Você acertou! 
Aula 2, Tema 4 
 
 
 
 
 
 
 
 
 
 
 
 
Questão 7/10 - Natural Language Processing 
Uma gramática livre de contexto determinística (GLCD) e uma gramática livre de contexto 
probabilística (GLCP) podem ser construídas por meio de aprendizagem utilizando conjuntos 
distintos de dados previamente tratados. 
 
Uma GLCP é criada a partir de uma_______________________________. 
Marque a alternativa abaixo que complete corretamente a afirmativa. 
 
Nota: 10.0 
 
A análise sintática de um corpus obrigatoriamente anotado e que utilize como base um GLCD, criado 
a partir de um corpus não anotado através da contagem de palavras e suas ocorrências nas 
sentenças. 
 
B contagem de palavras e suas ocorrências nas sentenças de um texto ou corpus não anotado, tendo 
como base uma análise sintática executada com uma GLCD criada a partir de um corpus anotado 
que pode ser igual ou diferente do corpus em análise. 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 2, Tema 3 – Gramáticas Probabilísticas. Para gerarmos uma GLCD, é obrigatório o uso de um 
corpus anotado. Para criarmos uma GLCP, é obrigatório o uso de uma GLCD previamente gerada. O 
corpus que gerará a GLCP não precisa ser anotado. O corpus usado para criação da GLCP pode ser 
diferente do corpus usado para criar a GLCD. Ordem:1. Obter um corpus suficientemente grande e 
anotado. 2. Criar uma GLCD deste primeiro corpus. 3. Obter um corpus diferente e que pode ser 
anotado ou não. 4. Criar a GLCP deste segundo corpus utilizando a GLCD feita anteriormente. 
 
C GLCD em conjunto com uma análise probabilística de cada termo de cada sentença. Este processo 
só é possível com a utilização de corpus e textos anotados, tanto para a criação do GLCP quanto 
para o GLCD. 
 
D rede neural recorrente (RNN) previamente treinada com as probabilidades de surgimento de cada 
palavra na linguagem do corpus em análise. Esta RNN identifica cada palavra e gera a GLCP. 
 
E estratégia de pré-treinamento intensivo de camadas para criação de uma RNA (rede neural 
artificial) com base em um corpus anotado. Este processo tem como resultado uma rede neural 
treinada que pode identificar qual a próxima palavra com maior probabilidade em um texto. 
 
 
 
Questão 8/10 - Natural Language Processing 
Comunicação através de linguagem natural pode ser modelado como um sistema de diálogo 
falado, como mostrado em nossos estudos. Para que possamos compreender este tipo de 
modelagem, alguns conceitos são necessários. 
 
Dos conceitos abaixo, assinale aqueles que são afirmações VERDADEIRAS (V) e os que são 
afirmações FALSAS (F). 
( ) Gramática é a associação de significado a uma cadeia válida de símbolos linguísticos. 
( ) Semântica é um conjunto finito de regras que especifica uma linguagem. 
( ) Pragmática é o significado associado a uma cadeia válida em um contexto específico. 
( ) Sintagma é uma subcadeia categorizada de uma cadeia de símbolos linguísticos que juntas 
formam uma sentença. 
Selecione a alternativa com a sequência correta. 
Nota: 0.0Você não pontuou essa questão 
 
A F V F V 
 
B V V F F 
 
C V F V F 
Você assinalou essa alternativa (C) 
 
D F F V V 
Aula 1, Tema 3 - Conceitos e Definições 
 
E V V V V 
 
 
 
 
 
 
 
 
Questão 9/10 - Natural Language Processing 
Em se tratando de coleções muito grandes, o que é comum de ocorrer na web, pode ser 
recomendado reduzir o conjunto de palavras-chave representativas. Isso pode ser conseguido 
a partir da eliminação de stopwords (como, por exemplo, artigos, advérbios e preposições). 
Por que existe este tipo de recomendação, quando analisamos textos muito grandes? 
Nota: 10.0 
 
A Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico 
quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos 
repetidos, chamados do stopwords. 
 
B As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos 
de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos 
estes tipos de análise. 
 
C Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem 
atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, 
evidenciamos os sentimentos e significados dos textos. 
Você assinalou essa alternativa (C) 
Você acertou! 
Aula 3, Tema 1. 
 
D A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos 
irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros 
símbolos. 
 
E Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a 
serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo 
eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma 
análise destes textos e de forma mais leve, computacionalmente falando. 
 
 
 
 
 
 
 
Questão 10/10 - Natural Language Processing 
De acordo com Nadkarni et al., no artigo intitulado “Natural language processing: an 
introduction” e visto no material didático, a linguagem natural é caracterizada por sua 
frequente ambiguidade, natureza irrestrita e imenso tamanho, possibilitando infinitas de 
combinação de símbolos. 
Levando em consideração esta natureza da linguagem natural, quais dois problemas surgem 
ao tentarmos utilizar uma abordagem padrão de análise de dados? 
Nota: 10.0 
 
A 1 – A abordagem padrão de análise de dados não nos permite encontrar o significado de um texto 
de forma simples ou com poucas regras, pois as combinações possíveis entre palavras e significados 
diferentes para cada palavra geram a necessidade de regras cada vez mais específicas, 
inviabilizando suas criações. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não 
possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um 
atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou 
inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), 
impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma 
pessoa compreenderia o texto rapidamente e sem dificuldades. 
Você assinalou essa alternativa (A) 
Você acertou! 
AULA 1 – TEMA 1 
 
B 1 – A abordagem padrão de análise de dados não nos permite extrair a sintaxe de um texto de 
forma simples ou com poucas regras, pois as combinações possíveis entre palavras geram a 
necessidade de muito poder computacional, inviabilizando sua utilização. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não 
possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um 
atendimento a um paciente, as combinações possíveis entre símbolos se reduzem e causam um 
aumento na velocidade de processamento dos dados, impedindo o processamento de uma grande 
quantidade de textos ao mesmo tempo. 
 
C 1 – A abordagem padrão de análise de dados nos permite encontrar dados estatísticos sobre cada 
palavra e com isso conseguimos encontrar o assunto principal de cada texto, porém muitas 
palavras repetidas em um texto podem induzir ao erro quando não levamos em consideração a 
sintaxe da linguagem. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não 
possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um 
atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou 
inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), 
impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma 
pessoa compreenderia o texto rapidamente e sem dificuldades. 
 
D 1 – A abordagem padrão de análise de dados permite encontrarmos apenas o significado geral do 
texto, mas não dados estatísticos de cada palavra. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente, uma nova 
gramática, mais simples, surge e com isso novas regras precisam ser criadas, dificultando o 
processamento dos textos. 
 
E 1 – A abordagem padrão de análise de dados não nos permite gerar nuvens de palavras nem 
realizarmos análises matemáticas nos textos. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente as análises 
de dados padrão nos retornam significados menos complexos, apesar de corretos, o que causa uma 
redução na extração de semântica. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Questão 1/10 - Natural Language Processing 
Ao juntarmos a indexação por frequência dos termos (TF) com a indexação por frequência 
inversa de documentos (IDF), obtemos o mais popular esquema de atribuição de pesos para 
indexação de documentos, o TF-IDF. 
Sobre isto, marque a alternativa que contenha uma afirmação CORRETA. 
Nota: 10.0 
 
A Para indexarmos palavras em documentos é preferível utilizarmos apenas o TF, que leva em conta a 
distribuição estatística de cada termo em cada documento e se mostra mais efetivo para coleções 
de documentos de forma geral.B O uso de combinações distintas dos cálculos de TF e IDF resultam em conjuntos de pesos TF-IDF 
diferentes e cada uma pode resultar em uma busca com maior ou menor precisão de resultados, 
mas sempre serão melhores do que a utilização apenas de TF ou de IDF separadamente. 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 3, Tema 4 e 5. 
 
C Para a criação dos pesos TF, o uso do esquema de pesos binário é o mais usado e é este esquema 
que foi usado em nossas demonstrações de aula. 
 
D Ao unirmos o esquema de pesos de normalização logarítmica para TF com o esquema de pesos 
unitário de IDF, obtemos o principal esquema de pesos recomendados para o uso do TF-IDF. 
 
E Durante a aplicação de TF-IDF em uma coleção de documentos, em primeiro lugar devemos 
calcular os pesos TF-IDF de todos os elementos, para então obtermos a matriz de frequências. 
 
Questão 2/10 - Natural Language Processing 
O Natural Language Toolkit (NLTK) foi originalmente criado em 2001 como parte de um curso 
de linguística computacional no Departamento de Ciência da Computação e da Informação da 
Universidade da Pensilvânia. Desde então, ele foi desenvolvido e expandido com a ajuda de 
dezenas de colaboradores. 
Sobre a criação da biblioteca, marque a opção que apresente, CORRETAMENTE, os 4 principais 
motivos do projeto NLTK. 
Nota: 10.0 
 
A Isolada, Categorizada, categorias em sobreposição e temporal 
 
B Extensibilidade, Consistência, Unicidade, Capacidade. 
 
C Simplicidade, para uso profissional, poucas ferramentas, apenas para estudos. 
 
D Complexidade, solução completa, para grande poder computacional e Modularidade 
 
E Simplicidade, consistência, extensibilidade, modularidade. 
Você assinalou essa alternativa (E) 
Você acertou! 
Aula 2, Tema 4 
 
Questão 3/10 - Natural Language Processing 
As expressões regulares, por meio de uma simbologia padrão, definem uma gramática regular 
para uma única cadeia de texto. 
Isto explica o que são, mas não por qual a razão elas existem. Marque a alternativa que 
apresenta o motivo da existência de expressões regulares. 
Nota: 10.0 
 
A As expressões regulares solucionaram, principalmente, o problema de armazenamento em um 
léxico de determinados símbolos terminais cujas combinações tendem ao infinito, como no 
exemplo do armazenamento de números, que existem em quantidade infinita e ainda sim precisam 
ser representados. 
Você assinalou essa alternativa (A) 
Você acertou! 
Aula 1, Tema 5 – Expressões Regulares. 
 
B As expressões regulares têm o objetivo de definir uma gramática regular para uma única cadeia de 
texto, por meio de uma simbologia padrão, para que exista uma padronização nestas 
representações. Sem elas ainda seria possível o armazenamento de todas as possibilidades 
possíveis de todos os símbolos terminais em um léxico. 
 
C Apesar de, em sua concepção, as expressões regulares terem sido criadas para representação de 
números, o principal motivo da existência delas é para criação de máscaras para limitação de 
entradas de dados dentro dos padrões necessários em um banco de dados ou outro tipo de 
armazenamento de léxico. 
 
D Expressões regulares existem para criação de máscaras de preenchimento de dados em bancos de 
dados. Sua criação se deu em busca de padronização nos diversos tipos de formatos existentes até 
a década de 1990. 
 
E Expressões regulares foram criadas para solucionar o problema de excesso de utilização de 
memória no armazenamento de dados de um léxico, que facilmente ocupava todo o 
armazenamento quando se tentava registrar símbolos terminais de linguagens com muitas 
palavras, como o Mandarim e o Português. 
 
Questão 4/10 - Natural Language Processing 
Uma gramática livre de contexto determinística (GLCD) e uma gramática livre de contexto 
probabilística (GLCP) podem ser construídas por meio de aprendizagem utilizando conjuntos 
distintos de dados previamente tratados. 
 
Uma GLCP é criada a partir de uma_______________________________. 
Marque a alternativa abaixo que complete corretamente a afirmativa. 
 
Nota: 10.0 
 
A análise sintática de um corpus obrigatoriamente anotado e que utilize como base um GLCD, criado 
a partir de um corpus não anotado através da contagem de palavras e suas ocorrências nas 
sentenças. 
 
B contagem de palavras e suas ocorrências nas sentenças de um texto ou corpus não anotado, tendo 
como base uma análise sintática executada com uma GLCD criada a partir de um corpus anotado 
que pode ser igual ou diferente do corpus em análise. 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 2, Tema 3 – Gramáticas Probabilísticas. Para gerarmos uma GLCD, é obrigatório o uso de um 
corpus anotado. Para criarmos uma GLCP, é obrigatório o uso de uma GLCD previamente gerada. O 
corpus que gerará a GLCP não precisa ser anotado. O corpus usado para criação da GLCP pode ser 
diferente do corpus usado para criar a GLCD. Ordem: 1. Obter um corpus suficientemente grande e 
anotado. 2. Criar uma GLCD deste primeiro corpus. 3. Obter um corpus diferente e que pode ser 
anotado ou não. 4. Criar a GLCP deste segundo corpus utilizando a GLCD feita anteriormente. 
 
C GLCD em conjunto com uma análise probabilística de cada termo de cada sentença. Este processo 
só é possível com a utilização de corpus e textos anotados, tanto para a criação do GLCP quanto 
para o GLCD. 
 
D rede neural recorrente (RNN) previamente treinada com as probabilidades de surgimento de cada 
palavra na linguagem do corpus em análise. Esta RNN identifica cada palavra e gera a GLCP. 
 
E estratégia de pré-treinamento intensivo de camadas para criação de uma RNA (rede neural 
artificial) com base em um corpus anotado. Este processo tem como resultado uma rede neural 
treinada que pode identificar qual a próxima palavra com maior probabilidade em um texto. 
 
Questão 5/10 - Natural Language Processing 
Em se tratando de coleções muito grandes, o que é comum de ocorrer na web, pode ser 
recomendado reduzir o conjunto de palavras-chave representativas. Isso pode ser conseguido 
a partir da eliminação de stopwords (como, por exemplo, artigos, advérbios e preposições). 
Por que existe este tipo de recomendação, quando analisamos textos muito grandes? 
Nota: 10.0 
 
A Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico 
quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos 
repetidos, chamados do stopwords. 
 
B As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos 
de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos 
estes tipos de análise. 
 
C Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem 
atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, 
evidenciamos os sentimentos e significados dos textos. 
Você assinalou essa alternativa (C) 
Você acertou! 
Aula 3, Tema 1. 
 
D A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos 
irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros 
símbolos. 
 
E Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a 
serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo 
eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma 
análise destes textos e de forma mais leve, computacionalmente falando. 
 
Questão 6/10 - Natural Language Processing 
No estudo sobre NLP é muito importante compreender os conceitos básicos de gramática da 
linguagem em análise. A gramática é um conjunto finito de regras que especificam uma 
linguagem, na qual as palavras são organizadas em uma estrutura lógica, de forma a expressar 
um significado. 
Neste contexto, analise as afirmativas abaixo e assinalea correta. 
Nota: 10.0 
 
A É possível utilizar uma GLC (gramática livre de contexto) criada a partir de 4 ou 5 frases curtas para 
analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. 
 
B É possível utilizar uma GLC (gramática livre de contexto) criada a partir de uma linguagem para 
analisar qualquer sentença gramaticalmente correta de outra linguagem, desde que sejam de 
mesma finalidade, como linguagens de programação ou linguagens de comunicação falada. 
 
C É possível utilizar apenas uma GLC (gramática livre de contexto) suficientemente grande para 
encontrar o contexto de textos diversos, desde que estes pertençam a mesma linguagem usada na 
criação da GLC. 
 
D É possível utilizar uma GLC (gramática livre de contexto) suficientemente grande para analisar 
qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 1, Tema 4 - Gramáticas 
 
E Uma GLC (gramática livre de contexto) possui dados estatísticos referentes a cada palavra em um 
determinado texto. 
 
Questão 7/10 - Natural Language Processing 
Para modelos pequenos, a elaboração de uma gramática consistente demandará uma 
engenharia que pode se dar em um tempo razoável. No entanto, para gramáticas que 
pretendam atender a um largo contexto de sentenças possíveis, tal atividade pode ser muito 
custosa. 
 
Neste sentido, assinale V para VERDADEIRO e F para FALSO sobre as afirmativas abaixo: 
 
( ) Modelos probabilísticos de linguagem baseiam-se em uma distribuição calculada a partir 
de um conjunto de textos para uma palavra ou frase. 
 
( ) Uma das vantagens de se utilizar um modelo probabilístico é que não são necessários 
dados anotados para o treinamento de um algoritmo de aprendizagem. 
 
( ) Um modelo probabilístico não é dependente da ocorrência das palavras em um corpus. 
 
( ) Uma gramática construída a partir de um modelo probabilístico permite que as 
probabilidades associadas às regras possam ser utilizadas para escolha da interpretação mais 
provável. 
Selecione a alternativa que contém a sequência correta. 
Nota: 10.0 
 
A V F V V 
 
B V F F V 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 2, Tema 2. 
 
C V V F F 
 
D F V V F 
 
E F V F V 
 
Questão 8/10 - Natural Language Processing 
A biblioteca NLYK nos permite usar o método chomsky_normal_form(). Sobre a forma normal 
de Chomsky, analise a asserção-razão abaixo: 
 
I. Toda gramática na forma normal de Chomsky é uma GLC (Gramática Livre de Contexto). 
 
PORQUE 
 
II. Gramática livre de contexto é a gramática que possui todas as suas regras de formação na 
forma , no qual todas as regras de produção independem do contexto do símbolo não terminal 
e o lado esquerdo, quando for um único símbolo não terminal, poderá sempre ser substituído 
pelo lado direito. 
Assinale a alternativa que corresponda à análise CORRETA sobre esta asserção-razão. 
Nota: 10.0 
 
A A primeira afirmativa está correta, mas a segunda está errada. 
 
B A primeira afirmativa está errada, mas a segunda está correta. 
 
C As duas estão corretas, mas uma não possui correlação nenhuma com a outra. 
 
D As duas afirmativas estão corretas e a segunda justifica a primeira. 
Você assinalou essa alternativa (D) 
Você acertou! 
 
E As duas afirmativas estão incorretas. 
 
Questão 9/10 - Natural Language Processing 
Comunicação através de linguagem natural pode ser modelado como um sistema de diálogo 
falado, como mostrado em nossos estudos. Para que possamos compreender este tipo de 
modelagem, alguns conceitos são necessários. 
 
Dos conceitos abaixo, assinale aqueles que são afirmações VERDADEIRAS (V) e os que são 
afirmações FALSAS (F). 
( ) Gramática é a associação de significado a uma cadeia válida de símbolos linguísticos. 
( ) Semântica é um conjunto finito de regras que especifica uma linguagem. 
( ) Pragmática é o significado associado a uma cadeia válida em um contexto específico. 
( ) Sintagma é uma subcadeia categorizada de uma cadeia de símbolos linguísticos que juntas 
formam uma sentença. 
Selecione a alternativa com a sequência correta. 
Nota: 10.0 
 
A F V F V 
 
B V V F F 
 
C V F V F 
 
D F F V V 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 1, Tema 3 - Conceitos e Definições 
 
E V V V V 
 
Questão 10/10 - Natural Language Processing 
Existem diversos tipos de estruturas comuns para os corpora de textos. O corpus que não 
possui nenhum tipo de estrutura, ou seja, que é apenas uma coleção de textos sem nenhum 
tipo de anotação ou separação específica é o corpus com estrutura do tipo_____________. 
Assinale a alternativa abaixo que complete CORRETAMENTE a frase acima. 
Nota: 10.0 
 
A isolado. 
Você assinalou essa alternativa (A) 
Você acertou! 
Aula 2, Tema 1 
 
B categorizado. 
 
C categorias em superposição. 
 
D temporal. 
 
E categorias fuzzy. 
 
 
 
 
Questão 1/10 - Natural Language Processing 
Comunicação através de linguagem natural pode ser modelado como um sistema de diálogo 
falado, como mostrado em nossos estudos. Para que possamos compreender este tipo de 
modelagem, alguns conceitos são necessários. 
 
Dos conceitos abaixo, assinale aqueles que são afirmações VERDADEIRAS (V) e os que são 
afirmações FALSAS (F). 
( ) Gramática é a associação de significado a uma cadeia válida de símbolos linguísticos. 
( ) Semântica é um conjunto finito de regras que especifica uma linguagem. 
( ) Pragmática é o significado associado a uma cadeia válida em um contexto específico. 
( ) Sintagma é uma subcadeia categorizada de uma cadeia de símbolos linguísticos que juntas 
formam uma sentença. 
Selecione a alternativa com a sequência correta. 
Nota: 10.0 
 
A F V F V 
 
B V V F F 
 
C V F V F 
 
D F F V V 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 1, Tema 3 - Conceitos e Definições 
 
E V V V V 
 
Questão 2/10 - Natural Language Processing 
No estudo sobre NLP é muito importante compreender os conceitos básicos de gramática da 
linguagem em análise. A gramática é um conjunto finito de regras que especificam uma 
linguagem, na qual as palavras são organizadas em uma estrutura lógica, de forma a expressar 
um significado. 
Neste contexto, analise as afirmativas abaixo e assinale a correta. 
Nota: 10.0 
 
A É possível utilizar uma GLC (gramática livre de contexto) criada a partir de 4 ou 5 frases curtas para 
analisar qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. 
 
B É possível utilizar uma GLC (gramática livre de contexto) criada a partir de uma linguagem para 
analisar qualquer sentença gramaticalmente correta de outra linguagem, desde que sejam de 
mesma finalidade, como linguagens de programação ou linguagens de comunicação falada. 
 
C É possível utilizar apenas uma GLC (gramática livre de contexto) suficientemente grande para 
encontrar o contexto de textos diversos, desde que estes pertençam a mesma linguagem usada na 
criação da GLC. 
 
D É possível utilizar uma GLC (gramática livre de contexto) suficientemente grande para analisar 
qualquer sentença gramaticalmente correta na mesma língua a qual pertence a GLC. 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 1, Tema 4 - Gramáticas 
 
E Uma GLC (gramática livre de contexto) possui dados estatísticos referentes a cada palavra em um 
determinado texto. 
 
Questão 3/10 - Natural Language Processing 
De acordo com Nadkarni et al., no artigo intitulado “Natural language processing: an 
introduction” e visto no material didático, a linguagem natural é caracterizada por sua 
frequente ambiguidade, natureza irrestrita e imenso tamanho, possibilitando infinitas de 
combinação de símbolos. 
Levando em consideração esta natureza da linguagem natural, quais dois problemas surgem 
ao tentarmos utilizar uma abordagem padrão de análise de dados? 
Nota: 10.0A 1 – A abordagem padrão de análise de dados não nos permite encontrar o significado de um texto 
de forma simples ou com poucas regras, pois as combinações possíveis entre palavras e significados 
diferentes para cada palavra geram a necessidade de regras cada vez mais específicas, 
inviabilizando suas criações. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não 
possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um 
atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou 
inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), 
impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma 
pessoa compreenderia o texto rapidamente e sem dificuldades. 
Você assinalou essa alternativa (A) 
Você acertou! 
AULA 1 – TEMA 1 
 
B 1 – A abordagem padrão de análise de dados não nos permite extrair a sintaxe de um texto de 
forma simples ou com poucas regras, pois as combinações possíveis entre palavras geram a 
necessidade de muito poder computacional, inviabilizando sua utilização. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não 
possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um 
atendimento a um paciente, as combinações possíveis entre símbolos se reduzem e causam um 
aumento na velocidade de processamento dos dados, impedindo o processamento de uma grande 
quantidade de textos ao mesmo tempo. 
 
C 1 – A abordagem padrão de análise de dados nos permite encontrar dados estatísticos sobre cada 
palavra e com isso conseguimos encontrar o assunto principal de cada texto, porém muitas 
palavras repetidas em um texto podem induzir ao erro quando não levamos em consideração a 
sintaxe da linguagem. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não 
possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um 
atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou 
inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), 
impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma 
pessoa compreenderia o texto rapidamente e sem dificuldades. 
 
D 1 – A abordagem padrão de análise de dados permite encontrarmos apenas o significado geral do 
texto, mas não dados estatísticos de cada palavra. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente, uma nova 
gramática, mais simples, surge e com isso novas regras precisam ser criadas, dificultando o 
processamento dos textos. 
 
E 1 – A abordagem padrão de análise de dados não nos permite gerar nuvens de palavras nem 
realizarmos análises matemáticas nos textos. 
 
2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente as análises 
de dados padrão nos retornam significados menos complexos, apesar de corretos, o que causa uma 
redução na extração de semântica. 
 
Questão 4/10 - Natural Language Processing 
Vimos que RI (Recuperação de Informação) se refere à localização de materiais (geralmente 
documentos) de natureza não estruturada (geralmente texto) que satisfazem uma necessidade 
de informações em grandes coleções geralmente armazenadas em computadores. 
Um sistema de RI pode ser composto por: 
 
( ) Uma coleção de documentos: o que pode ser tratado como documento – parágrafo, um 
texto completou um conjunto de textos. 
 
( ) Linguagem de consulta: subconjunto coletado com base na busca efetuada relevante aos 
termos colocados na consulta. 
 
( ) Um conjunto de resultados: que pode ser na forma de uma simples lista ordenada por 
relevância, ou um mapa tridimensional em cores com os documentos relacionados em rede. 
 
( ) Apresentação dos resultados: conforme um conjunto de regras para a definição da 
consulta que especifica aquilo que o usuário quer pesquisar. 
Marque a alternativa que contenha a ordem correta. 
Nota: 10.0 
 
A V V V V 
 
B V V V F 
 
C V V F F 
 
D V F F F 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 3, Tema 1 
 
E F F F F 
 
Questão 5/10 - Natural Language Processing 
Para modelos pequenos, a elaboração de uma gramática consistente demandará uma 
engenharia que pode se dar em um tempo razoável. No entanto, para gramáticas que 
pretendam atender a um largo contexto de sentenças possíveis, tal atividade pode ser muito 
custosa. 
 
Neste sentido, assinale V para VERDADEIRO e F para FALSO sobre as afirmativas abaixo: 
 
( ) Modelos probabilísticos de linguagem baseiam-se em uma distribuição calculada a partir 
de um conjunto de textos para uma palavra ou frase. 
 
( ) Uma das vantagens de se utilizar um modelo probabilístico é que não são necessários 
dados anotados para o treinamento de um algoritmo de aprendizagem. 
 
( ) Um modelo probabilístico não é dependente da ocorrência das palavras em um corpus. 
 
( ) Uma gramática construída a partir de um modelo probabilístico permite que as 
probabilidades associadas às regras possam ser utilizadas para escolha da interpretação mais 
provável. 
Selecione a alternativa que contém a sequência correta. 
Nota: 10.0 
 
A V F V V 
 
B V F F V 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 2, Tema 2. 
 
C V V F F 
 
D F V V F 
 
E F V F V 
 
Questão 6/10 - Natural Language Processing 
Os modelos de recuperação de informação mais utilizados são três: modelo booleano, modelo 
vetorial e modelo probabilístico. 
Sobre os modelos de recuperação de informação, assinale a alternativa CORRETA. 
Nota: 10.0 
 
A O modelo Booleano é baseado em estatística de palavras e compões a maior parte dos sistemas de 
RI. Estes modelos utilizam contagem de palavras para geração de dados estatísticos. 
 
B O modelo Vetorial utiliza vetores de palavras chaves interligados por expressões lógicas como E, 
OU e NÃO para realizar uma busca de palavras nos textos e assim retornar um valor positivo ou 
negativo resultante da busca. 
 
C O modelo Probabilístico é baseado em estatística de palavras ao gerá-las através da contagem de 
palavras. Neste modelo os pesos utilizados para cada termo não são binários, possibilitando a 
geração de um grau de similaridade entre documentos. 
 
D O modelo Vetorial é baseado em um framework de probabilidades de termos de indexação nos 
documentos. Neste caso, dada a consulta de um usuário, não existirá nenhum documento que não 
pertencerá ao conjunto de documentos que contenham exatamente os documentos relevantes ao 
usuário. 
 
E O modelo Booleano por palavra-chave é característico dos sistemas mais antigos de RI e é baseado 
em busca simples de palavras dentro dos documentos. Se a palavra buscada aparecer no 
documento, ele será apresentado, caso contrário, não. 
Você assinalou essa alternativa (E) 
Você acertou! 
Aula 3, Tema 2. 
 
Questão 7/10 - Natural Language Processing 
Uma gramática livre de contexto determinística (GLCD) e uma gramática livre de contexto 
probabilística (GLCP) podem ser construídas por meio de aprendizagem utilizando conjuntos 
distintos de dados previamente tratados. 
 
Uma GLCP é criada a partir de uma_______________________________. 
Marque a alternativa abaixo que complete corretamente a afirmativa. 
 
Nota: 10.0 
 
A análise sintática de um corpus obrigatoriamente anotado e que utilize como base um GLCD, criado 
a partir de um corpus não anotado através da contagem de palavras e suas ocorrências nas 
sentenças. 
 
B contagem de palavras e suas ocorrências nas sentenças de um texto ou corpus não anotado, tendo 
como base uma análise sintática executada com uma GLCD criada a partir de um corpus anotado 
que pode ser igual ou diferente do corpus em análise. 
Você assinalou essa alternativa (B) 
Vocêacertou! 
Aula 2, Tema 3 – Gramáticas Probabilísticas. Para gerarmos uma GLCD, é obrigatório o uso de um 
corpus anotado. Para criarmos uma GLCP, é obrigatório o uso de uma GLCD previamente gerada. O 
corpus que gerará a GLCP não precisa ser anotado. O corpus usado para criação da GLCP pode ser 
diferente do corpus usado para criar a GLCD. Ordem: 1. Obter um corpus suficientemente grande e 
anotado. 2. Criar uma GLCD deste primeiro corpus. 3. Obter um corpus diferente e que pode ser 
anotado ou não. 4. Criar a GLCP deste segundo corpus utilizando a GLCD feita anteriormente. 
 
C GLCD em conjunto com uma análise probabilística de cada termo de cada sentença. Este processo 
só é possível com a utilização de corpus e textos anotados, tanto para a criação do GLCP quanto 
para o GLCD. 
 
D rede neural recorrente (RNN) previamente treinada com as probabilidades de surgimento de cada 
palavra na linguagem do corpus em análise. Esta RNN identifica cada palavra e gera a GLCP. 
 
E estratégia de pré-treinamento intensivo de camadas para criação de uma RNA (rede neural 
artificial) com base em um corpus anotado. Este processo tem como resultado uma rede neural 
treinada que pode identificar qual a próxima palavra com maior probabilidade em um texto. 
 
Questão 8/10 - Natural Language Processing 
Existem diversos tipos de estruturas comuns para os corpora de textos. O corpus que não 
possui nenhum tipo de estrutura, ou seja, que é apenas uma coleção de textos sem nenhum 
tipo de anotação ou separação específica é o corpus com estrutura do tipo_____________. 
Assinale a alternativa abaixo que complete CORRETAMENTE a frase acima. 
Nota: 10.0 
 
A isolado. 
Você assinalou essa alternativa (A) 
Você acertou! 
Aula 2, Tema 1 
 
B categorizado. 
 
C categorias em superposição. 
 
D temporal. 
 
E categorias fuzzy. 
 
Questão 9/10 - Natural Language Processing 
O Natural Language Toolkit (NLTK) foi originalmente criado em 2001 como parte de um curso 
de linguística computacional no Departamento de Ciência da Computação e da Informação da 
Universidade da Pensilvânia. Desde então, ele foi desenvolvido e expandido com a ajuda de 
dezenas de colaboradores. 
Sobre a criação da biblioteca, marque a opção que apresente, CORRETAMENTE, os 4 principais 
motivos do projeto NLTK. 
Nota: 10.0 
 
A Isolada, Categorizada, categorias em sobreposição e temporal 
 
B Extensibilidade, Consistência, Unicidade, Capacidade. 
 
C Simplicidade, para uso profissional, poucas ferramentas, apenas para estudos. 
 
D Complexidade, solução completa, para grande poder computacional e Modularidade 
 
E Simplicidade, consistência, extensibilidade, modularidade. 
Você assinalou essa alternativa (E) 
Você acertou! 
Aula 2, Tema 4 
 
Questão 10/10 - Natural Language Processing 
Em se tratando de coleções muito grandes, o que é comum de ocorrer na web, pode ser 
recomendado reduzir o conjunto de palavras-chave representativas. Isso pode ser conseguido 
a partir da eliminação de stopwords (como, por exemplo, artigos, advérbios e preposições). 
Por que existe este tipo de recomendação, quando analisamos textos muito grandes? 
Nota: 10.0 
 
A Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico 
quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos 
repetidos, chamados do stopwords. 
 
B As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos 
de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos 
estes tipos de análise. 
 
C Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem 
atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, 
evidenciamos os sentimentos e significados dos textos. 
Você assinalou essa alternativa (C) 
Você acertou! 
Aula 3, Tema 1. 
 
D A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos 
irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros 
símbolos. 
 
E Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a 
serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo 
eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma 
análise destes textos e de forma mais leve, computacionalmente falando. 
 
 
 
 
 
 
 
 
 
 
 
 
Questão 1/10 - Natural Language Processing 
No tema 1 da aula 5, a linguagem Python, vimos algumas das principais bibliotecas que são 
utilizadas para o processamento de linguagem natural em conjunto com a linguagem Pytthon. 
Sobre estas bibliotecas, assinale a alternativa que contenha uma afirmação INCORRETA: 
 
A Numpy é uma biblioteca que fornece funções de processamento numérico em todos os elementos 
de arrays e operações matemáticas entre arrays eficientes por uso de processamento paralelo e 
por GPU. 
 
B Pandas é uma biblioteca que nos permite criar estruturas de dados de alto nível, chamadas de 
DataFrame e Series. 
 
C Matplotlib é uma biblioteca que auxilia na contrução de gráficos e plotagens apropriadas para 
publicação dos dados. 
 
D Scipy é uma biblioteca que oferece funções para efetruar processamento numérica em todos os 
elementos de arrays ou operações matemáticas entre array, permitindo ler e gravar conjuntos de 
dados baseados em array. 
Você assinalou essa alternativa (D) 
 
E Scikit-learn é a principal biblioteca de propósito geral para aprendizado de máquina, para os 
programadores em Python. Com ela é possível criar e treinar modelos de classificação, regressão, 
agrupamento, pré-processamento, redução de dimensionalidade e seleção de modelos. 
 
Questão 2/10 - Natural Language Processing 
Na aula 6, o conceito de redes convolucionais foi apresentada em conjunto suas principais 
camadas para classificação de palavras. 
Estas camadas são: 
 
( ) Softmax (Classificação) 
( ) Max-pooling (no tempo) 
( ) Sentença de entrada 
( ) Tabela de Lookup 
( ) FCL (Totalmente conectada) 
( ) Camada de Convolução 
Marque a alternativa que contém a ordem correta das camadas de uma CNN para classificação 
de palavras. 
 
A 6 – 4 – 1 – 2 – 5 – 3 
Você assinalou essa alternativa (A) 
 
B 5 – 4 – 1 – 3 – 2 – 6 
 
C 6 – 2 – 1 – 3 – 5 – 4 
 
D 1 – 4 – 6 – 3 – 5 – 2 
 
E 1 – 5 – 6 – 2 – 4 – 3 
 
Questão 3/10 - Natural Language Processing 
Na aula 5, sobre classificação e avaliação de documentos, o conceito de classificação foi 
apresentado como a tarefa de escolher o rótulo de classe correto para uma determinada 
entrada de dados. 
Vimos que para NLP os tipos de classificadores mais utilizados sãos os supervisionados. Sobre 
eles, assinale a alternativa que contenha a afirmação VERDADEIRA sobre o que é necessário 
para realizarmos este tipo de classificação. 
 
A Um classificador é dito supervisionado quando utilizamos um corpus de treinamento com dados 
rotulados para cada entrada, sendo que é comum a divisão do corpus em duas partes: uma 
chamada de conjunto de treinamento e outra de conjunto de teste. As classes são definidas pelos 
rótulos existentes nos dados do conjunto de treinamento. 
Você assinalou essa alternativa (A) 
 
B Um classificador é dito supervisionado quando utilizamos um corpus de treinamento com dados 
anotados para cada tipo de estrutura gramatical, sendo que é comum a divisão do corpus em três 
partes: uma para a criação da gramática, uma chamada de conjunto de treinamento e outra de 
conjunto de teste. As classes são definidas automaticamente pelo algoritmo de treinamento e não 
depende nem das anotações e nem dos rótulos dos dados. 
 
C Um classificador é dito supervisionado quando, após as etapas de criação e treinamento, em uso é 
necessário fornecermos o rótulo do texto em análise, para classificação. As classes são definidaspelos rótulos existentes nos dados conforme fornecimento durante a utilização do modelo. 
 
D Um classificador é dito supervisionado pois é necessário estarmos sempre atentos às suas funções 
de classificação, devido à baixa confiabilidade, sendo necessário o prévio conhecimento dos rótulos 
de todos os textos a serem classificados. 
 
E Um classificador é dito supervisionado pois ao realizarmos um classificador de sequências, 
utilizamos mais de um modelo de classificador, o que causa a supervisão de um modelo por outro 
durante a etapa de treinamento, mesmo com uso de dados não rotulados. 
 
Questão 4/10 - Natural Language Processing 
Na aula 5, o tema 2 nos apresenta a biblioteca NLTK para uso em tarefas de linguagem natural 
para Python. Esta biblioteca define uma estrutura que busca facilitar o estudo em NLP. 
Sobre os diversos módulos da NLTK, mostrados nesta aula, qual deles é utilizado para nos dar 
uma ideia de precisão e eficiência do nosso modelo criado e treinado? 
 
A tokenize 
 
B Chunk 
 
C parse 
 
D Metrics 
Você assinalou essa alternativa (D) 
 
E app 
 
Questão 5/10 - Natural Language Processing 
Na aula 5, sobre classificação e avaliação de documentos, foram apresentadas algumas tarefas 
que podem ser enquadradas na classificação supervisionada. 
Sobre estas tarefas, assinale a alternativa que contém a afirmação CORRETA: 
Você não pontuou essa questão 
 
A Identificação de gênero em discurso pode ser enquadrado como classificação supervisionada, pois 
a partir do uso de corpora, pode-se construir classificadores que marcarão automaticamente novos 
documentos com rótulos de categorias apropriados. 
Você assinalou essa alternativa (A) 
 
B Classificação de documentos pode ser enquadrado como classificação supervisionada quando 
realizamos o treinamento de um classificador com dados rotulados para descobrirmos quais sufixos 
de palavras podem indicar alguma informação relevante, como, por exemplo, o tempo e a pessoa 
de um verbo. 
 
C Anotação ou marcação (tagging) de parte do discurso (part-of-speech) pode ser enquadrado como 
classificação supervisionada quando treinamos um classificador com dados não rotulados, para 
descobrirmos quais sufixos de palavras podem indicar alguma informação relevante. 
 
D Exploração de contexto pode ser enquadrado como classificação supervisionada quando usamos 
um conjunto de dados rotulados para treinar um modelo que identifica as características 
contextuais, como, por exemplo, ao marcar a palavra "partir", sabendo-se que a palavra anterior é 
"a", permitindo determinar que ela atua como uma locução adverbial, não como um verbo. 
 
E Classificação de sequências pode ser enquadrado como classificação supervisionada quando 
usamos dados não rotulados para criar um modelo que classifica entradas relacionadas de forma 
sequencial. 
 
Questão 6/10 - Natural Language Processing 
Na aula 5, sobre classificação e avaliação de documentos vimos as métricas de Jaro e 
Jaro-Winkler. A métrica de Jaro mede a distância de edição entre duas sequências ou termos. 
A métrica Jaro-Winkler é uma variante da métrica Jaro e é amplamente utilizada nas áreas de 
extração de informações, vinculação de registros, vinculação de entidades, uma vez que 
funciona bem na correspondência de nomes pessoais e de entidades. 
Qual das alternativas abaixo possui a declaração correta sobre os principais componentes do 
algoritmo de distância de Jaro? 
 
A Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois termos e contagem 
da quantidade de aparições de um termo em um corpus. 
 
B Cálculo dos comprimentos dos termos, identificação de termos comuns no corpus e contagem da 
quantidade de aparições de um termo em um corpus. 
 
C Cálculo dos comprimentos dos termos, identificação de caracteres comuns nos dois termos e 
contagem de transposições de caracteres. 
Você assinalou essa alternativa (C) 
 
D Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois termos e contagem 
de transposições de caracteres. 
 
E Cálculo dos graus de caracteres, identificação de similaridades comuns nos termos e contagem de 
caracteres. 
 
Questão 7/10 - Natural Language Processing 
Na aula 5 foi apresentado o uso do método word_tokenize(texto) da biblioteca NLTK. Este 
método realiza a tokenização do texto colocado como argumento deste método. 
Sobre a tokenização, é correto afirmar que: 
 
A É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação como um 
elemento desta lista, sem repetições, gerando elementos únicos, incluindo os caracteres especiais 
como “\r” e “\n”. 
 
B É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação como um 
elemento desta lista, com repetições, gerando um token para cada palavra ou pontuação do texto, 
excluindo-se os espaços em branco e caracteres especiais como “\r” e “\n”. 
Você assinalou essa alternativa (B) 
 
C É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos seus radicais, 
excluindo-se palavras repetidas, pontuações e caracteres especiais como “\r” e “\n”. 
 
D É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos seus radicais, 
incluindo todas as palavras repetidas, pontuações e caracteres especiais como “\r” e “\n”. 
 
E É a criação de uma estrutura de dados do tipo dicionário com as palavras como chaves e a 
contagem de suas ocorrências como o valor, excluindo-se caracteres especiais como “\r” e “\n”. 
 
Questão 8/10 - Natural Language Processing 
Na aula 6, o conceito do perceptron multicamada (MLP) foi apresentado como um tipo de rede 
neural artificial. Sendo as MLPs o tipo mais simples de FNN (feed-Forward Neural Networks) 
Sobre a função de ativação, assinale a alternativa CORRETA. 
 
A Em uma MLP usamos com bastante frequência a função sinal como função de ativação, pois esta 
nos permite uma mudança suave na ativação dos neurônios. 
 
B Em uma MLP usamos a função de ativação tangencial hiperbólica, pois ela nos permite manter os 
valores de saída na faixa entre 0 e 1, ao passo que converge mais rapidamente que a função 
sigmoide. 
 
C O uso de função de ativação não linear não é feito em uma MLP, tendo em vista a sua simplicidade, 
sendo o tipo de rede neural artificial mais simples entre as FNN. 
 
D Um dos tipos mais utilizados de função de ativação não linear nas MLP é a função logística, também 
chamada de função sigmoide. Esta função resulta em saídas dentro da faixa de 0 a 1 e proporciona 
uma mudança mais suave na ativação dos neurônios, se comparada à função sinal. 
Você assinalou essa alternativa (D) 
 
E Em uma MLP, a função de ativação é utilizada apenas nos neurônios da camada de entrada e 
normalmente são do tipo função sigmoidal. 
 
Questão 9/10 - Natural Language Processing 
Na aula 6, tema 3, foram apresentadas as redes neurais recorrentes (RNN). Elas constituem 
uma família de redes neurais para processamento de dados sequenciais. A arquitetura de uma 
RNN pode ter diferentes configurações de entrada-saída, dependendo do objeto desejado, 
podendo ser: 
- 1-1 (uma entrada e uma saída) 
- 1-N (uma entrada e várias saídas) 
- N-1 (várias entradas e uma saída) 
- N-N (várias entradas e várias saídas) 
Sobre as redes neurais recorrentes, assinale a alternativa que contenha a configuração de 
entrada-saída para um modelo de análise de sentimento. 
Você não pontuou essa questão 
 
A 1-1 
 
B 1-N 
 
C N-1 
 
D N-N 
 
E 1-1 ou a N-N 
Você assinalou essa alternativa (E) 
 
Questão 10/10 - Natural Language Processing 
A aula 6 apresenta a memória de longo prazo (Long Short-Term Memory – LSTM), que se 
refere a uma arquitetura diferenciada de RNN contendo um algoritmo de aprendizagem 
também baseado em descida de gradiente. 
Baseado nos conhecimentos apresentados sobre MLP, CNN, RNN e LSTM, marque a alternativa 
que contém a justificativa da criação destetipo de rede neural artificial. 
Você não pontuou essa questão 
 
A A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando o gradiente do 
erro se torna tão grande a ponto de instabilizar e parar o treinamento) ou a explosão de gradiente 
(quando gradiente do erro se aproxima do zero e causa uma lentidão no treinamento) existentes 
nas redes neurais recorrentes. 
Você assinalou essa alternativa (A) 
 
B A LSTM foi projetada para corrigir os problemas de dissipação do gradiente (quando gradiente do 
erro se aproxima do zero e causa uma lentidão no treinamento) ou a explosão de gradiente 
(quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o treinamento) 
existentes nas redes neurais recorrentes. 
 
C A LSTM foi projetada para corrigir os problemas de alta complexidade das CNN (quando a 
quantidade de nós fica tão grande que o processo de treinamento se torna lento, causando a 
dissipação do gradiente de erro). 
 
D A LSTM foi projetada para corrigir os problemas de baixa complexidade das RNN (quando a 
quantidade de nós fica se aproxima de zero e causa uma lentidão no treinamento). 
 
E A LSTM foi projetada para corrigir os problemas de baixa complexidade das MLPs (pois o 
treinamento das MLPs é feito apenas por alimentação à frente, por ser uma FNN). 
 
 
 
 
 
 
 
 
 
Questão 1/10 - Natural Language Processing 
Na aula 4 de Natural Language Processing vimos as métricas para comparação de 
palavras. 
Sobre a motivação do uso deste tipo de métrica, assinale a alternativa que contém a 
afirmação correta. 
Você não pontuou essa questão 
 
A O uso de métricas para comparação de palavras se dá pois devemos reduzir a 
quantidade de uso de memória no tratamento de linguagem natural em aplicações 
como em um chatbot. 
 
B O uso de métricas para comparação de palavras se dá pois devemos garantir que 
as palavras sejam analisadas de forma exata, conforme sua grafia definida pela 
gramática, sem abrirmos margem para erros de ortografia do usuário. 
 
C O uso de métricas para comparação de palavras se dá pois devemos garantir uma 
quantidade mínima de palavras diferentes para que a análise possa ser feita de 
forma não enviesada. 
Você assinalou essa alternativa (C) 
 
D O uso de métricas para comparação de palavras se dá pois devemos considerar 
que erros de ortografia podem ocorrer em situações como chatbots e nosso 
processamento deve ser o mais robusto e insensível a erros humanos de 
ortografia. 
 
E O uso de métricas para comparação de palavras se dá pois devemos saber a 
distância entre palavras de cada léxico, com objetivo de mensurarmos o grau de 
complexidade de um determinado texto em um corpus. 
 
Questão 2/10 - Natural Language Processing 
Na aula 5, sobre classificação e avaliação de documentos, foram apresentadas 
algumas tarefas que podem ser enquadradas na classificação supervisionada. 
Sobre estas tarefas, assinale a alternativa que contém a afirmação CORRETA: 
Você não pontuou essa questão 
 
A Identificação de gênero em discurso pode ser enquadrado como classificação 
supervisionada, pois a partir do uso de corpora, pode-se construir classificadores 
que marcarão automaticamente novos documentos com rótulos de categorias 
apropriados. 
Você assinalou essa alternativa (A) 
 
B Classificação de documentos pode ser enquadrado como classificação 
supervisionada quando realizamos o treinamento de um classificador com dados 
rotulados para descobrirmos quais sufixos de palavras podem indicar alguma 
informação relevante, como, por exemplo, o tempo e a pessoa de um verbo. 
 
C Anotação ou marcação (tagging) de parte do discurso (part-of-speech) pode ser 
enquadrado como classificação supervisionada quando treinamos um classificador 
com dados não rotulados, para descobrirmos quais sufixos de palavras podem 
indicar alguma informação relevante. 
 
D Exploração de contexto pode ser enquadrado como classificação supervisionada 
quando usamos um conjunto de dados rotulados para treinar um modelo que 
identifica as características contextuais, como, por exemplo, ao marcar a palavra 
"partir", sabendo-se que a palavra anterior é "a", permitindo determinar que ela 
atua como uma locução adverbial, não como um verbo. 
 
E Classificação de sequências pode ser enquadrado como classificação 
supervisionada quando usamos dados não rotulados para criar um modelo que 
classifica entradas relacionadas de forma sequencial. 
 
Questão 3/10 - Natural Language Processing 
Na aula 5 foi apresentado o uso do método word_tokenize(texto) da biblioteca NLTK. 
Este método realiza a tokenização do texto colocado como argumento deste método. 
Sobre a tokenização, é correto afirmar que: 
 
A É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação 
como um elemento desta lista, sem repetições, gerando elementos únicos, 
incluindo os caracteres especiais como “\r” e “\n”. 
 
B É a criação de uma estrutura de dados do tipo lista com cada palavra e pontuação 
como um elemento desta lista, com repetições, gerando um token para cada 
palavra ou pontuação do texto, excluindo-se os espaços em branco e caracteres 
especiais como “\r” e “\n”. 
Você assinalou essa alternativa (B) 
 
C É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos 
seus radicais, excluindo-se palavras repetidas, pontuações e caracteres especiais 
como “\r” e “\n”. 
 
D É a criação de uma estrutura de dados do tipo lista com as palavras reduzidas aos 
seus radicais, incluindo todas as palavras repetidas, pontuações e caracteres 
especiais como “\r” e “\n”. 
 
E É a criação de uma estrutura de dados do tipo dicionário com as palavras como 
chaves e a contagem de suas ocorrências como o valor, excluindo-se caracteres 
especiais como “\r” e “\n”. 
 
Questão 4/10 - Natural Language Processing 
Na aula 6, o conceito de redes convolucionais foi apresentada em conjunto suas 
principais camadas para classificação de palavras. 
Estas camadas são: 
 
( ) Softmax (Classificação) 
( ) Max-pooling (no tempo) 
( ) Sentença de entrada 
( ) Tabela de Lookup 
( ) FCL (Totalmente conectada) 
( ) Camada de Convolução 
Marque a alternativa que contém a ordem correta das camadas de uma CNN para 
classificação de palavras. 
 
A 6 – 4 – 1 – 2 – 5 – 3 
Você assinalou essa alternativa (A) 
 
B 5 – 4 – 1 – 3 – 2 – 6 
 
C 6 – 2 – 1 – 3 – 5 – 4 
 
D 1 – 4 – 6 – 3 – 5 – 2 
 
E 1 – 5 – 6 – 2 – 4 – 3 
 
Questão 5/10 - Natural Language Processing 
A aula 6 apresenta a memória de longo prazo (Long Short-Term Memory – LSTM), 
que se refere a uma arquitetura diferenciada de RNN contendo um algoritmo de 
aprendizagem também baseado em descida de gradiente. 
Baseado nos conhecimentos apresentados sobre MLP, CNN, RNN e LSTM, marque a 
alternativa que contém a justificativa da criação deste tipo de rede neural artificial. 
 
A A LSTM foi projetada para corrigir os problemas de dissipação do gradiente 
(quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o 
treinamento) ou a explosão de gradiente (quando gradiente do erro se aproxima do 
zero e causa uma lentidão no treinamento) existentes nas redes neurais 
recorrentes. 
 
B A LSTM foi projetada para corrigir os problemas de dissipação do gradiente 
(quando gradiente do erro se aproxima do zero e causa uma lentidão no 
treinamento) ou a explosão de gradiente (quando o gradiente do erro se torna tão 
grande a ponto de instabilizar e parar o treinamento) existentes nas redes neurais 
recorrentes. 
Você assinalou essa alternativa (B) 
 
C A LSTM foi projetada para corrigir os problemas de alta complexidade das CNN 
(quando a quantidade de nós fica tão grande que o processo de treinamento se 
torna lento, causando a dissipação do gradiente de erro). 
 
D A LSTM foi projetada para corrigir os problemas de baixa complexidade das RNN 
(quando a quantidade de nós fica se aproxima de zero e causa uma lentidão no 
treinamento).E A LSTM foi projetada para corrigir os problemas de baixa complexidade das MLPs 
(pois o treinamento das MLPs é feito apenas por alimentação à frente, por ser uma 
FNN). 
 
Questão 6/10 - Natural Language Processing 
Na aula 6, tema 3, foram apresentadas as redes neurais recorrentes (RNN). Elas 
constituem uma família de redes neurais para processamento de dados sequenciais. A 
arquitetura de uma RNN pode ter diferentes configurações de entrada-saída, 
dependendo do objeto desejado, podendo ser: 
- 1-1 (uma entrada e uma saída) 
- 1-N (uma entrada e várias saídas) 
- N-1 (várias entradas e uma saída) 
- N-N (várias entradas e várias saídas) 
Sobre as redes neurais recorrentes, assinale a alternativa que contenha a 
configuração de entrada-saída para um modelo de análise de sentimento. 
Você não pontuou essa questão 
 
A 1-1 
 
B 1-N 
Você assinalou essa alternativa (B) 
 
C N-1 
 
D N-N 
 
E 1-1 ou a N-N 
 
Questão 7/10 - Natural Language Processing 
Na aula 4 de Natural Language Processing vimos os modelos de recuperação de 
documentos binário, vetorial e probabilístico. 
Sobre o modelo vetorial, assinale a alternativa que contém a descrição correta. 
 
A Caracteriza-se por atribuir pesos para cada termo, podendo ser ou valor 0 (zero) ou 
valor 1 (um). 
 
B Atribui pesos binários, o que permite o cálculo de graus de similaridade entre cada 
documento armazenado. 
 
C Considera o processo de recuperação de documentos através de uma descrição 
de probabilidades de se encontrar determinado termo em documentos de uma 
coleção. 
 
D Caracteriza-se pelo cálculo do grau de similaridade, mediante a razão dos 
documentos relevantes para o usuário pelos documentos não relevantes. 
 
E Pode ter seus pesos de palavras e de documentos feitos pelo método TF-IDF em 
conjunto com o ranqueamento dos termos por graus de similaridade. 
Você assinalou essa alternativa (E) 
 
Questão 8/10 - Natural Language Processing 
Na aula 5, sobre classificação e avaliação de documentos, o conceito de classificação 
foi apresentado como a tarefa de escolher o rótulo de classe correto para uma 
determinada entrada de dados. 
Vimos que para NLP os tipos de classificadores mais utilizados sãos os 
supervisionados. Sobre eles, assinale a alternativa que contenha a afirmação 
VERDADEIRA sobre o que é necessário para realizarmos este tipo de classificação. 
 
A Um classificador é dito supervisionado quando utilizamos um corpus de 
treinamento com dados rotulados para cada entrada, sendo que é comum a divisão 
do corpus em duas partes: uma chamada de conjunto de treinamento e outra de 
conjunto de teste. As classes são definidas pelos rótulos existentes nos dados do 
conjunto de treinamento. 
Você assinalou essa alternativa (A) 
 
B Um classificador é dito supervisionado quando utilizamos um corpus de 
treinamento com dados anotados para cada tipo de estrutura gramatical, sendo 
que é comum a divisão do corpus em três partes: uma para a criação da gramática, 
uma chamada de conjunto de treinamento e outra de conjunto de teste. As classes 
são definidas automaticamente pelo algoritmo de treinamento e não depende nem 
das anotações e nem dos rótulos dos dados. 
 
C Um classificador é dito supervisionado quando, após as etapas de criação e 
treinamento, em uso é necessário fornecermos o rótulo do texto em análise, para 
classificação. As classes são definidas pelos rótulos existentes nos dados 
conforme fornecimento durante a utilização do modelo. 
 
D Um classificador é dito supervisionado pois é necessário estarmos sempre atentos 
às suas funções de classificação, devido à baixa confiabilidade, sendo necessário 
o prévio conhecimento dos rótulos de todos os textos a serem classificados. 
 
E Um classificador é dito supervisionado pois ao realizarmos um classificador de 
sequências, utilizamos mais de um modelo de classificador, o que causa a 
supervisão de um modelo por outro durante a etapa de treinamento, mesmo com 
uso de dados não rotulados. 
 
Questão 9/10 - Natural Language Processing 
Na aula 4 de Natural Language Processing vimos que, segundo Araújo, Pereira e 
Benevenuto (2020), em seu trabalho sobre comparação de traduções automáticas, 
existem 3 abordagens principais para solução da geração de tradutores 
automatizados: Baseado em regras (baseado em frases), métodos estatísticos e redes 
neurais artificiais. 
Sobre o método de redes neurais artificiais é correto afirmar que: 
Você não pontuou essa questão 
 
A Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão 
o tradutor e resultarão em sua alta capacidade de tradução correta, apesar de não 
ser a abordagem com melhor desempenho, atualmente. 
Você assinalou essa alternativa (A) 
 
B Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão 
o tradutor e resultarão em sua alta capacidade de tradução correta, considerada a 
abordagem com melhor desempenho entre as três. 
 
C Utiliza léxicos combinados com definições gramaticais que geram uma rede 
treinada para realiza a tradução. É o melhor método em termos de desempenho. 
 
D Utiliza uma grande quantidade de dados de treinamento para geração de um 
modelo de tradução para cada par de idiomas, sem levar a semântica em 
consideração. É o modelo mais indicado para alto desempenho. 
 
E Utiliza uma grande quantidade de dados de treinamento para geração de um 
modelo de tradução para cada par de idiomas, sem levar a semântica em 
consideração. Possui baixo desempenho, se comparado às outras duas 
abordagens. 
 
Questão 10/10 - Natural Language Processing 
No tema 1 da aula 5, a linguagem Python, vimos algumas das principais bibliotecas 
que são utilizadas para o processamento de linguagem natural em conjunto com a 
linguagem Pytthon. 
Sobre estas bibliotecas, assinale a alternativa que contenha uma afirmação 
INCORRETA: 
 
A Numpy é uma biblioteca que fornece funções de processamento numérico em 
todos os elementos de arrays e operações matemáticas entre arrays eficientes por 
uso de processamento paralelo e por GPU. 
 
B Pandas é uma biblioteca que nos permite criar estruturas de dados de alto nível, 
chamadas de DataFrame e Series. 
 
C Matplotlib é uma biblioteca que auxilia na contrução de gráficos e plotagens 
apropriadas para publicação dos dados. 
 
D Scipy é uma biblioteca que oferece funções para efetruar processamento numérica 
em todos os elementos de arrays ou operações matemáticas entre array, 
permitindo ler e gravar conjuntos de dados baseados em array. 
Você assinalou essa alternativa (D) 
 
E Scikit-learn é a principal biblioteca de propósito geral para aprendizado de 
máquina, para os programadores em Python. Com ela é possível criar e treinar 
modelos de classificação, regressão, agrupamento, pré-processamento, redução 
de dimensionalidade e seleção de modelos. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Questão 1/10 - Natural Language Processing 
Na aula 4 de Natural Language Processing vimos que, segundo Araújo, Pereira e 
Benevenuto (2020), em seu trabalho sobre comparação de traduções automáticas, 
existem 3 abordagens principais para solução da geração de tradutores 
automatizados: Baseado em regras (baseado em frases), métodos estatísticos e redes 
neurais artificiais. 
Sobre o método de redes neurais artificiais é correto afirmar que: 
Nota: 10.0 
 
A Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão 
o tradutor e resultarão em sua alta capacidade de tradução correta, apesar de não 
ser a abordagem com melhor desempenho, atualmente. 
 
B Utilizam uma enorme quantidade de dados etiquetados para cálculos que gerarão 
o tradutor e resultarão em sua alta capacidade de tradução correta, considerada a 
abordagem com melhor desempenho entre as três. 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 4, tema 4 – Tradução automática 
 
C Utiliza léxicos combinados com definições gramaticais que geram uma rede 
treinada pararealiza a tradução. É o melhor método em termos de desempenho. 
 
D Utiliza uma grande quantidade de dados de treinamento para geração de um 
modelo de tradução para cada par de idiomas, sem levar a semântica em 
consideração. É o modelo mais indicado para alto desempenho. 
 
E Utiliza uma grande quantidade de dados de treinamento para geração de um 
modelo de tradução para cada par de idiomas, sem levar a semântica em 
consideração. Possui baixo desempenho, se comparado às outras duas 
abordagens. 
 
Questão 2/10 - Natural Language Processing 
Na aula 6, o conceito do perceptron multicamada (MLP) foi apresentado como um tipo 
de rede neural artificial. Sendo as MLPs o tipo mais simples de FNN (feed-Forward 
Neural Networks) 
Sobre a função de ativação, assinale a alternativa CORRETA. 
Nota: 10.0 
 
A Em uma MLP usamos com bastante frequência a função sinal como função de 
ativação, pois esta nos permite uma mudança suave na ativação dos neurônios. 
 
B Em uma MLP usamos a função de ativação tangencial hiperbólica, pois ela nos 
permite manter os valores de saída na faixa entre 0 e 1, ao passo que converge 
mais rapidamente que a função sigmoide. 
 
C O uso de função de ativação não linear não é feito em uma MLP, tendo em vista a 
sua simplicidade, sendo o tipo de rede neural artificial mais simples entre as FNN. 
 
D Um dos tipos mais utilizados de função de ativação não linear nas MLP é a função 
logística, também chamada de função sigmoide. Esta função resulta em saídas 
dentro da faixa de 0 a 1 e proporciona uma mudança mais suave na ativação dos 
neurônios, se comparada à função sinal. 
Você assinalou essa alternativa (D) 
Você acertou! 
Aula 6, tema 1 – NLP e Deep Learning 
 
E Em uma MLP, a função de ativação é utilizada apenas nos neurônios da camada 
de entrada e normalmente são do tipo função sigmoidal. 
 
Questão 3/10 - Natural Language Processing 
Na aula 6, tema 3, foram apresentadas as redes neurais recorrentes (RNN). Elas 
constituem uma família de redes neurais para processamento de dados sequenciais. A 
arquitetura de uma RNN pode ter diferentes configurações de entrada-saída, 
dependendo do objeto desejado, podendo ser: 
- 1-1 (uma entrada e uma saída) 
- 1-N (uma entrada e várias saídas) 
- N-1 (várias entradas e uma saída) 
- N-N (várias entradas e várias saídas) 
Sobre as redes neurais recorrentes, assinale a alternativa que contenha a 
configuração de entrada-saída para um modelo de análise de sentimento. 
Nota: 10.0 
 
A 1-1 
 
B 1-N 
 
C N-1 
Você assinalou essa alternativa (C) 
Você acertou! 
Aula 6, tema 3 – Redes neurais recorrentes 
 
D N-N 
 
E 1-1 ou a N-N 
 
Questão 4/10 - Natural Language Processing 
A aula 6 apresenta a memória de longo prazo (Long Short-Term Memory – LSTM), 
que se refere a uma arquitetura diferenciada de RNN contendo um algoritmo de 
aprendizagem também baseado em descida de gradiente. 
Baseado nos conhecimentos apresentados sobre MLP, CNN, RNN e LSTM, marque a 
alternativa que contém a justificativa da criação deste tipo de rede neural artificial. 
Nota: 10.0 
 
A A LSTM foi projetada para corrigir os problemas de dissipação do gradiente 
(quando o gradiente do erro se torna tão grande a ponto de instabilizar e parar o 
treinamento) ou a explosão de gradiente (quando gradiente do erro se aproxima do 
zero e causa uma lentidão no treinamento) existentes nas redes neurais 
recorrentes. 
 
B A LSTM foi projetada para corrigir os problemas de dissipação do gradiente 
(quando gradiente do erro se aproxima do zero e causa uma lentidão no 
treinamento) ou a explosão de gradiente (quando o gradiente do erro se torna tão 
grande a ponto de instabilizar e parar o treinamento) existentes nas redes neurais 
recorrentes. 
Você assinalou essa alternativa (B) 
Você acertou! 
Aula 6, temas 1, 2, 3 e 4 – MLP, CNN, RNN e LSTM 
 
C A LSTM foi projetada para corrigir os problemas de alta complexidade das CNN 
(quando a quantidade de nós fica tão grande que o processo de treinamento se 
torna lento, causando a dissipação do gradiente de erro). 
 
D A LSTM foi projetada para corrigir os problemas de baixa complexidade das RNN 
(quando a quantidade de nós fica se aproxima de zero e causa uma lentidão no 
treinamento). 
 
E A LSTM foi projetada para corrigir os problemas de baixa complexidade das MLPs 
(pois o treinamento das MLPs é feito apenas por alimentação à frente, por ser uma 
FNN). 
 
Questão 5/10 - Natural Language Processing 
O tema 5 da aula 6 versa sobre as unidades recorrentes com porta (GRU), que 
possuem uma dinâmica de funcionamento semelhante à LSTM. 
Sobre a semelhança entre LSTM e GRU, marque a alternativa que possui uma 
afirmação correta. 
Nota: 0.0Você não pontuou essa questão 
 
A Ambos possuem células com 3 (três) entradas e 3 (três) saídas de sinal, porém nas 
GRU, as saídas st e yt não são usadas, o que causa uma simplificação dos 
modelos com GRU e maior agilidade nos treinamentos. 
 
B Enquanto nas LSTM as células podem ser interligadas em forma de malha, 
gerando uma rede com múltiplas camadas, nas GRU temos apenas a possibilidade 
de criar redes de camada única de células, o que reduz bastante a complexidade 
ao passo em que se mantém a performance, na maioria dos casos. 
Aula 6, tema 5 - GRU 
 
C Tanto nas GRU quanto nas LSTM temos a possibilidade de criação de malhas de 
múltiplas camadas, porém com o número menor de portas de entradas e saídas 
das LSTM, temos uma maior performance e velocidade de treinamento, se 
comparadas às GRU. 
 
D As GRU possuem apenas 2 (duas) entradas e 1 (uma) saída, ao passo que as 
LSTM possuem 3 (três) entradas e 3 (três) saídas de sinal. Isto se reflete em uma 
menor complexidade das GRU, o que causa uma velocidade maior no treinamento, 
porém com performance bastante inferior às LSTM. 
 
E As GRU podem ser interpretadas como uma generalização das LSTM e possuem 
funcionamento muito parecido, porém a complexidade da rede das GRU é muito 
superior às LSTM, o que causa uma performance muito maior das GRU tanto em 
treinamentos quanto em utilização. 
Você assinalou essa alternativa (E) 
 
Questão 6/10 - Natural Language Processing 
Na aula 4 de Natural Language Processing vimos as métricas de Jaro e Jaro-Winkler. 
A métrica de Jaro mede a distância de edição entre duas sequências ou termos. A 
métrica Jaro-Winkler é uma variante da métrica Jaro e é amplamente utilizada nas 
áreas de extração de informações, vinculação de registros, vinculação de entidades, 
uma vez que funciona bem na correspondência de nomes pessoais e de entidades. 
Qual das alternativas abaixo possui a declaração correta sobre os principais 
componentes do algoritmo de distância de Jaro? 
Nota: 10.0 
 
A Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois 
termos e contagem da quantidade de aparições de um termo em um corpus. 
 
B Cálculo dos comprimentos dos termos, identificação de termos comuns no corpus e 
contagem da quantidade de aparições de um termo em um corpus. 
 
C Cálculo dos comprimentos dos termos, identificação de caracteres comuns nos 
dois termos e contagem de transposições de caracteres. 
Você assinalou essa alternativa (C) 
Você acertou! 
Aula 4, tema 3 – Métricas de Jaro e Jaro-Winkler 
 
D Cálculo dos graus de similaridade, identificação de caracteres comuns nos dois 
termos e contagem de transposições de caracteres. 
 
E Cálculo dos graus de caracteres, identificação de similaridades comuns nos termos 
e contagem de caracteres. 
 
Questão 7/10 - Natural Language Processing 
Na aula 4 de Natural Language Processing vimos as métricas para comparação de 
palavras. 
Sobre a motivação do uso deste tipo de métrica, assinale a alternativa que contém a 
afirmação correta. 
Nota: 10.0 
 
A O uso de métricas para comparação de palavras se dá pois devemos reduzir a 
quantidade de uso de memória no tratamento de linguagem natural em aplicações 
como em um chatbot. 
 
B O uso de métricas para comparação

Outros materiais