Logo Passei Direto
Buscar

Frameworks para Big Data - Atividade 2

Ferramentas de estudo

Questões resolvidas

A respeito de programas MapReduce, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s).
1. ( ) O núcleo da classe do job é o método run(). 2. ( ) O centro das ações são suas funções map() e reduce(). 3. ( ) O método run() não permite alteração de parâmetros. 4. ( ) Raramente escreve-se um programa MapReduce do zero. Assinale a alternativa que apresenta a sequência correta.
V, V, F, V.
V, V, F, V.

A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas.
1. A tarefa redutora converte pares de linhas alimentando a entrada do processo reduce. Pois: 2. O redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processo stdout. A seguir, assinale a alternativa correta.
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.
A asserção I é uma proposição falsa e a II é uma proposição verdadeira.

Sobre o mapeador e redutor do Hadoop Streaming, é correto afirmar que:
após ser executado, o redutor pega o stdin e converte em chave-valores. o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout.
após ser executado, o redutor pega o stdin e converte em chave-valores.
o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout.

A respeito deste exemplo do contador de palavras, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s).
1. ( ) É utilizado o stdin e stdout para ler e gravar dados. 2. ( ) O redutor gera palavra como chave e número de contagens como valor. 3. ( ) A função Mapper divide chave-valores em palavras complexas. 4. ( ) O redutor recebe linhas de entrada e conta o número de instâncias. Assinale a alternativa que apresenta a sequência correta.
V, V, F, F.
V, V, F, F.

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Questões resolvidas

A respeito de programas MapReduce, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s).
1. ( ) O núcleo da classe do job é o método run(). 2. ( ) O centro das ações são suas funções map() e reduce(). 3. ( ) O método run() não permite alteração de parâmetros. 4. ( ) Raramente escreve-se um programa MapReduce do zero. Assinale a alternativa que apresenta a sequência correta.
V, V, F, V.
V, V, F, V.

A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas.
1. A tarefa redutora converte pares de linhas alimentando a entrada do processo reduce. Pois: 2. O redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processo stdout. A seguir, assinale a alternativa correta.
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.
A asserção I é uma proposição falsa e a II é uma proposição verdadeira.

Sobre o mapeador e redutor do Hadoop Streaming, é correto afirmar que:
após ser executado, o redutor pega o stdin e converte em chave-valores. o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout.
após ser executado, o redutor pega o stdin e converte em chave-valores.
o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout.

A respeito deste exemplo do contador de palavras, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s).
1. ( ) É utilizado o stdin e stdout para ler e gravar dados. 2. ( ) O redutor gera palavra como chave e número de contagens como valor. 3. ( ) A função Mapper divide chave-valores em palavras complexas. 4. ( ) O redutor recebe linhas de entrada e conta o número de instâncias. Assinale a alternativa que apresenta a sequência correta.
V, V, F, F.
V, V, F, F.

Prévia do material em texto

20/06/2020 Revisar envio do teste: ATIVIDADE 2 (A2) – SIM1366 ...
https://uniritter.blackboard.com/webapps/assessment/review/review.jsp?attempt_id=_35815364_1&course_id=_582197_1&content_id=_1321497… 1/5
Pergunta 1
Resposta Selecionada: 
Resposta Correta: 
Feedback
da
resposta:
O Hadoop possui ferramentas que auxiliam nas mais diversas atividades, como serviços de
integração, serviços de armazenamento e de processamento e análise de dados. Dentro deste, temos
a ferramenta MapReduce, que tem a característica de realizar o processamento paralelo.
A respeito de programas MapReduce, analise as afirmativas a seguir e assinale Vpara a(s)
verdadeira(s) e
F para a(s) falsa(s).
 
1. ( ) O núcleo da classe do job é o método run().
2. ( ) O centro das ações são suas funções map() e reduce().
3. ( ) O método run() não permite alteração de parâmetros.
4. ( ) Raramente escreve-se um programa MapReduce do zero.
 
Assinale a alternativa que apresenta a sequência correta.
V, V, F, V.
V, V, F, V.
Resposta correta. A sequência está correta. A afirmativa I é verdadeira, pois o núcleo da
classe do job é o método run(), que é o responsável por executar um job do Hadoop
MapReduce. A afirmativa II está correta, pois o centro das ações em ambas as classes
são suas funçõesmap() e reduce(). A afirmativa IV é verdadeira, pois raramente escreve-
se um programa MapReduce do zero, existe um template principal que é modificado para
que atenda as especificações do novo programa.
Pergunta 2
Resposta Selecionada: 
Resposta Correta: 
Feedback
da
resposta:
O Hadoop Streaming é uma API genérica e permite escrever mapeadores e redutores. Em qualquer
trabalho do MapReduce, temos entrada e saída como pares de chave/valor. O mesmo conceito é
verdadeiro para a API Streaming, onde entrada e saída são sempre representadas como texto.
Considerando o exposto, para executar o job no Hadoop Cluster , podemos usar a API de Streaming, 
que possui as funções:
 
Stdin e Stdout.
Stdin e Stdout.
Resposta correta. A alternativa está correta, pois para executar o job noHadoop Cluster,
podemos usar a API de Streaming para que os dados possam ser transmitidos entre
o Mapper e o Reducer usando stdin estdout. Depois que o trabalho for concluído, caso
não apresente lançamento de exceções ou erros, será visto um log do console com a
última linha mencionando o caminho em que a saída do job está armazenada.
Pergunta 3
A respeito do Hadoop Streaming , da Apache Foundation, independente da linguagem a ser utilizada,
alguns pré-requisitos precisam ser respeitados como forma de organizar o ambiente antes da
execução dos scripts iniciais. Esses pré-requisitos, aplicados de forma correta, facilitam a utilização da
ferramenta. 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 
 
1. A tarefa redutora converte pares de linhas alimentando a entrada do processo reduce.
Pois:
2. O redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processo stdout.
 
1 em 1 pontos
1 em 1 pontos
0 em 1 pontos
20/06/2020 Revisar envio do teste: ATIVIDADE 2 (A2) – SIM1366 ...
https://uniritter.blackboard.com/webapps/assessment/review/review.jsp?attempt_id=_35815364_1&course_id=_582197_1&content_id=_1321497… 2/5
Resposta
Selecionada:
Resposta Correta:
Feedback
da
resposta:
A seguir, assinale a alternativa correta.
 
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa
correta da I.
A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
Sua resposta está incorreta. A alternativa está incorreta, pois a asserção I é uma
proposição incorreta, pois à medida que a tarefa redutora é executada, ela converte seus
pares de chave-valores de entrada em linhas e alimenta as linhas para a entrada do
processo Reduce.
Pergunta 4
Resposta Selecionada:
Resposta Correta:
Feedback
da
resposta:
Uma das ferramentas do framework 
da Apache é o Hadoop Streaming . Este utilitário ajuda a criar e executar tarefas específicas do
MadReduce com um executável e também a reduzir trabalhos. O Hadoop Streaming possui em sua
composição um mapeador e um redutor, com suas funções map() e reduce(), respectivamente.
 Sobre o mapeador e redutor do Hadoop Streaming, é correto afirmar que:
 
após ser executado, o redutor pega o stdin e converte em chave-valores.
o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout.
Sua resposta está incorreta. A alternativa está incorreta, pois na inicialização de cada
tarefa Map ou Reduce, um novo processo será iniciado com o executável
correspondente. Após a execução do redutor, ele novamente pega a linha de stdout 
e a converte no par de chave-valores a ser passado como o resultado final. A tarefa do
mapeador pega a entrada linha por linha e alimenta as linhas para o stdin 
do executável do mapeador. O redutor pega o par de chave-valores e o converte em
linhas, alimentando o executável do redutor usando stdin.
Pergunta 5
Resposta
Selecionada:
Resposta Correta:
Feedback
da
resposta:
O Hadoop Streaming possui algumas características ao ser executado, como, por exemplo, funções
chamadas mapeador (map()) e o redutor (reduce()), que precisam ser executáveis e devem poder ler
as entradas chamadas stdin , linha por linha, e emitir a saída chamada stdout . 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 
 
1. O Hadoop Streaming armazena os dados gerando um conjunto de pares chave-valor.
 Pois:
2. Uma chave representa unicamente cada valor associado.
 
A seguir, assinale a alternativa correta.
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta
da asserção I.
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta
da asserção I.
Resposta correta. A alternativa está correta, pois a asserção I é uma proposição
verdadeira, visto que esse modelo armazena os dados gerando um conjunto de pares
chave-valor, onde cada chave funciona como identificador exclusivo. A asserção II
também é verdadeira e justifica a I, pois uma chave representa unicamente cada valor
associado, algo semelhante ao conceito de chave primária em bancos de dados no
modelo Relacional.
0 em 1 pontos
1 em 1 pontos
20/06/2020 Revisar envio do teste: ATIVIDADE 2 (A2) – SIM1366 ...
https://uniritter.blackboard.com/webapps/assessment/review/review.jsp?attempt_id=_35815364_1&course_id=_582197_1&content_id=_1321497… 3/5
Pergunta 6
Resposta
Selecionada:
Resposta Correta:
Feedback
da
resposta:
O Hadoop, da Apache Foundation, é um Framework destinado ao processamento e armazenamento
de grandes dados, que possui um modelo de processamento conhecido como MapReduce. Por ter a
característica de manipular grandes volumes de dados, é muito utilizado no Big Data. 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas.
 
1. No MapReduce, dados são transmitidos utilizando o stdin e stdout.
 Pois:
2. Caso não haja erros no trabalho, será apresentado um log do console.
 
A seguir, assinale a alternativa correta.
 
As asserções I e II são proposições verdadeiras, e a II é uma justificativa
correta da I.
As asserções I e II são proposições verdadeiras, e a II é uma justificativa
correta da I.
Resposta correta. A alternativa está correta, pois a asserção I é uma proposição
verdadeira, uma vez que para executar o job 
no Hadoop Cluster, podemos usar a API de Streaming para que os dados possam ser
transmitidos entre o Mapper e o Reducer usandostdin 
e stdout. A asserção II também é verdadeira e justifica/complementa a I, pois depois
que o trabalho for concluído, caso não apresente lançamento de exceções ou erros, será
visto um log do console com a última linha mencionando o caminho em que a saída
do job 
está armazenada.
Pergunta 7
Resposta Selecionada: 
Resposta Correta: 
Feedback
da
resposta:
O Hadoop Streaming faz parte dos componentes da ferramenta Hadoop,do projeto Apache Hadoop. É
um utilitário que permite ao MapReduce, e às suas funções map() e reduce(), realizar a codificação em
qualquer linguagem de programação, como por exemplo, a C, C++, Python e outros.
Sobre o Hadoop Streaming, assinale a alternativa que representa a sua principal função.
 
Desenvolver executáveis.
Desenvolver executáveis.
Resposta correta. A alternativa está correta, pois o Hadoop é uma das ferramentas
do framework 
da Apache, denominada Hadoop Streaming. De maneira simples, oHadoop Streaming é
um utilitário que acompanha o Hadoop e permite que você desenvolva executáveis
do MapReduce em linguagens diferentes de Java.
Pergunta 8
O Hadoop, ao contrário do que as pessoas acham, não é um tipo de banco de dados. Ele é formado
por diversos softwares com um sistema de arquivos conhecido como Hadoop Distributed Files System.
Como características podemos destacar que é tolerante a falhas e possui escalabilidade. Dentre as
ferramentas existentes, podemos destacar a Hadoop Streaming.
Considerando o trecho apresentado e as características da ferramenta Hadoop Streaming, analise as
afirmativas a seguir:
 
1 em 1 pontos
1 em 1 pontos
1 em 1 pontos
20/06/2020 Revisar envio do teste: ATIVIDADE 2 (A2) – SIM1366 ...
https://uniritter.blackboard.com/webapps/assessment/review/review.jsp?attempt_id=_35815364_1&course_id=_582197_1&content_id=_1321497… 4/5
Resposta Selecionada: 
Resposta Correta: 
Feedback
da
resposta:
1. O Hadoop Streaming é um utilitário que dá aos usuários a possibilidade de escrever
tarefas MapReduce.
2. Conforme a tarefa do Reduce é executada, ela converte suas entradas em linhas e alimenta a
entrada do processo em stdout.
3. No MapReduce o texto nas linhas até a primeira guia é considerado a chave e o restante da
linha o valor.
4. Depois de executado, as linhas do stdin são obtidas pelo mapeador e convertidas em um outro
tipo de linhas maiores.
 
Está correto o que se afirma em:
I e III, apenas.
I e III, apenas.
Resposta correta. A alternativa está correta, pois a afirmativa I é verdadeira, sendo que
o Hadoop Streaming é apenas um utilitário fornecido pela distribuição Hadoop
MapReduce que dá aos usuários a possibilidade de escrever tarefas MapReduce em
outras linguagens de programação além do Java, como Python, 
por exemplo. A afirmativa III está correta, pois no MapReduce, por padrão, o texto nas
linhas até a primeira guia será considerado a chave e o restante da linha como valor.
Caso não exista caractere de tabulação presente na linha, a linha inteira será usada
como a chave e o valor será nulo.
Pergunta 9
Resposta Selecionada: 
Resposta Correta: 
Feedback
da
resposta:
O Hadoop é um framework que pode ser utilizado em diversas linguagens, como, por exemplo, Java e
Python. No framework há ferramentas importantes, podemos citar o MapReduce, que contém um
mapeador e uma redutor. Um exemplo muito utilizado para expor o funcionamento do MapReduce é
por meio de um contador de palavras.
 
A respeito deste exemplo do contador de palavras, analise as afirmativas a seguir e assinale V para
a(s) verdadeira(s) e F para a(s) falsa(s).
 
1. ( ) É utilizado o stdin e stdout para ler e gravar dados.
2. ( ) O redutor gera palavra como chave e número de contagens como valor.
3. ( ) A função Mapper divide chave-valores em palavras complexas.
4. ( ) O redutor recebe linhas de entrada e conta o número de instâncias.
 
Assinale a alternativa que apresenta a sequência correta.
V, V, F, F.
V, V, F, F.
Resposta correta. A sequência está correta. A afirmativa I é verdadeira, pois no exemplo
é utilizado o sys.stdin e sys.stdout em Python para ler os dados e gravar os dados de
saída, o restante será tratado peloStreaming API em si. A afirmativa II é verdadeira, pois
o redutor recebeu a entrada como o par chave-valor e conta o número de instâncias de
uma palavra específica no texto de entrada fornecido, gerando os pares de chave-valores
com a palavra como chave e o número de contagens como o valor.
Pergunta 10
O framework Hadoop, da Apache Foundation, pode ser utilizado em diversas linguagens, incluindo o
Python. Dentro do Hadoop, temos a ferramenta MapReduce, composta por duas funções, sendo um
mapeador, chamado de Mapper, e um redutor, chamado de Reduce.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas.
 
1. No Python, a função Mapper lerá linhas a partir de uma função chamada stdin.
1 em 1 pontos
1 em 1 pontos
20/06/2020 Revisar envio do teste: ATIVIDADE 2 (A2) – SIM1366 ...
https://uniritter.blackboard.com/webapps/assessment/review/review.jsp?attempt_id=_35815364_1&course_id=_582197_1&content_id=_1321497… 5/5
Resposta
Selecionada:
Resposta Correta:
Feedback
da
resposta:
 Pois:
2. A função Mapper produzirá uma palavra chave-valor a partir da divisão das linhas lidas.
 
A seguir, assinale a alternativa correta.
 
As asserções I e II são proposições verdadeiras, e a II é uma justificativa
correta da I.
As asserções I e II são proposições verdadeiras, e a II é uma justificativa
correta da I.
Resposta correta. A alternativa está correta, pois a asserção I é uma proposição
verdadeira, uma vez que a linguagem Python, utilizando o Hadoop, possui a função
Mapper que lerá a linha de stdin. A asserção II também é verdadeira e
justifica/complementa a I, pois após a leitura da linha, a função dividirá a linha nas
palavras individuais e produzirá a palavra como par chave-valor, com valor 1 e palavra
sendo a chave, por exemplo: <palavra, 1>

Mais conteúdos dessa disciplina