Buscar

A2 FRAMEWORKS PARA BIG DATA

Prévia do material em texto

 Pergunta 1 
1 em 1 pontos
	
	
	
	O MapReduce é uma ferramenta do framework Hadoop e possui as funções mapeador (Mapper) e redutor (Reduce). Na linguagem Python, por exemplo, estas funções utilizam stdin e stdout para realizar tarefas relacionadas a entrada e saída de dados. 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas.
  
I. O redutor lerá linhas e produzirá uma palavra chave-valor. 
            Pois: 
II. O redutor utiliza o stdin e soma a ocorrência de cada palavra. 
 
A seguir, assinale a alternativa correta.
  
	
	
	
	
		Resposta Selecionada: 
	
A asserção I é uma proposição falsa e a II é uma proposição verdadeira. 
	Resposta Correta: 
	
A asserção I é uma proposição falsa e a II é uma proposição verdadeira. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois a asserção II é uma proposição incorreta, uma vez que o redutor levará a entrada do mapper.py através do stdin. O redutor então soma a ocorrência de cada palavra e saída do arquivo saída, reduzida na forma de par de chave-valor, tendo a palavra específica como chave e o total de ocorrências da palavra como o valor. Por exemplo, <palavra, 5>. A tarefa Reduce é um pouco mais extensa, pois requer tratamento de dados que estão sendo recebidos. 
	
	
	
 Pergunta 2 
1 em 1 pontos
	
	
	
	O Hadoop, ao contrário do que as pessoas acham, não é um tipo de banco de dados. Ele é formado por diversos softwares com um sistema de arquivos conhecido como Hadoop Distributed Files System. Como características podemos destacar que é tolerante a falhas e possui escalabilidade. Dentre as ferramentas existentes, podemos destacar a Hadoop Streaming.
Considerando o trecho apresentado e as características da ferramenta Hadoop Streaming, analise as afirmativas a seguir:
  
I. O Hadoop Streaming é um utilitário que dá aos usuários a possibilidade de escrever tarefas MapReduce. 
II. Conforme a tarefa do Reduce é executada, ela converte suas entradas em linhas e alimenta a entrada do processo em stdout. 
III. No MapReduce o texto nas linhas até a primeira guia é considerado a chave e o restante da linha o valor. 
IV. Depois de executado, as linhas do stdin são obtidas pelo mapeador e convertidas em um outro tipo de linhas maiores. 
 
Está correto o que se afirma em: 
	
	
	
	
		Resposta Selecionada: 
	
I e III, apenas. 
	Resposta Correta: 
	
I e III, apenas. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois a afirmativa I é verdadeira, sendo que o Hadoop Streaming é apenas um utilitário fornecido pela distribuição Hadoop MapReduce que dá aos usuários a possibilidade de escrever tarefas MapReduce em outras linguagens de programação além do Java, como Python, 
por exemplo. A afirmativa III está correta, pois no MapReduce, por padrão, o texto nas linhas até a primeira guia será considerado a chave e o restante da linha como valor. Caso não exista caractere de tabulação presente na linha, a linha inteira será usada como a chave e o valor será nulo. 
	
	
	
 Pergunta 3 
1 em 1 pontos
	
	
	
	O Hadoop é um framework que pode ser utilizado em diversas linguagens, como, por exemplo, Java e Python. No framework há ferramentas importantes, podemos citar o MapReduce, que contém um mapeador e uma redutor. Um exemplo muito utilizado para expor o funcionamento do MapReduce é por meio de um contador de palavras.
 
A respeito deste exemplo do contador de palavras, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s).
  
I. (           ) É utilizado o stdin e stdout para ler e gravar dados. 
II. (           )  O redutor gera palavra como chave e número de contagens como valor. 
III. (           ) A função Mapper divide chave-valores em palavras complexas. 
IV. (           ) O redutor recebe linhas de entrada e conta o número de instâncias. 
  
Assinale a alternativa que apresenta a sequência correta. 
	
	
	
	
		Resposta Selecionada: 
	
V, V, F, F. 
	Resposta Correta: 
	
V, V, F, F. 
	Comentário da resposta: 
	Resposta correta.  A sequência está correta. A afirmativa I é verdadeira, pois no exemplo é utilizado o sys.stdin e sys.stdout em Python para ler os dados e gravar os dados de saída, o restante será tratado pelo Streaming API em si. A afirmativa II é verdadeira, pois o redutor recebeu a entrada como o par chave-valor e conta o número de instâncias de uma palavra específica no texto de entrada fornecido, gerando os pares de chave-valores com a palavra como chave e o número de contagens como o valor. 
	
	
	
 Pergunta 4 
1 em 1 pontos
	
	
	
	O Hadoop Streaming é utilizado para o consumo de dados em tempo real, sendo utilizando em diferentes aplicativos executados em tempo real. Existem diversos aplicativos que utilizam o streaming do Hadoop, como, por exemplo, boletins meteorológicos. Alguns destes aplicativos utilizam a linguagem Python.
Sobre o mapeador em Python, é correto afirmar que:
  
	
	
	
	
		Resposta Selecionada: 
	
lerá a linha de stdin, dividirá a linha nas palavras individuais e produzirá a palavra como par chave-valor. 
	Resposta Correta: 
	
lerá a linha de stdin, dividirá a linha nas palavras individuais e produzirá a palavra como par chave-valor. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois a função Mapper 
presente no Python lerá a linha de stdin (que realiza a entrada de dados), dividirá a linha nas palavras individuais e produzirá a palavra como par chave-valor com valor 1 e palavra como sendo a chave, por exemplo: <palavra, 1>. 
	
	
	
 Pergunta 5 
1 em 1 pontos
	
	
	
	O Hadoop Streaming possui algumas características ao ser executado, como, por exemplo, funções chamadas mapeador (map()) e o redutor (reduce()), que precisam ser executáveis ​​e devem poder ler as entradas chamadas stdin , linha por linha, e emitir a saída chamada stdout . 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas.  
  
I. O Hadoop Streaming armazena os dados gerando um conjunto de pares chave-valor. 
            Pois: 
II. Uma chave representa unicamente cada valor associado. 
 
A seguir, assinale a alternativa correta. 
	
	
	
	
		Resposta Selecionada: 
	
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da asserção I. 
	Resposta Correta: 
	
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da asserção I. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois a asserção I é uma proposição verdadeira, visto que esse modelo armazena os dados gerando um conjunto de pares chave-valor, onde cada chave funciona como identificador exclusivo. A asserção II também é verdadeira e justifica a I, pois uma chave representa unicamente cada valor associado, algo semelhante ao conceito de chave primária em bancos de dados no modelo Relacional. 
	
	
	
 Pergunta 6 
1 em 1 pontos
	
	
	
	A respeito do Hadoop Streaming , da Apache Foundation, independente da linguagem a ser utilizada, alguns pré-requisitos precisam ser respeitados como forma de organizar o ambiente antes da execução dos scripts iniciais. Esses pré-requisitos, aplicados de forma correta, facilitam a utilização da ferramenta. 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 
  
I. A tarefa redutora converte pares de linhas alimentando a entrada do processo reduce. 
Pois: 
II. O redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processo stdout. 
 
A seguir, assinale a alternativa correta.
  
	
	
	
	
		Resposta Selecionada: 
	
A asserção I é uma proposição falsa e a II é uma proposição verdadeira. 
	Resposta Correta: 
	
A asserção I é uma proposição falsa e a II é uma proposição verdadeira. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois a asserção II é uma proposição verdadeira, uma vez que o redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processostdout, convertendo cada linha em um par de chave-valor, que é coletado como a saída do redutor. 
	
	
	
 Pergunta 7 
1 em 1 pontos
	
	
	
	O Hadoop Streaming é uma API genérica e permite escrever mapeadores e redutores. Em qualquer trabalho do MapReduce, temos entrada e saída como pares de chave/valor. O mesmo conceito é verdadeiro para a API Streaming, onde entrada e saída são sempre representadas como texto.
Considerando o exposto, para executar o job no Hadoop Cluster , podemos usar a API de Streaming, 
que possui as funções:
  
	
	
	
	
		Resposta Selecionada: 
	
Stdin e Stdout. 
	Resposta Correta: 
	
Stdin e Stdout. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois para executar o job no Hadoop Cluster, podemos usar a API de Streaming para que os dados possam ser transmitidos entre o Mapper e o Reducer usando stdin e stdout. Depois que o trabalho for concluído, caso não apresente lançamento de exceções ou erros, será visto um log do console com a última linha mencionando o caminho em que a saída do job está armazenada. 
	
	
	
 Pergunta 8 
1 em 1 pontos
	
	
	
	Uma das ferramentas do framework 
da Apache é o Hadoop Streaming . Este utilitário ajuda a criar e executar tarefas específicas do MadReduce com um executável e também a reduzir trabalhos. O Hadoop Streaming possui em sua composição um mapeador e um redutor, com suas funções map() e reduce(), respectivamente.
 Sobre o mapeador e redutor do Hadoop Streaming, é correto afirmar que:
  
	
	
	
	
		Resposta Selecionada: 
	
o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout. 
	Resposta Correta: 
	
o mapeador e o redutor devem ler entradas stdin e emitir saídas stdout. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois para usar o Hadoop Streaming, o mapeador e o redutor precisam ser executáveis ​​e devem poder ler as entradas chamadas stdin, linha por linha, e emitir a saída chamada stdout. A API de streaming do Hadoop 
criará e enviará uma tarefa Map/Reduce a partir dos executáveis ​​definidos para o Mapper (mapeadores) e Reducers 
(redutores). 
	
	
	
 Pergunta 9 
1 em 1 pontos
	
	
	
	 Uma tarefa MapReduce, no Hadoop, divide o conjunto de dados de entrada em partes independentes que são processadas pelas tarefas de mapa de uma maneira completamente paralela. A estrutura classifica as sápidas dos mapas, que são inseridas nas tarefas de redução. 
A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 
  
I. A entrada e saída do trabalho são armazenados em um sistema de arquivos. 
Pois: 
II. A estrutura MapReduce e o Hadoop Distributed File System estão em execução no mesmo conjunto de nós. 
 
A seguir, assinale a alternativa correta.
  
	
	
	
	
		Resposta Selecionada: 
	
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. 
	Resposta Correta: 
	
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. 
	Comentário da resposta: 
	Resposta correta. A alternativa está correta, pois a asserção I é uma proposição verdadeira, visto que normalmente a entrada e a saída do trabalho são armazenadas em um sistema de arquivos. A estrutura cuida de agendar tarefas, monitorando-as e executando novamente as tarefas com falha. A asserção II também é verdadeira e justifica/complementa a I, pois normalmente os nós de computação e os de armazenamento são os mesmos, ou seja, a estrutura MapReduce e o Hadoop Distributed File System estão em execução no mesmo conjunto de nós. Isso permite que a estrutura agende tarefas nos nós em que os dados já estão presentes. 
	
	
	
 Pergunta 10 
0 em 1 pontos
	
	
	
	O Hadoop possui características como escalabilidade, consistência, tolerância a falhas e capacidade de recuperação. Essas características quando bem implementadas garantem uma boa arquitetura. A arquitetura do Hadoop é composta por elementos como: MapReduce, Spark, Streaming, Cluster e outros.
A respeito das características do Hadoop Streaming, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s). 
  
I. (           ) O modelo chave-valor é bastante empregado em bancos de dados não relacionais ou NoSQL. 
II. (           ) Quando um executável é especificado para reducers (redutores), as tarefas iniciam como um processo separado. 
III. (           ) Quando um executável é especificado para mapeadores, cada tarefa deve iniciar o redutor repetidamente. 
IV. (           ) Na sequência lógica do Hadoop Streaming, a tarefa do mapeador é pegar a entrada linha por linha. 
 
Assinale a alternativa que apresenta a sequência correta. 
	
	
	
	
		Resposta Selecionada: 
	
V, V, F, F. 
	Resposta Correta: 
	
V, V, F, V. 
	Comentário da resposta: 
	Sua resposta está incorreta. A sequência está incorreta. A afirmativa III é falsa, pois, de acordo com a própria documentação do Hadoop Streaming, quando um executável é especificado para mapeadores, cada tarefa do mapeador inicia o executável como um processo separado quando o mapeador é inicializado.

Continue navegando