Baixe o app para aproveitar ainda mais
Prévia do material em texto
Curso GRA0749 FRAMEWORKS PARA BIG DATA GR1170211 - 202110.ead-7447.05 Teste ATIVIDADE 2 (A2) Status Completada Resultado da tentativa 10 em 10 pontos Tempo decorrido 23 horas, 54 minutos Resultados exibidos Respostas enviadas, Respostas corretas, Comentários · Pergunta 1 1 em 1 pontos O Hadoop é um framework que pode ser utilizado em diversas linguagens, como, por exemplo, Java e Python. No framework há ferramentas importantes, podemos citar o MapReduce, que contém um mapeador e uma redutor. Um exemplo muito utilizado para expor o funcionamento do MapReduce é por meio de um contador de palavras. A respeito deste exemplo do contador de palavras, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s). 1. ( ) É utilizado o stdin e stdout para ler e gravar dados. 2. ( ) O redutor gera palavra como chave e número de contagens como valor. 3. ( ) A função Mapper divide chave-valores em palavras complexas. 4. ( ) O redutor recebe linhas de entrada e conta o número de instâncias. Assinale a alternativa que apresenta a sequência correta. Resposta Selecionada: V, V, F, F. Resposta Correta: V, V, F, F. Comentário da resposta: Resposta correta. A sequência está correta. A afirmativa I é verdadeira, pois no exemplo é utilizado o sys.stdin e sys.stdout em Python para ler os dados e gravar os dados de saída, o restante será tratado pelo Streaming API em si. A afirmativa II é verdadeira, pois o redutor recebeu a entrada como o par chave-valor e conta o número de instâncias de uma palavra específica no texto de entrada fornecido, gerando os pares de chave-valores com a palavra como chave e o número de contagens como o valor. · Pergunta 2 1 em 1 pontos O MapReduce é uma ferramenta do framework Hadoop e possui as funções mapeador (Mapper) e redutor (Reduce). Na linguagem Python, por exemplo, estas funções utilizam stdin e stdout para realizar tarefas relacionadas a entrada e saída de dados. A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 1. O redutor lerá linhas e produzirá uma palavra chave-valor. Pois: 2. O redutor utiliza o stdin e soma a ocorrência de cada palavra. A seguir, assinale a alternativa correta. Resposta Selecionada: A asserção I é uma proposição falsa e a II é uma proposição verdadeira. Resposta Correta: A asserção I é uma proposição falsa e a II é uma proposição verdadeira. Comentário da resposta: Resposta correta. A alternativa está correta, pois a asserção II é uma proposição incorreta, uma vez que o redutor levará a entrada do mapper.py através do stdin. O redutor então soma a ocorrência de cada palavra e saída do arquivo saída, reduzida na forma de par de chave-valor, tendo a palavra específica como chave e o total de ocorrências da palavra como o valor. Por exemplo, <palavra, 5>. A tarefa Reduce é um pouco mais extensa, pois requer tratamento de dados que estão sendo recebidos. 1. Pergunta 3 1 em 1 pontos O Hadoop Streaming possui duas fases, o mapeador e o redutor. Uma tarefa importante realizada é o teste do código para confirmação de funcionamento do mesmo. Esta é uma tarefa que não é muito complicada, mas exige que seja feita conforme a determinação de algumas etapas. Sobre o MapReduce, podemos afirmar corretamente que as etapas são: Resposta Selecionada: Código do Mapeador e Código do Redutor. Resposta Correta: Código do Mapeador e Código do Redutor. Comentário da resposta: Resposta correta. A alternativa está correta, pois uma etapa importante, antes de enviar o código Python como tarefa MapReduce para um cluster Hadoop, é o teste do código para confirmar se ele funciona como deveria. Podemos realizar os dois testes seguindo as seguintes etapas: Código do mapeador e Código do redutor. 1. Pergunta 4 1 em 1 pontos O Hadoop possui ferramentas que auxiliam nas mais diversas atividades, como serviços de integração, serviços de armazenamento e de processamento e análise de dados. Dentro deste, temos a ferramenta MapReduce, que tem a característica de realizar o processamento paralelo. A respeito de programas MapReduce, analise as afirmativas a seguir e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s). 4. ( ) O núcleo da classe do job é o método run(). 4. ( ) O centro das ações são suas funções map() e reduce(). 4. ( ) O método run() não permite alteração de parâmetros. 4. ( ) Raramente escreve-se um programa MapReduce do zero. Assinale a alternativa que apresenta a sequência correta. Resposta Selecionada: V, V, F, V. Resposta Correta: V, V, F, V. Comentário da resposta: Resposta correta. A sequência está correta. A afirmativa I é verdadeira, pois o núcleo da classe do job é o método run(), que é o responsável por executar um job do Hadoop MapReduce. A afirmativa II está correta, pois o centro das ações em ambas as classes são suas funções map() e reduce(). A afirmativa IV é verdadeira, pois raramente escreve-se um programa MapReduce do zero, existe um template principal que é modificado para que atenda as especificações do novo programa. 1. Pergunta 5 1 em 1 pontos O Hadoop Streaming é uma API genérica e permite escrever mapeadores e redutores. Em qualquer trabalho do MapReduce, temos entrada e saída como pares de chave/valor. O mesmo conceito é verdadeiro para a API Streaming, onde entrada e saída são sempre representadas como texto. Considerando o exposto, para executar o job no Hadoop Cluster , podemos usar a API de Streaming, que possui as funções: Resposta Selecionada: Stdin e Stdout. Resposta Correta: Stdin e Stdout. Comentário da resposta: Resposta correta. A alternativa está correta, pois para executar o job no Hadoop Cluster, podemos usar a API de Streaming para que os dados possam ser transmitidos entre o Mapper e o Reducer usando stdin e stdout. Depois que o trabalho for concluído, caso não apresente lançamento de exceções ou erros, será visto um log do console com a última linha mencionando o caminho em que a saída do job está armazenada. 1. Pergunta 6 1 em 1 pontos O Hadoop, da Apache Foundation, é um Framework destinado ao processamento e armazenamento de grandes dados, que possui um modelo de processamento conhecido como MapReduce. Por ter a característica de manipular grandes volumes de dados, é muito utilizado no Big Data. A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 6. No MapReduce, dados são transmitidos utilizando o stdin e stdout. Pois: 6. Caso não haja erros no trabalho, será apresentado um log do console. A seguir, assinale a alternativa correta. Resposta Selecionada: As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. Resposta Correta: As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. Comentário da resposta: Resposta correta. A alternativa está correta, pois a asserção I é uma proposição verdadeira, uma vez que para executar o job no Hadoop Cluster, podemos usar a API de Streaming para que os dados possam ser transmitidos entre o Mapper e o Reducer usando stdin e stdout. A asserção II também é verdadeira e justifica/complementa a I, pois depois que o trabalho for concluído, caso não apresente lançamento de exceções ou erros, será visto um log do console com a última linha mencionando o caminho em que a saída do job está armazenada. 1. Pergunta 7 1 em 1 pontos O Big Data está ligado ao volume de dados a ser processado e analisado. Este possui um projeto, chamado de Hadoop, que possibilita a realização do processamento de grandes volumes. Dentro do Hadoop temos o MapReduce, uma importante ferramenta no processamento paralelo. A partir do apresentado,analise as asserções a seguir e a relação proposta entre elas. 7. Uma etapa importante é a realização de teste do código. Pois: 7. Temos que garantir que o código funcione bem. A seguir, assinale a alternativa correta. Resposta Selecionada: As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. Resposta Correta: As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. Comentário da resposta: Resposta correta. A alternativa está correta, pois a asserção I é uma proposição verdadeira, visto que antes de enviar um código Python como tarefa MapReduce para um cluster Hadoop, é importante realizar o texto do código para confirmar se ele funciona como deveria. A asserção II também é verdadeira e justifica/complementa a I, pois é fácil garantir que o código funcione bem com um pequeno texto de entrada antes de enviar para o clister analisar grande quantidade de dados. 1. Pergunta 8 1 em 1 pontos O framework Hadoop, da Apache Foundation, pode ser utilizado em diversas linguagens, incluindo o Python. Dentro do Hadoop, temos a ferramenta MapReduce, composta por duas funções, sendo um mapeador, chamado de Mapper, e um redutor, chamado de Reduce. A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 8. No Python, a função Mapper lerá linhas a partir de uma função chamada stdin. Pois: 8. A função Mapper produzirá uma palavra chave-valor a partir da divisão das linhas lidas. A seguir, assinale a alternativa correta. Resposta Selecionada: As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. Resposta Correta: As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I. Comentário da resposta: Resposta correta. A alternativa está correta, pois a asserção I é uma proposição verdadeira, uma vez que a linguagem Python, utilizando o Hadoop, possui a função Mapper que lerá a linha de stdin. A asserção II também é verdadeira e justifica/complementa a I, pois após a leitura da linha, a função dividirá a linha nas palavras individuais e produzirá a palavra como par chave-valor, com valor 1 e palavra sendo a chave, por exemplo: <palavra, 1> 1. Pergunta 9 1 em 1 pontos A respeito do Hadoop Streaming , da Apache Foundation, independente da linguagem a ser utilizada, alguns pré-requisitos precisam ser respeitados como forma de organizar o ambiente antes da execução dos scripts iniciais. Esses pré-requisitos, aplicados de forma correta, facilitam a utilização da ferramenta. A partir do apresentado, analise as asserções a seguir e a relação proposta entre elas. 9. A tarefa redutora converte pares de linhas alimentando a entrada do processo reduce. Pois: 9. O redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processo stdout. A seguir, assinale a alternativa correta. Resposta Selecionada: A asserção I é uma proposição falsa e a II é uma proposição verdadeira. Resposta Correta: A asserção I é uma proposição falsa e a II é uma proposição verdadeira. Comentário da resposta: Resposta correta. A alternativa está correta, pois a asserção II é uma proposição verdadeira, uma vez que o redutor coleta as saídas orientadas linha a linha a partir da saída padrão do processo stdout, convertendo cada linha em um par de chave-valor, que é coletado como a saída do redutor. 1. Pergunta 10 1 em 1 pontos O Hadoop Streaming, do projeto Apache Hadoop, é um utilitário que permite ao usuário criar e executar trabalhos a partir de um arquivo executável, ou, ainda, por meio de um script, conforme o mapa ou redutor, pois são essas as duas fases/funções existentes na ferramenta. Sobre o redutor em Python, é correto afirmar que: Resposta Selecionada: somará a ocorrência de cada palavra e saída do arquivo saída, reduzindo na forma de par de chave-valor. Resposta Correta: somará a ocorrência de cada palavra e saída do arquivo saída, reduzindo na forma de par de chave-valor. Comentário da resposta: Resposta correta. A alternativa está correta, pois o Redutor levará a entrada do mapper.py através do stdin. O Redutor então soma a ocorrência de cada palavra e saída do arquivo saída, reduzida na forma de par de chave-valor, tendo a palavra específica como chave e o total de ocorrências da palavra como o valor. Por exemplo, <palavra, 5>. A tarefa Reduce é um pouco mais extensa, pois requer tratamento de dados que estão sendo recebidos.
Compartilhar