Prévia do material em texto
PRÁTICA E LABORATÓRIO I Aluno: Professor: ALFREDO NAZARENO PEREIRA BOENTE DENIS GONCALVES COPLE Turma: 9001/AA Avaliação: 10,00 Nota Trab.: Nota Partic.: Nota SIA: 10,0 pts 1. Ref.: 1039174 Pontos: 1,00 / 1,00 Após o processamento por "map", os dados são: Entregues para processamento por "reduce". Enviados para Hadoop, para que haja a execução de "shuffle" e "sort" sobre os mesmos. Salvos no sistema de arquivos local. Excluídos, pois o HDFS é uma área nobre, e não pode ter sobrecarga de armazenamento. Armazenados no HDFS Respondido em 02/09/2021 21:04:55 2. Ref.: 1106187 Pontos: 1,00 / 1,00 Em Zeppelin, interpretadores são plug-ins que habilitam o uso de linguagem/processamento de dados específico. Qual interpretador é necessário para executar código Scala em Zeppelin? hive csh sh spark note Respondido em 02/09/2021 21:02:45 3. Ref.: 1106124 Pontos: 1,00 / 1,00 A ferramenta de linha de comando do HBase permite a execução de diversos comandos para a manutenção e consulta aos dados. Para exibir o conteúdo de uma tabela deverá ser utilizado o comando: describe put javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201039174.'); javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201106187.'); javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201106124.'); scan truncate list Respondido em 02/09/2021 21:05:01 4. Ref.: 1051894 Pontos: 1,00 / 1,00 Desenvolvido em 2009 pela Universidade da Califórnia e, hoje, um projeto da Apache Software Foundation, Spark é uma ferramenta big data que apresenta um desempenho bem maior do que o apresentado por Hadoop. Qual das opções seguintes NÃO representa uma característica do Spark? Processa grandes massas de dados de forma paralela e distribuída. Realiza operações MapReduce (Spark Core) e consultas SQL (SparkSQL). Pode ser cem vezes mais rápido que o Hadoop para operações em memória. Permite encadear uma sequência de estágios (pipeline). Utiliza um mecanismo de DAG avançado, que permite, partindo-se de um nó A para um nó B, o retorno ao nó A. Respondido em 02/09/2021 21:05:42 5. Ref.: 1039203 Pontos: 1,00 / 1,00 Principal abstração fornecida por Spark: RDD Reduce Executor Driver Map Respondido em 02/09/2021 21:06:41 6. Ref.: 1039198 Pontos: 1,00 / 1,00 Na expressão: val linha = s"Resultado = $raiz" "s" é: javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201051894.'); javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201039203.'); javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201039198.'); Um interpolador Um erro de sintaxe Uma variável Um indicador de início de operação aritmética Um erro de digitação Respondido em 02/09/2021 21:05:17 7. Ref.: 1051897 Pontos: 1,00 / 1,00 Apache Hive foi desenvolvido pelo Facebook para funcionar como data warehouse sobre o sistema Hadoop/HDFS (WHITE, 2015). De forma similar ao Pig, torna mais fácil a análise de dados armazenados em HDFS, devido ao uso de uma linguagem declarativa denominada HiveQL. Assinale a informação INCORRETA acerca do HiveQL: A linguagem não suporta operações de UPDATE. É necessário um schema para a carga de dados do HDFS. As operações de DELETE são suportadas pelo HiveQL. É uma linguagem declarativa. Não importa se a digitação se dará em caixa baixa ou alta, a não ser nos casos de comparação entre strings. Respondido em 02/09/2021 21:07:32 8. Ref.: 1039183 Pontos: 1,00 / 1,00 Os dados de uma base de nome "origem.dat" deve ser carregada para posterior processamento por Pig. Os dados de seus campos são separados por um caractere de tabulação. Em Pig, quem especifica o caractere de delimitação na execução de LOAD é: DUMP PigStorage USING INTO FILTER Respondido em 02/09/2021 21:05:53 9. Ref.: 1039194 Pontos: 1,00 / 1,00 O modelo de dados de HBase é: javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201051897.'); javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201039183.'); javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201039194.'); Orientado a linhas Orientado a famílias de registros Orientado a famílias de colunas Orientado a famílias de linhas Orientado a registros Respondido em 02/09/2021 21:15:40 10. Ref.: 1039172 Pontos: 1,00 / 1,00 A execução de ambari-admin-password-reset tem por objetivo: Excluir os metadados do usuário "admin" do Ambari Redefinir a senha do usuário "admin" do Ambari Redefinir todas as senhas (password) de todos os usuários do Ambari Apagar (reset) dados de processamento do Ambari via usuário "admin" Chamar a rotina de exclusão de senhas (password reset) de usuários Respondido em 02/09/2021 21:07:56 javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%201039172.');