Baixe o app para aproveitar ainda mais
Prévia do material em texto
27/11/2020 EPS: AulaPós https://aulapos.estacio.br/aulapos/ 1/3 1a Questão RDD suporta dois tipos de operações: Definidas e Indefinidas Transformação e Ação Aritméticas e Lógicas Soma e Subtração Anônimas e Nomeadas 2a Questão Elementos RDD suportam dois tipos de operações específicas, sendo um dos grupos constituído por operações de transformação. Qual das opções abaixo apresenta apenas operações de transformação? collect, count, first first, foreach, reduce flatMap, collect, reduce map, filter, collect flatMap, groupByKey, reduceByKey 3a Questão No HBase, uma região é... Uma área de controle onde só podem existir dados de configuração O espaço onde o HBase é executado O mesmo que uma tabela Uma partição horizontal de uma tabela Um tipo de tabela especial de formação 4a Questão Os dados de uma base de nome "origem.dat" deve ser carregada para posterior processamento por Pig. Os dados de seus campos são separados por um caractere de tabulação. Em Pig, quem especifica o caractere de delimitação na execução de LOAD é: FILTER USING DUMP PigStorage INTO 5a Questão Desenvolvido em 2009 pela Universidade da Califórnia e, hoje, um projeto da Apache Software Foundation, Spark é uma ferramenta big data que apresenta um desempenho bem maior do que o apresentado por Hadoop. Qual das opções seguintes NÃO representa uma característica do Spark? Utiliza um mecanismo de DAG avançado, que permite, partindo-se de um nó A para um nó B, o retorno ao nó A. 27/11/2020 EPS: AulaPós https://aulapos.estacio.br/aulapos/ 2/3 Processa grandes massas de dados de forma paralela e distribuída. Realiza operações MapReduce (Spark Core) e consultas SQL (SparkSQL). Pode ser cem vezes mais rápido que o Hadoop para operações em memória. Permite encadear uma sequência de estágios (pipeline). 6a Questão Uma _______ não utiliza a palavra-chave new. Qual opção completa corretamente a lacuna acima? def class case class var val 7a Questão Um arquivo possui como separador de campos o caractere ponto e vírgula (;). Então, o comando CREATE deve utilizar: lines terminated by '\n' LINES TERMINATED BY ';' fields terminated by ';' fields terminated by '\n' FIELDS TERMINATED BY ',' 8a Questão Principal abstração fornecida por Spark: RDD Map Driver Reduce Executor 9a Questão A execução de ambari-admin-password-reset tem por objetivo: Redefinir a senha do usuário "admin" do Ambari Apagar (reset) dados de processamento do Ambari via usuário "admin" Redefinir todas as senhas (password) de todos os usuários do Ambari Excluir os metadados do usuário "admin" do Ambari Chamar a rotina de exclusão de senhas (password reset) de usuários 10a Questão 27/11/2020 EPS: AulaPós https://aulapos.estacio.br/aulapos/ 3/3 Por que é necessário prover um esquema para carregar os dados do HDFS para uma tabela do Hive? Porque Hive não analisa dados estruturados Porque Hive só analisa dados semiestruturados Porque Hive analisa dados estruturados Porque Hive analisa dados não estruturados Não é necessário fornecer esquema algum para Hive
Compartilhar