Buscar

PROVA PRÁTICA E LABORATÓRIO I

Prévia do material em texto

27/11/2020 EPS: AulaPós
https://aulapos.estacio.br/aulapos/ 1/3
 1a Questão
RDD suporta dois tipos de operações:
Definidas e Indefinidas
Transformação e Ação
Aritméticas e Lógicas
Soma e Subtração
Anônimas e Nomeadas
 2a Questão
Elementos RDD suportam dois tipos de operações específicas, sendo um dos grupos constituído por operações de
transformação. Qual das opções abaixo apresenta apenas operações de transformação?
collect, count, first
first, foreach, reduce
flatMap, collect, reduce
map, filter, collect
flatMap, groupByKey, reduceByKey
 3a Questão
No HBase, uma região é...
Uma área de controle onde só podem existir dados de configuração
O espaço onde o HBase é executado
O mesmo que uma tabela
Uma partição horizontal de uma tabela
Um tipo de tabela especial de formação
 4a Questão
Os dados de uma base de nome "origem.dat" deve ser carregada para posterior processamento por Pig. Os dados
de seus campos são separados por um caractere de tabulação. Em Pig, quem especifica o caractere de delimitação
na execução de LOAD é:
FILTER
USING
DUMP
PigStorage
INTO
 5a Questão
Desenvolvido em 2009 pela Universidade da Califórnia e, hoje, um projeto da Apache Software Foundation, Spark é
uma ferramenta big data que apresenta um desempenho bem maior do que o apresentado por Hadoop. Qual das
opções seguintes NÃO representa uma característica do Spark?
Utiliza um mecanismo de DAG avançado, que permite, partindo-se de um nó A para um nó B, o retorno ao
nó A.
27/11/2020 EPS: AulaPós
https://aulapos.estacio.br/aulapos/ 2/3
Processa grandes massas de dados de forma paralela e distribuída.
Realiza operações MapReduce (Spark Core) e consultas SQL (SparkSQL).
Pode ser cem vezes mais rápido que o Hadoop para operações em memória.
Permite encadear uma sequência de estágios (pipeline).
 6a Questão
Uma _______ não utiliza a palavra-chave new. 
Qual opção completa corretamente a lacuna acima?
def
class
case class
var
val
 7a Questão
Um arquivo possui como separador de campos o caractere ponto e vírgula (;). Então, o comando CREATE deve
utilizar:
lines terminated by '\n'
LINES TERMINATED BY ';'
fields terminated by ';'
fields terminated by '\n'
FIELDS TERMINATED BY ','
 8a Questão
Principal abstração fornecida por Spark:
RDD
Map
Driver
Reduce
Executor
 9a Questão
A execução de ambari-admin-password-reset tem por objetivo:
Redefinir a senha do usuário "admin" do Ambari
Apagar (reset) dados de processamento do Ambari via usuário "admin"
Redefinir todas as senhas (password) de todos os usuários do Ambari
Excluir os metadados do usuário "admin" do Ambari
Chamar a rotina de exclusão de senhas (password reset) de usuários
 10a Questão
27/11/2020 EPS: AulaPós
https://aulapos.estacio.br/aulapos/ 3/3
Por que é necessário prover um esquema para carregar os dados do HDFS para uma tabela do Hive?
Porque Hive não analisa dados estruturados
Porque Hive só analisa dados semiestruturados
Porque Hive analisa dados estruturados
Porque Hive analisa dados não estruturados
Não é necessário fornecer esquema algum para Hive

Continue navegando