Prévia do material em texto
Disciplina: TÓPICOS DE BIG DATA EM PYTHON AV
02260 - ANÁLISE DE DADOS EM PYTHON COM PANDAS
1. Ref.: 6076630 Pontos: 0,00 / 1,00
No contexto de Coleta de Dados, o que podemos afirmar sobre Dados Primários:
I - São dados obtidos em primeira mão pelo cientista de dados ou pelo analista de dados
II - São dados que precisam ser pré-processados para análise, e serão feitos exclusivamente no primeiro momento pelo dono
dos dados, o analista em questão
III - São obtidos através de softwares de monitoramento de logs, surveys, e bancos de dados
Analise as frases listadas e assinale a alternativa correta.
Apenas a opção I.
As opções I, II, e III estão corretas.
Apenas as opções I e III.
Apenas a opção II.
Apenas as opções II e III.
2. Ref.: 6076628 Pontos: 0,00 / 1,00
O seguinte constructo da linguagem Python representa o condicional simples:
if
else
while
with
for
02318 - BIG DATA ANALYTICS
3. Ref.: 6075830 Pontos: 1,00 / 1,00
O boom da IA se deve ao surgimento de novas tecnologias e dispositivos que por estarem sempre conectados produzem uma
quantidade enorme de dados. Estes dados que alimentam os modelos de aprendizado de máquina também são conhecidos
como:
Conhecimento.
Big Data.
Observações.
Informações.
Dados Faltantes.
4. Ref.: 6075828 Pontos: 1,00 / 1,00
Os modelos simbólicos são aqueles que:
Se baseiam em táticas de agrupamento por similaridade
São aqueles que só lidam com problemas categóricos
São aqueles que lidam apenas com problemas numéricos
Se baseiam estritamente em dados e inferências estatísticas em cima deles
Se baseiam em lógica e regras de inferência para aprender e raciocinar
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206076630.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206076628.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206075830.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206075828.');
02508 - HADOOP E ARMAZENAMENTO DE DADOS
5. Ref.: 6076140 Pontos: 0,00 / 1,00
Em relação à fase de mapeamento do Hadoop, selecione a opção correta que apresenta o responsável pela geração de
fragmento para os componentes da fase de redução.
Leitor de registros.
Redutor.
Mapeador.
Combinador.
Particionador.
6. Ref.: 6076199 Pontos: 0,00 / 1,00
O sistema de arquivos distribuídos do Hadoop, conhecido como HDFS, foi idealizado para trabalhar com grandes volumes de
dados. Selecione a opção correta que apresenta o paradigma como o HDFS funciona.
Distribuído e distribuído.
Centralizado e distribuído.
Centralizado e centralizado.
Mestre e escravo.
Distribuído e centralizado.
02727 - PRINCÍPIOS DE BIG DATA
7. Ref.: 6067292 Pontos: 0,00 / 1,00
Em relação à Internet das coisas, selecione a opção correta que relaciona os dispositivos com aos servidores de aplicação.
Nuvem
Redes locais
Tecnologia proprietária
Servidores de banco de dados
Dispositivos de recepção
8. Ref.: 6067455 Pontos: 0,00 / 1,00
Em relação às redes de Internet das coisas, selecione a opção correta que relaciona os dispositivos entre si.
São um relacionamento máquina a máquina
São redes locais
São um conjunto de sinais
É uma conexão rede a rede
São interconectados entre si
02729 - PRINCIPIOS DE DESENVOLVIMENTO DE SPARK COM PYTHON
9. Ref.: 6076005 Pontos: 0,00 / 1,00
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206076140.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206076199.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206067292.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206067455.');
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206076005.');
As bibliotecas são coleções de subprogramas utilizados no desenvolvimento de softwares. Selecione a opção correta que
contém o componente do ecossistema do Spark responsável por realizar operações paralelas em grafos.
MLlib
Spark Core
RDDs
Spark Streaming
GraphX
10. Ref.: 6076009 Pontos: 0,00 / 1,00
A biblioteca Pandas é amplamente utilizada para manipular dados heterogêneos, situação recorrente para aplicações de Big
Data. Nesse sentido, selecione a opção que contém a estrutura de dados que possibilita o Cientista de dados atribuir nome
para as colunas.
DataFrame
SQL
numpy.array
RDD
PySpark
javascript:alert('C%C3%B3digo%20da%20quest%C3%A3o:%206076009.');