Buscar

TÓPICOS DE BIG DATA EM PYTHON

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Simulado AV
Teste seu conhecimento acumulado
Disc.: TÓPICOS DE BIG DATA EM PYTHON 
Acertos: 10,0 de 10,0 06/04/2022
Acerto: 1,0 / 1,0
Em relação aos desafios do processamento de fluxo de dados, selecione a opção correta.
Garantir a qualidade dos dados através de ferramentas de controle que não aceitem qualquer
inconsistência.
Aplicar recursos de redundância no projeto para reduzir a volatilidade dos dados.
Dimensionar o projeto logo no início para evitar a necessidade de expansão posteriormente.
Garantir a consistência da informação através da ordenação dos dados.
Usar algoritmos de criptografia nos dados para evitar o acesso indevido.
Respondido em 06/04/2022 16:22:20
Explicação:
Nas aplicações de streaming de dados, dificilmente não vai ocorrer alguma inconsistência, pois, normalmente,
elas estão contextualizadas em ambientes dinâmicos. Portanto, deve-se ordenar os dados para manter a
consistência dos dados e, além disso, o sistema deve ter uma tolerância a falhas sendo capaz de operar ainda
que haja problemas, desde que estejam dentro de um patamar de qualidade pré-estabelecido.
Acerto: 1,0 / 1,0
Em relação ao protocolo de transporte para transmissão de aplicações de streaming, selecione a opção correta.
MQTT
HTTP
TCP
CoAP
UDP
Respondido em 06/04/2022 16:22:28
Explicação:
O protocolo UDP - protocolo de datagrama do usuário - é utilizado para aplicações de streaming por ser mais
rápido. O protocolo TCP é orientado à confiabilidade e, no caso de aplicações de streaming, ele é muito lento
inviabilizando a aplicação. Os protocolos HTTP, MQTT e CoAP não se enquadram no transporte de dados.
Questão1
a
Questão2
a
https://simulado.estacio.br/alunos/inicio.asp
javascript:voltar();
 
Acerto: 1,0 / 1,0
Selecione a opção que indica o processo responsável por executar uma tarefa atribuída a ele pelo Job Tracker.
Job Tracker Slave
MapTracker
MapReduce
 Task Tracker
MapJob
Respondido em 06/04/2022 16:23:43
 
 
Explicação:
O JobTracker envia as informações necessárias para a execução de uma tarefa para o TaskTracker que, por sua
vez, executa a tarefa e envia os resultados de volta para JobTracker, além de fazer o seu rastreamento.
 
 
Acerto: 1,0 / 1,0
Em relação as fases do Hadoop, selecione a opção correta que apresenta o componente responsável pela
geração de pares intermediários de valor e chave.
Redução
 Embaralhamento
Agrupamento
Combinação
Gravação da saída
Respondido em 06/04/2022 16:23:50
 
 
Explicação:
Através do processo de embaralhamento, também conhecido pelo termo em inglês "shuffling", o mecanismo
MapReduce faz a geração de pares intermediários de valor e chave que são transferidos para a fase de redução,
o que é realizado em paralelo com outras tarefas da fase de mapeamento.
 
 
Acerto: 1,0 / 1,0
Selecione a opção correta que contenha a operação responsável por retornar um subconjunto aleatório dos
dados de entrada.
 sample
distinct
mapRandom
filter
random
Respondido em 06/04/2022 16:24:34
 
 
Explicação:
Gabarito: sample
Justificativa: A operação responsável por retornar um subconjunto aleatório dos dados é a sample. É uma
operação da categoria de transformação, sendo que se encaixa em transformações amplas, pois pode ser
necessário realizar movimentações entre as partições. Filter é uma função que retorna um subconjunto de
 Questão3
a
 Questão4
a
 Questão5
a
dados em relação a alguma condição imposta, portanto não há aleatoriedade. Random e mapRandom não são
funções válidas para o Spark. Distinct retorna um RDD com elementos diferentes de um RDD de entrada.
 
 
Acerto: 1,0 / 1,0
Atualmente, o Apache Spark, é o mais bem-sucedido framework para Big Data. Selecione a opção correta que
contenha apenas funções que podem ser categorizadas como transformações no Spark.
map, take e reduce.
map, sample e collect.
count, collect e take.
 map, filter e union.
reduce, first e map.
Respondido em 06/04/2022 16:24:42
 
 
Explicação:
Gabarito: map, filter e union.
Justificativa: Algumas das funções de transformação no Spark são: map, filter, union, flatMap, mapPartitions e
sample. As citadas transformações, denominadas de transformações estreitas, resultam da aplicação de funções
de mapeamento e de filtragem, sendo que os dados se originam de uma única partição.
 
 
Acerto: 1,0 / 1,0
Bibliotecas poderosas de análise e manipulação de dados podem ser utilizadas com a linguagem Python. Qual
o método utilizado para fazer a junção entre DataFrames no pandas?
 merge
reset_index
values
set_index
sum
Respondido em 06/04/2022 16:25:24
 
 
Explicação:
O método merge é equivalente ao join da SQL que junta dois DataFrames a partir de indexes do mesmo nome,
ou de indexes pré-definidos pelo cientista de dados. As demais alternativas não dizem respeito à operação de
junção entre DataFrames.
 
 
Acerto: 1,0 / 1,0
Compreender a análise de dados em Python é fundamental para o cientista de dados. Qual o papel do
sistema pip da linguagem Python?
Motor de Busca da IDE do Python.
Gerenciador de espaços virtuais do Python.
Biblioteca de Processamento de Linguagem Natural.
 Gerenciador de Pacotes do Python.
Gerenciador de memória do Python.
Respondido em 06/04/2022 16:26:21
 
 Questão6
a
 Questão7
a
 Questão8
a
 
Explicação:
O papel do comando pip é gerenciar os pacotes a serem importados no Python, bem como instalá-los via
comando pip install. Gerenciar memória é papel do sistema operacional, não do pip. A função de gerenciar
espaços virtuais é atribuída ao venv, o virtualenv. Motor de busca é uma atribuição de IDE, não de linguagem de
programação. O processamento de linguagem natural é função de biblioteca, diferente de gerenciamento de
pacotes.
 
 
Acerto: 1,0 / 1,0
O enquadramento de aprendizado não supervisionado contempla qual(is) técnicas?
I - Agrupamento
II - Classificação
III - Regressão
 Apenas a opção I está correta
Apenas as opções I e III estão corretas
Apenas as opções II e III estão corretas
Apenas a opção II está correta
Apenas a opção III está correta
Respondido em 06/04/2022 16:27:25
 
 
Explicação:
O aprendizado supervisionado se caracteriza pelo aprendizado autodidata que é caracterizado pelo
agrupamento. Já a classificação e a regressão são técnicas oriundas do aprendizado supervisionado.
 
 
Acerto: 1,0 / 1,0
No modelo de aprendizado profundo, as camadas internas ocultas representam:
 
I - Abstrações de aspectos de dados complexos
II - Informação relevante dos dados de entrada
III - Pesos e Viéses 
 
As alternativas I, II e III
 
 Apenas I
 
Apenas III
 
Apenas I e III
 
Apenas II e III
 
Respondido em 06/04/2022 16:28:14
 
 
 Questão9
a
 Questão10
a
Explicação:
Os modelos de aprendizado profundo são modelos conexionistas que usam suas camadas internas para abstrair
automaticamente abstrações de aspectos complexos dos dados, como uma linha reta ou uma curva, e até
mesmo combinações de aspectos descobertos em camadas anteriores.
 
alternativa I - Abstrações de aspectos de dados complexos ¿ está correta pois os modelos de aprendizado
profundo são modelos conexionistas que usam suas camadas internas para abstrair automaticamente
abstrações de aspectos complexos dos dados, como uma linha reta ou uma curva, e até mesmo combinações de
aspectos descobertos em camadas anteriores.
 
A alternativa II - Informação relevante dos dados de entrada - está incorreta por estar relacionada com o
conceito de sistema de informação, que é uma coleção de partes que recebe dados como insumo, processa-os
por meio de dinâmicas internas das partes e devolve informação relevante ao usuário final.
 
A alternativa III ¿ Pesos e Vieses ¿ está incorreta, pois o aprendizado profundo tenta modelar abstrações de alto
nível de dados, sendo os grafos empregados nessa área as redes neurais artificiais, onde as camadas ocultas
mapeiam de forma equivariante os pesos e os filtros para as camadas subsequentes.javascript:abre_colabore('38403','279858611','5189468144');

Continue navegando