Prévia do material em texto
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 1/5
Simulado AV
Teste seu conhecimento acumulado
Disc.: TÓPICOS DE BIG DATA EM PYTHON
Aluno(a): LUIS HENRIQUE OLIVEIRA ANDRADE 202002008253
Acertos: 10,0 de 10,0 21/04/2022
Acerto: 1,0 / 1,0
Selecione a opção correta que contém a principal plataforma de tecnologia de nuvem que é usada como
referência para as outras plataformas.
Google Cloud
Oracle Cloud
IBM Cloud
Microsft Azure
Amazon AWS
Respondido em 21/04/2022 14:58:22
Explicação:
A plataforma Amazon AWS foi a primeira plataforma Cloud e até hoje é considerada como principal referência
do mercado. As outras plataformas também são muito importantes e, junto com a Amazon, detém boa fatia do
mercado.
Acerto: 1,0 / 1,0
A respeito das aplicações de fluxos de dados, selecione a opção correta.
Serviços de compras online
Reapresentação de programas de televisão.
Transações bancárias, como o serviço de PIX.
Serviços sob demanda, como serviços de filme online.
Serviço de correio eletrônico
Respondido em 21/04/2022 14:58:48
Explicação:
Os serviços de fluxo de dado de aplicações de mídia de streaming são arquivos enviados em partes por serviço
e reproduzidos por um cliente conforme a entrega continua. As demais opções estão erradas, pois são exemplos
de serviços em que os dados já foram gerados, ou que são usados apenas esporadicamente.
Questão1
a
Questão2
a
https://simulado.estacio.br/alunos/inicio.asp
javascript:voltar();
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 2/5
Acerto: 1,0 / 1,0
Em relação ao Hadoop, selecione a opção correta que trata da otimização da relação custo e benefício a
respeito da expansão de uma infraestrutura.
Escalabilidade
Volume de dados
Variedade dos dados
Tempo de resposta
Flexibilidade
Respondido em 21/04/2022 14:59:22
Explicação:
A escalabilidade trata da expansão de um sistema. Essa situação é bastante comum em projetos de Big Data.
No caso do Hadoop, ele pode utilizar equipamentos comuns, como computadores pessoais formando clusters de
escalabilidade horizontal.
Acerto: 1,0 / 1,0
Em relação aos arquivos de configuração do Hadoop, selecione a opção correta que contém o arquivo que trata
das configurações do HDFS.
hdfs-site.xml
yarn-site.xml
hadoop-env.cmd
mapred-site.xml
core-site.xml
Respondido em 21/04/2022 14:59:49
Explicação:
O arquivo de configuração hdfs-site.xml é o responsável pela definição de configuração para processos do HDFS.
Ele também é responsável por fazer a especificação da replicação de bloco padrão e verificação de permissão no
HDFS.
Acerto: 1,0 / 1,0
Observe o trecho de código abaixo
import numpy as np
from pyspark import SparkContext
spark_contexto = SparkContext()
a = np.array([1, 5, 1, 6, 4, 7, 7])
teste = spark_contexto.parallelize(a)
Selecione a opção correta a respeito dele.
A execução do trecho de código vai gerar um erro.
O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a".
A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a".
A variável "teste" corresponde a um RDD.
A utilização do SparkContext é opcional.
Respondido em 21/04/2022 15:00:22
Questão3
a
Questão4
a
Questão5
a
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 3/5
Explicação:
Gabarito: A variável "teste" corresponde a um RDD.
Justificativa: O trecho de código está sintaticamente correto. O objetivo é criar um RDD que, no caso, é
representado pela variável "teste" para isso é obrigatório utilizar o "SparkContext". O pacote "numpy" foi
utilizado por causa da variável vetor "a".
Acerto: 1,0 / 1,0
O paradigma MapReduce é uma estratégia de computação com capacidade de processar grandes conjuntos de
dados de maneira distribuída em várias máquinas. Em relação à técnica MapReduce, selecione a opção que é
responsável por consolidar os resultados produzidos ao longo do processamento.
Redução
Mapeamento
Separação
Agregação
Processamento
Respondido em 21/04/2022 15:00:50
Explicação:
Gabarito: Redução
Justificativa: A função de redução agrupa os pares após a fase de embaralhamento concluindo o
processamento dos dados. O MapReduce é uma técnica clássica de programação distribuída e é bastante
utilizada por diversos frameworks como o Spark, por exemplo.
Acerto: 1,0 / 1,0
Para a regularização dos dados obtidos, qual técnica podemos utilizar objetivando fazer com que os dados
fiquem na mesma escala?
MinMax
Shuffle
Divide
Splice
Map & Reduce
Respondido em 21/04/2022 15:01:11
Explicação:
Extraímos do dado observado sua proporção em relação ao valor mínimo possível até o valor máximo e
enquadramos o mesmo nesta régua, assim realizando a regularização, que consiste em colocar os dados na
mesma escala.
Acerto: 1,0 / 1,0
No mundo de Big Data, temos dados os mais variados possíveis, e sua classificação é fundamental para um
cientista de dados. As notas que compõem o histórico escolar de um aluno são classificadas como que tipo de
dados?
Categóricos
Questão6
a
Questão7
a
Questão8
a
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 4/5
Numéricos
Temporais
Semi-Estruturados
Atemporais
Respondido em 21/04/2022 15:01:50
Explicação:
O correto é classificar como dados categóricos, pois a nota de um aluno mesmo que possa ser operada por
funções de soma, média etc., representa um conceito ou extrato/proporção de aprendizado de um aluno, um 8
muitas das vezes significa que o aluno aprendeu 80% da matéria por exemplo, ou implica na condição de apto,
ou reprovado. O tipo numérico seria correto se não tivesse o contexto implícito de categoria, por isso devemos
ter cuidado ao modelarmos nossos dados.
Acerto: 1,0 / 1,0
Como podemos checar as métricas de classificação do modelo neural da biblioteca Scikit-Learn?
Regressão Linear
Plotly
Classification Report
Gráfico de Histograma
Gráfico de Matriz de Dispersão
Respondido em 21/04/2022 15:02:41
Explicação:
O classification report é um dos métodos oferecidos pelo scikit-learn que nos permite usar um conjunto ground
truth para comparar contra as predições de um modelo e este calculará as métricas de acurácia, precisão e
medida F de cada classe possível e também as mesmas métricas em um nível macro.
Acerto: 1,0 / 1,0
As redes neurais são modelos poderosos cujo principal componente onde estão armazenados seus
conhecimentos é(são)
Vieses
Camada de Saída
Função de Ativação
Pesos
Camadas Escondidas
Respondido em 21/04/2022 15:03:16
Explicação:
O conhecimento dos modelos conexionistas é localizado em suas camadas internas ocultas ou escondidas
(hidden), pois é lá que se encontram as matrizes de pesos, vieses e funções de ativação que, ao trabalharem
juntas, produzem o conhecimento necessário para discriminar novas observações com base em registros
passados.
Questão9
a
Questão10
a
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 5/5
javascript:abre_colabore('38403','281026866','5235388036');