Logo Passei Direto
Buscar

TÓPICOS DE BIG DATA EM PYTHON ESTACIO

User badge image
Luis Educatec

em

Ferramentas de estudo

Questões resolvidas

Selecione a opção correta que contém a principal plataforma de tecnologia de nuvem que é usada como referência para as outras plataformas. Microsft Azure Google Cloud Oracle Cloud Amazon AWS IBM Cloud

A respeito das aplicações de fluxos de dados, selecione a opção correta.
Serviços de compras online
Reapresentação de programas de televisão.
Transações bancárias, como o serviço de PIX.
Serviços sob demanda, como serviços de filme online.
Serviço de correio eletrônico

Observe o trecho de código abaixo
import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = np.array([1, 5, 1, 6, 4, 7, 7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele.
A utilização do SparkContext é opcional.
A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a".
A execução do trecho de código vai gerar um erro.
A variável "teste" corresponde a um RDD.
O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a".

O paradigma MapReduce é uma estratégia de computação com capacidade de processar grandes conjuntos de dados de maneira distribuída em várias máquinas.
Em relação à técnica MapReduce, selecione a opção que é responsável por consolidar os resultados produzidos ao longo do processamento.
Redução
Agregação
Processamento
Separação
Mapeamento

Para a regularização dos dados obtidos, qual técnica podemos utilizar objetivando fazer com que os dados fiquem na mesma escala?
MinMax
Shuffle
Divide
Splice
Map & Reduce

No mundo de Big Data, temos dados os mais variados possíveis, e sua classificação é fundamental para um cientista de dados.
As notas que compõem o histórico escolar de um aluno são classificadas como que tipo de dados?
Temporais
Atemporais
Numéricos
Semi-Estruturados
Categóricos

As redes neurais são modelos poderosos cujo principal componente onde estão armazenados seus conhecimentos é(são) Vieses Camada de Saída Função de Ativação Camadas Escondidas Pesos

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Questões resolvidas

Selecione a opção correta que contém a principal plataforma de tecnologia de nuvem que é usada como referência para as outras plataformas. Microsft Azure Google Cloud Oracle Cloud Amazon AWS IBM Cloud

A respeito das aplicações de fluxos de dados, selecione a opção correta.
Serviços de compras online
Reapresentação de programas de televisão.
Transações bancárias, como o serviço de PIX.
Serviços sob demanda, como serviços de filme online.
Serviço de correio eletrônico

Observe o trecho de código abaixo
import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = np.array([1, 5, 1, 6, 4, 7, 7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele.
A utilização do SparkContext é opcional.
A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a".
A execução do trecho de código vai gerar um erro.
A variável "teste" corresponde a um RDD.
O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a".

O paradigma MapReduce é uma estratégia de computação com capacidade de processar grandes conjuntos de dados de maneira distribuída em várias máquinas.
Em relação à técnica MapReduce, selecione a opção que é responsável por consolidar os resultados produzidos ao longo do processamento.
Redução
Agregação
Processamento
Separação
Mapeamento

Para a regularização dos dados obtidos, qual técnica podemos utilizar objetivando fazer com que os dados fiquem na mesma escala?
MinMax
Shuffle
Divide
Splice
Map & Reduce

No mundo de Big Data, temos dados os mais variados possíveis, e sua classificação é fundamental para um cientista de dados.
As notas que compõem o histórico escolar de um aluno são classificadas como que tipo de dados?
Temporais
Atemporais
Numéricos
Semi-Estruturados
Categóricos

As redes neurais são modelos poderosos cujo principal componente onde estão armazenados seus conhecimentos é(são) Vieses Camada de Saída Função de Ativação Camadas Escondidas Pesos

Prévia do material em texto

21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 1/5
 
Simulado AV
Teste seu conhecimento acumulado
 
Disc.: TÓPICOS DE BIG DATA EM PYTHON 
Aluno(a): LUIS HENRIQUE OLIVEIRA ANDRADE 202002008253
Acertos: 10,0 de 10,0 21/04/2022
 
 
Acerto: 1,0 / 1,0
Selecione a opção correta que contém a principal plataforma de tecnologia de nuvem que é usada como
referência para as outras plataformas.
Google Cloud
Oracle Cloud
IBM Cloud
Microsft Azure
 Amazon AWS
Respondido em 21/04/2022 14:58:22
 
 
Explicação:
A plataforma Amazon AWS foi a primeira plataforma Cloud e até hoje é considerada como principal referência
do mercado. As outras plataformas também são muito importantes e, junto com a Amazon, detém boa fatia do
mercado.
 
 
Acerto: 1,0 / 1,0
A respeito das aplicações de fluxos de dados, selecione a opção correta.
Serviços de compras online
Reapresentação de programas de televisão.
Transações bancárias, como o serviço de PIX.
 Serviços sob demanda, como serviços de filme online.
Serviço de correio eletrônico
Respondido em 21/04/2022 14:58:48
 
 
Explicação:
Os serviços de fluxo de dado de aplicações de mídia de streaming são arquivos enviados em partes por serviço
e reproduzidos por um cliente conforme a entrega continua. As demais opções estão erradas, pois são exemplos
de serviços em que os dados já foram gerados, ou que são usados apenas esporadicamente.
 
 Questão1
a
 Questão2
a
https://simulado.estacio.br/alunos/inicio.asp
javascript:voltar();
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 2/5
 
Acerto: 1,0 / 1,0
Em relação ao Hadoop, selecione a opção correta que trata da otimização da relação custo e benefício a
respeito da expansão de uma infraestrutura.
 Escalabilidade
Volume de dados
Variedade dos dados
Tempo de resposta
Flexibilidade
Respondido em 21/04/2022 14:59:22
 
 
Explicação:
A escalabilidade trata da expansão de um sistema. Essa situação é bastante comum em projetos de Big Data.
No caso do Hadoop, ele pode utilizar equipamentos comuns, como computadores pessoais formando clusters de
escalabilidade horizontal.
 
 
Acerto: 1,0 / 1,0
Em relação aos arquivos de configuração do Hadoop, selecione a opção correta que contém o arquivo que trata
das configurações do HDFS.
 hdfs-site.xml
yarn-site.xml
hadoop-env.cmd
mapred-site.xml
core-site.xml
Respondido em 21/04/2022 14:59:49
 
 
Explicação:
O arquivo de configuração hdfs-site.xml é o responsável pela definição de configuração para processos do HDFS.
Ele também é responsável por fazer a especificação da replicação de bloco padrão e verificação de permissão no
HDFS.
 
 
Acerto: 1,0 / 1,0
Observe o trecho de código abaixo
import numpy as np 
from pyspark import SparkContext
spark_contexto = SparkContext() 
a = np.array([1, 5, 1, 6, 4, 7, 7]) 
teste = spark_contexto.parallelize(a)
Selecione a opção correta a respeito dele.
A execução do trecho de código vai gerar um erro.
O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a".
A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a".
 A variável "teste" corresponde a um RDD.
A utilização do SparkContext é opcional.
Respondido em 21/04/2022 15:00:22
 
 Questão3
a
 Questão4
a
 Questão5
a
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 3/5
 
Explicação:
Gabarito: A variável "teste" corresponde a um RDD.
Justificativa: O trecho de código está sintaticamente correto. O objetivo é criar um RDD que, no caso, é
representado pela variável "teste" para isso é obrigatório utilizar o "SparkContext". O pacote "numpy" foi
utilizado por causa da variável vetor "a".
 
 
Acerto: 1,0 / 1,0
O paradigma MapReduce é uma estratégia de computação com capacidade de processar grandes conjuntos de
dados de maneira distribuída em várias máquinas. Em relação à técnica MapReduce, selecione a opção que é
responsável por consolidar os resultados produzidos ao longo do processamento.
 Redução
Mapeamento
Separação
Agregação
Processamento
Respondido em 21/04/2022 15:00:50
 
 
Explicação:
Gabarito: Redução
Justificativa: A função de redução agrupa os pares após a fase de embaralhamento concluindo o
processamento dos dados. O MapReduce é uma técnica clássica de programação distribuída e é bastante
utilizada por diversos frameworks como o Spark, por exemplo.
 
 
Acerto: 1,0 / 1,0
Para a regularização dos dados obtidos, qual técnica podemos utilizar objetivando fazer com que os dados
fiquem na mesma escala?
 MinMax
Shuffle
Divide
Splice
Map & Reduce
Respondido em 21/04/2022 15:01:11
 
 
Explicação:
Extraímos do dado observado sua proporção em relação ao valor mínimo possível até o valor máximo e
enquadramos o mesmo nesta régua, assim realizando a regularização, que consiste em colocar os dados na
mesma escala.
 
 
Acerto: 1,0 / 1,0
No mundo de Big Data, temos dados os mais variados possíveis, e sua classificação é fundamental para um
cientista de dados. As notas que compõem o histórico escolar de um aluno são classificadas como que tipo de
dados?
 Categóricos
 Questão6
a
 Questão7
a
 Questão8
a
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 4/5
Numéricos
Temporais
Semi-Estruturados
Atemporais
Respondido em 21/04/2022 15:01:50
 
 
Explicação:
O correto é classificar como dados categóricos, pois a nota de um aluno mesmo que possa ser operada por
funções de soma, média etc., representa um conceito ou extrato/proporção de aprendizado de um aluno, um 8
muitas das vezes significa que o aluno aprendeu 80% da matéria por exemplo, ou implica na condição de apto,
ou reprovado. O tipo numérico seria correto se não tivesse o contexto implícito de categoria, por isso devemos
ter cuidado ao modelarmos nossos dados.
 
 
Acerto: 1,0 / 1,0
Como podemos checar as métricas de classificação do modelo neural da biblioteca Scikit-Learn?
Regressão Linear
Plotly
 Classification Report
Gráfico de Histograma
Gráfico de Matriz de Dispersão
Respondido em 21/04/2022 15:02:41
 
 
Explicação:
O classification report é um dos métodos oferecidos pelo scikit-learn que nos permite usar um conjunto ground
truth para comparar contra as predições de um modelo e este calculará as métricas de acurácia, precisão e
medida F de cada classe possível e também as mesmas métricas em um nível macro.
 
 
Acerto: 1,0 / 1,0
As redes neurais são modelos poderosos cujo principal componente onde estão armazenados seus
conhecimentos é(são) 
Vieses
Camada de Saída
Função de Ativação
Pesos
 Camadas Escondidas
Respondido em 21/04/2022 15:03:16
 
 
Explicação:
O conhecimento dos modelos conexionistas é localizado em suas camadas internas ocultas ou escondidas
(hidden), pois é lá que se encontram as matrizes de pesos, vieses e funções de ativação que, ao trabalharem
juntas, produzem o conhecimento necessário para discriminar novas observações com base em registros
passados.
 
 
 
 Questão9
a
 Questão10
a
21/04/2022 15:03 Estácio: Alunos
https://simulado.estacio.br/alunos/ 5/5
 
 
 
 
 
 
 
 
javascript:abre_colabore('38403','281026866','5235388036');

Mais conteúdos dessa disciplina