Buscar

AVS 2022.1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 4 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1 ponto 
 
1. 
 
 
Existem diversos motivos que justificam o uso da computação em nuvem, apesar disso, 
existe um conceito que é essencial para computação em nuvem. Selecione a opção 
correta que contenha esse conceito. 
 (Ref.: 202007431340) 
 
 
segurança 
 
 
produtividade 
 
 
abstração 
 
 
disponibilidade 
 
 
confiabilidade 
 
 
 
 
1 ponto 
 
2. 
 
 
Em relação às características do processamento de fluxo de dados, selecione a opção 
correta. 
 (Ref.: 202007431088) 
 
 
São invariáveis no tempo 
 
 
Representam o estado de um sistema em um dado momento 
 
 
O fluxo de dados é intermitente 
 
 
Sempre são do mesmo tipo 
 
 
São relacionados à aplicações de internet das coisas 
 
 
 
 
1 ponto 
 
3. 
 
 
O sistema de arquivos distribuídos do Hadoop, conhecido como HDFS, foi idealizado 
para trabalhar com grandes volumes de dados. Selecione a opção correta que 
apresenta o paradigma como o HDFS funciona. 
 (Ref.: 202007440080) 
 
 
Distribuído e distribuído. 
 
 
Centralizado e centralizado. 
 
 
Distribuído e centralizado. 
 
 
Centralizado e distribuído. 
 
 
Mestre e escravo. 
 
 
 
 
1 ponto 
 
4. 
 
 
A respeito dos componentes do ecossistema do Hadoop, selecione a opção correta que 
apresenta o componente responsável pelo gerenciamento dos clusters. 
 (Ref.: 202007440078) 
 
 
HCluster 
 
 
Flume 
 
 
Spark 
 
 
Zookeeper 
 
 
HBase 
 
 
 
 
1 ponto 
 
5. 
 
 
Observe o trecho de código abaixo 
import numpy as np 
x = np.array([1, 5, 1, 6, 4, 7, 7]) 
função_teste = lambda x: x+x 
print(função_teste(x)) 
Selecione a opção correta a respeito dele. 
 (Ref.: 202007446245) 
 
 
O programa ficará sintaticamente correto se for acrescentado o "SparkContext" para 
executar o MapReduce. 
 
 
O programa produz a saída 31. 
 
 
O programa vai gerar e imprimir [2 10 2 12 8 14 14]. 
 
 
A saída do programa é [2]. 
 
 
O programa vai gerar um erro. 
 
 
 
 
1 ponto 
 
6. 
 
 
Selecione a opção correta que contenha as categorias em que transformações podem ser 
classificadas. 
 (Ref.: 202007446251) 
 
 
Estreitas e amplas 
 
 
Separação e finalização 
 
 
Embaralhamento e redução 
 
 
Mapeamento e partição 
 
 
Mapeamento e redução 
 
 
 
 
1 ponto 
 
7. 
 
 
A coleta e preparação dos dados para análise no Python são de extrema importância. Os 
dados secundários são assim definidos devido: 
 (Ref.: 202007440794) 
 
 
O fato de requererem muito mais pré-processamento. 
 
 
A sua baixa qualidade. 
 
 
O fato de virem de uma fonte alternativa não convencional. 
 
 
O fato de ocuparem menos espaço de memória. 
 
 
O fato de terem sido obtidos a partir de terceiros. 
 
 
 
 
1 ponto 
 
8. 
 
 
Os dados que, por alguma razão, normalmente interferência humana, não chegam com 
todos os atributos esperados durante a coleta de dados, são conhecidos como: 
 (Ref.: 202007440727) 
 
 
Corrompidos. 
 
 
Faltantes. 
 
 
Enviesados. 
 
 
Nulos. 
 
 
Embaralhados. 
 
 
 
 
1 ponto 
 
9. 
 
 
Luís foi contratado recentemente para trabalhar em uma empresa de consultoria de 
análise de dados. O projeto no qual foi alocado já havia começado, e os colegas de Luís 
lhe disseram que estavam preparando o conjunto de dados para poder passar os mesmos 
por um modelo de árvore de decisão. Já que especificamente os colegas de Luís estão 
removendo dados faltantes, em qual etapa do processo de KDD, Luís se encontra: 
 (Ref.: 202007439713) 
 
 
Descoberta de Padrões. 
 
 
Transformação de Dados. 
 
 
Avaliação. 
 
 
Coleta de Dados. 
 
 
Pré-Processamento . 
 
 
 
 
1 ponto 
 
10. 
 
 
Qual o tipo de método nos permite visualizar a árvore de decisão na biblioteca Scikit-
Learn? 
 (Ref.: 202007439994) 
 
 
cout 
 
 
plot_tree 
 
 
printf 
 
 
console.log 
 
 
print

Continue navegando

Outros materiais