Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 ponto 1. Existem diversos motivos que justificam o uso da computação em nuvem, apesar disso, existe um conceito que é essencial para computação em nuvem. Selecione a opção correta que contenha esse conceito. (Ref.: 202007431340) segurança produtividade abstração disponibilidade confiabilidade 1 ponto 2. Em relação às características do processamento de fluxo de dados, selecione a opção correta. (Ref.: 202007431088) São invariáveis no tempo Representam o estado de um sistema em um dado momento O fluxo de dados é intermitente Sempre são do mesmo tipo São relacionados à aplicações de internet das coisas 1 ponto 3. O sistema de arquivos distribuídos do Hadoop, conhecido como HDFS, foi idealizado para trabalhar com grandes volumes de dados. Selecione a opção correta que apresenta o paradigma como o HDFS funciona. (Ref.: 202007440080) Distribuído e distribuído. Centralizado e centralizado. Distribuído e centralizado. Centralizado e distribuído. Mestre e escravo. 1 ponto 4. A respeito dos componentes do ecossistema do Hadoop, selecione a opção correta que apresenta o componente responsável pelo gerenciamento dos clusters. (Ref.: 202007440078) HCluster Flume Spark Zookeeper HBase 1 ponto 5. Observe o trecho de código abaixo import numpy as np x = np.array([1, 5, 1, 6, 4, 7, 7]) função_teste = lambda x: x+x print(função_teste(x)) Selecione a opção correta a respeito dele. (Ref.: 202007446245) O programa ficará sintaticamente correto se for acrescentado o "SparkContext" para executar o MapReduce. O programa produz a saída 31. O programa vai gerar e imprimir [2 10 2 12 8 14 14]. A saída do programa é [2]. O programa vai gerar um erro. 1 ponto 6. Selecione a opção correta que contenha as categorias em que transformações podem ser classificadas. (Ref.: 202007446251) Estreitas e amplas Separação e finalização Embaralhamento e redução Mapeamento e partição Mapeamento e redução 1 ponto 7. A coleta e preparação dos dados para análise no Python são de extrema importância. Os dados secundários são assim definidos devido: (Ref.: 202007440794) O fato de requererem muito mais pré-processamento. A sua baixa qualidade. O fato de virem de uma fonte alternativa não convencional. O fato de ocuparem menos espaço de memória. O fato de terem sido obtidos a partir de terceiros. 1 ponto 8. Os dados que, por alguma razão, normalmente interferência humana, não chegam com todos os atributos esperados durante a coleta de dados, são conhecidos como: (Ref.: 202007440727) Corrompidos. Faltantes. Enviesados. Nulos. Embaralhados. 1 ponto 9. Luís foi contratado recentemente para trabalhar em uma empresa de consultoria de análise de dados. O projeto no qual foi alocado já havia começado, e os colegas de Luís lhe disseram que estavam preparando o conjunto de dados para poder passar os mesmos por um modelo de árvore de decisão. Já que especificamente os colegas de Luís estão removendo dados faltantes, em qual etapa do processo de KDD, Luís se encontra: (Ref.: 202007439713) Descoberta de Padrões. Transformação de Dados. Avaliação. Coleta de Dados. Pré-Processamento . 1 ponto 10. Qual o tipo de método nos permite visualizar a árvore de decisão na biblioteca Scikit- Learn? (Ref.: 202007439994) cout plot_tree printf console.log print
Compartilhar