Baixe o app para aproveitar ainda mais
Prévia do material em texto
Disciplina: TÓPICOS DE BIG DATA EM PYTHON AV 1. Pontos: 0,00 / 1,00 A coleta e preparação dos dados para análise no Python são de extrema importância. Os dados secundários são assim definidos devido: O fato de virem de uma fonte alternativa não convencional. A sua baixa qualidade. O fato de terem sido obtidos a partir de terceiros. O fato de ocuparem menos espaço de memória. O fato de requererem muito mais pré-processamento. 2. Pontos: 1,00 / 1,00 A biblioteca pandas é poderosa e de grande valia para a vida de um cientista de dados. Sobre ela podemos afirmar que: I - O nome Pandas se refere a dados em painel ou panel data II - O DataFrame é o coletivo de listas (lists) III - É possível criarmos DataFrames a partir de praticamente qualquer estrutura de dados, principalmente CSVs, Excels, e JSONsAnalise as frases listadas e assinale a alternativa correta. Apenas I e II. Apenas I e III. Apenas II. Apenas II e III. Apenas I. 3. Pontos: 1,00 / 1,00 As redes neurais são implementadas em Python através de uma biblioteca de processamento de cálculos em paralelo baseada em grafos. Qual o nome desta biblioteca? Tensorflow javascript:alert('Código%20da%20questão:%206076913.'); javascript:alert('Código%20da%20questão:%206076764.'); javascript:alert('Código%20da%20questão:%206075834.'); Scipy Pandas Numpy Plotly 4. Pontos: 1,00 / 1,00 Luís foi contratado recentemente para trabalhar em uma empresa de consultoria de análise de dados. O projeto no qual foi alocado já havia começado, e os colegas de Luís lhe disseram que estavam preparando o conjunto de dados para poder passar os mesmos por um modelo de árvore de decisão. Já que especificamente os colegas de Luís estão removendo dados faltantes, em qual etapa do processo de KDD, Luís se encontra: Transformação de Dados. Avaliação. Coleta de Dados. Pré-Processamento . Descoberta de Padrões. 5. Pontos: 1,00 / 1,00 A respeito dos componentes do ecossistema do Hadoop, selecione a opção correta que apresenta o componente responsável pelo gerenciamento dos clusters. HBase Flume Zookeeper HCluster Spark 6. Pontos: 1,00 / 1,00 Ser capaz de gerenciar uma infraestrutura complexa é uma habilidade fundamental para o profissional de Tecnologia da Informação. Sendo assim, analise as alternativas e selecione a opção que apresenta o componente responsável por desempenhar o papel de mestre na arquitetura do Hadoop. HServerMap Replicador javascript:alert('Código%20da%20questão:%206075832.'); javascript:alert('Código%20da%20questão:%206076197.'); javascript:alert('Código%20da%20questão:%206075861.'); Bloco de dados NameNode DataNode 7. Pontos: 0,00 / 1,00 Existem diversos motivos que justificam o uso da computação em nuvem, apesar disso, existe um conceito que é essencial para computação em nuvem. Selecione a opção correta que contenha esse conceito. segurança produtividade confiabilidade abstração disponibilidade 8. Pontos: 1,00 / 1,00 Em relação aos formatos que os dados de Big Data, selecione a opção que corresponde a quantidade de formas que podem ser encontrados. 5 2 4 3 6 9. Pontos: 0,00 / 1,00 Observe o trecho de código abaixo import numpy as np x = np.array([1, 5, 1, 6, 4, 7, 7]) função_teste = lambda x: x+x print(função_teste(x)) Selecione a opção correta a respeito dele. O programa vai gerar um erro. O programa ficará sintaticamente correto se for acrescentado o "SparkContext" para executar o MapReduce. O programa produz a saída 31. javascript:alert('Código%20da%20questão:%206067459.'); javascript:alert('Código%20da%20questão:%206067386.'); javascript:alert('Código%20da%20questão:%206082364.'); O programa vai gerar e imprimir [2 10 2 12 8 14 14]. A saída do programa é [2]. 10. Pontos: 1,00 / 1,00 O Spark é um framework de alto desempenho usado para aplicações de Big Data. Em relação à arquitetura do Spark, selecione a opção correta. O Executor corresponde ao conjunto de máquina que executam como escravos. O Executor e os Worker Nodes desempenham papeis equivalentes na arquitetura do Spark. O gerenciador de cluster do Spark faz o gerenciamento da execução das tarefas. Os Worker Nodes da arquitetura Spark são responsáveis pelo gerenciamento das máquinas que executarão como escravos. O gerenciador de cluster do Spark oferece suporte a Hadoop YARN. javascript:alert('Código%20da%20questão:%206075911.');
Compartilhar