Prévia do material em texto
A B C D E 1 Marcar para revisão Observe o trecho de código abaixo import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = np.array([1, 5, 1, 6, 4, 7, 7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele. A utilização do SparkContext é opcional. A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". A variável "teste" corresponde a um RDD. A execução do trecho de código vai gerar um erro. O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a". 2 Marcar para revisão 00 hora : 49 min : 42 seg Ocultar Questão 1 de 10 Em branco (10) Finalizar prova 1 2 3 4 5 6 7 8 9 10 SM2 Tópicos De Big Data Em Python 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 1/7 A B C D E A B C Selecione a opção correta que contenha a operação responsável por retornar um subconjunto aleatório dos dados de entrada. sample filter random mapRandom distinct 3 Marcar para revisão Atualmente, o Apache Spark é o mais bem- sucedido framework para Big Data. Selecione a opção correta que contenha apenas funções que podem ser categorizadas como transformações no Spark. count, collect e take. map, sample e collect. map, filter e union. 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 2/7 D E A B C D E reduce, first e map. map, take e reduce. 4 Marcar para revisão Compreender a análise de dados em Python é fundamental para o cientista de dados. Qual o papel do sistema pip da linguagem Python? Gerenciador de Pacotes do Python. Gerenciador de memória do Python. Gerenciador de espaços virtuais do Python. Motor de Busca da IDE do Python. Biblioteca de Processamento de Linguagem Natural. 5 Marcar para revisão Bibliotecas poderosas de análise e manipulação de dados podem ser utilizadas com a linguagem Python. Qual o método 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 3/7 A B C D E A B utilizado para fazer a junção entre DataFrames no pandas? set_index reset_index values merge sum 6 Marcar para revisão Eduardo quer mostrar aos gestores da empresa como as ações da carteira de investimentos recomendada que ele e o time dele propuseram estão valorizando e gerando muitos dividendos aos clientes. Para isso, Eduardo construiu um gráfico de ______, pois está lidando com dados ________ e quer mostrar o quão bem as recomendações geradas por seu time estão evoluindo. Respectivamente a resposta que completa as duas lacunas é: Pizza; Categóricos Linha; Numéricos 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 4/7 C D E A B C D E Linha; Temporais Pizza; Numéricos Linha; Categóricos 7 Marcar para revisão As técnicas de aprendizado de máquina para aprendizado supervisionado são: I - Classificação II - Agrupamento III - Regressão Apenas I e II Apenas II e III Apenas I e III Apenas I Apenas II 8 Marcar para revisão O termo mineração de dados é amplamente usado na comunidade técnica a esmo, mas, 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 5/7 A B C D E A B C D E na realidade, ele se refere ao processo de: CNN KDD DNN LSTM RNN 9 Marcar para revisão A qual técnica de Aprendizado de Máquina o Algoritmo de Árvore de Decisão Classificadora pertence? Modelos Generativos Q-Learning Agrupamento Classificação Regressão 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 6/7 A B C D E 10 Marcar para revisão Os componentes do Spark (2.0 ou superior) têm como objetivo facilitar o desenvolvimento de projetos com finalidades específicas. Nesse sentido, selecione a opção que contém o componente responsável por estabelecer uma conexão com o Cluster. Spark.Catalog SparkSession DataFrame RDD SparkContext 22/08/2025, 22:38 estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ https://estacio.saladeavaliacoes.com.br/prova/68a91b9714f01634a4db1898/ 7/7