Baixe o app para aproveitar ainda mais
Prévia do material em texto
21/08/23, 20:12 Estácio: Alunos https://simulado.estacio.br/alunos/ 1/5 Meus Simulados Teste seu conhecimento acumulado Disc.: TÓPICOS DE BIG DATA EM PYTHON Aluno(a): JOÃO PAULO NICOLAS E LIMA 202103605931 Acertos: 9,0 de 10,0 17/07/2023 Acerto: 1,0 / 1,0 Em relação ao protocolo de transporte para transmissão de aplicações de streaming, selecione a opção correta. MQTT UDP CoAP HTTP TCP Respondido em 17/07/2023 23:02:36 Explicação: O protocolo UDP - protocolo de datagrama do usuário - é utilizado para aplicações de streaming por ser mais rápido. O protocolo TCP é orientado à con�abilidade e, no caso de aplicações de streaming, ele é muito lento inviabilizando a aplicação. Os protocolos HTTP, MQTT e CoAP não se enquadram no transporte de dados. Acerto: 1,0 / 1,0 Em relação às plataformas para Internet das Coisas, selecione a opção correta sobre o Arduino. É o outro nome para Raspberry PI É um programa É uma placa de hardware É um protocolo de internet das coisas É um ecossistema que envolve software e hardware Respondido em 17/07/2023 23:06:31 Explicação: O arduino é uma tecnologia que combina hardware e software e é utilizada para internet das coisas. Portanto, não é um programa, nem uma placa de hardware e tão pouco um protocolo de comunicação. Já o Raspberry PI não é o mesmo que Arduino, pois se trata de uma outra tecnologia para internet das coisas. Questão1 a Questão2 a https://simulado.estacio.br/alunos/inicio.asp javascript:voltar(); 21/08/23, 20:12 Estácio: Alunos https://simulado.estacio.br/alunos/ 2/5 Acerto: 0,0 / 1,0 O Hadoop é uma tecnologia especializada em atender as demandas de Big Data. Selecione a opção correta que contenha a linguagem de programação utilizada para o desenvolvimento e implementação do Hadoop. Perl Java Python Lua Java Script Respondido em 17/07/2023 23:03:36 Explicação: O Hadoop foi desenvolvido usando, originalmente, a linguagem de programação Java na distribuição livre da Apache Foundation. Atualmente, diferentes distribuições do framework estão implementadas em diversas linguagens, entre as quais o Python. Acerto: 1,0 / 1,0 A respeito do Hadoop, selecione a opção correta com o componente que faz o rastreamento de tarefas. HDFS Mrjob MapReduce Camada de ingestão Task manager Respondido em 17/07/2023 23:07:46 Explicação: O mecanismo MapReduce é responsável pela distribuição de tarefas em um cluster, através de rastreamento de tarefas (Task Trackers) e de trabalhos (Job Trackers). As demais alternativas, embora tenham relação com o Hadoop, não possuem a funcionalidade de rastreamento de tarefas. Acerto: 1,0 / 1,0 Os componentes do Spark têm como objetivo facilitar o desenvolvimento de projetos com �nalidades especí�cas. Nesse sentido, selecione a opção que contém o componente responsável por estabelecer uma conexão com o Cluster. Spark.Catalog SparkSession RDD DataFrame SparkContext Respondido em 17/07/2023 23:09:40 Questão3 a Questão4 a Questão5 a 21/08/23, 20:12 Estácio: Alunos https://simulado.estacio.br/alunos/ 3/5 Explicação: Gabarito: SparkContext Justi�cativa: O componente responsável por estabelecer uma conexão com o cluster é o SparkContext e pode ser usado para criar RDDs, acumuladores e variáveis de transmissão nesse cluster. O SparkSession, por sua vez, é um ponto de entrada para que o Spark possa trabalhar com RDD, DataFrame e Dataset. O Spark.Catalog é uma interface para gerenciar um catálogo de metadados de entidades relacionais. Acerto: 1,0 / 1,0 Observe o trecho de código abaixo import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = np.array([1, 5, 1, 6, 4, 7, 7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele. A utilização do SparkContext é opcional. A execução do trecho de código vai gerar um erro. A variável "teste" corresponde a um RDD. O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a". A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". Respondido em 17/07/2023 23:05:27 Explicação: Gabarito: A variável "teste" corresponde a um RDD. Justi�cativa: O trecho de código está sintaticamente correto. O objetivo é criar um RDD que, no caso, é representado pela variável "teste" para isso é obrigatório utilizar o "SparkContext". O pacote "numpy" foi utilizado por causa da variável vetor "a". Acerto: 1,0 / 1,0 A linguagem Python se destaca como intuitiva e de fácil aprendizagem. Analise o código abaixo que apresenta laços condicionais e instruções de repetição. for i in range(10): if (i%2==0): print(i) Qual a saída esperada após a execução do programa? Serão impressos no console os números racionais entre 0 e 9. Serão impressos no console os números ímpares entre 0 e 9. Serão impressos no console os números pares entre 1 e 10. Serão impressos no console os números pares entre 0 e 9. Serão impressos no console os números ímpares entre 0 e 10. Respondido em 17/07/2023 23:04:03 Questão6 a Questão7 a 21/08/23, 20:12 Estácio: Alunos https://simulado.estacio.br/alunos/ 4/5 Explicação: O constructo de laço que itera sobre uma sequência dos números reais de 0 a 9, e cujo condicional dentro do laço escolhe apenas os números cujo resto de sua divisão por 2 seja 0, condição lógica que de�ne se um número é par ou não. Acerto: 1,0 / 1,0 Compreender a análise de dados em Python é fundamental para o cientista de dados. Qual o papel do sistema pip da linguagem Python? Gerenciador de Pacotes do Python. Motor de Busca da IDE do Python. Gerenciador de memória do Python. Gerenciador de espaços virtuais do Python. Biblioteca de Processamento de Linguagem Natural. Respondido em 17/07/2023 23:05:00 Explicação: O papel do comando pip é gerenciar os pacotes a serem importados no Python, bem como instalá-los via comando pip install. Gerenciar memória é papel do sistema operacional, não do pip. A função de gerenciar espaços virtuais é atribuída ao venv, o virtualenv. Motor de busca é uma atribuição de IDE, não de linguagem de programação. O processamento de linguagem natural é função de biblioteca, diferente de gerenciamento de pacotes. Acerto: 1,0 / 1,0 Qual o tipo de método nos permite visualizar a árvore de decisão na biblioteca Scikit-Learn? cout plot_tree print console.log printf Respondido em 17/07/2023 23:04:40 Explicação: Através do método plot_tree do módulo scikit-learn.DecisionTreeClassi�er, podemos importar o plot_tree para visualizar a árvore de decisão gerada pelo algoritmo homônimo. Acerto: 1,0 / 1,0 Como podemos checar as métricas de classi�cação do modelo neural da biblioteca Scikit-Learn? Plotly Grá�co de Matriz de Dispersão Questão8 a Questão9 a Questão10 a 21/08/23, 20:12 Estácio: Alunos https://simulado.estacio.br/alunos/ 5/5 Classi�cation Report Grá�co de Histograma Regressão Linear Respondido em 17/07/2023 23:04:22 Explicação: O classi�cation report é um dos métodos oferecidos pelo scikit-learn que nos permite usar um conjunto ground truth para comparar contra as predições de um modelo e este calculará as métricas de acurácia, precisão e medida F de cada classe possível e também as mesmas métricas em um nível macro.
Compartilhar