Baixe o app para aproveitar ainda mais
Prévia do material em texto
14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 1/9 Simulado AV Teste seu conhecimento acumulado Disc.: TÓPICOS DE BIG DATA EM PYTHON Aluno(a): ICARO LOBATO DA SILVA 202002006854 Acertos: 9,0 de 10,0 10/05/2022 Acerto: 1,0 / 1,0 Em relação ao protocolo de transporte para transmissão de aplicações de streaming, selecione a opção correta. MQTT CoAP TCP UDP HTTP Respondido em 10/05/2022 21:13:01 Explicação: Questão1 a https://simulado.estacio.br/alunos/inicio.asp javascript:voltar(); 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 2/9 O protocolo UDP - protocolo de datagrama do usuário - é utilizado para aplicações de streaming por ser mais rápido. O protocolo TCP é orientado à confiabilidade e, no caso de aplicações de streaming, ele é muito lento inviabilizando a aplicação. Os protocolos HTTP, MQTT e CoAP não se enquadram no transporte de dados. Acerto: 0,0 / 1,0 Em relação às plataformas para Internet das Coisas, selecione a opção correta sobre o Arduino. É o outro nome para Raspberry PI É uma placa de hardware É um ecossistema que envolve software e hardware É um protocolo de internet das coisas É um programa Respondido em 10/05/2022 21:13:02 Explicação: O arduino é uma tecnologia que combina hardware e software e é utilizada para internet das coisas. Portanto, não é um programa, nem uma placa de hardware e tão pouco um protocolo de comunicação. Já o Raspberry PI não é o mesmo que Arduino, pois se trata de uma outra tecnologia para internet das coisas. Acerto: 1,0 / 1,0 O Hadoop é um framework de código aberto voltado para aplicações de Big Data. Neste sentido, selecione a Questão2 a Questão3 a 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 3/9 alternativa correta que apresenta um grande desafio no processo de configuração e gerenciamento do Hadoop. Mecanismo para melhorar o processamento dos dados. Gerenciamento do armazenamento de dados. Aplicar políticas de segurança. Tratar dados não-estruturados. Processos de extração, transformação e carregamento dos dados. Respondido em 10/05/2022 21:00:20 Explicação: O tratamento da segurança da informação é um grande desafio para o Hadoop, pois o profissional responsável por essa etapa terá que configurar o sistema que, pela natureza dos problemas de Big Data, é uma tarefa complexa. Acerto: 1,0 / 1,0 Selecione a opção correta a respeito do nível do Data Lake responsável por fornecer dados para a análise de negócios. Nível de gerenciamento Nível de consumo Nível de admissão Nível de governança Nível de Metadados Respondido em 10/05/2022 21:06:20 Explicação: Questão4 a 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 4/9 O Data Lake possui três níveis: o de admissão, o de gerenciamento e o de consumo que tratam, respectivamente, dos serviços de aquisição de dados, da identificação e localização dos dados e que fornecem dados para ser consumidos por aplicações de apoio à tomada de decisão. Acerto: 1,0 / 1,0 Atualmente, o Apache Spark, é o mais bem-sucedido framework para Big Data. Selecione a opção correta que contenha apenas funções que podem ser categorizadas como transformações no Spark. map, filter e union. map, take e reduce. reduce, first e map. count, collect e take. map, sample e collect. Respondido em 10/05/2022 21:07:05 Explicação: Gabarito: map, filter e union. Justificativa: Algumas das funções de transformação no Spark são: map, filter, union, flatMap, mapPartitions e sample. As citadas transformações, denominadas de transformações estreitas, resultam da aplicação de funções de mapeamento e de filtragem, sendo que os dados se originam de uma única partição. Acerto: 1,0 / 1,0 Questão5 a Questão6 a 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 5/9 Observe o trecho de código abaixo import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = np.array([1, 5, 1, 6, 4, 7, 7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele. A utilização do SparkContext é opcional. O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a". A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". A execução do trecho de código vai gerar um erro. A variável "teste" corresponde a um RDD. Respondido em 10/05/2022 21:09:38 Explicação: Gabarito: A variável "teste" corresponde a um RDD. Justificativa: O trecho de código está sintaticamente correto. O objetivo é criar um RDD que, no caso, é representado pela variável "teste" para isso é obrigatório utilizar o "SparkContext". O pacote "numpy" foi utilizado por causa da variável vetor "a". Acerto: 1,0 / 1,0 A linguagem Python fornece para o cientista de dados uma grande variedade de funções e bibliotecas. Qual o método que faz a projeção do Dataframe orientado pelos rótulos das colunas do conjunto? reset_index Questão7 a 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 6/9 sum iloc shuffle loc Respondido em 10/05/2022 21:12:42 Explicação: Através do método loc, passando o nome da coluna ou colunas desejadas entre colchetes, é aplicada a operação de projeção do DataFrame, de acordo com o objetivo desejado. As demais alternativas não dizem respeito à projeção do DataFrame. Acerto: 1,0 / 1,0 A linguagem Python se destaca como intuitiva e de fácil aprendizagem. Analise o código abaixo que apresenta laços condicionais e instruções de repetição. for i in range(10): if (i%2==0): print(i) Qual a saída esperada após a execução do programa? Serão impressos no console os números ímpares entre 0 e 9. Serão impressos no console os números ímpares entre 0 e 10. Serão impressos no console os números pares entre 1 e 10. Serão impressos no console os números racionais entre 0 e 9. Questão8 a 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 7/9 Serão impressos no console os números pares entre 0 e 9. Respondido em 10/05/2022 21:10:06 Explicação: O constructo de laço que itera sobre uma sequência dos números reais de 0 a 9, e cujo condicional dentro do laço escolhe apenas os números cujo resto de sua divisão por 2 seja 0, condição lógica que define se um número é par ou não. Acerto: 1,0 / 1,0 As redes neurais são modelos poderosos cujo principal componente onde estão armazenados seus conhecimentos é(são) Camadas Escondidas Pesos Vieses Função de Ativação Camada de Saída Respondido em 10/05/2022 21:09:06 Explicação: O conhecimento dos modelos conexionistas é localizado em suas camadas internas ocultas ou escondidas (hidden), pois é lá que se encontram as matrizes de pesos, vieses e funções de ativação que, ao trabalharem juntas, produzem o conhecimento necessário para discriminar novas observações com base em registros passados. Questão9 a 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 8/9 Acerto: 1,0 / 1,0 A qual técnica de Aprendizado de Máquina o Algoritmo de Árvore de Decisão Classificadora pertence? Classificação Q-Learning Regressão Modelos Generativos Agrupamento Respondido em 10/05/2022 21:08:13 Explicação: O algoritmo de árvore de decisão é um dos mais simples e poderosos algoritmos de aprendizado de máquina que pode ser utilizado tanto para regressão quanto para classificação, mas muda sua terminação dependendo da técnica em questão, por exemplo, para classificação é a Árvore de Decisão Classificadora, enquanto para regressão se chama Árvore Regressora, ou Árvore de Decisão Regressora. Questão10 a javascript:abre_colabore('38403','283641284','5350628718'); 14/06/2022 16:04 Estácio: Alunos https://simulado.estacio.br/alunos/ 9/9
Compartilhar