Prévia do material em texto
17/09/2022 22:46 Estácio: Alunos https://simulado.estacio.br/alunos/ 1/4 Meus Simulados Teste seu conhecimento acumulado Disc.: TÓPICOS DE BIG DATA EM PYTHON Acertos: 10,0 de 10,0 17/09/2022 Acerto: 1,0 / 1,0 Em relação aos desafios do processamento de fluxo de dados, selecione a opção correta. Aplicar recursos de redundância no projeto para reduzir a volatilidade dos dados. Garantir a qualidade dos dados através de ferramentas de controle que não aceitem qualquer inconsistência. Usar algoritmos de criptografia nos dados para evitar o acesso indevido. Garantir a consistência da informação através da ordenação dos dados. Dimensionar o projeto logo no início para evitar a necessidade de expansão posteriormente. Respondido em 17/09/2022 22:35:59 Explicação: Nas aplicações de streaming de dados, dificilmente não vai ocorrer alguma inconsistência, pois, normalmente, elas estão contextualizadas em ambientes dinâmicos. Portanto, deve-se ordenar os dados para manter a consistência dos dados e, além disso, o sistema deve ter uma tolerância a falhas sendo capaz de operar ainda que haja problemas, desde que estejam dentro de um patamar de qualidade pré-estabelecido. Acerto: 1,0 / 1,0 Em relação ao protocolo de transporte para transmissão de aplicações de streaming, selecione a opção correta. UDP CoAP TCP HTTP MQTT Respondido em 17/09/2022 22:36:19 Explicação: O protocolo UDP - protocolo de datagrama do usuário - é utilizado para aplicações de streaming por ser mais rápido. O protocolo TCP é orientado à confiabilidade e, no caso de aplicações de streaming, ele é muito lento inviabilizando a aplicação. Os protocolos HTTP, MQTT e CoAP não se enquadram no transporte de dados. Acerto: 1,0 / 1,0 O Hadoop é uma tecnologia especializada em atender as demandas de Big Data. Selecione a opção correta que contenha a linguagem de programação utilizada para o desenvolvimento e implementação do Hadoop. Java Java Script Python Perl Lua Respondido em 17/09/2022 22:37:02 Explicação: Questão1 a Questão2 a Questão3 a Aluno(a): https://simulado.estacio.br/alunos/inicio.asp javascript:voltar(); 17/09/2022 22:46 Estácio: Alunos https://simulado.estacio.br/alunos/ 2/4 O Hadoop foi desenvolvido usando, originalmente, a linguagem de programação Java na distribuição livre da Apache Foundation. Atualmente, diferentes distribuições do framework estão implementadas em diversas linguagens, entre as quais o Python. Acerto: 1,0 / 1,0 Reconhecer os conceitos de Data Lake é fundamental para o profissional de Tecnologia da Informação. Selecione a opção correta que define resumidamente o que é o Data Lake. É uma tecnologia de armazenamento e processamento de dados. Trata-se de um componente do HDFS responsável pela implementação do mecanismo MapReduce para fazer o gerenciamento dos dados. É um repositório para tratamento dos dados. É um ambiente para tratamento e armazenamento apenas de dados relacionais. É um repositório centralizado para armazenamento de dados. Respondido em 17/09/2022 22:38:34 Explicação: O Data Lake é um repositório centralizado capaz de armazenar dados nos diversos formatos: estruturados, não estruturados e semiestruturados sem a necessidade de aplicar nenhum tratamento. Acerto: 1,0 / 1,0 O paradigma MapReduce é uma estratégia de computação com capacidade de processar grandes conjuntos de dados de maneira distribuída em várias máquinas. Em relação à técnica MapReduce, selecione a opção que é responsável por consolidar os resultados produzidos ao longo do processamento. Separação Processamento Agregação Redução Mapeamento Respondido em 17/09/2022 22:39:44 Explicação: Gabarito: Redução Justificativa: A função de redução agrupa os pares após a fase de embaralhamento concluindo o processamento dos dados. O MapReduce é uma técnica clássica de programação distribuída e é bastante utilizada por diversos frameworks como o Spark, por exemplo. Acerto: 1,0 / 1,0 Observe o trecho de código abaixo query = "SELECT * FROM tabela_teste WHERE valor = "+str(str_valor) registros = spark.sql(query) Selecione a opção correta a respeito dele. A implementação do trecho de código está errada. Trata-se de um exemplo de utilização do Spark SQL É possível afirmar que a tabela_teste existe. É um exemplo de aplicação de GraphX. A execução do trecho de código vai funcionar corretamente. Respondido em 17/09/2022 22:40:56 Explicação: Gabarito: Trata-se de um exemplo de utilização do Spark SQL Justificativa: O trecho de código corresponde a uma aplicação do Spark SQL. Esse componente viabiliza a utilização de código SQL que facilita bastante a manipulação de dados estruturados. A implementação está codificada corretamente, apesar de não ser possível afirmar se vai executar sem erros, pois no código não aparecem informações que permitam fazer afirmações sobre a execução. Acerto: 1,0 / 1,0 Questão4 a Questão5 a Questão6 a 7a 17/09/2022 22:46 Estácio: Alunos https://simulado.estacio.br/alunos/ 3/4 A linguagem Python fornece para o cientista de dados uma grande variedade de funções e bibliotecas. Qual o método que faz a projeção do Dataframe orientado pelos rótulos das colunas do conjunto? iloc sum loc reset_index shuffle Respondido em 17/09/2022 22:41:41 Explicação: Através do método loc, passando o nome da coluna ou colunas desejadas entre colchetes, é aplicada a operação de projeção do DataFrame, de acordo com o objetivo desejado. As demais alternativas não dizem respeito à projeção do DataFrame. Acerto: 1,0 / 1,0 A linguagem Python se destaca como intuitiva e de fácil aprendizagem. Analise o código abaixo que apresenta laços condicionais e instruções de repetição. for i in range(10): if (i%2==0): print(i) Qual a saída esperada após a execução do programa? Serão impressos no console os números ímpares entre 0 e 9. Serão impressos no console os números ímpares entre 0 e 10. Serão impressos no console os números pares entre 0 e 9. Serão impressos no console os números racionais entre 0 e 9. Serão impressos no console os números pares entre 1 e 10. Respondido em 17/09/2022 22:42:44 Explicação: O constructo de laço que itera sobre uma sequência dos números reais de 0 a 9, e cujo condicional dentro do laço escolhe apenas os números cujo resto de sua divisão por 2 seja 0, condição lógica que define se um número é par ou não. Acerto: 1,0 / 1,0 Quais destas opções representam as diferenças entre o KDD e o CRISP-DM? I - Etapas de Entendimento do Negócio, e Implantação do Artefato de ML II - A etapa de Preparação de Dados substituindo as etapas de Seleção de Dados, Pré-Processamento e Transformação de Dados III - A obrigatoriedade da entrega de um artefato de ML Apenas as opções I e III Apenas a opção II Apenas a opção I As opções I, II, e III estão corretas Apenas as opções II e III Respondido em 17/09/2022 22:44:15 Explicação: O processo do CRISP-DM se diferencia do processo de KDD tradicional pela inclusão das etapas de entendimento do negócio e entendimento dos dados, bem como a simplificação de três etapas de preparação de dados para uma, e, finalmente, o comprometimento do processo CRISP-DM de entregar um artefato de ML. Acerto: 1,0 / 1,0 Questão Questão8 a Questão9 a Questão10 a 17/09/2022 22:46 Estácio: Alunos https://simulado.estacio.br/alunos/ 4/4 Leonardo começou seu trabalho de conclusão de curso. Nesse trabalho, Leonardo quer elaborar um classificador de imagem, mas, não sabe se decidir com relação à configuração das camadas de sua rede neural. É muito comum utilizarmos o conjunto ________ para fazermos o benchmark de modelos de ______________: MNIST; Processamento de Imagens IRIS; Processamento de Imagens IRIS; Processamento da Linguagem Natural MNIST; Processamento de Linguagem Natural Pizzas; CategoriasRespondido em 17/09/2022 22:45:37 Explicação: O conjunto MNIST de dígitos escritos a mão é um dos conjuntos mais conhecidos na literatura de aprendizado de máquina. Mas, essa fama não é à toa, pois esse é o conjunto de comparação entre modelos de processamento de imagens, uma vez que uma boa configuração de rede neural deve ser capaz de reconhecer os dígitos escritos a mão do MNIST. javascript:abre_colabore('38403','293572314','5669398377');