Baixe o app para aproveitar ainda mais
Prévia do material em texto
24/04/2022 09:41 Estácio: Alunos https://simulado.estacio.br/alunos/ 1/4 Teste de Conhecimento avalie sua aprendizagem Selecione a opção correta com a medida de volume de dados que normalmente é usada para se referenciar a projetos de Big Data. Em relação ao formato dos dados, selecione a opção correta que corresponde ao formato dos dados de transações bancárias. TÓPICOS DE BIG DATA EM PYTHON Lupa Calc. EEX0174_202001140301_TEMAS Aluno: EDSON DE OLIVEIRA BRITO Matr.: 202001140301 Disc.: TÓP BIG EM PYT 2022.1 EAD (GT) / EX Prezado (a) Aluno(a), Você fará agora seu TESTE DE CONHECIMENTO! Lembre-se que este exercício é opcional, mas não valerá ponto para sua avaliação. O mesmo será composto de questões de múltipla escolha. Após responde cada questão, você terá acesso ao gabarito comentado e/ou à explicação da mesma. Aproveite para se familiarizar com este modelo de questões que será usado na sua AV e AVS. 1. Petabytes Exabytes Zetabytes Gigabytes Terabytes Data Resp.: 24/04/2022 09:32:46 Explicação: As aplicações que possuem ordem de grandeza de petabytes de volume de dados são consideradas de Big Data. As alternativas da questão podem ser vistas em ordem crescente de grandeza das unidades de medida de armazenamento: Gigabytes, Terabytes, Petabytes, Exabytes e Zetabytes. 2. dados não estruturados dados de Internet das Coisas dados de Big Data dados estruturados dados semiestruturados Data Resp.: 24/04/2022 09:33:49 Explicação: Os dados de transações bancárias são salvos em tabelas e, portanto, correspondem a dados estruturados, que são típicos de sistemas de transações on line armazenados em banco de dados. As demais alternativas tratam de dados não convencionais que não são armazenados em bancos de dados tradicionais. javascript:voltar(); javascript:voltar(); javascript:diminui(); javascript:aumenta(); javascript:calculadora_on(); 24/04/2022 09:41 Estácio: Alunos https://simulado.estacio.br/alunos/ 2/4 O Hadoop é um framework de código aberto voltado para aplicações de Big Data. Neste sentido, selecione a alternativa correta que apresenta um grande desafio no processo de configuração e gerenciamento do Hadoop. O Hadoop é uma tecnologia especializada em atender as demandas de Big Data. Selecione a opção correta que contenha a linguagem de programação utilizada para o desenvolvimento e implementação do Hadoop. Os componentes do Spark têm como objetivo facilitar o desenvolvimento de projetos com finalidades específicas. Selecione a opção que contém o componente do ecossistema do Spark especializado em aplicações de aprendizado de máquina. O Spark é uma ferramenta computacional voltada para aplicações de Big Data. Selecione a opção correta a respeito do componente que pode ser tratado com o Spark SQL. 3. Mecanismo para melhorar o processamento dos dados. Tratar dados não-estruturados. Processos de extração, transformação e carregamento dos dados. Aplicar políticas de segurança. Gerenciamento do armazenamento de dados. Data Resp.: 24/04/2022 09:35:08 Explicação: O tratamento da segurança da informação é um grande desafio para o Hadoop, pois o profissional responsável por essa etapa terá que configurar o sistema que, pela natureza dos problemas de Big Data, é uma tarefa complexa. 4. Java Perl Java Script Lua Python Data Resp.: 24/04/2022 09:35:35 Explicação: O Hadoop foi desenvolvido usando, originalmente, a linguagem de programação Java na distribuição livre da Apache Foundation. Atualmente, diferentes distribuições do framework estão implementadas em diversas linguagens, entre as quais o Python. 5. RDDs GraphX Learning MLSpark MLlib Spark Learning Data Resp.: 24/04/2022 09:36:23 Explicação: Gabarito: MLlib Justificativa: O componente MLlib é o componente do ecossistema do Spark usado para implementar algoritmos estatísticos e de aprendizado de máquina para simplificar pipelines de aprendizado de máquina em projetos de big data. As opções Spark Learning, GraphX Learning e MLSpark não são componentes válidos do Spark. Os RDDs são componentes para conjunto de dados resilientes. 6. Executor Tasks 24/04/2022 09:41 Estácio: Alunos https://simulado.estacio.br/alunos/ 3/4 A função de agrupamento do Pandas é o groupby, responsável por influenciar a indexação das colunas. O que acontece ao aplicarmos o método reset_index() no resultado de uma agregação? Eduardo quer mostrar aos gestores da empresa como as ações da carteira de investimentos recomendada que ele e o time dele propuseram estão valorizando e gerando muitos dividendos aos clientes. Para isso, Eduardo construiu um gráfico de ______, pois está lidando com dados ________ e quer mostrar o quão bem as recomendações geradas por seu time estão evoluindo. Respectivamente a resposta que completa as duas lacunas é: Leonardo começou seu trabalho de conclusão de curso. Nesse trabalho, Leonardo quer elaborar um classificador de imagem, mas, não sabe se decidir com relação à configuração das camadas de sua rede neural. É muito comum utilizarmos o conjunto ________ para fazermos o benchmark de modelos de ______________: Work Node RDD DAG Data Resp.: 24/04/2022 09:37:10 Explicação: Gabarito: RDD Justificativa: O componente Spark SQL do ecossistema do Spark fornece suporte à linguagem SQL para manipular RDDs. DAGs correspondem a abstrações sobre as execuções dos processos. O Executor é responsável pela execução de tarefas individuais, enquanto o Work Node corresponde ao conjunto de máquinas que executam as tarefas que são as Tasks, ou seja, subdivisões do processo. 7. Os indexes não são deletados, evitando a perda de colunas no DataFrame da agregação. Nada, o DataFrame fica imutável. As colunas de agrupamento somem, e o DataFrame passa a ser indexado pelo número da linha. O DataFrame é embaralhado. O DataFrame é indexado pelas suas colunas. Data Resp.: 24/04/2022 09:38:10 Explicação: Ao agruparmos com groupby, o DataFrame passa a ser reindexado pelos grupos de colunas escolhidas. A partir de então, o index das agregações passa a ser o agrupamento. Com o reset_index() após a agregação, os índices originais das colunas são preservados. 8. Linha; Numéricos Pizza; Categóricos Pizza; Numéricos Linha; Temporais Linha; Categóricos Data Resp.: 24/04/2022 09:39:40 Explicação: O gráfico correto é o de linhas, pois os dados são temporais, uma vez que Eduardo quer mostrar cronologia para os acionistas e o gráfico de linha representa muito bem isto, e os dados em questão variam ao longo de meses ou anos. Gráficos de pizza não se aplicam a dados temporais. Os dados não são simplesmente numéricos pois, em essência, estamos lidando com a cronologia, logo são dados temporais. O tipo de dados em que números variam no tempo não pode ser classificado como tipo categórico. 9. IRIS; Processamento de Imagens MNIST; Processamento de Linguagem Natural IRIS; Processamento da Linguagem Natural MNIST; Processamento de Imagens 24/04/2022 09:41 Estácio: Alunos https://simulado.estacio.br/alunos/ 4/4 Qual o objetivo da inteligência artificial ao simular comportamentos humanos na máquina? Pizzas; Categorias Data Resp.: 24/04/2022 09:40:34 Explicação: O conjunto MNIST de dígitos escritos a mão é um dos conjuntos mais conhecidos na literatura de aprendizado de máquina. Mas, essa fama não é à toa, pois esse é o conjunto de comparação entre modelos de processamento de imagens, uma vez que uma boa configuração de rede neural deve ser capaz de reconhecer os dígitos escritos a mão do MNIST. 10. Fazer com que computadores acessem a internet mais rápido. Viabilizar a computação paralela. Melhorar a capacidade de processamento de dados do sistema. Incrementar o uso da memória de longa duração do sistema. Otimizar algoritmos para que eles se adaptem a contextos não previamente codificados. Data Resp.: 24/04/2022 09:41:15 Explicação: A razão por trás daexistência da inteligência artificial é criar algoritmos e soluções capazes de se adaptar a novas situações que não necessariamente foram pré-programadas, mas se adapte pela experiência passada com casos similares. Não Respondida Não Gravada Gravada Exercício inciado em 24/04/2022 09:31:24.
Compartilhar