Baixe o app para aproveitar ainda mais
Prévia do material em texto
Disc.: TÓPICOS DE BIG DATA EM PYTHON Aluno(a): ROGERIO SCHERER 202002556749 Acertos: 10,0 de 10,0 08/11/2022 1 a Questão Acerto: 1,0 / 1,0 Em relação aos V's que caracterizam os projetos de Big Data, selecione a opção que trata do processamento dos dados. velocidade veracidade volume variedade valor Respondido em 08/11/2022 00:29:35 Explicação: A característica velocidade trata da rapidez de geração e processamento dos dados. Variedade diz respeito ao formato dos dados, valor está relacionado ao resultado útil da análise dos dados, volume significa a quantidade de dados disponíveis para tratamento e a veracidade diz respeito à confiabilidade da origem dos dados. 2 a Questão Acerto: 1,0 / 1,0 Em relação ao formato dos dados, selecione a opção correta que corresponde ao formato dos dados de transações bancárias. dados não estruturados dados de Internet das Coisas dados semiestruturados dados de Big Data dados estruturados Respondido em 08/11/2022 00:30:45 https://simulado.estacio.br/bdq_simulados_avaliacao_parcial_resultado.asp?cod_hist_prova=298271881&cod_prova=5899059283&f_cod_disc= Explicação: Os dados de transações bancárias são salvos em tabelas e, portanto, correspondem a dados estruturados, que são típicos de sistemas de transações on line armazenados em banco de dados. As demais alternativas tratam de dados não convencionais que não são armazenados em bancos de dados tradicionais. 3 a Questão Acerto: 1,0 / 1,0 Compreender a tecnologia Hadoop e os aspectos fundamentais do seu ecossistema é fundamental para o profissional de Tecnologia da Informação. Sendo assim, selecione a opção correta sobre o Hadoop. Hadoop é um ambiente ideal para extrair e transformar pequenos volumes de dados. A estrutura de desenvolvimento no Hadoop é sequencial. O Hadoop tem apenas uma única distribuição. O Hadoop não funciona com pequenos volumes de dados. O Hadoop utiliza o HDFS para armazenar dados. Respondido em 08/11/2022 00:34:35 Explicação: O HDFS é um acrônimo para sistema de arquivos distribuídos do Hadoop (do inglês Hadoop Distributed File System). Ele é o componente responsável pelo armazenamento e gerenciamento de dados, de forma similar aos sistemas gerenciadores de bancos de dados relacionais (RDBMS). 4 a Questão Acerto: 1,0 / 1,0 Selecione a opção que indica o processo responsável por executar uma tarefa atribuída a ele pelo Job Tracker. Job Tracker Slave MapJob MapTracker Task Tracker MapReduce Respondido em 08/11/2022 00:38:19 Explicação: O JobTracker envia as informações necessárias para a execução de uma tarefa para o TaskTracker que, por sua vez, executa a tarefa e envia os resultados de volta para JobTracker, além de fazer o seu rastreamento. 5 a Questão Acerto: 1,0 / 1,0 Atualmente, o Apache Spark, é o mais bem-sucedido framework para Big Data. Selecione a opção correta que contenha apenas funções que podem ser categorizadas como transformações no Spark. map, take e reduce. map, filter e union. count, collect e take. map, sample e collect. reduce, first e map. Respondido em 08/11/2022 00:40:09 Explicação: Gabarito: map, filter e union. Justificativa: Algumas das funções de transformação no Spark são: map, filter, union, flatMap, mapPartitions e sample. As citadas transformações, denominadas de transformações estreitas, resultam da aplicação de funções de mapeamento e de filtragem, sendo que os dados se originam de uma única partição. 6 a Questão Acerto: 1,0 / 1,0 O Spark é uma ferramenta computacional voltada para aplicações de Big Data. Selecione a opção correta a respeito do componente que pode ser tratado com o Spark SQL. Executor Work Node Tasks RDD DAG Respondido em 08/11/2022 00:46:48 Explicação: Gabarito: RDD Justificativa: O componente Spark SQL do ecossistema do Spark fornece suporte à linguagem SQL para manipular RDDs. DAGs correspondem a abstrações sobre as execuções dos processos. O Executor é responsável pela execução de tarefas individuais, enquanto o Work Node corresponde ao conjunto de máquinas que executam as tarefas que são as Tasks, ou seja, subdivisões do processo. 7 a Questão Acerto: 1,0 / 1,0 Bibliotecas poderosas de análise e manipulação de dados podem ser utilizadas com a linguagem Python. Qual o método utilizado para fazer a junção entre DataFrames no pandas? sum values reset_index merge set_index Respondido em 08/11/2022 00:51:39 Explicação: O método merge é equivalente ao join da SQL que junta dois DataFrames a partir de indexes do mesmo nome, ou de indexes pré- definidos pelo cientista de dados. As demais alternativas não dizem respeito à operação de junção entre DataFrames. 8 a Questão Acerto: 1,0 / 1,0 No mundo de Big Data, temos dados os mais variados possíveis, e sua classificação é fundamental para um cientista de dados. As notas que compõem o histórico escolar de um aluno são classificadas como que tipo de dados? Semi-Estruturados Temporais Numéricos Atemporais Categóricos Respondido em 08/11/2022 00:53:08 Explicação: O correto é classificar como dados categóricos, pois a nota de um aluno mesmo que possa ser operada por funções de soma, média etc., representa um conceito ou extrato/proporção de aprendizado de um aluno, um 8 muitas das vezes significa que o aluno aprendeu 80% da matéria por exemplo, ou implica na condição de apto, ou reprovado. O tipo numérico seria correto se não tivesse o contexto implícito de categoria, por isso devemos ter cuidado ao modelarmos nossos dados. 9 a Questão Acerto: 1,0 / 1,0 O enquadramento de aprendizado não supervisionado contempla qual(is) técnicas? I - Agrupamento II - Classificação III - Regressão Apenas a opção III está correta Apenas a opção I está correta Apenas as opções I e III estão corretas Apenas as opções II e III estão corretas Apenas a opção II está correta Respondido em 08/11/2022 00:58:50 Explicação: O aprendizado supervisionado se caracteriza pelo aprendizado autodidata que é caracterizado pelo agrupamento. Já a classificação e a regressão são técnicas oriundas do aprendizado supervisionado. 10 a Questão Acerto: 1,0 / 1,0 Qual o objetivo da inteligência artificial ao simular comportamentos humanos na máquina? Otimizar algoritmos para que eles se adaptem a contextos não previamente codificados. Viabilizar a computação paralela. Incrementar o uso da memória de longa duração do sistema. Fazer com que computadores acessem a internet mais rápido. Melhorar a capacidade de processamento de dados do sistema. Respondido em 08/11/2022 00:56:48 Explicação: A razão por trás da existência da inteligência artificial é criar algoritmos e soluções capazes de se adaptar a novas situações que não necessariamente foram pré-programadas, mas se adapte pela experiência passada com casos similares.
Compartilhar