Buscar

AV-TÓPICOS DE BIG DATA EM PYTHON

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

Disc.: TÓPICOS DE BIG DATA EM PYTHON 
Aluno(a): ROGERIO SCHERER 202002556749 
Acertos: 10,0 de 10,0 08/11/2022 
 
 
1
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Em relação aos V's que caracterizam os projetos de Big Data, selecione a 
opção que trata do processamento dos dados. 
 
 velocidade 
 veracidade 
 volume 
 variedade 
 valor 
Respondido em 08/11/2022 00:29:35 
 
Explicação: 
A característica velocidade trata da rapidez de geração e processamento 
dos dados. Variedade diz respeito ao formato dos dados, valor está 
relacionado ao resultado útil da análise dos dados, volume significa a 
quantidade de dados disponíveis para tratamento e a veracidade diz 
respeito à confiabilidade da origem dos dados. 
 
 
 
2
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Em relação ao formato dos dados, selecione a opção correta que corresponde 
ao formato dos dados de transações bancárias. 
 
 dados não estruturados 
 dados de Internet das Coisas 
 dados semiestruturados 
 dados de Big Data 
 dados estruturados 
Respondido em 08/11/2022 00:30:45 
 
https://simulado.estacio.br/bdq_simulados_avaliacao_parcial_resultado.asp?cod_hist_prova=298271881&cod_prova=5899059283&f_cod_disc=
Explicação: 
Os dados de transações bancárias são salvos em tabelas e, portanto, 
correspondem a dados estruturados, que são típicos de sistemas de 
transações on line armazenados em banco de dados. As demais 
alternativas tratam de dados não convencionais que não são 
armazenados em bancos de dados tradicionais. 
 
 
 
3
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Compreender a tecnologia Hadoop e os aspectos fundamentais do seu 
ecossistema é fundamental para o profissional de Tecnologia da 
Informação. Sendo assim, selecione a opção correta sobre o Hadoop. 
 
 Hadoop é um ambiente ideal para extrair e transformar pequenos 
volumes de dados. 
 A estrutura de desenvolvimento no Hadoop é sequencial. 
 O Hadoop tem apenas uma única distribuição. 
 O Hadoop não funciona com pequenos volumes de dados. 
 O Hadoop utiliza o HDFS para armazenar dados. 
Respondido em 08/11/2022 00:34:35 
 
Explicação: 
O HDFS é um acrônimo para sistema de arquivos distribuídos do 
Hadoop (do inglês Hadoop Distributed File System). Ele é o 
componente responsável pelo armazenamento e gerenciamento de 
dados, de forma similar aos sistemas gerenciadores de bancos de dados 
relacionais (RDBMS). 
 
 
 
4
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Selecione a opção que indica o processo responsável por executar uma tarefa 
atribuída a ele pelo Job Tracker. 
 
 Job Tracker Slave 
 MapJob 
 MapTracker 
 Task Tracker 
 MapReduce 
Respondido em 08/11/2022 00:38:19 
 
Explicação: 
O JobTracker envia as informações necessárias para a execução de uma 
tarefa para o TaskTracker que, por sua vez, executa a tarefa e envia os 
resultados de volta para JobTracker, além de fazer o seu rastreamento. 
 
 
 
5
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Atualmente, o Apache Spark, é o mais bem-sucedido framework para Big 
Data. Selecione a opção correta que contenha apenas funções que podem ser 
categorizadas como transformações no Spark. 
 
 map, take e reduce. 
 map, filter e union. 
 count, collect e take. 
 map, sample e collect. 
 reduce, first e map. 
Respondido em 08/11/2022 00:40:09 
 
Explicação: 
Gabarito: map, filter e union. 
Justificativa: Algumas das funções de transformação no Spark são: 
map, filter, union, flatMap, mapPartitions e sample. As citadas 
transformações, denominadas de transformações estreitas, resultam da 
aplicação de funções de mapeamento e de filtragem, sendo que os dados 
se originam de uma única partição. 
 
 
 
6
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
O Spark é uma ferramenta computacional voltada para aplicações de Big Data. 
Selecione a opção correta a respeito do componente que pode ser tratado com o 
Spark SQL. 
 
 Executor 
 Work Node 
 Tasks 
 RDD 
 DAG 
Respondido em 08/11/2022 00:46:48 
 
Explicação: 
Gabarito: RDD 
Justificativa: O componente Spark SQL do ecossistema do Spark 
fornece suporte à linguagem SQL para manipular RDDs. DAGs 
correspondem a abstrações sobre as execuções dos processos. O 
Executor é responsável pela execução de tarefas individuais, enquanto o 
Work Node corresponde ao conjunto de máquinas que executam as 
tarefas que são as Tasks, ou seja, subdivisões do processo. 
 
 
 
7
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Bibliotecas poderosas de análise e manipulação de dados podem ser utilizadas 
com a linguagem Python. Qual o método utilizado para fazer a junção entre 
DataFrames no pandas? 
 
 sum 
 values 
 reset_index 
 merge 
 set_index 
Respondido em 08/11/2022 00:51:39 
 
Explicação: 
O método merge é equivalente ao join da SQL que junta dois 
DataFrames a partir de indexes do mesmo nome, ou de indexes pré-
definidos pelo cientista de dados. As demais alternativas não dizem 
respeito à operação de junção entre DataFrames. 
 
 
 
8
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
No mundo de Big Data, temos dados os mais variados possíveis, e sua 
classificação é fundamental para um cientista de dados. As notas que compõem 
o histórico escolar de um aluno são classificadas como que tipo de dados? 
 
 Semi-Estruturados 
 Temporais 
 Numéricos 
 Atemporais 
 Categóricos 
Respondido em 08/11/2022 00:53:08 
 
Explicação: 
O correto é classificar como dados categóricos, pois a nota de um aluno 
mesmo que possa ser operada por funções de soma, média etc., 
representa um conceito ou extrato/proporção de aprendizado de um 
aluno, um 8 muitas das vezes significa que o aluno aprendeu 80% da 
matéria por exemplo, ou implica na condição de apto, ou reprovado. O 
tipo numérico seria correto se não tivesse o contexto implícito de 
categoria, por isso devemos ter cuidado ao modelarmos nossos dados. 
 
 
 
9
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
O enquadramento de aprendizado não supervisionado contempla qual(is) 
técnicas? 
I - Agrupamento 
II - Classificação 
III - Regressão 
 
 Apenas a opção III está correta 
 Apenas a opção I está correta 
 Apenas as opções I e III estão corretas 
 Apenas as opções II e III estão corretas 
 Apenas a opção II está correta 
Respondido em 08/11/2022 00:58:50 
 
Explicação: 
O aprendizado supervisionado se caracteriza pelo aprendizado 
autodidata que é caracterizado pelo agrupamento. Já a classificação e a 
regressão são técnicas oriundas do aprendizado supervisionado. 
 
 
 
10
a
 
 Questão 
Acerto: 1,0 / 1,0 
 
Qual o objetivo da inteligência artificial ao simular comportamentos 
humanos na máquina? 
 
 Otimizar algoritmos para que eles se adaptem a contextos não 
previamente codificados. 
 Viabilizar a computação paralela. 
 Incrementar o uso da memória de longa duração do sistema. 
 Fazer com que computadores acessem a internet mais rápido. 
 Melhorar a capacidade de processamento de dados do sistema. 
Respondido em 08/11/2022 00:56:48 
 
Explicação: 
A razão por trás da existência da inteligência artificial é criar algoritmos 
e soluções capazes de se adaptar a novas situações que não 
necessariamente foram pré-programadas, mas se adapte pela experiência 
passada com casos similares.

Continue navegando