Buscar

Simulado 02

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

21/08/23, 20:12 Estácio: Alunos
https://simulado.estacio.br/alunos/ 1/5
 
Meus
Simulados
Teste seu conhecimento acumulado
Disc.: TÓPICOS DE BIG DATA EM PYTHON   
Aluno(a): JOÃO PAULO NICOLAS E LIMA 202103605931
Acertos: 8,0 de 10,0 17/07/2023
Acerto: 1,0  / 1,0
Em relação ao formato dos dados, selecione a opção correta que corresponde ao formato dos dados de
transações bancárias.
dados não estruturados
dados de Big Data
dados semiestruturados
dados de Internet das Coisas
 dados estruturados
Respondido em 17/07/2023 23:11:13
Explicação:
Os dados de transações bancárias são salvos em tabelas e, portanto, correspondem a dados estruturados, que são
típicos de sistemas de transações on line armazenados em banco de dados. As demais alternativas tratam de dados
não convencionais que não são armazenados em bancos de dados tradicionais.
Acerto: 1,0  / 1,0
(NC-UFPR/2019 - Adaptada) Sobre a IoT (Internet das coisas) e seus blocos básicos de construção, identi�que
como verdadeiras (V) ou falsas (F) as seguintes a�rmativas:
( ) Na IoT, os objetos podem prover comunicação entre usuários e dispositivos, viabilizando diversas aplicações,
tais como coleta de dados de pacientes e monitoramento de idosos e sensoriamento de ambientes de difícil
acesso.
( ) A tecnologia de IoT consiste na coexistência colaborativa de dois componentes: As "coisas" e os protocolos de
rede que permitem a sua comunicação.
( ) Protocolos de comunicação: Viabilizam a troca de dados via Internet entre os objetos físicos e outros
sistemas.
 
Assinale a alternativa que apresenta a sequência correta, de cima para baixo.
 V F V
 Questão1
a
 Questão2
a
https://simulado.estacio.br/alunos/inicio.asp
javascript:voltar();
21/08/23, 20:12 Estácio: Alunos
https://simulado.estacio.br/alunos/ 2/5
F F F
F V V
V V F
F V F
Respondido em 17/07/2023 23:13:58
Explicação:
O avanço da tecnologia criou dispositivos e sensores eletrônicos que geram enormes quantidades de dados. Esses
equipamentos podem ser utilizados em diversas aplicações, tais como: coleta de dados de pacientes e monitoramento
de idosos e sensoriamento de ambientes de difícil acesso. A tecnologia de IoT consiste na coexistência colaborativa de
quatro componentes: Objetos físicos (ou "coisas"), Computação, Protocolos de comunicação e Serviços.
Acerto: 1,0  / 1,0
O Hadoop é um framework de código aberto voltado para aplicações de Big Data. Neste sentido, selecione
a alternativa correta que apresenta um grande desa�o no processo de con�guração e gerenciamento do
Hadoop.
Gerenciamento do armazenamento de dados.
Mecanismo para melhorar o processamento dos dados.
 Aplicar políticas de segurança.
Tratar dados não-estruturados.
Processos de extração, transformação e carregamento dos dados.
Respondido em 17/07/2023 23:14:32
Explicação:
O tratamento da segurança da informação é um grande desa�o para o Hadoop, pois o pro�ssional responsável por
essa etapa terá que con�gurar o sistema que, pela natureza dos problemas de Big Data, é uma tarefa complexa.
Acerto: 0,0  / 1,0
A respeito dos arquivos de con�guração do Hadoop, selecione a opção correta com as tags que fornecem acesso
aos parâmetros de con�guração.
 
 
Respondido em 17/07/2023 23:17:27
Explicação:
As con�gurações dos arquivos do Hadoop são especi�cadas entre as tags con�gurations. As demais opções não
representam tags corretas para parâmetros de con�gurações do Hadoop.
 Questão3
a
 Questão4
a
21/08/23, 20:12 Estácio: Alunos
https://simulado.estacio.br/alunos/ 3/5
Acerto: 1,0  / 1,0
Selecione a opção correta que contenha a operação responsável por retornar um subconjunto aleatório dos
dados de entrada.
mapRandom
�lter
distinct
random
 sample
Respondido em 17/07/2023 23:12:20
Explicação:
Gabarito: sample
Justi�cativa: A operação responsável por retornar um subconjunto aleatório dos dados é a sample. É uma operação da
categoria de transformação, sendo que se encaixa em transformações amplas, pois pode ser necessário realizar
movimentações entre as partições. Filter é uma função que retorna um subconjunto de dados em relação a alguma
condição imposta, portanto não há aleatoriedade. Random e mapRandom não são funções válidas para o Spark.
Distinct retorna um RDD com elementos diferentes de um RDD de entrada.
Acerto: 1,0  / 1,0
Observe o trecho de código abaixo
query = "SELECT * FROM tabela_teste WHERE valor = "+str(str_valor)
registros = spark.sql(query)
Selecione a opção correta a respeito dele.
 Trata-se de um exemplo de utilização do Spark SQL
É um exemplo de aplicação de GraphX.
A implementação do trecho de código está errada.
É possível a�rmar que a tabela_teste existe.
A execução do trecho de código vai funcionar corretamente.
Respondido em 17/07/2023 23:18:23
Explicação:
Gabarito: Trata-se de um exemplo de utilização do Spark SQL
Justi�cativa: O trecho de código corresponde a uma aplicação do Spark SQL. Esse componente viabiliza a utilização
de código SQL que facilita bastante a manipulação de dados estruturados. A implementação está codi�cada
corretamente, apesar de não ser possível a�rmar se vai executar sem erros, pois no código não aparecem informações
que permitam fazer a�rmações sobre a execução.
Acerto: 0,0  / 1,0
Luis planeja começar um projeto particular visando construir um módulo de análise de dados. Primeiramente
ele deseja começar por um módulo de coleta de dados. Para que ele possa obter um padrão organizado de
criação de projeto, qual  a sequência desejável de passos que esperamos que Luis siga?
 Questão5
a
 Questão6
a
 Questão7
a
21/08/23, 20:12 Estácio: Alunos
https://simulado.estacio.br/alunos/ 4/5
Criar uma pasta para acomodar seu projeto; Instalar as dependências com as quais ele quer trabalhar
através do pip install; criar uma pasta para o módulo de coleta e dentro dela criar um arquivo __init__.py
em branco e outro para a lógica do módulo.
 Criar uma pasta para acomodar seu projeto; Levantar um virtualenv através do venv; Instalar as
dependências com as quais ele quer trabalhar através do pip install; congelar as mesmas no
requirements.txt através do pip freeze; criar uma pasta para o módulo de coleta e dentro dela criar um
arquivo __init__.py em branco e outro para a lógica do módulo.
 Criar uma pasta para acomodar seu projeto; Levantar um virtualenv através do venv; Instalar as
dependências com as quais ele quer trabalhar através do pip install; congelar as mesmas no
requirements.txt através do pip freeze; criar uma pasta para o módulo de coleta e dentro dela criar um
arquivo __init__.py com a lógica do módulo.
Criar uma pasta para acomodar seu projeto; Levantar um virtualenv através do venv; Instalar as
dependências com as quais ele quer trabalhar através do pip install; congelar as mesmas no
requirements.txt através do pip freeze; criar uma pasta para o módulo de coleta e dentro dela criar um
para a lógica do módulo.
Criar uma pasta para acomodar seu projeto; Instalar as dependências com as quais ele quer trabalhar
através do pip install; congelar as mesmas no requirements.txt através do pip freeze; criar uma pasta
para o módulo de coleta e dentro dela criar um arquivo __init__.py em branco e outro para a lógica do
módulo.
Respondido em 17/07/2023 23:18:54
Explicação:
O passo a passo correto envolve: criar uma pasta para o projeto; levantar um ambiente virtual; instalar as
dependências e guardá-las no arquivo requirements.txt; criar uma pasta para o módulo de coleta e criar um arquivo
__init__.py em branco e outro para o módulo. As opções que não descrevem todos esses passos estão incompletas ou
na ordem incorreta.
Acerto: 1,0  / 1,0
Gabriel entrou recentemente  em uma empresa de gestão de fundos de investimento. No seu primeiro dia
de trabalho, lhe é conferida a tarefa de buscar os relatórios do pessoal da contabilidade para fazer suas
análises exploratórias. O departamento de contabilidade extrai os dados de seus relatórios de um SAP que
retorna valoresbrutos de compras, quantidades de produtos etc. Então os contadores organizam, por
agregação, informação relevante no relatório em planilhas por eles desenvolvidos. Por questões de acesso e
segurança, Gabriel só pode lidar com essas planilhas. Este tipo de coleta feita por Gabriel e pelos
Contadores é respectivamente dos tipos:
 Secundária; Primária.      
Primária; Primária.
Secundária; Terciária.
Secundária; Secundária.
Primária; Secundária.
Respondido em 17/07/2023 23:13:04
Explicação:
Gabriel coletará dados gerados a partir de terceiros, enquanto os contadores estão fazendo uma coleta primária
direto na fonte dos dados do SAP que, para os �ns desta questão está funcionando como um repositório de dados
para eles.
Acerto: 1,0  / 1,0
 Questão8
a
 Questão9
a
21/08/23, 20:12 Estácio: Alunos
https://simulado.estacio.br/alunos/ 5/5
As redes neurais são implementadas em Python através de uma biblioteca de processamento de cálculos em
paralelo baseada em grafos. Qual o nome desta biblioteca?
 Tensor�ow
Pandas
Numpy
Plotly
Scipy
Respondido em 17/07/2023 23:15:25
Explicação:
A biblioteca TensorFlow foi criada com a �nalidade de processar cálculos de forma paralela, em estruturas de grafos a
�m de otimizar estes tipos de processamento, mas, devido à natureza dos modelos conexionistas, tal biblioteca foi
rede�nida como a principal biblioteca para implementação de redes neurais.
Acerto: 1,0  / 1,0
As redes neurais são modelos poderosos cujo principal componente onde estão armazenados seus
conhecimentos é(são) 
 Camadas Escondidas
Pesos
Camada de Saída
Vieses
Função de Ativação
Respondido em 17/07/2023 23:13:16
Explicação:
O conhecimento dos modelos conexionistas é localizado em suas camadas internas ocultas ou escondidas (hidden),
pois é lá que se encontram as matrizes de pesos, vieses e funções de ativação que, ao trabalharem juntas, produzem o
conhecimento necessário para discriminar novas observações com base em registros passados.
 Questão10
a

Mais conteúdos dessa disciplina