Buscar

BIG DATA EM PYTHON

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Em relação aos RDBMS, selecione a opção que apresenta a característica que trata as transações em um banco de dados como uma unidade indivisível.
--Atomicidade.
O Apache Spark é um framework de código aberto aplicado para projetos de Big Data. Selecione a opção correta que contenha apenas funções que podem ser categorizadas.
--first, take e reduce.
Qual o tipo de método nos permite visualizar a árvore de decisão na biblioteca Scikit-Learn?
--plot_tree.
Em relação à fase de mapeamento do Hadoop, selecione a opção correta que apresenta o responsável pela geração de fragmento para os componentes da fase de redução.
--Particionador.
Os dados que, por alguma razão, normalmente interferência humana, não chegam com todos os atributos esperados durante a coleta de dados, são conhecidos como: 
--Faltantes.
Selecione a opção correta sobre o uso de big data:
--O volume e diversidade dos dados podem dar uma visão realística do que está sendo observado.
Ser capaz de gerenciar uma infraestrutura complexa é uma habilidade fundamental para o profissional de tecnologia da informação. Sendo assim, analise as alternativas e selecione a opção que apresenta o componente responsável por desempenhar o papel de mestre na arquitetura do Hadoop.
--NameNode.
Em relação às características do processamento de fluxo de dados, selecione a opção correta.
--Representam o estado de um sistema em um dado momento
O sistema de arquivos distribuídos do Hadoop, conhecido como HDFS, foi idealizado para trabalhar com grandes volumesde de dados. Selecione a opção correta que apresenta o paradigma como o HDFS funciona.
--Mestre e escravo.
A respeito dos componentes do ecossistema do Hadoop, selecione a opção correta que apresenta o componente responsável pelo gerenciamento dos clusters.
--Zookeeper
A escolha adequada de uma linguagem de programação é fundamental para a maximização dos resultados almejados. Nesse sentido, selecione a opção que contém a linguagem de programação mais adequada para desenvolver aplicações para o Spark.
--Scala
Selecione a opção correta que contenha as categorias em que transformações podem ser classificadas.
--Mapeamento e redução
No contexto de Coleta de Dados, o que podemos afirmar sobre Dados Primários:
I - São dados obtidos em primeira mão pelo cientista de dados ou pelo analista de dados
II - São dados que precisam ser pré-processados para análise, e serão feitos exclusivamente no primeiro momento pelo dono dos dados, o analista em questão
III - São obtidos através de softwares de monitoramento de logs, surveys, e bancos de dados 
Analise as frases listadas e assinale a alternativa correta.
--Apenas as opções II e III.
O seguinte constructo da linguagem Python representa o condicional simples:
--If
Qual o processo irmão do KDD que é utilizado comumente no âmbito industrial?
--CRISP-DM.
O boom da IA se deve ao surgimento de novas tecnologias e dispositivos que por estarem sempre conectados produzem uma quantidade enorme de dados. Estes dados que alimentam os modelos de aprendizado de máquina também são conhecidos como:
--Big Data.
Em relação às aplicações de Internet das coisas, selecione a opção correta sobre os seus objetivos.
--Obter dados que sirvam como base na tomada de decisão.
Selecione a opção a respeito da computação em nuvem.
--é um conjunto de tecnologias que disponibilizam sistemas e recursos na internet.
Em relação ao Hadoop, selecione a opção correta que trata da otimização da relação custo e benefício a respeito da expansão de uma infraestrutura.
--Escalabilidade
Observe o trecho de código abaixo
import numpy as np
x = np.array([1, 5, 1, 6, 4, 7, 7])
função_teste = lambda x: x+x
print(função_teste(x))
Selecione a opção correta a respeito dele.
--O programa vai gerar e imprimir [2 10 2 12 8 14 14].
O Apache Spark é um framework de código aberto aplicado para projetos de Big Data. Selecione a opção correta que contenha apenas funções que podem ser categorizadas como ações no Spark.
--First, take, reduce.
O Apache Spark é o mais bem-sucedido framework para Big Data. Selecione a opção que contenha apenas funções que podem ser categorizadas como transformações no Spark.
--Map, filter e union.
As bibliotecas são coleções de subprogramas utilizados no desenvolvimento de softwares. Selecione a opção correta que contém o componente do ecossistema do Spark responsável por realizar operações paralelas em grafos.
--GraphX.
A biblioteca Pandas é amplamente utilizada para manipular dados heterogêneos, situação recorrente para aplicações de BigData. Nesse sentido, selecione a opção que contém a estrutura de dados que possibilita o Cientista de dados atribuir nome para as colunas.
--DataFrame.
As redes neurais são implementadas em Python através de uma biblioteca de processamento de cálculos em paralelo baseada em grafos. Qual o nome desta biblioteca?
--Tensorflow.
Os modelos simbólicos são aqueles que:
--Se baseiam em lógica e regras de inferência para aprender e raciocinar.
Alfredo começou em um laboratório de pesquisa e inovação no começo deste ano. Este laboratório investiga a relação entre trocas de mensagens em redes sociais e variações na bolsa de valores, dependendo principalmente de modelos de redes neurais recorrentes. Com qual tipo de IA Alfredo está lidando?
--IA SubSimbólica.
Em relação à Internet das coisas, selecione a opção correta que relaciona os dispositivos com a os servidores de aplicação 
--Nuvem.
Em relação às redes de Internet das coisas, selecione a opção correta que relaciona os dispositivos entre si.
--São interconectados entre si.
Selecione a opção correta a respeito do processamento e streaming de dados.
--Os dados sempre são provenientes de aplicações transacionais.
Selecione a opção correta que contenha a ação responsável por retornar os elementos de um conjunto de dados como um vetor.
--collect
O MapReduce é uma técnica de computação distribuída considerada extremamente eficiente para o processamento de dados, desempenhando papel fundamental no Spark. Em relação ao MapReduce, selecione a opção correta.
--Pode ser aplicada para projetos que envolvam grandes volumes e variedade de dados.
A biblioteca pandas é poderosa e de grande valia para a vida de um cientista de dados. Sobre ela podemos afirmar que:
I - O nome Pandas se refere a dados em painel ou panel data
II - O DataFrame é o coletivo de listas (lists)
III - É possível criarmos DataFrames a partir de praticamente qualquer estrutura de dados, principalmente CSVs, Excels e JSONs
Analise as frases listadas e assinale a alternativa correta.
--Apenas I e II.
Compreender a tecnologia Hadoop e os aspectos fundamentais do seu ecossistema é fundamental para o profissional de Tecnologia da Informação. Sendo assim, selecione a opção correta sobre o Hadoop.
--O Hadoop utiliza o HDFS para armazenar dados.
O data lake é composto por camadas e níveis. Selecione a opção correta a respeito da camada responsável por fazer a marcação dos dados do Data Lake.
--Camada de Metadados.
A respeito das aplicações de fluxos de dados, selecione a opção correta.
--Serviços sob demanda, como serviços de filme online.
Compreender os conceitos e princípios do framework Apache Spark é fundamental para o cientista de dados. Selecione a opção correta que contém o componente do ecossistema Spark responsável por dar suporte para tratar fluxo de dados típicos de aplicações de tempo real.
--Spark Streaming
Em relação aos formatos que os dados de Big Data, selecione a opção que corresponde a quantidade de formas que podem ser encontrados.
--3
Em relação a os arquivos de configuração do Hadoop, selecione a opção correta que contém o arquivo que trata das configurações do HDFS.
--hdfs-site.xml
Em relação aos modelos de serviço de nuvem, selecione a opção correta com o modelo de serviço focado no hardware.
--IaaS
A coleta e preparação dos dados paraanálise no
Python são de extrema importância. Os dados secundários são assim definidos devido:
--O fato de terem sido obtidos apartir de terceiros.
Selecione a opção correta que contenha a operação responsável por retornar um subconjunto aleatório dos dados de entrada.
--Sample.
O Spark é um framework de alto desempenho usado para aplicações de Big Data. Em relação a arquitetura do Spark, selecione a opção correta.
--O gerenciador de cluster do Spark oferece suporte a Hadoop YARN.
A função de agrupamento do Pandas é o groupby, responsável por influenciar a indexação das colunas. O que acontece ao aplicarmos o método de reset_index() no resultado de uma agregação?
--Os indexes não são deletados, evitando a perda de colunas no DataFrame da agregação.
Dentre as inúmeras bibliotecas da linguagem Python qual destas é a que abstrai conceitos de engenharia de aprendizado de máquina e implementa modelos de ML?
--Scikit-Learn.
Quais os métodos de aprendizado de máquina que existem?
--Aprendizado Supervisionado, Não-Supervisionado, Por Reforço e Semisupervisionado.

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando