Buscar

BIGDATA - SAGAH

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 188 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 188 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 188 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Exercícios
Respostas enviadas em: 08/10/2022 01:40
1. Realizar uma análise u�lizando uma informação a fim de encontrar padrões voltados a valores relacionados
à média, à moda, à variância e à mediana é considerada uma forma de análise, permi�ndo definir novos
padrões. Esse conceito se refere à:
Você acertou!
A. Análise univariada.
A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de
análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis)
permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada
consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são
medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise
para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise
exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas
caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada,
bivariada e mul�variada.
Resposta incorreta.
B. Análise bivariada.
A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de
análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis)
permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada
consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são
medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise
para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise
exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas
caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada,
bivariada e mul�variada.
Resposta incorreta.
󱀹
󰄴
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
C. Análise mul�variada.
A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de
análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis)
permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada
consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são
medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise
para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise
exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas
caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada,
bivariada e mul�variada.
Resposta incorreta.
D. Análise descri�va.
A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de
análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis)
permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada
consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são
medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise
para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise
exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas
caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada,
bivariada e mul�variada.
Resposta incorreta.
E. Análise exploratória de dados.
A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de
análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis)
permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada
consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são
medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise
para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise
exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas
caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada,
bivariada e mul�variada.
Próximo
1 de 5 perguntas
󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:40
2. As variáveis têm �pos, como numéricas e categóricas. Ainda dentro das variáveis do �po numérica, elas se
dividem em discreta e con�nua. Todavia, as variáveis categóricas se dividem em nominal e ordinal. A variável
grau de sa�sfação, que pode ser ó�mo, muito bom, bom e ruim, classifica-se como:
Resposta incorreta.
A. Categórica nominal.
A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A
categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis
numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores
inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como
altura e peso.
Resposta correta.
B. Categórica ordinal.
A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A
categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis
numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores
inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como
altura e peso.
Você não acertou!
C. Numérica discreta.
A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A
categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis
numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores
inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como
altura e peso.
󱀹
2 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
D. Numérica con�nua.
A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A
categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis
numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores
inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como
altura e peso.
Resposta incorreta.
E. Quan�ta�va discreta.
A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A
categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis
numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores
inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como
altura e peso.
 Voltar Próximo
2 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:40
3. Ao se realizar um processo no qual se faz uma análise sobre um grande conjunto de dados conhecidos, com
diversas variáveis, busca-se diminuir a quan�dade dessas variáveis ou agrupar as informações em categorias
homogêneas. Esse processo pode ser considerado como sendo:
Resposta incorreta.
A. Análise conclusiva.
Asanálises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais
obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo
analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento
desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca
inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os
dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar
grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o
reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em
uma grande variedade de dados são a esta�s�ca exploratória.
Resposta incorreta.
B. Esta�s�ca inferencial.
As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais
obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo
analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento
desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca
inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os
dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar
grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o
reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em
uma grande variedade de dados são a esta�s�ca exploratória.
Você acertou!
C. Abordagem descri�va.
󱀹
󰄴3 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais
obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo
analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento
desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca
inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os
dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar
grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o
reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em
uma grande variedade de dados são a esta�s�ca exploratória.
Resposta incorreta.
D. Análise esta�s�ca.
As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais
obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo
analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento
desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca
inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os
dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar
grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o
reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em
uma grande variedade de dados são a esta�s�ca exploratória.
Resposta incorreta.
E. Esta�s�ca exploratória.
As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais
obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo
analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento
desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca
inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os
dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar
grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o
reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em
uma grande variedade de dados são a esta�s�ca exploratória.
 Voltar Próximo
3 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
3 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:40
4. A linguagem Python contém diferentes �pos de bibliotecas para se trabalhar com data science, entre elas:
NumPy, SciPy, Pandas, Matplotlib e Seaborn. Uma delas é uma biblioteca de baixo nível para criar diagramas e
gráficos bidimensionais. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos
de dispersão a gráficos de coordenadas não cartesianas. Dentre as bibliotecas citadas, a qual se refere essa
descrição?
Resposta incorreta.
A. NumPy.
A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais,
contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da
biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral.
Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação
de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a
criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode
construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não
cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib.
Ela contém configurações padrão mais adequadas para o processamento de gráficos.
Você não acertou!
B. SciPy.
A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais,
contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da
biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral.
Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação
de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a
criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode
construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não
cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib.
Ela contém configurações padrão mais adequadas para o processamento de gráficos.
󱀹
4 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
C. Pandas.
A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais,
contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da
biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral.
Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação
de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a
criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode
construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não
cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib.
Ela contém configurações padrão mais adequadas para o processamento de gráficos.
Resposta correta.
D. Matplotlib.
ANumpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais,
contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da
biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral.
Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação
de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a
criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode
construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não
cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib.
Ela contém configurações padrão mais adequadas para o processamento de gráficos.
Resposta incorreta.
E. Seaborn.
A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais,
contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da
biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral.
Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação
de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a
criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode
construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não
cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib.
Ela contém configurações padrão mais adequadas para o processamento de gráficos.
 Voltar Próximo4 de 5 perguntas󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
4 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:40
5. Para cada �po de informação pode-se ter um melhor formato de visualização, como uma estratégia para
auxiliar na análise dos seus valores. Uma empresa do ramo de varejo deseja analisar o comportamento dos
preços de seus produtos. Considerando um array composto por um segmento de produtos e seus respec�vos
preços, tais como: 
Produtos = [‘Vinho Tinto’, ‘Biscoito Importado’,’Azeite de Oliva’,’Conjunto de Copos’,’Jogo de Talheres’, ‘Sabão
Liquido’] 
Preços = [ 23.79, 19.49, 21.89, 24.19, 22.59, 24.09] 
Qual seria o melhor gráfico a ser aplicado para realizar tal análise?
Resposta incorreta.
A. Gráfico de linhas .
Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm
valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado
neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma
possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no
entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há
discrepâncias entre elas.
Você não acertou!
B. Gráfico de barras.
Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm
valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado
neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma
possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no
entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há
discrepâncias entre elas.
Resposta incorreta.
C. Gráfico de setores.
󱀹
5 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm
valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado
neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma
possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no
entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há
discrepâncias entre elas.
Resposta incorreta.
D. Gráfico box-plot.
Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm
valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado
neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma
possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no
entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há
discrepâncias entre elas.
Resposta correta.
E. Gráfico de dispersão.
Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm
valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado
neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma
possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no
entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há
discrepâncias entre elas.
Voltar
5 de 5 perguntas
󰅁
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:51
1. Quando se deseja criar aplicações u�lizando o Hadoop MapReduce, é necessário usar interfaces específicas.
Assinale a alterna�va que representa apenas interfaces de aplicações Hadoop MapReduce:
Você não acertou!
A. Job, Counter, JavaRDD e JavaPairRDD. 
As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O
JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark.
Resposta incorreta.
B. Mapper, JavaRDD, Reduce e Counter. 
As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O
JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark.
Resposta incorreta.
C. Job, Counter, Par��oner e JavaRDD. 
As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O
JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark.
Resposta correta.
D. Mapper, Reducer, Par��oner e Counter. 
As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O
JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark.
Resposta incorreta.
󱀹
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
E. Par��oner, JavaPairRDD, Job e Reducer.
As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O
JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark.
Próximo
1 de 5 perguntas
󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:51
2. Uma aplicação que u�lize o Apache Spark para solucionar um desafio de Big Data tem operações de
transformação e de ação. Assinale a alterna�va que representa apenas funções de transformação:
Resposta incorreta.
A. map, count e saveAsTextFile.
As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count,
saveAsTextFile e collect são operações de ação.
Você acertou!
B. map, groupByKey e filter.
As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count,
saveAsTextFile e collect são operações de ação.
Resposta incorreta.
C. count, groupByKey e union.
As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count,
saveAsTextFile e collect são operações de ação.
Respostaincorreta.
D. filter, saveAsTextFile e join.
As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count,
saveAsTextFile e collect são operações de ação.
󱀹
󰄴
2 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
E. join, collect e intersec�on.
As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count,
saveAsTextFile e collect são operações de ação.
 Voltar Próximo
2 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:51
3. A grosso modo, no Spark RDD, as operações que produzem novos RDDs são chamadas de transformações e
as de ação representam funções para manipular um conjunto de dados no RDD atual. Assinale a alterna�va
que representa a operação de ação que grava o RDD no arquivo:
Resposta incorreta.
A. sample.
A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a
collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a
segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de
transformação.
Resposta incorreta.
B. cartesian.
A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a
collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a
segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de
transformação.
Você não acertou!
C. take.
A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a
collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a
segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de
transformação.
Resposta incorreta.
󱀹
3 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
D. collect.
A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a
collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a
segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de
transformação.
Resposta correta.
E. saveAsTextFile.
A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a
collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a
segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de
transformação.
 Voltar Próximo
3 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:51
4. Com o MapReduce, é possível processar um conjunto de dados muito grande em paralelo e de forma
distribuída. Assinale a alterna�va que representa a afirmação verdadeira sobre as caracterís�cas e o
funcionamento do MapReduce.
Resposta incorreta.
A. O MapReduce pode processar conjuntos de dados que chegam a até alguns gigabytes de dados.
Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A
quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o
MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce,
o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o
agendamento e o monitoramento das falhas são de responsabilidade do próprio framework.
Resposta incorreta.
B. Para u�lizar o MapReduce, é necessário u�lizar servidores poderosos, pouco acessíveis aos usuários comuns.
Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A
quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o
MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce,
o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o
agendamento e o monitoramento das falhas são de responsabilidade do próprio framework.
Resposta correta.
C. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós.
Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A
quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o
MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce,
o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o
agendamento e o monitoramento das falhas são de responsabilidade do próprio framework.
󱀹
4 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Você não acertou!
D. Mesmo com o MapReduce, é necessário cuidar de problemas como tolerância a falhas e confiabilidade.
Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A
quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o
MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce,
o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o
agendamento e o monitoramento das falhas são de responsabilidade do próprio framework.
Resposta incorreta.
E. No MapReduce, o agendamento e o monitoramento de tarefas são de total responsabilidade do programador.
Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A
quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o
MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce,
o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o
agendamento e o monitoramento das falhas são de responsabilidade do próprio framework.
 Voltar Próximo
4 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:51
5. O MapReduce superou desafios relacionados ao processamento paralelo e distribuído como divisão da tarefa
entre os nós, confiabilidades e tolerância a falhas. Assinale a alterna�va verdadeira em relação ao
funcionamento do MapReduce: 
Resposta correta.
A. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de
redução.
As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas
de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o
MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento,
as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor
1 para cada uma delas.
Resposta incorreta.
B. Após a redução, são somados os 1s da lista de valores de cada uma das chaves, formando uma saída do �po C2,
V2.
As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas
de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o
MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento,
as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor
1 para cada uma delas.
Resposta incorreta.
C. Uma aplicação que u�liza o MapReduce tem obrigatoriamente nós de processamento e armazenamento
exclusivos.
As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas
de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o
MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento,
󱀹
5 de 5 perguntas
AnteriorPróximo󰬩 󰬫
HS󰍜 󰅀
as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor
1 para cada uma delas.
Você não acertou!
D. As tarefas da fase de mapeamento do MapReduce geram saídas do �po C1, V1, que serão consumidas pela fase
de redução. 
As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas
de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o
MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento,
as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor
1 para cada uma delas.
Resposta incorreta.
E. No MapReduce, a fase de mapeamento separa as palavras em chaves e adiciona como valor o número de
ocorrências de cada uma.
As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas
de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o
MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento,
as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor
1 para cada uma delas.
Voltar
5 de 5 perguntas
󰅁
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:15
1. Um dos primeiros passos para lidar com big data é o planejamento. Com um projeto bem feito, deve ser
levado em consideração que �po de dado, com que frequência e em quais condições os dados se encontram.
Sobre os primeiros passos em um projeto de big data, analise as afirmações a seguir:
I. ETL é um processo importante na obtenção de dados. 
II. Com os dados disponíveis, o sistema pode começar a processá-los para exibir informações reais. 
III. Os requisitos básicos para trabalhar com big data não são os mesmos u�lizados para trabalhar com
conjuntos de dados de qualquer tamanho.
Estão corretas:
Você acertou!
A. I e II, apenas.
Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em
um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar
relatórios com informações reais. 
Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo
um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento,
entre outras caracterís�cas.
Resposta incorreta.
B. II e III, apenas.
Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em
um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar
relatórios com informações reais. 
Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo
um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento,
entre outras caracterís�cas.
Resposta incorreta.
C. I, apenas.
󱀹
󰄴
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em
um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar
relatórios com informações reais. 
Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo
um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento,
entre outras caracterís�cas.
Resposta incorreta.
D. III, apenas.
Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em
um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar
relatórios com informações reais. 
Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo
um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento,
entre outras caracterís�cas.
Resposta incorreta.
E. I, II e III.
Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em
um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar
relatórios com informações reais. 
Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo
um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento,
entre outras caracterís�cas.
Próximo
1 de 5 perguntas
󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:15
2. Devido às qualidades e quan�dades do big data, computadores individuais geralmente são inadequados para
manipular os dados na maioria dos estágios. Em ambiente de servidores para lidar com grandes conjuntos de
dados, geralmente se adota uma estrutura capaz de suportar o volume de dados que irá trafegar: um cluster.
Clustering de big data combina os recursos de muitas máquinas menores, buscando fornecer vários
bene�cios. Sobre os bene�cios de um cluster, analise as afirmações a seguir:
I. Pool de recursos combina espaço de armazenamento ao uso de CPUs e memória RAM de várias máquinas
em um único propósito. 
II. Escalabilidade dos clusters facilitam o dimensionamento ver�cal adicionando mais discos de
armazenamentos, memória e CPU às máquinas do grupo. 
III. Alta disponibilidade em clusters fornece níveis variados de tolerância a falhas, garan�ndo disponibilidade
para impedir que falhas de hardware ou so�ware afetem o acesso a dados e processamento.
Está correto o que se afirma em:
Você não acertou!
A. I, apenas.
O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias
máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que
juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta
disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser
replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento
escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o
acréscimo de mais componentes aos computadores existentes.
Resposta incorreta.
B. II, apenas.
O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias
máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que
juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta
disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser
replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento
󱀹
2 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o
acréscimo de mais componentes aos computadores existentes.
Resposta incorreta.
C. III, apenas.
O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias
máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que
juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta
disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser
replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento
escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o
acréscimo de mais componentes aos computadores existentes.
Resposta incorreta.
D. I e II, apenas.
O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias
máquinas como se fossem uma só, gerando um supercomputador a par�rde máquinas mais simples, que
juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta
disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser
replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento
escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o
acréscimo de mais componentes aos computadores existentes.
Resposta correta.
E. I e III, apenas.
O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias
máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que
juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta
disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser
replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento
escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o
acréscimo de mais componentes aos computadores existentes.
 Voltar Próximo
2 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:15
3. Uma maneira de adicionar dados a um sistema de big data são as ferramentas dedicadas de inserção ou
ingestão. Durante o processo de ingestão, geralmente ocorre algum nível de análise, classificação e rotulagem
dos dados. As operações �picas podem incluir e modificar os dados recebidos para formatá-los, categorizar e
rotular dados, filtrar dados desnecessários, incorretos ou validar potencialmente a conformidade com certos
requisitos. 
Esse processo ou técnica é conhecido tradicionalmente por:
Resposta incorreta.
A. NoSQL.
ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a
inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados
indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System
(sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema
Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data
warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados
após o processo de ETL em um projeto big data.
Resposta incorreta.
B. SQL Injec�on.
ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a
inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados
indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System
(sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema
Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data
warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados
após o processo de ETL em um projeto big data.
Você acertou!
C. ETL.
󱀹
󰄴
3 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a
inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados
indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System
(sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema
Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data
warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados
após o processo de ETL em um projeto big data.
Resposta incorreta.
D. HDFS.
ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a
inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados
indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System
(sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema
Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data
warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados
após o processo de ETL em um projeto big data.
Resposta incorreta.
E. data warehouse.
ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a
inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados
indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System
(sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema
Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data
warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados
após o processo de ETL em um projeto big data.
 Voltar Próximo
3 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:15
4. No ecossistema Hadoop, os arquivos carregados do HDFS são armazenados em cache na memória
compar�lhada, que pode ser acessada diretamente por uma biblioteca e um sistema cliente. Dentro do uso de
HDFS é comum o processamento em lote. Esse processamento é um método de computação em um grande
conjunto de dados.
Sobre o processamento em lote, qual é a alterna�va correta?
Resposta incorreta.
A. É conhecido como processo cujas etapas são extração, transformação e carga dos dados. 
Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um
cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos
dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções
map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de
dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados
menores.
Resposta correta.
B. Processo que divide o trabalho em partes menores, reorganiza os dados e calcula o resultado final.
Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um
cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos
dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções
map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de
dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados
menores.
Resposta incorreta.
C. Processo no qual etapas geralmente são chamadas por um algoritmo de redução de mapa distribuído.
Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um
cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos
dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções
󱀹
4 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de
dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados
menores.
Você não acertou!
D. Procedimento mais ú�l ao lidar com conjuntos de dados menores, pois exige mais de poder computacional.
Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um
cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos
dados, e não o processamentoem lote. MapReduce é a técnica que usa de algoritmos por meio das funções
map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de
dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados
menores.
Resposta incorreta.
E. Sistema que verifica por meio de algoritmos as possíveis falhas que os dados podem apresentar.
Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um
cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos
dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções
map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de
dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados
menores.
 Voltar Próximo
4 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:15
5. O ecossistema Hadoop foi projetado par�ndo do pressuposto que a falha do hardware no qual estão os
arquivos e os dados é uma regra e não uma exceção. Sobre o Hadoop e seu ecossistema, analise as afirmações
a seguir:
I. MapReduce é um framework ou técnica que permite que os dados sejam processados paralelamente. 
II. R e Python são bibliotecas pertencentes ao framework Apache Spark. 
III. Cassandra, HBase e Hive são bancos de dados NoSQL criados para o ecossistema Hadoop.
Sobre os sistemas que envolvem o Hadoop, está correto o que se afirma em:
Resposta correta.
A. I, apenas.
MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com
processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem
fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e
HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora
atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do
Facebook.
Resposta incorreta.
B. II e III, apenas.
MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com
processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem
fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e
HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora
atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do
Facebook.
Resposta incorreta.
C. I, II e III, apenas.
󱀹
5 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com
processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem
fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e
HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora
atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do
Facebook.
Você não acertou!
D. II e III, apenas.
MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com
processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem
fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e
HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora
atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do
Facebook.
Resposta incorreta.
E. I e III, apenas.
MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com
processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem
fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e
HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora
atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do
Facebook.
Voltar
5 de 5 perguntas
󰅁
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:38
1. Qual dos conceitos a seguir é o mais adequado para definir big data?
Você acertou!
A. Big data é um grande volume de dados disponíveis de forma estruturada ou não, oriundo de diversas
fontes, sejam internas ou externas à organização, e acessíveis em alta velocidade que exigem formas
inovadoras de processamento para uso em tomada de decisões.
Com o aumento significa�vo da quan�dade de dados gerados pela Internet e com o surgimento das mídias
sociais, é necessário gerenciar e armazenar as informações de maneira organizada. Esses dados podem ser
classificados em estruturados, não estruturados e semiestruturados, dependendo da forma como são
gerenciados e armazenados.
Resposta incorreta.
B. Big data é um conjunto de dados fortemente estruturados, que servem para orientar equipamentos de
automação em relação às suas tarefas básicas.
Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse
mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de
forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e
aproveitada em tempo hábil.
Resposta incorreta.
C. Big data é uma sequência finita de instruções bem definidas e não ambíguas, cada uma das quais devendo ser
executada mecânica ou eletronicamente em um intervalo de tempo finito e com uma quan�dade de esforço
finita.
Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse
mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de
forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e
aproveitada em tempo hábil.
󱀹
󰄴
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
D. Big data é uma rede de objetos �sicos, veículos, prédios e outros elementos que possuem tecnologia embarcada,
sensores e conexão com rede capaz de coletar e transmi�r dados.
Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse
mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de
forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e
aproveitada em tempo hábil.
Resposta incorreta.
E. Big data é a linguagem de pesquisa declara�va padrão para banco de dados relacional.
Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse
mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de
forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e
aproveitada em tempo hábil.
Próximo
1 de 5 perguntas
󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:38
2. Qual das tecnologias a seguir representa um �po de conexão u�lizado em equipamentos que compõem
soluções baseadas no conceito de IoT?
Resposta incorreta.
A. Intel Dual Core.
1. 1. 
2. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G
e ethernet.
Resposta correta.
B. Bluetooth.
As redes de comunicação u�lizadas para IoT comuns e conhecidas são: Wi-Fi, Bluetooth e NFC. Contudo,
essas redes possuem alcance limitado, de modo que determinadas aplicações dependem de redes móveis
como 3G e 4G.
Você não acertou!
C. SQL.
1. 1. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G
e ethernet.
Resposta incorreta.
D. Oracle.
1. 1. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi,zigbee, bluetooth, 3G/4G
e ethernet.
󱀹
2 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
E. ARPNET.
Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet.
 Voltar Próximo
2 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:38
3. A arquitetura mais geral definida para IoT é composta por três elementos básicos. São eles:
Resposta incorreta.
A. Entrada, processamento e saída.
As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT
são a camada de percepção/atuação, a camada de rede e a camada de aplicação.
Resposta incorreta.
B. Rede lógica, rede �sica e protocolo de rede.
As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT
são a camada de percepção/atuação, a camada de rede e a camada de aplicação. 
Resposta correta.
C. Percepção/atuação, rede e aplicação.
Essas três camadas são consideradas básicas em termos de arquitetura comum nas soluções
desenvolvidads para IoT.
Você não acertou!
D. Integridade, veracidade e confiabilidade.
As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT
são a camada de percepção/atuação, a camada de rede e a camada de aplicação. 
Resposta incorreta.
󱀹
3 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
E. Gestão, operação e análise.
As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT
são a camada de percepção/atuação, a camada de rede e a camada de aplicação. 
 Voltar Próximo
3 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:38
4. Pode-se afirmar que os dados gerados para análises baseadas em big data na Internet são classificados como:
Resposta incorreta.
A. Estruturados.
Esses dados podem ser classificados em estruturados, não estruturados ou semiestruturados, dependendo
de seu gerenciamento e armazenamento.
Resposta incorreta.
B. Estruturados ou arranjados.
Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo
de seu gerenciamento e armazenamento. 
Resposta correta.
C. Estruturados, não estruturados ou semiestruturados.
Com o aumento significa�vo da quan�dade de dados gerados pela Internet e com o surgimento das mídias
sociais, é necessário gerenciar e armazenar as informações de maneira organizada.
Você não acertou!
D. Dados brutos.
Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo
de seu gerenciamento e armazenamento. 
Resposta incorreta.
󱀹
4 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
E. Dados brutos e dados binários.
Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo
de seu gerenciamento e armazenamento. 
 Voltar Próximo
4 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:38
5. Dentre as tecnologias de comunicação u�lizadas em IoT, as mais conhecidas são:
Resposta incorreta.
A. Banco de dados, processador e memória.
1. 
Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet.
Resposta incorreta.
B. Notebook, smartphone e tablets.
Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet.
Resposta incorreta.
C. HDMI, VGA e DVI. 
Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet.
Você não acertou!
D. Rede coaxial, intranet e extranet.
Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet.
Resposta correta.
E. Wi-Fi, zigbee, bluetooth e 3G/4G.
󱀹
5 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Essas são as tecnologias de rede sem fio u�lizadas em soluções para IoT.
Voltar
5 de 5 perguntas
󰅁
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:18
1. Os dados podem ser considerados recursos a�vos gerados automa�camente em toda a�vidade exercida; se
tratados e analisados têm grande valor para o mercado. Assinale a alterna�va que contempla a definição
correta sobre o dado. 
Resposta correta.
A. É uma quan�dade de fatos não analisados.
Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso,
podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um
contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do
algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito.
Você não acertou!
B. Fornece significado contextualizado.
Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso,
podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um
contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do
algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito.
Resposta incorreta.
C. Pode ser definido como uma experiência.
Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso,
podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um
contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do
algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito.
Resposta incorreta.
󱀹
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
D. O seu sen�do é estabelecido quando apresentado só.
Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso,
podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um
contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do
algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito.
Resposta incorreta.
E. São a�vos tecnológicos padronizadores.
Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso,
podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um
contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do
algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito.
Próximo
1 de 5 perguntas
󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:18
2. A obtenção dos dados ocorre por meio de diversas fontes: e-mails, redes sociais, smartphones, tablets, entre
outros. Dessa forma, com o passar do tempo, recursos computacionais se tornaram necessários para que tudo
isso possa ser aproveitado pelo mundo corpora�vo.
Assinale a alterna�va que apresenta os passos percorridos pelo dado durante seu uso na tomada de decisões
corpora�vas.
Resposta incorreta.
A. Tratamento, armazenamento, análise.
Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos
móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados,
onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus
respec�vos valores para a empresa e seus negócios.
Resposta incorreta.
B. Armazenamento, análise, coleta e tratamento.
Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos
móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados,
onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus
respec�vos valorespara a empresa e seus negócios.
Você acertou!
C. Coleta dos dados, armazenamento, tratamento e análise.
Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos
móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados,
onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus
respec�vos valores para a empresa e seus negócios.
󱀹
󰄴
2 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
D. Análise, tratamento e armazenamento.
Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos
móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados,
onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus
respec�vos valores para a empresa e seus negócios.
Resposta incorreta.
E. Tratamento, análise e coleta.
Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos
móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados,
onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus
respec�vos valores para a empresa e seus negócios.
 Voltar Próximo
2 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:18
3. A ciência de dados traz a mul�disciplinaridade para o mundo dos dados, e, agindo em conjunto com
tecnologias e ferramentas Big Data, pode contribuir para a geração e diversificação de novos negócios.
Assinale a alterna�va que traz algum princípio relacionado ao uso destes recursos em relação ao uso dos
dados. 
Resposta incorreta.
A. Permite o armazenamento dos dados an�gos como critério para aprovação de inves�mentos em novas
ferramentas.
Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a
visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além
disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de
decisão.
Você não acertou!
B. O Big Data permite que dados sejam armazenados e u�lizados após muitos anos, sem perder o valor.
Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a
visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além
disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de
decisão.
Resposta incorreta.
C. Ferramentas e tecnologias Big Data são gratuitas e geram redução de custos para empresa.
Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a
visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além
disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de
decisão.
󱀹
3 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta correta.
D. A ciência dos dados aplica conceitos esta�s�cos nos dados em conjunto com tecnologias Big Data.
Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a
visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além
disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de
decisão.
Resposta incorreta.
E. As tomadas de decisão dentro de uma empresa podem ser baseadas em análises primi�vas dos dados com
planilhas.
Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a
visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além
disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de
decisão.
 Voltar Próximo
3 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:18
4. As grandes empresas corpora�vas investem em tecnologias para que possam obter destes inves�mentos
lucros financeiros. Assinale a alterna�va que contém formas de como as empresas obtêm os dados de seus
clientes para uso da ciência de dados e Big Data. 
Resposta incorreta.
A. Por meio de abordagens pessoais em centros comerciais.
O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de
busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários,
para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam
coerentes com seus perfis.
Resposta incorreta.
B. Por meio de correspondências.
O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de
busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários,
para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam
coerentes com seus perfis.
Você não acertou!
C. Por meio de preenchimento de formulários em planilhas.
O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de
busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários,
para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam
coerentes com seus perfis.
Resposta incorreta.
󱀹
4 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
D. Por meio de ligações realizadas pelos call centers das empresas para seus clientes.
O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de
busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários,
para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam
coerentes com seus perfis.
Resposta correta.
E. Por meio de aplicações de terceiros, iden�ficação de disposi�vo, perfil do usuário.
O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de
busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários,
para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam
coerentes com seus perfis.
 Voltar Próximo
4 de 5 perguntas
󰅁 󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:18
5. As grandes companhias u�lizam as ferramentas computacionais para atender a alta demanda dos negócios,
já que atualmente o comportamento social demonstra claramente as transições que o mundo dos negócios
está sempre percorrendo. Assinale a alterna�va que traz formas de como as empresas fazem uso dos dados
de seus usuários para obter sucesso em seus negócios. 
Resposta incorreta.
A. Para realizar compras em seus cadastros.
As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises,
geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados,
integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos
realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é
o de nortear os processos da empresa para obter mais lucros por meio dos dados.
Resposta correta.
B. Fornecimento de serviços personalizados.
As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises,
geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados,
integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos
realizar ações próprias com os dadosob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é
o de nortear os processos da empresa para obter mais lucros por meio dos dados.
Resposta incorreta.
C. Para obter dados aleatórios que circulam na rede.
As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises,
geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados,
integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos
realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é
o de nortear os processos da empresa para obter mais lucros por meio dos dados.
󱀹
5 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Resposta incorreta.
D. Para manter a preferência do cliente.
As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises,
geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados,
integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos
realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é
o de nortear os processos da empresa para obter mais lucros por meio dos dados.
Você não acertou!
E. Para aplicar recurso de reconhecimento facial.
As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises,
geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados,
integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos
realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é
o de nortear os processos da empresa para obter mais lucros por meio dos dados.
Voltar
5 de 5 perguntas
󰅁
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:22
1. O processo de descoberta do conhecimento em cenários de big data costuma ser bastante complexo. Entre
algumas das dificuldades, está a questão do grande volume de dados para serem considerados na análise e
que, por sua vez, resultam em uma grande variedade de combinações. Há muitos recursos que podem ser
u�lizados para automa�zar esse processo, como, por exemplo, os algoritmos de aprendizagem de máquina.
Contudo, ainda assim, a apresentação das informações resultantes con�nua sendo necessária. Podem-se listar
algumas vantagens da adoção de data storytelling para auxiliar nesse processo.
Considere os seguintes itens:
I. Maior probabilidade de as pessoas se lembrarem de uma história do que de dados (esta�s�cas)
apresentadas de maneira direta.
II. Maior poder de persuasão para convencer as pessoas a tomarem uma ação baseada nos resultados
apresentados.
III. Mais engajamento da audiência.
IV. Possibilidade de den�ficar mais padrões ou insights nos dados.
V. Armazenamento de mais documentação.
Quais desses itens representam vantagens do data storytelling?
Você acertou!
A. I, II e III.
Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em
cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos
resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim,
deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo.
Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob
análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para
o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais
efe�va por todos os envolvidos.
Resposta incorreta.
B. I, II e IV.
Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em
cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos
󱀹
󰄴
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim,
deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo.
Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob
análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para
o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais
efe�va por todos os envolvidos.
Resposta incorreta.
C. I, II e V.
Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em
cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos
resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim,
deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo.
Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob
análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para
o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais
efe�va por todos os envolvidos.
Resposta incorreta.
D. II, III e IV.
Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em
cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos
resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim,
deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo.
Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob
análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para
o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais
efe�va por todos os envolvidos.
Resposta incorreta.
E. II, III e V.
Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em
cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos
resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim,
deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo.
Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob
análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para
o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais
efe�va por todos os envolvidos.
1 de 5 perguntas
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Próximo
1 de 5 perguntas
󰅂
Anterior Próximo󰬩 󰬫
HS󰍜 󰅀
Exercícios
Respostas enviadas em: 08/10/2022 01:22
2. Durante o desenvolvimento de narra�vas de dados visuais, ou visual data storytelling, diferentes a�vidades
devem ser realizadas pelo analista, ou sua equipe, trabalhando nessa apresentação. Lee et al. (2015)
descrevem algumas a�vidades que fazem parte desse processo.
Considere os seguintes itens:
I. Explorar e analisar os dados.
II. Ordenar pedaços da história.
III. Construir a apresentação.
IV. Comparar a história.
V. Compar�lhar a história.
Quais deles representam essas a�vidades?
Resposta incorreta.
A. I, II e III.
Segundo as considerações de Lee et al. (2015), são a�vidades do processo de narra�va de dados visuais, ou
visual data storytelling: coletar fatos, explorar e analisar dados, construir a apresentação, compar�lhar a
história (audiência), fornecer a entrada (apresentador), responder a entrada. Não é descrita pelos autores a
necessidade de comparar a história criada com outras já desenvolvidas durante o processo.

Continue navegando