Baixe o app para aproveitar ainda mais
Prévia do material em texto
Exercícios Respostas enviadas em: 08/10/2022 01:40 1. Realizar uma análise u�lizando uma informação a fim de encontrar padrões voltados a valores relacionados à média, à moda, à variância e à mediana é considerada uma forma de análise, permi�ndo definir novos padrões. Esse conceito se refere à: Você acertou! A. Análise univariada. A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis) permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada, bivariada e mul�variada. Resposta incorreta. B. Análise bivariada. A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis) permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada, bivariada e mul�variada. Resposta incorreta. 1 de 5 perguntas Anterior Próximo HS C. Análise mul�variada. A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis) permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada, bivariada e mul�variada. Resposta incorreta. D. Análise descri�va. A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis) permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada, bivariada e mul�variada. Resposta incorreta. E. Análise exploratória de dados. A análise univariada u�liza apenas uma informação para encontrar padrões e é a forma mais simples de análise. A análise bivariada trabalha avaliando duas variáveis. A análise esta�s�ca bivariada (duas variáveis) permite observar como duas variáveis se comportam na presença uma da outra. A análise mul�variada consiste em um conjunto de métodos esta�s�cos u�lizados em situações em que várias variáveis são medidas simultaneamente em cada elemento amostral. Análise descri�va é considerada a primeira análise para que se possa descrever e resumir os dados, permi�ndo iden�ficar o seu comportamento. A análise exploratória de dados é uma abordagem à análise de conjuntos de dados de modo a resumir suas caracterís�cas principais, frequentemente com métodos visuais, e engloba todas as análises – univariada, bivariada e mul�variada. Próximo 1 de 5 perguntas Anterior Próximo HS 1 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:40 2. As variáveis têm �pos, como numéricas e categóricas. Ainda dentro das variáveis do �po numérica, elas se dividem em discreta e con�nua. Todavia, as variáveis categóricas se dividem em nominal e ordinal. A variável grau de sa�sfação, que pode ser ó�mo, muito bom, bom e ruim, classifica-se como: Resposta incorreta. A. Categórica nominal. A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como altura e peso. Resposta correta. B. Categórica ordinal. A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como altura e peso. Você não acertou! C. Numérica discreta. A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como altura e peso. 2 de 5 perguntas Anterior Próximo HS Resposta incorreta. D. Numérica con�nua. A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como altura e peso. Resposta incorreta. E. Quan�ta�va discreta. A categórica nominal ocorre quando a variável não tem uma ordem natural, a exemplo de nome, sexo. A categórica ordinal ocorre quando as categorias podem ser ordenadas, a exemplo de tamanho. As variáveis numérica discreta e quan�ta�va discreta se referem ao mesmo �po de variável e elas assumem valores inteiros, a exemplo da idade. A numérica con�nua representa valores no formato de números reais, como altura e peso. Voltar Próximo 2 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:40 3. Ao se realizar um processo no qual se faz uma análise sobre um grande conjunto de dados conhecidos, com diversas variáveis, busca-se diminuir a quan�dade dessas variáveis ou agrupar as informações em categorias homogêneas. Esse processo pode ser considerado como sendo: Resposta incorreta. A. Análise conclusiva. Asanálises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em uma grande variedade de dados são a esta�s�ca exploratória. Resposta incorreta. B. Esta�s�ca inferencial. As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em uma grande variedade de dados são a esta�s�ca exploratória. Você acertou! C. Abordagem descri�va. 3 de 5 perguntas Anterior Próximo HS As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em uma grande variedade de dados são a esta�s�ca exploratória. Resposta incorreta. D. Análise esta�s�ca. As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em uma grande variedade de dados são a esta�s�ca exploratória. Resposta incorreta. E. Esta�s�ca exploratória. As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais obje�va, pois partem de perguntas muito específicas que deverão ser respondidas por meio do processo analí�co. Em uma abordagem descri�va já se conhece o assunto a ser estudado, bem como o segmento desses dados agrupados, diminuindo a quan�dade de variáveis em categorias homogêneas. A esta�s�ca inferencial u�liza a base de conhecimento ou experiência necessária para desenvolver o raciocínio sobre os dados, de forma a se obter conclusões. A análise esta�s�ca é a ciência de coletar, explorar e apresentar grandes quan�dades de dados para descobrir padrões e tendências subjacentes. As técnicas úteis para o reconhecimento e a descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em uma grande variedade de dados são a esta�s�ca exploratória. Voltar Próximo 3 de 5 perguntas Anterior Próximo HS 3 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:40 4. A linguagem Python contém diferentes �pos de bibliotecas para se trabalhar com data science, entre elas: NumPy, SciPy, Pandas, Matplotlib e Seaborn. Uma delas é uma biblioteca de baixo nível para criar diagramas e gráficos bidimensionais. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não cartesianas. Dentre as bibliotecas citadas, a qual se refere essa descrição? Resposta incorreta. A. NumPy. A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais, contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral. Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib. Ela contém configurações padrão mais adequadas para o processamento de gráficos. Você não acertou! B. SciPy. A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais, contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral. Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib. Ela contém configurações padrão mais adequadas para o processamento de gráficos. 4 de 5 perguntas Anterior Próximo HS Resposta incorreta. C. Pandas. A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais, contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral. Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib. Ela contém configurações padrão mais adequadas para o processamento de gráficos. Resposta correta. D. Matplotlib. ANumpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais, contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral. Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib. Ela contém configurações padrão mais adequadas para o processamento de gráficos. Resposta incorreta. E. Seaborn. A Numpy permite realizar cálculos sobre matrizes com grande volume de dados e mul�dimensionais, contendo vários métodos para a realização desses cálculos. A SciPy, uma implementação a par�r da biblioteca Numpy, realiza cálculos de probabilidade por meio de métodos algébricos e cálculo integral. Todavia, a biblioteca Pandas, desenvolvida em Python, permite realizar filtros, agrupamentos e combinação de valores para facilitar na análise dos dados. A Matplotlib é uma biblioteca em Python que possibilita a criação de gráficos e diagramas, facilitando a visualização desses dados. Com esse pacote, você pode construir gráficos diversos, desde histogramas e gráficos de dispersão a gráficos de coordenadas não cartesianas. A Seaborn é essencialmente uma API de alto nível baseada na biblioteca Matplotlib. Ela contém configurações padrão mais adequadas para o processamento de gráficos. Voltar Próximo4 de 5 perguntas Anterior Próximo HS 4 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:40 5. Para cada �po de informação pode-se ter um melhor formato de visualização, como uma estratégia para auxiliar na análise dos seus valores. Uma empresa do ramo de varejo deseja analisar o comportamento dos preços de seus produtos. Considerando um array composto por um segmento de produtos e seus respec�vos preços, tais como: Produtos = [‘Vinho Tinto’, ‘Biscoito Importado’,’Azeite de Oliva’,’Conjunto de Copos’,’Jogo de Talheres’, ‘Sabão Liquido’] Preços = [ 23.79, 19.49, 21.89, 24.19, 22.59, 24.09] Qual seria o melhor gráfico a ser aplicado para realizar tal análise? Resposta incorreta. A. Gráfico de linhas . Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há discrepâncias entre elas. Você não acertou! B. Gráfico de barras. Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há discrepâncias entre elas. Resposta incorreta. C. Gráfico de setores. 5 de 5 perguntas Anterior Próximo HS Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há discrepâncias entre elas. Resposta incorreta. D. Gráfico box-plot. Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há discrepâncias entre elas. Resposta correta. E. Gráfico de dispersão. Gráficos de linhas, barras e setores não são indicados na u�lização desse cenário, pois os preços têm valores próximos e são do �po de variável numérica con�nua. O gráfico box-plot não deve ser aplicado neste exemplo, pois se u�liza de uma única variável. O gráfico de dispersão permite a visualização de uma possível relação entre o produto e o seu preço, bem como o comportamento entre eles, e facilita no entendimento que, por mais que entre essas variáveis existam medidas muito semelhantes, há discrepâncias entre elas. Voltar 5 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:51 1. Quando se deseja criar aplicações u�lizando o Hadoop MapReduce, é necessário usar interfaces específicas. Assinale a alterna�va que representa apenas interfaces de aplicações Hadoop MapReduce: Você não acertou! A. Job, Counter, JavaRDD e JavaPairRDD. As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark. Resposta incorreta. B. Mapper, JavaRDD, Reduce e Counter. As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark. Resposta incorreta. C. Job, Counter, Par��oner e JavaRDD. As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark. Resposta correta. D. Mapper, Reducer, Par��oner e Counter. As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark. Resposta incorreta. 1 de 5 perguntas Anterior Próximo HS E. Par��oner, JavaPairRDD, Job e Reducer. As interfaces de aplicações Hadoop MapReduce são Mapper, Reducer, Par��oner, Counter e Job. O JavaRDD e o JavaPairRDD são classes para implementação de aplicações u�lizadas no Apache Spark. Próximo 1 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:51 2. Uma aplicação que u�lize o Apache Spark para solucionar um desafio de Big Data tem operações de transformação e de ação. Assinale a alterna�va que representa apenas funções de transformação: Resposta incorreta. A. map, count e saveAsTextFile. As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count, saveAsTextFile e collect são operações de ação. Você acertou! B. map, groupByKey e filter. As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count, saveAsTextFile e collect são operações de ação. Resposta incorreta. C. count, groupByKey e union. As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count, saveAsTextFile e collect são operações de ação. Respostaincorreta. D. filter, saveAsTextFile e join. As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count, saveAsTextFile e collect são operações de ação. 2 de 5 perguntas Anterior Próximo HS Resposta incorreta. E. join, collect e intersec�on. As funções de transformação são: map, groupByKey, filter, union, join e intersec�on. As funções count, saveAsTextFile e collect são operações de ação. Voltar Próximo 2 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:51 3. A grosso modo, no Spark RDD, as operações que produzem novos RDDs são chamadas de transformações e as de ação representam funções para manipular um conjunto de dados no RDD atual. Assinale a alterna�va que representa a operação de ação que grava o RDD no arquivo: Resposta incorreta. A. sample. A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de transformação. Resposta incorreta. B. cartesian. A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de transformação. Você não acertou! C. take. A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de transformação. Resposta incorreta. 3 de 5 perguntas Anterior Próximo HS D. collect. A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de transformação. Resposta correta. E. saveAsTextFile. A opção que representa uma operação de ação que grava o RDD no arquivo é a saveAsTextFile. A take e a collect são operações de ação, sendo que a primeira retorna um array com os primeiros n elementos e a segunda, um array com todos os elementos. Já as funções sample e cartesian são operações de transformação. Voltar Próximo 3 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:51 4. Com o MapReduce, é possível processar um conjunto de dados muito grande em paralelo e de forma distribuída. Assinale a alterna�va que representa a afirmação verdadeira sobre as caracterís�cas e o funcionamento do MapReduce. Resposta incorreta. A. O MapReduce pode processar conjuntos de dados que chegam a até alguns gigabytes de dados. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce, o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o agendamento e o monitoramento das falhas são de responsabilidade do próprio framework. Resposta incorreta. B. Para u�lizar o MapReduce, é necessário u�lizar servidores poderosos, pouco acessíveis aos usuários comuns. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce, o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o agendamento e o monitoramento das falhas são de responsabilidade do próprio framework. Resposta correta. C. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce, o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o agendamento e o monitoramento das falhas são de responsabilidade do próprio framework. 4 de 5 perguntas Anterior Próximo HS Você não acertou! D. Mesmo com o MapReduce, é necessário cuidar de problemas como tolerância a falhas e confiabilidade. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce, o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o agendamento e o monitoramento das falhas são de responsabilidade do próprio framework. Resposta incorreta. E. No MapReduce, o agendamento e o monitoramento de tarefas são de total responsabilidade do programador. Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós. A quan�dade de dados que o MapReduce pode processar pode chegar a vários terabytes. Para u�lizar o MapReduce, é possível u�lizar máquinas e redes comuns na composição do seu cluster. Com o MapReduce, o programador não precisa se preocupar com problemas como tolerância a falhas e confiabilidade; o agendamento e o monitoramento das falhas são de responsabilidade do próprio framework. Voltar Próximo 4 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:51 5. O MapReduce superou desafios relacionados ao processamento paralelo e distribuído como divisão da tarefa entre os nós, confiabilidades e tolerância a falhas. Assinale a alterna�va verdadeira em relação ao funcionamento do MapReduce: Resposta correta. A. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento, as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor 1 para cada uma delas. Resposta incorreta. B. Após a redução, são somados os 1s da lista de valores de cada uma das chaves, formando uma saída do �po C2, V2. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento, as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor 1 para cada uma delas. Resposta incorreta. C. Uma aplicação que u�liza o MapReduce tem obrigatoriamente nós de processamento e armazenamento exclusivos. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento, 5 de 5 perguntas AnteriorPróximo HS as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor 1 para cada uma delas. Você não acertou! D. As tarefas da fase de mapeamento do MapReduce geram saídas do �po C1, V1, que serão consumidas pela fase de redução. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento, as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor 1 para cada uma delas. Resposta incorreta. E. No MapReduce, a fase de mapeamento separa as palavras em chaves e adiciona como valor o número de ocorrências de cada uma. As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução. Após fazer a redução, a saída é do �po C3, V3. Geralmente, em aplicações que u�lizam o MapReduce, os nós de processamento e armazenamento são os mesmos. Depois da fase de mapeamento, as saídas geradas são do �po C2, V2. A fase de mapeamento separa as palavras em chaves e vincula o valor 1 para cada uma delas. Voltar 5 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:15 1. Um dos primeiros passos para lidar com big data é o planejamento. Com um projeto bem feito, deve ser levado em consideração que �po de dado, com que frequência e em quais condições os dados se encontram. Sobre os primeiros passos em um projeto de big data, analise as afirmações a seguir: I. ETL é um processo importante na obtenção de dados. II. Com os dados disponíveis, o sistema pode começar a processá-los para exibir informações reais. III. Os requisitos básicos para trabalhar com big data não são os mesmos u�lizados para trabalhar com conjuntos de dados de qualquer tamanho. Estão corretas: Você acertou! A. I e II, apenas. Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar relatórios com informações reais. Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento, entre outras caracterís�cas. Resposta incorreta. B. II e III, apenas. Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar relatórios com informações reais. Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento, entre outras caracterís�cas. Resposta incorreta. C. I, apenas. 1 de 5 perguntas Anterior Próximo HS Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar relatórios com informações reais. Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento, entre outras caracterís�cas. Resposta incorreta. D. III, apenas. Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar relatórios com informações reais. Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento, entre outras caracterís�cas. Resposta incorreta. E. I, II e III. Extração, Transformação e Carga (ETL) é um dos primeiros processos a serem realizados com os dados em um sistema de big data. Esse processo prepara os dados para serem analisados, assim podendo gerar relatórios com informações reais. Os requisitos básicos para lidar com big data ou com dados em menor tamanho são os mesmos, incluindo um local de armazenamento, etapas de recebimento e inserção dos dados no local de armazenamento, entre outras caracterís�cas. Próximo 1 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:15 2. Devido às qualidades e quan�dades do big data, computadores individuais geralmente são inadequados para manipular os dados na maioria dos estágios. Em ambiente de servidores para lidar com grandes conjuntos de dados, geralmente se adota uma estrutura capaz de suportar o volume de dados que irá trafegar: um cluster. Clustering de big data combina os recursos de muitas máquinas menores, buscando fornecer vários bene�cios. Sobre os bene�cios de um cluster, analise as afirmações a seguir: I. Pool de recursos combina espaço de armazenamento ao uso de CPUs e memória RAM de várias máquinas em um único propósito. II. Escalabilidade dos clusters facilitam o dimensionamento ver�cal adicionando mais discos de armazenamentos, memória e CPU às máquinas do grupo. III. Alta disponibilidade em clusters fornece níveis variados de tolerância a falhas, garan�ndo disponibilidade para impedir que falhas de hardware ou so�ware afetem o acesso a dados e processamento. Está correto o que se afirma em: Você não acertou! A. I, apenas. O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o acréscimo de mais componentes aos computadores existentes. Resposta incorreta. B. II, apenas. O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento 2 de 5 perguntas Anterior Próximo HS escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o acréscimo de mais componentes aos computadores existentes. Resposta incorreta. C. III, apenas. O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o acréscimo de mais componentes aos computadores existentes. Resposta incorreta. D. I e II, apenas. O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias máquinas como se fossem uma só, gerando um supercomputador a par�rde máquinas mais simples, que juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o acréscimo de mais componentes aos computadores existentes. Resposta correta. E. I e III, apenas. O chamado pool de recursos de um cluster inclui a junção das capacidades computacionais de várias máquinas como se fossem uma só, gerando um supercomputador a par�r de máquinas mais simples, que juntam sua capacidade de processador (CPU), discos de armazenamento e de memória RAM. A alta disponibilidade dos clusters também mantém certa segurança ante falhas, uma vez que os dados podem ser replicados entre os nós do cluster. A escalabilidade fácil do cluster é uma virtude, mas seu crescimento escalar é horizontal e não ver�cal. Quem aumenta é o número de nós (agregando mais máquinas) e não o acréscimo de mais componentes aos computadores existentes. Voltar Próximo 2 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:15 3. Uma maneira de adicionar dados a um sistema de big data são as ferramentas dedicadas de inserção ou ingestão. Durante o processo de ingestão, geralmente ocorre algum nível de análise, classificação e rotulagem dos dados. As operações �picas podem incluir e modificar os dados recebidos para formatá-los, categorizar e rotular dados, filtrar dados desnecessários, incorretos ou validar potencialmente a conformidade com certos requisitos. Esse processo ou técnica é conhecido tradicionalmente por: Resposta incorreta. A. NoSQL. ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System (sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados após o processo de ETL em um projeto big data. Resposta incorreta. B. SQL Injec�on. ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System (sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados após o processo de ETL em um projeto big data. Você acertou! C. ETL. 3 de 5 perguntas Anterior Próximo HS ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System (sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados após o processo de ETL em um projeto big data. Resposta incorreta. D. HDFS. ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System (sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados após o processo de ETL em um projeto big data. Resposta incorreta. E. data warehouse. ETL é a tradicional etapa de extração, transformação e carga de dados. É como se realiza a ingestão ou a inserção de dados no armazenamento de sistemas de big data. SQL Injec�on é uma técnica de inserir dados indevidamente em bancos de dados relacionais. HDFS é a sigla para Hadoop Distributed File System (sistema de arquivos distribuídos Hadoop), um sistema que gerencia arquivos distribuídos no ecossistema Hadoop. NoSQL é como são chamados os bancos de dados não relacionais de modo geral. Já data warehouse é uma forma de chamar um armazém ou galpão de dados, que serve como base para dados após o processo de ETL em um projeto big data. Voltar Próximo 3 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:15 4. No ecossistema Hadoop, os arquivos carregados do HDFS são armazenados em cache na memória compar�lhada, que pode ser acessada diretamente por uma biblioteca e um sistema cliente. Dentro do uso de HDFS é comum o processamento em lote. Esse processamento é um método de computação em um grande conjunto de dados. Sobre o processamento em lote, qual é a alterna�va correta? Resposta incorreta. A. É conhecido como processo cujas etapas são extração, transformação e carga dos dados. Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados menores. Resposta correta. B. Processo que divide o trabalho em partes menores, reorganiza os dados e calcula o resultado final. Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados menores. Resposta incorreta. C. Processo no qual etapas geralmente são chamadas por um algoritmo de redução de mapa distribuído. Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções 4 de 5 perguntas Anterior Próximo HS map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados menores. Você não acertou! D. Procedimento mais ú�l ao lidar com conjuntos de dados menores, pois exige mais de poder computacional. Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos dados, e não o processamentoem lote. MapReduce é a técnica que usa de algoritmos por meio das funções map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados menores. Resposta incorreta. E. Sistema que verifica por meio de algoritmos as possíveis falhas que os dados podem apresentar. Este é um processo que divide o trabalho em partes menores, em diferentes computadores (nós de um cluster), organiza-os e calcula um resultado. ETL é o processo de extração, transformação e carga dos dados, e não o processamento em lote. MapReduce é a técnica que usa de algoritmos por meio das funções map (mapa) e reduce (reduzir). Processamento em lote é melhor empregado em grandes conjuntos de dados, pois requer mais de poder computacional, não valendo muito a pena para quan�dade de dados menores. Voltar Próximo 4 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:15 5. O ecossistema Hadoop foi projetado par�ndo do pressuposto que a falha do hardware no qual estão os arquivos e os dados é uma regra e não uma exceção. Sobre o Hadoop e seu ecossistema, analise as afirmações a seguir: I. MapReduce é um framework ou técnica que permite que os dados sejam processados paralelamente. II. R e Python são bibliotecas pertencentes ao framework Apache Spark. III. Cassandra, HBase e Hive são bancos de dados NoSQL criados para o ecossistema Hadoop. Sobre os sistemas que envolvem o Hadoop, está correto o que se afirma em: Resposta correta. A. I, apenas. MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do Facebook. Resposta incorreta. B. II e III, apenas. MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do Facebook. Resposta incorreta. C. I, II e III, apenas. 5 de 5 perguntas Anterior Próximo HS MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do Facebook. Você não acertou! D. II e III, apenas. MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do Facebook. Resposta incorreta. E. I e III, apenas. MapReduce é considerada uma técnica ou framework baseado em algoritmos para lidar com processamento paralelo em sistemas distribuídos. R e Python são linguagens de programação e podem fazer parte de projetos que envolvam Hadoop, mas são independentes desse ecossistema também. Hive e HBase são considerados bancos de dados NoSQL, desenvolvidos inicialmente para o Hadoop (embora atualmente funcionem de outras formas), mas o Cassandra nasceu da equipe de desenvolvimento do Facebook. Voltar 5 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:38 1. Qual dos conceitos a seguir é o mais adequado para definir big data? Você acertou! A. Big data é um grande volume de dados disponíveis de forma estruturada ou não, oriundo de diversas fontes, sejam internas ou externas à organização, e acessíveis em alta velocidade que exigem formas inovadoras de processamento para uso em tomada de decisões. Com o aumento significa�vo da quan�dade de dados gerados pela Internet e com o surgimento das mídias sociais, é necessário gerenciar e armazenar as informações de maneira organizada. Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo da forma como são gerenciados e armazenados. Resposta incorreta. B. Big data é um conjunto de dados fortemente estruturados, que servem para orientar equipamentos de automação em relação às suas tarefas básicas. Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e aproveitada em tempo hábil. Resposta incorreta. C. Big data é uma sequência finita de instruções bem definidas e não ambíguas, cada uma das quais devendo ser executada mecânica ou eletronicamente em um intervalo de tempo finito e com uma quan�dade de esforço finita. Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e aproveitada em tempo hábil. 1 de 5 perguntas Anterior Próximo HS Resposta incorreta. D. Big data é uma rede de objetos �sicos, veículos, prédios e outros elementos que possuem tecnologia embarcada, sensores e conexão com rede capaz de coletar e transmi�r dados. Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e aproveitada em tempo hábil. Resposta incorreta. E. Big data é a linguagem de pesquisa declara�va padrão para banco de dados relacional. Pode-se definir o conceito de big data como conjuntos de dados extremamente amplos e que, por esse mo�vo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes de dados, de forma que toda e qualquer informação presente nesses meios possa ser encontrada, analisada e aproveitada em tempo hábil. Próximo 1 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:38 2. Qual das tecnologias a seguir representa um �po de conexão u�lizado em equipamentos que compõem soluções baseadas no conceito de IoT? Resposta incorreta. A. Intel Dual Core. 1. 1. 2. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Resposta correta. B. Bluetooth. As redes de comunicação u�lizadas para IoT comuns e conhecidas são: Wi-Fi, Bluetooth e NFC. Contudo, essas redes possuem alcance limitado, de modo que determinadas aplicações dependem de redes móveis como 3G e 4G. Você não acertou! C. SQL. 1. 1. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Resposta incorreta. D. Oracle. 1. 1. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi,zigbee, bluetooth, 3G/4G e ethernet. 2 de 5 perguntas Anterior Próximo HS Resposta incorreta. E. ARPNET. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Voltar Próximo 2 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:38 3. A arquitetura mais geral definida para IoT é composta por três elementos básicos. São eles: Resposta incorreta. A. Entrada, processamento e saída. As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT são a camada de percepção/atuação, a camada de rede e a camada de aplicação. Resposta incorreta. B. Rede lógica, rede �sica e protocolo de rede. As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT são a camada de percepção/atuação, a camada de rede e a camada de aplicação. Resposta correta. C. Percepção/atuação, rede e aplicação. Essas três camadas são consideradas básicas em termos de arquitetura comum nas soluções desenvolvidads para IoT. Você não acertou! D. Integridade, veracidade e confiabilidade. As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT são a camada de percepção/atuação, a camada de rede e a camada de aplicação. Resposta incorreta. 3 de 5 perguntas Anterior Próximo HS E. Gestão, operação e análise. As três camadas que configuram uma tenta�va de criar padrões no desenvolvimento de soluções para IoT são a camada de percepção/atuação, a camada de rede e a camada de aplicação. Voltar Próximo 3 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:38 4. Pode-se afirmar que os dados gerados para análises baseadas em big data na Internet são classificados como: Resposta incorreta. A. Estruturados. Esses dados podem ser classificados em estruturados, não estruturados ou semiestruturados, dependendo de seu gerenciamento e armazenamento. Resposta incorreta. B. Estruturados ou arranjados. Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo de seu gerenciamento e armazenamento. Resposta correta. C. Estruturados, não estruturados ou semiestruturados. Com o aumento significa�vo da quan�dade de dados gerados pela Internet e com o surgimento das mídias sociais, é necessário gerenciar e armazenar as informações de maneira organizada. Você não acertou! D. Dados brutos. Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo de seu gerenciamento e armazenamento. Resposta incorreta. 4 de 5 perguntas Anterior Próximo HS E. Dados brutos e dados binários. Esses dados podem ser classificados em estruturados, não estruturados e semiestruturados, dependendo de seu gerenciamento e armazenamento. Voltar Próximo 4 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:38 5. Dentre as tecnologias de comunicação u�lizadas em IoT, as mais conhecidas são: Resposta incorreta. A. Banco de dados, processador e memória. 1. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Resposta incorreta. B. Notebook, smartphone e tablets. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Resposta incorreta. C. HDMI, VGA e DVI. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Você não acertou! D. Rede coaxial, intranet e extranet. Dentre as tecnologias de comunicação u�lizadas em IoT, estão Wi-Fi, zigbee, bluetooth, 3G/4G e ethernet. Resposta correta. E. Wi-Fi, zigbee, bluetooth e 3G/4G. 5 de 5 perguntas Anterior Próximo HS Essas são as tecnologias de rede sem fio u�lizadas em soluções para IoT. Voltar 5 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:18 1. Os dados podem ser considerados recursos a�vos gerados automa�camente em toda a�vidade exercida; se tratados e analisados têm grande valor para o mercado. Assinale a alterna�va que contempla a definição correta sobre o dado. Resposta correta. A. É uma quan�dade de fatos não analisados. Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso, podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito. Você não acertou! B. Fornece significado contextualizado. Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso, podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito. Resposta incorreta. C. Pode ser definido como uma experiência. Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso, podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito. Resposta incorreta. 1 de 5 perguntas Anterior Próximo HS D. O seu sen�do é estabelecido quando apresentado só. Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso, podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito. Resposta incorreta. E. São a�vos tecnológicos padronizadores. Os dados representam acontecimentos presentes em corporações ou em ambientes diversos. Por isso, podem ser considerados uma sequência de fatos que ainda não passaram por análise. Esta úl�ma traz um contexto para que eles façam sen�do, ou seja, não podem ser apresentados sós, pois não trazem sen�do algum, e sua contextualização é oriunda da junção dos dados com as informações a seu respeito. Próximo 1 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:18 2. A obtenção dos dados ocorre por meio de diversas fontes: e-mails, redes sociais, smartphones, tablets, entre outros. Dessa forma, com o passar do tempo, recursos computacionais se tornaram necessários para que tudo isso possa ser aproveitado pelo mundo corpora�vo. Assinale a alterna�va que apresenta os passos percorridos pelo dado durante seu uso na tomada de decisões corpora�vas. Resposta incorreta. A. Tratamento, armazenamento, análise. Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados, onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus respec�vos valores para a empresa e seus negócios. Resposta incorreta. B. Armazenamento, análise, coleta e tratamento. Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados, onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus respec�vos valorespara a empresa e seus negócios. Você acertou! C. Coleta dos dados, armazenamento, tratamento e análise. Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados, onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus respec�vos valores para a empresa e seus negócios. 2 de 5 perguntas Anterior Próximo HS Resposta incorreta. D. Análise, tratamento e armazenamento. Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados, onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus respec�vos valores para a empresa e seus negócios. Resposta incorreta. E. Tratamento, análise e coleta. Primeiro ocorre a coleta, onde os dados são ob�dos de diversas fontes, tais como e-mails, disposi�vos móveis, dentre outros. Posteriormente eles são armazenados, em bancos de dados específicos, tratados, onde receberão categorias e outras padronizações, e, por fim, analisados. Nessa etapa, são definidos seus respec�vos valores para a empresa e seus negócios. Voltar Próximo 2 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:18 3. A ciência de dados traz a mul�disciplinaridade para o mundo dos dados, e, agindo em conjunto com tecnologias e ferramentas Big Data, pode contribuir para a geração e diversificação de novos negócios. Assinale a alterna�va que traz algum princípio relacionado ao uso destes recursos em relação ao uso dos dados. Resposta incorreta. A. Permite o armazenamento dos dados an�gos como critério para aprovação de inves�mentos em novas ferramentas. Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de decisão. Você não acertou! B. O Big Data permite que dados sejam armazenados e u�lizados após muitos anos, sem perder o valor. Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de decisão. Resposta incorreta. C. Ferramentas e tecnologias Big Data são gratuitas e geram redução de custos para empresa. Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de decisão. 3 de 5 perguntas Anterior Próximo HS Resposta correta. D. A ciência dos dados aplica conceitos esta�s�cos nos dados em conjunto com tecnologias Big Data. Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de decisão. Resposta incorreta. E. As tomadas de decisão dentro de uma empresa podem ser baseadas em análises primi�vas dos dados com planilhas. Além de dados esta�s�cos, a ciência de dados aplica o refinamento, a mineração, o armazenamento e a visualização dos dados. Com isso a empresa passa a ter suporte suficiente para a tomada de decisões. Além disso, também pode redirecionar estes aspectos a outras tecnologias que automa�zam a tomada de decisão. Voltar Próximo 3 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:18 4. As grandes empresas corpora�vas investem em tecnologias para que possam obter destes inves�mentos lucros financeiros. Assinale a alterna�va que contém formas de como as empresas obtêm os dados de seus clientes para uso da ciência de dados e Big Data. Resposta incorreta. A. Por meio de abordagens pessoais em centros comerciais. O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários, para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam coerentes com seus perfis. Resposta incorreta. B. Por meio de correspondências. O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários, para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam coerentes com seus perfis. Você não acertou! C. Por meio de preenchimento de formulários em planilhas. O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários, para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam coerentes com seus perfis. Resposta incorreta. 4 de 5 perguntas Anterior Próximo HS D. Por meio de ligações realizadas pelos call centers das empresas para seus clientes. O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários, para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam coerentes com seus perfis. Resposta correta. E. Por meio de aplicações de terceiros, iden�ficação de disposi�vo, perfil do usuário. O monitoramento dos dados dos usuários é feito por meio de aplicações de terceiros, mecanismos de busca, so�wares especializados, cookies, dentre outros. O obje�vo é contextualizar o perfil dos usuários, para que todas as ações da empresa, sejam de marke�ng ou até mesmo de fidelização do cliente, sejam coerentes com seus perfis. Voltar Próximo 4 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:18 5. As grandes companhias u�lizam as ferramentas computacionais para atender a alta demanda dos negócios, já que atualmente o comportamento social demonstra claramente as transições que o mundo dos negócios está sempre percorrendo. Assinale a alterna�va que traz formas de como as empresas fazem uso dos dados de seus usuários para obter sucesso em seus negócios. Resposta incorreta. A. Para realizar compras em seus cadastros. As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises, geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados, integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é o de nortear os processos da empresa para obter mais lucros por meio dos dados. Resposta correta. B. Fornecimento de serviços personalizados. As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises, geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados, integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos realizar ações próprias com os dadosob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é o de nortear os processos da empresa para obter mais lucros por meio dos dados. Resposta incorreta. C. Para obter dados aleatórios que circulam na rede. As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises, geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados, integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é o de nortear os processos da empresa para obter mais lucros por meio dos dados. 5 de 5 perguntas Anterior Próximo HS Resposta incorreta. D. Para manter a preferência do cliente. As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises, geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados, integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é o de nortear os processos da empresa para obter mais lucros por meio dos dados. Você não acertou! E. Para aplicar recurso de reconhecimento facial. As grandes empresas u�lizam soluções de tecnologias e ferramentas Big Data para realização de análises, geralmente são realizadas para no�ficações, serviços de geolocalização, conteúdos personalizados, integração de contas, dentre outros. Com isso não se pode trabalhar com dados aleatórios e muito menos realizar ações próprias com os dados ob�dos, tendo em vista que o obje�vo da tecnologia nesse contexto é o de nortear os processos da empresa para obter mais lucros por meio dos dados. Voltar 5 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:22 1. O processo de descoberta do conhecimento em cenários de big data costuma ser bastante complexo. Entre algumas das dificuldades, está a questão do grande volume de dados para serem considerados na análise e que, por sua vez, resultam em uma grande variedade de combinações. Há muitos recursos que podem ser u�lizados para automa�zar esse processo, como, por exemplo, os algoritmos de aprendizagem de máquina. Contudo, ainda assim, a apresentação das informações resultantes con�nua sendo necessária. Podem-se listar algumas vantagens da adoção de data storytelling para auxiliar nesse processo. Considere os seguintes itens: I. Maior probabilidade de as pessoas se lembrarem de uma história do que de dados (esta�s�cas) apresentadas de maneira direta. II. Maior poder de persuasão para convencer as pessoas a tomarem uma ação baseada nos resultados apresentados. III. Mais engajamento da audiência. IV. Possibilidade de den�ficar mais padrões ou insights nos dados. V. Armazenamento de mais documentação. Quais desses itens representam vantagens do data storytelling? Você acertou! A. I, II e III. Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim, deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo. Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais efe�va por todos os envolvidos. Resposta incorreta. B. I, II e IV. Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos 1 de 5 perguntas Anterior Próximo HS resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim, deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo. Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais efe�va por todos os envolvidos. Resposta incorreta. C. I, II e V. Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim, deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo. Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais efe�va por todos os envolvidos. Resposta incorreta. D. II, III e IV. Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim, deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo. Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais efe�va por todos os envolvidos. Resposta incorreta. E. II, III e V. Muitas vantagens podem ser listadas com a adoção de estratégias para data storytelling, mesmo em cenários complexos como os de big data, pois a ferramenta pode promover a memorabilidade dos resultados apresentados, gerar maior poder de persuasão e engajamento da audiência. Sendo assim, deve promover, de maneira geral, uma melhoria na comunicação entre os �mes técnicos e o público-alvo. Contudo, não necessariamente irá permi�r iden�ficar mais padrões ou insights no conjunto de dados sob análise, nem tem por premissa armazenar mais documentação para a análise de dados. O enfoque para o data storytelling está em como apresentar os resultados para que sejam compreendidos de maneira mais efe�va por todos os envolvidos. 1 de 5 perguntas Anterior Próximo HS Próximo 1 de 5 perguntas Anterior Próximo HS Exercícios Respostas enviadas em: 08/10/2022 01:22 2. Durante o desenvolvimento de narra�vas de dados visuais, ou visual data storytelling, diferentes a�vidades devem ser realizadas pelo analista, ou sua equipe, trabalhando nessa apresentação. Lee et al. (2015) descrevem algumas a�vidades que fazem parte desse processo. Considere os seguintes itens: I. Explorar e analisar os dados. II. Ordenar pedaços da história. III. Construir a apresentação. IV. Comparar a história. V. Compar�lhar a história. Quais deles representam essas a�vidades? Resposta incorreta. A. I, II e III. Segundo as considerações de Lee et al. (2015), são a�vidades do processo de narra�va de dados visuais, ou visual data storytelling: coletar fatos, explorar e analisar dados, construir a apresentação, compar�lhar a história (audiência), fornecer a entrada (apresentador), responder a entrada. Não é descrita pelos autores a necessidade de comparar a história criada com outras já desenvolvidas durante o processo.
Compartilhar