Buscar

Big Data Apols

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

Questão 1/5 - Big Data
Dentro do contexto das tecnologias que desenvolvem e impulsionam o tratamento de grandes volumes de dados e que atuam com o “V” da velocidade do Big Data, temos o conjunto de ferramentas (framework) de codificação e programação MapReduce. O MapReduce foi elaborado para atuar com computação paralela distribuída, transformar grandes volumes de dados em pedaços menores. O MapReduce faz duas funções separadamente, sendo essas:
Nota: 20.0
	
	D
	Mapeamento de dados e redução de dados.
Você acertou!
Comentário: O MapReduce foi projetado para trabalhar com problemas que podem ser fracionados em, digamos, subproblemas, de forma que possamos trabalhar com a aplicação de duas funções separadamente: mapeamento (Map) e redução (Reduce).
Questão 2/5 - Big Data
Podemos descrever as mídias sociais como tecnologias e práticas na internet, onde os usuários utilizam para expor suas opiniões, experiências, perspectivas, sendo que o conteúdo publicado pode ter vários formatos incluindo: vídeos, fotos, animações, imagens e áudio. O crescimento dessas mídias possibilitou o compartilhamento de ideias, construção de comunidades virtuais e uma democratização do conteúdo. A estrutura de coleta de dados é formada por três componentes, assinale a alternativa que apresenta esses componentes:
Nota: 20.0
	
	A
	Armazenamento de dados, organização e análise de dados.
Você acertou!
Comentário:
Armazenamento de dados: a estratégia de distribuição dos servidores, os sistemas, a rede, enfim todos os aspectos de infraestrutura de tecnologia, a estruturado é um componente muito importante, uma boa distribuição garante que as informações serão armazenadas de forma adequada e segura, com políticas de backup, na maioria dos casos é necessário um bom investimento em estruturas físicas dentro das organizações ou contratação de serviços em computação na nuvem.
Organização: quando temos muitas informações existe a necessidade de categorizar e nivelar os dados não estruturados, semiestruturados e estruturados, tudo isso vem para auxiliar e facilitar nos processos de análise e na distribuição desses dados dentro das plataformas como Hadoop e os banco de dados NoSQL.
Análise de Dados: com todos os dados devidamente armazenados e organizados, a análise trata da extração das informações e faz toda tradução dessas informações em conhecimento, tendo como base os conceitos e regras de negócios, é bom comum o uso de estatística para auxiliar as organizações na tomada de decisão.
Questão 3/5 - Big Data
As estruturas de armazenamento de dados foram naturalmente evoluindo ou se adequando as novas necessidades. Dentro desse contexto, relacione os sistemas de armazenamento relacionais com seus respectivos conceitos:
1) Data Warehouse                   2) Data Marts
3) Granularidade                      4) OLAP
(   )  é um banco de dados dividido em partes menores e melhor gerenciáveis, geralmente são agrupados por departamentos corporativos como: contabilidade, finanças, recursos humanos, entre outros. 
(    ) são verdadeiros depósitos de dados, estruturados a partir de bancos de dados de operação, normalmente relacionais. Sua estrutura difere no sentido em que os dados são armazenados no intuito de facilitar a análise, com informações pré-calculadas e dados não normalizados 
(  ) é um modelo de processamento analítico em tempo real, é um gerenciador de banco de dados multidimensional, que normalmente está associado à construção de cubos. É aplicado de maneira otimizada para gerência de dados em formato multidimensional. 
(    )  se refere ao nível de detalhamento em que a informação gerencial é armazenada. O detalhe normalmente é fornecido através de relatórios, com finalidade de conferência, extraído do sistema transacional, para a área operacional.
Assinale a alternativa que correlaciona corretamente os componentes de armazenamento analítico com sua descrição:
Nota: 0.0
	
	A
	2,1,4 e 3.
Comentário: Um data warehouse guarda informações históricas por um período de 3 a 10 anos. A informação armazenada provém não apenas de um, mas de vários ou até centenas de sistemas transacionais diferentes. Já entendemos então que o data warehouse é um grande banco de dados analítico corporativo. Esse banco de dados deve estar dividido em partes menores e melhor gerenciáveis conhecidos como data marts. O nível de detalhamento em que a informação gerencial é armazenada é conhecido como “Grão”. Quanto menor o “Grão”, maior o nível de detalhe, mais performance e armazenamento é exigido do data warehouse. OLAP, acrônimo para Online Analytical Processing, ou processamento analítico em tempo real, é um gerenciador de banco de dados multidimensional, que normalmente está associado à construção de cubos.
Questão 4/5 - Big Data
Um processo de mineração inicialmente constrói um corpus, que é um conjunto de textos de um ou mais documentos. Criado o corpus, normalmente diversas operações são realizadas sobre este. Uma operação usual é a remoção das palavras sem valor semântico para o processo de mineração.
Dentro desse contexto, relacione os itens abaixo com seus respectivos conceitos.
1. Distância Levenshtein
2. Teoria dos Grafos
3. Lei de Benfort
4. Grafos para Cartéis 
(   ) é um acordo secreto entre empresas de uma mesma atividade, buscando fixar o preço de seus produtos, desta forma, não há livre concorrência. A relação de parentesco, entre sócios de diferentes empresas de ramos de atividades semelhantes. Além de mostrar as relações, o grafo facilmente exibe peças faltantes para o fechamento de ciclos de relações. 
(   ) pode ser aplicada para analisar faturamento, variação de preços, bolsa de valores, contas a pagar, dados de eleições entre muitos outros. Essa lei estatística vai além, ela nos dá a probabilidade da ocorrência do segundo, terceiro e quarto dígito. Também, dígitos podem ser analisados em conjunto. 
(   ) é uma métrica usada para analisar a diferença entre dois textos. A distância é calculada pelo número de operações necessárias para um texto ficar igual ao outro. Suas aplicações na ciência de dados são muitas: em qualidade de dados para buscar registros, como clientes duplicados, mas que foram digitados de forma semelhante; corretores ortográficos ou tradutores; reconhecimento ótico de caracteres (OCR); entre outros. 
(   ) é um elemento formado por pontos conectados. Tecnicamente, um ponto é chamado de vértice e a conexão, de aresta. As arestas podem ou não ter direção. É utilizada para soluções de problemas em economia, matemática, redes de computadores, logística, medicina, ciências sociais, biologia, entre outros.
Assinale a sequência correta:
Nota: 0.0
	
	A
	4,3,1 e 2.
Comentário: Aula 3, tema 5.
Questão 5/5 - Big Data
O termo Big Data começa a despertar muita atenção, mas ainda é um conceito mal definido e menos compreendido. Na definição de Big Data, utilizam-se características ou atributos que alguns pesquisadores adotam como sendo os cinco Vs. Porém, a base necessária para o reconhecimento de Big Data é formada por três propriedades:
Nota: 20.0
	
	D
	variedade, velocidade e volume.
Você acertou!
Comentário: Big Data, em geral, é definido como ativos de altos volume, velocidade e variedade de informação que exigem custo benefício, de formas inovadoras de processamento de informações para maior visibilidade e tomada de decisão. Big Data = volume + variedade + velocidade.
Questão 4/5 - Big Data
Existem um grande número de mídias sociais, com as mais diversas aplicações e objetivos, sendo que as categorias mais conhecidas na Internet são: entretenimento, multimídia, comunicação e colaboração. Relacione as mídias sociais abaixo com sua referida categoria:
1) Digg, Wikipedia e Yelp.                                                (   ) Comunicação
2) Facebook, Twitter, LinkedIn e Google+.                         (   ) Entretenimento
3) Youtube, Instagram e Flickr                                          (   ) Multimidia
4) TvTag e Second Life.(   ) Colaboração.
A sequência correta é:
Nota: 20.0
	
	B
	2,4,3 e 1.
Você acertou!
Comentário: Aula 5, tema 5.
Questão 5/5 - Big Data
Os projetos de big data envolvem uma série de variáveis, sendo que alguns aspectos precisam ser observados seja na etapa de preparação de dados ou análise dos mesmos. Dentre as características do big data que devem ser respeitadas ao longo do projeto são: variedade, velocidade e veracidade, acompanhada da conformidade. Relacione essas variáveis com seus respectivos conceitos:
1. Variedade
2. Velocidade
3. Veracidade
4. Conformidade 
(    ) A imensa diversidade de dados, estruturas e formatos é uma dificuldade para os projetos de big data, a integração de várias fontes de dados, novos tipos de dados (animações, vídeos, rede sociais, sensores) concatenados com fontes de dados já tradicionais (banco de dados relacionais, planilhas, arquivos textos) e agregar tudo isso em um banco de dados NoSQL, toda essa integração requer profissionais bem capacitados, bem como no desenvolvimento de aplicações e ferramentas que possam utilizar esse banco de dados.
(   ) A confiança nos dados que estão sendo analisados nos projetos big data é primordial, adequar corretamente os dados a sua finalidade, a garantia que os dados estão corretos, confiáveis para serem utilizados ao longo do projeto, essa etapa de preparação merece atenção, principalmente em projetos que envolvam parte financeira.
(  ) Dentre os requisitos citados ao conjunto de dados coletados e utilizados nos projetos está a segurança, esses dados em muitas situações acabam sendo divulgados para toda a organização, importante que os dados tenham uma classificação de confidencialidade, utilização de criptografia e mecanismos de segurança para limitar e controlar os acessos, ter disponível ambientes onde os dados possam passar por testes e homologação antes de serem aplicados nas aplicações de produção da empresa.
(  ) Existe um esforço muito grande no desenvolvimento de plataformas e estruturas que consigam processar os grandes volumes de dados de maneira mais rápida, os dados e conteúdo são gerados de maneira cada vez mais dinâmica, os sistemas distribuídos precisam ser cada vez mais eficientes para que os prazos e metas dos projetos de big data sejam mantidos.A geração de dados em tempo real, com fluxos contínuos, como o streaming de dados é um exemplo de velocidade de criação de conteúdo.
Marque a sequência correta:
Nota: 0.0
	
	C
	1, 3, 4 e 2.
Comentário: Aula 6, tema 3.
Questão 2/5 - Big Data
Segundo Davenport, tendo em vista os acontecimentos e todas as tendências tecnológicas estratégicas, o big data traz consigo uma gama de funcionalidades bem especializadas que o difere dos sistemas legados. O big data é formado por diversos componentes que podem ser classificado em camadas, sendo estas:
Nota: 20.0
	
	
	
	
	
	
	
	
	
	
	D
	Armazenamento, infraestrutura de plataforma, dados, código de aplicação, visão de negócios e aplicações.
Você acertou!
Comentário: Cada camada do empilhamento trabalha em conjunto, tudo é ajustado para que desde o armazenamento, incluindo o processamento até a camada de aplicação.
Questão 4/5 - Big Data
O interesse no aprendizado de máquina ressurgiu. A cada dia as máquinas estão cada vez mais rápidas e confiáveis que os humanos, que são incapazes de identificar com rapidez e precisão muitas operações. O aprendizado de máquina pode ser dividido em três grandes grupos, aponte quais são:
Nota: 0.0
	
	D
	classificação, agrupamento e associação.
Comentário: O aprendizado de máquina pode ser dividido em três grandes grupos de tarefas: classificação, agrupamento e associação.

Continue navegando