Buscar

TÓPICOS ESPECIAIS (2)

Prévia do material em texto

2
 TÓPICOS ESPECIAIS
Big Data: Conceito e Definição
 
 Jamilson Santiago Araújo do Nascimento1
RESUMO 
O presente trabalho tem como tema Big data, Big Data é a análise e a interpretação de enormes volumes de dados de grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas com uma maior velocidade.
 Palavras-chave: Velocidade. Variedade. Dados.
1. INTRODUÇÃO 
 
 
4
3
 Big Data é o termo em Tecnologia da Informação (TI) que trata sobre grandes conjuntos de dados que precisam ser processados e armazenados, o conceito do Big Data se iniciou com 3 Vs: Velocidade, Volume e Variedade. Ao longo das últimas décadas, a quantidade de dados gerados tem crescido de forma exponencial. O surgimento da Internet aumentou de forma Inesperada a quantidade de dados produzidos. Big Data é essencial nas relações econômicas e sociais e representou uma evolução nos sistemas de negócio e na ciência. As ferramentas de big data são de grande importância na definição de estratégias de marketing, aumentar a produtividade, reduzir custos e tomar decisões mais inteligentes.
1 Nome dos acadêmicos 
2 Nome do Professor tutor externo
Centro Universitário Leonardo da Vinci – UNIASSELVI – Curso (LIN) Modulo (FLX0699) – 05/07/20
2. CONCEITO DE BIG DATA
 A Princípio, podemos definir o conceito de Big Data como um conjunto de dados extremamente amplos que, por isto, necessitam de ferramentas especiais para comportar o grande volume de dados que são encontrados, extraídos, organizados, transformados em informações que possibilitam uma análise ampla em um rápido tempo. O conceito de Big data não está apenas relacionado ao volume de dados em sua definição, ele está dividido em 3 vs, alguns afirmam que são 4, mas vamos falar dos 3 principais. Segundo Taurion:
 
 Fonte: Disponível em:https://cetax.com.br/blog/big-data/.Acesso em 05/07/2020
[...]Foi sendo utilizado e relacionado a datawarehouses ou soluções de business inteligence (BI) com data sets de terabytes de dados. O Fato é que big data representa muito mais que isto. (TAURION, 2013)
2.1 Volume de Dados
Passamos a falar muito rápido de Gigabytes para Terabytes e agora estamos falando de Petabytes e outros volumes. Hoje são contabilizados em média 12 Terabytes de Tweets diariamente, em 2012 foram gerados cerca de 2.834 Exabytes (que são milhões de Gigabytes) a previsão é que em 2020 se gerem anualmente 40.026 Exabytes de informações. 
 
2.1.1 Velocidade
 Hoje para alguns negócios, 1 minuto pode ser muito tempo, detecção de fraudes, liberações de pagamentos, análises de dados médicos ou qualquer outra informação sensível a tempo. A maior parte dos projetos de DW/BI (Data Warehouse e Business Intelligence) ainda tem latência em D-1, ou seja, carregamos o dia anterior. Ainda acreditamos que essa solução se aplique a muitos negócios, porém, para algumas análises, quanto mais próximo do tempo real, maior pode ser a eficácia do negócio.
 
2.1.2 Variedades 
 
 Big Data também poderia ser considerado como Any Data (qualquer dado), hoje temos capacidade de capturar e analisar dados estruturados e não estruturados, texto, sensores, navegação Web, áudio, vídeo, arquivos de logs, catracas, centrais de ar condicionado, entre outros. Uma nova série de ferramentas está se tornando parte dos projetos, são as ferramentas de machine data, dados de máquina, quase qualquer aparelho eletrônico hoje em dia tem uma estrutura de dados ou programação, o ponto é que nem todos podem ser acessados. 
2.1.2 Estruturas dos Dados
 
Dados estruturados – aqueles que possuem algum padrão ou formato que pode ser usado na sua leitura e extração dos dados. Dados de bancos de dados, sistemas legados, arquivos texto (sejam csv, txt ou XML).
Não estruturados– não possuem um formato padronizado para leitura, podem ser arquivos Word, Páginas de Internet/Intranet, Vídeos, áudios, entre outros.
Há diversas definições possíveis para o termo, algumas enfatizando a quantidade massiva de dados, outras enfatizando técnicas e ferramentas de análise desses dados. abordagem “conjunto de dados extremamente amplo que podem ser analisados computacionalmente para revelar padrões, tendências e associações, especialmente relacionados ao comportamento e as interações humanas”. Sobre big data, ver o artigo de Gil Press 12 big data Definitions: What’s Yours? Disponível em: forbes.com/sites/girlpress/2014/09/03 12- big-data-definitions-whats-yours/> Acesso em: 05 07 2020. 
 2.1.3 Quantidades de Dados Gerados Diariamente
 
 O Facebook armazena, acessa e analisa mais de 50 petabytes de informações geradas pelos usuários, a cada mês são gerados mais de 700 milhões de minutos por mês. A cada minuto são feitos uploads de 48 horas de vídeos no Youtube, ou seja, nunca ninguém conseguirá assistir todos os vídeos do Youtube. Diariamente mais de 500 milhões de mensagens são enviadas pelo Twitter, com uma média de 5700 TPS (Twittes per Second ou Mensagens por Segundo), o recorde é de 143.199 TPS.O Google processa diariamente mais de 3 bilhões de pesquisas em todo o mundo, sendo desse total 15% totalmente inéditas. Seu “motor” de pesquisa rastreia 20 bilhões de sites diariamente, armazenando 100 petabytes de informação. Sem contar todas as informações que as companhias geram diariamente, sejam elas estruturadas ou não.
2.3. Ferramentas Big data para Analises de dados
 1-Tableau: Uma ferramenta que facilita a visualização de seus dados de várias maneiras diferentes. Você pode até misturar os dados selecionados inicialmente com dados de outras áreas, para examiná-los com outra ótica. A ferramenta é otimizada para fornecer todas as colunas de dados possíveis. Assim, permite que você as misture antes de colocá-las em uma das dezenas de modelos gráficos fornecidos. O Tableau conta também com uma estrutura completa para agilizar consultas aos dados. Além disso, ele tenta armazenar o máximo de informações na memória. Com isso, permite que a ferramenta seja sempre ágil e interativa, mudando de um gráfico de pizza para um gráfico de barras com muita agilidade.
 2-Sisense: o Sisense é uma plataforma única, gerenciando toda a força de trabalho de dados.
Quer um exemplo prático de como utilizar algo nesse sentido? Se durante o ano você precisa identificar as tendências de vendas em cada ação realizada, a ferramenta pode analisar os dados tanto de forma sazonal como no ano todo.
 3- Oracle Bi: Essa tecnologia oferece aos usuários praticamente todos os recursos importantes para trabalhar com Big Data, como painéis, inteligência proativa, alertas e muito mais.
A ferramenta é ótima para empresas que precisam analisar grandes volumes de dados, seja de fontes Oracle ou não, fazendo toda a parte de integrações ser uma tarefa fácil.
A plataforma suporta um conjunto completo de opções de acesso, análise e entrega de informações. Tudo em um ambiente Web totalmente integrado. E por ter todos os componentes integrados em uma arquitetura comum, a experiência de usuário se torna mais intuitiva ao usar uma solução tão robusta.
 2.4 Desvantagens do Big Data 
talvez para empresas as desvantagens podem ser: alto custo, demora no retorno do investimento (ROI), busca por uma demanda para implantar a tecnologia, mesmo sem ter um problema claro a ser resolvido, entre outros. Para as pessoas um problema grande, pode ser a privacidade, visto os sistemas tem coletados dados sobre todas as movimentações, perfis sociais, etc.
 
3 MATERIAIS E MÉTODOS 
O presente arquivo foi utilizado a Pesquisa Bibliográfica, sendo assim decidido adotar esse recurso, por se tratar de um método de fácil acesso a arquivos e artigos online, verificando a autenticidade dos conteúdos. 
Muitos dos conteúdos contribuíram para a realização desse artigo, buscando manter a prioridade para esclarecer as dúvidas e orientar o pesquisador no processo da construção de seu artigo.
4 RESULTADOS EDISCUSSÃO 
Os dados abortados nesse trabalho foram muito esclarecedores e todas as informações obtidas foram realizadas por meio de pesquisa árdua e muitas leituras de alguns autores e algumas informações coletadas na internet sempre procurando pelas autenticidades dos conteúdos. Todas as informações e conteúdo deste parpe foram essenciais pra um melhor entendimento diante do tema abordado. Neste Trabalho buscou-se mostrar a importância da big data e seus Métodos com auxílios de softwares para os tratamentos de dados e para um maior conhecimento do assunto.
5 CONCLUSÃO 
 
Em virtude dos fatos mencionados, o presente artigo teve como finalidade transparecer à importância da Big Data. O big data já foi relacionado como ferramenta essencial em manipulação de eleições e disseminação de fake News, isso se dá pela capacidade da tecnologia além de reunir a partir de um seguro público alvo, fazendo campanhas de empresas que sejam muito mais efetivas e surpreendentes, isso faz do big data uma metodologia questionável do ponto de vista ético, uma vez que pode ser usado para manipular massas e obter resultados parciais de acordo com a motivação dos especialistas.
 
REFERÊNCIAS
https://pt.wikipedia.org/wiki/Big_data
https://www.cetax.com.br/blog/big-data/
 https://www.sas.com/pt_br/insights/big-data/what-is-big-data.html

Continue navegando