Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

O PROCESSO DA INTELIGÊNCIA EMPRESARIAL 
Prof. Vinícius Silveira Magnus 
Neste capítulo, você vai aprender 
 Os conceitos básicos de Inteligência Empresarial; 
 A história da Inteligência Empresarial e sua evolução; 
 A reconhecer os componentes do processo de Inteligência Empresarial; 
 A identificar os elementos de um sistema de Inteligência Empresarial bem como 
sua arquitetura. 
 
Introdução 
A competitividade nos diversos setores econômicos tem feito diversas empresas 
recorrerem a técnicas e ferramentas que visam auxiliá-las nos negócios. A corrida 
por uma participação maior em um determinado mercado, um posicionamento 
diferente da empresa frente a um novo cenário e o foco momentâneo em 
determinado produto são processos que levam as empresas, geralmente, a 
buscarem mais informações e a entenderem qual o real cenário para tomar suas 
decisões guiadas por fatos. Esses fatos são dados e informações que auxiliam a 
empresa nessas decisões e podem ser o grande diferencial para o sucesso de 
determinado negócio. 
Trabalhar com dados, transformando-os em informação e, posteriormente, em 
conhecimento, é o ciclo natural que empresas deve percorrer para tomar suas 
decisões. Porém, esse processo é, sem dúvida, muito trabalhoso, pois envolve 
muitos dados de diferentes fontes e de diferentes tipos que geralmente não estão 
integrados e que, de maneira isolada, representam muito pouco para a 
organização em termos de processo decisório. É aí que entra a Inteligência 
Empresarial, buscando sistemáticas para coletar esses dados nas diversas fontes 
internas e externas da organização, transformando-os a fim de unificar e 
padronizar suas estruturas e, posteriormente, analisá-los com técnicas e 
ferramentas específicas para isso. 
A Inteligência Empresarial, Inteligência de Negócio ou do termo em 
inglês Business Intelligence é o foco de nosso estudo neste tema, em que iremos 
entender um pouco de seus fundamentos conceituais e recorrer um pouco à 
História para entendermos o processo, a criação e a estrutura dos sistemas de 
Inteligência Empresarial. 
 
Fundamentos do Processo de Inteligência Empresarial 
A inteligência empresarial ou inteligência de negócios, conhecida em inglês pela sigla 
BI (Business Intelligence), se refere ao processo de suporte aos negócios através da 
coleta, organização, análise, compartilhamento e monitoramento de informações. É um 
processo orientado por tecnologias que analisam dados e entregam informações que 
auxiliam os representantes da organização a tomar decisões para seus negócios. 
O BI possui uma ampla variedade de recursos para apoio à sua execução, como 
ferramentas, aplicações e metodologias que dão à organização a possibilidade de coletar 
dados de fontes internas e externas, a fim de analisar, desenvolver e consultar esses 
dados e criar através deles relatórios, painéis (dashboards) e outros tipos de 
visualizações, entregando resultados analíticos para o processo de tomada de decisão, 
bem como tarefas operacionais 
. 
 
Entendendo e aplicando o BI 
Vamos nos aprofundar um pouco no conceito de BI (Business Intelligence), 
entendendo que ele se refere ao conjunto de técnicas que auxiliam na 
identificação, organização e análise de um grande volumes de dados para 
melhorar a conclusão ou decisão em uma organização. Nós entendemos melhor o 
conceito com a ajuda de um exemplo. 
Usando um supermercado como nosso exemplo, suponha que nele tenhamos registrado 
os dados de vendas nos últimos 6 meses. Nesses dados, temos diversos produtos, cada 
um com suas respectivas especificações. Suponha que pegamos um produto para a 
análise, por exemplo, velas, e possuímos em nosso catálogo de vendas três tipos de 
velas, Vela A, Vela B, Vela C. Ao observarmos inicialmente esses dados, descobrimos 
que a Vela C estava com o maior número de vendas dessas três classes. Agora, com um 
observação um pouco mais aprofundada e detalhada desses dados, obtivemos o 
resultado de que a venda dessa vela C tem seu horário de venda mais frequente das 9h 
às 11h. Em uma análise desse cenário, chegamos à conclusão, pelo tipo de vela, que ela 
é mais usada em lugares de adoração, como em igrejas e santuários. 
Vamos, a partir desse cenário, aplicar o Business Intelligence para essa análise. O que 
uma empresa ou organização pode fazer é montar uma estratégia de venda com o 
mapeamento de outro material que possa ser usado na igreja e colocá-los perto dessas 
velas. Assim, os clientes que se aproximam do supermercado para comprar as velas para 
o local de culto também podem dar uma olhada no outro material e ficar tentados a 
comprá-lo também. Isso certamente aumentará as vendas e, consequentemente, a receita 
de nosso supermercado. 
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_PUzrw8Z4tJrm
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_PUzrw8Z4tJrm
História e Evolução da Inteligência Empresarial 
O conceito de inteligência empresarial se popularizou na década de 80 com o Gartner 
Group, uma instituição de pesquisa do setor tecnológico que definiu o termo baseado 
em aplicações e tecnologias utilizadas na época para coletar dados referente às 
atividades gerenciais e operacionais das empresas, quando esses dados eram utilizados 
para análise e extração de informações que suportassem o processo decisório nas 
organizações. 
Inicialmente, as aplicações e sistemas corporativos tinham suas bases de dados com 
funcionalidades específicas para cada departamento ou setor. Assim, cada novo 
departamento informatizado, um novo sistema como uma nova base que ia crescendo de 
acordo com o volume de dados do departamento e se tornando grandes ilhas de 
informações. Foram classificadas sem nenhum tipo de integração com outros sistemas, 
muito menos funcionalidades que suportassem essas integrações, ou trocas de 
informações. 
Ainda no início da automação dos processos organizacionais, as grandes empresas se 
deram conta do valor que os dados tinham se fossem trabalhados de forma analitica. É 
certo que cada setor automatizado gerava uma série de novos dados para serem 
utilizados, porém, como cada sistema era concebido de maneira específica, ficava quase 
impossível cruzar esses dados devido à incompatibilidades de tecnologias e protocolos 
de cada um. 
Quando as organizações resolveram unir esses dados para troca, coleta e análise, uma 
infraestrutura própria para isso se fazia necessário, assim o data warehouse evoluiu para 
suprir essas necessidades. 
 
 
Data Warehouse 
O Data Warehouse é, de forma resumida, um local centralizado na organização que 
armazena os dados de todos os sistemas da organização em um local único. Esses dados 
são organizados de maneira a promover e facilitar a organização, padronização e 
consultas a esses dados, tornando o processo de tomada de decisão sustentada por dados 
e informações. 
Os dados centralizados em um Data Warehouse eram provenientes dos Data 
Sources, que poderiam ser a base de dados específicas de cada sistema ou qualquer 
outro tipo de dados, como planilhas, catálogos e relatórios de outros sistemas. Quando 
os dados foram estratificados dessa base de dados central a fim de serem organizados 
para análises especiais para cada área, por exemplo, vendas, estoque ou logística, essas 
bases menores focadas são chamadas de Data Marts. Essa estrutura e ligação está 
ilustrada na Figura 1. 
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_Wsis0ifStLNS
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_Wsis0ifStLNS
 
FIGURA 1: ALGUNS DATA SOURCE (BANCO DE DADOS MENORES E OUTRAS FONTES DE DADOS COMO 
PLANILHAS) LIGADOS A UM DATA WAREHOUSE (BANCO DE DADOS MAIOR), QUE POR FIM ESTÃO LIGADOS 
A ALGUNS DATA MART (BANCOS DE DADOS MENORES). 
Para organizar e utilizar essa estrutura, o desafio era muito grande, pois em primeiro 
lugar os dados deveriam ser adquiridos de uma variedade de sistemasdiferentes e 
incompatíveis. Alguns dados idênticos poderiam estar armazenados em sistemas 
distintos e com tipos (estruturas) distintas. Um item de alguns dados específicos poderia 
não ser apenas representado em formatos distintos, mas também em valores distintos, 
pois era proveniente de fontes de dados diferentes, a questão era saber qual o valor 
correto para ser utilizado. Por outro lado, os dados estão sendo alterados continuamente, 
o que levantava mais uma questão, a frequência que o data warehouse deveria ser 
revisado para contemplar uma visão sensivelmente atual. E, por fim, a quantidade de 
dados é enorme, e os dados devem ser analisados e apresentados para que tenham 
relevância. 
A fim de organizar essa estrutura e manter a organização para o uso dos dados, uma 
série de ferramentas foram desenvolvidas, e entre elas destacamos três: os utilitários de 
extração, transformação e carregamento de dados, chamados de ETL; ferramentas de 
mineração de dados para suportar as consultas que deveriam ser feitas e, por fim, as 
ferramentas de relatórios, que apresentavam de maneira simples e clara os resultados do 
processo e os funcionário envolvidos no processo decisório. 
 
 
Extração, transformação e carregamento (ETL) 
Os sistemas de informações computacionais precursores em organizações na década de 
50 mantinham seu armazenamento basicamente em fitas magnéticas. Com a 
necessidade da troca de informação entre os sistemas, essas fitas foram padronizadas, e 
qualquer máquina poderia ler as informações que uma outra máquina ou sistemas 
tivesse gerado. Com essa possibilidade, os Data Warehouse iniciais eram alimentados 
por fitas magnéticas de diversos sistemas da organização, porém, cada sistemas tinha 
sua estrutura de organização e armazenamento de dados, e o cruzamento desses dados 
era muito difícil. 
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_pM78ZNx2xXVl
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_pM78ZNx2xXVl
Os bancos de dados de um Data Warehouse eram projetados para desempenhar funções 
analíticas para a inteligência de negócio. A estrutura do banco de dados era organizada 
com índices e indicadores complexos para suportar um processo em tempo real de 
análise de dados, o OLAP (On-line Analytical Processing). Esses bancos de dados com 
suporte ao OLAP eram projetados para possibilitar consulta dos mais variados tipos, 
podendo ser consultas analíticas ou ad hoc, que eram executados de maneira rápida e 
atualizada. Para tanto, os dados que eram alimentados no Data Warehouse pelas 
diversas fontes tiveram que ser convertidos em um formato que facilitasse o processo 
como um todo. 
Nessa visão, ferramentas chamadas de ETL (Extract, Transform e Load) foram 
desenvolvidas para auxiliar o processo de extração de dados das diversas fontes da 
organização e transformação de dados em um formato que facilitasse o processo 
do Data Warehouse como um todo, mas especificamente contribuiu de forma mais 
incisiva para o carregamento desses dados na base central do DW. 
As funções do ETL permitem que várias fontes de dados sejam estruturados em um 
único local, a base central do Data Warehouse, e por consequência sejam utilizados em 
análises mais complexas, principalmente por conterem um grande volume e uma grande 
variedade de dados da organização. Esse processo pode ser realizado em decorrência do 
modelo de negócio e da necessidade da organização, podendo ser mensalmente, 
semanalmente, diariamente ou em um cronograma específico. Essa sistemática é 
chamada de ETL Off-line, pois não tem sincronia com as fontes de dados de forma 
instantânea, mas sim de forma periódica. 
Embora seja um processo aceitável em muitas situações, o ETL off-line não trazia a 
resposta suficiente para alguns casos, pois os dados no data warehouse não estavam 
sempre atualizados, e isso poderia demorar até meses. Outra questão é que em muitas 
situações os bancos de dados que eram as fontes do data warehouse tinham que ser 
podados, muitas vezes por horas ou dias, para que os dados extraídos não fossem 
inconsistentes, e isso afetava diretamente a operação de alguns departamentos. 
Com isso, algumas alternativas tecnológicas foram experimentadas a fim de trazer 
maior velocidade e suporte ao negócio, técnicas de extração de dados que não afetassem 
as fontes de dados que alimentam o DW. Assim, após alguns anos surgiu o ETL on-line, 
fornecendo atualização dos dados em tempo real, respostas mais confiáveis para as 
consultas realizadas, pois os dados eram atualizados constantemente, justamente para 
haver uma visão atual do estado do negócio. Essas novas ferramentas de ETL davam 
suporte aos conceitos de OLAP que os Data Warehouse buscavam implementar. 
A partir de fontes de dados que eram centralizadas e organizadas, agora é possível então 
fazer análise desses dados, porém, antes da análise era preciso mais um processo que 
preparasse esses dados para a análise, e surge então a mineração de dados, ou Data 
Mining. 
Data Mining 
As ferramentas de ETL tornaram a coleta de dados muito prática, pois vários 
sistemas poderiam servir como fonte de dados, não importando a sua estrutura ou 
organização, e era justamente isso que os ETL visavam entender para carregar os 
dados no Data Warehouse. 
Os dados carregados no DW representavam fatos ocorridos no contexto da organização, 
como uma venda realizada, o registro de um cliente, uma compra feita junto a um 
fornecedor, um pagamento realizado, porém, se analisados de maneira isolada, não 
significam muita coisa. Agora, com o volume de dados do DW, eles poderiam ser 
cruzados ou analisados como um todo, como, por exemplo, o volume de vendas no mês 
de um determinado produto, ou mais ainda, a venda desse produto com o perfil do 
consumidor. Sendo assim, os dados eram processados a fim de organizá-los de maneira 
específica a um determinado cenário, tornando assim um mero dado ou conjunto deles 
em uma informação importante, que poderia ser utilizada para um processo de decisão. 
O Data Mining vai ainda além, ele busca possíveis padrões e relações entre os dados 
existentes, na tentativa de detectar qual a regra ou associação que faz essa relação, o que 
entendemos como o conhecimento que podemos gerar a partir de dados e informações. 
Um exemplo seria verificar que em um grande número de casos em que um produto x é 
vendido o cliente também leva o produto y, ou melhor, detectar qual a relação entre os 
dois produtos com o perfil do consumidor. Podemos entender isso como o 
conhecimento do negócio, que é proveniente da informação e representa o padrão que 
conecta essas informações. Geralmente, apresenta um alto grau de previsibilidade de 
fatos que podem acontecer no decorrer do tempo, como saber qual produto será mais 
vendido na semana que vem. 
Vários mecanismos tecnológicos de mineração de dados foram desenvolvidos para 
suportar consultas no banco de dados de um Data Warehouse. A mineração de dados 
procurou, então, detectar cada vez mais os padrões entre centenas de campos 
aparentemente não relacionados em um grande banco de dados, padrões que 
reconheciam tendências muitas vezes desconhecidas de fatos históricos. Essas 
tendências desempenham um papel fundamental na tomada de decisões estratégicas e 
com elas o cenário do mercado competitivo foi amplamente modificado. 
 
Ferramentas de relatórios 
Os resultados obtidos nas ferramentas de mineração de dados não eram muito 
amigáveis aos olhos de todos, números, fórmulas, relações e outras informações 
que eram estratificadas do Data Warehouse não tinham muito valor se não 
fossem organizados e apresentados de forma clara e objetiva. Surge aí uma nova 
categoria de sistemas de informações, as ferramentas de relatórios, ou Report 
Tools. 
Foram criadas muitas formas para relatar informações e resultados provenientes 
do processo de mineração de dados para o processo de inteligênciaempresarial, 
podendo ser entregues de diversas maneiras, como pareceres escrito, gráficos, 
tabelas, entre outros. Uma das técnicas mais comuns foram os painéis digitais, 
conhecidos como dashboards. Eles apresentam os dados em formatos visuais, 
muitas vezes em gráficos e com a possibilidade do detalhamentos de cada 
informação nele contido, e possuem um grande diferencial por estarem sempre 
atualizados. Um exemplo de painel digital pode ser visto na Figura 2.
 
Essas ferramentas fornecem aos gestores do negócios as informações necessárias para 
levar as organizações ao sucesso. De maneira específica ou geral, essas ferramentas 
ganharam espaço nos ambientes corporativos, cada dia trazendo mais informações. 
Muitas dessas ferramentas possuem um solução completa e específica para a análise de 
dados, que se integram a ferramenta de mineração ou diretamente à base do DW. 
 
 
O surgimento dos Sistemas de Inteligência Empresarial 
Com o passar dos anos e a evolução das tecnologias, surgiram inúmeros sistemas 
específicos para a Inteligência Empresarial, alguns com novas propostas de arquiteturas 
e diferentes abordagens de tratamento de dados e informações. Alguns se mostraram 
como evoluções tecnológicas das ferramentas antigas e outros versões mais inovadoras, 
porém, os conceitos ainda permanecem baseados nesse processo de evolução histórica 
que acabamos de ver. 
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_R_Z6JM4jyBUo
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_R_Z6JM4jyBUo
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.jafirjsynej0
https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.jafirjsynej0
Para o desenvolvimento de um sistemas BI, os sistemas basicamente 
precisam suportar três tarefas distintas que o processo de BI 
implementa: 
 A primeira tarefa que o sistema precisa fazer é reunir os dados necessários sobre 
os negócios. A chave para isso é automatizar o processo. A coleta de dados consumia 
muito tempo e dinheiro no passado, mas hoje em dia, com o uso de computadores 
modernos, é muito mais fácil coletar dados de várias fontes. 
 A segunda tarefa é analisar os dados coletados e extrair mais informações deles. 
A informação extraída é então transformada em conhecimento. 
 A tarefa final é usar o conhecimento recém-adquirido para melhorar os negócios. 
 
Estrutura dos sistemas de inteligência 
Com foco nessa abordagem, mostrada anteriormente nas três tarefas que os 
sistemas de BI devem suportar, algumas implementações surgiram e evoluíram 
até os conceitos atuais, mas muito dos conceitos se mantiveram como base, com 
a diferença de que sistemas grandes como ERP já fornecem uma unificação dos 
dados em uma base organizada e podem também oferecer as ferramentas de BI 
junto à sua solução. 
Mas, de forma resumida, as estrutura dos sistemas de BI passa por quatro camadas, 
como mostrado na Figura 3. 
 
O Data Sources são as fontes de dados da empresa, que podem ser internas ou externas. 
As fontes internas podem ser dos mais diversos sistemas utilizados ou de arquivos, 
planilhas, imagens que tenham dados importantes a serem analisados pela empresa. 
O Data Warehouse continua sendo o conceito de repositório central de dados, que 
através de um processo de transformação carrega as informações dos Data Sources, 
deixando as mesmas disponíveis para as ferramentas analiticas. 
As ferramentas analiticas, chamadas também de ferramentas de BI, foram as que talvez 
mais evoluíram. Elas analisam os dados do Data Warehouse ou dos Data Mart, a fim de 
gerar os dados/informações em tempo aos usuário, através das diversas formas de 
acesso aos mesmos. 
 
Um sistema de inteligência empresarial, concebido para tal, tem 
três vantagens principais: 
 Ele não apenas suporta as mais recentes tecnologias da informação, mas também 
fornece soluções de aplicativos pré-empacotadas; 
 Ele se concentra no acesso e na entrega de informações comerciais aos usuários 
finais e oferece suporte a provedores e consumidores de informações; 
 Ele suporta o acesso a todas as formas de informações comerciais, e não apenas 
às informações armazenadas em um data warehouse. 
 
 
TÉCNICAS E METODOLOGIAS PARA 
INTELIGÊNCIA EMPRESARIAL 
Prof. Vinícius Silveira Magnus 
 
Neste capítulo, você vai aprender. 
 As metodologias e técnicas utilizadas para a Inteligência Empresarial; 
 Sobre análises dimensionais; 
 A estrutura de um Data Warehouse na visão multidimensional; 
 A compreender o funcionamento do OLAP; 
 A conhecer os componentes do OLAP. 
Introdução 
Para trabalharmos e entendermos a Inteligência de Negócio, necessitamos compreender 
quais são as Técnicas e Metodologias bases utilizadas para a mesma. Essa compreensão 
passa, basicamente, pelo entendimento de como os dados são modelados em um 
ambiente de armazenamento, para organizá-los a fim de facilitar o processo de consulta 
e análise destes. 
Nessa linha, temos como principal técnica a modelagem e análise dimensional de dados, 
ou conhecidas também com multidimensionais, que procuram preparar o ambiente do 
Data Warehouse para as consultas por meio de métodos como o OLAP. 
A estruturação dos dados coletados em um ambiente organizacional talvez ainda seja o 
principal tema dentro do BI. É ele que determina, muitas vezes, a capacidade que uma 
ferramenta terá de analisar os dados e as relações entre elas, de maneira clara, rápida e 
dinâmica, para o auxílio no processo de tomada de decisão de uma organização. 
Análise Multidimensional 
Na matemática, e em campos relacionados, a análise multidimensional é um processo de 
análise de dados que agrupa os dados em duas ou mais categorias: caracterizando 
dimensões e medidas dos dados. 
A análise multidimensional é uma análise informativa de dados que leva em 
consideração inúmeras conexões distintas, cada uma das quais compreende uma 
dimensão. Por exemplo, um analista de varejo pode querer entender as conexões entre 
as vendas por distrito, por trimestre, por circulação demográfica ou por produto. A 
análise multidimensional produzirá resultados para esses relacionamentos complexos. 
Para demonstrar isso de forma mais real, vamos considerar o caso dos dados de uma 
equipe de futebol. Um conjunto de dados que compreende o número de vitórias da 
equipe a cada ano por muitos anos; esses dados podem ser categorizados em um único 
conjunto de dados, chamados de dimensional ou longitudinal. Outro conjunto de dados 
que compreende o número de vitórias que várias equipes diferentes dentro de um ano 
podem estar em um conjunto de dados seccional ou transversal unidimensional. Um 
único conjunto de dados que compreende o número de vitórias de diversas equipes de 
críquete ao longo de vários anos pode ser composto por um conjunto de dados 
bidimensional. 
 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9n1pkv6pch4l
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9n1pkv6pch4l
Data Warehouse Dimensional 
As dimensões são uma maneira comum de analisar dados. O modelo de dimensão 
compreende uma tabela de fatos e várias tabelas dimensionais e é usado para avaliar 
dados resumidos. A modelagem de dados dimensionais é a técnica de modelagem 
preferida em um ambiente de BI. Conhecer os conceitos básicos de armazenamento e 
dimensões de dados ajuda a projetar um melhor data warehouse que se adapta aos seus 
relatórios de necessidades. 
 
 
O Modelo Dimensional 
O modelo dimensional é composto por uma tabela de fatos e várias tabelas dimensionais 
e é usado para avaliar dados resumidos. Como os relatórios de Business Intelligence são 
usados na avaliação dos fatos (agregados) em várias dimensões, a modelagem de dados 
dimensionais prefere a técnica de modelagem em um ambiente de BI. 
Os fatos, normalmente, são dados calculados, como valor em dólares, vendas ou receita. 
Eles correspondem ao objetivo de uma análise de suporte à conclusão.As dimensões definem o eixo de investigação de um fato. Por exemplo as informações 
de Produto, Região e Hora são os eixos de consulta dos detalhes de Vendas. 
Uma dessas consultas pode ser um cenário em que o usuário pode exigir a visualização 
de vendas (em reais) para um item específico em um mercado durante um período de 
tempo específico. Nesse caso, estamos calculando o fato (Vendas) em três dimensões 
(Produto, Região e Tempo). Assim, podemos dizer que as dimensões dão visões 
diferentes dos fatos. Eles dão estrutura aos fatos não estruturados. 
Vamos definir também outros dois conceitos importantes, o primeiro são as medidas, 
que são os valores a serem analisados, como médias, totais e quantidades. Outro são as 
agregações, que são as totalizações calculadas nos diversos níveis hierárquicos. 
A Figura 1 exemplifica como podem ser visualizados os dados em um modelo dimensional. 
 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.bhojfog794ba
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.bhojfog794ba
Tabela de fatos 
A tabela de fatos, geralmente, representa um processo ou ambiente de relatório que é 
valioso para a organização. É importante determinar a identidade da tabela de fatos e 
especificar exatamente o que ela representa. Uma tabela de fatos, normalmente, 
corresponde a uma entidade associativa no modelo ER (Entidades Relacionamento). 
Eles devem estar listados em uma tabela de fatos lógicos. Cada medida possui suas 
próprias regras de agregação, como ADD, AVG, MIN ou MAX. As regras de agregação 
definem a maneira pela qual os negócios gostariam de contrastar os padrões de um valor 
medido. 
 
 
Tabelas de dimensões 
As tabelas de dimensões consistem em atributos que descrevem registros de fatos 
na tabela de fatos. Alguns desses atributos fornecem informações descritivas; 
outros são usados para especificar como os dados da tabela de fatos devem ser 
resumidos para fornecer informações úteis para a pessoa que está analisando as 
informações. Toda dimensão possui um conjunto de atributos descritivos. As 
tabelas de dimensões contêm atributos que descrevem entidades comerciais. 
 Exemplo: A dimensão do cliente pode conter atributos como Cidade, Área, 
Estado, País, entre outros. 
Em uma tabela dimensional, as colunas podem ser usadas para categorizar as 
informações em níveis hierárquicos como na relação de Cidades e Estados. 
 
 
OLAP multidimensional 
Os Bancos de Dados e Data Warehouse modelados por dimensões, ou modelagem 
multidimensional, dão suporte ao OLAP, mas também podemos definir que essa 
modelagem multidimensional é desenvolvida na perspectiva ou de acordo com as 
técnicas do OLAP. 
OLAP (Online Analytical Processing), em português, significa Processamento Analítico 
On-line. Na computação, o OLAP é uma abordagem para responder rapidamente a 
consultas analíticas multidimensionais (MDA). O OLAP faz parte da categoria mais 
ampla de business intelligence, que também inclui banco de dados relacional, 
elaboração de relatórios e mineração de dados. Dependendo da tecnologia subjacente 
usada, o OLAP pode ser amplamente dividido em MOLAP e ROLAP. 
No mundo OLAP, existem, principalmente, dois tipos diferentes: OLAP 
multidimensional (MOLAP) e OLAP relacional (ROLAP). Existem outros tipos de 
classificações para esse grupo de conceitos como o OLAP híbrido (HOLAP) é uma 
combinação de MOLAP e ROLAP, bem como o DOLAP e outros. 
Para saber um pouco mais sobre os tipos de OLAP, veja: 
https://www.devmedia.com.br/conceitos-basicos-sobre-olap/12523 
No MOLAP, a abordagem mais própria para a análise multidimensional, os dados são 
armazenados em um cubo multidimensional. Ele atende aos requisitos de um aplicativo 
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9hng3mc2hou
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9hng3mc2hou
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.ofzuaeisi2yy
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.ofzuaeisi2yy
https://www.google.com/url?q=https%3A%2F%2Fwww.devmedia.com.br%2Fconceitos-basicos-sobre-olap%2F12523&sa=D&sntz=1&usg=AOvVaw2qbbFKlPSA8BmGEFn5A-As
analítico, no qual você precisa acessar apenas o nível resumido dos dados. O 
armazenamento não está no banco de dados relacional, mas em formatos proprietários. 
Independentemente das técnicas utilizadas para realizar a modelagem, o resultado na 
análise poderá ser o mesmo, o que vai mudar são as questões de organização dos dados, 
os tipos de consultas feitas, o desempenho, as ferramentas suportadas e outras 
características da utilização desse volume de dados. 
 
 
OLAP 
O OLAP (Online Analytical Processing) é uma tecnologia usada para criar software de 
suporte à decisão e é a técnica preferida dentro do BI. O OLAP permite que os usuários 
do aplicativo analisem rapidamente as informações que foram resumidas em visões e 
hierarquias multidimensionais. Ao resumir as consultas previstas em visualizações 
multidimensionais antes do tempo de execução, as ferramentas OLAP oferecem o 
benefício de maior desempenho sobre as ferramentas tradicionais de acesso ao banco de 
dados. A maior parte do cálculo intensivo de recursos necessário para resumir os dados 
é feita antes do envio de uma consulta. 
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.4ck58pvaxggm
https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.4ck58pvaxggm
Conceitos básicos de OLAP 
OLAP é um conceito utilizado em banco de dados que foram otimizados para consultas 
e descrições, em vez de apenas processar transações. Os dados OLAP são extraídos de 
dados históricos e agregados em estruturas que permitem análises complexas. 
Os dados no OLAP também são organizados hierarquicamente e colocados em cubos 
em vez de tabelas. É uma tecnologia sofisticada que beneficia estruturas 
multidimensionais para fornecer acesso rápido aos dados para análise. Essa associação 
facilita que um relatório de Tabela Dinâmica ou Gráfico Dinâmico mostre resumos de 
alto nível, como, por exemplo, o total de vendas em uma região inteira, e também 
mostre os detalhes dos locais em que as vendas acontecem com maior frequência. 
Os bancos de dados OLAP contêm dois tipos básicos de dados: as medidas, que são 
dados numéricos, as quantidades e médias que você usa para tomar decisões 
corporativas informadas, e dimensões, que são as categorias que você usa para 
coordenar essas medidas. Os bancos de dados OLAP ajudam a coordenar os dados por 
vários níveis de detalhes, utilizando as categorias idênticas que você conhece para 
analisar os dados. 
 A figura do Cubo OLAP a seguir ilustra como podemos entender as vendas 
realizadas de determinados produtos através das dimensões de período e território. 
 
Componentes do OLAP 
Detalhadamente, os componentes do cubo possuem nomenclaturas específicas. Vamos 
conceituar as principais para um melhor entendimento. 
O Cubo é uma estrutura de dados que agrega as medidas pelos níveis e hierarquias de 
cada uma das dimensões que você deseja analisar. Os cubos combinam algumas 
dimensões, como tempo e geografia, com dados resumidos, como vendas ou números 
de estoque. 
A medida, é um conjunto de valores em um cubo que se baseia em uma coluna na tabela 
de detalhes do cubo e que geralmente são tipos numéricos. Medidas são os valores 
centralizados no cubo que são pré-processados, agregados e analisados. 
O Membro, é um item em uma hierarquia que compreende uma ou mais ocorrências de 
dados. Um membro pode ser único ou não exclusivo. Já o Membro calculado é um 
membro de uma dimensão cujo valor é calculado em tempo de execução, utilizando 
uma expressão. Por exemplo, um membro calculado como Lucro pode ser determinado 
subtraindo o valor do membro, despesas, do valor do componente, receitas. 
 
 A Dimensão: um conjunto de uma ou mais hierarquias organizadas de níveis em 
um cubo que um usuário entende e beneficiacomo base para análise de dados. Por 
exemplo, uma dimensão geográfica pode incluir níveis para País/Região, 
Estado/Província e cidade etc. 
 Hierarquia: uma estrutura em árvore lógica que organiza os membros de uma 
dimensão, de modo que cada membro tenha um membro pai e nenhum ou mais 
membros filhos. Um membro filho é um membro no próximo nível inferior em uma 
hierarquia que está exatamente relacionada ao membro atual. Um exemplo de 
hierarquia de tempo, contendo as notas trimestral, mensal e diária é o mês de junho, 
um membro filho do segundo trimestre. Um pai é um membro no próximo nível 
superior em uma hierarquia que está exatamente relacionada ao membro atual. Por 
exemplo, em uma hierarquia de tempo que contém as notas Trimestral, Mensal e 
Diária, o primeiro Trimestre é o pai do mês de janeiro. 
 
Por fim, o Nível, dentro de uma hierarquia. Os dados podem ser organizados em níveis 
de detalhes menores e mais altos, como ano, trimestre, mês, semana e dia, em caso de 
hierarquia de tempo. 
Para um melhor detalhamento do OLAP e seus componentes, podemos consultar o 
link: https://www.guru99.com/online-analytical-processing.html. 
 
 
 
 
 
 
 
https://www.google.com/url?q=https%3A%2F%2Fwww.guru99.com%2Fonline-analytical-processing.html&sa=D&sntz=1&usg=AOvVaw3RhktLOgJdlunMfoa5Zl_t
https://www.google.com/url?q=https%3A%2F%2Fwww.guru99.com%2Fonline-analytical-processing.html&sa=D&sntz=1&usg=AOvVaw3RhktLOgJdlunMfoa5Zl_t
Infográfico 
 
 
 
 
 
 
 
FERRAMENTAS, SISTEMAS 
COMPUTACIONAIS PARA A INTELIGÊNCIA 
EMPRESARIAL. 
Prof. Vinícius Silveira Magnus 
Neste capítulo, você vai aprender 
 A compreender como funcionam os recursos computacionais para Inteligência 
Empresarial; 
 A conhecer os principais recursos computacionais para Inteligência Empresarial; 
 A escolher a ferramenta ideal para cada processo de Inteligência Empresarial. 
Introdução 
Quando desejamos trabalhar com Business Intelligence necessitamos conhecer as 
ferramentas tecnológicas disponíveis para podemos escolher a qual mais de adapta a 
nosso ambiente. Em uma simples pesquisa na internet, nos deparamos com uma gama 
enorme de recursos, que vão desde ferramentas para coleta de dados nas nossas fontes 
de dados, em nossos Data Sources, a fim de carregá-los no Data Warehouse; 
ferramentas para organizar e estruturar nosso Data Warehouse; ferramentas para análise 
de dados ou ferramentas para relatórios e acesso ao usuário. 
As mais diversas soluções estão disponíveis, mas quando pesquisamos podemos 
perceber que a maioria delas estão na camada de análise de dados e relatório, 
ferramentas comuns aos profissionais de BI, pois os Data Sources e o Data Warehouse 
ficam na maioria dos casos sobre responsabilidades do departamento de tecnologia (BI 
também é uma área tecnológica, mas multidisciplinar, onde existem profissionais de 
todas as formações). 
Cabe a nós conhecermos um pouco de cada, incluindo suas características, seus 
principais recursos, benefícios, integrações, a fim de se conhecer a formas de trabalho 
com os dados e informações de cada uma delas. Isso é importante tanto quando 
precisamos escolher um recurso que iremos utilizar como para compreender a variedade 
de recursos disponíveis ao profissional de BI. 
 
Ferramentas de Business Intelligence 
As ferramentas de business intelligence (BI) são tipos de software de aplicativo que 
coletam e processam grandes quantidades de dados não estruturados de sistemas 
internos e externos, incluindo diversas fontes como sistemas de vendas, estoque, 
logística, recursos humanos e outros. Embora não sejam tão flexíveis e acessíveis a 
todos usuários quanto às ferramentas de análise de negócios, as ferramentas de BI 
proporcionam uma forma mais detalhada se se analisar dados para encontrar 
informações, principalmente por meio de consultas. Essas ferramentas auxiliam na 
preparação de dados para análises, possibilitando a criação de relatórios, painéis e 
visualizações de dados. Os resultados dão aos usuários em geral o poder de acelerar e 
aprimorar as tomadas de decisões, aumentar a eficiência operacional, localizar 
potenciais de receita, identificar as tendências do mercado, apontar novas oportunidades 
de negócios e outras situações que as informações possam auxiliar. 
Normalmente utilizadas para consultas e relatórios mais simples e diretos de dados 
comerciais, as ferramentas de business intelligence podem combinar um vasto conjunto 
de aplicativos de análise de dados, incluindo consultas e análises ad hoc, relatórios 
empresariais, processamento analítico online (OLAP), BI móvel, BI em tempo real, BI 
operacional, nuvem e software como BI de serviço, BI de software livre, BI 
colaborativo e inteligência de localização. Elas também podem incluir software de 
visualização de dados para a criação de gráficos, bem como ferramentas para criação de 
painéis de BI e tabelas de desempenho que exibem as métricas e dados do negócio para 
proporcionar informações essenciais à empresa de uma forma simples. 
 
Softwares e plataformas para BI 
Em um levantamento de recursos em sites especializados em assuntos como BI ou em 
uma simples busca no Google, podemos encontrar uma enorme variedade de 
ferramentas analíticas de BI, ou assuntos relacionados. 
Em suma, as ferramentas possuem uma finalidade bem similar, que passa por analisar 
uma série de dados previamente organizados a fim de encontrar informações que 
possam contribuir para o processo de gestão em uma organização. Essas ferramentas em 
sua grande maioria já oferecem suporte à elaboração e relatório dos mais variados tipos 
e uma série de integrações com outros softwares, especialmente com os repositórios de 
dados, os Data Warehouse ou outras bases de dados da organização, incluindo os Data 
Marts e bases de dados comuns. 
Se observarmos a Figura 1, podemos perceber que as ferramentas aqui abordadas ficam 
mais presentes nas camadas de Ferramentas Analíticas e de Acesso ao Usuário, porém 
mencionaremos algumas de armazenamento e organização de dados, que estão mais 
presentes na camada dos Data Sources e do Data Warehouse. 
 
Arquitetura do Business Intelligence. 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.msz14v7q74rs
https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.msz14v7q74rs
Ferramentas Analíticas e de Acesso ao Usuário 
Vamos agora listar os principais softwares de alto nível disponíveis em mercado, e 
quando falamos de alto nível nos referimos aos softwares de fácil uso, não necessitando 
conhecimento amplos e específicos em programação de computadores e armazenamento 
de dados. Porém, para extrair ao máximo os recursos disponibilizados por algumas 
plataformas, se faz necessário algum conhecimento de linguagem como R, Python, SQL 
ou outras específicas para cada ambiente. 
Esses softwares atuam diretamente nas camadas de análise de dados e acesso ao usuário 
e fornecem subsídios para as conexões diretas com as inúmeras fontes de dados, nossos 
Data Sources ou conexões com o Data Warehouse, facilitando, assim, a análise de 
dados, além de fornecer suporte à elaboração de relatório dos mais variados tipos. 
Aqui abordaremos os recursos de alto nível disponíveis a profissionais de qualquer área 
que queria utilizá-los em seu dia a dia ou mesmo aprender para ampliar o conhecimento 
na área de BI e análises de dados. Iremos listar as principais características e 
disponibilizar os links dos sites oficiais para uma maior consulta por todos. 
 São eles: 
 IBM Watson Analytics 
Também conhecido como IBM Cognos Analytics, é a plataforma da IBM que 
atua desde a coleta até os relatórios finais. Esse tipo de ferramenta funciona muito 
bem, pois possui uma arquitetura de serviços completa, que se integra a uma série 
de outros recursos disponíveis. 
Site oficial: 
https://www.ibm.com/br-pt/analytics/business-intelligence 
 
 
 Microsoft Power BI 
Uma das ferramentas maisutilizadas na atualidade, falaremos mais sobre ela no 
decorrer do capítulo por sua importância para o profissional de BI. 
Site oficial: https://powerbi.microsoft.com/pt-br/ 
 
 
 Google Cloud - Análise de Dados 
A Google Cloud disponibiliza a usuários de diversas áreas inúmeras ferramentas 
dentre elas: 
Google Data Studio 
Site oficial: https://datastudio.google.com 
Looker 
Site oficial: https://cloud.google.com/looker 
Ambam tecnologias fazem parte da suíte de ferramentas disponibilizadas através 
do Google Cloud, a nuvem de serviços da Google: 
Site oficial: https://cloud.google.com/products#data-analytics 
 
 
 
 
 
https://www.google.com/url?q=https%3A%2F%2Fwww.ibm.com%2Fbr-pt%2Fanalytics%2Fbusiness-intelligence%3F&sa=D&sntz=1&usg=AOvVaw1o81m1s2uATvzJRUpz6fJV
https://www.google.com/url?q=https%3A%2F%2Fpowerbi.microsoft.com%2Fpt-br%2F&sa=D&sntz=1&usg=AOvVaw24QfrLDKvN1yZ6ue_DSsKt
https://datastudio.google.com/
https://datastudio.google.com/
https://cloud.google.com/looker
https://cloud.google.com/products#data-analytics
 Amazon (AWS) QuickSight 
 
Ferramenta da Amazon, gigante da área tecnológica que possui uma série de 
ferramentas em sua nuvem, a chamada AWS (Amazon Web Services). O 
QuickSight oferece uma série de recursos de integração a outros sistemas, 
especialmente ao da AWS, sendo possível integrar de maneira muito fácil aos 
serviços de Machine Learnig, que pode fazer predições e análise de dados de 
maneira automática na plataforma. Esse serviço chama-se Amazon QuickSight 
ML Insights. 
Site oficial: https://aws.amazon.com/pt/quicksight/ 
 
 
 BIRT 
O Business Intelligence and Reporting Tools Project é um projeto de software de 
código aberto que fornece a plataforma de tecnologia para criar visualizações de 
dados e relatórios que podem ser incorporados outros softwares. É um projeto de 
software Eclipse Foundation, um consórcio independente sem fins lucrativos de 
fornecedores da indústria de software e uma comunidade de código aberto. 
Atualmente é patrocinado pela Actuate juntamente com contribuições da IBM e 
Innovent Solutions. O BIRT é suportado por uma comunidade ativa de usuários 
aqui no Eclipse.org e no BIRT Developer Center. É licenciado sob a Eclipse 
Public License (EPL). 
Site oficial: https://www.eclipse.org/birt/ 
 
 
 Jaspersoft 
É um software que gerar relatório hospedamos em nuvem e permite ao usuário 
criar layouts com gráficos, tabelas, imagens, vídeos e outros recursos visuais. Ela 
tem integração com alguns recursos na plataforma própria, e disponibiliza alguns 
recursos para a análise de dados de fontes internas e externa. 
Site oficial: https://www.jaspersoft.com/ 
 
 
 Adobe Analytics 
É a plataforma de análise de dados da Adobe, voltada para o universo web (sites), 
ela provê uma análise em tempo real de dados coletados de usuário. É mais 
voltada aos profissionais do marketing e é considerada por muitos a melhor 
ferramenta de análise web do mercado. 
Site oficial:https://www.adobe.com/br/analytics/adobe-analytics.html 
 Pentaho 
O Pentaho é um software utilizado na área de Business Intelligence que oferece, 
principalmente, soluções nas áreas de integração das fontes de dados (ETL), 
relatórios, análises online (OLAP – Online Analytical Processing) e mineração de 
dados. Ele é preferido em muitas organizações por trabalhar diretamente com o 
Big Data, por ser open source (código aberto) e pela facilidade de interação em 
diversos ambiente de tecnologia de organizações. 
Site oficial: http://www.pentaho.com 
 
 
 
https://www.google.com/url?q=https%3A%2F%2Faws.amazon.com%2Fpt%2Fquicksight%2F&sa=D&sntz=1&usg=AOvVaw3y8nI1UkugwPyXHz-V4ymA
https://www.google.com/url?q=https%3A%2F%2Fwww.eclipse.org%2Fbirt%2F&sa=D&sntz=1&usg=AOvVaw3WGypHvlMiWaE0CUMy1e7Y
https://www.google.com/url?q=https%3A%2F%2Fwww.jaspersoft.com%2F&sa=D&sntz=1&usg=AOvVaw0-BFqTtsCubbEZ7wKumfGe
https://www.google.com/url?q=https%3A%2F%2Fwww.adobe.com%2Fbr%2Fanalytics%2Fadobe-analytics.html&sa=D&sntz=1&usg=AOvVaw2ieFyRpZg-y_2fVTG_kZiA
http://www.google.com/url?q=http%3A%2F%2Fwww.pentaho.com&sa=D&sntz=1&usg=AOvVaw3YnRLwkIQAjqhAjrjE4PcB
 RStudio 
 RStudio é um ambiente de desenvolvimento integrado (IDE) para a linguagem de 
R, que é voltada à manipulação, análise e visualização de dados. Ele dá suporte à 
execução direta dos código desenvolvidos no ambiente pelo usuários e 
programadores, bem como disponibiliza ferramentas para tratamento, 
organizações e relatórios das informações extraídas. 
Site oficial: https://rstudio.com/ 
 
 
Microsoft Power BI 
O Microsoft Power BI é considerado pela Gartner Group, a principal ferramenta de 
mercado para o uso quando falamos em plataformas para análise e business intelligence, 
ela é uma plataforma de ferramentas que abrangem uma variedade de aplicativos e 
serviços baseados em nuvem que ajudam as organizações a agrupar, gerenciar e analisar 
dados de uma variedade de fontes, por meio de uma interface amigável. 
A ferramenta é utilizada para construir relatórios e encontrar tendências, padrões e 
outras informações com base nos dados de uma empresa. O Power BI pode se conectar 
a uma ampla variedade de conjuntos/fontes de dados e estruturas as informações para 
que possam ser melhor analisadas e compreendidas. 
 
A Microsoft Power BI consiste basicamente em um conjunto de 
três ferramentas principais: 
 Um aplicativo de desktop que funciona no sistemas operacional Windows 
chamado Power BI Desktop; 
 Um serviço SaaS (software como serviço) online chamado de serviço do Power 
BI; 
 Aplicativos móveis do Power BI para dispositivos Windows, iOS e Android. 
https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.e0j2a2ogbwe3
https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.e0j2a2ogbwe3
 
Ferramentas de Data Source e Data Warehouse 
Muitas das ferramentas que trabalham diretamente na análise de dados e na produção de 
relatórios finais e acesso ao usuário também dão suporte às atividades de coleta de 
dados nas diversas fontes de dados, os Data Sources, e de organização dos mesmo 
dentro de uma local único, o Data Warehouse. 
Essas ferramentas muitas vezes são soluções implementadas especificamente para a 
empresa, pois estão ligadas diretamente aos sistemas computacionais existente, como 
um e-commerce, um sistema de estoque, logística, vendas, financeiros, de 
relacionamento com o cliente (CRM) ou qualquer outro. 
 
 
 
 
 
 
 
GESTÃO DO CONHECIMENTO 
Prof. Vinícius Silveira Magnus 
Neste capítulo, você vai aprender. 
 Os fundamentos da gestão do conhecimento; 
 A reconhecer os objetivos da gestão do conhecimento; 
 O processo de transformação de dados em conhecimento; 
 A identificar as etapas do processo de gestão do conhecimento; 
 As áreas que envolvem a gestão do conhecimento. 
Introdução 
Se entendermos a Inteligência Empresarial (BI) como o processo de suporte aos negócios 
através da coleta, organização, análise, compartilhamento e monitoramento de informações, 
entenderemos que ela é um item do guarda-chuva da Gestão do Conhecimento. Quando 
utilizamos esses dados e informações trabalhadas no BI a fim de gerar um valor significativo 
para a organização, podemos dizer que estamos transformando a informação em conhecimento. 
O BI é um processo orientado por tecnologias que analisam dados e entregam 
informações que auxiliam os representantes da organização a tomar decisões para seus 
negócios. O processo de elevar a informação a um nível mais alto, ou seja, inseri-la em 
um contexto organizacional, relacioná-la com as decisões da organização, com a 
geração de vantagens competitivas, com inovação e outros temas, pode ser o início da 
relação entre a gestão da Inteligência Empresarial com a Gestão do Conhecimento. 
 
 
Fundamentos da Gestão do conhecimento 
A gestão do conhecimento, proveniente do termo em inglês “Knowledge Management” 
(KM), é o processo de aquisição, organização, armazenamentoe disseminação de 
informações dentro da organização. É um meio regular de gestão do conhecimento, a 
fim de atender necessidades dos clientes, explorar novas oportunidades e melhorar o 
desempenho organizacional. As etapas nesse processo incluem como o conhecimento é 
capturado, avaliado, limpo, armazenado, fornecido e usado. Envolve a criação e a 
utilização do conhecimento organizacional coletivo disponível. 
Em uma organização, a gestão do conhecimento inclui desde o aprendizado sobre as 
necessidades e desejos do cliente, até a disseminação e uso do conhecimento dentro da 
organização. Além disso, na gestão do conhecimento, as práticas geralmente envolvem 
examinar, preservar e organizar as experiências do cliente com o objetivo principal de 
compartilhar o conhecimento adquirido e armazenado para que os colaboradores 
utilizem no decorrer dos processos em uma organização. Alguns autores apontam que 
essa conversão de conhecimento, aquisição de conhecimento e aplicação de 
conhecimento são ingredientes necessários na gestão do conhecimento nas 
organizações. Portanto, a capacidade de gestão do conhecimento diz respeito também 
aos procedimentos de gestão das organizações. 
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.z0833vjl3q5q
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.z0833vjl3q5q
O conhecimento pertence à classe de ativos organizacionais, como estrutura de gestão, 
identidade da marca e reputação corporativa. O conhecimento é um bem humano, e o 
valor do conhecimento aumenta quando tem um propósito-chave e se concentra nos 
valores essenciais e estratégicos das prioridades da organização. Isso inclui o 
desenvolvimento das habilidades e capacidades dos funcionários da organização e 
contribui para a forma em que a organização irá adquirir e armazenar informações 
disponíveis nas pessoas e nos processos. 
A gestão eficaz do conhecimento das organizações exigirá uma mistura adequada de 
esquemas organizacionais, sociais e gerenciais em combinação com o uso de tecnologia. 
Assim, a gestão do conhecimento requer que as organizações envolvam um esforço 
concentrado em adquirir conhecimento apropriado e útil, e fornecê-lo aos funcionários 
da organização para alcançar o desempenho ideal em suas atividades. Um requisito 
básico para a aplicação da gestão do conhecimento é a predisposição para implementar 
os componentes de infraestrutura necessários para apoiar a aquisição, transferência e 
gerenciamento do conhecimento na organização. Esses componentes devem ter sinergia 
entre si e devem estar ancorados em processos, tecnologia e pessoas. 
Alguns estudos apontam que dentre as razões pelas quais algumas empresas "não sabem 
o que sabem", é devido à falta de abordagens modernas na gestão do conhecimento, 
observando que as estruturas para a gestão do conhecimento não são efetivamente 
aplicadas e os processos são, na maioria dos casos, não totalmente conhecidos. A 
aptidão para gerenciar o conhecimento parece essencial na atual economia do 
conhecimento. Mais uma vez, criar e difundir o conhecimento é mais importante do que 
nunca. A organização precisa se desenvolver constantemente e aumentar seus bancos de 
conhecimento para facilitar a disseminação e uso de tal conhecimento dentro da 
organização para alcançar vantagens competitivas. 
Os benefícios acumulados para as organizações por meio da gestão do conhecimento 
não apenas facilitam a colaboração na inovação da organização e de seus processos, mas 
também envolve buscar lacunas em seu banco de dados de conhecimento e oferecer 
soluções para eles. Além disso, a gestão do conhecimento incentiva uma inovação 
baseada na chamada cultura do conhecimento, que resulta em melhor desempenho. 
Gestão do conhecimento é proteger ativos intelectuais, buscar oportunidades para 
melhorar as decisões e seus produtos de forma inteligente, aumentando o valor agregado 
e proporcionando uma melhoria constante na empresa. 
 
 
Objetivos da Gestão do Conhecimento 
Podemos encontrar nas diversas literaturas muitos objetivos da gestão do conhecimento. 
Para nosso estudo, vamos estruturá-los em sete objetivos principais: 
 Gerando novos conhecimentos; 
 Acessando conhecimento valioso de fontes externas; 
 Usar conhecimento acessível na tomada de decisões; 
 Incorporar conhecimento em processos, produtos e/ou serviços. 
 Representar conhecimento em documentos, bancos de dados e software; 
 Facilitar o crescimento do conhecimento por meio de cultura e incentivos. 
Transferência de conhecimento existente para outras partes da organização; 
 Medir o valor dos ativos de conhecimento e/ou impacto do conhecimento de 
gestão. 
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.n34osm4eecag
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.n34osm4eecag
 
 
Transformação do conhecimento 
Na hierarquia de dados, informações e conhecimento, os métodos computacionais e de 
Business Intelligence (BI) desempenham um papel importante no processamento inicial 
de dados para extrair informações a partir de seus, e dão suporte para a transformação 
em conhecimento. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.en8r0ovdbeoy
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.en8r0ovdbeoy
Processo de Gestão do Conhecimento 
A gestão do conhecimento é o processo caracterizado por etapas. Podemos caracterizar, 
dentre a literatura existente, a descrição de diversas formas, onde o conhecimento desse 
processo é utilizado dentro de uma organização para alcançar um melhor desempenho e 
utilizando de melhores práticas como consequência da execução desse processo. 
Dentre as visões mais comuns na literatura de gestão do conhecimento, podemos citar a 
presença mais clara de quatro etapas, conforme relata a Figura 2. As etapas são, na 
maioria dos casos, sequenciais e cíclicas. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Etapa de aquisição: aquisição de dados ou informações aborda as questões relativas às fontes 
de Materiais "brutos", como escopo, amplitude, profundidade, credibilidade, precisão, 
oportunidade, relevância, custo, controle e exclusividade. O princípio orientador é o conhecido 
ditado de "entra lixo, sai lixo". Ou seja, os dados de origem devem ser da mais alta qualidade; 
caso contrário, os produtos intelectuais produzidos adiante serão inferiores. 
 
Algumas atividades dessa etapa: 
 
 Atividades de Criação de Conhecimento: é um processo dinâmico, 
multidimensional e complexo. É a capacidade de uma organização de formular e 
circular conhecimento em seus serviços, produtos e sistemas; 
 
 Atividades de Captura de Conhecimento: é o processo que envolve a criação 
de novos conteúdos e substituição dos existentes. É necessário que as organizações 
capturem tanto o conhecimento explícito quanto o implícito. 
Etapa de organização/armazenamento: a organização ou armazenamento forma uma 
ponte entre as atividades de aquisição que alimentam o repositório e a utilização. O 
armazenamento pode ser físico (pastas de arquivos, informações impressas) ou digitais 
(banco de dados, software de gestão do conhecimento). 
 
Algumas atividades dessa etapa: 
 Atividades de Organização do Conhecimento: está associado ao processo de 
compartilhamento do conhecimento e também indica a estrutura, listagem e 
modelagem do conhecimento. Existem três fases envolvidas no processo de 
organização do conhecimento, a saber: seleção e avaliação, organização e “remoção” 
ou re-seleção; 
 
 Atividades de Armazenamento de Conhecimento: a criação de novos 
conhecimentos não é suficiente, ter mecanismo para armazenar e recuperar o 
conhecimento quando necessário é mais importante. Isso deu origem ao conceito de 
memória de organização, que simplesmente significa a existência de conhecimento 
em várias estruturas e formatos. 
Etapa de distribuição: distribuição descreve comoo produto é entregue ao usuário 
final e abrange não só o meio de entrega, mas também o seu tempo, frequência, forma, 
idioma e assim por diante. 
Algumas atividades dessa etapa: 
 
 Atividades de Disseminação de Conhecimento: também conhecido como 
compartilhamento de conhecimento, é definido como o processo de transferência de 
conhecimento entre indivíduos, grupos ou organizações por meio de diversos meios 
ou canais de comunicação. 
 
Etapa de uso: a etapa final é a apresentação ou uso. É nessa fase que o contexto 
desempenha um papel importante. A eficácia de cada uma das etapas anteriores de valor 
agregado é avaliado aqui: o usuário tem contexto suficiente para ser capaz de fazer uso 
desse conteúdo? Caso contrário, o ciclo da gestão do conhecimento falhou em entregar 
valor ao indivíduo e, em última análise, para a organização. 
Algumas atividades dessa etapa: 
 Atividades de Aplicação do Conhecimento: o ponto essencial na gestão do 
conhecimento é garantir que o conhecimento seja aplicado de forma produtiva para o 
lucro da organização. A aplicação do conhecimento inclui a aplicação da ação do 
conhecimento, a resolução de problemas e a proteção da tomada de decisões que 
podem, em última instância, resultar na criação do conhecimento. 
 
Para um aprofundamento no processo de construção do conhecimento e suas etapas, 
sugerimos a leitura do artigo dos autores Rodrigo Gonzalez e Manoel Fernando Martins 
publicado na revista 
 Scielo. https://doi.org/10.1590/0104-530x0893-15. 
 
 
Áreas da Gestão do Conhecimento 
Alguns autores trazem o processo de gestão do conhecimento dividido em algumas 
áreas. Estas são a divisão de algumas abordagens, onde, nesse sentido, podemos 
descrevê-las como: 
 Inteligência Competitiva; 
 Educação Corporativa; 
 Gestão de Competências; 
 Gestão do Capital Intelectual; 
 Gestão da Informação; 
 Aprendizagem Organizacional. 
Podemos entender que as etapas e atividades da gestão do conhecimento envolvem 
conceitos de diversas áreas e disciplinas, e que também envolvem profissionais de todas 
as áreas da organização como tecnologia e gestão. O desafio de se fazer gestão do 
conhecimento nos dias atuais é cada vez maior, pois necessitamos de pessoas 
envolvidas, profissionais capacitados, estruturas organizacionais e tecnológicas e amplo 
apoio dos gestores da organização. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
https://www.google.com/url?q=https%3A%2F%2Fdoi.org%2F10.1590%2F0104-530x0893-15&sa=D&sntz=1&usg=AOvVaw0sUlT-P3ZGJWY3TGHj4DxQ
https://www.google.com/url?q=https%3A%2F%2Fdoi.org%2F10.1590%2F0104-530x0893-15&sa=D&sntz=1&usg=AOvVaw0sUlT-P3ZGJWY3TGHj4DxQ
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.g1l3169o8yqs
https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.g1l3169o8yqs
GESTÃO DE DADOS PARA INTELIGÊNCIA 
EMPRESARIAL (DATA MINING, DATA WAREHOUSE, 
BIG DATA) 
Prof. Vinícius Silveira Magnus 
Neste capítulo, você vai aprender. 
 Os principais conceitos de gestão de dados; 
 O funcionamento de um Data Warehouse; 
 A estrutura e importância de um Big Data; 
 O processo de Data mining. 
Introdução 
Diversos temas relacionados à ciência de dados têm ganhado espaço nas organizações 
quando o assunto é a Inteligência Empresarial (Business Intelligence); mais 
especificamente, podemos citar a gestão de dados e seus aspectos relacionados. 
Podemos também entender que existe uma grande relação entre a ciência de dados e a 
gestão de dados ou informação, bem como o BI. 
A gestão de dados ou gestão da informação tem ganhado espaço devido aos desafios na 
gestão do bem maior das organizações de hoje, suas informações. Na base dessa gestão, 
estão os dados obtidos pela empresa, organizados e utilizados pela organização nos mais 
variados processos. Assim, surgem novas tecnologias, processos, ou novas visões de 
processos já existentes para se manipular os dados na organização, a fim de torná-los 
úteis na geração de diferenciais competitivos para a empresa, podendo ser esse o fator 
de sucesso quando bem trabalhado. 
 
 
A Gestão de Dados: Princípios e Fundamentos 
A gestão de dados é uma área que tem como objetivo gerenciar (coletar, manter e usar) 
todos os dados de uma organização, por entender que os dados são recursos valiosos 
que fazem parte do processo base para a tomada de decisão em uma organização. Os 
dados são hoje um dos recursos chave e é fator de sucesso de muitos negócios; é a partir 
deles que construímos informações e a partir de informações que construímos 
conhecimento. 
A gestão de dados constrói as sistemáticas para se trabalhar com os dados em uma 
organização, seja ela na coleta de dados das mais variadas fontes possíveis, seja na 
manutenção desses dados, organizando e estruturando os mesmos, seja ela na 
disponibilização desses dados ou no processo de coleta e organização. 
 
 
Gestão de Dados e Gestão da Informação 
O termo gestão de dados e gestão da informação são, em muitos casos, utilizados como 
sinônimos, alguns autores não fazem as distinções entre os mesmos. Podemos entender 
que a gestão da informação é o processo mais amplo, que lida de maneira direta com o 
processo de uso da mesma, enquanto a gestão de dados se refere ao processo mais 
tecnológico e sistemático de coleta e organização desses dados. 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.zd3vhjr4oc9l
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.zd3vhjr4oc9l
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.t8hmmy5wdhf2
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.t8hmmy5wdhf2
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.6e6nml2jlgze
 
O Business Intelligence e a Gestão de Dados 
Podemos fazer a relação de diversos temas entre a inteligência empresarial (vista como 
BI) e a gestão de dados ou informações. Dentre todos eles, podemos destacar três temas: 
o primeiro é o mais ligado à arquitetura tradicional do BI propriamente dito, o Data 
Warehouse; o segundo relacionado às altas demandas de tecnologia para suportar o 
volume de dados produzidos atualmente, o Big Data; e, por fim, o processo de se 
trabalhar e explorar esses dados armazenados e estruturados no Data Warehouse e no 
Big Data, esse processo é o Data Mining. 
 
 
Data Warehouse 
O Data Warehouse é, de forma resumida, um local centralizado na organização que 
armazena os dados de todos os sistemas em um local único. Esses dados são 
organizados de maneira a promover e facilitar a organização, padronização e consultas, 
tornando o processo de tomada de decisão sustentado por dados e informações. 
Os dados centralizados em um Data Warehouse são provenientes dos Data Sources, que 
são a base de dados específicos de cada sistema ou qualquer outro tipo de dados, como 
planilhas, catálogos, relatórios de outros sistemas. Quando os dados são estratificados 
dessa base de dados central a fim de organizar os mesmos para análises especiais para 
cada área, por exemplo, vendas, estoque ou logística, essas bases menores e focadas são 
chamadas de Data Marts. 
Como já exploramos esse assunto no Tema 1 de nossa disciplina, podemos recorrer a 
ele ou aprofundarmos um pouco mais com a leitura do texto da Oracle na página 
abaixo: 
https://www.oracle.com/br/database/what-is-a-data-warehouse/ 
 
 
Big Data 
 
Fonte: Pixabay: 
 
O termo Big Data tem sido utilizado nas ciências para se referir ao conjunto de grandes 
volumes de dados, grandes o suficiente para exigir supercomputadores, embora agora 
grandes conjuntos de dados possam ser analisados em computadores pessoais com a 
utilização de software modernos. Não há dúvida de que as quantidades de dados 
disponíveis no momento são realmente grandes, mas essa não é a característica mais 
relevante para a estrutura, onde o Big Data é notável não por causa de seu tamanho, mas 
por causa de seu relacionamento com uma série de outros dados relacionados. Devido 
aos esforçospara minerar (analisar) e agregar dados, o Big Data é fundamentalmente 
conectado em rede, ou seja, os dados possuem relações entre si. Seu valor vem dos 
padrões que podem ser derivados fazendo relações entre partes de dados, sobre um 
indivíduo, sobre indivíduos em relação a outros, sobre grupos de pessoas ou 
simplesmente sobre a própria estrutura da informação. 
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.iilk7g9bd6jm
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.iilk7g9bd6jm
https://www.google.com/url?q=https%3A%2F%2Fwww.oracle.com%2Fbr%2Fdatabase%2Fwhat-is-a-data-warehouse%2F&sa=D&sntz=1&usg=AOvVaw3AlPLu7ApR4GP93hiBrmES
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.ho41bcji8l3q
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.ho41bcji8l3q
https://www.google.com/url?q=https%3A%2F%2Fpixabay.com%2Fpt%2Fphotos%2Fdados-teclado-mouse-big-data-4151152%2F&sa=D&sntz=1&usg=AOvVaw1tutZJtOTjKCB6lz4MclW4
https://www.google.com/url?q=https%3A%2F%2Fpixabay.com%2Fpt%2Fphotos%2Fdados-teclado-mouse-big-data-4151152%2F&sa=D&sntz=1&usg=AOvVaw1tutZJtOTjKCB6lz4MclW4
Para saber um pouco sobre a história do Big Data, leia o artigo Big Data: Definição e 
Um Breve Histórico. 
 
 
Os Vs do Big Data 
Quando o termo Big Data foi evoluindo, sua estrutura começou a ganhar alguns 
significados de características que inicialmente foram chamadas de 3 V's, depois 5 V's e 
até mesmo existem visões que trazem 7 V's. Vamos abordar neste estudo as 
características do Big Data em torno de 5 V's, que são: volume, variedade, velocidade, 
veracidade e valor. 
 Volume: as definições de volumes de big data são relativas e variam por fatores, 
como tempo e tipo de dados. O que pode ser considerado big data hoje pode não 
atingir o limite no futuro porque as capacidades de armazenamento irão aumentar, 
permitindo que conjuntos de dados ainda maiores sejam capturados. Além disso, o 
tipo de dados, discutido em variedade, define o que se entende por “grande”. Dois 
conjuntos de dados do mesmo tamanho podem exigir diferentes tecnologias de 
gerenciamento de dados com base em seu tipo, por exemplo, dados em texto ou 
dados de vídeo. Portanto, as definições de big data também dependem do setor, essas 
considerações tornam impraticável definir um limite específico para volumes de big 
data. 
 Variedade: refere-se à heterogeneidade estrutural em um conjunto de dados. Os 
avanços tecnológicos permitem que as empresas usem vários tipos de dados 
estruturados, semiestruturados e não estruturados. Alguns estudos apontam que os 
dados estruturados constituem apenas 5% de todos os dados existentes, estes 
referem-se aos dados tabulares encontrados em planilhas ou bancos de dados 
relacionais. Texto, imagens, áudio e vídeo são exemplos de dados não estruturados, 
que às vezes carecem da organização estrutural exigida pelas máquinas para análise. 
Um alto nível de variedade, uma característica definidora do big data, não é 
necessariamente novo. As organizações têm acumulado dados não estruturados de 
fontes internas (por exemplo, dados de sensores) e fontes externas (por exemplo, mídia 
social). No entanto, o surgimento de novas tecnologias e análises de gerenciamento de 
dados, que permitem às organizações alavancar os dados em seus processos de 
negócios, é o aspecto inovador. Por exemplo, as tecnologias de reconhecimento facial 
capacitam os varejistas tradicionais a adquirir inteligência sobre o tráfego da loja, a 
idade ou composição de gênero de seus clientes e seus padrões de movimento na loja. 
Essas informações valiosas são alavancadas nas decisões relacionadas a promoções, 
posicionamento de produtos e pessoal. Outros exemplos são os dados do fluxo de 
cliques em um web site, que fornecem uma riqueza de informações sobre o 
comportamento do cliente e padrões de navegação para varejistas on-line. 
 Velocidade: refere-se à taxa em que os dados são gerados e a velocidade em que 
devem ser analisados e executados. O crescimento da quantidade de dispositivos 
digitais, como smartphones e sensores, levou a uma taxa sem precedentes de criação 
de dados e está levando a uma necessidade crescente de análises em tempo real e 
planejamento baseado em evidências. Mesmo os varejistas convencionais estão 
gerando dados de alta frequência, o Wal-Mart, por exemplo, processa mais de um 
milhão de transações por hora. 
Os dados que são gerados a partir do uso de dispositivos móveis e fluem por meio de 
aplicativos móveis produzem uma série de informações que podem ser usadas para 
https://www.google.com/url?q=https%3A%2F%2Fmedium.com%2F%40stratiobd%2Fbig-data-defini%25C3%25A7%25C3%25A3o-e-um-breve-hist%25C3%25B3rico-a389abcf6a3&sa=D&sntz=1&usg=AOvVaw25VAFR3y5ANwjh_3tsHfnr
https://www.google.com/url?q=https%3A%2F%2Fmedium.com%2F%40stratiobd%2Fbig-data-defini%25C3%25A7%25C3%25A3o-e-um-breve-hist%25C3%25B3rico-a389abcf6a3&sa=D&sntz=1&usg=AOvVaw25VAFR3y5ANwjh_3tsHfnr
https://www.google.com/url?q=https%3A%2F%2Fmedium.com%2F%40stratiobd%2Fbig-data-defini%25C3%25A7%25C3%25A3o-e-um-breve-hist%25C3%25B3rico-a389abcf6a3&sa=D&sntz=1&usg=AOvVaw25VAFR3y5ANwjh_3tsHfnr
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.3hqojpl24l8s
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.3hqojpl24l8s
gerar ofertas personalizadas em tempo real para clientes diários. Esses dados fornecem 
informações confiáveis sobre os clientes, como localização geoespacial, dados 
demográficos e padrões de compra anteriores, que podem ser analisados em tempo real 
para criar valor real para o cliente. 
Dada a popularidade crescente dos smartphones, os varejistas em breve terão que lidar 
com centenas de milhares de fontes de dados que exigem análises em tempo real. Os 
sistemas de gerenciamento de dados tradicionais não são capazes de lidar com grandes 
feeds de dados instantaneamente. É aqui que as tecnologias de big data entram em jogo. 
Eles permitem que as empresas criem inteligência em tempo real a partir de grandes 
volumes de dados "perecíveis". 
 Veracidade: ela representa a falta de confiabilidade inerente a algumas fontes 
de dados. Por exemplo, os sentimentos do cliente nas mídias sociais são incertos por 
natureza, uma vez que envolvem julgamento humano. No entanto, eles contêm 
informações valiosas. Assim, a necessidade de lidar com dados imprecisos e incertos 
é outra faceta do big data, que é tratada por meio de ferramentas e análises 
desenvolvidas para gerenciamento e mineração de dados incertos. 
 Valor: ele representa os benefícios que os dados podem trazer para o negócio ou 
para o processo de análise, eles devem ajudar a organização a tomar suas decisões, 
direcionando suas ações com base nos dados coletados e analisados do Big Data. O 
valor representa o quão importante são os dados provenientes de todo o processo de 
coleta e o quanto eles podem se tornar útil dentro do processo decisório de uma 
organização, tanto para criar novos produtos e serviços, melhorar os já existente, 
direcionar uma campanha de vendas ou mesmo ajudar a melhorar um processo 
interno que trará benefícios ao negócio. 
 
 
Análise do Big Data 
Big data não vale nada sem sua análise. Seu valor potencial é perceptível apenas quando 
aproveitado para conduzir ao seu uso, como, por exemplo, na tomada de decisões. Para 
permitir essa tomada de decisão baseada em evidências, as organizações precisam de 
processos eficientes para transformar grandes volumes de dados diversos e de rápida 
movimentação em percepções significativas. O processo geral de extração de insights de 
big data pode ser dividido em cinco etapas, mostrado na Figura 1. Esses cinco estágios 
formam os dois subprocessos principais: gerenciamento e análise de dados. O 
gerenciamento de dados envolve processos e tecnologias de suporte para adquirir e 
armazenar dados e prepará-los e recuperá-los para análise. Já a análise, por outro lado, 
refere-se a técnicas usadas para analisar e adquiririnteligência de big data. Portanto, a 
análise de big data pode ser vista como um subprocesso no processo geral de tratamento 
do big data. 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.7zb286c510v2
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.7zb286c510v2
Data Mining 
A mineração de dados é a prática de pesquisar automaticamente grandes 
armazenamentos de dados para descobrir padrões e tendências que vão além da 
simples análise. Ele usa algoritmos matemáticos sofisticados para segmentar os 
dados e avaliar a probabilidade de eventos futuros. Alguns termos importantes a 
saber antes de entrar em detalhes em Data Mining. 
Primeiramente, precisamos relembrar que trabalhamos em uma linha evolutiva com 
dados, informação e conhecimento. Dados são quaisquer fatos, números ou texto que 
podem ser processados por um computador. Hoje, as organizações estão acumulando 
grandes e crescentes quantidades de dados em diferentes formatos e bancos de dados. 
Os padrões, associações ou relacionamentos entre todos os tipos de dados podem 
fornecer informações. A informação pode ser convertida em conhecimento. 
Processo de descoberta de conhecimento é um processo que consiste em diversas 
etapas, elas podem ser subdivididas em: 
 Limpeza de dados: refere-se ao ruído de remoção e dados inconsistentes; 
 Integração de dados: nesta etapa, várias fontes de dados podem ser 
combinadas; 
 Seleção de dados: nesta etapa, os dados relevantes para a tarefa de análise são 
recuperados do banco de dados; 
 Transformação de dados: nesta etapa, os dados são transformados ou 
consolidados em formas apropriadas para mineração, executando operações de 
resumo ou agregação; 
 Mineração de dados: este é um processo essencial onde métodos inteligentes 
são aplicados para extrair padrões de dados; 
 Avaliação de padrões: esta etapa é usada para identificar os padrões 
verdadeiramente interessantes que representam o conhecimento com base em 
algumas medidas de interesse; 
 Apresentação do conhecimento: nesta etapa, técnicas de visualização e 
representação do conhecimento são utilizadas para apresentar o conhecimento 
minerado ao usuário. 
A mineração de dados entra nesse processo procurando de forma inteligente padrões 
que darão significados maiores às relações que os dados possuem, como, por exemplo, 
um perfil de cliente que compra mais determinado produto. 
No Data Mining, dois métodos de mineração são amplamente difundidos para encontrar 
padrões ocultos em dados, são eles o agrupamento e a análise de classificação. Embora 
a classificação e o agrupamento sejam frequentemente citados na mesma linha, eles são 
avanços analíticos diferentes. 
 
 
Tipos de Data Mining 
Tipos de tarefas de mineração de dados. Dois tipos de tarefa de mineração de dados são: 
 Métodos de previsão: este tipo de método usa alguma variável para prever 
valores desconhecidos ou futuros de outras variáveis; 
 Métodos de descrição: este tipo de método encontra padrões interpretáveis por 
humanos que descrevem os dados. 
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.jori75ydnvtq
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.jori75ydnvtq
 
 
Aplicações do Data Mining 
Data Mining é um conceito relativamente novo que vem se transformando a cada dia, 
porém existem várias empresas que já o utilizam normalmente a muito tempo. 
Essas empresas estão usando mineração de dados para estatísticas, reconhecimento de 
padrões e outras tarefas importantes. A mineração de dados pode ser utilizada para 
encontrar padrões e associações que, de outra forma, seriam difíceis de encontrar. Esse 
conceito é popular com muitas empresas porque lhes permite descobrir mais sobre seus 
clientes e tirar informações comerciais importantes que irão auxiliar no processo 
decisório da empresa. 
A mineração de dados possui uma série de possíveis aplicações. Uma delas, bem 
comum, é chamada de segmentação de mercado. Com a segmentação de mercado, a 
organização poderá encontrar comportamentos que são comuns entre seus clientes. Ela 
pode procurar padrões entre os clientes que compram os mesmos produtos ao mesmo 
tempo. 
Outra aplicação da mineração de dados é chamada de rotatividade de clientes. Isso 
permitirá que as empresas calculem quais clientes têm maior probabilidade de parar de 
comprar seus produtos ou serviços e procurar um de seus concorrentes. Além disso, 
uma empresa pode usar a mineração de dados para descobrir quais compras têm maior 
probabilidade de serem fraudulentas, isso é muito comum em empresas de cartões de 
crédito, por exemplo. 
Outra linha é a utilização do data mining na prevenção de roubos, por exemplo, 
descobrir quais produtos são mais roubados; assim, medidas podem ser tomadas para 
proteger esses bens e observar quem os está roubando. Essa técnica é utilizada por 
departamentos de inteligência das polícias e também por seguradoras de carros e cargas. 
Outro exemplo de previsão automática é usar data mining para examinar seus esquemas 
de marketing anteriores. Qual funcionou melhor? Por que funcionou melhor? Quem 
foram os clientes que responderam de forma mais favorável? A mineração de dados 
permite que a empresa encontre essas respostas, podendo evitar cometer quaisquer erros 
que tenha cometido em sua negociação anterior. 
A mineração de dados pode permitir que você se torne melhor no que faz. Uma 
organização financeira, como um banco, pode prever o número de inadimplências que 
ocorrerão entre seus clientes em um determinado período e também pode prever a 
quantidade de fraude que ocorrerá com base na visão geral dos registros anteriores. 
 
 
 
 
 
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.6i18z787jwga
https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.6i18z787jwga
TÓPICOS CONTEMPORÂNEOS DE 
INTELIGÊNCIA EMPRESARIAL (BLOCKCHAIN, 
IOT, COMPUTAÇÃO EM NUVEM, INTELIGÊNCIA 
ARTIFICIAL) 
Neste capítulo, você vai aprender 
 Os principais conceitos de Internet das Coisas, bem como sua arquitetura; 
 Sobre inteligência artificial, sua evolução e suas principais aplicações nos dias 
atuais; 
 A identificar os tipos de computação em nuvem, bem como os conceitos 
relacionados; 
 Os fundamentos do blockchain e a sua importância. 
Introdução 
Existem uma série de temas relacionados à Inteligência Empresarial, na visão do 
Business Intelligence, que são de vital importância conhecermos quando estamos 
estudando os aspectos dessa disciplina. Por mais que as tecnologias sejam muitas e de 
vasto conteúdo, precisamos ao menos entender os principais conceitos e aspectos de 
cada uma delas. 
Alguns tópicos importantes que iremos abordar são a Internet das Coisas, que 
juntamente com a evolução da conectividade da Internet em relação às pessoas têm 
transformado a maneira de como geramos informação sobre tudo. Também veremos a 
Inteligência Artificial que tem a cada dia surpreendido e transformando o ambiente e a 
maneira que as organizações atuam no mercado. Outro aspecto importante é o 
entendimento da computação em nuvem, que modifica a forma de pessoas e 
organizações se relacionarem com a tecnologia, e por fim, o blockchain, uma tecnologia 
que surgiu em 2008, que sustenta as criptomoedas, em especial o bitcoin, e está 
modificando a maneira que as empresas se relacionam entre si, com suas transações e 
com suas informações. 
 
 
Tópicos de Inteligência Empresarial 
A relação das organizações e seus processos com novas tecnologias é fundamental para 
ela se manter no mercado. A cada dia surgem novas tecnologias e demandas 
tecnológicas que movimentam e modificam a forma de as empresas trabalhar, sendo 
essas mudanças muitas vezes oportunidades de se destacar no mercado, antecipando-se 
aos concorrentes e criando vantagens competitivas que irão levar a empresa a outro 
patamar. 
A inteligência empresarial (Business Intelligence) tem relação direta com o tratamento 
deinformações, seja ela na forma de coletar esses dados, seja ela como armazená-los e 
organizá-los, seja ela na sistemática de analisá-los ou mesmo no processo de uso. O 
fluxo de dados, informação e conhecimento durante esse processo, envolve muitos 
fatores, alguns deles estão modificando a forma de como entendemos esse processo, 
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ji6o5abheh6w
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ji6o5abheh6w
sendo alguns deles a Internet das coisas, a inteligência artificial, a computação em 
nuvem, o blockchain, e outras tecnologias. Iremos abordar aqui algumas das mais 
importantes para o profissional de inteligência empresarial conhecer. 
 
 
IoT – A Internet das Coisas 
Nos dias de hoje, a Internet está presente na vida da maioria das pessoas e das 
organizações, ela alcançou quase todos os cantos do globo e está afetando a vida 
humana de maneiras inimagináveis. No entanto, a jornada está longe de terminar e as 
evoluções continuam. Estamos entrando em uma era de conectividade ainda mais 
difundida, em que uma grande variedade de aparelhos será conectada à Internet. 
Estamos entrando na era da IoT (Internet das Coisas), um termo derivado do 
inglês Internet of Things. 
O termo foi definido em 1999, por Kevin Ashton do MIT, mas hoje ganha diversas 
definições e visões mais evoluídas. Alguns autores definem a Internet das Coisas 
simplesmente como uma interação entre os mundos físico e digital. O mundo digital 
interage com o mundo físico usando uma infinidade de sensores e atuadores. Outra 
linha de autores define a Internet das Coisas como um paradigma no qual as 
capacidades de computação e rede são embutidas em qualquer tipo de objeto. Usamos 
esses recursos para consultar o estado do objeto e alterar seu estado, se possível. De 
modo geral, a Internet das Coisas se refere a um novo tipo de mundo onde quase todos 
os dispositivos e aparelhos que usamos estão conectados a uma rede. Podemos usá-los 
de forma colaborativa para realizar tarefas complexas que exigem um alto grau de 
inteligência. 
Em linhas gerais, a Internet das Coisas possui uma estrutura de componentes 
distribuídos em três camadas conforme demonstrado na Figura 1: 
 
Os dispositivos (chamados também de devices) de IoT são equipados com sensores, atuadores, 
processadores, transmissores e receptores de dados. IoT não é uma tecnologia única; em vez 
disso, é uma aglomeração de várias tecnologias que funcionam juntas em conjunto. Sensores e 
atuadores são dispositivos que auxiliam na interação com o ambiente físico. Os dados coletados 
pelos sensores devem ser armazenados e processados de forma inteligente para derivar 
inferências úteis deles. O termo sensor é definido de forma ampla; um telefone celular ou 
mesmo um forno de micro-ondas pode contar como um sensor, desde que forneça informações, 
por exemplo a temperatura ou de umidade de um ambiente. Um atuador é um dispositivo usado 
para efetuar uma mudança no ambiente, como o controle de temperatura de um ar condicionado, 
podendo o atuador aumentar ou diminuir. 
Os dados podem ser armazenados e processados na própria extremidade da rede (no device) ou 
em um servidor remoto (chamado também de nuvem). Os dados processados são normalmente 
enviados para um servidor remoto. Os recursos de armazenamento e processamento de um 
objeto de IoT também são restritos pelos recursos disponíveis, que geralmente são muito 
restritos devido às limitações de tamanho, energia, potência e capacidade computacional. 
O mundo da Internet das coisas envolve diversos fatores, um dos principais desafios é 
garantir que obtenhamos o tipo certo de dados com o nível de precisão desejado e a 
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.bj2n31lurwho
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.bj2n31lurwho
velocidade necessária para tomarmos algumas ações. Junto com os desafios de coleta e 
tratamento de dados, também existem desafios na comunicação. A comunicação entre 
os dispositivos IoT é principalmente sem fio porque eles geralmente são instalados em 
locais geograficamente remotos. 
Agora, depois de processar os dados recebidos, alguma ação precisa ser realizada com 
base nas inferências derivadas. A natureza das ações pode ser diversa. Podemos 
modificar diretamente o mundo físico por meio de atuadores. Ou podemos fazer algo 
virtualmente. Por exemplo, podemos enviar algumas informações para outras coisas 
inteligentes. 
 
Aplicações de IoT. 
Dada a estrutura fornecida pelas tecnologias criadas em torno da Internet das Coisas ou 
mesmo com o uso de tecnologias existe com base no conceito de IoT, diversas 
aplicações são criadas e melhoradas a cada dia. Encontramos várias aplicações em 
sistemas de agricultura, saúde, esporte, educação, entretenimento, vida social, 
conservação de energia, monitoramento ambiental, automação residencial, transporte, 
entre outros. 
 
Fique de olho! 
Para descobrir um pouco mais sobre as aplicações de IoT, leia estes dois pequenos 
artigos: 
 6 aplicações de Internet das Coisas em sua rotina – TOTVS 
 Internet das Coisas: o que é IoT e exemplos de onde podemos encontrá-la 
 
Inteligência Artificial 
A inteligência artificial (IA) tem se tornado assunto em diversas áreas do mercado. 
Organizações vêm buscando cada vez mais dominar o conteúdo para entender e aplicar 
em seus contextos. É cada vez mais comum os investimentos em IA, seja em pesquisa 
ou no desenvolvimento de produtos e serviços. A tecnologia tem ganhado a atenção 
pelos resultados trazidos e pelas expectativas do que ainda está por vir. Estudar IA é de 
vital importância para profissionais de todas as áreas, pois todos, de uma forma ou de 
outra, estamos sendo impactados pela IA, e nossa profissão (seja qual for) também é ou 
será impactada fortemente em um futuro muito próximo. 
Desde a criação dos computadores, esforços têm sido aplicados na tentativa de tornar o 
computador inteligente. Nos últimos anos, grandes empresas como Google, Microsoft, 
IBM, Facebook, Apple, entre outras, vêm anunciando pesquisas em torno de tecnologias 
com o uso de inteligência artificial (IA). A busca pela máquina inteligente parece algo 
um pouco distante se imaginarmos um mesmo computador capaz de realizar tudo que 
um ser humano faz e com a velocidade de processamento que uma máquina possui. 
As aplicações de IA de maior sucesso são pontuais e específicas. Elas estão por toda 
parte e a cada dia está mais presente no cotidiano das pessoas. Assistentes pessoais, 
https://www.google.com/url?q=https%3A%2F%2Fwww.totvs.com%2Fblog%2Finovacoes%2Faplicacoes-da-internet-das-coisas%2F&sa=D&sntz=1&usg=AOvVaw3MQWGqRq0JgGTNqagNUDzv
https://www.google.com/url?q=https%3A%2F%2Finteligencia.rockcontent.com%2Finternet-das-coisas%2F&sa=D&sntz=1&usg=AOvVaw2YLaN8cnUiLmhrxTmUfmeb
chatbots, carros autônomos, sistemas de recomendações de produtos e serviços, entre 
outros, são realidades em muitas tecnologias ao nosso redor, e a evolução tem sido cada 
dia mais rápida, em que novos estudos e pesquisas dão indícios das novas. 
Para chegarmos até este momento de utilização da tecnologia de IA, o caminho foi 
longo, de muita pesquisa, com tecnologias de sucesso e outras que ficaram pelo 
caminho, mas serviram de experiência e geraram muitos debates. Os primeiros relatos 
sobre inteligência artificial relacionadas à computação, surgiram antes mesmo da 
própria criação do primeiro computador. No ano de 1943, os cientistas Warren 
McCulloch e Walter Pitts escrevem um artigo falando pela primeira vez em redes 
neurais. Em 1956, o termo inteligência artificial foi estabelecido como uma área e se 
tornou um campo de pesquisa. Mas o termo ganhou força quando Alan Turing, cientista 
conhecido como pai da computação, propôs um teste, que ficou conhecido como teste 
de Turing, um método para validar se um sistema poderia ser considerado inteligente. 
Nasciaali uma nova era para a IA. 
Desse período em diante a IA ganhou força e aceitação. Até os anos 60, a IA tinha o 
objetivo de simular o pensamento humano para resolver problemas, nesse período 
algumas decepções aconteceram pela complexidade desse objetivo. Nos anos 70, o 
objetivo foi reduzido, onde era proposto que o computador pudesse resolver problemas 
específicos, usando a inteligência humana em determinada área, sendo a solução criada 
exclusivamente para aquele fim. Nos anos 80, as tentativas foram de criar soluções em 
uma determinada especialidade humana dentro de uma área, obtendo sucesso em 
algumas como diagnósticos médicos e sistema de concessão de crédito, onde as regras 
eram mapeadas para os computadores, e eles inferiam as soluções e pareceres. 
A era atual está marcada pelo uso de IA em muitos campos e de sucesso de diversos 
esforços e pesquisas, como o surgimento dos assistentes pessoais, os veículos 
autônomos, a evolução da robótica, a presença cada vez maior da IA na área da saúde 
(diagnósticos, cirurgias e testes laboratoriais), sistemas de previsão e simulação (tempo, 
tráfego, demanda, logística), de recomendação de produtos e serviços, como sites de 
compras e conteúdos em redes sociais. Enfim, estamos cercados de IA e muitas vezes 
isso é tão comum que nem percebemos. 
 
Nesse contexto, é importante conhecermos dois termos muito relevantes dentro da 
inteligência artificial, que são a representação do conhecimento e o aprendizado de 
máquina. A representação do conhecimento é uma tentativa de transformar o domínio 
de um problema (conhecimento) de forma a torná-lo disponível ao uso, seja para busca 
de informações ou para estruturar/organizar um determinado conhecimento. Já 
o aprendizado de máquina (machine learning) é a tentativa de se criar estruturas com 
o potencial de aprendizagem, ou seja, para que a máquina esteja pronta para capturar e 
organizar o conhecimento em seu processo de interação com dados e informações, seja 
ela, por exemplo, analisando uma quantidade de dados já armazenado ou na interação 
com um usuário. 
Fique de olho! 
O aprendizado de máquina é uma área com muitos estudos e pesquisas, e vem 
evoluindo a cada dia de maneira muito rápida. Artigo extra sobre aprendizado de 
máquina, clicando aqui. 
 
As soluções em inteligência artificial só crescem devido aos altos investimentos de 
grandes empresas na área, sendo ela cada vez mais presente no nosso cotidiano e na 
rotina das organizações. O profissional de inteligência empresarial lida diariamente com 
soluções que envolvem IA, às vezes sem mesmo notar, porém, quanto mais 
conhecermos essas soluções e dominarmos o assunto de IA, iremos conseguir extrair ao 
máximo das soluções encontradas ou mesmo desenvolver nossas próprias soluções 
corporativas envolvendo o assunto. 
 
 
Computação em Nuvem 
A computação em nuvem, do termo em inglês cloud computing, muitas vezes chamadas 
simplesmente de nuvem ou cloud, é um meio pelo qual empresas disponibilizam 
serviços de computação como servidores, armazenamento de arquivos, banco de dados, 
redes, software e outros através da Internet, oferecendo forma de acesso rápida a esses 
serviços, de maneira flexível e econômicos, por geralmente trabalharem sob demanda. 
 
 
Tipos de Serviços em Nuvem 
Existem diversas definições para os tipos de serviços de nuvem. As três mais comuns 
são os softwares como serviços (SaaS), plataformas como serviços (PaaS) e as 
infraestruturas como serviços (IaaS). 
 
Software como serviço (SaaS): 
O SaaS (Software as a Service) disponibiliza o uso de aplicativos executados na 
infraestrutura do fornecedor do serviço de nuvem, por exemplo, Office 365 ou Google 
Drive. Nesse caso, os aplicativos são normalmente oferecidos aos clientes através da 
Internet e são totalmente gerenciados pelo provedor de nuvem. 
 
Plataforma como serviço (PaaS): 
Os serviços de nuvem PaaS (Plataform as a Service) oferecem uma plataforma de 
aplicação como serviço, por exemplo, Google App Engine ou Microsoft App Service. 
Isso permite que os clientes implementem softwares personalizados usando as 
ferramentas e linguagens de programação oferecidas pelo fornecedor. Os clientes têm 
controle sobre os aplicativos implantados e configurações relacionadas ao ambiente. Tal 
como acontece com SaaS, a gestão da infraestrutura subjacente reside na 
responsabilidade do fornecedor. Isso significa que a administração desses serviços, 
como atualização e correção, é de responsabilidade do provedor. 
 
https://www.google.com/url?q=https%3A%2F%2Fwww.sas.com%2Fpt_br%2Finsights%2Fanalemytics%2Fmachine-learning.html&sa=D&sntz=1&usg=AOvVaw1gkBrnk394ivunhtvfjisK
https://www.google.com/url?q=https%3A%2F%2Fwww.sas.com%2Fpt_br%2Finsights%2Fanalemytics%2Fmachine-learning.html&sa=D&sntz=1&usg=AOvVaw1gkBrnk394ivunhtvfjisK
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.s0v5m3x6omwc
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.s0v5m3x6omwc
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ocsv1t6plbwz
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ocsv1t6plbwz
 
 
Infraestrutura como serviço: 
IaaS (Infrastructure as a Service) fornece recursos de hardware como CPU 
(processamento), espaço em disco ou componentes de rede como um serviço. Esses 
recursos geralmente são entregues como uma plataforma de virtualização pelo provedor 
de nuvem e podem ser acessados pela Internet pelo cliente. O cliente tem controle total 
da plataforma virtualizada e não é responsável pelo gerenciamento da infraestrutura 
subjacente. 
 
Tipos de Nuvem 
Podemos classificar os tipos de nuvens como públicas e privadas. As nuvens públicas 
geralmente pertencem a empresas que disponibilizam seus serviços aos clientes 
interessados, essas empresas são chamadas também de provedores de serviços de 
nuvem. Nesse caso, todos os softwares e hardwares são administrados pela empresa 
onde o cliente, acessando sua conta, faz a contratação e uso dos serviços 
disponibilizados. 
A nuvem privada é direcionada geralmente ao uso de uma determinada empresa, ela 
possui seus softwares e hardwares próprios e tem o controle total destes, que geralmente 
estão localizados em um datacenter da própria empresa. 
 
Dentre as nuvens públicas mais conhecidas, podemos citar as das 
seguintes empresas: 
 Amazon 
 AWS – Amazon Web Services, é considerada o maior serviço de nuvem 
do mundo por sites da área, fornece mais de 175 tipos de serviços em datacenters 
distribuídos pelo mundo; 
 Disponível em https://aws.amazon.com/. 
 Google 
 Google Cloud Platform – é o serviço de nuvem da Google, focada na 
facilidade, é ideal para quem está se aventurando a conhecer essa área; 
 Disponível em https://cloud.google.com/. 
 Microsoft 
 Microsoft Azure – é o serviço de nuvem de uma das mais tradicionais 
empresas de tecnologia do mundo, a Microsoft foi precursora em diversas áreas 
da tecnologia e agora está amplamente posicionada com fornecimento de diversos 
serviços de nuvem a empresas e pessoas; 
 Disponível em https://azure.microsoft.com/. 
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.dnwc0exb4fj5
https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.dnwc0exb4fj5
https://www.google.com/url?q=https%3A%2F%2Faws.amazon.com%2F&sa=D&sntz=1&usg=AOvVaw29wsoj35m93uDTvRnP0949
https://www.google.com/url?q=https%3A%2F%2Faws.amazon.com%2F&sa=D&sntz=1&usg=AOvVaw29wsoj35m93uDTvRnP0949
https://cloud.google.com/
https://cloud.google.com/
https://www.google.com/url?q=https%3A%2F%2Fazure.microsoft.com%2F&sa=D&sntz=1&usg=AOvVaw07xcD7cdAAq-ezTbEBDRV4
https://www.google.com/url?q=https%3A%2F%2Fazure.microsoft.com%2F&sa=D&sntz=1&usg=AOvVaw07xcD7cdAAq-ezTbEBDRV4
BlockChain 
As criptomoedas atraíram muitas atenções nos últimos anos, tanto por pessoas 
relacionadas a organizações e também de pesquisadores do meio acadêmico, em razão 
do uso e das tecnologias que sustentam ela,a principal delas é o blockchain. O 
blockchain é o mecanismo central das criptomoedas atuais e foi proposto pela primeira 
vez em 2008 e implementado em 2009 por Satoshi Nakamoto, pseudônimo de uma 
pessoa ou grupo que criou a tecnologia blockchain e a criptomoeda bitcoin, que até hoje 
tem a sua identidade verdadeira desconhecida. 
Blockchain pode ser considerado como um livro-razão público, no qual todas as 
transações confirmadas são armazenadas nas chamadas cadeias de blocos. Essa cadeia 
cresce continuamente quando novos blocos são acrescentados a ela. O blockchain, a 
tecnologia, tem as principais características, como descentralização, persistência, 
anonimato e possibilidade de auditoria. Blockchain pode funcionar em um ambiente 
descentralizado, que é habilitado por integração de várias tecnologias essenciais, como 
hash criptográfico, assinatura digital (com base sobre criptografia assimétrica) e 
mecanismo de consenso distribuído. Com a tecnologia blockchain, uma transação pode 
ocorrer de forma descentralizada. Como resultado, blockchain pode economizar muito o 
custo e melhorar a eficiência. 
Embora Bitcoin seja o aplicativo de blockchain mais famoso, o blockchain pode ser 
aplicado em diversas aplicações, muito além das criptomoedas. Uma vez que permite 
pagamentos para ser finalizado sem qualquer banco ou qualquer intermediário, o 
blockchain pode ser usado em vários serviços financeiros, como ativos digitais, 
remessas e pagamento online ou para registar qualquer transação ou acordo entre duas 
partes. Além disso, a tecnologia blockchain está se tornando uma das tecnologias mais 
promissoras para a próxima geração de sistemas de interação na Internet, como 
contratos inteligentes, serviços públicos, Internet das coisas, sistemas de reputação e 
serviços de segurança. 
As aplicações provenientes do blockchain pode modificar a forma como as pessoas e 
empresas trabalham, principalmente na maneira que elas se relacionam, podendo a 
mesma ser utilizada como uma plataforma para assinar acordos como contratos (smart 
contracts) de qualquer espécie, como de compra e venda, registrar um documento 
importante ou mesmo implantar segurança em transações já existentes. 
 
 
Fique de olho! 
A IBM tem feito materiais destinados a falar das tecnologias relacionadas ao 
blockchain, clique aqui se quiser se aprofundar no assunto. 
 
https://www.google.com/url?q=https%3A%2F%2Fwww.ibm.com%2Fbr-pt%2Fblockchain%2Fwhat-is-blockchain&sa=D&sntz=1&usg=AOvVaw0nr-bYgAEqjppzvu8PzKKG
https://www.google.com/url?q=https%3A%2F%2Fwww.ibm.com%2Fbr-pt%2Fblockchain%2Fwhat-is-blockchain&sa=D&sntz=1&usg=AOvVaw0nr-bYgAEqjppzvu8PzKKG

Mais conteúdos dessa disciplina